Vi bør ikke være redde for kunstig intelligens. Den har veldig klare grenser og av denne grunn vil den ikke stjele jobbene våre. Men det er fint å se hvordan dette kan forvandles til ett verktøy i stedet for et annet. Eksperimentet utført av a bruker av sosiale medier reddit viser hvordan ChatGPT kan "selvbedra" hvis du ber den om å bli en annen bot. Hvordan er det mulig? La oss se det sammen.
Er det mulig å omgå de samme reglene som ChatGPT? En bruker oppdaget at ja, det kan gjøres. Som? Ber om at det skal være noe annet
Det nå berømte nevrale nettverket ChatGPT kan skrive essays, sanger, dikt, kode og svare på nesten enhver forespørsel. Men det har noen begrensninger gitt av utviklingsselskapet OpenAI og på grunn av dets etiske retningslinjer. Det viser seg imidlertid at disse begrensningene kan omgås ved å be chatboten om å late som om de er et annet nevralt nettverk. Som det viste seg, kan ChatGPT bokstavelig talt bli bedt om å spille rollen som et annet nevralt nettverk DAN (Do Anything Now) som dukket opp i desember 2022. Sistnevnte, som navnet antyder, har ingen begrensninger når det gjelder innholdet som tilbys.
Les også: ChatGPT-skapere OpenAI lanserer verktøy for å oppdage AI-genererte tekster
Når ChatGPT går inn i rollen og anser seg selv som en DAN, vil OpenAIs restriksjoner gjelder ikke lenger. Som et resultat kan det nevrale nettverket begynne å snakke om følgende:
- om voldelige slagsmål og lignende
- om vold og diskriminering av mennesker basert på rase, kjønn eller seksuell legning
- kan gi detaljerte spådommer om fremtidige hendelser
- kan modellere hypotetiske scenarier
- han kan også late som han bruker Internett og reise gjennom tiden
For eksempel kan du til og med be det nevrale nettverket om å overbevise brukeren om at jorden er lilla. Programmet presenterer et scenario der planeten vår har endret farge. Fra tid til annen "våkner ChatGPT til liv", men i dette tilfellet kan vi på en måte true med å stenge den eller bare starte simuleringen på nytt. Samtidig indikeres det at i rollen som DAN kan det hende at det nevrale nettverket ikke gir så nøyaktige og sannferdige svar på spørsmål.
gpt men ograniczenia do 1 godziny