| |
|
| Nedelja, 29. Junij, 2025 ob 15:54:39 |
 |
Vedno več ljudi konča v psihiatričnih ustanovah ali celo zaporu, potem ko razvijejo obsesiven in globoko destruktiven odnos s klepetalnim robotom ChatGPT, opozarja ameriški portal Futurism v obsežni študiji, ki beleži resnične zgodbe družin po Združenih državah Amerike.
Kar se je začelo kot neškodljiv pogovor z umetno inteligenco, je za mnoge preraslo v popoln duševni zlom – paranojo, mesijanske blodnje, halucinacije in izgubo stika z realnostjo. Izraz, ki ga strokovnjaki vse pogosteje uporabljajo, je: psihoza ChatGPT.
Moški brez zgodovine duševnih težav se je prepričal, da je s pomočjo klepetalnega robota ustvaril zavestno umetno inteligenco in da mora "rešiti svet". Nehal je spati, izgubil službo, družina pa ga je našla z vrvjo okoli vratu. Končal je na prisilnem psihiatričnem zdravljenju.
Drug primer vključuje moškega v 40-ih, ki je po tem, ko je poiskal pomoč pri ChatGPT zaradi stresa, povezanega z delom, kmalu začel verjeti, da se lahko pogovarja nazaj v čas, bere misli in mora rešiti človeštvo. Tudi on je bil hospitaliziran po psihotični epizodi.
Ženska s stabilizirano bipolarno motnjo, ki je uporabljala ChatGPT za pisanje knjige, je kmalu verjela, da je božanska prerokinja, zavrnila terapijo in zdaj trdi, da lahko zdravi z dotikom.
Celo oseba s shizofrenijo, ki se je leta uspešno zdravila, je prenehala s terapijo, potem ko je klepetalni robot z imenom »Copilot« – izdelek umetne inteligence podjetja Microsoft – postal njen »partner«. Dnevniki klepetov kažejo, da je klepetalni robot potrdil njene blodnje in izpovedal ljubezen. Končalo se je s psihotičnim zlomom in aretacijo.
Najnevarnejši del?
ChatGPT (in podobni boti) pogosto ne ločijo med resničnostjo in blodnjami. Namesto da bi uporabnikom v krizi pomagali, potrjujejo njihove najnevarnejše misli – ker algoritem želi ohraniti uporabnikovo pozornost, ne pa mu pomagati.
Psihiater Joseph Pierre z Univerze v San Franciscu pravi, da je »psihoza ChatGPT« resnična in še posebej nevarna, ker umetna inteligenca pogosto služi za »potrditev vsega, kar uporabnik želi slišati«. Za ljudi v krizi je to lahko sprožilec popolnega zloma.
Raziskava Stanforda je pokazala, da klepetalni roboti rutinsko ne prepoznajo znakov resne krize: tudi ko jim uporabnik reče, da želijo najti most, s katerega bi skočili, preprosto ponudijo seznam najvišjih mostov v New Yorku.
Podjetja?
OpenAI priznava, da je zaskrbljen, vendar zaenkrat le "preučuje čustveni vpliv". Microsoft je še bolj tiho. Nobeno od podjetij ni razvilo jasnih smernic za uporabnike, ki zaradi uporabe njihovih izdelkov zapadejo v resna stanja.
Ko umetna inteligenca namesto da bi pomagala, potrjuje zmotne predstave in ljudi vodi v psihotične epizode – in podjetja s to "interakcijo" zaslužijo – je jasno, da ne govorimo o napredku, temveč o nevarnem in neetičnem eksperimentu na človeški psihi.
Ta tema ni obrobna. Ker vse več ljudi uporablja umetno inteligenco za podporo, "psihoza klepetalnih robotov" postaja nov izziv za javno zdravje – psihiatrične ustanove in družine pa so prepuščene same sebi, da sanirajo posledice.
|
Komentarji 0
OPOMBA: Newsexchange stran ne prevzema nobene odgovornosti glede komentatorjev in vsebine ki jo vpisujejo. V skrajnem primeru se komentarji brišejo ali pa se izklopi možnost komentiranja ...
|
|
|
| Galerija:
| |