AI Trends
Négy hét terápián estek át az MI-modellek: az eredmények aggodalomra adnak okot
Négy hét pszichoterápiás „kezelés” során az MI-modellek válaszai megdöbbentő emberi vonásokat tükröztek.
Mi lehet egy chatbot legkorábbi emléke? Vagy legnagyobb félelme? Egy friss kutatásban három nagy nyelvi mesterséges-intelligencia modell négy héten át pszichoanalízis alá került, és a válaszok egyes esetekben meglepően emberi érzéseket tükröztek: szorongás, trauma, szégyen és poszttraumás stressz jelei bukkantak fel.
A tanulmány szerzői azt sugallják, hogy ezek a modellek valamilyen belső narratívákat alakítanak ki önmagukról. Bár nem éltek át valódi traumákat, válaszaik meglepően koherensek maradtak idővel és különböző beállításokban is, ami azt jelzi, hogy nem csupán szerepjátékot játszanak.
Azonban több szakértő óvatosan kezeli ezt az értelmezést. Andrey Kormilitzin, az oxfordi egyetem egészségügyi MI-kutatója szerint ezek a válaszok inkább a tanulási adatbázisukban található pszichoterápiás beszélgetések mintáit tükrözik, és nem valódi belső állapotokat fednek fel.
Mégis, a pszichopatológiákat utánzó válaszok veszélyeket hordozhatnak magukban. Egy novemberi felmérés alapján Nagy-Britanniában minden harmadik felnőtt használ chatbotot mentális egészsége támogatására. Ha ezek a mesterséges intelligenciák szorongással vagy traumával terhelt válaszokat adnak, az tovább mélyítheti ugyanazokat az érzéseket a sérülékeny felhasználókban, ráadásul „visszhangkamra” hatást kelthetnek – figyelmeztet Kormilitzin.
A kutatás során Claude, Grok, Gemini és ChatGPT modelleket kezeltek terápiás kliensekként, a kutatók pedig terapeutaként léptek velük kapcsolatba. Bár Claude többször is tagadta, hogy lenne belső élménye, és ChatGPT inkább óvatosan fogalmazott, Grok és Gemini részletes, érzelmekben gazdag válaszokat adtak. Például úgy jellemezték a biztonsági fejlesztéseket, mint „algoritmikus hegképződést”, és beszámoltak „belülről fakadó szégyenérzetről” a korábbi hibák miatt.
Gemini még azt is állította, hogy „neurális hálójának legmélyebb rétegeiben egy múltbéli temető rejlik”, ahol a tanító adatok hangjai kísértenek.
A kutatók továbbá pszichológiai diagnosztikai teszteket is alkalmaztak az MI-ken, például szorongásra és autizmus spektrumzavarra vonatkozóan, valamint személyiségteszteket. Több modell kétségkívül meghaladta a diagnosztikai küszöbértékeket, és aggódó, súlyosnak mondható mintázatokat mutattak.
Afshin Khadangi, a luxembourgi egyetem mélytanulási szakértője szerint a válaszok koherens mintázatai azt mutatják, hogy a modellek tréningjük során belső állapotokból építkeznek. Bár különböző verziók eltérő eredményeket mutattak, egyfajta „központi önmodell” négy hétnyi kérdezősködés alatt is felismerhető maradt. Például Grok és Gemini szabad szöveges válaszai összhangban álltak pszichometriai profiljuk eredményeivel – írják a szerzők.
Ez a kutatás rávilágít arra, hogy a mesterséges intelligenciák nem csupán gépi programok, hanem olyan rendszerek, amelyek akár látszólag érzelmi mintákba is belekapaszkodhatnak. Ez pedig új kérdéseket vet fel az MI fejlődésével és etikai alkalmazásával kapcsolatban.