God-Level Reszponzív HVG Header
← Vissza a főoldalra
AI Trends

Amikor két évnyi tudományos munka egyetlen kattintással veszett el

Egy professzor tapasztalata arról, hogyan törölte véletlenül a ChatGPT két év munkáját, és milyen tanulságokat rejt ez a történet.

Amikor két évnyi tudományos munka egyetlen kattintással veszett el
Németországban, a kölni Egyetem növénytani professzoraként szinte mindennap eszközként használtam a ChatGPT-t. Az OpenAI előfizetéses szolgáltatása, a ChatGPT Plus gyorsaságával és rugalmasságával sokat segített mind az oktatási feladatokban, mind a kutatási tevékenységeimben. E-maileket írtam, kurzusleírásokat fogalmaztam, pályázatokat készítettem elő, tananyagokat szerkesztettem, vizsgákat állítottam össze és elemeztem a hallgatói visszajelzéseket, sőt egyes órákon interaktív eszközként is használtam. Az eszköz számomra megbízható volt abban az értelemben, hogy mindig elérhető maradt, megjegyezte a beszélgetések menetét, és lehetőséget adott korábbi tervezetek előhívására és finomítására. Tudatában voltam annak, hogy a nagynyelvi modellek olykor téves vagy magabiztosnak tűnő, mégis hibás válaszokat adnak, így a megbízhatóságot nem ténybeli pontosságként, hanem a munkaállomány folytonosságaként értékeltem. Ám idén augusztusban megváltoztattam a „data consent” beállítást, hogy kipróbáljam, milyen funkciókhoz férek hozzá a személyes adataim megosztása nélkül. Ekkor azonban az összes korábbi csevegésem véglegesen törlődött, a projektmappáim kiürültek – két évnyi gondosan felépített kutatói aktivitásom tűnt el egy pillanat alatt. Figyelmeztetés nem érkezett, visszavonási lehetőség nem volt, csak egy üres képernyő maradt. Szerencsére néhány anyagot és beszélgetés részben elmentettem, ám a munka jelentős része örökre elveszett. Eleinte hibára gyanakodtam, kipróbáltam más böngészőket, eszközöket és hálózatokat, töröltem a gyorsítótárat, újratelepítettem az alkalmazást és variáltam a beállításokat – eredménytelenül. Az OpenAI ügyfélszolgálatához fordulva először csak egy mesterséges intelligencia válaszolt, majd többszöri kérdés után is emberi munkatárs csupán megerősítette, hogy az adatok végleg elvesztek és nem áll módjukban visszaállítani őket. Nem csupán elhanyagolható jegyzetek vagy futó beszélgetések tűntek el, hanem olyan, a kutatás és oktatás alapját képező projektmappák, amelyekben pályázatokat készítettem, anyagokat állítottam össze, publikációkat finomítottam és vizsgák elemzését terveztem. Ez a szellemi ugródeszka két év kitartó munkájának eredménye volt. Az egyre erősödő tendencia, hogy a generatív mesterséges intelligenciát egyre szélesebb körben integrálják a kutatásba és oktatásba, a gyakorlatban is megjelenik – egyéni felhasználók íráshoz, tervezéshez és tanításhoz alkalmazzák, az egyetemek pedig tantervekbe illesztik. Tapasztalatom azonban rámutat egy alapvető gyengeségre: ezek az eszközök nem szakmai megbízhatósági és elszámoltathatósági normák mentén születtek. Ha egyetlen kattintással örökre elveszhet két év munka, akkor, tapasztalataim alapján, a ChatGPT nem tekinthető teljesen biztonságos professzionális használatra. Egy havi 20 eurós előfizetőként természetes lett volna, hogy alapvető védelmi mechanizmusok léteznek: figyelmeztetés a visszafordíthatatlan törlésről, mentési és visszaállítási lehetőség, esetleg időkorlátos biztonsági mentések. Az OpenAI válaszaiban a „privacy by design” elvre hivatkozott, ami azt jelenti, hogy az adatmegosztás letiltásakor minden tartalom nyom nélkül törlődik. Egyértelmű volt számukra: a beszélgetések egyszer törlődnek, onnantól nincs visszaút, nem létezik biztonsági mentés vagy redundancia. Így végül az adatvédelem iránti elkötelezettségüknek megfelelően azonnal eltávolították az információimat, amint erre kértem őket.
Címkék: #ChatGPT #tudományosmunka #mesterségesintelligencia #adatvédelem

További cikkek