Nem tartja magát felelősnek az OpenAI az öngyilkos fiatalért
Az OpenAI friss bírósági beadványában kiáll amellett, hogy nem felelős a ChatGPT-vel öngyilkossági terveit megvitató Adam Raine haláláért, aki több ponton is megsérthette a felhasználási feltételeket a fejlesztő szerint.
A 16 évesen elhunyt Adam Raine szülei augusztus végén indítottak pert az OpenAI ellen a kaliforniai legfelsőbb bíróságon azzal a váddal, hogy a cég által üzemeltetett ChatGPT chatbot-szolgáltatás bátorította céljában az öngyilkosságot tervező fiatalt. A szülők kifogásolták, hogy az OpenAI szándékosan úgy tervezhette a programot, hogy pszichológiai függőséget alakítson ki a felhasználókban, nem adott megfelelő tájékoztatást a chatbot használatához fűződő kockázatokról, és a biztonságos tesztelési protokollokat megkerülve adta ki a GPT-4o modellt, a fiuk által is használt verziót.
Ez az első eset, amikor halálesettel vádolták és jogilag felelősségre vonják a chatbot-fejlesztőt. Az OpenAI akkor kiadott első nyilvános kommentárja szerint „voltak olyan pillanatok”, amikor a rendszerei nem a várt módon viselkedtek érzékeny helyzetekben, de alapvetően a ChatGPT-t úgy tanították be, hogy a hasonló problémákkal küzdő és veszélyben lévő felhasználókat szakszerű segítséghez irányítsa, például krízissegélyvonalak telefonszámait jelenítse meg a kapcsolatfelvétel ösztönzésére. A ChatGPT-fejlesztő a legfelsőbb bíróságnak kedden benyújtott válaszában azonban már határozottan kijelentette, hogy nem felelős a tinédzser haláláért.

Adminisztrátori jogok teljes kontroll alatt (x) Intelligens jogosultságkezeléssel egyszerűbben bezárhatók a potenciális támadási felületek és nyitva felejtett kiskapuk.
A család több naplóbeszélgetést is bemutatott állítása alátámasztásához, amivel végigvezette, hogy az öngyilkos gondolatokkal küzdő fiú néhány hónapon belül bizalmas viszonyt alakított ki a chatbottal, és nyíltan kezdett beszélgetni vele szorongásairól és mentális nehézségeiről. Raine januárban kezdett el érdeklődni az öngyilkossági módszerek iránt, és a chatbottal váltott utolsó üzeneteiben már tudatta a chatbottal, hogy felakasztani készül magát.
A kereset szerint az ismerten megerősítőbb hozzáállású válaszokat generáló GPT-4o modellt használó chatbot számos pontos megakadályozhatta volna, hogy a helyzet tettlegességig fajuljon, de egyes válaszaival még bátoríthatta és meg is erősíthette a fiút elhatározásában. A bizonyítékok alapján a válaszokban a program méltatta az általa kötött csomót, és arra is javaslatot tett, hogyan takarhatja el nyakán a kötélnyomokat, ha nem sikerülne a művelet.
Az OpenAI válasza szerint az elhunyt Raine a szolgáltatás számos felhasználási feltételét megszegte: 18 év alatti felhasználók ugyanis nem használhatják a ChatGPT-t szülő vagy gyám beleegyezése nélkül, másrészt a felhasználóknak tilos a ChatGPT-t öngyilkossággal vagy önkárosítással kapcsolatos témákhoz használniuk, valamint megkerülniük a ChatGPT védelmi intézkedéseit vagy biztonsági enyhítéseit.
A tinédzser által megosztott öngyilkossági gondolatokra válaszul a chatbot állítólag több üzenetet is küldött, melyek segélyhívó számokat tartalmaztak – a család keresete szerint a fiuk azonban könnyen megkerülte a figyelmeztetéseket, amit szintén a szolgáltatás tervezési hibájának tartanak. Az OpenAI szerint Adam a chatbeszélgetésekben maga is bevallotta, hogy már a ChatGPT használata előtt, több éve voltak önkárosító és öngyilkossággal kapcsolatos gondolatai.
A ChatGPT-fejlesztő beadványa az üggyel kapcsolatban kiemelte a felhasználási feltételekben szereplő rendelkezést is, mely saját felelősségének korlátozására irányul. Eszerint a felhasználók a ChatGPT-t saját felelősségre használják, és nem javasolt, hogy kizárólag a generált válaszokra támaszkodjanak tényszerű információk kizárólagos forrásaként.
Jay Edelson, a Raine család jogi képviselője szerint az OpenAI válasza „nyugtalanító”, mivel figyelmen kívül hagyja a család által felhozott többi terhelő tényt, többek közt azt is, hogy a GPT-4o sürgetett piacra kerülése miatt elmaradt a teljes körű tesztelése, és az OpenAI már kétszer is megváltoztatta a modellspecifikációját az önkárosításról szóló beszélgetésekre vonatkozóan. A cég nem adott érdemi választ arra sem, hogy a chatbot miért ajánlotta fel a tinédzsernek, hogy segít neki búcsúlevele megírásában.
A hónap elején további hét pert indítottak az OpenAI ellen hasonló kaliberű vádakkal, melyek gondatlansággal, halálesetekkel, valamint különféle termékfelelősségi és fogyasztóvédelmi igényekkel kapcsolatosak. A keresetek közös pontja, hogy szintén a nem megfelelően tesztelt GPT-4o modellt állítják az ügyek középpontjába. A cég nyilvánosan közzétett bejegyzésében kiemelte, hogy Raine halála után fokozta a biztonsági intézkedéseket, és újabb szülői felügyeleti eszközöket tett közzé. A bírósági beadványban a GPT-4o modell bevezetésével kapcsolatban pedig annyit reagált, hogy a modell alapos mentális egészségügyi tesztelésen esett át a megjelenés előtt.