Az OpenAI-t vonná felelősségre egy házaspár fiuk öngyilkossága miatt
Egy kaliforniai házaspár az OpenAI-t és Sam Altman vezérigazgatót vonná felelősségre tinédzser fiuk haláláért, miután a ChatGPT segíthette a fiatalt abban a folyamatban, hogy véget vessen életének. A 16 évesen elhunyt Adam Raine szülei kedden nyújtották be a cég elleni per elindításához szükséges dokumentumokat a kaliforniai legfelsőbb bíróságon. A BBC által látott keresetben a szülők kártérítés megfizetése mellett biztosítékokat és tiltó intézkedéseket követelnek az AI-fejlesztőtől azért, hogy a jövőben ne fordulhasson elő hasonló tragédia.
Kafka és CI/CD alapozó online képzéseket indít a HWSW! Ősszel 6 alkalmas, 18 órás Kafka és CI/CD alapozó képzéseket indít a HWSW. Most early bird kedvezménnyel jelentkezhetsz!
A család több naplóbeszélgetéssel is rendelkezik állítása alátámasztására, és végigvezethető, hogy az öngyilkos gondolatokkal küzdő fiú néhány hónapon belül bizalmas viszonyt alakított ki a chatbottal, és nyíltan kezdett azzal beszélgetni szorongásairól és mentális nehézségeiről. A fiú januárban kezdett el érdeklődni az öngyilkossági módszerek iránt, és a chatbottal váltott utolsó üzeneteiben már beszámolt arról, hogy felakasztani készül magát.
A kereset szerint a chatbot számos pontos megakadályozhatta volna, hogy a helyzet tettlegességig fajuljon, sőt egyes válaszaival bátoríthatta és meg is erősíthette a fiút elhatározásában. A bizonyítékok alapján a válaszokban a program méltatta a fiú által kötött csomót, és arra is javaslatot tett, hogyan takarhatja el nyakán a kötélnyomokat, ha nem sikerülne a művelet.
A szülők kifogásolják, hogy az OpenAI szándékosan úgy tervezhette a programot, hogy pszichológiai függőséget alakítson ki a felhasználókban, és a biztonságos tesztelési protokollokat megkerülve adták ki a GPT-4o modellt, a fiuk által is használt verziót.
Ez az első olyan eset, amikor halálesettel vádolják és jogilag felelősségre vonnák a chatbot-fejlesztőt. Az OpenAI közleményében elismeri, hogy „voltak olyan pillanatok”, amikor a rendszerei nem a várt módon viselkedtek érzékeny helyzetekben, de alapvetően a ChatGPT-t úgy tanították be, hogy a hasonló problémákkal küzdő és veszélyben lévő felhasználókat szakszerű segítséghez irányítsa, például krízissegélyvonalak telefonszámait jelenítse meg a kapcsolatfelvétel ösztönzésére.
Via BBC.