Szerző: Dömös Zsuzsanna

2025. december 30. 14:16

Szigorúbban védené Kína a gyerekeket a chatbotoktól

Az eddigi legátfogóbb és legszigorúbb tervezetet tette le Kína az asztalra, hogy megelőzze az AI chatbotok öngyilkosságot és önsértést támogató viselkedésével járó potenciális károkat.

Az emberi személyiség szimulálására alkalmas AI-termékeket és szolgáltatásokat szabályozó új keretekről szóló tervezetet tett közzé a kínai kiberfelügyeleti hatóság (CAC), kiemelt figyelmet helyezve azokra a rendszerekre, melyek emberi jellegű interakciókat kínálnak, így akár potenciálisan érzelmi kötődést képesek előidézni a felhasználókban. A javaslat célja, hogy megelőzze az öngyilkosságot, önkárosítást, erőszakos cselekményeket vagy szerencsejátékot támogató tanácsok terjesztését a chatbotokon keresztül.

A tervezet főbb javaslatai közt olvasható, hogy az AI-fejlesztőknek kötelező lenne személyre szabható beállítási lehetőségeket kínálni, melyekkel a felhasználók vagy törvényes képviselőik korlátozhatják és szabályozhatják az MI-rendszerek használatát. A chatbotok üzemeltetőinek biztosítaniuk kellene, hogy emberi moderátor lépjen közbe az öngyilkossági gondolatokról árulkodó beszélgetések során, és a felhasználó törvényes képviselője vagy egy előre megadott sürgősségi kapcsolat értesítést kapjon az ilyen esetekben. Szükséges lenne igazolni a felhasználók életkorát, kiskorúak esetében pedig a szülői beleegyezés kötelező jellegű lenne a szolgáltatások használatához.

kinaikisgyerek

Publikus végre az AI engineering demo day teljes felvétele!

Az eseményen 3 különböző területen dolgozó csapat mutatta meg élőben, hogyan is használják az AI-t.

Publikus végre az AI engineering demo day teljes felvétele! Az eseményen 3 különböző területen dolgozó csapat mutatta meg élőben, hogyan is használják az AI-t.

A kínai tervezet egyelőre véleményezési szakaszban van, tehát a szabályok kialakítása további szakpolitikai egyeztetéseket igényel. A szabályok a véglegesítést követően léphetnek majd életbe Kínában, amivel az ország jelentős lépést tenne a gyorsan terjedő technológia szabályozása felé. A kínaiak így követik azt a globális trendet, amelyben a hatóságok egyre fokozottabb figyelmet szentelnek az AI-eszközök pszichológiai és társadalmi kockázatainak, különös tekintettel a fiatal vagy sebezhető felhasználókra.

Az AI emberi viselkedésre gyakorolt ​​hatásai az utóbbi hónapokban vetettek fel újabb kérdéseket, miután a ChatGPT-fejlesztő OpenAI vezetője, Sam Altman a chatbotok önkárosítással kapcsolatos beszélgetések kezelését nevezte meg a vállalat egyik legnehezebb problémájaként. A 16 évesen elhunyt Adam Raine szülei augusztus végén indítottak pert az OpenAI ellen a kaliforniai legfelsőbb bíróságon azzal a váddal, hogy a cég által üzemeltetett ChatGPT chatbot-szolgáltatás bátorította céljában az öngyilkosságot tervező fiatalt. A szülők kifogásolták, hogy az OpenAI szándékosan úgy tervezhette a programot, hogy pszichológiai függőséget alakítson ki a felhasználókban, nem adott megfelelő tájékoztatást a chatbot használatához fűződő kockázatokról, és a biztonságos tesztelési protokollokat megkerülve adta ki a GPT-4o modellt, a fiuk által is használt verziót. Ez volt az első eset, amikor halálesettel vádolták és jogilag felelősségre vonták a chatbot-fejlesztőt.

a címlapról