Bőven van mit fejlődni az AI-fejlesztőknek biztonság terén
Irtózatos tempóban fejlődnek az AI-modellek, de a fejlesztők nem tesznek eleget a kockázatok csökkentésének érdekében, sok esetben saját kötelezettségvállalásaikat sem képesek teljesíteni.
A mesterséges intelligencia kockázataival foglalkozó Future of Life Institute (FLI) nonprofit szervezet kiadta legfrissebb AI-biztonsági indexét (AI Safety Index), ami aggasztó képet fest a legnépszerűbb AI-modelleket fejlesztő cégek jelenlegi hozzáállásáról. A publikált vizsgálatban szereplő egyetlen szervezet sem ért el D-osztályzatnál magasabbat az egzisztenciális biztonságot garantáló tervezés kategóriájában azon a skálán, amin a legjobb osztályzatnak az „A+", a legrosszabbnak pedig az „F" számít. Az FLI szerint az AI-technológiákat fejlesztő vállalatok alapvetően felkészületlenek, miközben legtöbben az „emberi szintű intellektuális teljesítményt” nyújtó rendszerek létrehozásán dolgoznak, de nincs koherens, megvalósíthatósági tervük a rendszerek biztonságának és ellenőrizhetőségének biztosítására.
Az AGI, azaz Artifical General Intelligence egyelőre egy elméleti fogalom, mely szinten az AI már képes lehet az emberi értelmet megközelítő minőségben gondolkodni, tanulni és önállóan döntéseket hozni. A jelenlegi rendszerek erősen specializáltak, míg az AGI képes adaptálódni és saját maga tanulni új környezetekben és helyzetekben. A ChatGPT-fejlesztő OpenAI nem titkolt terve, hogy erre a szinte juttassa saját technológiáját, ami az aktivisták szerint egzisztenciális fenyegetést jelenthet, és katasztrofális követkeményekkel járhat. Az FLI szerint az iparág alapvetően nincs felkészülve ennek a grandiózus célnak a megvalósítására.
Az index hét AI-fejlesztő, a Google DeepMind, az OpenAI, az Anthropic, a Meta, az xAI, valamint a kínai DeekSeek és a szintén kínai Zhipu AI hozzáállását és eredményeit értékelte hat területen, melyek főleg olyan kockázatokat foglalnak magukba, mint az aktuális káros hatások és az egzisztenciális biztonság. Az FLI által vizsgálat kategóriákat egy AI- szakértőkből álló testület határozta meg és vizsgálta felül, köztük Stuart Russell brit informatikus és Sneha Revanur, az Encode Justice mesterséges intelligencia szabályozásáért felelős kampánycsoport alapítója.
A legmagasabb összesített pontszámot az Anthropic érte el C+ minősítéssel, amit követett a C-osztályzatos OpenAI és a DeepMind. A főbb megállapítások alapján továbbra is nagy eltérések mutatkoznak a kockázatkezelési gyakorlatokban: míg egyes vállalatoknak sikerült kibővíteni biztonsági keretrendszereiket, és komoly kockázatértékelési erőfeszítéseket tettek az elmúlt hónapok során, mások a legalapvetőbb óvintézkedéseket sem teljesítik.
Az FLI szerint a fő tanulság, hogy a vállalatok jelenlegi stratégiái nem megfelelőek annak biztosítására, hogy ezek a rendszerek emberi ellenőrzés alatt maradjanak és biztonságos legyen a használatuk, a probléma megoldására fordított erőfeszítések pedig nem elégségesek. Szükséges lenne külső felügyelet biztosítása is, mivel egyes vállalatok a korábbi önkéntes kötelezettségvállalásaikat is feladták, így indokolt lehet a kockázatértékelés harmadik fél általi validálása és a jogilag kötelező érvényű felügyelet.
A szintén biztonságért dolgozó SaferAI nonprofit szervezet szintén a hetekben adott ki jelentést hasonló konklúzióval, miszerint az AI-jal foglalkozó cégek kockázatkezelési gyakorlatai gyengék, vagy határozottan nagyon gyengék, és a hozzáállásuk „elfogadhatatlan”.