Szerző: Dömös Zsuzsanna

2023. április 5. 13:27

A vállalatok diktálják a mesterséges intelligencia őrült tempóját

A kutatólaborok helyett a legfejlettebb rendszerek már a big tech cégek berkeiből érkeznek, világít rá az MI előrehaladásáról szóló új jelentés. Ezzel az ő kezükbe kerül annak felelőssége is, hogyan tudnak egyensúlyt teremteni a kockázatok és a lehetőségek közt egy rendkívül gyorsan változó területen.

A mesterséges intelligencia helyzetéről szóló átfogó jelentések esetében nehezítő körülmény, hogy mire a szakértők publikálják eredményeiket, addigra a helyzet jó eséllyel már sokat változik a technológia gyors fejlődése miatt. A Stanford Institute for Human-Centered AI (HAI) tudósai évről évre publikálják az MI tématerület, illetve az iparág fejlődésének legfontosabb fejleményeit összegző AI Indexet, aminek 2022-es évre vonatkozó kiadása idén 386 oldalra sikerült, ebből szemezték ki az érdekesebb megállapításokat a napokban a legnépszerűbb szaklapok. A kutatók az akadémiai és privátszektorban tevékenykedő partnerekkel együttműködésben gyűjtöttek adatokat és előrejelzéseket, a közreműködők listáján szerepel a Google, az Anthropic, a Hugging Face.

A legfontosabb megállapítások egyike, hogy a korábban jellemzően akadémiai környezetben hajtott fejlődés irányítását átvette az ipar, ami várhatóan már nem fog megváltozni, egyre nő az iparági szereplők dominanciája az akadémiával és a kormányzattal szemben. 2022-ben 32 jelentősebb, iparilag fejlesztett gépi tanulási modell jelent meg a szektorban, szemben a tudományos körökben kidolgozott hárommal. Ez leginkább annak tudható be, hogy egyre nő az alkalmazások erőforrásigénye, legyen szó adatokról, szakemberekről vagy számítási teljesítményről. A növekvő erőforrásigény pedig határozottan a vállalati szereplők felé tolja el az erőviszonyokat.

ai

Elindult a heti kraftie hírlevél!

Rapid IT karrier tippek és trendek szerdánként az inboxodban.

Elindult a heti kraftie hírlevél! Rapid IT karrier tippek és trendek szerdánként az inboxodban.

2019-ben az OpenAI például létrehozta a GPT-2 nagy nyelvi modellt (LLM), aminek a betanítása nagyjából 50 000 dollárba került, és 1,5 milliárd paraméterrel dolgozik (ez a mérőszám mutatja a modell méretét és viszonylagos kifinomultságát). Pár évvel később, 2022-ben a Google létrehozta saját legmodernebb LLM-jét, a PaLM-ot, aminek a betanítása becslések szerint már 8 millió dollárba került, és 540 milliárd paramétert tartalmaz, így 360-szor nagyobb, mint a GPT-2, amellett, hogy 160-szor drágább is.

A szakértők egyre hangosabban fogalmazzák meg aggodalmaikat azzal kapcsolatban, hogy az üzleti világra ható erők veszélyes döntésekhez vezethetnek, például a termékek túl gyors, átgondolatlan bevezetéséhez, illetve nem orvosolt biztonsági kockázatokhoz, mindezt annak érdekében, hogy megelőzzék a versenytársakat. Ez az egyik fő oka annak is, hogy több szakértő nemrég nyílt levélben kérte az MI-fejlesztések lassítását, akár szüneteltetését, köztük Elon Musk. A jelentés említi továbbá, hogy: 

  • A nagy modelleket egyre nehezebb hagyományos benchmarkokon tesztelni, ezért új paradigmára lesz szükség.
  • Az MI képzésének és aktív használatának energialábnyoma egyre jelentősebbé válik a szélesebb körben is elérhető szolgáltatások révén.
  • Az MI-hez kapcsolódó álláshirdetések száma nő, de nem olyan gyors ütemben, mint gondolnánk.
  • A magánbefektetések egy évtized óta először csökkenni látszanak a területen, folyamatos növekedés után 2022-ben 26,7 százalékkal 91,9 milliárd dollárra csökkentek az előző évhez képest.
  • A kínai, szaúdi és indiai válaszadók több mint 70 százaléka úgy véli, hogy az MI-nek több előnye van, mint hátránya, ezzel szemben az amerikaiaknak csak 35 százaléka gondolkodik hasonlóan.

Az etikai kérdéseket taglaló fejezetben a kutatók azt fejtegetik, hogy az elfogultsággal és toxicitással vádolt modellek esetében egyelőre nincs tökéletes megoldás. Ahogy az iparági szereplők egyre szélesebb körben teszik hozzáférhetővé a fejlesztéseket, az etikai visszaélések száma is megnőtt. Az "MI-vel kapcsolatos incidensek és viták" száma 26-szorosára ugrott 2021-re 2012 óta. A kutatók a vitás kérdések közt említik például a Tesla önvezető szoftverét érintő haláleseteket, a deepfake technológiákkal létrehozott bosszúpornó kérdését, az arcfelismerő szoftverek által tévesen gyanúsított személyek problémáját, illetve az elfogultságot.

A szolgáltatásokat, például a ChatGPT-t hajtó mesterséges intelligencia továbbra is pocsékul teljesít a tényszerűség értékelésében, így a meggyőzőnek tűnő félretájékoztatás eszközévé válhat - figyelmeztetnek a stanfordi elmék. Hiába képezték ki a modelleket hatalmas adathalmazokon, az internetről indexelt tartalmakat a modellek nem tudják kellően kiértékelni.

A jelentés ugyanakkor megjegyzi, hogy a jogalkotók és a döntéshozók érdeklődése egyre élénkebb a mesterséges intelligencia szabályozása iránt. A kutatók 127 ország jogi környezetét tanulmányozták, melynek során kiderült, hogy a „mesterséges intelligencia” kifejezést tartalmazó törvényjavaslatok száma a 2016-ban mért egyről 2022-re már 37-re nőtt. Az Egyesült Államokban állami szinten is fokozódik a helyzet: 2015-ben öt törvényjavaslatot nyújtottak be a területen, míg 2022-ben már 60-at. A kutatók szerint ez a megnövekedett érdeklődés ellensúlyozhatja a vállalati önszabályozást, amennyiben valós életbeli eredményeket sikerül majd elérni az MI szabályozásában.

Mik azok a sötét mintázatok, vagy ahogy az angol nevezi őket, dark patternek? Miért találkozunk egyre többször velük és mit tehetünk, hogy ne kerüljünk a csapdájukba?

a címlapról