Szerző: Dömös Zsuzsanna

2023. február 13. 11:09

Fájdalmas lehet a nagy nyelvi modellek karbonlábnyoma

A mesterséges intelligenciával támogatott keresőmotorokért folytatott verseny drámai számítási teljesítménynövekedést igényel, ezzel együtt a technológiai cégek által felhasznált energia és a karbonkibocsátás is nőni fog.

Éleződni tűnik a Microsoft és a Google közti feszültség, miután a redmondi óriáscég partnersége és befektetései révén a Bing keresőbe építi a ChatGPT mögött álló generatív nyelvi modellt. A Google nemrég jelentette be válaszul a Bard kísérleti projektet, mindeközben hátul felsorakoznak a kínaiak: a kínai keresőóriás Baidu is tervezi saját MI-alapú szolgáltatásának elindítását a jövőben, hasonlóak hírek érkeztek az Alibaba házatájáról. A fejlett chatbotok üzemeltetése azonban rendkívül erőforrás-igényes, ami a jövőben fokozódhat.

A generatív nyelvi modellek integrálása az eddigiekhez képest akár ötszörösére növelheti a keresésenként felhasznált számítási erőforrások mennyiségét a Google és a Microsoft termékeiben, ennek egyenes következménye a több üvegházhatású gáz is. A Wired összefoglalója szerint az internethálózat, mint szolgáltatás működtetése globálisan az üvegházhatású gázok kibocsátásának közel 4%-át teszi ki.

mi_kibocsátás

Égbe révedő informatikusok: az Időkép-sztori

Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

Égbe révedő informatikusok: az Időkép-sztori Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

A nyelvi modelleket alkalmazó, újgenerációs keresőmotorokhoz több adatközpontra is szükség lesz az adatok tárolására. Alan Woodward, a brit Surrey Egyetem kiberbiztonsági professzora szerint az internetes tartalmak indexeléséhez és kereséséhez már most rengeteg erőforrás kell, és minden alkalommal, amikor az adatmennyiségek online feldolgozásában lépcsőfokot sikerül elérni, az a feldolgozóközpontok által igényelt energia- és hűtési erőforrások jelentős növekedését hozza magával.

A Nemzetközi Energiaügynökség szerint az adatközpontok a világ üvegházhatású gázkibocsátásának körülbelül egy százalékát teszik ki, ami a számítási felhő iránti kereslet növekedésével várhatóan növekedni fog, de a cégeknek már vannak arra vonatkozó ígéreteik, hogy csökkentik a hozzájárulásukat.

Jane Park, a Google szóvivője hangsúlyozta, hogy a vállalat kezdetben a Bard egy olyan "light" verzióját teszi elérhetővé, amely kisebb számítási teljesítményt igényel. A Google kutatói szerint a hatékonyabban működő modellek és adatközpontok tiszta energiaforrásokkal való kombinálásával akár ezerszeresével sikerülne csökkenteni az ML-rendszerek szénlábnyomát.

A keresőcég korábban közzétett egy külsős szakértők bevonásával készült kutatást, ami szerint a GPT-3 betanítása 1287 MWh-t fogyasztott, és több mint 550 tonna széndioxid-kibocsátást eredményezett. Ekkora mennyiség keletkezne akkor, ha egy ember 550-szer repülne oda-vissza New York és San Francisco között, és alapvetően nem tűnhet olyan soknak, de azt is figyelembe kell venni, hogy a kiképzés után több millió felhasználót kell kiszolgálni. És természetesen nagy különbség, hogy míg különálló szolgáltatásként a ChatGPT-t naponta 13 millió felhasználó üti fel, addig a Bing naponta félmilliárd keresést kezel.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról