Szerző: Dömös Zsuzsanna

2023. március 14. 12:00

Az MI kockázatait vizsgáló etikusoktól is megvált a Microsoft

Belsős elmondások szerint alapjaiban érintheti az MI-termékek fejlesztését, hogy a redmondiak leépítették az etikai kérdésekkel foglalkozó csapatot, pont egy olyan időszakban, amikor a területre a korábbinál is nagyobb fókuszt helyez a vállalat.

A Microsoft januárban jelentett be jelentős létszámleépítési intézkedést, mintegy dolgozóinak öt százalékától vált meg, ami több mint 10 ezer alkalmazottat érintett. A Platformer információi szerint a cég búcsúzott a mesterséges intelligencia fejlesztéseken dolgozó részleg etikai és társadalmi kérdésekkel foglalkozó csapatainak (Ethics & Society) szakembereitől is, akik javaslataikkal aktív résztvevői voltak a terméktervezési folyamatoknak. Ez pont akkor, amikor a csoport többek közt azzal foglalkozott, hogy milyen lehetséges kockázatai lehetnek a Microsoft azon tervének, hogy az OpenAI által fejlesztett eszközöket minél több eszközbe építse be.

Továbbra is működik a cégen belül viszont az "Office of Responsible AI" részleg, melynek feladata, hogy szabályokat és elveket dolgozzon ki a vállalat kezdeményezéseinek szabályozására. A vállalat álláspontja szerint a leépítések ellenére egyre aktívabban fektet be a felelősségteljes és biztonságos fejlesztés kereteinek lefektetésébe, a fent említett csapat létszámát az elmúlt hat évben jelentősen növelte.

A cég névtelenül nyilatkozó belsős forrása a lapnak viszont elmondta, hogy a leépítésben érintett csapat kardinális szerepet játszott abban, hogy a termékek tervezése során az etikai és társadalmi szempontok valóban érvényesülhessenek konkrét szabályok és javaslatok mentén. Az elmúlt években tervezett például egy Judgment Call nevű szerepjátékot, amely segített a tervezőknek elképzelni a mesterséges intelligencia okozta lehetséges károkat, és felhozni a megvitatásra érdemes problémákat a fejlesztés során, az utóbbi időben pedig kifejezetten az OpenAI-fejlesztések átvételének kockázatait kutatták.

ai_etikus_kiemelt

Égbe révedő informatikusok: az Időkép-sztori

Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

Égbe révedő informatikusok: az Időkép-sztori Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

A mérnököket, tervezőket és filozófusokat is vegyítő etikai és társadalmi csapat méretét tekintve 2020-ban volt a legnagyobb körülbelül 30 alkalmazottal, majd egy októberi átszervezés után a létszámot hét főre csökkentették, ami belsős elmondások szerint megnehezítette a munka folytatását. Egyes szakembereket átmozgatták a szervezet más területeire. Egy alkalmazott szerint ez a lépés növeli nem csak a vállalatot, de a felhasználókat érintő kockázatokat is.

Mindez rávilágít arra, hogy a technológiai óriásokon egyre nagyobb a nyomás, hogy dedikált csapatokat hozzanak létre a társadalmi felelősségvállalás miatt, de ezek a szakemberek akár a cég számára kellemetlenebb, jogi szempontból fejtörést okozó problémákat is felvethetnek. 2020-ban nagy visszhangot kapott, amikor a Google elbocsátotta Timnit Gebru mesterségesintelligencia-kutatót, miután publikált egy írásta nagy nyelvi modellek kritikájáról, az ügy kapcsán több további vezető tadta be felmondását a részlegen belül.

A Microsoft különösen izgalmas időszak előtt áll, hiszen talán soha vissza nem térő alkalmat használhat ki arra, hogy jelentősebb részesedést szerezzen magának a Google által leuralt keresőpiacon, ezen túl a produktivitási szoftverek, a computing, és más területeken is. Ennek érdekében önt bele hatalmas pénzeket az OpenAI-ba, legutóbb 11 millió dollárt. Az OpenAI technológiáján alapuló chatbot Bingbe való beépítése kapcsán a redmondiak azzal tették optimistábbá a befektetőket, hogy a becslés szerint a Google-től elfoglalt keresőpiaci részesedés minden 1 százaléka 2 milliárd dollár éves bevételt fog eredményezni.

Mindeközben egyre hangsúlyosabbá válnak a technológia eddig fel nem tárt kockázatai, és bár a Microsoftnak az etikai és társadalmi csapat megszüntetése után is három különböző csoportja dolgozik a problémán, a felelősségteljes munkára összpontosító csapatok minden megszorítása érzékeny lehet. A lemorzsolt részleg jelezte például korábban előre, hogy az OpenAI DALL-E rendszerét használó, tavaly októberben szűkebb körben elindított Bing Image Creator várhatóan súrlódást fog előidézni a művészekkel, akik hangot emelhetnek a megélhetésük veszélyeztetése miatt. Ennek eredménye pedig a negatív PR lehet, a márkakárosodás pedig a pénzügyileg érdekelt felek számára is kockázat. Ugyan a Microsoft kutatói összeállítottak egy listát a lehetséges stratégiákról (többek között letiltották volna annak lehetőségét, hogy a Bing Image Creator felhasználói élő művészek nevét használják), végül egyik javaslatot sem vette figyelembe a Microsoft a tesztüzem során.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról