Szerző: Habók Lilla

2022. február 21. 09:26

A YouTube is elismeri álhír-problémáit

Három fontos problémakört is kitereget a YouTube az álhírekkel és a félretájékoztatással kapcsolatban: a gépi tanuló algoritmusok nehézségeit, a szabályzatot épphogy nem sértő videók kezelésének kérdését, és az országok kulturális különbségeiből fakadó problémákat.

Az álhírek elleni küzdelmét egy új blogbejegyzés sorozatban szeretné bemutatni a YouTube, amelynek első részében Neal Mohan termékgazda számolt be az aktuális fejlesztésekről, és az új funkciók bevezetését gátló kételyekről. A bejegyzésből kitűnik, hogy a csapat is elismeri az álhírek és a félretájékoztatás terjesztésében betöltött szerepét, és ezért magyarázza a bizonyítványát a problémákról.

Az elmúlt öt évben a videós platform fejlesztői folyamatosan dolgoztak a "felelősség 4R keretrendszerén", vagyis hogyan lehet a szabályzatot sértő tartalmakat gyorsan eltávolítani (Remove), a hiteles információkat felerősíteni a kereséseknél (Raise), jutalmazni a megbízható alkotókat (Reward) és csökkenteni az irányelveket sértő tartalmak terjedését (Reduce). Az eddigi próbálkozás azonban már kevés, mivel a téves információk szélesebb körben terjednek mint valaha, ezért új megközelítések szükségesek.

EGYRE ÚJABB ÁLHÍREK

Több éven keresztül az álhírek jól beazonosítható témák köré csoportosultak, ezért a gépi tanuló algoritmust viszonylag hatékonyan meg lehetett tanítani például a laposföld-elmélet vagy a Holdraszállás összeesküvés-elmélet felismerésére a meglévő tartalmak alapján. Manapság azonban nagyon gyorsan merülnek fel és terjednek el új elméletek vagyis a YouTube szóhasználata szerint narratívák, ráadásul ezek eltérő formában jelennek meg, és terjedésük is különböző. Az új álhírekhez pedig a gépi tanulásnak nyilvánvalóan nincs elég adata, hogy kiszűrje azt. Ezért a YouTube a hatékonyabb azonosításhoz egy újfajta "keverékét" szeretné létrehozni az osztályozó algoritmusoknak, különböző nyelvek kulcsszavainak és a regionális elemzőktől kapott információknak.

laposfold_youtube
Jelenlegi találatok a "lapos Föld" keresésre YouTube-on

Égbe révedő informatikusok: az Időkép-sztori

Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

Égbe révedő informatikusok: az Időkép-sztori Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

A probléma része, hogy a hiteles adatokon alapuló tartalmak lassabban készülnek mint a spekulációk, például egy hirtelen beütő természeti katasztrófánál. Ennek következtében a platform keresőit nem lehet az alacsony megbízhatóságú tartalmak helyett a hiteles videókra irányítani. Nagyobb események esetén a Google videós szolgáltatása a szöveges cikkekre irányítaná a fókuszt. A média figyelmét nem felkeltő, kisebb témáknál a platform fejlesztői figyelmeztető címkékben gondolkodnak, de tartanak tőle, hogy ezzel figyelmet irányítanának az egyébként elbújtatandó videóra.

KINEK MI LEGYEN TILTOTT?

Egy másik fontos problémakör a szabályzat eltávolítási küszöbét nem átlépő, de azért nem feltétlenül ajánlott, határon billegő videók. Ezeknek a tartalmaknak a platformon belüli továbbajánlása már 1 százalék alatti értéket mutat, de jelenleg linkekkel vagy beágyazással továbbterjednek más weboldalakon. Éppen ezért a YouTube a megosztás gomb tiltását és a hivatkozások megszüntetését fontolgatja a határon mozgó videóknál, azonban tart tőle, hogy ezzel túl messzire menne a néző szabadságának korlátozásában. Esetleg a tiltás kontextusfüggő lenne - pl. tudományos lapoknak engedélyezett a beágyazás -, vagy a videó előtt egy jóváhagyandó figyelmeztető üzenet jelenne meg.

A kérdéseket tovább bonyolítják az országok közötti kulturális különbségek a YouTube termékgazdája szerint, akár a fentebb említett határon billegő hírek esetében is. A szolgáltatás több mint száz országban működik, eltérő nézetekkel a szavahihető forrásokról, amelyre a blogbejegyzés a közszolgálati műsorszolgáltatókat hozza példaként. A videós platform fejlesztői így nehezen tudják megítélni, hogy melyik országban hová érdemes elsősorban a hírek miatt irányítani a felhasználókat. A kérdés még egyáltalán nem megoldott, ezért a vállalat a regionális részleteket értő tényellenőrzőkkel bővíti csapatát, és partneri megállapodásokba fektet nem kormányzati szervezetekkel. A végső cél a gépi tanuló modell további fejlesztése lenne a helyi félretájékoztatás felismerésével.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról