HWSW

Érzelmileg manipulálta felhasználóit a Facebook

Nagy botrányt kavart múlt hét végén a Facebook "emberkísérlete", amelynek során több százezer felhasználót tett ki szűrt, pozitív illetve negatív irányba módosított hírfolyamnak. A most publikált eredmények szerint befolyásolhatóak a felhasználók, a kritikusok az érzelmileg instabil usereket féltik.

Érdekes kutatásról számolt be [1] az amerikai tudományos akadémia szaklapja: a Facebook-felhasználók körében végzett pszichológiai kutatás szerint a felhasználók hangulata befolyásolható a hírfolyam manipulálásával. Ennek érdekében a Facebook 2012 első felében egy hétig a felhasználói bázis töredéke számára módosított hírfolyamot mutatott, amelyben a pozitív, majd a negatív szavakat tartalmazó posztokat kevésbé mutatta az oldal.

Terjed a jókedv! Vagy csak színleljük

A kutatás eredménye röviden úgy foglalható össze, hogy azok a felhasználók, amelyek feedjéből a Facebook szűrte a pozitív hangvételű posztokat, valamivel kevesebb pozitív konnotációjú szót használtak saját státuszaikban is, a kontroll-csoporthoz viszonyítva. A hatás másik irányba is működik, azon felhasználók, akik a negatív posztokból kaptak kevesebbet, maguk is kevesebb negatív státuszt írtak ki a kontrollnál.

A mért hatás szerénynek tűnhet, a kevésbé pozitív feedet kapó felhasználók 0,1 százalékponttal kevesebb pozitív szót használtak, míg a kevésbé negatív feedet látók 0,07 százalékponttal kevesebb negatív szót írtak ki. Figyelembe véve azonban, hogy a posztokat a hírfolyamon kívül számtalan egyéb tényező is befolyásolhatta a felhasználók életében, a mért hatás kifejezetten jelentős, statisztikailag pedig szignifikáns (vagyis nagy valószínűséggel nem statisztikai hiba okozza).

Ami nem derül ki a kutatásból, hogy a felhasználók valóban jobban vagy rosszabbul érezték-e magukat a szűrt feed hatására, vagy csupán színlelték azt. Elképzelhető alternatív magyarázat ugyanis, hogy a pozitív üzenetek hatására a felhasználók cenzúrázzák saját posztjaikat és igyekeznek maguk is pozitív képet adni magukról. Ezzel szemben az átlagosnál negatívabb posztokat látó felhasználók nem érezték a kényszert, hogy sikerességet sugározzanak, így kevésbé cenzúrázott, őszintébb posztokat tettek ki - mondja az alternatív magyarázat, amelyet egyébként a kutatók is elismernek.

Ez is csak termékteszt

A webes világban abszolút bevettnek számít az A/B tesztelés, vagyis hogy felhasználók kis csoportjai számára egy módosított weboldalt küld ki a szerver, így az apró módosítások (nagyobb, vagy átszínezett gombok, jobban megírt szöveg, stb.) hatása mérhetővé válik. Az A/B teszteléssel növelhető a kívánatos felhasználói viselkedés (webshopnál például a vásárlás) aránya, így a tesztek nyomán a sikeres megoldások hivatalossá válnak, a módosítás felkerül a "fő" verzióba, a kísérlet pedig tovább folytatódik más területen. A Google esetében a keresőmotoron egyszerre több tucat ilyen kísérlet is folyik, ezek eredménye alapján a cég folyamatosan tökéletesíti találati oldalt.

A Facebooknál a kívánatos magatartás a hírfolyam sűrű olvasása, gyakori interakció a többi felhasználóval és minél több megosztás, így a folyamatos fejlesztések ezen mutatók növelésére összpontosulnak. A cég folyamatosan szűri a felhasználók feedjében megjelenő tartalmakat, jellemzően érdekesség alapján kerülnek be posztok az általunk lájkolt oldalakról és ismerősnek jelölt felhasználóktól, ezt a vállalat azzal indokolja, hogy képtelenség megjeleníteni minden oldal és felhasználó minden egyes üzenetét, helye van a válogatásnak. Az algoritmus mára igen komplex lett, első körben egy posztot csupán a legközelebbi felhasználóknak mutatja meg az oldal, ha ők eléggé érdekesnek találták, akkor jöhetnek a távolabbi ismerősök is. A Facebook így igyekszik garantálni, hogy az ismerőseink által posztolt rengeteg státuszból csak a legérdekesebbek, legrelevánsabbak kerüljenek ki a News Feedbe.

Botrány lett belőle

Ahogy a Google keresőalgoritmusa, úgy a Facebook szelektációs kritériumai sem transzparensek. Az adatvédelmi nyilatkozat és a felhasználási szabályzat lehetővé teszi az oldal számára, hogy gyakorlatilag tetszőlegesen módosítsa, szűrje a felhasználók által posztolt tartalmakat, akár tartalomra, akár érzelmi töltetre, akár relevanciára, akár egyéb mutatókra alapozva.

A kutatásból mégis botrány lett, a kritikusok (például Slate [2], TechCrunch [3]) szerint ugyanis az érintett, mintegy hétszázezer felhasználó egy része érzelmileg mélyponton lehetett a kérdéses időszakban, számukra a kutatásban való (nem tudatos, nem önkéntes) részvétel további szenvedést okozhatott. A kritika szerint a kiszolgáltatott állapotban lévő, depressziós felhasználóknak a kísérlet további feldolgozandó negativitást juttatott, a súlyos, akár öngyilkosságot fontolgató felhasználókra pedig közvetlen veszélyt is jelenthetett a feed ilyen manipulációja.

xTény, a Facebook és az egyetem kutatása nem rendelkezik független etikai fórumok beleegyezésével. Az ilyen engedély általában az emberi alanyokon végzett kísérleteknél alapvető elvárás szokott lenni, a kutatáshoz forrásokat biztosító adományozói vagy támogatói szerződések ezt jellemzően meg is követelik. Érdekes módon ez a kutatás kizárólag belső (egyetemi és facebookos) forrásokból készült, így ilyen szerződések nem kötötték a kutatókat, akik nem is fáradoztak az opcionális engedélyek beszerzésén.

A dolgozatot a Cornell és a Kaliforniai Egyetem egy-egy kutatója és Adam Kramer, a Facebook Core Data Science Team tagja írta. Az általános felhördülést követően Kramer saját Facebook-oldalán igyekezett megmagyarázni [4] a kutatás indokait: "A kutatás oka, hogy figyelünk a Facebook érzelmi befolyására és a terméket használó emberekre. Úgy éreztük, hogy érdemes utánajárnunk az általános vélekedésnek, hogy a pozitív tartalmakat látva az emberek negatívan, kizárva érzik magukat. Ezzel egy időben aggódtunk, hogy a negatív tartalmaknak kitett felhasználók elkezdik kerülni a Facebookot."

A cikkben hivatkozott linkek:
[1] http://www.pnas.org/content/111/24/8788.full.pdf
[2] http://www.slate.com/articles/health_and_science/science/2014/06/facebook_unethical_experiment_it_made_news_feeds_happier_or_sadder_to_manipulate.html
[3] http://techcrunch.com/2014/06/29/ethics-in-a-data-driven-world/
[4] https://www.facebook.com/akramer/posts/10152987150867796
A cikk adatai:
//www.hwsw.hu/hirek/52497/facebook-erzelmi-kiserlet-news-feed-hirfolyam-kutatas.html
Író: Gálffy Csaba (galffy.csaba@hwsw.hu)
Dátum: 2014. június 30. 11:26
Rovat: web