0%

Vedd fel az algoritmust – mi az az algoritmikus torzítás?

utolsó módosítás: 2023. november 22. 12:39

A legendás 98-as francia világbajnok focicsapat mezének hirdetését feldobja a Facebook, amelyre 10 éve vágyakozik a futballszerető rajongó. A Google-keresés „mágikus” módon eltalálja, hogy milyen holland városi biciklit szeretne venni munkába járáshoz a frissen felvett új kolléganő, a YouTube „véletlenszerűen” újabb meséket kínál az elaltatás fáradságos feladatát becsülettel végző édesapának. Az algoritmikus ajánlások mára egyet jelentenek a platformhasználattal: a személyre szabott tartalmak és hirdetések ugyanis épp annyira velejáró elemei online jelenlétünknek, mint az online csevegés a barátokkal vagy a posztolás az éppen aktuális utazásunkról. Az algoritmikus ajánlás ugyanakkor közel sem hibátlan, még kevésbé veszélytelen. Kaphatunk politikai reklámokat algoritmusok alapján? Vagy éppen egészségügyi ajánlásokat, mert rákerestünk egy gyógyszerre, illetve kulturálisan érzékeny témákról szóló cikkeket a személyes adataink alapján? A válaszra egyszerű lenne igennel válaszolni – mégis, érdemes alaposabban megérteni, mi történik akkor, ha az algoritmusok „torzítanak”.

Az algoritmikus torzítás alapjai

Akárcsak az emberek, úgy a gépek és ezáltal a gépi tanulások is elfogultak. Amikor a gépi tanulás által javasolt ajánlásokról beszélünk, érdemes ezt az elfogultságot a gépek tekintetében is megérteni. Az algoritmusok adatokra épülnek, amelyeket emberek osztanak meg, pontosabban táplálnak be. Emberek, akik adott esetben elfogultak, szubjektívek vagy csak egyszerűen nem elég körültekintőek. Az algoritmusok torzítása tehát lényegében nem a „gép” hibája: az adatok millióit feldolgozó rendszerek ugyanis azok alapján ajánlanak nekünk hirdetéseket és tartalmakat, amilyen adatokat a rendszerbe táplált a fejlesztő.

A kérdés természetesen jóval komplexebb ennél, és egyértelműen helytelen álláspontot vennénk fel, ha kizárólag a fejlesztőkre rónánk az algoritmikus torzítás okait. Kérdéses ugyanis, hogy lehet-e egy ilyen rendszer maga is „hajlamos” az elfogultságra, például amiatt is, mert a legtöbb esetben semmit nem hoznak nyilvánosságra az algoritmusokat fejlesztő vállalatok a technológia működéséről – ezt nevezi a szakirodalom feketedoboz- vagy black box-jelenségnek. Mégis, ezek az algoritmikus rendszerek gyakran hibáznak vagy éppen nem tesznek különbséget az adatok között abban, hogy hogyan viszonyunk hozzájuk: egy új sportcipőre keresés utáni adathalmaz feldolgozása ugyanis személyes és jogi szempontból is másként minősülhet, mint az egészségügyi adatainké.

Milyen problémákat okozhat az algoritmikus torzítás?

Az algoritmikus torzítás által okozott lehetséges káros következmények épp annyira sokszínűek és szerteágazóak, mint az algoritmusok alapjául szolgáló adatok. Gondolhatunk itt a szociológia diszciplínája által alaposan feldolgozott szexista algoritmusokra, azaz, mikor például egy HR-csoport által használt önéletrajzszűrő algoritmus kategorikusan és szisztematikusan kiselejtezi a női jelentkezőket. Eszüknben juthatnak akár a rasszista és előítéleteken alapuló algoritmusok is, mint például egy rendőrség által használt prediktív algoritmikus rendszer, amely bűncselekmény-történeti adatokon alapul, és kifejezetten olyan területeket tart problémásnak, ahol marginalizált társadalmi csoportok élnek (itt ugyanis, az alapul szolgáló adathalmaz figyelmen kívül hagyja a mérhetetlenül komplex, ugyanakkor megkerülhetetlen szociogazdasági tényezőket).

Egy másik klasszikus algoritmikus torzításra lehet példa a szűrőbuborékok vagy más néven véleménybuborékok létrejötte. Ez akkor alakul ki, amikor az algoritmus a személyre szabott tartalmaknál gyakorlatilag ugyanazokat a témaköröket ajánlja nekünk, lényegében „buborékba” zárva ezzel a tartalomfogyasztásunkat. Ez persze nem minden esetben káros; például egy önkéntes kutyamentőcsoportnak kifejezetten fontos és hasznos lehet, hogy az algoritmus elveszett, illetve elhagyott jószágokról szóló posztokat ajánl, ugyanakkor a politikai és előítéleteken alapuló véleménybuborék különösen károsak nemcsak az egyén, hanem a társadalmi diskurzus és a nyilvános vita egészére nézve is. Ez utóbbi típusú véleménybuborékok nagyban hozzájárulhatnak az egyének radikalizálódásához (ehhez lásd a különböző extrém nézeteket valló alt-right csoportok és a YouTube-algoritmusok kapcsolatát), illetve ellehetetlenítik a sokszínű tájékoztatás lehetőségét.

Egy biztonságosabb jövő? – a DSA és a személyreszabott algoritmusok szabályozása

A digitális szolgáltatásokról szóló uniós rendelet, amely alapjaiban változtatja meg a platformok működését és átláthatóságát az Európai Unió területén, fontos rendelkezéseket tartalmaz az algoritmikus torzítás tekintetében. A rendelet lehetőséget teremt arra, hogy „opt-outoljunk”, azaz lemondjunk a testreszabott algoritmusok által ajánlott tartalmakról a platformokon – így a Facebookon vagy akár a TikTokon is, illetve megköveteli a platformoktól, hogy tegyék átláthatóvá, hogy mely adataink alapján alakítják ki számunkra a használati felületet. E lépések talán nem adnak teljeskörű védelmet az algoritmikus torzítással szemben, mindenesetre különösen fontos első lépésnek tűnnek egy bonyolult, mindannyiunkat érintő ügy megoldásához.

Hogy hogyan lehet kijutni az algoritmusok útvesztőjéből? Itt elmondjuk!

Ez is érdekelheti