Detail publikace
Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles
MÓRO, R.
TOMLEIN, M.
Pecher Branislav, Ing. (UPGM)
Šimko Jakub, doc. Ing., PhD. (UPGM)
ŠTEFANCOVÁ, E.
Kompan Michal, doc. Ing., PhD. (UPGM)
HRČKOVÁ, A.
PODROUŽEK, J.
GAVORNÍK, A.
Bieliková Mária, prof. Ing., Ph.D. (UPGM)
Audit, odporúčacie systémy, filtračné bubliny, dezinformácie, personalizácia, automatické anotovanie, etika, YouTube
V tomto článku uvádzame výsledky auditovacej štúdie vykonanej na platforme YouTube, ktorej cieľom je zistiť ako rýchlo sa používateľ môže dostať do dezinformačnej bubliny, ale aj to, čo je potrebné na to, aby takáto bublina praskla, t. j. aby sa používateľ z tejto bubliny dostal. Používame metodiku auditu ponožkových bábok, v ktorej sa vopred naprogramovaní agenti (účinkujúci ako používatelia YouTube) ponoria do dezinformačnej bubliny sledovaním obsahu propagujúceho dezinformácie. Následne sa snažia túto bublinu prasknúť a dosiahnuť vyváženejšie odporúčania sledovaním videí, ktoré dezinformácie vyvracajú. Zaznamenávame výsledky vyhľadávania, výsledky na domovskej stránky a odporúčania pri sledovaných videách. Celkovo sme sa počas štúdie stretli s 17 405 unikátnymi videami, z ktorých sme ručne anotovali 2 914 pre prítomnosť dezinformácií. Označené videá sa použili na trénovanie modelu strojového učenia klasifikujúceho videá do troch tried (podpora dezinformácie, vyvracanie dezinformácie, neutrálne) s presnosťou 0,82. Tento model používame na klasifikáciu zvyšných videí, ktoré by nebolo možné anotovať ručne kvôli ich vysokému počtu. Pomocou manuálne aj automaticky anotovaných údajov pozorujeme dynamiku dezinformačnej bubliny pre celý rad dezinformačných tém. Naším kľúčovým zistením je, že aj keď sa v niektorých témach filtračné dezinformačné bubliny neobjavujú, tak v situáciách, keď sa tak stane, je možné ich prelomiť sledovaním obsahu čo vyvracia dezinformácie (hoci rýchlo vyvracania sa prejavuje odlišne naprieč rôznymi témami). Pozorujeme tiež náhly pokles efektu dezinformačných filtračných bublín, keď sa videá odhaľujúce dezinformácie pozerajú po videách propagujúcich dezinformácie, čo naznačuje silný kontext odporúčaní. Nakoniec, keď porovnáme naše výsledky s predchádzajúcou podobnou štúdiou, nepozorujeme výrazné zlepšenia v celkovom množstve odporúčaného dezinformačného obsahu.
@article{BUT180410,
author="SRBA, I. and MÓRO, R. and TOMLEIN, M. and PECHER, B. and ŠIMKO, J. and ŠTEFANCOVÁ, E. and KOMPAN, M. and HRČKOVÁ, A. and PODROUŽEK, J. and GAVORNÍK, A. and BIELIKOVÁ, M.",
title="Auditing YouTube's Recommendation Algorithm for Misinformation Filter Bubbles",
journal="ACM transactions on recommender systems",
year="2023",
volume="1",
number="1",
pages="1--33",
doi="10.1145/3568392",
issn="2770-6699",
url="https://dl.acm.org/doi/10.1145/3568392"
}