Były inżynier Google przeszukuje YouTube, aby przebić nasze bańki filtrujące





Jeśli kiedykolwiek korzystałeś z YouTube'a, prawdopodobnie zauważyłeś, że łatwo popaść w rodzaj transu oglądania: zaczynasz oglądać zabawny film o kotach, a nagle mija godzina i przepuszczasz kolejne… każdy z nich polecany po prawej stronie ekranu, obsługiwany przez algorytm witryny.

Ponieważ coraz częściej uczymy się z sieci społecznościowych, takich jak Facebook i Twitter, algorytmy mogą być wykorzystywane do manipulowania ludźmi na różne sposoby, pokazując nam więcej jednej rzeczy, a mniej drugiej. To może być w porządku (i zabawne!), gdy szukasz filmów o uroczych kociakach, ale może poprowadzić cię ścieżką strachu, teorii spiskowych i jednostronnego myślenia, jeśli oglądasz filmy na inne tematy, takie jak jak szczepionki, niedawne strzelaniny w szkole lub zmiany klimatyczne.

YouTube — którego ponad miliard użytkowników ogląda ponad miliard godzin dziennie — pokazuje nam niektóre dane, na przykład ile razy film był oglądany, lubiany lub nielubiany. Ale ukrywa bardziej szczegółowe informacje o każdym filmie, na przykład częstotliwość polecania go przez witrynę innym osobom. Bez pełnego obrazu może być trudno zorientować się, dlaczego dokładnie jego algorytm kieruje cię w określonym kierunku.



Guillaume Chaslot, programista, który kiedyś pracował dla YouTube i Google, zbudował AlgoTransparency.org. Dzięki uprzejmości Guillaume Chaslot

Guillaume Chaslot, programista komputerowy, który spędził trochę czasu pracując nad rekomendacjami w YouTube i reklamami displayowymi w swojej firmie macierzystej, Google, uważa, że ​​to jest problem, i walczy o większą przejrzystość sposobów polecania filmów. Zbudował stronę internetową, AlgoPrzejrzystość , aby odwiedzający mogli zobaczyć, dokąd zaprowadzi Cię algorytm YouTube, jeśli zastosujesz się do jego zaleceń – niezależnie od tego, czy szukasz filmów o ostatnich wyborach, masowych strzelaninach, nauce, czy też kilku innych ogólnych tematów i powiązanych wyszukiwanych haseł, które wybrał.

Każdy powinien wiedzieć, jeśli zaczniesz spędzać czas na YouTube, dokąd cię to zaprowadzi – mówi.



Odkąd zaczął śledzić rekomendacje w 2016 roku, odkrył, że w przypadku niektórych fraz, takich jak fakty dotyczące szczepionek lub globalne ocieplenie, algorytm rekomendacji YouTube popycha widzów w kierunku filmów o teorii spiskowej, antynaukowych lub antymedialnych. A algorytm wydaje się faworyzować filmy przedstawiające bardziej dzielących polityków, którzy mówią w agresywny, zastraszający sposób, mówi.

Śledzi również terminy, które są najczęściej wymieniane w najczęściej polecanych filmach. Na przykład 1 kwietnia wyniki dla to ziemia płaska lub okrągła, najczęściej występujące słowa, takie jak płaska, NASA, dowód i tajemnica.

Chaslot, który pracował w YouTube w 2011 roku, a następnie w Google do 2013 roku (on roszczenia został zwolniony za próbę zapewnienia użytkownikom większej kontroli nad algorytmami rekomendującymi treści; ani Google, ani YouTube nie rozwiązały tego sporu w odpowiedzi na prośbę o komentarz na temat tej i innych poruszonych przez niego kwestii), ustalili to, śledząc algorytm sugestii YouTube. Przetestował swoją teorię, tworząc oprogramowanie, które symuluje rozpoczęcie oglądania jednego filmu w YouTube, a następnie klikanie zalecanego filmu Up next (który będzie również odtwarzany automatycznie, jeśli masz włączoną funkcję autoodtwarzania YouTube), w kółko.



Oprócz śledzenia, dokąd algorytmy mogą prowadzić, Chaslot chce, aby widzowie YouTube zastanowili się więcej nad tym, jak rekomendacje można wykorzystać do zwiększenia liczby wyświetleń. Na przykład, jeśli szukasz hasła Parkland i otrzymujesz film, który ma 2,5 miliona wyświetleń w YouTube, czy algorytm zalecał 50 milionów razy, aby zachęcić te 2,5 miliona ludzi do obejrzenia, czy też polecono 500 000 razy, a następnie udostępniono je organicznie?

To ogromna różnica, mówi Chaslot. I obecnie nie ma sposobu, aby się dowiedzieć.

Odpowiadając na pytania o to, jak i dlaczego YouTube proponuje użytkownikom filmy, rzeczniczka YouTube wysłała oświadczenie, w którym stwierdziła, że ​​jego system rekomendacji znacznie się zmienił z biegiem czasu i nie działa już tak, jak pięć lat temu, kiedy Chaslot był pracownikiem. Podczas gdy YouTube koncentrował się na czasie oglądania, mówi, że teraz przygląda się również zadowoleniu ludzi, mierzonym za pomocą ankiet, polubień, niechęci i innych dowodów.



YouTube wprowadza również zmiany, aby rozwiązać problemy ze swoimi zaleceniami. Wersja aplikacji YouTube Kids będzie: podobno porzuć algorytm rekomendacji wideo na rzecz tworzenia ich przez ludzi. W marcu dyrektor generalna YouTube, Susan Wojcicki, powiedziała, że ​​witryna będzie dodawać linki do Wikipedii do filmów, które zawierały ważne tematy, takie jak te skoncentrowane na teoriach spiskowych.

W tym drugim posunięciu Chaslot zastanawia się, dlaczego YouTube po prostu nie dodałby linków do Wikipedii do wszelkiego rodzaju tematów związanych z jego filmami. To byłoby bardziej naturalne, mówi.

Co więcej, uważa, że ​​tworzenie narzędzi, które mogą zachęcić ludzi do szerszego przeglądania, nie jest trudne. Mówi, że gdy był w YouTube w 2011 roku, stworzył prototyp narzędzia, które pracowało z wynikami wyszukiwania Google użytkowników i uwzględniało ich historię wyszukiwania, aby poszerzyć ich horyzonty.

Jeśli szukałeś, powiedzmy, Ford Focus, zobaczysz konkretne wyniki, ale gdy przewiniesz stronę, zobaczysz bardziej ogólne wyniki dotyczące samochodów. Jeśli będziesz kontynuował, zobaczysz wyniki związane z innymi rzeczami, których szukałeś w przeszłości (np. jazda na łyżwach).

Łatwo jest zbudować narzędzia, które pozwolą ludziom wydostać się poza ich bańki filtrujące, umożliwić im pójście dalej, zobaczenie, co jest poza bańką filtrującą, mówi.

ukryć