Antisocial media. Jak Facebook oddala nas od siebie i zagraża demokracji

Antisocial media. Jak Facebook oddala nas od siebie i zagraża demokracji

Autorzy: Siva Vaidhyanathan

Wydawnictwo: WAB

Kategorie: Biznes

Typ: e-book

Formaty: MOBI EPUB

cena od: 19.50 zł

Antisocial Media, książka poświęcona hegemonii Facebooka, ukazuje się w najlepszym możliwym momencie, wpisując się w debatę o roli mediów społecznościowych w zachodnim modelu demokracji.

Antisocial Media to atak na obecny model biznesowy Facebooka wszystkich frontach. Autor opisuje manipulacje, jakim poddawany jest użytkownik po to, aby uzależnić go od Facebooka. Ten „największy na świecie system inwigilacji” gromadzi dane o dwóch miliardach użytkowników. Żaden inny nośnik reklam nie może się równać z tym, co oferuje serwis Zuckerberga. Oferta gazet, magazynów i telewizji wypada przy tym bardzo blado. W systemie Zuckerberga produktem jesteśmy my – i nasza uwaga.

Vaidhyanathan odnosi się również do gorącego tematu spłycenia debaty publicznej w zachodnich demokracjach, antagonizacji i radykalizacji różnych grup społecznych, tworzenia zamkniętych baniek informacyjnych, wyboru Donalda Trumpa na prezydenta USA, wyjścia Wielkiej Brytanii z Unii Europejskiej i wpływu obcych państw (głównie Rosji) na wiele z tych procesów. Antisocial Media to bardzo aktualna znakomita próba ujęcia zjawiska współczesnego w solidnych ramach koncepcyjnych.

Siva Vaidhyanathan

Antisocial media

Jak Facebook oddala nas od siebie i zagraża demokracji

Przełożyły Weronika Mincer i Katarzyna Sosnowska

Tytuł oryginału: Antisocial Media. How Facebook Disconnects us and Undermines Democracy

Copyright © by Siva Vaidhyanathan 2018

Copyright © for the Polish edition by Grupa Wydawnicza Foksal, MMXVIII

Copyright © for the Polish translation by Weronika Mincer, Katarzyna Sosnowska

Wydanie I

Warszawa MMXVIII

Spis treści

Dedykacja

Motto

Wprowadzenie. To Facebook jest problemem

Rozdział 1. Machina przyjemności

Rozdział 2. Machina inwigilacji

Rozdział 3. Machina uwagi

Rozdział 4. Machina dobra

Rozdział 5. Machina protestu

Rozdział 6. Machina polityki

Rozdział 7. Machina dezinformacji

Epilog. Machina nonsensu

Podziękowania

Przypisy bibliograficzne

Przypisy wyjaśniające

Wszystkie rozdziały dostępne w pełnej wersji książki.

Moim rodzicom

Zapewnia się, że im dalej, tym bardziej świat się jednoczy, zespala w bratnim obcowaniu, skracając odległości, przekazuje myśli drogą napowietrzną. Niestety, nie wierzcie w takie zjednoczenie ludzi. Rozumiejąc przez wolność mnożenie i jak najszybsze zaspokajanie potrzeb, wypaczają własną naturę, bo wzbudzają w sobie mnóstwo bezsensownych i głupich pragnień, przyzwyczajeń i najniedorzeczniejszych fantazmatów. Karmi ich jedynie wzajemna zawiść, żądza użycia i pycha.

Fiodor Dostojewski, Bracia Karamazow (przeł. Adam Pomorski)

Wprowadzenie. To Facebook jest problemem

Dwudziestego siódmego czerwca 2017 roku w godzinach popołudniowych Mark Zuckerberg zamieścił na swojej stronie na Facebooku krótką wiadomość. „Od dzisiaj społeczność Facebooka oficjalnie składa się z dwóch miliardów ludzi!” – napisał założyciel firmy i jej prezes. „Czynimy postęp, łącząc cały świat, a teraz będziemy jeszcze bliżej siebie nawzajem. To dla mnie zaszczyt, że mogę towarzyszyć wam w tej podróży”1.

Idea ściślejszego połączenia ludzi na świecie kierowała Zuckerbergiem od początku. Jego przemówienia, listy do inwestorów, publikowane na Facebooku teksty, wywiady oraz słabo nagłośniona podróż po Stanach Zjednoczonych na początku 2017 roku podejmowały ten temat. Zuckerberg wierzy, że jego firma może i powinna łączyć ludzi na całym świecie. A także, że skutki tego łączenia są przewidywalne i w dużej mierze korzystne2.

„W ostatnich dziesięciu latach Facebook skupił się na łączeniu znajomych i rodzin” – pisał Zuckerberg w manifeście opublikowanym na swojej stronie na początku 2017 roku. „Zajmiemy się teraz rozwijaniem infrastruktury społecznej dla wspólnoty, by nas wspierała, dbała o nasze bezpieczeństwo i dawała nam informacje. Dla celów zaangażowania obywatelskiego i inkluzji wszystkich”. Ta wypowiedź wyznaczyła swoisty przełom zarówno dla firmy, jak i jej założyciela. Zuckerberg właśnie musiał przełknąć fakt, że przez cały rok 2016 jego serwis promował propagandę, jaka wpłynęła później na wynik referendum w sprawie wyjścia Wielkiej Brytanii z Unii Europejskiej oraz wybór Donalda Trumpa na prezydenta Stanów Zjednoczonych. Poza tym zaczęto poważnie krytykować usługę streamingu na żywo (Facebook Live), za pomocą której wielu użytkowników pokazywało samobójstwa i zabójstwa. Firmę oskarżano o brak odpowiedzialności. Dlatego Zuckerberg obiecał poprawę, dość ogólnie nakreślił napotkane problemy i starał się zrzucić z siebie winę3.

„Najwspanialszą możliwością jest pomoc ludziom w angażowaniu się w kwestie, które mają dla nich znaczenie na co dzień, a nie tylko zachęcanie ich raz na kilka lat do stawienia się przy urnie wyborczej” – napisał szef Facebooka w manifeście z 2017 roku. „Możemy pomóc w nawiązaniu bezpośredniego dialogu i relacji odpowiedzialności między ludźmi a pochodzącymi z wyboru przywódcami”. Następnie Zuckerberg wspomniał kilka najbardziej zdumiewających przykładów na to, jak jego zdaniem Facebook wspiera procesy demokratyczne. „Indyjski premier Modi poprosił swych ministrów, by udostępniali nagrania ze spotkań oraz informacje na Facebooku, tak by mogli otrzymywać bezpośrednią informację zwrotną od obywateli” – napisał. „W Kenii wszyscy mieszkańcy wiosek wraz ze swoimi reprezentantami łączą się przez grupę na WhatsAppie (chodzi o platformę do przesyłania wiadomości, której właścicielem jest Facebook). W ostatnich kampaniach wyborczych na całym świecie, od Indii i Indonezji po Europę i Stany Zjednoczone, okazało się, że zazwyczaj wygrywają kandydaci, których aktywność na Facebooku wywoływała najwięcej interakcji. Telewizja stała się głównym medium komunikacji obywatelskiej w latach 60., media społecznościowe są nim w XXI wieku”4.

Ci, którzy badają lub choćby tylko śledzą wzrost autorytaryzmu i niepokojącą erozję demokracji na całym świecie, w tamtym okresie uznaliby Indie, Indonezję, Kenię, Polskę, Węgry oraz Stany Zjednoczone za miejsca, w których Facebook bezpośrednio przyczynił się do wzrostu przemocy na tle etnicznym i nacjonalizmu religijnego, a także popularności autorytarnych przywódców oraz do swoistej medialnej kakofonii, która utrudnia debatę publiczną nad ważnymi kwestiami, tym samym podważając zaufanie do instytucji i ekspertów. Jednak Zuckerberg tego nie dostrzegał. Nie zabrał również głosu w listopadzie 2017 roku, kiedy dyrektorzy Facebooka zostali zmuszeni do przeprowadzenia śledztwa i wyjaśnienia, jak dalece Rosjanie wpłynęli na wybory w Stanach Zjednoczonych za pomocą zakupionych na Facebooku i Instagramie reklam, precyzyjnie stargetowanych do 126 milionów Amerykanów. Nie wychwalał już Facebooka jako najpotężniejszej platformy politycznej na świecie. Niemniej firma zasugerowała, co mogło poprawić kulturę polityczną: zaufanie jej i korzystanie z większej liczby jej usług. Obiecała po prostu, że będzie się bardziej starać5.

W swoim manifeście Zuckerberg opisał główny problem, jaki świat ma z Facebookiem, będący powodem tylu niemile widzianych sytuacji. „Te błędy nie przydarzają się dlatego, że popieramy ideologie, które są na bakier ze społecznością, lecz wynikają ze skali naszej działalności”. Facebook jest po prostu zbyt duży, by nim zarządzać. Staliśmy się ofiarami jego sukcesu6.

Historia Facebooka została wielokrotnie i ze szczegółami opowiedziana. Jednak w tym istotnym momencie, w jakim serwis się znajduje, zasługuje na głęboką, krytyczną analizę. W jakiś sposób Facebook z niewinnej platformy społecznościowej stworzonej przez studentów Harvardu przekształcił się w siłę, która uprzyjemniając życie jednostkom, stawia poważne wyzwania demokracji. Jest to opowieść o pysze opartej na dobrych intencjach, o duchu misjonarskim oraz ideologii, w której kod komputerowy jest postrzegany jako uniwersalne remedium na wszystkie problemy ludzkości. Jest również oznaką tego, jak media społecznościowe przyczyniły się do pogorszenia stanu demokracji oraz kultury intelektualnej na całym świecie.

Kultura Doliny Krzemowej oparta jest na powszechnym tam przywiązaniu do logicznego myślenia oraz podejmowania decyzji na podstawie danych. Jest wyraźnie kosmopolityczna i tolerancyjna wobec wszelkiej odmienności i odrębności. Oferuje produkty na globalnym rynku i ma pracowników z całego świata. Dolina Krzemowa skłania się także ku misjonaryzmowi, który głosi władzę konektywności (connectivity) oraz rozprzestrzenianie wiedzy, by umożliwić ludziom zmianę życia na lepsze. Jak więc doszło do tego, że jedno z jej najbardziej udanych przedsięwzięć zaczęło być przestrzenią do działania dla ruchów radykalnych, nacjonalistycznych i antyoświeceniowych, które buntują się przeciwko instytucjom obywatelskim i kosmopolityzmowi? Jak ta oświecona firma przyczyniła się do wzrostu popularności nacjonalistów pokroju Donalda Trumpa, Marine Le Pen, Narendry Modiego, Rodriga Dutertego i Państwa Islamskiego? Jak doszło do aż takiego wypaczenia jej misji? Facebook to wydestylowany obraz całej Doliny Krzemowej. Żadna inna firma nie przedstawia tak dobrze marzenia o w pełni połączonym świecie, udostępniającym wszem wobec słowa, idee, obrazy i plany. Żadna inna firma nie przekuła tych idei w bogactwo i wpływy. Żadna inna firma nie przyczyniła się bardziej do paradoksalnego załamania podstawowych dogmatów debaty i demokracji.

Zanieczyszczenie

Drugiego lutego 2012 roku, mniej więcej rok przed rozpoczęciem drugiej kadencji prezydenta Baracka Obamy i rok po rezygnacji egipskiego prezydenta Husniego Mubaraka, Zuckerberg opublikował wyjątkowy list do udziałowców. „Częstsze dzielenie się z innymi, choćby tylko najbliższymi osobami, prowadzi do stworzenia bardziej otwartej kultury i lepszego zrozumienia, jak inni żyją i myślą” – napisał. „Wierzymy, że to mnoży silniejsze związki międzyludzkie oraz oferuje więcej różnorodnych perspektyw. Pomagając tworzyć te relacje, mamy nadzieję odmienić sposoby rozpowszechniania i konsumpcji informacji”. List został wysłany na kilka tygodni przed wystawieniem wartych 16 miliardów dolarów akcji firmy w ofercie publicznej i stanowił najmocniejsze i najbardziej wyraziste podsumowanie celów, jakie Zuckerberg stawiał Facebookowi, wówczas działającemu od zaledwie ośmiu lat. Prezes obiecywał, że serwis nie stanie się firmą z obsesją na punkcie dochodów i zysków. Jego globalną misją społeczną jest sprawić, „by świat stał się bardziej otwarty i połączony”, jak deklarował w liście7.

Doszło jednak do czegoś zupełnie odwrotnego. Zaledwie cztery lata później stało się jasne, że Facebook w takiej samej mierze łączy ludzi, co ich „rozłącza”. A idealistyczna wizja ludzi dzielących się rosnącymi zasobami informacji z coraz większą liczbą bliźnich nie sprawiła, że narody czy globalna kultura stały się lepsze, nie poprawiła wzajemnego zrozumienia ani nie wzmocniła ruchów demokratycznych.

Mamy do czynienia z pewnym paradoksem. Facebook przyczynił się do rozwoju tak wielu bolączek, ponieważ jego przywódcy z zapamiętaniem włączyli się w zmienianie świata na lepsze. Gdyby Zuckerbergowi bardziej zależało na zwykłym rozwoju i zysku oraz gdyby był mniej oślepiony pychą, być może inaczej obmyśliłby strukturę tego niemożliwego do zarządzania globalnego systemu, który tak łatwo wykorzystać do różnych celów. Szefowie Facebooka, czy w ogóle firm z Doliny Krzemowej, doprowadzili do tej fatalnej sytuacji zbyt silną wiarą we własną wszechwładzę i dobroć. Ich absolutne przekonanie o szczerości swoich intencji i posiadanych zdolnościach, połączone ze ślepą wiarą w to, że ludzie będą dzielić się najlepszymi i najbardziej pożytecznymi informacjami na temat świata i takie udostępniać, doprowadziła do kilku nieszczęśliwych decyzji na etapie projektowania. Dopóki nie porzucą tej wiary i niezachwianego przekonania we własne kompetencje i prawość, nie ma co oczekiwać, że odniosą się do problemów dotyczących tego, jak zbudowane są ich produkty.

To, że Facebook dominuje na naszych ekranach, w naszym życiu i panuje nad naszymi umysłami, ma wiele niebezpiecznych stron. Po pierwsze, w serwisie rozprzestrzeniają się nieprawdziwe i wprowadzające w błąd informacje. Widzieliśmy to w powyborczych artykułach o zalewie fake news (fałszywych wiadomości), które stanowią zresztą tylko jedną z wielu form „zanieczyszczenia” informacyjnego. Rodzaje treści, jakie pojawiają się w facebookowym News Feedzie (chodzi o sposób prezentacji treści użytkownikom serwisu), często wizualnie nie dają się od siebie odróżnić, zwłaszcza gdy przeglądamy je na małym ekranie. Wszystkie posty, od filmów z YouTube’a, poprzez artykuły z „Washington Post” po reklamy internetowego sklepu Target mają taką samą ramkę, czcionkę i taki sam format. Użytkownikom niełatwo jest odróżnić od siebie poszczególne rodzaje bądź źródła treści. Nie mogą także wychwycić różnicy między opinią wyrażoną na jednym z licznych blogów na stronie „Washington Post” a poważnym artykułem dziennikarza śledczego z pierwszej strony tej gazety. Po wyborach w 2016 roku analitycy i eksperci stwierdzili, że obrazy i teksty zawierające absurdalne kłamstwa na temat głównych kandydatów z wielką łatwością zyskiwały popularność na Facebooku. Głównie z tego powodu, że serwis nie podsuwa żadnych wskazówek, które mogłyby nam pomóc zidentyfikować i ocenić źródło informacji. Niemniej problem nie leży jedynie po stronie odbiorców. Ci, którzy chcą szerzyć na Facebooku swoją propagandę, już dawno rozszyfrowali, o co w tym chodzi.

Drugi strukturalny problem polega na tym, że Facebook propaguje treści, które działają na emocje, wywołują zarówno radość, jak i oburzenie. W serwisie szybko zyskują popularność i szerzą się następujące rzeczy: słodkie kotki, niemowlęta, pełne mądrości toplisty, quizy dotyczące stylu życia oraz mowa nienawiści. Został on wprost zaprojektowany tak, by promować to wszystko, co wywołuje silne emocje. Zbyt łatwo jest zanieczyścić serwis bzdurami, by odwrócić uwagę, lub propagandą, która mobilizuje masy. Pierwszy krok to wybranie najbardziej ekstremalnego i polaryzującego przesłania lub obrazu. Ekstremizm wywołuje zarówno pozytywne, jak i negatywne reakcje czy „interakcje”. Facebook mierzy poziom zaangażowania liczbą kliknięć, polubień, udostępnień i komentarzy. Ta funkcja – albo wrodzona wada, jeśli zależy ci na jakości wiedzy i debaty – zapewnia, że najbardziej zapalny materiał będzie rozprzestrzeniał się najszybciej i sięgnie najszerszych kręgów. Trzeźwe, wyważone opinie nie mają szans na Facebooku. A gdy serwis panuje nad naszą wizją świata oraz rządzi naszymi kręgami społecznymi, wszyscy stajemy się potencjalnymi przekaźnikami ekstremistycznych bzdur8.

Trzecim, lepiej zbadanym zjawiskiem jest bańka filtrująca – pojęcie ukute przez pisarza i przedsiębiorcę Eliego Parisera, które opisuje sposoby, jakie Google i Facebook stosują, by podsuwać użytkownikom więcej tego, co im się podoba, zawężając tym samym ich pole widzenia i tworząc „komory pogłosowe” potwierdzające ich przekonania. Nie oznacza to, że Facebook przeszukuje treści pod kątem liberalnego bądź konserwatywnego punktu widzenia. Chodzi o to, że jeśli zazwyczaj dajesz lajki lub zostawiasz serduszka na określonych stronach, profilach bądź pod linkami do pewnych stron internetowych, jeśli często udostępniasz na swoim profilu lub komentujesz treści konkretnych stron, Facebook wie, że jesteś w nie wysoce zaangażowany. Więc podsuwa ci więcej takich treści, a mniej tych, które nie przyciągają twoich interakcji. Wybiera je za pomocą prognozowanej oceny każdego elementu, niezależnie od tego, czy udostępnił je ktoś z twoich ZnajomychI, czy jest to zakupiona reklama. Z czasem Facebook zaczyna wyraźnie rozpoznawać twoje preferencje. Nie chce zabierać ci czasu czymś, co cię nie interesuje. Wkrótce perspektywy twojego News Feedu zawężają się coraz bardziej ze względu na to, że twoi Znajomi i lubiane przez ciebie strony publikują raczej spójne politycznie treści. Jako że czytanie w News Feedzie postów naszych Znajomych jest coraz częstszym sposobem czerpania informacji o świecie i jego problemach, z mniejszym prawdopodobieństwem natrafimy teraz na coś z zewnątrz, a więc pozostaniemy nieświadomi, że istnieją kontrargumenty i konkurencyjne roszczenia. Należy odnotować, że żadna bańka filtrująca nie jest zamknięta i żaden News Feed nie pokazuje wyłącznie tego, czym się według Facebooka interesujemy. Czasami zdarzają się niespodzianki, które przebijają tę bańkę. Bańki filtrujące nie dotyczą tylko tematów politycznych ani nie odtwarzają jedynie osi prawica–lewica, znanej mieszkańcom Ameryki Północnej i Europy Zachodniej. Mogą odnosić się do wszelkich zainteresowań użytkownika. Dotykają więc każdego w inny sposób. Dlatego tak trudno jest je badać i mierzyć. Wielu aktywnie działa, by im zapobiec, szukając nowych źródeł i Znajomych z różnych środowisk. Jednak Facebook dąży do wygody i stawia na zwykłe nawyki, które sprawiają, że obracamy się w kręgu osób, które myślą tak samo9.

Jeśli połączymy bańki filtrujące ze zjawiskami związanymi z propagandą, powstanie z tego trująca mieszanka: użytkownicy Facebooka nie wchodzą we wzajemne interakcje na podstawie wspólnej bazy. Post ze strony Snopes.com obalający twierdzenie, że papież Franciszek poparł Donalda Trumpa, nigdy nie dociera do tych, którzy koniecznie powinni go zobaczyć. Wielu z nas z dużym prawdopodobieństwem natrafi na dementi, zanim dotrze do historii, której ono dotyczy. Spory między osobami, które myślą inaczej, często przeradzają się w debaty nad tym, co jest, a co nie jest prawdą. Zazwyczaj na Facebooku trudno jest wyprowadzić dyskusję poza przerzucanie się sprzecznymi opiniami. Bańki filtrujące oddzielają nas więc od tych, którzy się od nas różnią lub na ogół się z nami nie zgadzają, gdy tymczasem skłonność do sensacjonalizmu i treści propagandowych podważa zaufanie. W ten sposób Facebook utrudnia różnym grupom spotkanie w celu poprowadzenia spokojnej, merytorycznej i konstruktywnej rozmowy.

Redaktorka inicjująca: Elżbieta Kalinowska

Redaktorka prowadząca: Dominika Cieśla-Szymańska

Przekład: Katarzyna Sosnowska (Wprowadzenie i rozdziały 1–3), Weronika Mincer (rozdziały 4-7)

Redakcja: Ewa Polańska

Korekta: Beata Wójcik

Projekt okładki: Tomasz Majewski

Ilustracja wykorzystana na okładce: © by Paweł Kuczyński

Skład i łamanie: Dariusz Ziach

Grupa Wydawnicza Foksal Sp. z o.o.

02-672 Warszawa, ul. Domaniewska 48

tel.+48 22 826 08 82

faks +48 22 380 18 01

biuro@gwfoksal.pl

www.gwfoksal.pl

ISBN 978-83-280-6503-1

Skład wersji elektronicznej: Michał Olewnik / Grupa Wydawnicza Foksal Sp. z o.o.

i Michał Latusek / Virtualo Sp. z o.o.

KSIĄŻKI TEGO AUTORA

Antisocial media. Jak Facebook oddala nas od siebie i zagraża demokracji 

POLECANE W TEJ KATEGORII

Wielka czwórka Obywatel Coke Droga Steve'a Jobsa Niebezpieczne związki. Pieniądze i władza w świecie nowożytnym 1700-2000 Kapitał w XXI wieku