Broń matematycznej zagłady

Broń matematycznej zagłady

Autorzy: Cathy O'Neil

Wydawnictwo: DW PWN

Kategorie: Popularnonaukowe

Typ: e-book

Formaty: MOBI EPUB

cena od: 23.40 zł

Książka dedykowana wszystkim przegranym

 

Kiedy na świecie żyje ponad 7 mld osób, osobne rozpatrzenie każdego wniosku kredytowego, aplikacji na studia czy ocena indywidualnego pracownika staje się niemożliwa. By przetworzyć taką ilość danych, firmy korzystają z algorytmów. Niezależne i wolne od uprzedzeń, mają tylko jedno zadanie: wskazać poprawny, obiektywny i właściwy wynik.

 

Problem polega na tym, że te algorytmy pisane są przez ludzi, a ci bardzo rzadko bywają obiektywni. Zaprojektowane przez nich narzędzia zamiast opisywać świat, kreują rzeczywistość zgodnie z tym, w co wierzy ich stwórca. To właśnie Broń Matematycznej Zagłady – BMZ – ten szczególny rodzaj algorytmu, który działa poza prawem i zasięgiem naszego wzroku. Z ich powodu parabanki pogrążają ubogich i zdesperowanych, słabo wykształceni kończą na uczelniach, których dyplomy nie mają żadnej wartości, a osoby ubiegające się o pracę wypełniają kwestionariusze, których precyzji pozazdrościłby niejeden psychoterapeuta. Cathy O’Neil podąża tropem przegranych i skrzywdzonych, odkrywając kolejne Beemzety wszędzie: na uczelniach i w szkołach, w sieciowych restauracjach, służbie zdrowia, internetowych agencjach reklamowych, bankach, towarzystwach ubezpieczeniowych, policji, mediach społecznościowych czy podczas kampanii wyborczych…

Dane oryginału:

Cathy O’Neil

Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy

Copyright © Cathy O’Neil, 2017

Projekt okładki Elena Givaldi

Wydawca Bartłomiej Nawrocki

Redaktor Magdalena Rachwald

Produkcja Mariola Iwona Keppel

Skład wersji elektronicznej na zlecenie Wydawnictwa Naukowego PWN Michał Nakoneczny / 88em.eu

Recenzent prof. Leokadia Oręziak

Książka, którą nabyłeś, jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym. Ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie zaznacz, czyje to dzieło. A kopiując jej część, rób to jedynie na użytek osobisty.

Szanujmy cudzą własność i prawo

Więcej na www.legalnakultura.pl

Polska Izba Książki

Copyright © by Wydawnictwo Naukowe PWN SA

Warszawa 2017

eBook został przygotowany na podstawie wydania papierowego z 2017 r., (wyd. I)

Warszawa 2017

ISBN 978-83-01-19615-8

Wydawnictwo Naukowe PWN SA

02-460 Warszawa, ul. Gottlieba Daimlera 2

tel. 22 69 54 321; faks 22 69 54 228

infolinia 801 33 33 88

e-mail: pwn@pwn.com.pl; reklama@pwn.pl, www.pwn.pl

SPIS TREŚCI

PODZIĘKOWANIA

PRZEDMOWA

WSTĘP

1. KONSTRUKCJA BOMBY

Czym jest model?

2. ZESPÓŁ STRESU POURAZOWEGO

Utrata złudzeń

3. WYŚCIG ZBROJEŃ

Jak dostać się na studia?

4. MACHINA PROPAGANDOWA

Reklama online

5. STRATY W CYWILACH

Sprawiedliwość w epoce Big Data

6. NIEZDOLNI DO SŁUŻBY

W poszukiwaniu pracy

7. Z DUSZĄ NA RAMIENIU

W robocie

8. STRATY UBOCZNE

Bierzemy kredyt

9. BRAK STREFY BEZPIECZEŃSTWA

Ubezpieczenia dla wybranych

10. OBYWATEL NA CELOWNIKU

Społeczeństwo obywatelskie

PODSUMOWANIE

O AUTORCE

PRZYPISY

WSTĘP

Kiedy byłam małą dziewczynką, lubiłam przyglądać się mijanym autom i sprawdzać numery tablic rejestracyjnych. Każdy numer redukowałam do podstawowych elementów – liczb pierwszych, które go tworzyły. 45 = 3 x 3 x 5. Działanie to, nazywane rozkładem na czynniki pierwsze (faktoryzacją), było moją ulubioną łamigłówką. Dla młodej matematycznej maniaczki, którą byłam, liczby pierwsze stanowiły szczególny przedmiot zainteresowania.

Moja miłość do matematyki zmieniła się w namiętność. W wieku czternastu lat pojechałam na obóz matematyczny, z którego wróciłam, przyciskając do piersi kostkę Rubika. Matematyka dostarczała mi schronienia przed zamętem prawdziwego świata. Szłam przez życie, nieustannie poszerzając swoją wiedzę, dowód po dowodzie. I wychodziło mi to całkiem nieźle. W koledżu wybrałam matematykę jako główny kierunek, po czym zajęłam się pisaniem doktoratu. Jako temat swojej rozprawy wybrałam algebraiczną teorię liczb, dziedzinę zakorzenioną w rozkładzie na czynniki pierwsze, w który bawiłam się jako dziecko. Ostatecznie zostałam profesorem w Barnard College, uczelni, która tworzyła wspólny wydział matematyczny z Uniwersytetem Columbia.

A potem dokonałam wielkiej zmiany. Złożyłam wymówienie i poszłam pracować jako analityczka dla D.E. Shaw, jednego z najważnieszych funduszy hedgingowych. Porzucając świat akademicki na rzecz świata finansów, przeniosłam matematykę ze sfery abstrakcyjnej teorii do praktyki. Operacje, których dokonywaliśmy na liczbach, przekładały się na tryliony dolarów przepływających z jednego konta na drugie. Na początku byłam podekscytowana i zachwycona pracą w tym nowym laboratorium globalnej ekonomii. Lecz na jesieni 2008 roku, kiedy pracowałam tam już trochę ponad rok, wszystko się zawaliło.

Kryzys uświadomił mi aż nazbyt wyraźnie, że matematyka, która kiedyś była moim schronieniem, jest nie tylko głęboko wplątana w problemy tego świata, lecz także napędza wiele z nich. Kryzys mieszkaniowy, upadek wielu ważnych instytucji, wzrost bezrobocia; wszystkie te zjawiska były rozkręcane i podsycane przez matematyków tworzących magiczne formułki. Co więcej, dzięki swoim niezwykłym mocom, które tak bardzo kochałam, matematyka łączyła się z technologią, co potęgowało chaos i nieszczęścia. Ta kombinacja wzmacniała siłę oraz skalę działania systemów, o których teraz wiem, że są wadliwe.

Gdybyśmy wtedy wszyscy myśleli trzeźwo, zrobilibyśmy krok do tyłu, aby zrozumieć, jak to się stało, że matematyka została wykorzystana w niewłaściwy sposób; zastanowilibyśmy się, jak można zapobiec podobnej katastrofie w przyszłości. Jednak zamiast tego kryzys sprawił, że nowe techniki matematyczne zaczęły być bardziej w cenie niż kiedykolwiek wcześniej i rozszerzyły zasięg swojego oddziaływania na kolejne obszary naszego życia. Dwadzieścia cztery godziny na dobę, przez siedem dni w tygodniu przesiewały petabajty danych, z których wiele pochodziło z mediów społecznościowych i serwisów e-commerce. Techniki te w coraz większym stopniu koncentrowały się nie na przepływach na globalnych rynkach finansowych, lecz na istotach ludzkich. Na nas. Matematycy i statystycy śledzili nasze potrzeby, działania i siłę nabywczą. Oceniali naszą przyszłą i teraźniejszą wiarygodność i obliczali nasz potencjał jako studentów, pracowników, kochanków czy przestępców.

Była to ekonomia Big Data, która obiecywała spektakularne zyski. Program komputerowy mógł w przeciągu sekundy lub dwóch przetworzyć tysiące wniosków o pracę bądź kredyt i posegregować je w praktyczny sposób, umieszczając obiecujących kandydatów na szczycie listy. To nie tylko oszczędzało czas, lecz było również uznawane za obiektywne i sprawiedliwe. Bądź co bądź, proces ten nie zakładał udziału pełnych uprzedzeń ludzi, grzebiących w zwałach papieru, lecz wyłącznie przetwarzających suche liczby maszyn. Mniej więcej w okolicach 2010 roku matematyka zadomowiła się w naszych ludzkich sprawach tak dobrze, jak jeszcze nigdy dotąd, opinia publiczna zaś w znacznej mierze pochwalała to zjawisko.

Ja jednak dostrzegałam problem. Zasilane matematyką aplikacje, napędzające ekonomię danych, bazowały na wyborach dokonywanych przez omylne istoty ludzkie. Niektóre z tych decyzji były bez wątpienia podejmowane w najlepszej intencji. Niemniej jednak wiele z metod wpisywało w systemy oprogramowania, które w coraz większym stopniu zarządzały naszym życiem: ludzkie uprzedzenia, brak zrozumienia oraz stronniczość. Jak bogowie, modele matematyczne były nie do pojęcia, a sposób ich działania byli w stanie zgłębić jedynie najwyżsi kapłani – matematycy i programiści komputerowi. Rozstrzygnięcia dostarczane przez modele, nawet gdy były złe lub szkodliwe, nie podlegały dyskusji ani odwołaniu. Same modele zaś miały tendencję do karania osób ubogich i wykluczonych, sprawiając zarazem, że bogaci stawali się jeszcze bogatsi.

Wymyśliłam nazwę dla takich szkodliwych odmian modeli: Broń Matematycznej Zagłady, w skrócie Beemzet. Przedstawię je na przykładzie, krok po kroku wskazując ich niszczycielski charakter.

Jak to się często zdarza, zaczęło się od szczytnego celu. W 2007 roku nowy burmistrz Waszyngtonu Adrian Fenty postanowił poprawić sytuację słabych miejskich szkół. Potrzeba zmian była oczywista. W tym czasie zaledwie jeden na dwóch uczniów liceum pozostawał w szkole do ukończenia ostatniej, dziewiątej klasy, a jedynie osiem procent ósmoklasistów osiągało w matematyce wyniki na poziomie wymaganym dla swojej klasy. Fenty stworzył nowe, kluczowe stanowisko kanclerza ds. waszyngtońskich i powołał na nie Michelle Rhee, specjalistkę do spraw edukacji.

W myśl powszechnie przyjętej teorii uczniowie nie uczyli się wystarczająco dobrze, ponieważ nauczyciele nie pracowali należycie. Tak więc w 2009 roku Rhee wdrożyła plan, którego celem było odsianie nieskutecznych nauczycieli. Taki kierunek myślenia obowiązuje w całym kraju w okręgach szkolnych z problemami, a z perspektywy konstruowania systemu wydaje się ze wszech miar sensowny: trzeba ocenić nauczycieli, pozbyć się najgorszych, najlepszych zaś umieścić tam, gdzie mogą się najbardziej wykazać. W języku analityków danych takie działanie prowadzi do „optymalizacji” systemu szkolnictwa i skutkuje lepszymi efektami kształcenia u dzieci. Któż, z wyjątkiem „złych” nauczycieli, miałby kwestionować słuszność takich założeń? Rhee stworzyła narzędzie oceny nazwane IMPACT, a na koniec roku szkolnego 2009/10 okręg zwolnił wszystkich nauczycieli, których punktacja znalazła się w dolnych dwóch procentach. Pod koniec następnego roku pracę straciło kolejne pięć procent nauczycieli, czyli 206 osób.

Mogło się wydawać, że Sarah Wysocki, nauczycielka piątej klasy, nie ma żadnych powodów do obaw. Pracowała w MacFarland Middle School zaledwie dwa lata, ale już zbierała wyśmienite opinie od przełożonego oraz rodziców uczniów. W jednej z ocen chwalono ją za uwagę, którą poświęcała dzieciom; w innej została określona jako „jedna z najlepszych nauczycielek, z jaką kiedykolwiek miałam styczność”.

Pod koniec roku szkolnego 2010/11 Wysocki otrzymała bardzo kiepski wynik w ocenie IMPACT. Jej problemem był nowy system zliczania punktów, znany jako model wartości dodanej[1], którego twórcy uzurpowali sobie umiejętność bezstronnej oceny skuteczności nauczyciela w nauczaniu matematyki i umiejętności językowych. Punktacja generowana przez algorytm stanowiła połowę ogólnej oceny nauczyciela i przeważyła wszystkie pozytywne opinie otrzymane od administracji szkoły i rodziców. W efekcie okręg szkolny nie miał innego wyboru, niż zwolnić Sarah Wysocki wraz z 205 innymi nauczycielami, których wyniki w teście IMPACT znalazły się poniżej progu minimalnego.

Nie wyglądało to jak polowanie na czarownice czy manipulacja przy wynikach. W gruncie rzeczy, w podejściu okręgu szkolnego była pewna logika. Osoba kierująca szkołą mogła się przecież przyjaźnić z kiepskimi nauczycielami. Mogła wręcz podziwiać ich styl lub okazywane zaangażowanie w pracę. Źli nauczyciele mogą sprawiać wrażenie dobrych. Tak więc Waszyngton, jak wiele innych okręgów szkolnych, starał się minimalizować wpływ tego typu opinii na ostateczą ocenę, przywiązując większą wagę do twardych wyników: punktacji, która określała postępy w matematyce oraz czytaniu. Urzędnicy okręgu przekonywali, że liczby nie kłamią. Są „sprawiedliwsze”.

Oczywiście Wysocki miała wrażenie, że te liczby były strasznie niesprawiedliwe i chciała się dowiedzieć, skąd wziął się taki wynik. Później powiedziała mi: „nie wydaje mi się, by ktokolwiek je rozumiał”. Jak dobry nauczyciel mógł dostać tak fatalną ocenę? Czym był model pomiaru oparty na wskaźnikach wartości dodanej?

Cóż, odpowiedziano jej, że to skomplikowane. Okręg szkolny zlecił sporządzenie systemu ewaluacji IMPACT firmie konsultingowej Mathematica Policy Research z siedzibą w Princeton. Jej zadaniem było przeanalizowanie postępów edukacyjnych uczniów w okręgu, a następnie wyliczenie, w jakim stopniu odpowiedzialność za ich postępy lub regres można przypisać poszczególnym nauczycielom. To oczywiście nie było łatwe. Badacze wiedzieli, że wiele zmiennych, od społeczno-ekonomicznego zaplecza uczniów po specyficzne trudności w nauce, mogło wpływać na wyniki nauczania. Algorytmy musiały uwzględniać takie czynniki, co stanowiło jedną z przyczyn skomplikowania modelu.

Próba przełożenia ludzkiego zachowania, wydajności oraz potencjału na algorytmy rzeczywiście nie jest zadaniem łatwym. Aby wyobrazić sobie skalę problemu, z którym musiała zmierzyć się Mathematica, wyobraźcie sobie dziesięciolatkę mieszkającą w biednej dzielnicy południowo-wschodniego Waszyngtonu. Pod koniec roku szkolnego przystępuje ona do standardowego testu piątoklasisty. Następnie życie idzie swoim torem. Dziewczynka może mieć problemy rodzinne lub kłopoty finansowe. Być może przeprowadza się z jednego domu do drugiego lub martwi się bratem, który popadł w konflikt z prawem. Może niepokoi się swoją wagą lub obawia prześladowania przez rówieśników w szkole. Tak czy inaczej, w następnym roku musi przystąpić do kolejnego standardowego sprawdzianu – testu szóstoklasisty.

Jeśli porównamy wyniki tych testów, punktacja powinna być stabilna, a może się nawet poprawić. Jeżeli natomiast wyniki się pogorszą, łatwo jest ocenić różnicę pomiędzy osiągnięciami naszej uczennicy, a wynikami lepszych studentów.

Jednak w jak dużej mierze odpowiedzialność za ten wynik można przypisać nauczycielowi? Tego nie wie nikt, a Mathematica dysponuje w tym zakresie jedynie ograniczonymi danymi. Dla odmiany, w spółkach wykorzystujących Big Data, takich jak Google, badacze nieustannie przeprowadzają testy i monitorują tysiące zmiennych. Mogą zmienić tło na pojedynczej reklamie z niebieskiego na czerwone, wyświetlić każdą wersję dziesięciu milionom użytkowników i śledzić na bieżąco, która wersja zbierze więcej kliknięć. Tę informację zwrotną wykorzystują następnie do doskonalenia swoich algorytmów i precyzyjnego dostrajania realizowanych działań. Mam wiele zastrzeżeń do Google’a, do których przejdę w dalszej części książki, niemniej jednak taki sposób testowania bazuje na adekwatnym wykorzystaniu statystyki.

Próba wyliczenia wpływu, jaki jedna osoba może wywierać na drugą w przeciągu roku szkolnego, jest znacznie bardziej skomplikowanym zadaniem. Wysocki mówi: „Jest tyle czynników składających się na proces nauki i nauczania, że ciężko uchwycić je wszystkie”. Co więcej, próba zmierzenia skuteczności nauczyciela przez poddanie analizie wyników testów dwudziestu czy trzydziestu uczniów jest z punktu widzenia statystyki nierozsądna lub wręcz śmieszna. Biorąc pod uwagę wszystkie rzeczy, które mogą pójść nie tak, taka grupa jest o wiele za mała. Gdybyśmy chcieli przeanalizować jakość pracy nauczycieli zgodnie ze statystycznymi standardami obowiązującymi w odniesieniu do wyszukiwarek internetowych, musielibyśmy przebadać tysiące, jeśli nie miliony, losowo wybranych uczniów. Statystycy operują na na dużych liczebnie grupach po to, by stworzyć przeciwwagę dla wyjątków i anomalii (natomiast Beemzety, jak się przekonamy, często karzą jednostki, które mają nieszczęście być wyjątkami).

Nie mniej ważne jest to, że systemy statystyczne potrzebują informacji zwrotnej – czegoś, co im powie, że zboczyły z toru. Statystycy wykorzystują informacje o błędach po to, by sprawdzać swoje modele i modyfikować je tak, by stawały się inteligentniejsze. Gdyby Amazon.com, w wyniku błędnej korelacji w swoich algorytmach, zaczął rekomendować podręczniki do pielęgnacji trawników nastoletnim dziewczynkom, liczba kliknięć spadłaby na łeb, na szyję. W następstwie algorytm zostałby zmodyfikowany aż do uzyskania zadowalających efektów. Bez informacji zwrotnej machina statystyczna może w nieskończoność generować niepoprawne lub szkodliwe analizy, nigdy nie ucząc się na własnych błędach.

Wiele z Beemzetów, które będę omawiała w tej książce, włączając w to model wartości dodanej waszyngtońskiego systemu oświaty, zachowuje się w taki właśnie sposób. Definiują własną rzeczywistość, a następnie wykorzystują ją do uzasadnienia generowanych wyników. Taki typ modelowania ma charakter samoutrwalający, wysoce destruktywny – i jest niezwykle powszechny.

Kiedy system punktacji opracowany przez Mathematikę wytypował Sarah Wysocki oraz 205 innych nauczycieli, władze okręgowe wszystkich ich zwolniły. Lecz skąd miały wiedzieć, czy postąpiły słusznie? Nie dowiedzą się tego. System sam zadecydował, że nauczyciele są niekompetentni i że tak należy ich postrzegać. Aż 206 „złych” nauczycieli zniknęło. Już sam ten fakt wydaje się pokazywać, jak skuteczny jest model wartości dodanej. Umożliwia oczyszczenie okręgu z nieskutecznych nauczycieli. Zamiast poszukiwać prawdy, zastępuje się ją wyliczoną punktacją.

To jeden z przykładów sprzężenia zwrotnego występującego w ramach Beemzetów. W trakcie czytania tej książki poznamy wiele takich przypadków. Przykładowo, pracodawcy coraz powszechniej wykorzystują historię kredytową kandydatów do pracy przy ocenie potencjalnych pracowników. W myśl tego rozumowania ci, którzy terminowo spłacają swoje rachunki, prawdopodobnie będą także punktulanie zjawiać się w pracy i przestrzegać ustalonych zasad. Prawda jest jednak taka, że wiele odpowiedzialnych osób i wielu dobrych pracowników ma problemy finansowe, które obniżają ich wiarygodność kredytową. Przekonanie, że kiepska historia kredytowa współgra z niską wydajnością w pracy, sprawia z kolei, że osoby z niską pozycją w rankingu mają mniejsze szanse na znalezienie pracy. I dalej: bezrobocie spycha takie osoby w kierunku ubóstwa, co dodatkowo pogarsza ich punktację, sprawiając, że jeszcze trudniej im znaleźć pracę. Tworzy się spirala strat. Pracodawcy nigdy nie dowiedzą się, ilu dobrych pracowników przeoczyli, skupiając się na historii kredytowej kandydatów. W Beemzetach matematyka kamufluje wiele toksycznych założeń, które w przeważającej mierze funkcjonują bez weryfikacji oraz kontroli.

To kolejna powszechna cecha Beemzetów. Wykazują one tendencję do karania osób ubogich. Dzieje się tak po części dlatego, że tworzy się je do oceny dużych grup ludzi. Specjalizują się w hurtowym przerobie, a do tego są tanie. To część ich uroku. Osoby zamożne, dla odmiany, często czerpią korzyści wynikające z osobistego podejścia różnych instytucji. Ekskluzywna kancelaria prawna lub elitarna szkoła w znacznie większym stopniu będą polegać na rekomendacjach i osobistych rozmowach kwalifikacyjnych niż sieć barów szybkiej obsługi czy borykający się z niedoborami finansowymi wielkomiejski okręg szkolny. Jak jeszcze wiele razy zdążymy się przekonać, sprawy jednostek uprzywilejowanych są załatwiane przez ludzi, a sprawy mas przez maszyny.

Znamienna jest także trudność, jakiej doświadczyła Sarah Wysocki, próbując znaleźć kogoś, kto byłby w stanie wytłumaczyć jej odstającą od normy punktację. Werdykty Beemzetów stają się dogmatami pochodzącymi od algorytmicznych bogów. Sam model jest jak czarna skrzynka, której zawartość stanowi zaciekle chronioną tajemnicę przedsiębiorstwa. Pozwala to firmom takim jak Mathematica żądać więcej za swoje usługi. Służy to jednak również innemu celowi: uważa się, że utrzymywanie w niewiedzy osób poddawanych ocenie zmniejszy prawdopodobieństwo, że będą one próbowały oszukiwać system. Jedyne, co im zostaje, to ciężka praca, przestrzeganie zasad i nadzieja, że model zarejestruje i doceni ich starania. Z drugiej strony, jeżeli model pozostaje nieprzejrzysty, trudniej jest kwestionować wyniki i protestować przeciwko nim.

Przez lata waszyngtońscy nauczyciele narzekali na arbitralny system punktacji i domagali się dokładniejszych informacji na temat zmiennych służących do wyliczeń. Mówiono im, że to algorytm. Że jest bardzo skomplikowany. To zniechęcało ich do dalszych dociekań. Niestety wielu ludzi czuje obawę przed matematyką. Jednak pewna nauczycielka matematyki, Sarah Bax, nie zaprzestała nękania zarządcy okręgu, swojego dawnego kolegi, Jasona Kamrasa, i ciągle domagała się szczegółów. Po przepychankach, które ciągnęły się miesiącami, Kamras zgodził się udostępnić jej następny raport techniczny. Bax napisała w odpowiedzi: „Jak możecie usprawiedliwiać ocenianie ludzi za pomocą narzędzia, którego działania nie jesteście w stanie wytłumaczyć?”. Ale taka jest właśnie natura Beemzetów. Zadania związane z analizą przekazywane są programistom i statystykom. Ci z kolei co do zasady zdają się na raporty generowane przez maszyny.

Sarah Wysocki dobrze zdawała sobie sprawę z tego, że formuła, według której opracowywane były jej oceny, nadaje dużą wagę wynikom zdawanych przez jej uczniów testów standardowych. I z tym właśnie faktem wiązała pewne podejrzenia. Kiedy rozpoczynała rok szkolny, który okazał się jej ostatnim w MacFarland Middle School, cieszyła się, że jej nowy rocznik piątoklasistów zaskakująco dobrze wypadł w testach kończących czwartą klasę. W Barnard Elementary School, skąd pochodziła większość jej podopiecznych, 29 procent uczniów osiągnęło wysoką ocenę, czyli „zaawansowany poziom czytania”. To stanowiło pięć razy lepszy wynik niż przeciętna wszystkich szkół w okręgu.

Kiedy jednak rozpoczęły się lekcje, spostrzegła, że wielu uczniów ma trudności z czytaniem nawet prostych zdań. Dużo później dziennikarze śledczy z „Washington Post” i „USA Today” ujawnili informację o wysokiej liczbie śladów po gumkowaniu w testach standardowych z czterdziestu jeden szkół w okręgu, włączając w to szkołę Barnard. Duży odsetek poprawianych odpowiedzi wskazuje na wysokie prawdopodobieństwo oszustw. W niektórych szkołach podejrzanych było nawet 70 procent klas.

Ale co to ma wspólnego z Beemzetami? Kilka rzeczy. Po pierwsze, algorytmy ocen nauczycieli stanowią potężne narzędzie modyfikacji ich zachowań. Taki jest zresztą ich cel, a w przypadku waszyngtońskich szkół zawierały one zarówno kij, jak i marchewkę. Nauczyciele wiedzieli, że jeżeli uczniowie nie zdadzą testów, ich miejsca pracy będą zagrożone. Dało im to silną motywację, żeby zadbać o dobre wyniki uczniów – zwłaszcza, że w 2008 roku przez rynek pracy przetaczał się akurat wielki kryzys. Jednocześnie, gdy uczniowie uzyskiwali lepsze wyniki od swoich rówieśników, nauczyciele oraz ich przełożeni mogli liczyć na nagrody dochodzące nawet do 8 tysięcy dolarów. Jeśli nałożymy te potężne motywatory na opisywaną sytuację faktyczną – dużą liczbę poprawek oraz nietypowo wysoką punktację w testach – istnieją powody, aby przypuszczać, że nauczyciele czwartoklasistów, kierowani strachem lub chciwością, sami korygowali egzaminy swoich uczniów.

Jasne staje się w takiej sytuacji, że Sarah Wysocki mogła rozpocząć rok szkolny, ucząc piątoklasistów ze sztucznie zawyżonymi ocenami wyników w nauce. Jeżeli tak było, wyniki w teście pod koniec kolejnego roku mogły sprawiać wrażenie, jakby w piątej klasie nastąpił regres w nauczaniu, co wskazywałoby na niekompetencję nauczycielki. Wysocki była przekonana, że tak właśnie stało się w jej przypadku. Takie wytłumaczenie potwierdzały oceny rodziców, kolegów oraz przełożonego wskazujące, że była dobrym nauczycielem. To wyjaśniałoby wszelkie wątpliwości. Sarah Wysocki miała silne argumenty potwierdzające jej stanowisko.

Nie można jednak kwestionować wyroków Beemzetów. W tym kryje się część ich przerażającej mocy. One nie słuchają. Nie ugną się. Są głuche na urok osobisty, groźby i pochlebstwa, ale również na logiczne argumenty – nawet tam, gdzie istnieją poważne powody do podważania prawidłowości danych, w oparciu o które generowane są wnioski. Owszem, jeżeli wyjdzie na jaw, że automatyczne systemy dają ciała regularnie i na dużą skalę, programiści wkroczą do akcji i poprawią algorytmy. Jednak przeważnie programy wydają prawidłowe wyroki, więc jedyne, co mogą zrobić posługujące się nimi istoty ludzkie, to powiedzieć: „Cóż, nic z tym nie mogę zrobić…”.

I dokładnie taką odpowiedź ostatecznie otrzymała Sarah Wysocki ze strony władz okręgu szkolnego. Jason Kamras opowiedział późnej dziennikarzowi „Washington Post”, że ilość miejsc wytartych gumką w testach czwartych klas rzeczywiście była zastanawiająca oraz że wyniki uczniów klas piątych mogły być zawyżone. Stwierdził jednak, że dowody nie były przesądzające. Podkreślił też, że nauczycielka została potraktowana sprawiedliwie.

Czy widzicie tutaj paradoks? Jakiś algorytm przetwarza furę statystyk i generuje informację, która wskazuje na prawdopodobieństwo, że pewna osoba może być złym pracownikiem, ryzykownym kredytobiorcą, terrorystą lub niekompetentnym nauczycielem. To prawdopodobieństwo urzeczywistnia się w punktacji, która może wywrócić człowiekowi życie do góry nogami. Kiedy jednak taka osoba podejmuje walkę, kontrdowody o charakterze jedynie „przekonującym” okazują się zwyczajnie niewystarczające. Aby istniały szanse na powodzenie, nieprawidłowość musi zostać udowodniona ponad wszelką wątpliwość. Jak jeszcze wielokrotnie będziemy mieli okazję się przekonać, od ludzkich ofiar Beemzetów wymaga się o wiele większej staranności dowodowej niż od algorytmów.

Po otrząśnięciu się z szoku wywołanego zwolnieniem Sarah Wysocki znalazła nową pracę w przeciągu kilku dni. Wiele osób, włączając w to jej byłego przełożonego, mogło poświadczyć jej wysokie kompetencje nauczycielskie, więc szybko znalazła posadę w szkole w bogatym rejonie północnej Wirginii. Tak więc dzięki wysoce podejrzanemu modelowi matematycznemu, biedna dzielnica straciła dobrą nauczycielkę, zyskała zaś na tym bogata szkoła, w której nauczyciele nie byli zwalniani w oparciu o wyniki swoich uczniów.

PRZYPISY

[1] W Polsce określany metodą analizy EWD – od pierwszych liter określenia „Edukacyjna Wartość Dodana”. Oceniane są szkoły, a nie konkretni nauczyciele. Wylicza się według niej wskaźnik EWD [przyp. red.].

KSIĄŻKI TEGO AUTORA

Broń matematycznej zagłady Badanie danych. Raport z pierwszej linii działań Doing Data Science. Straight Talk from the Frontline 

POLECANE W TEJ KATEGORII

Przewodnik wędrowca Duchowe życie zwierząt Medyczna Marihuana. Historia hipokryzji Małe wielkie odkrycia Na drugie Stanisław Człowiek. Biografia