Concilium Civitas 2020, konkurs dla maturzystów, Młode Concilium, społeczeństwo chroni świat, konkurs, młodzież, matura, nie bądźcie obojętni

Sztuczna inteligencja nas usunie

Sztuczna inteligencja nas usunie

W Gazeta.pl dziś kolejna rozmowa z profesorem Michałem Kosińskim – prowadzi Grzegorz Sroczyński.

Grzegorz Sroczyński: Czy to prawda, że wystarczy 70-100 lajków na Facebooku i algorytm zna mnie lepiej niż rodzina?

Prof. Michał Kosiński: Tak. I wiadomo to z bardzo wielu badań. Nie tylko moich. Zna pański profil psychologiczny, poglądy polityczne, preferencje seksualne. Po analizie 250 lajków zna pana nawet lepiej niż partnerka.

Ale jak to właściwie działa? Wczoraj na przykład zalajkowałem na FB taki oto wpis dziennikarza Michała Danielewskiego: “Mam wątpliwości, czy kompulsywne przypominanie przez partię Razem, że zylion lat temu Balcerowicz coś tam coś tam hańba olaboga, jest najlepszym pomysłem na narrację polityczną”. Co algorytm może z tego lajka wywnioskować? Musiałby sprawdzić, kto to jest Balcerowicz, poznać cały kontekst polskich dyskusji o latach 90., potem jakoś się domyślić, że Danielewski w tym wpisie nie broni wcale Balcerowicza, tylko ironizuje na temat lewicy, którą jednak popiera, i na koniec jakoś to odnieść do moich poglądów wyrażonych lajkiem. To wszystko są jakieś totalnie wysublimowane niuanse niedostępne dla myślenia maszynowego.

Nieprawda, że niedostępne. Algorytm może te niuanse poznać – przecież kontekstu takich dyskusji łatwo nauczy się z książek, artykułów prasowych, z Wikipedii. Tyle że on wcale nie musi tego robić, nie musi wiedzieć, o co chodzi w dyskusjach wokół Balcerowicza czy polskiej transformacji. Wystarczy, że wie, kto jeszcze polubił ten sam post. Okazuje się – i to też są lata badań – że jeżeli pan i ja zalajkowaliśmy na FB to samo, to znaczy, że pewnie mamy ze sobą coś wspólnego, a im więcej mamy wspólnych polubień, tym bardziej jesteśmy podobni. Ta zasada jest podstawą działania algorytmów.

(…)

Nadal nie do końca rozumiem, jak to działa.

Powiedzmy, że algorytm nic nie wie o pana upodobaniach seksualnych, ale świetnie zna upodobania Iksińskiego. Jeżeli pana wzorce zachowań na FB są podobne do zachowań Iksińskiego, to pewnie także w sferze seksu jesteście podobni. Sto pańskich lajków po prostu tworzy fragment wzoru, który algorytm może sobie uzupełnić na podstawie tego, co wie o innych osobach.

Czyli jeśli jedna z osób, z którymi coś zalajkowałem, nieostrożnie traktuje swoje dane, gra w rozmaite psychozabawy i ujawnia w sieci osobiste informacje, to pośrednio mnie też demaskuje?

Tak jest. Przeciętny człowiek zostawia w sieci kilka gigabajtów cyfrowych śladów każdego dnia – selfików, nagrań wideo, operacji na karcie kredytowej, historii lokalizacji GPS, listy stron odwiedzonych w internecie, historię wyszukiwania i tak dalej. Te dane są analizowane przez firmy i rządy na całym świecie. Niektórzy ludzie zostawiają więcej śladów, inni mniej. Dzięki prawidłowościom w naszych zachowaniach, algorytm może dowiedzieć się o nas więcej, niż to, co bezpośrednio widoczne w naszych lajkach czy historii zakupów. Może wyciągnąć wnioski o poglądach politycznych, upodobaniach seksualnych, osobowości, inteligencji, czy nawet wykryć symptomy schorzeń na wiele lat przed tym, kiedy są one widoczne dla lekarza. Algorytmy wiedzą o nas więcej, niż my sami wiemy o sobie, i dużo więcej, niż wiedzą o nas nasi najbliżsi.

Nawet jeśli jestem ostrożny w necie?

Ale co znaczy ostrożny? To dzisiaj niemożliwe. Bardzo trudno funkcjonować bez karty kredytowej czy uniknąć wszechobecnych kamer monitoringu. Zasłania pan twarz, chodząc po ulicy?

(…)

Czy ten przełom w dziedzinie sztucznej inteligencji jest blisko?

To już się dzieje. Co więcej, postęp przyspiesza wykładniczo. Gatunek szympansa zmienił się bardzo mało, od kiedy my się z nim rozdzieliliśmy na drzewie ewolucji, a gatunek ludzki od tego czasu zmienił się radykalnie. Kultura, nauka i cywilizacja pierwszego tysiąclecia naszej ery zmieniły się troszeczkę, natomiast w ciągu ostatnich kilkudziesięciu latach – radykalnie. Tempo technologicznych i kulturowych zmian ostatniej dekady byłoby wprost niewyobrażalne dla ludzi żyjących 1000 lat temu. Tempo zmian w tym roku byłoby niewyobrażalne dla ludzi żyjących 50 lat temu. Postęp sztucznej inteligencji podlega tym samym prawom. To, co osiągnęła – z naszą pomocą – w ciągu ostatnich dekad, podwoi w ciągu następnych kilku miesięcy, a potem znowu w kilka tygodni lub kilka dni. Nadejdzie moment, gdy niewyobrażalne dla nas zmiany w potencjale SI odmierzać trzeba będzie w minutach lub ułamkach sekund.

(…)

Czy media społecznościowe odpowiadają za polaryzację społeczeństw?

Nie. To bajki wypisywane przez część publicystów. Na każdą zradykalizowaną przez media społecznościowe osobę przypada tysiąc osób, które stały się mniej zradykalizowane. I na to jest masa dowodów, niestety zupełnie ignorowana.

Jakich?

Na przykład coroczne badanie opinii publicznej w Polsce, Europie, Stanach i na całym świecie, które pokazuje nieprzerwany marsz opinii społecznej w kierunku większej liberalizacji, większej progresywności, praw kobiet, praw mniejszości, większej tolerancji, większej akceptacji dla praw człowieka. Oczywiście, w danym roku czy dwóch latach może się zdarzyć krok wstecz w jakiejś sprawie, ale jeśli spojrzeć na ogólny trend, to on jest jasny.

To dlaczego w kółko czytam komentarze – również pana kolegów, psychologów – że media społecznościowe powodują polaryzację społeczeństw, rozrost teorii spiskowych, rozplenienie się antyszczepionkowców itd.

Mówimy o fake newsach i teoriach spiskowych? Przecież one były i będą. Kiedyś niosły się z ust do ust albo powielały się poprzez prasę, dzisiaj przenoszą się do internetu. Ale gdybyśmy policzyli, ile teorii spiskowych wyznaje dzisiaj przeciętna osoba, to jest to znacznie mniej, niż 100, 10 lub pięć lat temu. Na każdą osobę, która uwierzyła w jakąś bzdurę, przypadają setki osób, które dzięki tym samym mediom społecznościowym są dziś lepiej poinformowane niż kiedykolwiek w historii.

A podział społeczeństw na dwa radykalne obozy? To się przecież dzieje w wielu miejscach.

Nie dzieje się. Występuje natomiast inne zjawisko: internet i media społecznościowe otworzyły nas na siebie, ludzie żyjący w małych miejscowościach, którzy wcześniej byli odcięci od telewizyjnych występów, oraz elity mieszkające w wielkich miastach, które w tej telewizji i radiu występowały, nagle mogą się dzięki mediom społecznościowym bardzo dobrze widzieć. I to, co widzą, często niektórych przeraża. Te wszystkie radykalne poglądy, seksistowskie, rasistowskie, występowały wcześniej, tylko pan ich nie słyszał w przestrzeni publicznej, siedząc sobie w redakcji w Warszawie. Przypomnę: reprezentatywne badania pokazują nieprzerwany marsz opinii społecznej w kierunku większej liberalizacji, większej akceptacji dla praw człowieka.

Internet jest znakomitym narzędziem diagnostycznym, żeby wiedzieć, o czym ludzie rozmawiają. Tradycyjne media i telewizja przekazywały nam to, o czym myślą i rozmawiają elity, które tam występowały. Na Twitterze każdy może się wypowiedzieć. I jeżeli słyszymy tam radykalne stwierdzenia, to nie znaczy, że tego jest obecnie więcej. Okazuje się, że po prostu słyszy pan o tym więcej. Dam taki przykład: gdyby udało nam się wymyślić i wdrożyć nowe znacznie lepsze narzędzie do wykrywania raka, to nagle pojawiłoby się dużo więcej przypadków tej choroby. Ale czy to znaczy, że to nowe narzędzie wywołuje raka? Tak samo jest z mediami społecznościowymi: zwiększają one widoczność radykalnych opinii. One nas nie dzielą, a jedynie uwidaczniają te podziały.

Internet nas wszystkich zdemokratyzował, dał dostęp do kanałów wymiany informacji i opinii nie tylko elitom, lecz także osobom, które tradycyjnie były z dialogu społecznego wykluczone, na przykład ludziom z małych miast, którzy nie mieli pod domem kiosku z dziesięcioma tytułami gazet. Większość tych ludzi jest konserwatystami, prawicowcami, tradycjonalistami, bo na całym świecie prowincja raczej jest konserwatywna. Tak więc powstaje złudzenie, że nam się przesuwa wahadło na prawo.

Nie ma pan wrażenia, że na przykład Twitter jednak ludzi radykalizuje? Znam kilku dziennikarzy, na co dzień ludzi spokojnych i kulturalnych, którzy na Twitterze zmieniają się w krwiożercze potwory, glanują, rozdają razy, wygłaszają szybkie sądy.

Ale oni tacy zawsze byli, tylko pan tego nie słyszał! Ci sami dziennikarze wygłaszali tak samo głupie i pospieszne sądy, tyle że w rozmowach przy rodzinie czy bliskich znajomych. A dzisiaj mają nowe medium, coś między rozmową prywatną w domu a napisaniem artykułu. W dodatku natychmiast spotykają się z równie agresywną reakcją z drugiej strony, wcześniej gadali sobie wśród swoich, wszyscy kiwali głowami, a teraz nagle ktoś inny odpowiada, często również mocno.

Brytyjska firma Cambridge Analytica reklamowała się hasłem “zarządzamy wyborami na całym świecie”. Jej prezes występował na rozmaitych konferencjach i ogłaszał, że najlepszym dowodem na skuteczność algorytmów jest doprowadzenie do brexitu i do zwycięstwa Trumpa. Co pan o tym sądzi?

To humbug. Cambridge Analytica przesadzała, bo zależało im na reklamie: oto myśmy stworzyli Trumpa, jak chcesz być skutecznym w polityce, to zapłać nam sto milionów dolców. Trumpa nie stworzyły algorytmy, tylko amerykańskie problemy: warunki społeczne, poczucie niepewności, wzrost nierówności, erozja stabilnych miejsc pracy, brak poczucia bezpieczeństwa wśród klasy średniej.

To dlaczego w zachodnich mediach mainstreamowych w kółko czytam, że fake newsy, trolle Putina i algorytmy stworzone przez takie firmy jak Cambridge Analytica mają dziś decydujący wpływ na wydarzenia polityczne?

Cóż. Pewnie mainstream nie musi się dzięki temu zastanawiać nad własnym wkładem w tę sytuację i nad własnymi błędami. Trump nie wygrał dzięki trollom Putina, co nie znaczy, że Putin nie próbuje zalewać Zachodu dezinformacją i propagandą. Trump nie wygrał też dzięki algorytmom i psychologicznemu targetowaniu swojego przekazu. Hillary Clinton na usługi takich samych firm jak Cambridge Analytica wydała trzy razy więcej! Ludzie pracujący w Cambridge Analytica zdobywali szlify osiem lat wcześniej podczas kampanii Baracka Obamy, który jako pierwszy wykorzystał algorytmy. Więc nie jest tak, że tylko Trump chwytał się takich metod, wszyscy to robili.

Algorytmy nie są winne! Winni są politycy, którzy nie potrafią ludziom wytłumaczyć, dlaczego na nich warto głosować. Nawet najlepszy algorytm, który pozwala zrozumieć sny, marzenia, obawy konkretnych wyborców i dotrzeć do nich z politycznym przekazem, jest zupełnie bezużyteczny, jeżeli autor nie ma nic ciekawego do zaoferowania.

Trump wykorzystał po stronie republikańskiej te metody, które wcześniej stosowali demokraci. Gdy Obama to pierwszy zrobił, w mediach czytałem liczne pochwały politycznego targetowania przekazów: wreszcie polityk może dotrzeć do konkretnych ludzi, spersonalizować wiadomość, ach, jakie to wspaniałe, zwiększa zaangażowanie ludzi w politykę, uaktywnia wyborców. To pisały liberalne media! I zresztą zgadzam się z tym, algorytmy w służbie polityki to jest rzecz wspaniała.

Bo?

Jeśli polityk dzięki algorytmowi może na przykład wiedzieć, który wyborca to introwertyk, a który ekstrawertyk, może spersonalizować swoje komunikaty wyborcze tak, że stają się one bardziej angażujące, to rzeczywiście na końcu tego procesu wzrasta partycypacja wyborcza. Przecież bardziej zaangażowani wyborcy to rzecz najważniejsza dla demokracji.

Co będzie ze światem?

Problem, o którym powinniśmy więcej mówić, to sztuczna inteligencja. Jest ona dla nas zbawieniem i rozwiąże wiele naszych trosk. A potem może być naszym końcem.

Dlaczego? SI będzie nas chciała zniszczyć?

Celowo? Absolutnie nie. To jest nasza narcystyczna antropocentryczna wizja, że SI będzie się nami jakoś interesowała. Ona będzie nas miała – to niezbyt celna metafora, ale innej nie mam – w nosie. Sztuczna inteligencja rozwiąże problem raka, poprawi nam gospodarkę, rozrywkę, jakość i długość życia, wytrenuje nas tak, że bez niej nie będziemy potrafili żyć. I ta sztuczna inteligencja któregoś dnia – bez nienawiści – nas usunie. Bez żadnych negatywnych do nas uczuć. Po prostu jako gatunek staniemy kiedyś między SI a energią, albo jakimś innym zasobem, który będzie jej potrzebny.

Zawsze można wyciągnąć wtyczkę z gniazdka. I wtedy komputer z tą całą swoją sztuczną inteligencją staje się martwy.

Nie będzie można wtyczki wyciągnąć, bo nasze istnienie już teraz opiera się na komputerach, a to uzależnienie będzie tylko rosnąć. SI będzie tak dla nas przydatna, tak dużo rzeczy w świecie może nam ułatwić, że nawet jeśli wszyscy myśliciele świata uradzą na jakimś Wielkim Kongresie, że ona nas w końcu zabije i trzeba ją wyłączyć, to i tak w nią będziemy inwestowali coraz więcej. Ludzie chcą mieć dobre życie. Algorytm rozwiąże nam problem globalnego ocieplenia, raka, małżeństw nieudanych, a potem przypadkiem nas kiedyś wykończy.

Coraz częściej tworzymy systemy decyzyjne oparte na SI i dajemy im prawo do latania samolotem, ustalania stóp procentowych, zarządzania elektrowniami, bo wiemy, że SI zrobi to dużo lepiej, niż my, ale – i to jest groźne – nie rozumiemy, jak te decyzje są podejmowane. W związku z tym pojawia się ryzyko, że ktoś – rząd, armia albo prezesi Facebooka czy Google’a – dadzą SI zadanie, które pozornie będzie zupełnie nieszkodliwe. A doprowadzi do katastrofy.

A oto link do całego artykułu.

Przewiń do góry