Quantcast
Channel: marcin gołąb – mała kultura współczesna
Viewing all articles
Browse latest Browse all 3

alek tarkowski (rozmowa): fantazja była taka, że jak każdy dostanie głos, to każdy będzie upodmiotowiony

$
0
0

Marcin Gołąb: Chciałem zacząć naszą rozmowę od kwestii związanej bezpośrednio z tematem najnowszej odsłony „mkw”. Helen Nissenbaum i Finn Brunton w książce Obfuscation. A User’s Guide for Privacy and Protest [Brunton, Nissenbaum 2015] opisują taktykę zaciemniania, rozumianą jako dobrowolny proces falsyfikowania danych poprzez dostarczanie nieprawdziwych, mylących lub dwuznacznych informacji, np. przy pomocy wtyczki o nazwie Adneuseam. Czy takie praktyki mogą być skuteczne w sensie technicznym, jaki i społecznym, czy mogą okazać się przydatne dla użytkowników internetu?

Alek Tarkowski: Niedawno czytałem dane, że Polska jest jednym z krajów, w których najczęściej używa się adblockerów [wtyczek do przeglądarek internetowych, blokujących reklamy – red.], czyli oprogramowania robiącego trochę co innego niż wspomniana wtyczka. Podobno używa ich jedna trzecia polskich internautów. To ciekawe, szczególnie kiedy zadajemy sobie pytanie, czy jest jakaś polska wyjątkowość w korzystaniu z technologii. I często trudno się jej doszukać. Albo stwierdzamy, że coś mamy najgorzej, na przykład najmniejszy procent gospodarstw z dostępem do internetu. Lubię kiedy wyłania się z takich danych jakaś wyjątkowość, chociaż kiedy już o niej wiemy, pojawia się kłopot z jej opisem. Nie wiadomo właściwie jak to wytłumaczyć, co właściwie takiego jest w Polakach/Polkach, trudno to powiązać z wiedzą socjologiczną o polskim społeczeństwie. Czy w przypadku adblockerów nagle jesteśmy bardziej zainteresowani tym, żeby się troszczyć o swoją prywatność lub o brak uciążliwych reklam? Wydaje mi się, że nie, ponieważ chociażby jesteśmy społeczeństwem w dużym stopniu konsumpcyjnym. To są takie zagadki, ale wiedza o liczbie użytkowników wtyczek blokujących reklamy pokazuje, że strategia zaciemnia, rozumiana jako aktywne działania, jest zapewne zdecydowanie rzadsza od strategii polegającej na chowaniu się lub wyłączaniu pewnych elementów.

Wydaje mi się również, że fajnie jest myśleć o strategiach stosowanych w internecie, w taki sposób, że nie wszystkie one są powodowane określoną myślą krytyczną, ale wiele z tych działań jest w jakiś sposób osadzone w pewnych innych logikach życia codziennego. To mi się najbardziej kojarzy z pracą danah boyd, która napisała książkę It’s Complicated. The Social Lives of Networked Teens [boyd 2014]. Przez dziesięć lat prowadziła badania etnograficzne młodzieży, wykonując bardzo przydatną pracę. Starała się pokazać, że – ogólnie rzecz ujmując – młodzi ludzie nie są głupi. Jest taki mem i powszechny stereotyp, że młodzież nie rozumie zagrożeń, błąkając się po internecie. Inny stereotyp jest taki, że ochroną siebie w sieci zajmują się tylko bardzo wyrafinowani użytkownicy, uświadomieni technologicznie i politycznie. danach boyd starała się pokazać – co w ogóle wydaje mi się dosyć oczywiste, jeśli się chwilę o tym pomyśli – że w internecie ludzie siebie konstruują. I to jest dla tej autorki punkt wyjścia. Użytkownicy sieci niekoniecznie chcą się schować, ale grają w różne gry, które są jedną z części teatru życia codziennego. To powinno być oczywiste, ale chyba nie było, ponieważ część badaczy i innych komentatorów, miała od dawna gotowe teorie mówiące o tym, że internet robi coś dziwnego z jego użytkownikami. Na przykład, że jesteśmy bardziej ekstrawertyczni w internecie, dlatego, że nie rozumiemy technologii. Natomiast danah boyd pokazała, że funkcjonującym standardem jest negocjowanie pewnych kwestii, niekoniecznie po to, żeby się ukryć, ale po to, żeby się wykreować. Dzieci i młodzież dokonują bardzo wielu wyborów – oczywiście bywają one czasem mylne, ale nie muszą takie być z założenia. Konstruowanie siebie odbywa się z wielu różnych powodów, ale zazwyczaj tym powodem nie jest prywatność, tylko popularność wśród rówieśników. Co akurat, szczerze mówiąc, tej prywatności szkodzi. Wydaje mi się, że to jest zdroworozsądkowe podejście i w tym sensie zaciemnianie, do pewnego stopnia, nie jest niczym radykalnym. W następnym kroku możemy zapytać, czy ono w takiej formie jest skuteczne, czy potrzeba tak szalonych metod jak wspomniana wtyczka Adneuseam, żeby naprawdę można było o zaciemnianiu mówić.

MG: No właśnie, pojawia się pytanie, co miałaby tu oznaczać skuteczność, ponieważ z jednej strony mamy dbałość lub brak dbałości o prywatność, a z drugiej codzienne użytkowanie internetu, w którym stale czegoś szukamy. Na przykład chcemy kupić żelazko, szukamy go poprzez wyszukiwarkę, po czym na innych stronach wyświetlają się nam reklamy żelazka. To być może nie jest wcale takie złe, że widzimy reklamy tego, co nas interesuje – chociaż często jest tak, że już kupiliśmy żelazko, a reklamy wciąż się wyświetlają. Jest również wiele mechanizmów, które teoretycznie mają nam ułatwić poruszanie się w internecie, jednocześnie umożliwiając sprzedaż i zarabianie działającym w sieci firmom. Na przykład Amazon w swoich sklepach oferuje spersonalizowane rekomendacje książek na podstawie naszych wcześniejszych lektur, o ile oczywiście zaopatrujemy się w nie właśnie w tym sklepie. Czy kosztem zaniechania kamuflażu jest wygoda korzystania z sieci?

AT: Myślę, że tak. To jest symbiotyczna relacja użytkownika z tymi serwisami, dzięki którym ludzie bardzo dużo zyskują, ponieważ one jednak pracują na to, żeby być niezwykle wygodne i do pewnego stopnia też przydatne. Przypominają nam o różnych okazjach, podpowiadają pewne rzeczy. Jest tego cena. Te serwisy nie są serwisami pożytku publicznego, tylko niejako ta cała przyjemna działalność społecznościowa jest równocześnie pracą na rzecz tego serwisu.

MG: Czy moglibyśmy sobie wyobrazić taki świat, w którym to, co zostawiamy tym serwisom, jest w jakiś sposób danymi otwartymi? Kilka dni temu polecał Pan na Twitterze książkę Understanding the Connected Home. Thoughts on living in tomorrow’s connected home Michelle Thorne i Petera Bihra [Bihr, Thorne 2016].

 

Przechwytywanie

 

Niezwykle interesująca wydała mi się idea autorów tej książki, żeby przy tworzeniu inteligentnego domu na pierwszym miejscu stawiać prywatność, ale razem z otwartością (przede wszystkim rozumianą jako ustalenie standardów danych oraz protokołów i dostęp do nich z poziomu urządzeń różnych firm) i bezpieczeństwem. Tym, co zostawiamy tym wszystkim serwisom są różnego rodzaju ślady naszej aktywności, a jednocześnie te ślady usprawniają działanie aplikacji, a w przypadku takiego inteligentnego domu, urządzeń. Mamy więc otwartość systemu, dbałość o bezpieczeństwo i prywatność, a jednocześnie dane mogą służyć do udoskonalania urządzeń i oprogramowania.

AT: Istnieją ciekawe koncepcje, które mówią o tym, że prywatność może być negocjowana. Wspomniana Helen Nissenbaum opisała to w pracy Privacy in Context. Technology, Policy, and the Integrity of Social Life [Nissenbaum 2010]. I na tyle, na ile rozumiem przedstawioną przez nią koncepcję, jej zdaniem nie można wyznaczyć jednego odgórnego standardu, tylko trzeba na kwestię prywatności patrzeć w różnych kontekstach. Prywatność może być określona na różne sposoby i co więcej – Nissenbaum czyni ważne humanistyczne założenie – ludzie również powinni móc określić ten poziom. Pamiętam lekką awanturę o ten pomysł z polskimi radykalnymi obrońcami prywatności, ponieważ oni uważają, że jest jednak standard, który jest sztywny. Że przemożny nadzór powoduje, iż można odgórnie powiedzieć, co jest prywatnością. Trudno jest im więc zaakceptować na przykład wyniki badań, w których pyta się ludzi, za ile by sprzedali różne dane. Okazuje się, że dane medyczne wystawia się na sprzedaż raczej niechętnie – niekiedy w badaniach pojawiają się konkretne kwoty – ale chociażby dane dotyczące oglądania telewizji, już chce się sprzedać z dużą ochotą. W reakcji na te wyniki zwolennicy ochrony prywatności mówią: „ci ludzie są nieświadomi”, „oni nie rozumieją, że kręcą sobie bicz na samego siebie”. Nissenbaum natomiast uważa, że nie możemy ludzi traktować jak bezwolne zwierzęta w skrzynce. Niech ludzie negocjują swoją prywatność, to jest jej zdaniem w porządku, że oni chcą negocjować. Wydaje mi się, że jesteśmy w takim miejscu, w którym nie do końca sobie radzimy ze znaczeniem takich barier, bo w sumie jest natłok treści kultury i jest w tym coś potrzebnego, a nie tylko przydatnego, żeby ktoś automatycznie wskazywał, radził – „ukazała się nowa książką, widziałem poprzednie 50, wygląda na to, że to jest ciekawe”. Cena tego chyba fundamentalna jest taka, że zatracamy gdzieś także cechy związane z niepewnością, z podejmowaniem decyzji. Otwierają się zupełnie nowe rozdziały, kiedy przestajemy myśleć o internecie, jako o tym, co jest w naszych komputerach, a zaczynamy myśleć o naszym domu i o mieście.

MG: Mnie się nawet wydaje, że autorzy Connected home – chociaż nie tylko oni, ponieważ to pojawia w różnych miejscach – odwracają ideę stosowania taktyki zaciemnienia. To znaczy proponują zbieranie różnych danych, które potem są anonimizowane lub szyfrowane, zanim posłużą do udoskonalania pewnych algorytmów, aplikacji i urządzeń. W połowie czerwca odbyła się prezentacja nowego systemu iOS 10 na urządzenia firmy Apple, m.in. iPhone’a, gdzie pokazano taką nowoczesną klawiaturę połączoną z komunikatorem, która znacząco ułatwia pisanie, ponieważ sugeruje gotowe frazy, gdy chcemy szybko odpowiedzieć na wiadomość, którą otrzymaliśmy. Jej twórcy zapewniają, że ta klawiatura się uczy, ale nie kosztem naszej prywatności. Jak jest naprawdę, tego nie wiemy, ale pomysł polega na tym, że podobno klawiatura wysyła ułamek tego, co wprowadzamy jako użytkownicy i ten ułamek, ta wiedza od wszystkich użytkowników, wystarcza, żeby uczyć algorytm.

AT: To jest szokujące, wydaje mi się – chociaż może to poboczny wątek – jaka wytworzyła się maszyneria wychwytywania sygnałów od ludzi. To jest coś niesamowitego, to radykalna zmiana. Już nie jest tak, że jedna osoba w całym swoim życiu może być śledzona na wiele sposobów, tylko można zcentralizować dopływ danych z klawiatur i nagle to idzie w miliony. Wspomniane ułamki danych składają się w potężną bazę wiedzy o tym, w jaki sposób ludzie piszą wyrazy, jak składają zdania. Dla mnie ciekawe a propos otwartości jest to, że istnieje potencjalna masa możliwości użycia tych danych, która jest zablokowana z powodu kontrolowanego do nich dostępu. Kontrolują go podmioty, które kontrolują technologie, czyli firmy. Na przykład Apple iPhone’y, inne urządzenia z iOS i swoje komputery, Google kontroluje całą przestrzeń swoich aplikacji. Nie wiem czy patrzą na dane z Google Docs i robią analizę, żeby zrozumieć lepiej, jak ludzie piszą zdania. Można sobie wyobrazić, że mogłoby powstać wiele projektów na rzecz interesu publicznego, które wykorzystywałby te dane, tylko trudno sobie wyobrazić, jak to wszystko mogłoby być udostępniane. Trzeba by stworzyć wyjątkowo subtelne systemy i umowny rynek danych, zdolny obsługiwać bardzo wyrafinowane rodzaje transakcji i poleceń. Dane musiałby być udostępniane tylko określonemu podmiotowi, a innemu już nie. I tylko do tego, konkretnego celu, a do innego nie.

Nie wygląda na to, żebyśmy zmierzali w tym kierunku. I to jest ciekawe, że łatwiej tworzyć strategie kompletnego szumu – klikamy wszystkie reklamy – lub wyłączenia – blokujemy reklamy, natomiast znacznie trudniej jest znaleźć rozwiązania negocjujące. W życiu codziennym, w fizycznym świecie jakoś sobie z tym radzimy. Chociaż na przykład Facebook czy Google oferuje – może nie doskonały – ale określony zakres kontroli nad prywatnością. On jest oczywiście narzucony przez te firmy, jednak istnieje możliwość włączenia lub wyłączenia pewnych opcji, co często nawet nie ogranicza znacząco wygody korzystania z tych serwisów i aplikacji. Na przykład trzeba wiedzieć, że historię wyszukiwania w mapie Google po prostu można wyłączyć. I na ten moment jej twórcy zgadzają się dać użytkownikowi taką opcję, chociaż trzeba się tego doczytać. Więc powstaje tu oczywiście bariera kompetencji, która otwiera różnym osobom prawo mówienia o tym, że ludzie nie o wszystkim wiedzą. I że trzeba trochę za nich wiedzieć.

MG: Wróćmy jeszcze do kwestii otwartości. Czy używanie otwartych aplikacji i produktów zabezpiecza nas przed pazernością różnych instytucji na dane? Właściwie nie jestem pewien, czy pazerność jest właściwym określeniem, ponieważ dane mogą być wykorzystywane w bardzo różny sposób. Kreuje się jednak z poziomu marketingowego takie pozory, że to telefon z zamkniętym, dopracowanym przez komercyjną firmę systemem (np. Apple ze swoim iOS), jest bezpieczniejszy niż telefon z otwartym oprogramowaniem. Zresztą nie spotkałem jeszcze nikogo, kto by miał zainstalowane Ubuntu w telefonie.

AT: W przestrzeni telefonów sytuacja jest trudniejsza niż na rynku komputerów. Jest bardzo trudno mieć otwarty telefon, ponieważ Android nie jest otwarty. Słyszałem o takim jednym pomyśle, którym jest Fairphone. To fajna idea, gdyż właściciele firmy chcą, żeby sprzedawane przez nich telefony były otwarte i – że tak powiem – uczciwe (ang. fair – red.) do poziomu hardware’u. Oni sami je produkują, a wyzwanie polega nie na tym, żeby stworzyć coś na poziomie kodu, tylko żeby wyprodukować telefon w innych warunkach niż to się dzieje normalnie. Robią, co mogą żeby proces produkcji prześledzić na każdym etapie.

A z oprogramowaniem, to jest tak, że stworzono nakładkę na Androida, która nazywa się Cyanogen, która jest po prostu złamanym [pozbawionym przez programistów lub hakerów zabezpieczeń, dzięki czemu podatnemu na modyfikacje – red.] Androidem. I dopiero, kiedy używa się Cyangena, można mówić o pewnym  poziomie otwartości. Istnieje również teoria, że to właśnie otwartość sprzyja prywatności, bo w klasycznym otwartym projekcie, tworzonym nie dla zysku, zredukowany zostaje ten podstawowy impuls: masa danych jest zbierana do celów finansowych. Jeśli o jakimś projekcie można powiedzieć, że jego celem nie jest zarabianie – monetyzacja kliknięć – to istnieje niewiele innych powodów, żeby śledzić użytkownika. Chociaż nie zawsze tak jest, ponieważ na przykład Wikipedia zbiera bardzo dużo danych o użytkownikach, chociaż nie do poziomu śledzenia indywidualnych zachowań i budowania profilów użytkowników.

Jest taki dla mnie bardzo zaskakujący fragment w ostatniej książce Jacka Kuronia, Rzeczpospolita dla moich wnuków [Kuroń 2004]. Moim zdaniem Kuroń nic nie wiedział o technologiach, ponieważ się tym nie zajmował. I on w tych wczesnych latach dwutysięcznych [książkę wydano pośmiertnie w 2004 r., Jacek Kuroń pracował nad nią do chwili śmierci – red.], kiedy w Polsce to jeszcze elity zajmowały się internetem, wysnuł taką refleksję, że żyjemy w stanie dzikości technologicznej, takim tradycyjnym, Hobbesowskim. Pisał o tym, że dawne szeroko pojęte instytucje przestają służyć nam jako wsparcie i rodzi się wielkie społeczne wyzwanie wynegocjowania sposobów nowego wykorzystywania technologii. Mnie się to wydaje bardzo ciekawe, ponieważ ten fragment z książki Kuronia pokazuje dzisiaj, że te wszystkie kwestie są ciągle nierozwiązane. Niezależnie od wielkich debat politycznych dotyczących prywatności, trochę nie rozumiemy, jak się rozwijają dzieci i młodzież. One mają świadomość, że ktoś obserwuje to, co robią, jednak pewnie bardziej liczą się z tym ze strony swoich kolegów, niż ze strony dorosłych. I tu wracam do tego, co twierdzi danah boyd. Strategie dbania o prywatność nie są często przeciwko konkretnej firmie, która zazwyczaj jest przezroczysta ze swoimi praktykami, często o niej zapominamy, natomiast dezinformujemy się celowo z naszymi bliskimi, wobec których otworzyły się furtki ciągłego – niejako za zgodą, ale jednak – śledzenia siebie na wzajem. Zostało to zbudowane na silnym przymusie społecznym bycia ciągle w komunikacji.

Dla mnie są to obce problemy i mam wrażenie, że te kwestie są rzadko badane, mało ma się do czynienia z innymi sposobami komunikacji, kiedy się nie jest w tym pokoleniu, które się nimi posługuje. Nie należy być może uogólniać pokoleniowo, osobiście nie lubię posługiwać się kohortami i mówić, że są takie i takie pokolenia, ale w tym przypadku chyba coś jest na rzeczy. Z drugiej strony bardzo nie lubię kategorii uzależnienia od technologii, chociaż jestem gotów przyjąć jego istnienie, patrząc na badania nie psychologiczne, ale neurofizjologiczne. Na poziomie behawioralnym, emocjonalnym, czy hormonalnym, te technologie działają uzależniająco. Jednak nie podoba mi się myślenie o uzależnieniu na poziomie społecznym, ponieważ wydaje mi się, że w takim razie powinniśmy uznać, że nasze społeczeństwo jest bardzo uzależnione od telewizji. Nikt jednak nie jest gotów tego głośno powiedzieć. Dlatego jeśli mamy taką miarę dla telewizora, to proponowałbym ją zachować i szukać innych sposobów mówienia o sposobach korzystania z nowych technologii. Wydaje mi się, że nie pomaga nazywanie tego nowego społeczeństwa „uzależnionym”. Być może musimy pogodzić się z tym, że będą istniały dla nas wzorce społeczne nieco kłopotliwe, oparte na dużo intensywniejszym kontakcie i prezentowaniu siebie.

MG: Chciałem zapytać o kwestię zmiany, ewolucji w korzystaniu z internetu i technologii. Pozwoliłem sobie wrócić przed naszym spotkaniem do dwóch Pana tekstów: napisanego wspólnie razem z Mirosławem Filiciakiem i opublikowanego niedawno w „Kulturze współczesnej” [Filiciak, Tarkowski 2016] oraz do znacznie wcześniejszego, opublikowanego na łamach „Dwutygodnika”  pięć lat temu. O ten drugi tekst, poświęcony Twitterowi, jeszcze zapytam bardziej szczegółowo, jednak w obu artykułach pojawia się wątek dorastania do technologii. W tekście poświęconym kulturze 2.0 piszą Panowie o wikipedyście, rezydencie Muzeum Narodowego w Warszawie, podkreślając, że osoba o podobnej funkcji pojawiła się już pięć lat wcześniej w Muzeum Narodowym w Londynie. Przy analizie dotyczącej Twittera również rodzi się taka myśl, że my, polscy internauci, jeszcze dorośniemy do tego, żeby Twittera używać bardziej masowo, ale również w sposób dojrzalszy, dający więcej korzyści. Czy rzeczywiście jest tak, że ewoluujemy, czy z tej perspektywy pięciu lat widać, że niekoniecznie sytuacja zmienia się zgodnie z oczekiwaniami?

AT: Uprzedzam, że patrzenie na technologię w skali globalnej uruchamia we mnie bardzo postkolonialne myślenie. Wyobrażam sobie krzywe dyfuzji i my zawsze siedzimy gdzieś tam na samym końcu. To, co zamiast tego chciałbym zobaczyć, to że możemy mówić o narodowej specyfice. Może nawet nie o narodowej, ale być może na przykład językowej. Mnie się wydaje, że w ogóle takie specyficzne dla konkretnej grupy cechy i zjawiska istnieją. Natomiast jesteśmy dosyć słabi w ich opisywaniu, na przykład dlatego, że narracje wyprzedzają korzystanie. W Polsce poczytne czasopisma pisały o Twitterze w czasie, gdy nie korzystali z niego nawet dziennikarze i politycy, którzy byli wczesną grupą użytkowników. To jest jeden z powodów dla których, myślę, że zaczynamy żyć pewnym modelem technologii nim on się ugruntuje. Narracje szybciej kolonizują naszą wyobraźnię niż praktyki. Poza tym być może okazuje się, że technologie nie pozostawiają wiele swobody, w ich wykorzystywaniu. Istnieją różnice na poziomie korzystania z określonych serwisów, ale nie wiem czy to jest porażająca wiadomość, że Google+ przyjął się w Brazylii, a w żadnym innym miejscu nie, a teraz również tam spada liczba jego użytkowników. Nie potrafię powiedzieć, w którym momencie bym uznał, że jakaś specyfika jest znacząca.

MG: Rozumiem, że istnieje jakaś awangarda państw, społeczeństw, w których wytwarzają się technologie i wzorce korzystania z nich?

AT: Być może moglibyśmy stwierdzić, że Stany Zjednoczone, tak jak we wszystkim, tak również technologicznie się wybijają. Możliwe jednak, że to jest nasz krąg kulturowy i jego wpływ jest dla nas widoczny. Może na przykład w Azji to Chiny mają przemożny wpływ na popularyzację pewnych pomysłów, ale nie jesteśmy w tym kręgu kulturowym. Chiny zresztą powoli przebijają liczbą użytkowników sieci Stany Zjednoczone i należy się spodziewać, że w którymś momencie to stamtąd będą przychodzić pewne rozwiązania, chociaż myślę, że wspomniane kręgi kulturowe pozostaną bardzo istotne.

Trzeba też pamiętać, że te technologie, ich popularyzacja, to jest wszystko sieciowe, więc jednak pozostają w prawie wzrostu sieciowego. Prawo wzrostu sieciowego, nazywane prawem Reeda, polega na tym, że korzyść z rozmiaru sieci rośnie szybciej niż rozmiar sieci. Zysk ze spięcia dwóch lub dziesięciu faksów, nie jest równy różnicy między dwa a dziesięć, tylko ta liczba relacji się multiplikuje. Z jednej strony rozwój sieciowy może być bardzo potężny. Kiedy uda się podpiąć kolejne sto tysięcy ludzi pod Twittera, to jest naprawdę coś. Z drugiej strony, kiedy ta sieć już powstanie, to trochę jest się jej zakładnikiem, jest się w tym kręgu i nie ma gdzie uciec. Na przykład Snapchat jest dla mnie nieciekawy nie dlatego, że jest jakoś fundamentalnie obcy mojemu pokoleniu, ludziom w moim wieku, tylko tam po prostu nie ma moich znajomych. Byłem tam przez chwilę, błąkał się tam jakiś jeden i drugi koleś, którego znam, ale było po prostu przemożnie nudno. A Twittera używamy wyłącznie zawodowo, ale gdzieś tam jest moja sieć kontaktów. Wybór sieci pozostaje więc nie bez znaczenia.

MG: Kilka lat temu, kiedy Twitter był jeszcze mało popularny w Polsce napisał Pan artykuł o tym serwisie stawiając tezę: „W alternatywnej Polsce, w której Twitter byłby bardziej popularny, także debata publiczna mogłaby być bardziej otwarta”. Twitter jest trochę bardziej popularny, chociaż nie wiem, czy tak, jak Pan sobie to w tej alternatywie wymarzył. Chciałem zapytać, jak to dzisiaj jest z tą debatą publiczną na Twitterze. Wydaje mi się, że kłopot z nią, to nie tylko polski problem, ponieważ w kontekście Brexitu pojawił się na stronie „The Huffington Post” chociażby taki głos mówiący o stanie cyfrowej demokracji: „Cyfrowa demokracja – zamiast dawać zdolność do odbierania informacji niemal w czasie rzeczywistym za pośrednictwem środków masowego przekazu i sprawiać, że pojedynczy głoś może zostać usłyszany za pośrednictwem mediów społecznościach – przyczyniła się do polaryzacji, zatoru informacyjnego, niezadowolenia i dezinformacji” [1].

AT: Nie wiem, czy bym napisał to samo, co pięć lat temu, nie wiem też, co wydarzyło się przez te pięć lat, ale coś się wydarzyło. Powraca kwestia stanu dzikości. Fantazja była taka, że jak każdy dostanie głos, to każdy będzie upodmiotowiony. Po prostu rozszerzymy pole debaty, ludzie nie będą ograniczeni, chociażby tym, że drukarnia kosztuje. Być może problemem jest skala – lądujemy w gigantycznym, nieoswajalnym szumie. Na przykład w Stanach Zjednoczonych bardzo popularny jest serwis reddit. Na nim toczą się bardzo intensywne debaty polityczne wokół wyborów prezydenckich. I można już zaobserwować, że użytkownicy reddita zaczynają mieć kłopoty z procesem komunikacji. Dyskusje w całości zaczynają dotyczyć tego, jak działa reddit, a nie jak działa demokracja. Pojawił się też problem, że kompletnie zawiodła moderacja, okazało się, że moderatorzy mają straszne skrzywienie. I jest to dowodem poważnego problemu, ale również kłopotu z utrzymaniem popularności kanału, który jest może nieco bardziej skomplikowany niż Twitter.

Problemem na Twitterze w Polsce nie jest tylko kłopotliwa do ogarnięcia skala komunikacji, ale również to, że bardzo wielu ludzi stosuje taktyki psucia tej komunikacji. Niektórzy niestety robią to bardzo świadomie i okazuje się, że najprostszą techniką zaszumienia jest hejt. Który mnie przeraża, ponieważ ja w ogóle nie myślę dużo o emocjach, a on działa na poziomie emocji. Tam nie ma miejsca na fałszowanie prawdy, spieranie się bez skutku z powodu rozbieżnych poglądów, hejt działa na poziomie psucia ludziom życia i niszczenia ich emocji. To mi się wydaje przerażające, ale nie uważam, że jakimkolwiek rozwiązaniem jest zamknięcie Twittera. To nie jest tak, że jakaś inna konstrukcja tej sieci produkowałaby inne wzorce postępowania, a teraz mamy fundamentalny problem z masową publikacją. Mnie się często wydaje, że internet ma fraktalną strukturę i jak coś się dzieje publicznie, to prawdopodobnie bardzo podobnie to wygląda na mniejszą skalę. Czy tak jest, jednak nie wiemy, co rodzi fundamentalne pytanie: czy te strasznie chorobliwe wzorce debaty publicznej odbijają się na debatach w zamkniętych grupach, jak grupa koleżeńska czy dzieci w klasie. Nikt tego nie bada, nie mamy jak do tego zajrzeć. A wydaje mi się, że to byłoby bardzo potrzebne. Nie byłbym więc może już tak optymistyczny, jeśli chodzi o otwartość debaty.

MG: Z Twitterem jest wiele problemów, myślę, że długo moglibyśmy o tym rozmawiać, to znaczy czy nawet nie jest tak, że tutaj nie ma mowy o przekonywaniu kogokolwiek do czegokolwiek, bo wszyscy są przekonani.

AT: Tak, bo to właściwie już nie jest debata. Bardzo ciekawe, że świat zrobił się niezwykle policzalny. Debata też się zrobiła właściwie zbieraniem – jedni mówią na to szable – inni kliknięcia. To nie jest przekonywanie się, tylko rywalizacja, kto na kogo może nasłać większą liczbę negatywnych albo pozytywnych komentarzy. I to też jest pewnego rodzaju skrzywienie, ponieważ zaczyna się dyskutować o tym, ile razy ktoś był retweetowany. Tweet staje się ważny, bo jest popularny.

MG: Rzeczywiście, mamy do czynienia z kulturą rankingów i potrzebą odnalezienia tego, co wartościowe w natłoku informacji. Na zakończenie naszej rozmowy chciałem wrócić do kwestii prywatności i śladów, które zostawiamy w internecie. Chociaż być może nie da się tego jeszcze odczuć surfując po sieci, spotykamy się w momencie szczególnym dla polskiego internetu, kiedy uchwalone zostały przepisy, które zmieniają sposoby dbania o cyberbezpieczeństwo w Polsce: ustawa antyterrorystyczna, tzw. megaustawa – tworząca m.in. CERT Narodowy, wreszcie właśnie uchwalona dyrektywa Parlamentu Europejskiego, dotycząca bezpieczeństwa sieci i informacji. Chciałem zapytać, po pierwsze, czy powinniśmy się z tego cieszyć, czy martwić o to, co po nas zostaje w internecie, a po drugie, czy współczesny świecki święty, to ktoś, kto żyje tak, żeby się nie obawiać tego, co po nim zostaje w sieci.

AT: Ta druga część pytania natychmiast uruchamia skojarzenie ze słowami, które wypowiadają od lewa do prawej, jeśli nie Mark Zuckerberg, to jakiś szef Agencji Wywiadowczej, czy to polskiej, czy to amerykańskiej. Cytat z ich słów brzmi: „Ludzie, którzy nie mają się czego wstydzić, nie mają się czego bać”. Mnie taka wizja świętości przeraża, ponieważ zakłada, że prywatność jest tylko sferą grzesznych czynów. A rozmowa o prywatności, to nie powinna być rozmowa o tym, czy wyjdzie na jaw, że zdradzam żonę, czy że nie płacę podatków, tylko po prostu może nie powinno wychodzić na jaw, że siedzę w domu w kapciach z psem. I dlatego nie kupuję tezy o tym, że to mogłoby być uznane za cnotę, to raczej się staje prozą życia. Wydaje mi się, że mało kto uznaje za wartość tego rodzaju otwartość, po prostu zaczynamy funkcjonować w takim społeczeństwie, które wyznacza sobie w taki sposób struktury, w których żyjemy. Widzimy się na ulicy, a nie chowamy się za płotami, które nas zasłaniają. Nie ma też takiej normy kulturowej, żeby sobie stale zasłaniać oczy. I tak samo wytwarza się norma online, może to jest dla nas zaskakujące, a ci, którzy się podpięli do sieci wcześniej, myśleli, że będzie zupełnie inaczej.

Nie mówiliśmy jeszcze o anonimowości. A wiele osób uzna, że ten święty świecki online-owy, jest właśnie anonimowy. Że to jest taki wzorzec osoby, która korzysta z pewnych swobód i to rzeczywiście online się udaje dużo lepiej niż w świecie rzeczywistym. W życiu codziennym trzeba byłoby się schować, a bitcoiny odgrzewają ideę transakcji, które nie pozostawiają żadnych śladów, co nie jest znów w pełni prawdą, ale umownie to działa.

A jeśli chodzi o wspomniane ustawy, pyta Pan co z nimi, czy one coś zmienią? Myślę, że to bardzo trudno powiedzieć, pewnie w życiu wielu osób zmienią niewiele. Podobają mi się analogie ekologiczne, to jest takie bardzo rozsądne dmuchanie na zimne. Na przykład chyba Richard Stallman powiedział, że utrata prywatności jest jak zanieczyszczenie powietrza. To znaczy, że jak już sobie zatrujemy planetę, po pierwsze nie ma od tego odwrotu, a po drugie, zanieczyszczenie jest niewidoczne. Nie jest łatwo być świadomym stężeń dwutlenku węgla w atmosferze i nie jest łatwo być świadomym wycieków danych, które gdzieś za nami krążą. I może to jest fajne jako puenta, że tak jak są technologie zaciemnienia, to równie dużo jakichś artystów czy działaczy, pracuje nad technologiami uświadomienia. Pokazują na przykład, ile się o nas zbiera informacji: „ta wielka cyferka w rogu pokazuje, ile w danym serwisie jest trackerów”. Wydaje mi się, że dobrze, że ktoś nad tym pracuje. Prozaiczna myśl jest taka, że dopóki to nie wejdzie do systemu edukacji w sposób kompletny, dopóty będą to gry i zabawy tylko dla wtajemniczonych. Bardzo nie lubię puent dotyczących edukacji, one są beznadziejne, bo wszyscy liczą na tę edukację, a ona się po prostu nie dzieje. A to, co jest może dla mnie wyjątkowo smutne, to brak podaży rynkowej na prywatność. To się rzuca w oczy, ponieważ oferta „zapłać mi, to cię zostawię w spokoju” nie działa. Serwisy płatne dalej zbierają informacje, nie ma żadnej nagrody, za to że wykupiłem sobie płatną prenumeratę jakiejś gazety w formie online, czy chociażby polskiego tygodnika. Taki serwis nadal ciągnie tyle informacji, ile się da o mnie. W ogóle jest mało takich usług, z jednym wyjątkiem, co dobrze byłoby sprawdzić. Nie wiem, jak wygląda w Polsce korzystanie z VPNów. To jest działka techniczna, bardzo skomplikowana: wykupienie jakiegoś wirtualnego połączenia, którym się maskuje swoje aktywności. Gdyby się okazało, że takie usługi osiągają poziom popularności większy niż pięć procent użytkowników polskiej sieci, to uznał bym, że coś jest na rzeczy. Ale tego nie wiem.

MG: Pytanie, do czego się używa tych VPNów.

AT: Zapewne najczęściej do ściągania filmów…

MG: lub ewentualnie do zmiany własnej lokalizacji.

AT: żeby obejrzeć film…. chroniony prawami autorskimi. Co potwierdza tezę, że jeśli ma miejsce używanie VPNów przez polskich internautów, to dzieje się to mimochodem, a czynnikiem w ogóle nie jest prywatność.


[1] „Instead, digital democracy – the ability to receive information in almost real time through mass media and to make one’s voice heard through social media — has contributed to polarization, gridlock, dissatisfaction and misinformation”, Dhruva Jaishankar, Brexit: The First Major Casualty Of Digital Democracy, „The Huffington Post” z 27 czerwca 2016, http://www.huffingtonpost.in/dhruva-jaishankar/brexit-the-first-major-ca_b_10695964.html, dostęp 15 lipca 2016 r.

Literatura, która pojawiła się w rozmowie:

Peter Bihr, Michelle Thorne, Understanding the Connected Home. Thoughts on living in tomorrow’s connected home, version 2, https://www.gitbook.com/book/connected-home-book/understanding-the-connected-home/details, dostęp 15 lipca 2016 r.

danah boyd, It’s Complicated. The Social Lives of Networked Teen, Yale University Press, New Haven 2014.

Finn Brunton, Helen Nissenbaum, Obfuscation. A User’s Guide for Privacy and Protest, MIT Press, Cambridge, MA; London 2015.

Mirosław Filiciak, Alek Tarkowski, Kultura 2.0: nie/domknięty projekt, „Kultura Współczesna” 2016, nr 1.

Jacek Kuroń, Rzeczpospolita dla moich wnuków, Rosner & Wspólnicy, Warszawa 2004.

Helen Nissenbaum, Privacy in Context. Technology, Policy, and the Integrity of Social Life, Stanford University Press, Stanford 2009.

 

alek tarkowski – socjolog, dyrektor Centrum Cyfrowego, koordynator projektu Creative Commons Polska, działacz na rzecz otwartości i reformy prawa autorskiego. Interesuje się kulturowymi i społecznymi aspektami mediów cyfrowych.



Viewing all articles
Browse latest Browse all 3

Latest Images