Zacznijmy sensownie rozmawiać o AI
Czas działać. Jeśli dalej będziemy ślizgać się po powierzchni, znowu będzie za późno (tak jak to było z platformami społecznościowymi i prywatnością)
Droga Czytelniczko, drogi Czytelniku!
Dobrze jest wrócić do pracy po 12 dniach urlopu i całkowitego odłączenia się od sieci. Pewnym zmartwieniem jest dla mnie fakt, że po tych niemal dwóch tygodniach, kiedy zalogowałam się do mediów społecznościowych i internetu, zobaczyłam, że absolutnie nie straciłam niczego - nadal aktualne są te same tematy, które były ważne 29 kwietnia. Słowem: nie wydarzyło się nic nowego, wartościowego, istotnego, co wymagałoby mojej uwagi. Tkwimy w miejscu. Jako społeczeństwo, jako demokracja, jako indywidualni odbiorcy i odbiorczynie. Jak to świadczy o mediach, które istnieją w naszym kraju? A o debacie publicznej i jej jakości?
Ja sama staram się oferować zupełnie inną jakość - dlatego, jeśli podoba Ci się projekt TECHSPRESSO, jeśli lubisz czytać serwis, posty na Instagramie, albo słuchać podcastu lub odbierać ten newsletter - wesprzyj moją pracę na Patronite lub kup mi kawę na BuyCoffeeTo. Działam tylko dzięki Waszemu wsparciu - nie biorę pieniędzy od wielkich korporacji, ani od polityków.
PS po majówce zaskoczyła mnie bardzo pozytywnie nominacja w kategorii “PRZYSZŁOŚĆ” w plebiscycie Ofeminin Influencer Awards 2023. Redakcja doceniła moją pracę na rzecz wyjaśniania rzeczywistości cyfrowej i edukacji w sieci, a głosować na mnie można do 28 maja codziennie na stronie konkursu. Będzie mi ogromnie miło, jeśli zechcecie w ten sposób uhonorować moją działalność.
***
Dzisiejsze wydanie newslettera poświęcone będzie tematyce sztucznej inteligencji. Polacy to społeczeństwo generalnie bardzo pozytywnie nastawione do tej technologii. Wiem, że to dowód anegdotyczny - ale kiedy obserwuję dyskusje toczące się na ten temat w internecie, widzę bardzo dużo podniecenia tym, że “ChatGPT tak szybko pisze takie fajne teksty”, albo że ktoś, kto nie umie rysować, dzięki Midjourney wreszcie stworzył “dzieło sztuki”. Z obserwacji wynika też, że kobiety są dużo bardziej sceptyczne wobec sztucznej inteligencji, niż mężczyźni - czyżbyśmy były bardziej ostrożne i bardziej świadome zagrożeń…?
To jednak tylko “pierwszy rzut oka” i kilka zbiorczych wrażeń z obserwacji dyskusji, które toczą się w mediach społecznościowych. W rzeczywistości, dialog dotyczący sztucznej inteligencji w Polsce jest bardzo jałowy i ogniskuje się wokół kilku tematów. Są to: jak groźna jest sztuczna inteligencja, jak fajna jest sztuczna inteligencja, jak można wykorzystać ją w swojej pracy, jakie są najnowsze produkty zawierające sztuczną inteligencję, co potrafią algorytmy, a także z rzadka pojawiające się analizy biznesowe wpływu inwestycji w AI przez różne firmy technologiczne (kilka z nich sama napisałam dla CyberDefence24.pl).
To bardzo jałowa dyskusja, z której nie wynika absolutnie nic, co mogłoby nas przygotować - jako społeczeństwo - na przyszłość, w której algorytmy (nie tylko generatywnej AI) odgrywają coraz większą rolę.
Musimy z nią jak najszybciej skończyć i zacząć rozmawiać o konkretach.
Konkrety, czyli co?
Regulacja - to przede wszystkim. Obok entuzjazmu wobec nowych technologii, bardzo często dość bezrefleksyjnego, w polskiej debacie publicznej przewija się stały motyw - niechęć do regulacji. Najpewniej wynika to z faktu, że przez bardzo wiele lat Polska była literalnie wałkowana sowieckim stylem stanowienia prawa, który w wolnym kraju ma się świetnie. Regulacje mają trzymać w ryzach nie władzę, nie przestępców, nie chronić przed nadużyciami - ale brać w karby obywateli, aby władzy nie przeszkadzali i nie stanowili groźnej siły mogącej mieć na cokolwiek wpływ.
W temacie regulacji technologicznych, bardzo modna jest retoryka o “ograniczaniu innowacyjności” przez nadmiernie rozbudowane ramy prawne. Oczywiście pada tu przykład nieporadnej pod względem biznesowym Unii Europejskiej i Stanów Zjednoczonych, w których obecnie mamy mnóstwo “wspaniałych”, tj. zarabiających ogromne pieniądze firm technologicznych, takich jak np. Meta (Facebook), czy Google.
Okej, te firmy tam są - i faktycznie, rozwinęły się w dużej mierze dlatego, że nikt tego rozwoju nie kontrolował i nie było żadnych reguł, które trzeba byłoby respektować. I właśnie dlatego mamy dziś te wszystkie problemy, począwszy od rabunkowego gromadzenia naszych danych i nieskrępowanego obrotu nimi na potrzeby marketingu, prób wpływania na demokratyczne wybory za pomocą manipulacji w mediach społecznościowych (jak to miało miejsce w 2016 r. w USA, gdzie w wyborze Trumpa maczała palce Rosja), czy też wykorzystywania naszych danych po to, aby manipulować naszymi wyborami konsumenckimi.
Wszelkie próby skłonienia wielkich korporacji do tego, aby samoregulowały swoje działania i odwoływanie się tu m.in. do etyki czy obywatelskich postaw, nie przyniosły efektu - właśnie dlatego teraz powstały regulacje takie, jak unijny Akt o usługach cyfrowych czy Akt o rynkach cyfrowych.
W przypadku sztucznej inteligencji, Unia Europejska poszła po rozum do głowy i zaczęła prace nad regulacjami wcześniej, niż technologie oparte o AI na dobre się upowszechniły - ale i tak nie zdążyła. Co dalej? Można o tym przeczytać m.in. w tym tekście na łamach serwisu TECHSPRESSO.CAFE lub posłuchać w tym odcinku mojej audycji.
I tak już nie będziemy pierwsi
Pierwsze są Chiny. To one najwcześniej rozpoznały ryzyko wynikające z szerokiej propagacji systemów generatywnej sztucznej inteligencji, przede wszystkim to, które ma charakter polityczny. Zakazały u siebie modelu ChatGPT firmy OpenAI, argumentując to rozpowszechnianiem antychińskiej propagandy.
W Chinach również doszło do pierwszego aresztu za fake newsy generowane z wykorzystaniem tego produktu - pisałam o tym dla redakcji CD24 tutaj. ChRL kompleksowo także zabrało się za regulację deep fake’ów i treści produkowanych z wykorzystaniem generatywnej AI w ogóle - już w styczniu. Wtedy, kiedy w Polsce trwały zachwyty nad aplikacją LensaAI do generowania fantazyjnych zdjęć profilowych w oparciu o nasze trafiające do zbioru szkoleniowego algorytmu fotki.
Co ciekawe, w Chinach odpowiedzialność za szkody wywołane z wykorzystaniem generatywnej AI spoczywa zarówno na użytkownikach, jak i na podmiotach dostarczających tego rodzaju usługi. Wyjątkowo, jak na kraj nie respektujący żadnych praw człowieka, sprawiedliwie.
Europa dyskutuje nad słownictwem i klasyfikacją, o czym mówiłam już w linkowanym wcześniej odcinku podcastu TECHSPRESSO.CAFE. Dywagacje nad Aktem o sztucznej inteligencji są jednak na ostatniej prostej i oczywiście algorytmy generatywnej AI będą w Akcie o sztucznej inteligencji ujęte - zostały wpisane do niego jako system wysokiego ryzyka (i słusznie).
USA obecnie zastanawiają się przede wszystkim nad kwestią odpowiedzialności - kto ją ponosi? Szefowa Federalnej Komisji Handlu Lina Khan to osoba na właściwym miejscu w tym kontekście - jest młoda i doskonale rozumie przemiany zachodzące we współczesnym świecie, świetnie czuje również analogie do tego, co dzieje się obecnie za sprawą AI do czasu wczesnych lat 00’, kiedy rozwijały się Facebooki i inne Amazony.
Khan zdaje sobie sprawę z ryzyka dla prywatności niesionego przez AI, jak i możliwości wpływania z jej wykorzystaniem na decyzje konsumenckie. To może być niestety game-changer na rynku “rekomendacji” produktowych, bo sztuczna inteligencja zna nas niejednokrotnie lepiej, niż my sami/-e, wykorzystując do tego wszystkie produkowane przez nas dane.
Problemem pozostają nadużycia wobec praw autorskich, o których można poczytać m.in. w moim wywiadzie z Mikołajem Birkiem tutaj, jak i w tekście o losach niemieckiego fotografa, który chciał wycofać swoje prace ze zbioru danych szkoleniowych LAION-5B.
Koniec gadki-szmatki
Proszę, jak najszybciej skończmy z produkowaniem klikalnych, napędzających nasze profile na LinkedInie i Instagramie postów pt. “5 sposobów, jak stosować ChatGPT w pracy”.
Proszę, przestańmy pisać gównoteksty o tym, czym w ogóle AI jest. One już istnieją. Można je przeczytać. Po polsku, po angielsku, w innych językach. W internecie, w papierze. Gdzie się chce. SEO nabijecie sobie inaczej, naprawdę.
Proszę - zacznijmy poważnie rozmawiać o konsekwencjach szybkiego rozwoju technologii opartych o sztuczną inteligencję. Bez bullshitu. Z ostrożnością wobec lobbystów, organizacji branżowych i dorobkiewiczów chcących wbić się w rady konsultacyjne przy premierze i innych instytucjach.
Czas ucieka - a ryzyko, że znów zostaniemy z ręką w nocniku jak w przypadku RODO, którego w Polsce po pięciu latach nadal prawie nikt nie rozumie, jest kolosalne.
Do przeczytania kolejnym razem;
Gosia Fraser