Znaleziono 0 artykułów
08.08.2023

Aleksandra Przegalińska: Sztuczna inteligencja nie ma własnych emocji

08.08.2023
Fot. Mateusz Grzelak

Rosnąca popularność ChatGPT i innych modeli językowych opartych na sztucznej inteligencji wywołuje duże emocje. Aleksandra Przegalińska, profesorka Akademii Leona Koźmińskiego, doktorka habilitowana, filozofka, badaczka rozwoju nowych technologii, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych, przekonuje, że zamiast roztaczać kasandryczne wizje o demontażu rynku pracy, powinniśmy skupić się na wykorzystaniu tego narzędzia tak, by jak najmądrzej z niego skorzystać.

Dlaczego reagujemy lękiem na innowacje, chociaż z historycznego doświadczenia wynika, że ułatwiają nam życie?

Mam wrażenie, że to musi być mechanizm ewolucyjny. Wystarczy, że coś się nieznacznie różni od tego, co już znamy, a reagujemy oporem. Gdybyśmy przyjrzeli się temu, na ile każda innowacja jest zapożyczona z przeszłości, a na ile naprawdę nowa, okazałoby się, że poziom „nowości” zwiększa się jedynie minimalnie w stosunku do tego, co już znamy, ale odrzucamy ten fakt i po prostu się boimy. Pamiętam publikację, której tezą było stwierdzenie, że gdyby ktoś pokazał nam coś naprawdę nowego, to nikt by się nie bał, bo nawet by tego nie zrozumiał. Najbardziej boimy się tego, co już znamy, ale co występuje pod trochę inną postacią. Pewnie w dalekiej przeszłości ten mechanizm chronił nas przed realnym niebezpieczeństwem.

Narracja wokół sztucznej inteligencji jest teraz apokaliptyczna, straszy konsekwencjami jej rozwoju. Jaki powinna mieć wydźwięk według ciebie? 

Narracja w dyskursie jest bardzo przerażająca, dużo w niej straszenia: dezinformacją, utratą rynku pracy i zatrudnienia, osobliwością. To kilka pakietów dyskursywnych, które mają nas przerazić. Tymczasem w realnym świecie wszyscy korzystamy ze sztucznej inteligencji. To dla mnie interesujące napięcie – na poziomie debaty o przyszłości ludzie się jej boją, a na poziomie codzienności chętnie korzystają z ChatGPT przy różnego rodzaju czynnościach, dostrzegając jego funkcjonalność. 

Dostrzegają, a jednocześnie obawiają się, że jest trochę zbyt „mądry” i zaraz ich zastąpi. Co ciekawe, mniej obawiają się go osoby, które mają fach w ręku.

Prace fizyczne, manualne, związane z opieką, wymagające zaangażowania emocjonalnego czy charyzmy są na tym etapie „nie do przejęcia”. Bot w roli prezentera się nie sprawdza. Sama stworzyłam sobie ostatnio deepfake’owego awatara, którego zaczęłam wysyłać tu i ówdzie – z jednej strony to intrygująca innowacja, a z drugiej, jeżeli pojawiłby się na konferencji zamiast mnie, słuchacze byliby rozczarowani, bo nie umiałby skupić ich uwagi. Istnieje pula profesji, w których ryzyko automatyzacji pracy jest mniejsze – wśród nich kreatywność w korzystaniu z narzędzi sztucznej inteligencji jest większa, bo towarzyszy jej spokój. Inni mogą się czuć bardziej zagrożeni, chociaż mam tu silne wrażenie polaryzacji – np. gdy rozmawiam z grafikami, to raczej słyszę, że większość z nich ma ochotę z tych narzędzi korzystać, niektóre osoby już korzystały, ale stwierdziły, że im się nie przydadzą, są też tacy, którzy w ogóle nie chcę ich poznawać. Ostatnio, trochę zbyt późno, sztuczną inteligencją zainteresowali się politycy, którzy według mnie od kilku lat powinni się już zajmować jej regulowaniem. Teraz włączyli się do dyskusji, a że bardzo lubią straszyć, bo mogą wtedy wyborcom obiecywać ochronę, a mniej lubią działać, to również podsycają społeczne lęki. 

Projektujemy na sztuczną inteligencję swoje motywacje, lęki, skłonność do podbojów i destrukcji, miłość do władzy. Dlaczego zakładamy, że poza mapującymi nasze reakcje modelami językowymi AI będzie robiła to, co my? 

Nurt futurologiczny, który widzi AI jako aliena, zakłada, że jeżeli w końcu powstanie jakaś forma sztucznej inteligencji, ale nie w postaci narzędzi predykcyjnych opartych na statystyce (bo z tym dzisiaj mamy do czynienia), tylko syntetycznie wytworzonego organizmu, będzie to coś zupełnie innego, niż sobie wyobrażamy. Uważam, że nie wiadomo nawet, w jaką postać –człowieka czy zupełnie inną formę – miałaby ona ewoluować. Nie wiemy, jak taki organizm może ewoluować i jaki kształt przyjąć. Zapominamy o tym, że to może pójść w różne strony, a modele statystyczne, z którymi teraz masowo mamy do czynienia, nie mają stanów wewnętrznych, emocji, odczuć, doświadczeń ani potrzeb. To agregaty narracyjne naszych doświadczeń. 

Mimo to boimy się, że będą sprawniejsze, lepsze w wielu rzeczach od nas.

Myślę, że wątek strachu pojawia się również dlatego, że niektórzy myślą, że jak te modele staną się dostatecznie skomplikowane, to przeczytają już świadomie wszystko, co zapisaliśmy, i postanowią być lepszą wersją człowieka, co oznacza, że nas najadą, rozwalą i podbiją, tak jak my to robiliśmy od początku naszej historii. Chociaż sztuczna inteligencja jest praktyczną, bardzo konkretną dziedziną życia – mamy ją w telefonach, narracja wokół niej podobna jest do tej o UFO. Czyli toczy się w przestrzeni radykalnej spekulacji dotyczącej „złego”. Nawet eksperci zajmujący się sztuczną inteligencją w aspekcie praktycznym są podlani tym popkulturowym sosem i odpływają w metafizyczne wizje w stylu kinowych superprodukcji. Jak posłuchasz wcześniejszych wypowiedzi Geoffreya Hintona (powszechnie uważanego za ojca chrzestnego sztucznej inteligencji byłego pracownika Google – przyp.red.), który właśnie odszedł z pracy, argumentując swoją decyzję rosnącymi zagrożeniami ze strony AI, to dowiesz się, że w 2015 roku powiedział, iż w ciągu pięciu lat, czyli do 2020 roku, na 100 procent nie będzie już radiologów, bo ich pracę wykonywać będzie AI. Cóż, pomylił się. Robienie prognoz z konkretną datą nie jest zbyt rozsądne. 

Na okładce najnowszego numeru polskiej edycji „Vogue'a” znalazły się przekształcone z pomocą programu sztucznej inteligencji zdjęcia modelek. (Współpraca artystyczna z AI: Nicola Bergamaschi, fot. Mateusz Grzelak)

Cały tekst znajdziecie w wakacyjnym wydaniu „Vogue Polska”, którego sesję okładkową współtworzyła sztuczna inteligencja. Magazyn jest już dostępny w salonach prasowych. Można go też zamówić z dostawą do domu pod linkiem.

Joanna Łazarz
  1. Ludzie
  2. Opinie
  3. Aleksandra Przegalińska: Sztuczna inteligencja nie ma własnych emocji
Proszę czekać..
Zamknij