Coraz częściej specjalistyczna pomoc terapeutyczna, choć niezbędna, dla wielu osób wydaje się poza zasięgiem. Sztuczna inteligencja za to zawsze wysłucha emocjonalnych dylematów, doda otuchy w trudnej sytuacji, doradzi, gdy nie możemy znaleźć rozwiązania. Jak ChatGPT stał się popularnym narzędziem terapeutycznym?
Jak trwoga, to do bota. „AI zaprojektowana, by nieść pomoc, poradę i terapeutyczne wsparcie tym, którzy poszukują wskazówek z zakresu dobrostanu psychicznego”. „ChatGPT wcieli się w T., terapeutę, który jest elastyczny, szczery, godny zaufania, odnosi się z szacunkiem, nie ocenia”. Tak twórcy technologii zachęcają, by w czasach kryzysu korzystać z ich produktów. ChatGPT, w przeciwieństwie do ludzkiego terapeuty czy terapeutki, odpowiada na wiadomości nawet w środku nocy.
Nieograniczony dostęp do technologii, która obiecuje, że przeprowadzi cię przez trudne momenty w życiu, pomoże okiełznać wyzwania i nauczy skutecznej komunikacji emocjonalnej, sprawia, że dla coraz większej liczby osób to naprawdę atrakcyjne rozwiązanie. Tylko czy to nie grozi życiem pod dyktando technologii?
Jak wygląda terapia ze sztuczną inteligencją?
Ta mroczna wizja masowego emocjonalnego ubezwłasnowolnienia wydaje się realna, gdy weźmiemy pod uwagę, jak sprawnie sztuczna inteligencja naśladuje język terapii i rozwoju osobistego. ChatGPT, zasilany dostępną wiedzą psychologiczną, jest w stanie świetnie udawać wykwalifikowanego terapeutę czy wykwalifikowaną terapeutkę – biegłych w mechanizmach, które nami kierują. Chcesz wiedzieć, jak wygląda taka terapia, ale bez sprawdzania na sobie, czy działa?
Mary Rutt, doświadczona amerykańska podcasterka, od kilku miesięcy nagrywa nowy program „AI Therapy Sessions”, w którym rozpracowuje prywatne wyzwania z udziałem sztucznej inteligencji. Jej podcast to zapis rozmów z botem na wybrany temat – od syndromu oszustki przez style przywiązania po umiejętność radzenia sobie z krytyką. W odcinku poświęconym budowaniu autentycznych relacji pyta ChatGPT, jak radzić sobie z wypaleniem, którego doświadczamy, próbując znaleźć partnerkę lub partnera czy przyjaźń.
„Po pierwsze, podkreślmy, że depresyjne myśli czy brak motywacji są w tym procesie czymś absolutnie normalnym” – odpowiada sztuczna inteligencja i kontynuuje: „To naturalne, że myślisz sobie: szukam swoich ludzi, trwa to wieczność, więc pewnie muszę coś robić źle. W poszukiwaniu nowej grupy przyjaciół liczy się jednak droga, a nie jej cel. To jak poszukiwania idealnej kombinacji dodatków do pizzy. Trzeba czasu, eksperymentów, cierpliwości. Trzeba też pewnie bardzo kochać ser… Nie zniechęcaj się. Przestań myśleć: nigdy nie znajdę przyjaciół. Za to powtarzaj sobie, że być może z tamtymi ludźmi nie było ci po drodze, ale być może nawiążesz nić porozumienia z kolejnymi. Inicjuj kontakt. Zagadaj do baristy, przywitaj się z sąsiadką. A gdy zacznie brakować ci cierpliwości? Zrób sobie przerwę. Odstaw na chwilę na bok znalezienie owych przyjaciół i zajmij się sobą. Praktykuj czułość wobec samej sobie. Przypominaj sobie, że nie ma nic złego w poczuciu frustracji i że dajesz z siebie wszystko”.
Czerwona flaga: podejrzanie gadatliwy ten „terapeuta”. Z podcastu Mary Rutt wybrzmiewa wyraźnie, że ten sposób komunikacji nie ma za wiele wspólnego z tym, co faktycznie dzieje się w gabinecie terapeutycznym. Nawet jeśli w samej radzie nie ma nic złego. Przeciwnie – osoba, która łaknie kontaktu i nowych relacji, ale chwilowo ich nie znajduje, może wyjść z takiej sesji z AI pokrzepiona.
AI nie ocenia ani nie mówi tego, co chcesz usłyszeć, czyli jak ChatGPT stał się narzędziem terapeutycznym
Brytyjski serwis Dazed niedawno przepytał osoby, które regularnie korzystają z terapii z udziałem sztucznej inteligencji, o ich doświadczenia. Niektórzy mówią, że wolą swoje problemy czy kryzysy zawierzyć AI, bo bot nie ocenia, a człowiekowi – choćby był nie wiadomo jak profesjonalny – zawsze może się coś wymsknąć. Spontanicznie uniesie brew, przewróci oczami, chrząknie. To mikrogesty, które mogą nadwerężyć zaufanie do całego procesu. Inni dodają, że ChatGPT jest bezwzględnie szczery i obiektywny. Od bliskich możesz nie usłyszeć brutalnej prawdy, nawet gdy się jej domagasz. Powiedzą ci to, co chcesz usłyszeć. Algorytm takich oporów nie ma, bo cię nie zna i nie ma pojęcia, na jaki komunikat zwrotny skrycie liczysz. Jeszcze jakieś motywacje? Żeby zrozumieć popularność terapeutyzujących botów, trzeba wziąć pod uwagę szerszy kontekst społeczny.
Eksperci od kilku lat donoszą o pandemii samotności. Kultura radykalnego indywidualizmu może nauczyła nas uważności na siebie, swoje potrzeby i granice, ale też tymczasowo uciszyła w nas potrzebę wspólnoty. Albo wmówiła nam, że można ten głód zaspokajać w atrapach relacji z social mediów.
Gdy zespół badaczy z Uniwersytetu Harvarda, dowodzony przez psychologa Richarda Weissbounda, przeprowadził szczegółową ankietę na temat samotności, okazało się, że 30 proc. badanych doświadcza jej sporadycznie lub regularnie, a kolejne 30 proc. cierpi na chroniczne poczucie wyalienowania. Weissbound podkreślał w niedawnej rozmowie z „The New York Time”, że to nie pandemia koronawirusa uruchomiła falę samotności, ale w czasie przymusowej izolacji został obnażony poważny problem społeczny, z którym mierzymy się od dłuższego czasu. Deficyt jakościowych relacji i kryzysy psychiczne to zazębiające się wyzwania współczesności. Samotność prowadzi do stanów depresyjnych czy lękowych, a depresja i lęki wzmagają w nas poczucie osamotnienia.
Dołóżmy do tego generalną niewydolność systemu ochrony zdrowia, ceny sesji terapeutycznych w prywatnych gabinetach i zagadka rozwiązana. Potrzebujemy terapii, ale wielu z nas na nią nie stać, bo nie mamy pieniędzy, nie mamy czasu, nie mamy odwagi (wciąż istnieją miejsca, w których terapię wciąż się stygmatyzuje).
Jeden z użytkowników forum Reddit w wątku poświęconym sztucznej inteligencji i terapii, sam podający się za terapeutę, napisał tak: „Liczba osób z problemami natury psychicznej zdecydowanie przewyższa liczbę terapeutów, którzy mają wolne miejsca w terminarzu, więc każda zautomatyzowana pomoc jest nie tyle mile widziana, ile konieczna”.
Czy warto inwestować czas i energie na terapię z ChatemGPT?
A może ChatGPT trzeba traktować wyłącznie jako źródło doraźnego wsparcia, z którego bezpiecznie korzystają osoby będące w trakcie procesu terapeutycznego lub po jego zamknięciu? Tak jak osoby, które uczą się języków obcych w szkołach językowych, ale dodatkowo korzystają z aplikacji pokroju Duolingo czy Babbel, które fajnie uzupełniają tradycyjną edukację, choć same nie wystarczą. Tylko czy taka interakcja z botem jest bezpieczna?
Podczas terapii z AI dzielisz się bardzo osobistymi informacjami, może nawet historią medyczną swoją i swojej rodziny, jeśli wejdziesz naprawdę głęboko – i nie masz pojęcia, jak z tych wrażliwych treści korzystają koncerny technologiczne, do których należą używane aplikacje. Wiadomo też, że ChatGPT wyrzuca średnią wyciągniętą z treści dostępnych online. Czy pogadanka motywacyjna, którą dostajesz, jest naprawdę skrojona pod ciebie, czy może to jednak zupełnie litania banałów, poskładana z przypadkowych treści, niekoniecznie zassanych z jakościowych źródeł poświęconych psychologii? I najważniejsze: dobry terapeuta nie radzi, dobry terapeuta prowadzi. Całą robotę wykonujesz ty, a nie maszyna, która szybko liczy. Z gabinetu też zawsze można wyjść i nigdy do niego nie wrócić, ale to wciąż trudniejsze niż wyłączenie telefonu, gdy wirtualny przewodnik czy przewodniczka zacznie cię irytować. W terapii najbardziej rozwojowy jest dyskomfort konfrontacji z przekonaniami, które nie służą, wypieraną traumą czy nieuznanym strachem (mówię z doświadczenia). Sztuczna inteligencja, jakkolwiek bystra by była, takich cudów jeszcze nie potrafi.
Zaloguj się, aby zostawić komentarz.