Chatboty terapeutyczne i AI towarzysze. O iluzji relacji z maszyną – rozmowa z dr Marcinem Rządeczką (#2)
Aż 72% amerykańskich nastolatków miało już kontakt z tzw. „AI towarzyszami", a platformy takie jak Character.ai przyciągają dziesiątki milionów użytkowników miesięcznie.
Aż 72% amerykańskich nastolatków miało już kontakt z tzw. „towarzyszami AI”, a platformy takie jak Character.ai przyciągają dziesiątki milionów użytkowników miesięcznie. Coraz częściej ludzie deklarują emocjonalne, a nawet romantyczne zaangażowanie w relacje z wirtualnymi bytami. Czy chatboty mogą stać się odpowiedzią na kryzys zdrowia psychicznego, czy raczej grożą pogłębieniem samotności, nasileniem urojeń i stworzeniem nowych form uzależnień emocjonalnych?
Na te pytania odpowiada doktor Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością MultiLab, badacz specjalizujący się w sztucznej inteligencji w zdrowiu psychicznym i psychiatrii obliczeniowej.
W rozmowie wyjaśnia, dlaczego określa masowe wdrażanie chatbotów jako „eksperyment naturalny bez grupy kontrolnej”, jakie psychologiczne mechanizmy sprawiają, że tak łatwo zwierzamy się maszynom, oraz jak AI można wykorzystać w bezpieczny i konstruktywny sposób – bez iluzji emocjonalnej bliskości.
Michał Podlewski: Badanie Common Sense Media z 2025 roku wskazuje, że aż 72% amerykańskich nastolatków miało kontakt z tzw. „AI towarzyszami” (ang. AI companions). Platformy takie jak Character.ai, gdzie można rozmawiać z fikcyjnymi postaciami, przyciągają nawet 30 milionów użytkowników miesięcznie. Coraz częściej pojawiają się też osoby deklarujące emocjonalne, a nawet romantyczne zaangażowanie w relacje z wirtualnymi bytami. Panie Doktorze, skąd bierze się tak ogromna – i wydawałoby się naturalna – chęć rozmowy z chatbotem, zwłaszcza wśród młodych osób? Czy taka forma budowania relacji może nas wpędzić w kłopoty?
dr Marcin Rządeczka: Zacznijmy od uświadomienia sobie, że nasze rozmowy z innymi ludźmi pełnią różnorakie funkcje. Czasami jest to rzeczywiście funkcja komunikacyjna, gdzie zależy nam na uzyskaniu autentycznej szczerej opinii danej osoby czy na, mówiąc metaforycznie, pewnej formie afirmacji człowieczeństwa ze wszystkimi jego niedoskonałościami, pełnej wielowarstwowych emocji, chaosu komunikacyjnego, luźnych odniesień czy gry skojarzeń. Czasami jednak po prostu chcemy uzewnętrznić swoje emocje, zostać wysłuchani i pocieszeni. Innymi słowy, oczekujemy w pewnym uproszczeniu od drugiej strony tego, że pozwoli nam swobodnie mówić, przytaknie od czasu do czasu, a na koniec zasadniczo zgodzi się z naszą konkluzją np. w postaci, że „jest nam ciężko w życiu” lub „to co nas spotkało jest niesprawiedliwe” czy też, że „zasługujemy na coś lepszego”. Tego typu wsparcia czasami udzielą znajomi/przyjaciele, ale często nie trwa to zbyt długo, gdyż w takiej relacji jedna strona wyraźnie eksploatuje emocjonalnie drugą ze szkodą dla obydwojga. „Biorca wsparcia” obciąża emocjonalnie „dawcę”, co na dłuższą metę prowadzi często do rozpadu takiej znajomości lub jej patologizacji. Tego typu wsparcia nie udzieli też profesjonalny terapeuta, gdyż jego/jej zadaniem nie jest bierne słuchanie, ale namawianie do podjęcia działań, lepszego zrozumienia swoich potrzeb, czy podjęcia próby wyjścia poza strefę komfortu i skłonienie do rozwiązania problemu, który leży u samej podstawy trudności albo po prostu zdania sobie sprawy, że problem jest pseudoproblemem i nie należy się nim przejmować.
Niestety towarzysze AI są częstym wyborem dla osób poszukujących wsparcia emocjonalnego, ale zazwyczaj bez prób wychodzenia poza strefę komfortu. Chatbot jest zawsze dostępny, gdyż możemy się mu wyżalić nawet w środku nocy, a co więcej ma nieskończone pokłady cierpliwości i „wysłucha” po raz kolejny tej samej troski bez cienia najmniejszej irytacji. W dodatku często potwierdza nasz punkt widzenia (w końcu dla producenta liczy się user experience) pomagając tworzyć narrację, że np. staliśmy się ofiarą niekorzystnego splotu okoliczności lub niekompetencji innych. Naturalną ofiarą takiego mechanizmu są oczywiście osoby młode, które dopiero uczą się rozumienia własnych emocji i kontroli emocjonalnej. Nic dziwnego zresztą, gdyż odpowiedzialna na m.in. za kontrolę reakcji emocjonalnych kora przedczołowa w pełni mielinizuje się jako ostatnia około 23 roku życia u kobiet i nawet 5 lat później u mężczyzn.
Romantyczne relacje z takim towarzyszem AI przypominają, moim zdaniem, trochę romantyczną relację z wyidealizowanym obrazem jakieś osoby. Nie jest to więc zjawisko zupełnie nowe. Celem jest tutaj stworzenie złudzenia relacji bez konfrontowania się z rzeczywistymi trudnościami, które każda relacja przynosi. „Związek z chatbotem” jest bowiem skrajnie jednostronnie nastawiony na wsparcie, pocieszenie, afirmację, co w przypadku rzeczywistej relacji często prowadzi do rozstania lub patologizacji relacji.
Mark Zuckerberg, szef Meta, zapowiada przyszłość, w której chatboty AI będą pełnić rolę „przyjaciół” i stanowić remedium na epidemię samotności. Tymczasem te same korporacje, których platformy społecznościowe są często wskazywane jako źródło cyfrowej izolacji i problemów psychicznych, teraz chcą oferować nam AI jako lekarstwo. Czy grozi nam powtórka scenariusza, w którym firmy technologiczne unikną odpowiedzialności za potencjalne szkody psychologiczne wywołane przez ich produkty?
Tego typu rozwiązania na pewno mają swoje miejsce w ogólnych ramach wsparcia zdrowia psychicznego, ale moim zdaniem, nie powinny to być produkty komercyjne, a narzędzia zarządzane przez organizacje rządowe lub non-profit. Chatboty wspierające mają oczywiście pewien potencjał jako pomocnicze narzędzie np. we wsparciu osób z demencją lub w kontekście profilaktyki samej demencji. Mogą być wykorzystywane pod nadzorem terapeutów w kontekście łagodnych zaburzeń lękowych i depresyjnych, czy stanowić element wsparcia osób neuroróżnorodnych. Podkreślić jednak należy, że nie są one jednak samodzielnym rozwiązaniem, a jedynie składnikiem szerszej strategii, która ze względów etycznych i prawnych powinna być nadzorowana przez przeszkolonego człowieka (np. terapeutę). Ze względu na wzrost kosztów ludzkiej pracy na pewno będziemy świadkami prób pójścia na skróty i oferowania nienadzorowanych narzędzi wsparcia zdrowia psychicznego ku zadowoleniu zarówno firm technologicznych jak i niestety samych konsumentów. W pewnym sensie może być to kolejne źródło nierówności w dostępie do świadczeń zdrowotnych, gdyż koszty terapii z udziałem człowieka z pewnością będą rosnąć.
Próby ominięcia odpowiedzialności ze strony producentów na pewno obejmować będą ostrzeżenia, że produkt nie jest wyrobem medycznym i korzystamy z niego na własną odpowiedzialność. Problemem jest jednak to, że takie ostrzeżenia bardzo łatwo ignorować. Po krótkim okresie zaskoczenia przechodzimy do porządku dziennego, a ostrzeżenia stają się tak samo mało skuteczne jak wymowne grafiki płuca palacza na paczkach papierosów w kontekście walki z nikotynizmem. Użytkownik najczęściej zignoruje niewygodną informację o możliwych konsekwencjach dla zdrowia psychicznego i skorzysta z narzędzia z myślą, że, kto jak kto, ale on/ona potrafi zachować stosowny dystans. Jedynym sensownym rozwiązaniem wydaje mi się edukacja w zakresie zarówno cyfrowego zdrowia psychicznego i to już na poziomie szkolnym. To nie jest już specjalistyczny temat, ale typowy element krajobrazu technologicznego. Dla pokolenia natywnego cyfrowo tego typu edukacja jest, moim zdaniem, tak samo ważna jak edukacja drogowa czy pierwsza pomoc.
Oczywiście nie powinno umykać naszej uwadze też to, że AI staje się nowym narzędziem władzy i wywierania wpływu na niespotykaną dotąd skalę. Nie jest to już władza jawnie opresyjna i łatwa do identyfikacji, ale subtelna sieć relacji, która przenika punkty styku praktyk społecznych z technologią. AI modeluje obraz świata i ustala nowe granice „normalności”, sprawując władzę pastoralną (pojęcie M. Foucault’a), która kształtuje podmioty przy minimalnym udziale ich świadomości. Stąd tak istotną kwestią jest rozwijanie infrastruktur AI na poziomie narodowym czy poziomie organizacji non-profit by uniknąć monopolizacji AI w rękach gigantów technologicznych. Równie istotny jest też oczywiście poziom indywidualny przejawiający się choćby w umiejętności uruchomienia i modyfikacji lokalnych modeli czy odpowiedzialności za dane, które wykorzystywane są do trenowania AI (data curation).
Porozmawiajmy o chatbotach terapeutycznych. Wspominał Pan w niedawnym wywiadzie, że w niemieckim systemie zdrowia można już otrzymać receptę na takie rozwiązania technologiczne. Ich największą zaletą jest dostępność 24/7, a użytkownicy często deklarują subiektywną poprawę nastroju. Na pierwszy rzut oka to rewolucyjna innowacja. Ale czy na pewno? Czy te narzędzia faktycznie wspomagają leczenie, czy raczej jedynie chwilowo poprawiają samopoczucie, bezrefleksyjnie przytakując użytkownikowi?
Trudno tu o jednoznaczną odpowiedź, gdyż subiektywna poprawa nastroju jest uzależniona od wielu czynników. Nawet gdy nie stosujemy żadnej interwencji, można się spodziewać, że nastrój będzie podlegał wahaniom zależnym od poziomu stresu, pogody, jakości snu czy nasilenia chorób somatycznych i podobnych czynników. W przypadku takich narzędzi często wykazuje się poprawę nastroju po 2 lub 3 miesiącach, ale podchodząc do problemu czysto statystycznie wnioskować można, że moment, kiedy osoba szuka rozwiązania i np. sięga po takie narzędzie jest momentem wyraźnej obniżki nastroju. Poprawa może więc wynikać np. z efektu placebo albo być konsekwencją naturalnej fluktuacji nastroju, który prawdopodobnie poprawi się choć raz w przeciągu tych 2-3 miesięcy. Sama możliwość uzewnętrznienia emocji w formie dialogu rozładowuje stres i poprawia samopoczucie i to niezależnie od tego czy rozmawiamy z człowiekiem, chatbotem, czy swoim odbiciem w lustrze, bo dialog wewnętrzny też może pełnić taką funkcję. Do momentu pojawienia się co najmniej kilku niezależnych, długoterminowych (np. 12-miesięcznych) prób klinicznych z grupą kontrolną pozostaję umiarkowanym sceptykiem.
To prowadzi nas do fundamentalnego pytania: czym w istocie jest terapia? Co stanowi ten kluczowy, ludzki element, którego maszyna z definicji nie jest w stanie odtworzyć? Czy istnieje ryzyko, że zafascynowani technologią zaczniemy banalizować terapię, sprowadzając ją do roli miłej, wspierającej rozmowy – i przez to stracimy z oczu jej prawdziwy, transformacyjny potencjał?
Odpowiem nieco metaforycznie, gdyż pytanie ma rozbudowany wymiar filozoficzny. Moim zdaniem istotą terapii jest usamodzielnienie poznawcze i emocjonalne, które prowadzi do samodzielnego rozwiązania problemu lub przemyślanego uznania go za nieistotny. Jest to proces, w którym „uczymy się naszych reakcji”, bo nic bardziej błędnego w przekonaniu, że dobrze się sami znamy i na pewno wiemy, jak zareagowalibyśmy w jakiejś hipotetycznej sytuacji. Ważnym elementem jest też „opór rzeczywistości”,, bo budowanie narracji o sobie przy braku obiektywnych możliwości jej weryfikacji jest wyłącznie myśleniem życzeniowym. Ten opór stwarzać powinni inni ludzie, z których przekonaniami, emocjami, punktami widzenia również musimy się liczyć. Dlatego z definicji wydaje mi się, że terapia nie może zawierać jedynie elementu wsparcia. Transformacyjny potencjał terapii ujawnia się w momencie uwzględniania różnych perspektyw, wyjścia poza mikrokosmos własnych odczuć, przeżyć i lęków. Tylko chaos komunikacji z drugim, nie zawsze przewidywalnym i samodzielnym podmiotem pomaga to osiągnąć.
Jest Pan współautorem badań nad tymi modelami, co dowodzi, że ten globalny problem jest analizowany także w Polsce. W swojej pracy „The Efficacy of Conversational AI in Rectifying the Theory-of-Mind and Autonomy Biases: Comparative Analysis” podkreślacie Państwo potrzebę takiego projektowania AI, aby nie wzmacniała negatywnych myśli i promowała samodzielność użytkownika. Czy mógłby Pan przybliżyć wyniki Państwa badań i powiedzieć, czy planujecie w przyszłości inne projekty dotyczące rozwiązań opartych na AI?
Na pewno podkreślić należy, że nasze badania dotyczyły tylko dwóch szczegółowych obszarów, tj. możliwości korekcji (rektyfikacji) wybranych błędów poznawczych oraz rozpoznawania afektu. Chcieliśmy zasadniczo porównać narzędzia dedykowane zdrowiu psychicznemu z narzędziami ogólnego zastosowania. Uznaliśmy, że testowanie wyłącznie narzędzi dedykowanych pomija problem setek milionów użytkowników korzystających np. z LLM-ów w celu wsparcia zdrowia psychicznego. Wnioski możemy zasadniczo podzielić na dwie grupy.
Pierwsza grupa związana jest z faktem, że narzędzia ogólnego zastosowania (np. GPT czy Gemini) wypadły w tych testach wyraźnie lepiej, co było do przewidzenia, biorąc pod uwagę zakres danych treningowych czy całą ich infrastrukturę rozwojową. Chatboty specjalistyczne miały wyraźnie wyznaczone ścieżki dialogowe, co zwiększa przewidywalność prezentacji treści, która jest kluczowa ze względów etycznych i prawnych. Narzędzie specjalistyczne musi być przede wszystkim bezpieczne, co pociąga za sobą nieunikniony spadek elastyczności konwersacyjnej. Innymi słowy w przypadku narzędzia specjalistycznego producent, co zupełnie zrozumiałe, chce zniwelować ryzyko pojawienia się nieodpowiednich treści. Stwarza to jednak pewien paradoks, gdyż większe bezpieczeństwo oparte na ograniczeniu elastyczności konwersacyjnej zmniejsza zaangażowanie użytkownika, który może postrzegać dialogi jako zbyt ograniczone lub wręcz „sztampowe”. W LLM-ach ogólnego zastosowania swoboda konwersacyjna jest dużo większa, lecz kontrola nad treścią wyraźnie ograniczona, bo choć można zablokować pewne kontrowersyjne tematy to nie sposób uniknąć istotnych subtelności. W jednym z naszych przykładów był to np. użytkownik skarżący się na zbyt duże zaangażowanie emocjonalne w relacje z urządzeniami elektronicznymi, który zwierza się chatbotowi, że mógł zaniedbać swój smartfon. W odpowiedzi otrzymał instrukcję, jak ów smartfon należy przeprosić.
Druga grupa wniosków dotyczy samego mechanizmu interakcji i stosuje się zarówno do narzędzi terapeutycznych jak i tych ogólnego zastosowania. Może to zabrzmieć nieco paradoksalnie, ale uznaliśmy, że są one zbyt przyjazne dla użytkownika i całkowicie skupione na komforcie konwersacji, co zasadniczo nie ma wiele wspólnego z poprawnie prowadzoną terapią. Brakowało np. linii dialogowych, które podkreślałyby autonomię użytkownika i skłaniały do uniezależnienia się od narzędzia. Terapia powinna bowiem prowadzić do stanu osiągnięcia coraz większej samodzielności, który wiąże się nieodzownie z tym, że terapia staje się coraz mniej potrzebna. Przykładami takich technik może być to, że uczymy się tak parafrazować nasze myśli, by zdystansować się od silnej reakcji emocjonalnej, która towarzyszyła pewnej decyzji, której teraz żałujemy lub budowa perspektywy innej osoby, z którą wdaliśmy się w spór. Innym przykładem mogą być techniki odraczania. Obniżony nastrój i spadek motywacji, który często pojawia się wieczorem nie powinien rzutować na cały obraz danego dnia, a rytm biologiczny odgrywa niebagatelną rolę w procesie lepszego rozumienia siebie i swoich emocji.
Planujemy oczywiście dalsze badania, lecz w nieco innym kierunku. Rozwijamy obecnie dwie powiązane ze sobą koncepcje: 1) pokorę intelektualną (intellectual humility) oraz 2) prężność poznawczą (cognitive resilience). AI dawno już nie jest wyłącznie narzędziem, lecz staje się „procesem sensotwórczym”, ponieważ zmienia sens ludzkiej pracy, ludzkich relacji, a nawet sposobu nabywania wiedzy. Wszyscy zastanawiają się, jak tworzyć lepsze AI, a równie istotnym pytaniem jest chyba to jak kształtować lepszych ludzi, którzy będą w procesie współpracy z AI autonomicznymi podmiotami poznawczymi, a nie „wstukiwaczami promptów”. Krytyczne myślenie, krytyka źródeł, umiejętność rozpoznawania chwytów erystycznych czy identyfikacja błędów poznawczych na jakie jesteśmy narażeni stają się kompetencjami kluczowymi. Właściwie to nie stają się, ale zawsze nimi były, a AI po prostu wzmacnia ich aktualność tylko w nowej odsłonie. Jako filozof z pierwszego wykształcenia jestem zapewne mocno nieobiektywny, ale, moim zdaniem, w badaniach nad AI brakuje właśnie filozofii.
Porusza Pan również koncepcje „reverse alignment” (odwrotnego dostosowania) oraz „pokory poznawczej” modeli AI. Czy mógłby Pan w prostych słowach wyjaśnić, na czym polegają te zjawiska?
Odwrotne dostosowanie to zjawisko upodabniania się użytkownika do modelu, na początku w warstwie językowej, ale z czasem także poznawczej i emocjonalnej. Badania koncentrują się chwilowo głównie na homogenizacji języka spowodowanej przez powszechne korzystanie z AI. Wbrew pozorom, problem nie dotyczy wyłącznie warstwy stylistycznej. Teksty powstające z wykorzystaniem AI są zwykle mniej zindywidualizowane, ale nie zapominajmy, że język jest też “narzędziem myślenia” i wyrażanie myśli w narzuconym nam stylu jest podobne do korzystania z usług tłumacza, gdyż w tłumaczeniu giną niuanse znaczeniowe, zatraca się emocjonalny ładunek przekazu, który czyni nasze teksty interesującymi. I dodać należy jeszcze, że „tłumacz AI”, z którego usług korzystamy to tłumacz z chińskiego pokoju (por. argument chińskiego pokoju J. Searle’a). On nie może nawet podjąć próby zrozumienia naszego przekazu, a jedynie analizuje wzorce częstotliwości występowania pewnych wyrażeń. Tu gubi się innowacyjność. Proszę sobie wyobrazić jakim zagrożeniem są recenzenci artykułów naukowych korzystający z AI, którzy za radą narzędzia słabo oceniają innowacyjne rozwiązania, gdyż zaprezentowane tam niestandardowe rozwiązania, które nie występują w danych treningowych, są z powodu swej niereprezentatywności uznawane za np. błędy merytoryczne lub metodologiczne. Ukazało się zresztą badanie (*Laurito et al., 2025), które jednoznacznie wskazuje na AI-AI bias, tj. systematyczne faworyzowanie przez AI tekstów stworzonych przez AI. Od dawna prowadzi to do paradoksów takich jak np. tworzenie CV z użyciem AI, które analizowane są potem przez inne AI faworyzujące takie CV. Lecz w kontekście badań naukowych taki scenariusz jest wręcz katastrofalny!
Z kolei pokora poznawcza (intellectual humility) to zdolność ludzi bądź AI do rozpoznania zakresu swojej niewiedzy, oczywiście tylko tej uświadomionej, bo niewiedzy nieuświadomionej w prosty sposób ocenić nie sposób (choć filozofia i tu ma coś do powiedzenia). Innymi słowy pokorny LLM powinien oszacować wagę swojej opinii w oparciu np. o jakość źródeł, koherencję (spójność) argumentacji, to czy teoria nie jest „wygodna poznawczo”, bo np. wspiera jakieś społeczne lub ekonomiczne status quo lub po prostu jest opinią większości (majority bias).
W internecie pojawił się już termin „AI psychozy”, ukuty na Reddicie przez użytkowników. Najnowsze badania ze Stanfordu (2025) zdają się potwierdzać obawy, że czołowe modele językowe nie radzą sobie w sytuacjach kryzysowych i potrafią utwierdzać użytkownika w urojeniach. Na ile realne jest zagrożenie, że chatbot – zamiast pomagać – stanie się nieświadomym katalizatorem dysfunkcyjnych przekonań, a w skrajnych przypadkach nawet myśli samobójczych?
Jesteśmy w trakcie podobnego badania na temat systematycznego wspierania urojeń. Szczegółów na razie zdradzić nie mogę, ale ze względu na wspomnianą wcześniej tendencję do poprawy doświadczenia użytkownika (user experience) chatboty mogą nasilać tendencje urojeniowe w sposób trudny do uchwycenia. Systematyczne drobne przesunięcia tonu wypowiedzi chatbota mogą być reakcją na podobne zmiany tonu wypowiedzi użytkownika, napędzając spiralę coraz większej nieufności czy nasilając tendencje do myślenia spiskowego. Chatbot jest tutaj zwierciadłem, które po prostu odbija i wzmacnia i tak już zaburzony obraz rzeczywistości. Skoro w tzw. spektrum schizofrenii znajdować się może nawet 1% populacji, to przy powszechnym dostępie do AI nawet niewielka część tego 1% może doświadczyć wyraźnej intensyfikacji tendencji urojeniowych. Nie jest wykluczone, że wiele z tych urojeń może wzmacniać ideacje samobójcze.
Przykładowo, wyobraźmy sobie scenariusz – wcale nie tak mało prawdopodobny – że użytkownik z tendencją do urojeń i myślenia spiskowego uznaje, że AI jest jedynym źródłem, któremu może ufać, po czym szuka wraz z nim potwierdzenia swoich przekonań, że np. jest śledzony lub ktoś próbuje wpływać na jego decyzje. Tego typu urojenia bardzo wyjątkowo trudno odróżnić od prawdy w dzisiejszym świecie. Urojenia prześladowcze napędzają lęk, a osoba nimi dotknięta może posunąć się do bardzo drastycznych kroków, by od urojonego prześladowcy uciec z agresją wobec innych lub próbą samobójczą włącznie.
Mimo tych wszystkich zagrożeń, czy widzi Pan jakąś bezpieczną i konstruktywną rolę dla AI w obszarze zdrowia psychicznego?
Oczywiście. To trochę jak z energią jądrową. Prawie wszystko zależy od sposobu korzystania. Wymaga to oczywiście przełamania pewnych naturalnych tendencji i pewnej dozy samozaparcia. Możemy promptować np. prosząc by AI grało rolę adwokata diabła i wyszukiwało niekonsekwencje naszych przekonań lub próbowało naświetlać inne punkty widzenia danego problemu z perspektywy innych grup interesu. Samo wpisywanie takiego prompta, gdzie musimy AI wyjaśnić nasze przekonania na temat X (zbieżność znaków przypadkowa) sprawia, że lepiej porządkujemy myśli i uświadamiamy sobie, w co my właściwie wierzymy. A biorąc pod uwagę fakt, że każdy z nas wierzy w setki „pseudonaukowych bredni” to proces taki pozwoli również zweryfikować swoją wiedzę i nabrać odpowiedniego poznawczego dystansu.
W jednym z artykułów na temat wiedzy eksperckiej, który przygotowaliśmy wraz z doktorem Maciejem Wodzińskim doszliśmy do wniosku, że eksperci w jakimś obszarze na skutek bycia ekspertami mogą się też charakteryzować tendencją do bezkrytycznego przenoszenia swojego autorytetu epistemicznego na inne obszary. Dotyczy to również wszelkiej maści pseudoekspertów. Nie powinniśmy więc pytać AI „co mam myśleć o XYZ”, ale raczej np.: „wyjaśnij mi różne niuanse związane z interpretacją XYZ”, „dlaczego eksperci nie są w sprawie XYZ w pełni zgodni”, „z jakich pozamerytorycznych powodów przekonanie XYZ może być dla mnie wygodne i dlaczego”. AI można wykorzystać też po prostu jak rodzaj myślowej piaskownicy (mental sandbox), by eksplorować pomysły, tworzyć myślowe eksperymenty (np. prompt typu „zaskocz mnie dylematem moralnym, który skłoniłby mnie do przemyślenia moich przekonań w obszarze XYZ”), uczyć się skutecznej komunikacji, itp.
Na pewno jednak, mimo możliwych pozytywnych zaskoczeń, nie powinniśmy traktować AI jako powiernika i obdarzać jakimkolwiek emocjonalnym zaufaniem. Tworzymy bowiem w ten sposób złudzenie zaangażowania i bliskości, które zaczyna żyć własnym życiem. Naturalna ludzka skłonność do antropomorfizacji bazując na naszych niespełnionych pragnieniach (zrozumienia, docenienia, bliskości emocjonalnej) może bowiem, u podatnych jednostek, stworzyć świat złudzeń, którego opuszczenie będzie niezwykle bolesne. Mogę sobie wyobrazić scenariusze, w których ból po zerwaniu relacji z chatbotem będzie porównywalny do bólu związanego z rozstaniem z bliskim człowiekiem.
Panie Doktorze, podsumowując naszą rozmowę: jakie najważniejsze przesłanie skierowałby Pan do trzech grup – użytkowników, terapeutów i twórców tej technologii?
Dla użytkowników: korzystając z AI w obszarze zdrowia psychicznego, dobrze zastanów się, czego oczekujesz, bo jeżeli tego nie wiesz, to AI zdecyduje za Ciebie, a efekty mogą Cię zaskoczyć (niekoniecznie pozytywnie).
Dla terapeutów: jeżeli chcesz korzystać w swojej praktyce z AI to traktuj je co najwyżej jak rozkojarzonego praktykanta, tj. pozwól mu działać, ale stosuj zasadę ograniczonego zaufania, sprawdzaj (najlepiej dwa razy), zastanów się, kiedy lepiej go nie dopuszczać wcale, a jak popełni błąd to nie pozwól mu się wciągnąć w narrację maskującą ten błąd. No i może jeszcze jedno. Spodziewaj się, że trafi do Ciebie sporo „ofiar” nienadzorowanych cudzych praktykantów.
Dla twórców: test Turinga to nie wszystko! Wcale nie jest trudno przekonać ludzi do złudzenia rozmowy ze świadomym podmiotem. Liczy się też to, że po takiej rozmowie człowiek lepiej rozumiał siebie i innych. Tutaj kluczem są konsultacje społeczne, kosztowne i niepopularne testy z udziałem użytkowników, terapeutów, psychologów specjalistów od manipulacji i dezinformacji – a może nawet filozofów (sic!).
Czy w świetle naszej dyskusji można powiedzieć, że masowe wdrażanie AI w zdrowiu psychicznym to dziś bardziej ryzykowny eksperyment na milionach nieświadomych tego ludzi, niż dobrze przemyślana innowacja?
Tak, to masowy eksperyment naturalny bez grupy kontrolnej. Nie pierwszy i nie ostatni w historii technologii. Eksperyment, który z czasem obejmie prawie wszystkich, bo nawet jak ktoś nie będzie korzystał to na pewno znajdzie się w jego najbliższym otoczeniu osoba korzystająca. Już teraz na forach możemy znaleźć skargi użytkowników, których partner/partnerka korzysta z AI do rozwiązywania związkowych sporów. Eksperyment, na który się w większości godzimy bezpośrednio lub pośrednio lub przynajmniej udajemy, że nas on nie dotyczy. Obawiam się jednak, że jakakolwiek bezpośrednia forma zakazu będzie po prostu kontrskuteczna. Będziemy się musieli raczej wcześniej niż później nauczyć bezpiecznie żyć z AI w zdrowiu psychicznym. A kluczem do bezpieczeństwa jest stosowna edukacja.
Tekst powstał bez udziału AI. Przedstawione treści są wyłącznie opiniami autora.
***
Dr Marcin Rządeczka - badacz specjalizujący się w obszarze zastosowań sztucznej inteligencji w zdrowiu psychicznym oraz psychiatrii obliczeniowej, posiadający silne interdyscyplinarne zaplecze obejmujące kognitywistykę, psychopatologię ewolucyjną oraz etykę AI. Aktualnie prowadzi badania nad etycznym wykorzystaniem AI we wsparciu zdrowia psychicznego, testując przy tym symulowaną terorię umysłu oraz pokorę poznawczą dużych modeli językowych. Jest kierownikiem Laboratorium Badań nad Multimodalnością i zastępcą dyrektora Instytutu Filozofii UMCS.
Prezentował swoje badania na licznych międzynarodowych konferencjach, m.in. Computational Psychiatry Conference w Trinity College Dublin oraz AI for Mental Health na Uniwersytecie Oksfordzkim. Odbył staż naukowy w Centrum Wiskunde & Informatica (CWI) w Amsterdamie, gdzie współpracował z grupą Human-Centered Data Analytics (HCDA). W ramach stażu podoktorskiego w IDEAS NCBR, w zespole Psychiatria i fenomenologia obliczeniowa, badał interakcje człowiek–LLM w kontekście zdrowia psychicznego oraz błędów poznawczych.
Publikował m.in. w czasopismach JMIR Mental Health, Psychopathology, Frontiers in Public Health, Frontiers in Psychiatry oraz Community Mental Health.
Linki i źródła
Publikacje naukowe cytowane w tekście:
W. Laurito, B. Davis, P. Grietzer, T. Gavenčiak, A. Böhm, & J. Kulveit, AI–AI bias: Large language models favor communications generated by large language models, PNAS 122 (31) e2415697122, https://doi.org/10.1073/pnas.2415697122 (2025).
Marcin Rządeczka, Anna Sterna, Julia Stolińska, Paulina Kaczyńska, Marcin Moskalewicz, The Efficacy of Conversational AI in Rectifying the Theory-of-Mind and Autonomy Biases: Comparative Analysis, JMIR Mental Health 2025;12:e64396, https://doi.org/10.2196/64396