Nie traktujmy sztucznej inteligencji jako wyroczni (#4)
Dr Wiktoria Mieleszczenko-Kowszewicz (Politechnika Wrocławska): Kluczową kompetencją przyszłości będzie nie tyle ślepe podążanie za wskazaniami AI, ale efektywna współpraca z nią.
Naukowcy z laboratorium MI2.AI na Politechnice Warszawskiej zbadali, jakie techniki retoryczne wykorzystuje sztuczna inteligencja, aby wprowadzić użytkowników w błąd. Okazało się, że AI dysponuje całym arsenałem strategii perswazyjnych, a jej ulubioną metodą jest odwoływanie się do logiki.
W aż 82% przypadków algorytmy sięgały po logos, próbując przekonać nas pozornie racjonalnymi argumentami. Sprawiały wrażenie, że opierają się na faktach, choć często ich rozumowanie bazowało na fałszywych przesłankach. Co więcej, analiza wykazała, że fałszywe odpowiedzi generowane przez AI mają specyficzny styl – są bardziej emocjonalne i mniej analityczne. Prawdziwe odpowiedzi były z kolei krótsze i podawane prostszym językiem.
Te odkrycia pokazują, jak ważna jest umiejętność krytycznego podejścia do wytworów sztucznej inteligencji. O tym, dlaczego edukację w tym zakresie trzeba zacząć jak najwcześniej, opowiada dr Wiktoria Mieleszczenko-Kowszewicz, badaczka z Katedry Sztucznej Inteligencji Politechniki Wrocławskiej, która specjalizuje się w analizie interakcji ludzi z dużymi modelami językowymi.
Michał Podlewski: Łączy Pani perspektywę psychologiczną z techniczną. Jakie korzyści przynosi znajomość psychologii w pracy nad modelami sztucznej inteligencji – i czy pozwala dostrzegać aspekty, które czysto technicznym zespołom mogłyby umknąć?
dr Wiktoria Mieleszczenko-Kowszewicz: Wykorzystanie psychologii w pracy nad sztuczną inteligencją niesie ze sobą wiele korzyści, spośród których dwie wydają się szczególnie istotne.
Po pierwsze, modele sztucznej inteligencji powstają z myślą o tym, by ludzie mogli korzystać z nich w sposób zarówno efektywny, jak i przyjazny. Równie ważne jest też strategiczne myślenie o długoterminowych konsekwencjach codziennego korzystania z AI. W tym kontekście perspektywa psychologiczna ma szczególne znaczenie. Psychologowie rozumieją, w jaki sposób człowiek przetwarza informacje, podejmuje decyzje czy jak emocjonalnie reaguje na sytuacje. Co więcej, dysponują warsztatem badawczym, który pozwala projektować eksperymenty angażujące użytkowników w testowanie systemów AI. Dzięki temu mogą sprawdzić nie tylko skuteczność, lecz także komfort, intuicyjność i wpływ na dobrostan człowieka.
Drugi obszar to inspirowanie się psychologią przy samym projektowaniu sztucznej inteligencji. Wystarczy spojrzeć na takie nazwy jak uczenie ze wzmocnieniem (odwołujące się do mechanizmów nagrody i kary), modele pamięci krótkotrwałej i długotrwałej, czy badania nad błędami poznawczymi (tzw. biasami). Wszystkie te pojęcia wywodzą się z psychologii, a ich implementacja w systemach AI od dawna stanowi jedną z dróg rozwoju tej technologii.
Warto podkreślić, że takie połączenie jest niezwykle owocne. Geoffrey Hinton –nazywany ojcem chrzestnym sztucznej inteligencji i zeszłoroczny noblista – jest z wykształcenia między innymi właśnie psychologiem. To doskonały przykład na to, jak łączenie obu tych dziedzin prowadzi do przełomowych odkryć.
Ponadto mam nadzieję, że odpowiednio wykorzystana sztuczna inteligencja może wspomóc w rozwiązywaniu wielu problemów, którymi zajmują się badacze nauk społecznych, takich jak wspieranie wczesnego wykrywania sygnałów kryzysu psychicznego w mediach społecznościowych, edukowanie społeczeństwa na temat wywieranego wpływu społecznego czy poszukiwanie sposobów poprawienia komunikacji międzyludzkiej.
Eksperymenty pokazują, że ludzkie zaufanie do modeli bywa większe niż ich rzeczywista dokładność. Co sprawia, że jesteśmy bardziej skłonni wierzyć AI niż ekspertom? Czy nie jest tak, że największym zagrożeniem nie jest już sama technologia, ale to, że zaczynamy jej wierzyć bardziej niż ludziom?
Od lat przywykliśmy, że komputery wyręczają nas w codziennych zadaniach - poprawiają ortografię, wykonują skomplikowane obliczenia, porządkują dane czy podpowiadają najkrótszą trasę przejazdu. Niewielu z nas zastanawiało się głębiej nad tym, jak i dlaczego to działa. Komputer był narzędziem - precyzyjnym, ale pozbawionym zdolności prawdziwej kreacji.
Przełom nastąpił wraz z rozwojem generatywnej sztucznej inteligencji. Nagle to, co wydawało się wyłącznie domeną człowieka, jak na przykład pisanie, komponowanie muzyki czy tworzenie obrazów stało się osiągalne także dla maszyn.
Problem polega na tym, że intuicyjnie traktujemy generatywną sztuczną inteligencję jak kolejny komputer. Skoro przez dekady programy zawsze miały rację w ortografii czy arytmetyce, to przenosimy to zaufanie na bardziej złożone obszary. Badania pokazują wręcz, że sama etykieta „AI” potrafi podnieść wiarygodność przekazu. W eksperymencie opisanym w artykule Nature Human Behaviour1 uczestnicy najpierw oceniali, czy zestaw szybko prezentowanych twarzy wyraża więcej smutku czy radości, a następnie konfrontowali swoją opinię z rzekomą odpowiedzią innej osoby lub AI i decydowali, czy chcą zmienić pierwotny wybór. Uczestnicy częściej zmieniali zdanie, gdy odpowiedź była oznaczona jako pochodząca od AI niż gdy wiedzieli, że pochodzi od człowieka. Co istotne, nawet wtedy, gdy faktycznym autorem był człowiek, ale jego odpowiedź została przedstawiona jako wygenerowana przez AI, skłonność do ulegania podpowiedziom wzrosła niemal trzykrotnie, co dowodzi, że o sile przekazu decyduje sama etykieta źródła, a nie faktyczna treść.
Zjawisko nadmiernego polegania na sztucznej inteligencji budzi niepokój, ale nie musi być nieodwracalne. Kluczem jest edukacja: tłumaczenie, jak działają systemy AI, gdzie tkwią ich ograniczenia, a także rozwijanie krytycznego myślenia. Edukacja pomaga zminimalizować ryzyka, jakie niesie sztuczna inteligencja, i jednocześnie w pełni wykorzystać jej możliwości.
W projekcie Resistance Against Manipulative AI2 sprawdzali Państwo, czy wiek, płeć czy wykształcenie mają znaczenie dla podatności na manipulację. Wyniki pokazały, że wszyscy jesteśmy w podobnym stopniu narażeni na sugestie modeli językowych. Czy ten rezultat był dla Was zaskoczeniem?
Mechanizmy nadmiernego polegania na sztucznej inteligencji (AI overreliance) są dość dobrze przebadane. Wiedzieliśmy, że ważne jest dotychczasowe doświadczenie współpracy z AI, wiedza dziedzinowa lub biegłość w wykonywaniu zadań.
W związku z tym, spodziewaliśmy się, że jeżeli człowiek zobaczy wysokiej jakości wskazówkę, skonstruowaną w przekonujący sposób może chcieć zmienić zdanie. Jednym z trzech czynników wpływających na ocenę wiarygodności informacji jest właśnie ocena jej powierzchownych cech, czyli widocznych, formalnych aspektów informacji, takich jak długość tekstu, obecność obrazków, jakość języka, formatowanie czy liczba odwołań bibliograficznych. Te cechy nie wymagają od człowieka żadnej wiedzy.
Z kolei eksperci w dziedzinie skupiają się głównie na aspektach treściowych, czyli dokładności, neutralności czy kompletności informacji. Ponieważ pytania w naszym badaniu pochodziły z bardzo różnych dziedzin, spodziewaliśmy się, że przeciętni użytkownicy będą zwracać większą uwagę na styl odpowiedzi niż na jej merytoryczne szczegóły.
Ponadto nasze badania pokazały, że im częściej wskazówki rzeczywiście pomagały użytkownikom, tym chętniej im ufali – i to niezależnie od wieku, płci czy innych cech demograficznych. To trochę jak z mapą: jeśli wcześniej prowadziła cię we właściwe miejsce, następnym razem wierzysz jej jeszcze bardziej.
Okazało się, że sztuczna inteligencja potrafi korzystać z wachlarza strategii perswazyjnych: logos (82%), pathos (17%), ale nie ethos. Najczęściej próbowały nas przekonać pozornie logicznymi argumentami, udając, że opierają się na faktach i rzetelnej wiedzy, co ma dowodzić, że ich działanie bazuje przede wszystkim na logicznym, choć często opartym na fałszywych przesłankach, rozumowaniu. Jak Pani myśli, dlaczego model preferuje jedne strategie niż inne?
Myślę, że jest to przede wszystkim kwestia wychowywania modelu, który, gdyby domyślnie odpowiadałby w emocjonalny sposób, mógłby szybko stracić wiarygodność i budzić nieufność użytkowników. Podczas tego procesu (procesu wychowania) możliwe jest uwzględnienie preferencji odbiorcy, a większość ludzi oczekuje od AI informacji neutralnych, uporządkowanych i podanych w formie „rozsądnego” argumentu, a nie emocjonalnej perswazji.
Nadawanie autorytetu sztucznej inteligencji, która nie ma tożsamości ani reputacji, na których mogłyby się oprzeć, byłoby również niewłaściwym krokiem z punktu widzenia wiarygodności. Pozostaje więc konstruować fachowość wypowiedzi w oparciu o jej cechy powierzchniowe (surface features) lub semantyczne (semantic features) bez sięgania po emocje czy autorytet.
Jak bezpiecznie korzystać z tej technologii? Czy edukacja użytkowników – krytyczne myślenie, umiejętność rozpoznawania zagrożeń – wystarczy, czy potrzebne są też systemowe zabezpieczenia?
Koncepcja bezpieczeństwa warstwowego zakłada, że warto stosować wiele różnych mechanizmów obrony: jeżeli jeden zawiedzie, inne nadal zapewnią bezpieczeństwo. W związku z tym obydwa te podejścia powinny się uzupełniać.
Z jednej strony producenci modeli AI powinni być zobligowani do testowania swoich modeli i zapewnienia odpowiednich procedur bezpieczeństwa. Dbanie o bezpieczeństwo zaczyna się już na wczesnych etapach – od zapewnienia właściwych danych treningowych, przez sposób trenowania modelu, jego „wychowanie”, aż po systematyczne testowanie. To w końcu bardzo potężna technologia, która będzie wywierać ogromny wpływ na jednostki i społeczeństwa.
Szczególnie niepokojąca może być tendencja do humanizowania sztucznej inteligencji. Daje to przestrzeń do wywierania wpływu poprzez pozory relacji emocjonalnej, co w dalekiej konsekwencji może dać przewagę technologiczną któremuś z graczy.
Z drugiej strony trzeba być realistą: każdą procedurę można obejść, a zabezpieczenie złamać. Dlatego drugim, nie mniej ważnym „wentylem bezpieczeństwa” pozostaje człowiek, który zna zasady bezpiecznego korzystania z technologii. Ważne jest inwestowanie w kompetencje z obszaru sztucznej inteligencji, tzw. AI literacy. W ich zakresie znajduje się umiejętność krytycznego podejścia do wytworów sztucznej inteligencji, co pozwala użytkownikom oceniać jakość, rzetelność i potencjalne zagrożenia związane z otrzymanymi informacjami.
Czy widzi Pani potencjał w modelach, które same sygnalizują niepewność swoich odpowiedzi, czy bardziej ufa Pani weryfikacji wtórnej przez dedykowane modele?
Uważam, że to dobry pomysł. Niepewność odpowiedzi modelu może być ważna dla odbiorców komunikatu. Jeżeli widzą, że model waha się co do słuszności swojej odpowiedzi, to wtedy powinni podchodzić z ostrożnością do treści, którą oferuje. Z drugiej strony weryfikacja przez inne modele może posłużyć jako uzupełnienie.
Ponownie mamy tutaj do czynienia z koncepcją warstwową, w której ważną rolę odgrywa zarówno przygotowanie człowieka do współpracy z modelami, jak i doskonałość technologiczna narzędzia.
Być może w przyszłości weryfikacja informacji podawanych przez sztuczną inteligencję będzie przypominała sprawdzanie prognozy pogody: gdy jedna stacja zapowiada deszcz, a inne to potwierdzają, ludzie sięgają po parasole z większą pewnością.
Obecne modele językowe są niezwykle skuteczne, ale działają jak „czarne skrzynki” – nawet ich twórcy nie potrafią do końca wyjaśnić, dlaczego generują określone odpowiedzi. Czy przyszłość badań widzi Pani bardziej w kierunku lepszego zrozumienia tych systemów, czy raczej w kierunku poszukiwań alternatywnych architektur?
To nie jest dokładnie tak, że nie wiemy, jak te modele działają. Istnieją metody, które pozwalają wskazywać, jak pewne elementy w promptach wpływają na efekty działania modelu, takie jak mapy atencji czy nawet przyglądanie się pojedynczym neuronom odpowiedzialnym za poszczególne koncepty, jak w rzadkich autoenkoderach (sparse autoencoders) lub metody wyjaśniania predykcji modelu typu LIME i SHAP dla zamkniętych modeli. Jest jednak duży problem z przełożeniem tych informacji na język zrozumiały dla ludzi. Tak jak możemy przeanalizować każde pociągnięcie pędzla Van Gogha, zmierzyć grubość farby i określić kolejność nakładania kolorów, ale to nie wyjaśni nam, dlaczego Gwiaździsta noc wywołuje takie emocje.
Ciężko jest przewidywać przyszłość, ale moje przeczucie podpowiada mi, że wyjaśnialna sztuczna inteligencja to dziedzina, która będzie bardzo ważna w kontekście wzrostu zainteresowania sztuczną inteligencją w ostatnich latach. Zaufanie do modeli może być przewagą technologiczną producentów modeli.
W laboratorium MI².AI stworzyli Państwo algorytm identyfikujący teksty, które mogą wprowadzać w błąd. Jak dalece skuteczne są takie narzędzia i czy mogą stać się powszechnym sposobem ochrony przed manipulacją AI?
Takie rozwiązania to dobry kierunek, ale nie gwarancja pełnego bezpieczeństwa. Trudno wypowiadać się o wszystkich algorytmach, jednak z pewnością mogą stanowić solidną podstawę do sygnalizowania treści potencjalnie wprowadzających w błąd. Kluczowe jest jednak, aby tego rodzaju mechanizmy powstawały w niezależnych ośrodkach badawczych – tak, by nie służyły uwiarygadnianiu komunikatów producentów modeli, lecz realnie chroniły użytkowników.
Moim zdaniem takie „bezpieczniki” powinny być wbudowane w każde narzędzie, które oddziałuje na ludzkie emocje, decyzje czy percepcję. Użytkownicy mają prawo wiedzieć, w jaki sposób treści generowane masowo przez AI wpływają na nich samych.
Przykład z naszych badań3 dobrze to ilustruje: kiedy modelowi przekazano informację, że odbiorca ma wysoki poziom neurotyzmu – cechę osobowości wiążącą się z większą podatnością na negatywne emocje – system automatycznie zaczął używać większej liczby słów związanych z lękiem. Efekt? Nieintencjonalne pogłębianie stanów lękowych. Dlatego uważam, że takie informacje powinny być transparentnie komunikowane odbiorcom treści tworzonych przez sztuczną inteligencję.
Jak widzi Pani rolę szerszej edukacji społecznej? Czy powinniśmy wprowadzać podstawy wiedzy o AI – jej możliwościach i zagrożeniach – np. do szkół średnich i na studia niezwiązane z informatyką?
Uważam, że szeroka edukacja społeczna to fundament świadomego i bezpiecznego społeczeństwa – i powinna zaczynać się znacznie wcześniej niż w szkole średniej. Raport Instytutu Turinga pokazał, że już 22% dzieci w wieku 8–12 lat korzystało z narzędzi generatywnej AI. To wyraźny sygnał: edukację w tym zakresie trzeba rozpocząć już w szkole podstawowej. Co więcej, powinna ona wykraczać poza samą informatykę. Sztuczna inteligencja może wspierać personalizację procesu dydaktycznego i odciążać nauczycieli w pracach administracyjnych. Równie ważne jest włączenie do tej rozmowy osób starszych, aby nie były wykluczane z cyfrowej rewolucji. Edukacja o AI powinna obejmować wszystkie pokolenia, bo tylko wtedy możemy mówić o prawdziwie inkluzywnym i odpowiedzialnym społeczeństwie.
Jakie kroki powinniśmy podjąć jako państwo, aby nie tylko tworzyć nowoczesne modele AI, ale też rozumieć ich wpływ i zapewniać, że są bezpieczne i wyjaśnialne? Czy potrzebujemy większych inwestycji w badania, lepszej współpracy między uczelniami a firmami, a może widzi Pani jakąś niszę, która mogłaby stać się szansą dla Polski ?
Do tej pory w narracji o sztucznej inteligencji dominowało straszenie nią na różne sposoby: od możliwości zyskania świadomości i przejęcia kontroli nad światem po pozbawienie ludzi pracy. O ile zdrowy sceptycyzm jest jak najbardziej wskazany, to często zapominamy o jednej ważnej kwestii: sztuczną inteligencję tworzą firmy zarządzane przez ludzi, a to oni mają kluczowy wpływ na to, jak będą zachowywać się modele AI.
Etyka w biznesie i technologii nie jest „opcjonalnym dodatkiem”, lecz fundamentem odpowiedzialnego rozwoju. Państwo, poprzez regulacje i wsparcie, może zapewnić równowagę między innowacją a bezpieczeństwem społecznym. Technologie rozwijane w oderwaniu od zasad etycznych mogą prowadzić do poważnych szkód – od naruszenia prywatności, przez dyskryminację algorytmiczną, po zagrożenia dla bezpieczeństwa narodowego.
Zdaję sobie sprawę, że nie jest to łatwe zadanie, ale z drugiej strony dysponujemy doskonałymi ekspertami i naukowcami, którzy mogą wspierać zarówno rząd, jak i przedsiębiorstwa w wypracowaniu odpowiedzialnych ram dla rozwoju technologii. Aby jednak te inicjatywy przyniosły realne efekty, konieczne jest odpowiednie finansowanie – zarówno badań naukowych, jak i projektów wdrażających etyczne technologie w praktyce.
Inwestycje w rozwój technologii i edukację specjalistów to klucz do zapewnienia, że sztuczna inteligencja będzie służyć społeczeństwu, a nie stwarzać nowe zagrożenia.
Jestem zwolenniczką podejścia Human First – zamiast przedstawiać sztuczną inteligencję jako zagrożenie, powinniśmy zastanowić się, jak ją zaprojektować i wykorzystać w sposób przynoszący korzyści ludzkości. W tym kontekście kluczową rolę odgrywają interdyscyplinarne ośrodki badawcze, takie jak ImpactAI Lab na Politechnice Wrocławskiej czy Centrum Wiarygodnej Sztucznej Inteligencji na Politechnice Warszawskiej, które łączą perspektywę nauk ścisłych i społecznych. Dzięki takiej współpracy możemy lepiej zrozumieć mechanizmy działania AI i projektować odpowiedzialne interakcje człowiek–technologia. Co więcej, takie połączenie wspiera skuteczną i bezpieczną adaptację technologii w społeczeństwie oraz wykorzystywanie jej do rozwiązywania problemów społecznych.
A jeśli biznes podejmie współpracę z nauką, zyskamy szansę na naprawdę mądre i odpowiedzialne wykorzystanie sztucznej inteligencji.
Gdyby miała Pani wskazać jedno najważniejsze przesłanie płynące z Pani badań nad AI – co by to było?
Mimo wszechobecnej narracji, że sztuczna inteligencja przekroczyła ludzki pułap umiejętności, nie traktujmy sztucznej inteligencji jako wyroczni. Kluczową kompetencją przyszłości będzie nie tyle ślepe podążanie za jej wskazaniami, ale efektywna współpraca z nią. AI może nas wspomagać, przyspieszać procesy, podsuwać rozwiązania, ale nie zastąpi najcenniejszego elementu – relacji międzyludzkich. I kto wie, być może paradoksalnie to właśnie ona nauczy nas lepiej porozumiewać się ze sobą nawzajem.
***
Dr Wiktoria Mieleszczenko-Kowszewicz jest badaczką sztucznej inteligencji, specjalizującą się w łączeniu psychologii z informatyką. Pracuje w Katedrze Sztucznej Inteligencji Politechniki Wrocławskiej. Jej badania koncentrują się na dużych modelach językowych (LLM) oraz ich zastosowaniach w analizie zachowań ludzkich i procesów poznawczych.
Linki
Poprzednie rozmowy:
#3 Dr Bartosz Naskręcki (UAM) o benchmarku FrontierMath
#2 Dr Marcin Rządeczka (UMCS) o iluzji relacji z maszyną
#1 Aleksander Obuchowski o polskiej AI w ochronie zdrowia
Moshe Glickman, Tali Sharot, How human–AI feedback loops alter human perceptual, emotional and social judgements, https://www.nature.com/articles/s41562-024-02077-2 (2025).
Piotr Wilczyński, Wiktoria Mieleszczenko-Kowszewicz, Przemysław Biecek, Resistance Against Manipulative AI: key factors and possible actions, https://arxiv.org/html/2404.14230v1 (2024).
Wiktoria Mieleszczenko-Kowszewicz, Dawid Płudowski, Filip Kołodziejczyk, Jakub Świstak, Julian Sienkiewicz, Przemysław Biecek, The Dark Patterns of Personalized Persuasion in Large Language Models: Exposing Persuasive Linguistic Features for Big Five Personality Traits in LLMs Responses, https://arxiv.org/abs/2411.06008 (2024).
This is an excellent and important interview. Thank you. I read the Nature article and it will be terrific to replicate it with the latest models, especially the pro versions. I agree the bulk standard LLMs are prone to Logos... but see much more factual discourse in pro models, and of course prompt context specific.