Kiedyś trzeba było ludzi przekonywać do korzystania z AI, dzisiaj ten entuzjazm trzeba momentami hamować (#13)
Barbara Klaudel (TheLion.AI, Politechnika Gdańska) o sztucznej inteligencji w medycynie, cognitive offloading i wdrażaniu technologii w polskich szpitalach.
Cognitive offloading, czyli nawyk przenoszenia wysiłku myślowego na technologię, to jedno z największych wyzwań epoki AI. Co się dzieje, gdy lekarz zbyt mocno zaufa algorytmowi? Opowiada o tym Barbara Klaudel – ekspertka sztucznej inteligencji łącząca świat IT, edukacji i medycyny. Jest inżynierką, która tworzy zaawansowane systemy AI dla szpitali, a jednocześnie... zaleca swoim studentom rozwiązywać zadania na kartce papieru. Rozmawiamy między innymi o tym, czy polska służba zdrowia jest gotowa na cyfrową rewolucję i czego inżynierowie nie rozumieją w pracy lekarza.
Zajmujesz się tworzeniem rozwiązań opartych o sztuczną inteligencję w medycynie, ale jednocześnie przytomnie ostrzegasz przed skutkami bezkrytycznego i nadmiernego polegania na technologii. Badanie z udziałem Polaków opublikowane w czasopiśmie The Lancet Gastroenterology & Hepatology, wykazało, że wprowadzenie sztucznej inteligencji wspomagającej kolonoskopię wiąże się ze zmniejszeniem zdolności endoskopistów do wykrywania zmian przedrakowych. Wskaźnik wykrywania gruczolaka spadł aż o 20%. Czy to właśnie takie wyniki temperują Twój entuzjazm?
Barbara Klaudel: Wyniki badań1 pokazujące spadek skuteczności diagnostycznej po wprowadzeniu AI, takie jak obniżenie wskaźnika wykrywania gruczolaków w kolonoskopii, nie temperują mojego entuzjazmu wobec sztucznej inteligencji jako takiej. Raczej potwierdzają one zagrożenia, które środowisko AI w medycynie dostrzegało od dawna. Różnica polega na tym, że dziś AI stała się powszechnym narzędziem także poza wąskimi zastosowaniami klinicznymi. Kiedyś trzeba było ludzi przekonywać do korzystania z AI, dzisiaj ten entuzjazm trzeba momentami hamować.
Już przy pracy nad moim pierwszym projektem AI, czyli systemem do oceny złośliwości guzów nerek2 z 2020 roku, diagnozę AI umieściliśmy dopiero po decyzji lekarza. Model prezentował swoją ocenę dopiero po diagnozie radiologa, a rozbieżności traktowane były jako sygnał do pogłębionej diagnostyki.
Ponadto, mieliśmy świadomość, że AI wpływa na proces diagnostyczny i naszą rolą jest zadbać, żeby AI pełniła rolę wsparcia, a nie zastępstwa lub czynnika utrudniającego pracę specjalistów.
Dużo wcześniejsze badania pokazują, że niezależnie od deklarowanego sceptycyzmu czy entuzjazmu wobec AI, lekarze i tak w istotnym stopniu opierają się na decyzjach systemów wspomagających. Stąd pojawiają się propozycje alternatywnych protokołów współpracy człowieka z AI (np. RAM czy Hound Protocol), które regulują moment ujawnienia rekomendacji modelu (przed lub po samodzielnej decyzji lekarza), aby ograniczyć niepożądany wpływ automatyzacji.
Problem nie dotyczy rzecz jasna tylko lekarzy. W Twoim artykule „Jak AI sprawia, że studenci stają się głupi i co możemy z tym zrobić?3” zwracasz uwagę, że teksty pisane przez studentów zaczynają niebezpiecznie przypominać te z ChatGPT. Pomimo zakazu wykorzystania AI w zadaniu, spora część grupy i tak bezrefleksyjnie po nią sięgnęła, co skończyło się niezaliczeniem przedmiotu przez 40% studentów. Czy sytuacja z nadmiernym wykorzystywaniem AI jest już na tyle poważna, że to właśnie ona przyczyniła się do Twojej rezygnacji z pracy akademickiej po 4 latach?
Nie tyle samo wykorzystanie AI przez studentów było dla mnie problemem, a raczej przyzwolenie na taki stan przez władze uczelni i innych wykładowców. Kiedy próbowałam dyskutować o nadmiernym i bezrefleksyjnym korzystaniu z AI, często spotykałam się ze złośliwym uśmieszkiem i komentarzami w stylu: “rynek pracy ich zweryfikuje”. Często mówili tak lubiani przez studentów wykładowcy, którzy mieli ich tak naprawdę gdzieś.
W edukacji mówi się o problemie iluzji mistrzostwa. Ucząc się nowego zagadnienia, często nie jesteśmy w stanie trafnie ocenić, na ile naprawdę je rozumiemy. Proces uczenia się niemal zawsze wiąże się z wysiłkiem, dyskomfortem i koniecznością wielokrotnego powtarzania materiału. Bez tego nie dochodzi do rzeczywistego zrozumienia. Często mówi się o tym problemie w kontekście aplikacji Duolingo do nauki języków. Zdobywamy punkty, odblokowujemy poziomy, ale jak przyjdzie, co do czego, to nie jesteśmy w stanie sformułować spójnej wypowiedzi.
AI jest nowym wyzwaniem w edukacji, ale nie jedynym. Wyzwań było i będzie znacznie więcej. Problemem był brak przestrzeni do rozmowy o zmianach i brak gotowości do szukania rozwiązań. Zamiast tego spotykałam się z podejściem polegającym na zamiataniu problemu pod dywan.
Na marginesie moja rezygnacja nie trwała długo, bo od października znów uczę. Tym razem z powrotem na Politechnice Gdańskiej. Pośrednio skłoniła mnie do tego prof. Joanna Mytnik, dyrektorka Centrum Nowoczesnej edukacji na Politechnice Gdańskiej. Po lekturze mojego artykułu zaprosiła mnie do wystąpienia w organizowanym przez nią cyklu spotkań dla nauczycieli. To doświadczenie uświadomiło mi, że są w środowisku osoby, które naprawdę chcą coś zmieniać, a jeśli nie na jednej uczelni, to być może na innej.
We wspomnianym tekście napisałaś: ,,Myślenie krytyczne jest kluczowym elementem edukacji. Kiedy studenci korzystają z AI do generowania ich prac zaliczeniowych, to tak naprawdę outsource'ują swoje zdolności poznawcze. To zjawisko otrzymało nawet swój własny termin naukowy - "cognitive offloading". W umiejętności pisania nie chodzi o to, żeby umieć zapełnić kartkę słowami. Chodzi o umiejętność formułowania myśli, organizowania swoich pomysłów oraz skutecznej ich komunikacji.” Oprócz pisania, rekomendujesz również powrót do korzeni – Twój projekt Computer Vision Worksheets4 uczy studentów algorytmów za pomocą kartki i długopisu. Jak przekonać pokolenie Digital Natives, że warto męczyć się z kartką papieru, skoro biblioteka w Pythonie zrobi to w 3 sekundy?
Z mojego doświadczenia takie zadania na wykładach, spotykają się z pozytywnym odbiorem. Inną sprawą jest sięganie do takich rozwiązań samodzielnie przez studentów. W tym semestrze na przykład rozpoczęliśmy pierwsze zajęcia od rozwiązywania zagadki kryminalnej inspirowanej popularną serią Murdle.
Problem nie polega więc na tym, że studenci nie lubią takich form pracy, lecz raczej na tym, że nie sięgają po nie samodzielnie. Z moich obserwacji na polskich uczelniach wynika, że brakuje nawyku systematycznej nauki. Dla porównania, oglądając wykłady z uczelni amerykańskich, widzę, że studenci regularnie otrzymują zadania do wykonania przed i po zajęciach: konkretne rozdziały, wybrane artykuły, materiały, z którymi należy się zapoznać jeszcze przed wykładem. U nas zazwyczaj kończy się to na karcie przedmiotu i ogólnej liście literatury.
Próbowałam przenosić te praktyki na własne zajęcia: sugerowałam krótkie teksty, podcasty czy inne lekkie materiały do zapoznania się przed wykładem. Niestety, studenci praktycznie w ogóle z nich nie korzystali, o ile znajomość materiałów nie była weryfikowana wejściówką.
Powrót do kartki papieru działa na studentów odświeżająco. Przyniesienie na zajęcia ilustrowanej karty pracy, zagadki czy zadania wymagającego czytania ze zrozumieniem jest dla nich czymś zupełnie innym niż standardowy wykład.
Główną motywacją do robienia kart prac były dla mnie problemy z koncentracją. Większość osób (nie tylko studentów) ma dziś trudność z utrzymaniem uwagi przez dłuższy czas. Karty pracy wymagają skupienia i aktywnego myślenia i wydaje mi się, że dobrze odpowiadają na problemy poznawcze.
Przeczytałem w Twojej rozmowie dla „Gazety Wyborczej”, że Twoi rodzice są lekarzami. Medycynę masz w genach, ale wybrałaś komputery, a swój pierwszy model stworzyłaś jeszcze w liceum. Co było tym pierwszym impulsem, który sprawił, że zamiast stetoskopu wybrałaś klawiaturę i kod, by ostatecznie i tak połączyć świat uczenia maszynowego z medycyną?
Takim głównym impulsem była dla mnie potrzeba sprawczości. Lubiłam rzeczy, które mogę zrobić sama i szybko przełożyć na coś praktycznego, nie ważne czy chodziło o uszycie czegoś na maszynie, czy wytrenowanie modelu AI. Zawód lekarza kojarzył mi się głównie z późnym wracaniem do domu, zmęczeniem i przewlekłym stresem. Bardzo szanuję ten zawód i wyniosłam przez to z domu etos pracy “po coś”, ale mam raczej predyspozycje techniczne.
Jednocześnie rozmowy o wyzwaniach ochrony zdrowia i codzienności lekarzy bardzo mnie ukształtowały i naturalnie skierowały do szukania obszarów, w których technologia może medycynie pomóc.
Otrzymałaś prestiżowe stypendium Fulbrighta na studia doktoranckie w USA. Mimo to zdecydowałaś się zostać w Polsce. Czy uważasz, że innowacje na światowym poziomie można z powodzeniem robić stąd, bez wyjeżdżania do Doliny Krzemowej?
Mówiąc w pełni szczerze nie jestem przekonana. Zdecydowałam się zostać w Polsce, bo bardzo silnie motywuje mnie chęć realnego wpływu na system ochrony zdrowia tutaj. Teraz jest ten moment, gdzie AI wchodzi do szpitali. Jest to związane między innymi z dużymi środkami na technologię, m.in. z Krajowego Planu Odbudowy, powstające Centra Medycyny Cyfrowej, a także nadchodzące regulacje europejskie, jak ustawa o European Health Data Space, która umożliwi wykorzystywanie danych medycznych do badań naukowych. Z drugiej strony użytkownicy po doświadczeniach z korzystania z ChataGPT też są już trochę oswojeni z tematem AI.
Czy za granicą byłoby łatwiej? Bardzo możliwe. Rynek amerykański jest nieporównywalnie większy, szybszy i bardziej otwarty na wdrażanie nowych technologii. Gdybym kierowała się przede wszystkim chęcią szybkiego sukcesu, skalowania produktu czy aspektami finansowymi, pewnie próbowałabym swoich sił w USA. Tam wiele problemów, które w Polsce są barierą systemową, jak choćby integracja rozwiązań AI z systemami szpitalnymi, są po prostu techniczną formalnością.
Wasz projekt UMIE (Universal Medical Imaging Encoding), współtworzony z TheLion.ai to w istocie w dużej mierze praca archeologiczna – zbiór danych zawiera ponad milion obrazów (CT, MRI, RTG) z różnych źródeł, tworząc jeden z największych zbiorów tego typu na świecie. Jakie były największe wyzwania przy porządkowaniu tego cyfrowego chaosu i dlaczego zdecydowaliście się udostępnić ten projekt całkowicie za darmo?
“Cyfrowy chaos” i “praca archeologiczna” faktycznie trwale oddają charakter projektu. Największym wyzwaniem okazał się brak spójnej ontologii w danych medycznych. Istnieje kilka międzynarodowych ontologii i standardów, ale w praktyce każdy oznacza dane, jak mu pasuje. To prowadzi do wielu nieoczywistych problemów, jak np. “regionalizmy”. Wbrew pozorom radiologia nie jest uniwersalna. Przykładem jest często spotykane w polskich opisach sformułowanie „serce podparte na przeponie”. Kiedy próbowałam przetłumaczyć je na angielski przy okazji pisania artykułu naukowego, okazało się, że nie istnieje ono w żadnym słowniku medycznym. Jedynym miejscem, gdzie znalazłam to sformułowanie, było forum dla polskich lekarzy pracujących w Wielkiej Brytanii, którzy mieli dokładnie ten sam problem.
Do tego dochodzi fakt, że wiele publicznie dostępnych zbiorów obrazów nie spełnia standardów diagnostycznych. Dlatego kluczowa była dla mnie współpraca z lekarzami. Mam tu ogromny komfort, bo moja mama jest radiologiem i wielokrotnie odbywałyśmy wielogodzinne konsultacje, próbując wspólnie zrozumieć, “co autor miał na myśli” w danym opisie.
W naszym zespole mamy osoby zarówno z kompetencjami technicznymi, medycznymi, a nawet techniczno-medycznymi. Projekt rozwijamy już od czterech lat. Zaczął się jako projekt zaliczeniowy na studia. Część osób, takich jak Piotr Frąckowski pracuje z nami nieprzerwanie od początku. W szczytowych momentach zespół liczył około dziesięciu osób, a łącznie przez projekt przewinęło się ich około dwudziestu.
Dlaczego UMIE udostępniamy za darmo? Problem z dostępem do danych i brakiem standardów przy pracy z obrazami radiologicznymi jest powszechny. Próba uporządkowania ma sens, gdy staje się wspólną infrastrukturą, którą inni mogę rozbudowywać.
Jesteś współtwórczynią platformy Medalion5, która bezpiecznie integruje się z infrastrukturą szpitalną, aby zapewnić zautomatyzowaną analizę danych opartą na sztucznej inteligencji. Jakie są kluczowe zastosowania tego rozwiązania w codziennej pracy lekarzy i czy polskie szpitale są mentalnie i technologicznie gotowe na takie rozwiązania?
Pomysł na Medalion narodził się z obserwacji, które wynieśliśmy z wcześniejszych projektów realizowanych w ramach grupy badawczej TheLion.AI. Bardzo często spotykaliśmy tam lekarzy-innowatorów, którzy mimo licznych barier organizacyjnych i technologicznych, samodzielnie próbowali wdrażać nowe rozwiązania w swoich szpitalach. Były to zarówno projekty z zakresu druku 3D, autorskie programy do analizy powikłań pooperacyjnych, jak i narzędzia do harmonogramowania pracy, tworzone dlatego, że dostępne systemy szpitalne nie odpowiadały ich realnym potrzebom.
Znając takich pionierów, doszliśmy do wniosku, że kompetencje i zainteresowanie po stronie lekarzy już są. Brakowało natomiast bezpiecznego i uporządkowanego środowiska, swoistego test bedu, które pozwalałoby im eksperymentować, testować i rozwijać rozwiązania oparte na AI w warunkach możliwie bliskich realiom szpitalnym, ale bez ryzyka dla pacjentów i infrastruktury. Tak powstał Medalion, platforma pełniąca rolę piaskownicy AI, w której pozwala lekarzom “wyklikać” własny model AI bez konieczności bycia programistą.
Z jednej strony maksymalnie upraszczamy sam proces budowy modelu. Z drugiej absolutnie nie chcemy upraszczać etapu oceny i weryfikacji. Wręcz przeciwnie: bardzo zależy nam na tym, aby proces walidacji był jak najbardziej przejrzysty i zrozumiały dla lekarza.
Zastosowań Medaliona jest bardzo wiele. Część z nich ma charakter stricte naukowy, na przykład prace nad algorytmami wspierającymi diagnostykę, gdzie platforma stanowi pierwszy etap tworzenia rozwiązania, które później podlega dalszej, formalnej walidacji. Przykładami są modele do przewidywania ryzyka sepsy czy określonych powikłań pooperacyjnych. Dużym zainteresowaniem cieszą się jednak również zastosowania administracyjno-zarządcze, które nie ingerują bezpośrednio w proces diagnostyczny, a jednocześnie realnie odciążają personel medyczny. Przykładami takich rozwiązań są transkrypcja notatek, predykcja czasu trwania operacji i inteligentne harmonogramowanie pracy bloków operacyjnych, aby lepiej wykorzystać dostępne zasoby lub automatyczne generowanie epikryz, czyli podsumowań hospitalizacji.
Jeśli chodzi o gotowość polskich szpitali, zmiana, którą obserwujemy na przestrzeni ostatnich pięciu lat, jest ogromna. Jeszcze kilka lat temu sztuczna inteligencja była tematem konferencyjnych ciekawostek. Dziś jesteśmy w zupełnie innym miejscu: nie pytamy już “czy”, tylko “jak” wdrażać takie rozwiązania, jakie są na to środki i jakie problemy chcemy nimi rozwiązać. Otwartość po stronie szpitali wyraźnie rośnie, choć oczywiście wciąż istnieją wyzwania organizacyjne, technologiczne i regulacyjne.
Otrzymujecie zapytania z całego świata, nawet z Australii. Czy rok 2026 będzie dla Was czasem na odważniejsze umiędzynarodowienie waszych projektów?
Tak, jak najbardziej. W szczególności dotyczy to naszej grupy badawczej TheLion.ai, w ramach której pracujemy nad otwartymi, open-source’owymi rozwiązaniami dla ochrony zdrowia.
Do tej pory The Lion.ai funkcjonowało głównie w zespołach polskich, a część naszych projektów była silnie osadzona w lokalnym kontekście, jak chociażby medyczne modele językowe dostosowane do specyfiki języka polskiego. Są jednak również inicjatywy, które z natury mają potencjał międzynarodowy, na przykład wspomniane już UMIE, czyli zbiór obrazów medycznych, który bez przeszkód mógłby być rozwijany przez zespół złożony z ekspertów z różnych krajów.
Dlatego jednym z naszych planów na 2026 rok jest stopniowe otwieranie TheLion.ai na współpracę międzynarodową, także poprzez większe wykorzystanie języka angielskiego. Mamy wiele projektów, z których już dziś korzystają użytkownicy na całym świecie, i chcielibyśmy zaprosić więcej osób do współpracy.
Jednocześnie chcę podkreślić, że naszym priorytetem pozostaje Polska. Wchodząc w 2026 rok, a zarazem drugi rok działalności Medalion Technology, jesteśmy bardzo pozytywnie nastawieni i konsekwentnie chcemy tworzyć polskie AI dla ochrony zdrowia.
Tworzycie rozwiązania, które odpowiadają na realne potrzeby lekarzy i służby zdrowia. W jakich obszarach medycyny sztuczna inteligencja jest dziś najbardziej przydatna i „dowozi” największą wartość?
Największe zainteresowanie widzimy w obszarach, które odciążają lekarzy od żmudnej biurokracji. Przykładem są rozwiązania do transkrypcji notatek głosowych lub wsparcie w uzupełnianiu dokumentacji medycznej. Choć nie są to najbardziej widowiskowe zastosowania sztucznej inteligencji, odpowiadają na bardzo konkretne potrzeby i pozwalają lekarzom zaoszczędzić cenny czas. Zastosowań AI jest oczywiście znacznie więcej, a potrzeby poszczególnych placówek mogą się różnić. Nasza platforma Open Workflows umożliwia korzystanie z różnych typów rozwiązań, a jednocześnie pozwala na ich elastyczne dostosowanie, na przykład poprzez użycie konkretnych szablonów czy łączenie danych z wielu źródeł.
Z kolei w przychodniach często widzimy także potrzebę uporządkowania wyników badań przechowywanych w różnych formatach. W odpowiedzi na to oferujemy rozwiązanie LabExtract, które potrafi automatycznie wydobywać informacje z wyników badań laboratoryjnych zapisanych w postaci plików PDF i mapuje je do wspólnej ontologii.
Dodatkowo, wraz z rozwojem Regionalnych Centrów Medycyny Cyfrowej, rośnie zapotrzebowanie na usystematyzowanie danych zapisanych w formie opisowej. Dlatego opracowaliśmy narzędzia takie jak MedalioNER, służący do parametryzacji tekstów, oraz AnonimiNER, który umożliwia anonimizację treści. W polach tekstowych mogą bowiem pojawiać się praktycznie dowolne informacje, również dane osobowe, nawet jeśli formalnie nie powinny się tam znaleźć.
Statystyki są nieubłagane - ponad 90% projektów AI w medycynie kończy się porażką. Co z Twojej perspektywy jest głównym zabójcą tych projektów?
Jak to bywa z modną technologią, bardzo często wdrażamy AI po to, żeby “wdrożyć AI”. Robimy to, żeby móc się pochwalić technologią, nazwać firmę “AI-first”, pokazać inwestorom lub udziałowcom, że jesteśmy nowocześni. Natomiast zbyt rzadko zadajemy sobie fundamentalne pytanie: po co właściwie to AI ma powstać i jaki realny problem ma rozwiązywać.
Głównym problemem jest więc brak koncentracji na konkretnym, rzeczywistym problemie użytkownika końcowego. Skuteczne zastosowanie AI wymaga bardzo dobrej znajomości procesu, do którego to rozwiązanie ma zostać wdrożone. W medycynie oznacza to konieczność ścisłej współpracy interdyscyplinarnej, pomiędzy środowiskiem medycznym a zespołami technologicznymi, oraz bardzo dobrej komunikacji. Trzeba umieć przetłumaczyć potrzeby i problemy personelu medycznego na wymagania technologiczne, a następnie wdrożyć narzędzie w taki sposób, by faktycznie wspierało codzienną pracę, a nie generowało dodatkowe obciążenie.
Oczywiście nie jest to proste, sama stosuję różne podejścia łącznie z shadowingiem lekarzy, czyli obserwowaniu dnia pracy, jak podejmują decyzje, na co poświęcają czas i z jakimi innymi oddziałami się komunikują. Dodatkowo, jako firma korzystamy z narzędzi takich jak Data Innovation Board czy Medical Data Innovation Board, prostych narzędzi, które zmuszają do przejścia od jasno zdefiniowanego problemu, przez analizę kontekstu i ograniczeń, po wstępny projekt rozwiązania i sposób mierzenia jego skuteczności.
Poza tym jako Medalion Technology oferujemy darmowe konsultacje potencjalnym klientom i jeśli nie widzimy sensu użycia AI to odradzamy klientowi projekt lub sugerujemy użycie innej technologii.
AI powinno być narzędziem do rozwiązywania problemów, tylko, gdy faktycznie jest najlepszym rozwiązaniem. Jeśli problem da się rozwiązać problem lub jeśli w ogóle nie jest postrzegany jako istotny przez odbiorców to inwestowanie w AI nie ma sensu.
Czego, Twoim zdaniem, inżynierowie najczęściej nie rozumieją w pracy lekarzy? I w drugą stronę – co lekarze powinni koniecznie wiedzieć o ograniczeniach technicznych AI, by ta współpraca układała się pomyślnie?
Jako inżynierowie często patrzymy na medycynę jako zestaw problemów do zoptymalizowania i nie mamy świadomości, o różnych zależnościach organizacyjnych, prawnych albo emocjonalnych, które sprawiają, że proces wygląda w taki sposób.
Dla mnie uderzającym momentem była wypowiedź profesor Judy Gichoya z Emory University, której słuchałam w podcaście “AI Ground Rounds”. Bardzo często mówi się, że sztuczna inteligencja zdejmie z radiologów proste przypadki, jakieś oczywiste złamania czy rutynowe badania, a lekarze będą mogli skupić się tylko na tych trudnych, bardziej skomplikowanych. I technicznie to brzmi sensownie, ale jeśli odciążymy radiologa z łatwych przypadków, to zostaną mu wyłącznie te najcięższe nowotwory złośliwe, czyli same dramaty ludzkie. Skoro sama uznałam, że nie chcę pracować jako lekarz, bo to jest zbyt ciężki zawód, to tym bardziej nie chciałabym sprawić, żeby lekarzom było jeszcze trudniej.
Z drugiej strony, po stronie lekarzy dużo czasu poświęcamy na rozmowy o tym w jakich warunkach model AI będzie działał skutecznie, a w jakich nie należy z niego korzystać. Ważne jest także uświadamianie ryzyk, takich jak wspomniany już problem cognitive offloading.
Dlatego dobra współpraca między inżynierami a lekarzami wymaga, żebyśmy my naprawdę nauczyli się rozumieć proces kliniczny, a nie tylko dane, a jednocześnie żeby lekarze rozumieli, jak korzystać z tych systemów, gdzie są ich granice i jakie niosą ze sobą ryzyka.
Czy Twoim zdaniem unikalne zbiory danych o zdrowiu Polaków mogą stać się naszym narodowym atutem? Czy bezpieczne uwolnienie dostępu do tych zasobów pozwoliłoby nam uzyskać przewagę w tworzeniu spersonalizowanej medycyny na dużą skalę?
Jeśli chodzi o uwalnianie danych medycznych Polaków, to jest to temat, do którego należy podejść ostrożnie. Oczywiście nie chodzi o ich sprzedaż za granicę, lecz o to, aby służyły rozwiązywaniu realnych problemów zdrowotnych w Polsce i poprawie jakości opieki nad pacjentami. Istnieją już podejścia, takie jak federated learning, które pozwalają tworzyć zaawansowane modele AI bez konieczności ujawniania czy przenoszenia danych pacjentów pomiędzy jednostkami.
W perspektywie europejskiej, m.in. dzięki regulacjom takim jak EHDS, pojawia się szansa na bezpieczny dostęp do danych medycznych na dużą skalę i rozwój spersonalizowanych rozwiązań, takich jak “cyfrowe bliźniaki” pacjentów, wspierające np. dobór najlepszych terapii. Kluczowe jest jednak, aby rozwój AI w medycynie odbywał się na naszych zasadach: z udziałem polskich zespołów, od etapu przygotowania danych po budowę modeli, tak aby wytwarzana wartość pozostawała w kraju i realnie przekładała się na poprawę zdrowia Polaków.
Na koniec: jakie działania systemowe musiałby podjąć nasz rząd, aby umożliwić rozwój takich technologii jak Wasze i nie zmarnować potencjału młodych, utalentowanych Polaków?
Przy okazji KPO, często padało sformułowanie, które bardzo mnie uderzyło: “mamy pieniądze do wydania”. Moim zdaniem dużym problemem jest to, że przy okazji wielkich projektów takich, jak KPO myślimy o nich z perspektywy pieniędzy do wydania, a nie problemów do rozwiązania.
Potrzebne jest szerokie, systemowe podejście do projektów innowacyjnych. Inspirujący model funkcjonuje np. w Wielkiej Brytanii, gdzie przy grantach na tworzenie nowych rozwiązań publicznych proces dzieli się na etapy: najpierw szczegółowa analiza problemu i określenie wymagań technicznych, potem finansowanie stworzenia pierwszej wersji prototypowej, następnie testy na szerszą skalę z udziałem użytkowników, aż wreszcie wdrożenie finalnego rozwiązania.
Poza tym każdy etap realizowany jest przez inną firmę, w związku z tym rozwiązanie jest dobrze udokumentowane i łatwe do zintegrowania z innymi systemami. Kod projektów dostępny jest open-source, dzięki czemu można go rozwijać i utrzymywać w dłuższej perspektywie.
Rząd powinien też wspierać rozwój liderów w Polsce, którzy potrafią skutecznie transformować kluczowe obszary, jak ochrona zdrowia czy inne sektory publiczne. Mamy wielu wybitnych Polaków pracujących “u kogoś”, ale mało mamy przykładów sukcesów budowanych od początku do końca w Polsce.
Rząd powinien też wspierać rozwój liderów w Polsce, którzy potrafią skutecznie transformować kluczowe obszary, jak ochrona zdrowia czy inne sektory publiczne, zamiast koncentrować się wyłącznie na tym, że Polacy świetnie sprawdzają się pracując dla innych. Potrzebne jest systemowe wsparcie w planowaniu projektów, zarządzaniu nimi i tworzeniu środowiska, w którym młodzi, zdolni ludzie mogą realizować swoje pomysły na dużą skalę.
***
Barbara Klaudel – inżynierka i ekspertka sztucznej inteligencji, specjalizująca się w technologiach medycznych. Współzałożycielka grupy badawczej TheLion.ai, z którą udostępniła największy na świecie otwarty zbiór danych obrazowania medycznego (UMIE). Jako współtwórczyni Medalion Technology wdraża systemy AI w polskich szpitalach. Wykłada na Politechnice Gdańskiej, gdzie uczy studentów i lekarzy. Aktywnie dzieli się wiedzą, tworząc materiały edukacyjne i promując odpowiedzialny rozwój AI.
Linki:
Poprzednie rozmowy na stronie trajektorie.pl
#12 Maria Wyrzykowska (Molecule.one), Piotr Sotniczuk (Nomagic.ai) oraz Kamil Bladoszewski (AWS) z ML in PL zdradzają kulisy organizacji największej konferencji uczenia maszynowego w regionie.
#11 Jan Betley (Truthful AI), dr inż. Anna Sztyber-Betley (Politechnika Warszawska) zaskakujących generalizacjach w dużych modelach językowych
#10 Dr hab. Piotr Sankowski (Prof. Uniwersytetu Warszawskiego) o Instytucie Badawczym IDEAS
#9 Dr Paweł Gora (Uniwersytet Jagielloński, Warsaw.ai) o tym, że dziś sam kod to za mało
#8 Sebastian Kondracki (Fundacja SpeakLeash, Bielik.ai) o rozwoju Bielika i polskiej AI
#7 Dr inż. Bartosz Ptak (Politechnika Poznańska) o robotyce kosmicznej i projekcie PUT-ISS
#6 dr hab. Agata Starosta (Prof. IBB PAN), dr hab. Artur Obłuski (Prof. UW), dr hab. Kinga Kamieniarz-Gdula (Prof. UAM), dr hab. Michał R. Gdula (UAM), dr Joanna Karolina Malinowska (UAM) o nauce jako polskiej racji stanu
#5 Dr inż. Anna Sztyber-Betley (Politechnika Warszawska) o bezpieczeństwie AI i alignmencie
#4 Dr Wiktoria Mieleszczenko-Kowszewicz (Politechnika Wrocławska) o manipulacjach i efektywnej współpracy z AI
#3 Dr Bartosz Naskręcki (UAM) o benchmarku FrontierMath i przyszłości matematyki w dobie AI
#2 Dr Marcin Rządeczka (UMCS) o iluzji relacji z maszyną i chatbotach terapeutycznych
#1 Aleksander Obuchowski (Politechnika Gdańska, TheLion.ai) o AI w ochronie zdrowia i polskim modelu AI Eskulap
Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study. https://www.thelancet.com/journals/langas/article/PIIS2468-1253(25)00133-5/abstract
Titan - system do rozpoznawania złośliwości guzów nerek. https://www.gov.pl/web/nauka/titan-z-gdanska-pomoze-w-walce-z-guzem-nerek




