Czas na technopatriotyzm (#8)
Sebastian Kondracki opowiada o tym, jak narodził się Bielik, dlaczego Polska potrzebuje własnych superkomputerów i jak stworzyć warunki, w których młode polskie talenty nie będą musiały wyjeżdżać.
W czasach, gdy każdy gigant technologiczny ściga się o coraz to większe modele AI, w Polsce rośnie projekt, który uparcie idzie własną drogą. „Obywatel Bielik” – to coś więcej niż zaledwie kolejny duży model językowy; to inicjatywa, która zaprasza Polaków do współtworzenia zbioru danych opisujących naszą historię, kulturę, tradycje i codzienność. Każdy element tej układanki zasila model, który z założenia ma lepiej rozumieć nasz język i nasze realia, niż jakikolwiek globalny system. Celem nie jest rozmiar, ale precyzja – i stworzenie modelu, który naprawdę rozumie polski kontekst kulturowy oraz językowy.
W rozmowie z Sebastianem Kondrackim pytamy, jak narodził się ten projekt, dlaczego Polska potrzebuje własnych superkomputerów, co stoi za globalną rozpoznawalnością Bielika – i jak stworzyć warunki, w których młode polskie talenty AI nie będą musiały szukać przyszłości za granicą?
Michał Podlewski, Kamil Pawlik: Bielik ostatnio wyfrunął w świat, co widać po waszej aktywności na międzynarodowych konferencjach. Wasze podejście zostało docenione w Chinach przez DeepSeeka, mieliście też prezentacje w USA na Techcrunch. Jaki jest główny cel tej globalnej obecności i czego szukacie dla projektu na arenie międzynarodowej?
Sebastian Kondracki: Chcemy, aby Bielik stał się silną marką międzynarodową z wyraźnym polskim akcentem. Z dwóch powodów. Po pierwsze Bielik 3.0 będzie wersją wielojęzyczną. Po drugie Bielik.AI to nie tylko model, lecz także zestaw danych, framework, benchmarki i społeczność. W Polsce widzimy już, że Bielik ma swoje pięć minut, jest rozpoznawalny i potrafi promować rodzime startupy oraz firmy, jak Gaius-Lex i AISay.co, dlatego chcemy powtórzyć to globalnie. Budujemy obywatelską markę Bielik, aby w trakcie rozmów z inwestorami z Doliny Krzemowej ktoś mógł powiedzieć, że współtworzył Bielika i chce teraz rozwijać własny model lub startup. Nasze ostatnie wyjazdy to potwierdzają. Podczas wizyty w Chinach przedstawiciele DeepSeek znali Bielika i docenili nasze podejście do danych. Framework Krzysztofa Ociepy1 cieszy się dużym zainteresowaniem ze strony społeczności sg_lang i Qwen (również prelekcja Chiny), Sebastian Raschka2 cytuje na X/Twitter nasze raporty z treningu i zwraca uwagę na sprytne, niestandardowe triki, PyTorch chwali proces treningowy na kartach GH200, a współpraca z NVIDIA otwiera drzwi do wspólnych wdrożeń. Na tym fundamencie chcemy, aby członkowie naszej społeczności, Polacy budowali kolejne już komercyjne projekty.
Myślicie też o tournée po polskich miastach, żeby przybliżyć mieszkańcom inicjatywę „Obywatel Bielik”?
Tak, mamy już dwa projekty z tournée po polskich miastach, czyli „Obywatel Bielik3” to wyjątkowy projekt obywatelski w skali Europy. Wspólnie tworzymy cyfrową pamięć Polski, w której kultura, historia i tradycja zyskują nowe życie w świecie cyfrowym. Naszym celem jest 1 milion zdjęć i opisów w ciągu kwartału, a wersja beta umożliwia już dodawanie zdjęć online. Mobilna aplikacja jest w drodze! Tu właśnie ważnym elementem jest aktywizacja lokalnych społeczności np. seniorzy, harcerzy, miłośników historii.
Nasz najnowszy projekt to Eskadra Bielika4. Mamy już 49 certyfikowanych trenerów z obszaru Bielik i systemy agentowe, a do połowy grudnia planujemy przeszkolić 2000 deweloperów z całej Polski, którzy będą tworzyć rozwiązania oparte na Bieliku. Co ważne, trenerzy będą tworzyć spotkania, meetupy lokalnie w swoich społecznościach.
Pojawia się obawa, że zagraniczne modele mogą „powielać obce wzorce kulturowe”. Wy mówicie, że „Czas na technopatriotyzm”. Czy Twoim zdaniem w epoce globalnych technologii, współtworzenie AI może stać się taką nową formą dbania o dziedzictwo narodowe?
Tak! Kiedy zapytałem nasz zespół trenujący jakich danych potrzebują, aby tworzyć coraz lepszy model, powiedzieli: danych, jakich nie ma Internecie, których nikt nie widział! Zatem dane zamknięte w archiwach lub naszych domach, a bardziej domach naszych dziadków. No i teraz mamy tą super sytuacje, kiedy zbierając i ewidencjonując nasze dziedzictwo narodowe, możemy tworzyć lepsze modele AI, które będą działać tu i teraz. Np. w Narodowym Archiwum Cyfrowym są zdjęcia przedwojenne, ale także dokumenty w języku niemieckim i rosyjskim oraz zdjęcia lotnicze. Zatem dziedzictwo narodowe a z drugiej strony świetne dane do uczenia młodych adeptów deep techu czy też tworzenia w swoich rozwiązaniach analizę dokumentów w języku niemieckim, czy rosyjskim. Oczywiście te dane trzeba zebrać, czasem ręcznie przeglądać, czy też maszynowo, jednak możemy aktywizować społeczeństwo (również te mniej obyte cyfrowo), budować duże zbiory dziedzictwa narodowego jak i tworzyć fantastyczne modele AI.
Jak można wesprzeć wasze działania?
Myślę, że są dwie drogi, aby nas wesprzeć. Pierwsza to dołączyć do nas i zaangażować się w projekty takie jak Obywatel Bielik. Oczywiście wymaga to czasu, a nie każdy może sobie na to pozwolić.
Druga droga to udzielanie informacji zwrotnej. Jeśli uczycie się sztucznej inteligencji w pracy lub w szkole, jeśli ćwiczycie rozmowy z modelami AI, oprócz GPT, Gemini czy Claude, uruchomcie także Bielika. Zadajcie mu te same pytania (prompty) i nawet jeśli odpowie inaczej lub błędnie (bo to jeszcze mały model), podzielcie się swoją opinią.
Taka informacja zwrotna pomaga nam lepiej zrozumieć, do czego chcecie wykorzystywać modele i jak możemy rozwijać Bielika w odpowiednim kierunku.
Wyróżnikiem Bielika jest fakt, że aż 90% jego danych treningowych to teksty polskie. Czy potrzebujemy w Polsce „uwolnienia” danych biorąc pod uwagę dalszy rozwój modeli?
Tak, zdecydowanie tak! Niestety większość modeli, zarówno polskich, jak i zagranicznych, jest trenowana głównie na danych pochodzących ze stron internetowych. Wraz z wejściem w życie regulacji takich jak AI Act oraz pojawieniem się dedykowanych regulaminów serwisów WWW dotyczących wykorzystania danych przez AI, dostępnych zasobów nie przybywa, lecz ubywa. Rozumiem potrzebę ochrony praw autorskich, ale sytuacja jest trudna; nawet jeśli dziś powstałoby konsorcjum obejmujące wszystkie polskie wydawnictwa, to większość z nich nie ma podpisanych umów z autorami swoich tekstów w kontekście trenowania modeli AI. Dodatkowo mamy ogromne, wciąż niewykorzystane zasoby w postaci danych biznesowych – nie tylko tych z sektora przetwarzania tekstów, ale też takich jak instrukcje obsługi, specyfikacje techniczne czy dokumentacja produktów. Do tego dochodzi obszar archiwów publicznych i edukacji, w tym prace dyplomowe, które mogłyby stanowić cenne źródło wiedzy.
Nie chodzi więc wyłącznie o „uwolnienie” danych, ale o wspólne poszukiwanie nowych modeli współpracy i biznesu. Wydawcy z jednej strony tracą na działalności zagranicznych bigtechów i platform społecznościowych, a z drugiej – wciąż brakuje rozmowy o tym, jak tworzyć zrównoważone, partnerskie modele rozwoju.
A co z ogromnymi zasobami, które leżą w polskich repozytoriach naukowych? Może stworzenie modelu „Bielik Open Science” we współpracy z polskimi badaczami pomogłoby w rozwoju naszej nauki.
Dokładnie tak – staramy się to robić i prowadzimy w tym kierunku rozmowy. Właśnie dlatego współpracujemy z Narodowym Archiwum Cyfrowym, NASK, Cyfronetem i oczywiście w ramach projektu Bielik. Byłoby jednak świetnie, gdyby podobne inicjatywy częściej wychodziły także od instytucji centralnych. Do współpracy zapraszane są również projekty otwarte, takie jak SpeakLeash5 czy Bielik.AI. Dużo się w tej sferze zmienia – i to na lepsze. Dlatego nie chciałbym teraz dramatyzować, bo naprawdę prowadzimy wiele konstruktywnych rozmów i widać, że temat zaczyna nabierać tempa.
Można by rzecz, że model językowy to takie „zwierciadło kultury”. Gdybyśmy spojrzeli w to zwierciadło, to co Bielik pokazuje nam o polskiej kulturze i języku, czego nie zobaczymy w odbiciu z modeli trenowanych głównie na danych anglojęzycznych?
Zacznę od zaskoczenia: choć mówimy o kulturze, Bielik nie jest modelem pełnym poetyckich niuansów czy encyklopedią obyczajów. Ma 11 miliardów parametrów i świadomie wykorzystujemy je tak, aby priorytetem była skuteczność w zadaniach językowych, rozumieniu kontekstu, planowaniu i dialogu, a dopiero potem detale kulturowe. To kompromis konieczny, aby model mógł działać na dostępnych w Polsce zasobach GPU i żeby użytkownicy mogli uruchamiać go również lokalnie.
Ale nawet w takim kompaktowym modelu polskość przebija się naturalnie i to w miejscach, których nie zobaczymy w modelach trenowanych głównie na angielskich danych. To przede wszystkim:
idiomy i powiedzenia,
nasza specyficzna ironia, sarkazm i humor,
detale językowe, jak naturalny sposób pisania tytułów i śródtytułów.
Model odróżnia też rzeczy, które dla polskiego odbiorcy są oczywiste, a dla globalnych systemów – trudne do uchwycenia. Przykład? Subtelna różnica między żurkiem, a barszczem białym. Albo rozpoznawanie potraw i produktów regionalnych, które w Polsce są częścią codzienności, a w anglosaskich zbiorach danych praktycznie nie istnieją.
Oczywiście nie da się w takim kompaktowym modelu zmieścić całego bogactwa lokalnych dialektów, gwar czy zwyczajów. To wymagałoby większych architektur albo precyzyjnego dostrajania pod konkretne regiony czy zastosowania.
Stąd właśnie projekty takie jak Obywatel Bielik – budowanie oddolnego, wysokiej jakości zbioru danych opisujących polskie realia, zdjęcia, tradycje i historię. Uzupełniamy to narzędziami badawczymi, np. benchmarkiem Polish Cultural Vision Benchmark6, który sprawdza, jak różne modele radzą sobie z elementami polskiej kultury. To pozwala nam nie tylko analizować, ale też systematycznie poprawiać jakość rozumienia kulturowego w Bieliku.
Czym była podyktowana decyzja o oparciu modelu na chińskim Qwen zamiast na europejskim Mistralu? Jak dużo jest tam waszych autorskich modyfikacji w stosunku do modelu bazowego?
Warto to od razu doprecyzować – nie porzuciliśmy inicjacji wagami Mistrala. Wręcz przeciwnie, w wersji 11B nadal korzystamy z tych wag.
Równolegle chcieliśmy jednak stworzyć coś zupełnie innego: Bieliki ultralekkie, czyli 1.5B oraz 4.5B – przeznaczone do zwinnych zastosowań, agentów, edge computingu i eksperymentów z dostrajaniem. I tu okazało się, że najlepszy punkt startowy, jeśli chodzi o inicjalizację wag, zaoferował Qwen. Po prostu w tej klasie rozmiarów radził sobie najlepiej, szczególnie w kontekście dalszego dostrajania i adaptacji językowych.
To nie jest więc „zmiana frontu”, ale dobór narzędzia do zadania. Duży model – Mistral. Małe modele – Qwen. Proste.
Jeśli chodzi o modyfikacje, to trochę ich było, ale dla mnie najbardziej kluczowa to wymiana tokenizera na polski. Wymiana tokenizera miała na celu zoptymalizowanie wydajności (szybkości generowania) modelu dla języka polskiego. Resztę szczegółów zespół opisał w raporcie technicznym7 – zachęcam do lektury, bo zespół trenujący wykonał świetną, transparentną robotę i pokazał krok po kroku wszystkie decyzje i wyniki.
Porozmawiajmy o praktycznym wpływie Bielika. W jakich obszarach – edukacji, biznesie czy administracji – upatrujesz największy potencjał transformacyjny i czy ta wizja już się materializuje w postaci konkretnych wdrożeń? Jakie organizacje już wykorzystują Bielika w praktyce?
Modele kompaktowe, takie jak Bielik 11B, idealnie wpisują się w potrzeby sektorów, gdzie występują trzy kluczowe elementy: wrażliwe dane, duże wolumeny informacji i konieczność pełnej obsługi języka polskiego. Dlatego naturalnym środowiskiem dla Bielika są dziś przede wszystkim organizacje regulowane – banki, instytucje finansowe czy ubezpieczyciele. To tam widać największy potencjał transformacyjny, bo tradycyjne narzędzia nie radzą sobie z taką skalą ani z wymogami bezpieczeństwa.
Równolegle pojawia się coraz więcej zadań, w których nie opłaca się korzystać z zamkniętych, dużych modeli ze względu na koszty. Mówimy o milionach maili, setkach tysięcy logów systemowych czy ogromnych feedach produktowych w e-commerce. To obszary, gdzie Bielik realnie zmienia sposób pracy: automatyzuje, porządkuje i strukturyzuje dane, a koszt działania pozostaje sensowny.
Ciekawym przykładem są też zastosowania hybrydowe. Bielik generuje uporządkowane, wysokiej jakości, dane np. pod grafy wiedzy, a następnie inne techniki AI wykorzystują je do predykcji połączeń, wnioskowania czy zaawansowanej wizualizacji. Takie pipeline-y zaczynają działać w wielu firmach i widać, że organizacje traktują Bielika jako element szerszej architektury, nie tylko narzędzie dialogowe.
To pokazuje, że ta transformacja już się materializuje. Mamy wdrożenia, mamy realne use cases i mamy partnerów, którzy po pilotażach skalują rozwiązania. W wielu miejscach Bielik staje się pierwszym wyborem właśnie dlatego, że działa lokalnie, jest szybki, bezpieczny i świetnie rozumie polski kontekst.
W jednym wywiadzie użyłeś obrazowego porównania AI do samochodów – nie zawsze potrzebujemy limuzyny, czasem wystarczy „zwinna furgonetka do zadań specjalnych”. Przenosząc tę metaforę na polską gospodarkę: jakie „furgonetki”, czyli wyspecjalizowane modele branżowe, powinniśmy budować w pierwszej kolejności? Czy są to właśnie takie projekty jak ,,Gaius-Lex” dla prawa i „Eskulap” dla medycyny? A może dedykowane modele niszowe do zainstalowania w dronie?
Tak, dokładnie o to chodzi. Są dwa kierunki, w których ta „flota furgonetek” powinna rosnąć. Po pierwsze – startupy, które dzięki dostrajaniu Bielika mogą budować bardzo wyrazistą przewagę w swojej branży. Przykłady takie jak Gaius-Lex czy Eskulap pokazują, że specjalizacja naprawdę działa: wystarczy dobrze dobrany zestaw danych i odpowiednie finetuning, żeby model stał się ekspertem w wąskim obszarze. I to jest niezwykle cenne, bo pozwala tworzyć rozwiązania szybsze, tańsze i bezpieczniejsze niż ogólne modele w chmurze.
Drugi kierunek to małe, skwantyfikowane wersje Bielika, które coraz częściej trafiają na urządzenia mobilne. Widzimy, że deweloperzy eksperymentują z lokalnym uruchamianiem modeli na smartfonach czy laptopach – i to otwiera zupełnie nową przestrzeń innowacji. Lokalne działanie oznacza niski koszt, brak zależności od internetu i pełną kontrolę nad danymi. To idealne środowisko do budowania szeregu branżowych minimodeli – od aplikacji terenowych po systemy wspierające pracę w zakładach produkcyjnych.
A jeśli chodzi o modele na dronach – to trochę inny obszar, ale równie istotny. Tam potrzeba bardzo wyspecjalizowanych, ultralekkich modeli, które działają w czasie rzeczywistym i potrafią przetwarzać sensoryczne dane. Wierzę, że powinniśmy rozwijać kompetencje także w tym kierunku, bo edge-computing to przyszłość. I właśnie dlatego budujemy Eskadrę Bielika – mamy już około 50 certyfikowanych trenerów, a do końca roku chcemy przeszkolić tysiące deweloperów w całej Polsce. To oni będą tworzyć te „furgonetki”, wyspecjalizowane modele do zadań, o których dziś jeszcze nawet nie myślimy.
To dopiero początek, ale kluczowy – bo zanim zbudujemy setki modeli specjalizowanych, musimy najpierw zbudować kompetencje. I to właśnie robimy.
Często powtarzasz, że chcecie „iść drogą Linuxa”. To rodzi kluczowe pytanie o model biznesowy. Sam Linux jest darmowy, ale firmy takie jak Red Hat zbudowały na nim globalne biznesy, sprzedając wsparcie i usługi. Czy tak właśnie wyobrażacie sobie przyszłość finansową waszej działalności, i w której jedna z powiązanych organizacji będzie pełnić rolę takiego „polskiego Red Hata”, oferując firmom płatne wdrożenia, wsparcie techniczne i specjalizowane wersje modelu?
Dokładnie tak – inspiruje nas nie tylko sam Linux, ale cały ekosystem, który wokół niego powstał. Warto pamiętać, że Linux ma swojego opiekuna w postaci Linux Foundation. Ta fundacja nie zarabia na licencjach, ale na sponsorach i partnerach – i co ciekawe, sponsorami są często firmy, które konkurują ze sobą na rynku. To pokazuje, że wspólne utrzymanie otwartego, strategicznego zasobu po prostu wszystkim się opłaca.
My myślimy o Bieliku i powiązanych projektach w podobny sposób. Fundacja SpeakLeash ma rozwijać to, co jest fundamentem: sam model, benchmarki, frameworki treningowe, zestawy danych – czyli wszystko, co służy całej społeczności. I tak jak Linux Foundation, chcemy, aby działała dzięki wsparciu sponsorów, a nie poprzez zamykanie technologii.
A jeśli ktoś na bazie Bielika zbuduje świetny produkt branżowy – medyczny, prawny, przemysłowy czy jakikolwiek inny – to fantastycznie. Niech działa komercyjnie, skaluje się globalnie i zarabia. To jest właśnie idea otwartego ekosystemu: fundacja dba o fundamenty, a rynek buduje rozwiązania i innowacje.
Jeśli któryś z takich projektów stanie się polskim jednorożcem, wierzymy, że wróci do wspierania ekosystemu – choćby w formie sponsoringu. Karma w technologii działa zaskakująco skutecznie.
Utrzymujecie się z datków społeczności, szukacie też sponsorów, ale na waszych warunkach. Czy nie dziwi Cię fakt jak polscy miliarderzy i największe polskie firmy wydają się stać z boku rewolucji AI? Z czego Twoim zdaniem wynika ta bierność?
Nie powiedziałbym, że polscy miliarderzy czy duże firmy stoją z boku. To trochę złudzenie wynikające z tempa, jakie narzuca dziś świat AI. Pamiętajmy, że większość dużych biznesów w Polsce działa w sektorach regulowanych – finansach, energetyce, telekomunikacji, logistyce. Tam każda innowacja musi przejść proces absorpcji: analizy ryzyka, zgodności z regulacjami, oceny wpływu na wizerunek i bezpieczeństwo. To nie jest bierność, tylko kontrolowany, odpowiedzialny ruch.
Z perspektywy Bielika i mojej pracy w Deviniti widzę coś zupełnie innego: zainteresowanie rośnie, rozmowy są coraz bardziej konkretne i zaczyna się etap świadomych wdrożeń. Wiele firm już eksperymentuje, ale nie robi tego jeszcze głośno, bo po prostu nie chcą „wpadek” ani wizerunkowych, ani prawnych. To naturalny etap dojrzewania rynku.
I tak jak w wielu innych krajach – najpierw działają startupy i społeczność open source, później budują się kompetencje, a dopiero na końcu przychodzą najwięksi gracze z dużymi budżetami. Ta fala już ruszyła i myślę, że w kolejnych miesiącach zobaczymy znacznie więcej konkretnych inwestycji i partnerstw. Rynek nie śpi – po prostu działa bardziej ostrożnie, niż byśmy tego chcieli.
Przed wami bardzo ambitny projekt „Der Bielik”. Skąd decyzja, by to właśnie rynek niemieckojęzyczny był pierwszym kierunkiem waszej zagranicznej ekspansji?
Pomysł na „Der Bielik” pojawił się właściwie spontanicznie. Zgłosiliśmy Bielika do kilku zagranicznych testów i nagle okazało się, że w niektórych językach radzi sobie zaskakująco dobrze – czasem nawet lepiej niż modele tworzone natywnie dla danego rynku. Jednym z takich języków był niemiecki. To było dla nas sygnałem, że warto spróbować wejścia w obszar DACH, bo już na starcie mamy tam pewną przewagę jakościową.
Drugi powód jest bardziej strategiczny. Od dawna bardzo podoba mi się koncepcja Aleph Alpha (teraz trochę kontrowersyjna i mało ruchliwa) – to przykład firmy, która rozwija się w duchu europejskiej suwerenności technologicznej. Zawsze miałem w sobie trochę pozytywnej zazdrości wobec ich skali i odwagi. Chciałbym, żeby w Polsce też powstał podmiot o podobnym rozmachu, łączący badania, komercjalizację i lokalne kompetencje. „Der Bielik” jest dla mnie symbolicznym krokiem w tym kierunku: pokazujemy, że możemy rywalizować jak równy z równym i że nie musimy ograniczać się tylko do rynku polskiego.
A patrząc do przodu – wersja 3.0 idzie jeszcze dalej. Nie tylko modele specjalizowane dla konkretnych języków, ale także podejście bardziej wielojęzyczne, obejmujące również mniejsze i „egzotyczne” języki europejskie, takie jak albański. To duże wyzwanie, ale też ogromna szansa. Więc tak – przygotujcie się, bo dopiero zaczynamy. Stay tuned!
Kluczową rolę w realizacji waszego projektu odegrał Cyfronet AGH i dyrektor Marek Magryś. Jak ważne jest, aby Polska jako państwo inwestowała w publiczne superkomputery, by takie innowacje jak wasza w ogóle mogły powstawać? Jak duże są potrzeby GPU?
Jeśli spojrzymy tylko na dzisiejsze modele tekstowe – te kompaktowe, w stylu Bielika czy PLlum – to tak, obecne zasoby GPU w Polsce są wystarczające. Ale to jest jedynie pierwszy etap tej rewolucji. Już teraz przygotowujemy Bielika do multimodalności, co oznacza analizę obrazów, a w kolejnych krokach również dźwięku czy wideo. To zupełnie inne potrzeby obliczeniowe.
Do tego dochodzi nasza wizja modeli niszowych. Wyobraźmy sobie, że firmy zaczynają trenować własne multimodalne modele specjalizowane pod branżę fashion, medycynę, przemysł czy logistykę. Nagle nie mówimy już o dwóch podmiotach trenujących modele, tylko o setkach. I każdy z nich potrzebuje zasobów obliczeniowych – stabilnych, dostępnych i skalowalnych.
Dlatego moim zdaniem Polska powinna inwestować w publiczne superkomputery, bo to infrastruktura krytyczna. Tak samo jak drogi, jak energetyka czy łączność. Bez niej nie da się zbudować lokalnego ekosystemu AI, ani dla nauki, ani dla biznesu.
W tym kontekście rola Cyfronetu AGH i dyrektora Marka Magrysia jest absolutnie kluczowa. To jest zespół światowej klasy specjalistów, którzy nie tylko rozumieją LLM-y, ale realnie wspierają ich rozwój. Dlatego tak cieszę się z powstania Gaia AI Factory – to dokładnie taki „silnik infrastrukturalny”, jakiego potrzebujemy.
Jeżeli chcemy, by Polacy tworzyli innowacje, a nie tylko je konsumowali, musimy mieć własne fabryki AI. I Cyfronet, PCSS pokazuje, że to jest możliwe. Trzymać ten kurs!
Wspomniałeś w jednym wywiadzie, że było zainteresowanie waszymi ludźmi ze strony pewnej bardzo wpływowej ambasady, która oferowała możliwości realizacji doktoratu w tym kraju. Jak w polskich warunkach zatrzymać największe talenty AI, żeby nie zostały podkupione przez zagranicznych gigantów?
Tak, takie sytuacje się zdarzają i nie ma co się dziwić – polscy specjaliści AI są bardzo cenieni, a globalne instytucje mają w tym obszarze ogromne budżety i potrafią je wykorzystać. Jeśli chcemy zatrzymać talenty w Polsce, musimy działać na dwóch poziomach.
Po pierwsze – finansowym. Profesor Sankowski8 od lat podkreśla, że doktoranci i młodzi naukowcy powinni zarabiać na poziomie konkurencyjnym wobec biznesu, a najlepiej zbliżonym do menedżerskiego. Inaczej nie ma szans stworzyć stabilnego środowiska dla badań. To nie jest luksus, to warunek konieczny. Jeśli ktoś ma wybór między doktoratem za 4-5 tys. zł a ofertą z zagranicy, gdzie na start dostaje kilkukrotność (albo i 10x) tej kwoty i dostęp do najnowszej infrastruktury, to decyzja jest oczywista.
Po drugie – mentalnym. Musimy tworzyć projekty, które są ambitne, ryzykowne, czasem wręcz „niemożliwe”. Talenty nie uciekają tylko dla pieniędzy – uciekają tam, gdzie czują, że mogą zmieniać świat. Gdzie mogą pracować nad czymś przełomowym, a nie tylko nad implementacją rozwiązań z zewnątrz.
Dlatego potrzebujemy połączenia trzech sił: nauki, biznesu i open source. Każda z nich jest ważna, ale dopiero razem tworzą przestrzeń, w której młody badacz może zarówno zarabiać, jak i odkrywać, eksperymentować i budować coś własnego. I właśnie takie środowisko staramy się tworzyć wokół Bielika – otwarte, odważne i ambitne.
Jeśli chcemy zatrzymać najlepszych, musimy im dać powód, by zostali. I myślę, że coraz częściej udaje nam się ten powód stworzyć.
Profesor Janusz Filipiak opisał historię sukcesu firmy Comarch w książce zatytułowanej „Dlaczego się udało?”. Gdybyś miał odpowiedzieć na to samo pytanie w kontekście Bielika – Dlaczego wam się udało i kto stoi za tym sukcesem?
Jeśli miałbym odpowiedzieć na pytanie „Dlaczego nam się udało?”, to wskazałbym kilka elementów, które od początku były fundamentem SpeakLeash i Bielika.
Po pierwsze – sposób działania. Mimo że projekt jest open source i oparty na wolontariacie, od samego startu pracowaliśmy jak w biznesie. Stawialiśmy na szybkie iteracje, odważne pomysły, growth hacking, ciągłe testowanie hipotez i pełną gotowość do zmiany planów albo nawet „ubijania” projektów, które nie rokowały. To podejście startupowe, ale zastosowane w środowisku open source – i okazało się niezwykle skuteczne.
Po drugie – bardzo świadomie budowaliśmy narrację i kulturę organizacji. Kiedy zakładaliśmy SpeakLeash, pierwszym krokiem było przygotowanie pitcha, który… nie miał przyciągać inwestorów. Miał przyciągać ludzi. Pokazywaliśmy ambitne plany, konkretne wskaźniki, wizję, która motywowała do działania. I to działało. Kontrybutorzy dołączali, bo czuli, że wchodzą w projekt, który stawia wysoko poprzeczkę i realnie zmienia rzeczywistość.
Po trzecie – inspirowaliśmy się najlepszymi. Wzorowaliśmy się na Linux Foundation, na filozofiach open source, na koncepcji „katedra vs bazar”. Od początku wiedzieliśmy, że kluczem jest otwartość, transparentność i tworzenie wspólnej infrastruktury dla innych. Nie baliśmy się myśleć globalnie, nawet jeśli zaczynaliśmy lokalnie.
I wreszcie – ludzie. To nasz największy sukces. Dzięki temu podejściu przyciągamy fantastyczne osoby: inżynierów, badaczy, wolontariuszy, twórców, praktyków. Ludzi, którzy chcą robić coś, co ma sens, i którzy potrafią wnieść do projektu swoje kompetencje i energię. To nigdy nie jest zasługa jednej osoby – to efekt zespołu, społeczności i wspólnej wizji.
Dlatego nam się udało. Bo łączymy odwagę, strukturę i kulturę, która przyciąga talenty. I chcemy tę drogę kontynuować.
Na koniec, czego wam życzyć i jakie są wasze plany na najbliższe miesiące, o których możesz już dziś opowiedzieć? Do Bielika ma też dołączyć Sójka. Planujecie też wydarzenie, które ma się odbyć 27 listopada w Warszawie.
W najbliższych miesiącach najważniejszym punktem jest dla nas Bielik Summit9. Z małej, planowanej początkowo jako kameralne wydarzenie społecznościowe, konferencji zrobiło się duże, pełnoprawne wydarzenie biznesowo-technologiczne. Mamy fantastycznych gości, świetne firmy partnerskie, a bilety wyprzedały się miesiąc przed startem. To ogromny sukces, ale też… nie ukrywam, trochę stresu. Chcemy, żeby wszystko wyszło perfekcyjnie.
Dlaczego ta pierwsza edycja jest dla nas tak ważna? Bo traktujemy ją jako fundament pod coś znacznie większego. W czerwcu 2026 planujemy drugą edycję, którą chcemy przekształcić w największe wydarzenie tego typu w Europie – z rozmachem, skalą i ambicją, która pokaże, że Polska może być miejscem, gdzie mówi się o AI na najwyższym poziomie.
Czego nam życzyć? Chyba przede wszystkim odwagi i konsekwencji. Bo plany mamy ambitne, a tempo – naprawdę wysokie. Jeśli uda nam się utrzymać ten rytm i nadal przyciągać tak fantastycznych ludzi, jak do tej pory, to jestem spokojny o przyszłość. A reszta? To już tylko kwestia ciężkiej pracy i dobrej energii.
***
Sebastian Kondracki – inżynier, przedsiębiorca i wizjoner polskiego AI. Współzałożyciel Fundacji SpeakLeash, gdzie narodził się Bielik – pierwszy polski otwarty model językowy. Zawodowo związany z Deviniti, gdzie wdraża AI w sektorze finansowym i regulowanym. Wierzy w technopatriotyzm, open source i w to, że Polska może budować globalne marki technologiczne.
Profile:





Podoba mi się ten "obywatel bielik". Trzeba by dodać jakiś element gamifikacji miast. Małe regiony lubią takie rzeczy. Mówisz w Zabrzu że w Chorzowie idzie lepiej budowanie bazy dla bielika ;)