Naukowiec, który nie śpi
Twoje dziecko za dziesięć lat wejdzie na rynek pracy, którego kształtu jeszcze nie znamy. Ale już dziś wiemy jedno: narzędzia, które będzie wtedy używać, w większości jeszcze nie istnieją. Część z nich powstaje właśnie teraz — i warto wiedzieć, dokąd zmierzamy.
W marcu 2026 roku na łamach Nature opisano eksperyment, który trudno zbagatelizować. W ciągu zaledwie kilku godzin pewien naukowiec wpadł na pomysł badawczy, sprawdził, czy ktoś już go nie miał, napisał i uruchomił kod eksperymentu, przeanalizował wyniki, sporządził wykresy i złożył kompletną pracę naukową. Rano wysłał ją na międzynarodową konferencję. Recenzenci przeczytali ją uważnie i przyznali oceny: 6, 7, 6, przy progu akceptacji na poziomie 5,7.
Praca przeszła. Nikt z recenzentów nie wiedział, że jej autorem nie jest człowiek.
Było to pierwsze udokumentowane przejście w pełni autonomicznego systemu przez naukową recenzję.
Dlaczego nauka wciąż potrzebuje człowieka
Żeby zrozumieć, czemu ten eksperyment jest tak przełomowy, warto najpierw zadać sobie pozornie proste pytanie: czym właściwie jest praca naukowa?
Wbrew temu, co sugerują filmy, naukowiec nie spędza życia na jednym genialnym olśnieniu. Praca badawcza to sekwencja bardzo konkretnych, następujących po sobie etapów: pomysł, weryfikacja literatury, projekt eksperymentu, zebranie danych, analiza wyników, napisanie artykułu, recenzja. Jeśli którykolwiek etap szwankuje — całość się sypie.
Dotychczasowa sztuczna inteligencja radziła sobie znakomicie jako narzędzie do konkretnych zadań w obrębie tego łańcucha etapów. Między kolejnymi etapami zawsze stał człowiek — jako ten, kto ocenia, łączy i decyduje o kierunku. AI było coraz sprawniejszym asystentem, ale nigdy samodzielnym badaczem.
Oprogramowanie The AI Scientist to próba zmiany tego układu. Nie kolejne narzędzie do jednego zadania, lecz system, który samodzielnie przeprowadza cały cykl badawczy — od pierwszego pomysłu do gotowego, nadającego się do publikacji artykułu — bez żadnej ludzkiej interwencji.
Jak to działa?
The AI Scientist działa w obszarze uczenia maszynowego — dziedziny, gdzie laboratorium to komputer, a eksperymenty to uruchamianie kodu. To ważne zastrzeżenie: system nie pipetuje odczynników ani nie obserwuje galaktyk przez teleskop. Ale w swojej dziedzinie przechodzi przez cały cykl badawczy samodzielnie, krok po kroku.
Krok pierwszy: pomysł, który musi zasłużyć na swoje miejsce
System zaczyna od generowania hipotez badawczych — dostaje ogólny temat i produkuje dziesiątki propozycji kierunków. Ale zanim którakolwiek trafi do realizacji, konfrontuje ją z istniejącą literaturą, przeszukując bazy zawierające miliony artykułów. Propozycje zbyt podobne do tego, co już opublikowano, są odrzucane. Zostają tylko te wystarczająco oryginalne.
Młody doktorant spędza miesiące na przeglądaniu literatury, żeby upewnić się, że jego pomysł jest nowy. System robi to w ciągu minut — i robi to przed każdym pojedynczym pomysłem.
Krok drugi: eksperymenty, które się same naprawiają
Po wybraniu obiecującego kierunku system pisze kod, uruchamia go i radzi sobie z błędami bez ludzkiej interwencji. Gdy program się zepsuje, odczytuje komunikat błędu i sam generuje poprawkę.
Głębsza innowacja jest jednak inna: zamiast testować jedną ścieżkę eksperymentalną, system bada równolegle wiele wariantów i kontynuuje tylko te najbardziej obiecujące. To strategia, którą doświadczony badacz wypracowuje przez lata. Tu jest wbudowana od początku.
Krok trzeci: praca badawcza pisana bez pośpiechu i bez prokrastynacji
Gdy eksperymenty dobiegają końca, system wypełnia szablon pracy sekcja po sekcji: wprowadzenie, metodologia, wyniki, wnioski. Sam generuje wykresy, sam dobiera cytowania. Całość trwa od kilku do kilkunastu godzin.
Krok czwarty — i tu robi się naprawdę nieswojo
Ostatnim etapem jest automatyczna recenzja własnej pracy. Twórcy zbudowali osobny moduł oceniający artykuły według kryteriów prawdziwej konferencji naukowej — nie jedną recenzję, lecz pięć niezależnych, agregowanych przez model pełniący rolę przewodniczącego komitetu.
Gdy zestawili jego oceny z rzeczywistymi decyzjami ludzkich recenzentów, wynik był trudny do zbagatelizowania: zautomatyzowany recenzent osiągnął dokładność 69%. Ludzki recenzent — 66%.
System nie tylko pisze prace badawcze. Ocenia je dokładniej niż przeciętny człowiek.
Nauka bez wąskich gardeł
Najbardziej konkretna obietnica tego systemu nie dotyczy zastępowania naukowców. Dotyczy skali.
Dziś tempo odkryć naukowych ogranicza liczba wykwalifikowanych badaczy, czas potrzebny na eksperymenty i długość cyklu publikacyjnego. W wielu dziedzinach — medycynie, klimatologii, biologii — istnieją pytania, na które odpowiedź jest technicznie w zasięgu, ale brakuje rąk do ich zbadania. System taki jak The AI Scientist mógłby działać równolegle na setkach hipotez jednocześnie, przez całą dobę. Twórcy wskazują na automatyczne laboratoria chemiczne jako naturalny następny krok — miejsca, gdzie roboty fizycznie przeprowadzają eksperymenty, a AI projektuje je i interpretuje wyniki.
Co zostaje dla człowieka
Tu warto być precyzyjnym, bo łatwo wpaść w dwa fałszywe skrajności — alarmizm lub nadmierny spokój.
Automatyzacja żmudnych etapów — weryfikacji literatury, pisania kodu, formatowania, generowania wykresów — nie sprawi, że nauka stanie się domeną maszyn. Sprawi, że badaczom zostanie to, co najtrudniej oddelegować: wybór pytań wartych zadania i interpretacja tego, co odpowiedź znaczy poza laboratorium.
Żaden system nie zapyta sam z siebie, czy warto badać daną chorobę, bo dotyka głównie biednych krajów. Żaden algorytm nie zdecyduje, że pewien wynik jest zbyt niebezpieczny, żeby go publikować bez szerszej debaty. To są decyzje zakorzenione w wartościach — i na razie wartości pozostają domeną ludzi. Pytanie, jak długo "na razie" będzie trwało, jest może najważniejszym pytaniem naukowym naszych czasów.
Ryzyko, którego nie wolno zbagatelizować
Autorzy pracy w Nature sami piszą o zagrożeniach bez owijania w bawełnę. Jeśli system może generować dziesiątki artykułów dziennie, recenzja naukowa — już dziś przeciążona — może się załamać pod ciężarem taniego contentu. Jeśli granica między pracą ludzką a maszynową stanie się niewidoczna, zaufanie do literatury naukowej może zostać podważone.
Dlatego praca złożona na omawianej konferencji została wycofana po recenzji, zgodnie z protokołem ustalonym z góry. Dlatego eksperyment wymagał zgody komisji etycznej i pełnej współpracy organizatorów konferencji. Twórcy nie twierdzą, że mają gotowe odpowiedzi — wzywają społeczność naukową do wypracowania standardów, zanim technologia wyprzedzi zasady.
Zamiast zakończenia
Wróćmy do pytania z początku — o Twoje dziecko i rynek pracy, który dopiero powstaje.
To, co opisuje ten eksperyment, nie jest odległą przyszłością. To już dzieje się w laboratoriach, firmach i szkołach wyższych na całym świecie. Systemy AI przejmują kolejne etapy pracy — i we wszystkich tych miejscach zostaje ta sama reszta: pytania o wartości, o sens, o to, co warto robić i dlaczego.
Żeby umieć zadawać takie pytania — i żeby umieć rozmawiać z narzędziami, które odpowiadają — potrzeba konkretnych umiejętności. Nie znajomości jednego języka programowania ani obsługi jednej aplikacji. Potrzeba umiejętności myślenia: stawiania hipotez, oceniania wyników, rozumienia jak działa system, z którym się pracuje.
W Aivoli dzieci uczą się rozwiązywać problemy, do których nie ma jednej poprawnej odpowiedzi. Budują projekty, analizują błędy, pracują z AI — nie jako z magiczną skrzynką, ale jako z narzędziem, które rozumieją. Właśnie dlatego, że świat, który opisuje ten artykuł, jest światem, w którym będą żyć.
Dyrektor szkoły Aivola