Przewiń do treści

Studia w erze AGI. Co znaczy edukacja, gdy „intelekt” staje się tani

2026-02-17

W dyskusjach o studiach w IT często zakłada się milcząco, że wykształcenie to „paliwo” do zdobycia konkretnych umiejętności: programowania, projektowania systemów, analizy danych. W erze narzędzi generatywnych to założenie już pęka. W erze AGI – rozumianej praktycznie jako systemy zdolne wykonywać większość zadań umysłowych na poziomie człowieka lub lepiej – pęknie do końca.

I nie, nie uratuje cię ucieczka w zawody „kreatywne” albo „oparte o empatię”. Jeśli przyjmujemy scenariusz AGI na serio, to przyjmujemy też, że te kompetencje staną się automatyzowalne, często w sposób bardziej przewidywalny, skalowalny i – w oczach wielu firm – po prostu tańszy. Wtedy pytanie „co studiować, żeby mieć pracę” staje się mniej istotne niż pytanie „gdzie powstanie przewaga konkurencyjna i jakie będą nowe fosy – prawne, kapitałowe, regulacyjne”.

To jest tekst o tej twardej stronie: o strukturze bodźców, barierach wejścia, regulacji, odpowiedzialności i tym, jak zmienia się rynek pracy IT, gdy koszt wytwarzania kodu i analiz spada.


1) Co już wiemy z obecnej fali AI (zanim przyjdzie AGI)

Zanim w ogóle dotkniesz słowa „AGI”, warto spojrzeć na dane i wyniki badań o generatywnej AI w pracy.

Po pierwsze: AI nie musi „zabrać zawodu”, żeby zdewastować ścieżkę kariery. Wystarczy, że przejmie najbardziej czasochłonne elementy pracy i spłaszczy krzywą uczenia. W badaniach terenowych nad asystentami konwersacyjnymi w pracy (duże środowisko call center) wzrost produktywności był realny, ale rozkładał się nierównomiernie – częściej pomagał słabszym i początkującym, co skraca czas dochodzenia do „przyzwoitego poziomu”.

Po drugie: w programowaniu widzimy podobny wzór. Eksperymenty kontrolowane i badania z realnych wdrożeń pokazują, że narzędzia w stylu GitHub Copilot potrafią znacząco przyspieszać wykonanie zadań – szczególnie w pracach „typowych”, o jasnym celu i umiarkowanej złożoności.

Po trzecie: instytucje takie jak OECD konsekwentnie opisują wpływ AI raczej jako zmianę struktury zadań i jakości pracy niż prostą historię o „masowym znikaniu zawodów” – z ważnym zastrzeżeniem: płace i bezpieczeństwo pracy rosną tam, gdzie kompetencje uzupełniają AI, a spadają tam, gdzie człowiek jest spychany do resztek procesu po automatyzacji.

Po czwarte: World Economic Forum w raporcie o rynku pracy na lata 2025–2030 podkreśla, że pracodawcy przewidują silny wpływ AI i przetwarzania informacji na transformację zadań oraz kompetencji. Równolegle, „role technologiczne” nadal są w prognozach wśród najszybciej rosnących – ale to nie obietnica stabilności; to sygnał, że praca się przesuwa, a nie że pozostaje taka sama.

Wniosek praktyczny: nawet bez AGI widać mechanizm „kompresji”: mniej czasu potrzeba, by wykonywać standardową pracę, więc rośnie presja na stawki za tę część pracy, a rośnie znaczenie tego, co jest trudno standaryzowalne lub co ma wysokie koszty błędu.


2) Ekonomia kariery w świecie, gdzie „wytwarzanie intelektu” tanieje

Rynek pracy w IT (i szerzej: pracy umysłowej) można rozumieć jako rynek usług rozwiązywania problemów. Jeśli pojawia się technologia, która radykalnie obniża krańcowy koszt rozwiązywania dużej klasy problemów, to dzieją się trzy rzeczy naraz:

  1. Spada wartość samego wykonawstwa (implementacji, wytwarzania tekstu, kodu, analiz), bo rośnie podaż „rozwiązań”.
  2. Rośnie znaczenie tego, co jest komplementarne do AI: definicji problemu, integracji z rzeczywistością, odpowiedzialności, testów, wdrożeń, ryzyka, zgodności prawnej, dystrybucji.
  3. Przewagi konkurencyjne przesuwają się w stronę barier wejścia, które nie są „czystą inteligencją”.

W erze AGI te tendencje nie znikają. One się zaostrzają. Jeśli AI potrafi i kodować, i pisać, i projektować, i „rozumieć człowieka”, to przewaga człowieka jako „procesora” przestaje być centralna. Zostają inne rzadkości:

  • Prawo i pozwolenia (kto może coś legalnie wdrożyć, na jakich warunkach, z jaką odpowiedzialnością).
  • Odpowiedzialność i ryzyko (kto „podpisuje się” pod decyzją i ponosi konsekwencje).
  • Zaufanie instytucjonalne (audyt, certyfikacje, kontrola łańcucha dostaw).
  • Dostęp do danych i praw do danych (nie „umiejętność analizy”, tylko legalny i trwały dostęp).
  • Kapitał (infrastruktura, compute, zdolność finansowania zgodności i sprzedaży).
  • Dystrybucja (kanały sprzedaży, relacje z klientem, wejście do ekosystemów).

To jest rama, w której sens studiów trzeba przeliczać jak inwestycję: koszt alternatywny, stopa zwrotu, ryzyko regulacyjne i rynkowe.


3) „Fosa prawna” w IT. Regulacje jako bariera wejścia i źródło popytu

W języku strategii biznesowej „fosa” to bariera, która chroni marże. W IT przez lata fosą bywały: trudność techniczna, skala zespołu, własny stack, integracje. W świecie AGI – gdy techniczna trudność maleje – rośnie rola fosy prawnej i compliance.

3.1. EU AI Act: koszt zgodności jako filtr rynku

Unijne rozporządzenie o AI (Regulation (EU) 2024/1689) wprowadza podejście oparte o ryzyko i – dla systemów wysokiego ryzyka – zestaw obowiązków organizacyjnych, dokumentacyjnych i procesowych. Tekst aktu jest w EUR-Lex, a streszczenia obowiązków publikują także oficjalne serwisy Komisji.

Dla dostawców systemów wysokiego ryzyka przewidziane są m.in. obowiązki posiadania systemu zarządzania jakością, prowadzenia dokumentacji technicznej, logów, oceny zgodności przed wprowadzeniem na rynek oraz oznakowania CE i deklaracji zgodności UE.

Dlaczego to jest ważne dla rynku pracy IT?

Bo w praktyce oznacza to, że „zrobienie działającego modelu” lub „zbudowanie aplikacji” to tylko fragment. Prawdziwym kosztem staje się:

  • udowodnienie zgodności,
  • utrzymanie procesu,
  • audytowalność,
  • zarządzanie zmianą,
  • odpowiedzialność za działanie w czasie.

W świecie, gdzie generowanie kodu jest tanie, to właśnie te elementy zaczynają decydować, kto w ogóle może grać w daną grę.

3.2. NIS2 Directive: cyberbezpieczeństwo jako obowiązek i rynek

Dyrektywa NIS2 (Directive (EU) 2022/2555) ustala bazę wymagań dotyczących środków zarządzania ryzykiem cybernetycznym i raportowania incydentów dla podmiotów kluczowych i ważnych w wielu sektorach.

W Polsce wdrożenie NIS2 ma swoją dynamikę legislacyjną, ale istotny jest sam fakt: presja regulacyjna rośnie, a wraz z nią rośnie popyt na role „nie-programistyczne”, ale nadal techniczne: bezpieczeństwo, ryzyko, audyt, procedury, architektura pod wymagania.

To jest klasyczna fosa: firmy płacą nie za „sprytne rozwiązanie”, tylko za minimalizację ryzyka prawnego i operacyjnego.

3.3. Regulacje sektorowe: medtech, automotive, lotnictwo

Jeśli szukasz twardej bariery wejścia, sektor regulowany jest często lepszym wyborem niż „czyste IT”. W oprogramowaniu medycznym standardy cyklu życia i rygor dokumentacji (np. IEC 62304) są narzędziem dowodzenia należytej staranności i jakości procesu.

Nawet jeśli AI wytworzy kod, nadal trzeba „udowodnić”, że system jest bezpieczny, działa zgodnie z przeznaczeniem, a organizacja potrafi zarządzać ryzykiem i zmianą. To jest praca. I to jest koszt, którego nie usuwa sama automatyzacja.


4) Co studia mogą dać w erze AGI (i czego nie dadzą)

Jeśli traktujesz studia jako kurs „nauczę się technologii X, dostanę pracę”, to wchodzisz w świat malejącej premii. Narzędzia AI już dziś obniżają wartość wielu rutynowych kompetencji poprzez wzrost produktywności i skrócenie ramp-upu, co w dłuższym terminie może spłaszczać ścieżki junior → mid.

Studia nadal mogą mieć sens, ale z innych powodów:

  1. Sygnał i filtr: dyplom bywa prostym narzędziem selekcji, nawet jeśli niewiele mówi o realnej umiejętności.
  2. Dostęp do instytucji: staże, projekty z przemysłem, laboratoria, ścieżki do firm z barierami wejścia (obronność, energetyka, zdrowie).
  3. Kapitał społeczny: relacje, które później stają się dystrybucją.
  4. Umiejętność uczenia się i formalny rygor: nadal wartościowe, ale tylko jako część większej strategii.

Natomiast studia jako „zbroja na automatyzację” nie zadziałają. Dyplom z informatyki nie jest fosą prawną. Jest, co najwyżej, biletem wstępu do gry – a bilety wstępu tanieją.


5) Jeśli pytasz „co studiować”, szukaj kierunków, które stoją przy fosie

W świecie AGI sensownie jest inwestować w obszary, gdzie:

  • koszt błędu jest wysoki,
  • odpowiedzialność jest realna,
  • regulacja wymusza proces,
  • a integracja z rzeczywistością jest ważniejsza niż sama „intelektualna produkcja”.

Przykładowe „koszyki”, bardziej jako logika niż lista marzeń:

A) Bezpieczeństwo i ryzyko (cyber, GRC, architektura) Dyrektywy i regulacje (NIS2, wymogi sektorowe, wymagania audytowe) tworzą rynek, w którym płaci się za redukcję ryzyka, a nie za sam kod.

B) Systemy w świecie fizycznym (embedded, przemysł, energetyka) Tam nadal liczy się niezawodność, sprzęt, ograniczenia czasu rzeczywistego, łańcuch dostaw, certyfikacje. AI pomoże, ale nie anuluje odpowiedzialności za awarię.

C) Informatyka + domena regulowana (zdrowie, finanse, infrastruktura krytyczna) To jest sposób na połączenie kompetencji technicznych z barierą wejścia, której nie da się skopiować samym „byciem mądrym”.

D) Prawo/ekonomia technologii i zarządzanie zgodnością Nie jako „miękki dodatek”, tylko jako narzędzie budowania przewagi: rozumienie wymogów, dokumentacji, oceny zgodności, kontraktów, odpowiedzialności. EU AI Act jest tu namacalnym przykładem.

Uwaga: to nie znaczy, że masz zostać papierologiem. Chodzi o to, by być osobą, która potrafi łączyć technologię z mechanizmami, które decydują o dopuszczalności i opłacalności wdrożenia.


6) Najważniejsze nie jest „co studiować”, tylko jak przygotować się do transformacji

Jeżeli automatyzacja dojdzie do poziomu, w którym zawody informatyczne – włącznie z badaniami AI – stają się w dużej mierze zautomatyzowane, to masz do czynienia z czymś większym niż „kryzys branży”. To jest reorganizacja całej pracy umysłowej, a więc i podstawowych relacji gospodarczych.

W takim świecie warto myśleć mniej jak „pracownik wybierający specjalizację”, a bardziej jak ktoś, kto przygotowuje się do szoku systemowego:

  1. Buduj odporność finansową. Poduszka, niski koszt stały życia, brak pułapek kredytowych. To nie jest rada lifestyle’owa – to jest mechanika przetrwania w świecie, gdzie premia za kompetencje może się gwałtownie przestawić.

  2. Traktuj karierę jak portfel. Nie opieraj całego dochodu na jednej „rzadkości”, którą AI może skopiować. Dywersyfikuj: projekt, produkt, konsulting, udział w biznesie, własna dystrybucja.

  3. Przesuwaj się w stronę dźwigni. W IT dźwignią jest dziś połączenie: produkt + dystrybucja + compliance + bezpieczeństwo + odpowiedzialność. Sama implementacja będzie coraz częściej commodity.

  4. Wchodź tam, gdzie AI zwiększa wymagania zamiast je kasować. Regulacje często działają paradoksalnie: im bardziej technologia jest potężna, tym więcej obowiązków dowodowych i kontrolnych powstaje wokół niej. EU AI Act jest dobrym studium przypadku.

  5. Ucz się szybko wdrażać narzędzia AI, ale nie myl tego z „bezpieczeństwem kariery”. Dzisiejsze wyniki badań sugerują, że AI może podnosić produktywność i zmieniać strukturę zadań. To pomaga tym, którzy potrafią ją wpiąć w proces – i szkodzi tym, których praca była głównie „wytwarzaniem”.


7) Zimny wniosek końcowy

Studia w erze AGI nie są gwarancją zatrudnienia. Coraz mniej są nawet gwarancją „posiadania rzadkiej umiejętności”. Ich wartość przesuwa się w stronę: sygnału, sieci kontaktów, dostępu do instytucji i wejścia do sektorów, gdzie istnieje fosa prawna i koszt błędu.

Jeśli chcesz myśleć realistycznie, myśl kategoriami: kto kontroluje dopuszczalność wdrożenia, kto ponosi odpowiedzialność, kto ma dystrybucję, kto ma dane i prawa do danych, kto ma kapitał. W takim układzie pytanie „co studiować” jest wtórne wobec pytania „jakie zasoby i pozycje chcę budować”.

A jeśli AGI rzeczywiście zautomatyzuje nawet badania nad AI… to nie będzie to problem „jaki wybrać kierunek”. To będzie problem „jak działa społeczeństwo, gdy praca umysłowa przestaje być głównym źródłem wartości rynkowej”. Wtedy wygrywa nie ten, kto dobrze wybrał specjalizację – tylko ten, kto ma odporność, dźwignię i zdolność adaptacji.