Czy warto iść na informatykę w erze AGI? To pytanie brzmi jak dylemat o sens studiowania „pod zawód”, kiedy sam zawód może zmienić się szybciej niż program studiów. I uczciwie: ryzyko, że klasyczne ścieżki „uczę się X, potem 30 lat robię X” będą działały coraz gorzej, jest realne. Jednocześnie z tego nie wynika automatycznie, że informatyka przestaje mieć sens. Raczej zmienia się to, za co rynek płaci i jak będzie wyglądał próg wejścia.
Najpierw warto uporządkować fakty, a dopiero potem dopisywać scenariusze.
W samym rdzeniu rynku widać dwa równoległe sygnały. Po pierwsze, narzędzia generatywne stały się „codziennością” programistów: w badaniu Stack Overflow za 2025 r. 84% respondentów deklaruje, że używa lub planuje używać narzędzi AI w procesie wytwarzania oprogramowania, a wśród profesjonalnych programistów ok. 51% używa ich codziennie. Po drugie, te narzędzia realnie podnoszą produktywność w części zadań: kontrolowany eksperyment z GitHub Copilotem pokazał średnio ~55,8% szybsze wykonanie konkretnego zadania przez grupę z dostępem do narzędzia. Równolegle analizy McKinsey & Company wskazują, że największy zysk dotyczy powtarzalnych fragmentów pracy: szkicowania kodu, dokumentacji, refaktoryzacji, korekt.
Brzmi jak „mniej programistów będzie potrzebnych”. Czasem tak będzie. Ale równie ważna jest druga część obrazu: programiści nie chcą (i często nie mogą) oddać AI zadań o najwyższej odpowiedzialności. W tym samym badaniu Stack Overflow widać silny opór wobec użycia AI w obszarach typu deployment/monitoring (76% nie planuje) oraz planowanie projektu (69% nie planuje). A gdy mowa o przyszłości z bardzo zaawansowaną AI, najczęstszy powód, by i tak pytać człowieka o pomoc, to brak zaufania do odpowiedzi AI (75,3%). To jest klucz: narzędzia przyspieszają, ale nie zdejmują z ludzi odpowiedzialności za decyzje, ryzyko, bezpieczeństwo i zgodność.
W Polsce widać zaś rynek „po korekcie”, nie w stanie euforii. Dane z Just Join IT pokazują stabilizację po spadkach: w 2025 r. opublikowano 110 996 ogłoszeń, ok. 8,42% więcej niż w 2024 r., ale wyraźnie mniej niż w rekordowym 2022. Raport No Fluff Jobs opisuje odbicie w 2025 r. (wzrost liczby ofert w sektorze tech o 44% r/r), a jednocześnie wskazuje, gdzie jest popyt (m.in. backend, data, fullstack, DevOps) i że praca zdalna w udziałach spada na rzecz hybrydy. To nie jest obraz rynku, który „umiera”, tylko rynku, który stał się bardziej selektywny i bardziej wrażliwy na wartość dostarczaną przez jednostkę.
Z tym tłem można odpowiedzieć na pytanie o studia.
Informatyka ma sens wtedy, gdy traktujesz ją nie jako kurs do konkretnego frameworka, tylko jako inwestycję w fundamenty i zdolność do zmiany narzędzi. AGI (czyli hipotetyczna sztuczna inteligencja o szerokich, „ogólnych” zdolnościach poznawczych) jest tutaj ważna mniej jako data w kalendarzu, a bardziej jako kierunek: coraz więcej pracy będzie przerzucane z „pisania” na „decydowanie, integrowanie, kontrolowanie jakości i ryzyka”.
Co to oznacza dla opłacalności studiów?
Po pierwsze, rośnie wartość fundamentów, które są trudniejsze do „przeskoczenia” krótkim kursem: algorytmy, złożoność obliczeniowa, bazy danych, systemy operacyjne, sieci, bezpieczeństwo, inżynieria oprogramowania jako proces (testowanie, niezawodność, obserwowalność), matematyka i statystyka. To są obszary, w których nawet świetne narzędzie nie zastąpi tego, że rozumiesz, dlaczego coś działa i gdzie pęknie pod obciążeniem.
Po drugie, spada premia za „mechaniczne klepanie kodu”. Jeżeli Twoją przewagą ma być to, że szybciej napiszesz CRUD w kolejnym frameworku, to konkurujesz z narzędziem, które właśnie do tego zostało stworzone. To nie znaczy, że juniorzy znikną, ale próg wejścia przesunie się w stronę umiejętności, które dotąd były „dla midów”: czytanie obcego kodu, praca na istniejących systemach, rozumienie wymagań, testowanie, debugowanie, bezpieczeństwo, koszt i utrzymanie. Zwróć uwagę, że w danych Stack Overflow jednym z częstych problemów jest sytuacja „prawie dobrze, ale nie do końca” oraz kosztowne debugowanie kodu wygenerowanego przez AI (45,2% wskazań). To premiuje ludzi, którzy umieją weryfikować, a nie tylko produkować.
Po trzecie, regulacje będą tworzyć nowe „fosy” – i nowe obowiązki. W UE obowiązuje harmonogram wdrażania AI Act: akt wszedł w życie 1 sierpnia 2024 r., obowiązki dla modeli ogólnego przeznaczenia (GPAI) zaczęły mieć zastosowanie 2 sierpnia 2025 r., a pełna stosowalność ma wejść 2 sierpnia 2026 r. (z wyjątkami i dłuższymi okresami przejściowymi dla części systemów wysokiego ryzyka). Komisja Europejska potwierdzała też publicznie, że nie planuje „pauzy” we wdrażaniu. Dla rynku pracy to znaczy, że rośnie zapotrzebowanie na ludzi, którzy łączą technikę z compliance, audytem, bezpieczeństwem, zarządzaniem ryzykiem i dokumentacją. To są obszary, w których „działa” nie wystarczy – trzeba jeszcze umieć wykazać, dlaczego jest bezpiecznie i zgodnie z zasadami.
Po czwarte, nawet w scenariuszach mocno pro-AI, informatyka nadal jest jedną z niewielu dziedzin, które pozwalają pracować „blisko dźwigni” automatyzacji. Świat będzie coraz bardziej zależny od oprogramowania, niezależnie od tego, czy AGI pojawi się szybko czy wolno. Z perspektywy makroekonomicznej widać oczekiwanie dużych przesunięć w zadaniach: Goldman Sachs szacował, że zmiany w workflow mogą „wystawić” ekwiwalent setek milionów miejsc pracy na automatyzację zadań, jednocześnie podkreślając, że wiele zawodów będzie raczej częściowo zautomatyzowanych niż wprost zlikwidowanych. World Economic Forum w raporcie o przyszłości pracy opisuje jednocześnie tworzenie i wypieranie ról, a wśród dużych rosnących zawodów wymienia m.in. software developerów, obok ról związanych z AI i danymi. Innymi słowy: „zmiana” nie jest jednoznaczna z „koniec”.
Zostaje najważniejsze: kiedy odpowiedź brzmi „tak”, a kiedy „nie”.
Warto iść na informatykę, jeżeli:
- interesuje Cię rozwiązywanie problemów technicznych na poziomie systemów, a nie tylko „robienie aplikacji”,
- jesteś gotów uczyć się narzędzi w cyklach 6–18 miesięcy (bo tyle dziś często trwa „aktualność” konkretnego zestawu),
- chcesz łączyć informatykę z domeną, która ma własne bariery wejścia: finanse, przemysł, medycyna, energetyka, prawo, cyberbezpieczeństwo, embedded/IoT, infrastruktura krytyczna,
- akceptujesz, że początek kariery może być bardziej konkurencyjny, a „proste” zadania będą szybciej komodytyzowane.
Mniej sensu ma to jako plan, jeżeli:
- liczysz na stabilny zawód polegający głównie na rutynowym kodowaniu według specyfikacji,
- nie chcesz dotykać matematyki, sieci, systemów, baz danych i bezpieczeństwa (czyli tego, co odróżnia inżynierię od „sklejania”),
- Twoim celem jest wyłącznie szybkie wejście na rynek; w takim wypadku bywa, że lepsza jest praktyczna ścieżka (staże, projekty, specjalizacje branżowe), a studia traktujesz jako opcję równoległą, nie jedyną.
Jeśli ktoś pyta „co robić, żeby ta inwestycja miała sens w erze AGI?”, najtrzeźwiejsza odpowiedź brzmi: budować przewagę tam, gdzie AI jest narzędziem, ale ryzyko i odpowiedzialność zostają po stronie człowieka.
Praktycznie oznacza to kilka kierunków, które zwykle „trzymają wartość” dłużej niż mody:
- bezpieczeństwo (AppSec, cloud security, secure SDLC, threat modeling),
- niezawodność i infrastruktura (SRE, platform engineering, observability, koszty chmury),
- systemy rozproszone i dane (integracje, streaming, jakość danych, governance),
- embedded/edge/robotyka przemysłowa (więcej fizyki, norm i odpowiedzialności),
- inżynieria wymagań i architektura (umiejętność podejmowania decyzji technicznych pod ograniczenia biznesowe),
- compliance i audyt technologiczny (zwłaszcza w UE, gdzie presja regulacyjna rośnie).
I jeszcze jedna uwaga, mniej wygodna, ale potrzebna: jeśli AGI w sensie „prawie wszystko umysłowe da się zautomatyzować” rzeczywiście przyjdzie szybko i szeroko, to problem „czy iść na informatykę” stanie się częścią większego problemu: „jak planować edukację i karierę, gdy wartość pracy umysłowej jako takiej spada”. Wtedy informatyka nie jest ani bezpieczną przystanią, ani stratą czasu per se; jest raczej sposobem, by rozumieć i współtworzyć system, który będzie reorganizował gospodarkę. W krótszym horyzoncie (kilka–kilkanaście lat) bardziej realistyczny jest jednak świat, w którym AI zwiększa produktywność i zmienia strukturę pracy, a nie jednorazowo kasuje cały zawód. Na to wskazują zarówno dane o realnych przyrostach produktywności w wybranych zadaniach, jak i ostrożność samych programistów w oddawaniu AI odpowiedzialnych etapów procesu.
W jednym zdaniu: informatyka w erze AGI nadal bywa opłacalna, ale już nie jako „bilet do stabilnego kodowania”, tylko jako edukacja do pracy na styku narzędzi, systemów, ryzyka i odpowiedzialności – oraz do ciągłego przeuczenia się, zanim rynek Cię do tego zmusi.