Pytanie „co studiować w IT, żeby nie zostać zautomatyzowanym?” brzmi dziś sensownie, ale bywa źle stawiane. Automatyzacja rzadko usuwa całe zawody naraz; częściej wycina zestawy zadań, zmienia ekonomię juniorów, przesuwa ciężar pracy w stronę odpowiedzialności, integracji i ryzyka. W raportach o przyszłości pracy regularnie widać ten sam motyw: rośnie znaczenie kompetencji związanych z AI, ale równolegle wysoko są umiejętności bezpieczeństwa, sieci i odporności systemów. Światowe Forum Ekonomiczne w „Future of Jobs Report 2025” wskazuje AI i big data jako najszybciej rosnący obszar umiejętności, a zaraz obok – sieci i cyberbezpieczeństwo.
W Polsce w 2025 r. rynek ofert zaczął odbijać (więcej ogłoszeń, mniejsza presja aplikacyjna), ale struktura popytu przesuwa się w stronę specjalizacji. W raporcie No Fluff Jobs „Rynek pracy IT 2025/2026” wprost padają liczby: +44% nowych ogłoszeń r/r i –45% średniej liczby aplikacji na ofertę, przy jednoczesnym wskazaniu, że największe skoki wynagrodzeń widać m.in. w DevOps i Security.
To dobry punkt wyjścia: „odporność na automatyzację” w IT nie wynika z tego, że AI „nie potrafi”, tylko z tego, że w realnym świecie ktoś musi ponosić odpowiedzialność, spełnić wymogi, dostać dostęp, podpisać się pod decyzją, przejść audyt, zareagować na incydent albo pojechać do fabryki.
Trzy scenariusze rozwoju AI, które zmieniają sens „bezpiecznego kierunku”
Poniżej są trzy skrajnie uproszczone scenariusze. Nie są prognozą – są narzędziem do myślenia o ryzyku.
1) Stagnacja AI + klapa robotyki Modele językowe stabilizują się, robotyka pozostaje droga i zawodna, automatyzacja idzie klasycznym torem (systemy, skrypty, low-code). W takim świecie wciąż liczą się fundamenty: inżynieria oprogramowania, systemy rozproszone, bazy danych, bezpieczeństwo. „AI skills” są przydatnym dodatkiem, ale nie centralną osią kariery.
2) Stopniowy rozwój AI (AGI za ~10–20 lat) + wolna robotyka To wariant najbardziej podobny do „ostatnich lat, tylko dalej”. AI stopniowo przejmuje rutynowe fragmenty pracy: generuje kod, testy, dokumentację, wspiera analizę danych. Zyskują ci, którzy są „nad narzędziem”: projektują architekturę, pilnują jakości danych, odpowiadają za produkcję, bezpieczeństwo i zgodność.
W tym scenariuszu pasuje uwaga z badań o wpływie GenAI: dominująca ścieżka to augmentacja pracy, a nie pełna automatyzacja – ale augmentacja zmienia strukturę kompetencji i liczbę „wejściówek” do zawodu. Międzynarodowa Organizacja Pracy wskazywała już w 2023 r., że największy wpływ GenAI to wzmacnianie zadań (i najwyższa ekspozycja dotyczy prac biurowych), a aktualizacje metodologii z 2025 r. idą w tym samym kierunku: mierzymy ekspozycję zadań, nie „zniknięcie zawodów”.
3) Nagły rozwój AI (AGI za 2–3 lata) + roboty wszędzie za 5 lat Tu dzieje się coś jakościowo innego: nie „przesuwanie zadań”, tylko skok produktywności i presja na masową reorganizację gospodarki. W krótkim okresie ryzyko dla wielu ról rośnie, bo spada cena wytworzenia oprogramowania, analiz, treści i części usług.
I tu pojawia się paradoks: nagły rozwój może być „najbezpieczniejszy” systemowo, bo wywołuje polityczną konieczność reakcji. Gwałtowna zmiana jest widoczna, masowa i trudna do zamiatania pod dywan – więc rośnie szansa na interwencje: regulacje, redystrybucję, programy osłonowe, przebudowę edukacji, nowe obowiązki audytowe i bezpieczeństwa. Przy zmianie powolnej i „skokowej, ale rozlanej w czasie” łatwiej wypaść poza rynek po cichu: najpierw spadają stawki i liczba zleceń, potem rośnie selekcja, a marginalizacja dotyka ludzi pojedynczo, bez jednego momentu politycznego przesilenia. (To teza socjoekonomiczna, nie pewnik – ale mechanizm jest realny i wielokrotnie obserwowany w innych transformacjach technologicznych.)
„Fosy” przeciw AI: co realnie utrudnia automatyzację pracy
W praktyce warto myśleć nie o „kierunku odpornym”, tylko o kombinacji: specjalizacja + fosa.
Fosa prawno-regulacyjna. Gdy w grę wchodzą wymogi, audyty i odpowiedzialność, sama „możliwość techniczna” automatyzacji nie wystarcza. W UE widać to szczególnie mocno: AI Act ma twardy harmonogram wdrażania i dotyczy m.in. obowiązków w zakresie modeli ogólnego przeznaczenia i systemów wysokiego ryzyka. Do tego dochodzą regulacje cyber i odporności operacyjnej, które generują popyt na role bezpieczeństwa i zgodności: NIS2 (termin transpozycji do prawa krajowego: 17 października 2024) oraz DORA, stosowana od 17 stycznia 2025 r. w sektorze finansowym.
Fosa „fizyczności”. Tam, gdzie praca dotyka świata materialnego (sprzęt, sieci, OT, produkcja, urządzenia medyczne), automatyzacja jest wolniejsza, bo wymaga niezawodności, bezpieczeństwa, serwisu i integracji.
Fosa reputacji i relacji. W wielu organizacjach dostęp do produkcji, decyzji architektonicznych czy bezpieczeństwa jest oparty o zaufanie, historię współpracy i odpowiedzialność. AI może przygotować propozycję; ktoś musi ją obronić, podpisać i ponieść konsekwencje.
Analiza kilku popularnych kierunków/specjalizacji w tych scenariuszach
Poniżej nie ma „pewniaków”. Są profile ryzyka – i to, jak budować fosy.
1) Cyberbezpieczeństwo (Security) i inżynieria prywatności
Dlaczego to się broni: atakujący też używają AI, a regulacje i odpowiedzialność rosną niezależnie od tempa rozwoju modeli. NIS2 i DORA zwiększają presję na procesy, raportowanie incydentów, zarządzanie ryzykiem i łańcuchem dostaw.
- Stagnacja AI: stabilny popyt; mniej „hype’u”, więcej praktyki (IAM, SOC, cloud security, incident response).
- Rozwój stopniowy: AI automatyzuje część detekcji i triage, ale zwiększa wolumen zagrożeń i potrzebę nadzoru, testów, red teamingu, GRC.
- Rozwój nagły: bezpieczeństwo staje się infrastrukturą krytyczną, a praca przesuwa się w stronę polityk, nadzoru, bezpieczeństwa systemów autonomicznych i odporności państw/firm.
Fosy do dobudowania: regulacje (NIS2/DORA), certyfikacje, doświadczenie incydentowe, reputacja zaufanej osoby.
2) DevOps / SRE / Platform Engineering (chmura, niezawodność, koszty)
Dlaczego to się broni: produkcja to nie repozytorium. Tu liczą się SLA, on-call, incidenty, zależności, koszty, bezpieczeństwo uprawnień, migracje, odzyskiwanie po awarii.
- Stagnacja AI: rośnie złożoność systemów i chmur; AI jako narzędzie pomocnicze.
- Rozwój stopniowy: automatyzują się fragmenty konfiguracji i diagnostyki, ale rośnie tempo zmian, więc rośnie też ryzyko i potrzeba kontroli.
- Rozwój nagły: jeśli „software wszędzie” tanieje, tym bardziej liczy się infrastruktura, obserwowalność, kontrola kosztów i odporność.
Fosy: „fizyczność” infrastruktury (sieci, data center), odpowiedzialność operacyjna, dostęp i zaufanie.
3) Informatyka (inżynieria oprogramowania) jako kierunek bazowy
To nadal dobry wybór, ale nie jako „będę pisać CRUD-y do końca życia”. W najbardziej automatyzowalnym fragmencie (rutynowe aplikacje, proste integracje) presja rośnie.
- Stagnacja AI: klasyczny rynek – ale nadal selektywny dla juniorów.
- Rozwój stopniowy: mniej pracy „od zera”, więcej pracy: integracja, przeglądy, bezpieczeństwo, testowalność, architektura, utrzymanie.
- Rozwój nagły: „programowanie” rozchodzi się na dwie ścieżki: (a) produkt i odpowiedzialność, (b) nisze regulowane/fizyczne.
Fosy: domena (finanse, zdrowie, przemysł), odpowiedzialność (tech lead, architektura), kontakty (klient, interesariusze).
4) Data Engineering / BI / Analytics (bardziej „rury” niż „slajdy”)
Dlaczego to się broni: AI jest tak dobre, jak dane i dostęp. Organizacje mają chaos danych, ograniczenia prawne, rozproszone źródła, wymagania jakościowe.
- Stagnacja AI: popyt rośnie wraz z cyfryzacją.
- Rozwój stopniowy: AI ułatwia analizę i raportowanie, ale podbija zapotrzebowanie na dobre modele danych, governance, lineage, kontrolę jakości.
- Rozwój nagły: przewagę mają ci, którzy kontrolują dane i potrafią je udostępniać bez łamania prawa i bezpieczeństwa.
Fosy: prywatność i zgodność, wiedza domenowa, odpowiedzialność za jakość danych.
5) Elektronika / Embedded / IoT / sieci / OT
Dlaczego to się broni: to obszar „fizyczności” – ograniczenia sprzętowe, niezawodność, certyfikacje, testy w realnym środowisku.
- Stagnacja AI + klapa robotyki: mniej spektakularnych wdrożeń robotów, ale embedded i sieci nadal napędzają motoryzację, energetykę, telekom, przemysł.
- Rozwój stopniowy: AI dodaje się jako komponent (np. na brzegu sieci), ale rdzeń pracy to integracja i bezpieczeństwo.
- Rozwój nagły: popyt rośnie, ale profil pracy przesuwa się w stronę bezpieczeństwa, niezawodności i standaryzacji.
Fosy: fizyczność + regulacje branżowe + reputacja praktyka.
6) Automatyka i robotyka
To kierunek najbardziej zależny od scenariusza.
- Stagnacja AI + klapa robotyki: ryzyko „rozminięcia” z rynkiem masowym; zostają klasyczne sterowniki, przemysł, nisze.
- Rozwój stopniowy: stabilny wzrost w przemyśle, logistyce, kontroli jakości; mniej „androidów”, więcej automatyzacji procesów i robotów zadaniowych.
- Rozwój nagły: wygrana, ale trudna – bo rośnie odpowiedzialność (bezpieczeństwo, certyfikacja, integracja). Tu nie wystarczy „złożyć robota”; trzeba go wdrożyć w realnym świecie.
Fosy: fizyczność + bezpieczeństwo funkcjonalne + doświadczenie wdrożeniowe.
7) IT w sektorach regulowanych i „safety-critical”
To nie zawsze osobny kierunek studiów, częściej specjalizacja lub branża, w którą wchodzisz po informatyce/elektronice.
Przykłady fos regulacyjnych są konkretne. W motoryzacji standardy bezpieczeństwa funkcjonalnego (np. ISO 26262) formalizują procesy i dowody bezpieczeństwa. W oprogramowaniu wyrobów medycznych podobną rolę pełnią standardy cyklu życia software’u (IEC 62304). W finansach dochodzi presja DORA na odporność ICT i zarządzanie ryzykiem.
- Stagnacja AI: stabilnie, bo regulacje i odpowiedzialność są stałe.
- Rozwój stopniowy: AI wchodzi do procesów, ale rośnie potrzeba walidacji, dokumentacji, audytowalności.
- Rozwój nagły: rośnie znaczenie certyfikacji, testów i „ludzkiego podpisu” pod systemami krytycznymi.
Fosy: prawo, audyt, odpowiedzialność, formalne procesy.
8) UX / HCI / analiza biznesowa / Product (na styku techniki i ludzi)
To obszar często niedoceniany przez osoby wybierające „twarde IT”, a bywa dobrą fosą: zrozumienie problemu, negocjacje, priorytety, praca z interesariuszami.
- Stagnacja AI: rośnie wraz z dojrzałością produktów.
- Rozwój stopniowy: AI przyspiesza produkcję artefaktów, ale nie zastępuje decyzji o kompromisach i odpowiedzialności za wynik.
- Rozwój nagły: organizacje będą przebudowywać procesy i produkty; ktoś musi to poprowadzić.
Fosy: reputacja, relacje, zaufanie, rozumienie domeny.
Co studiować, jeśli chcesz „odporności”: praktyczna recepta (bez obiecywania cudów)
-
Wybierz kierunek dający fundamenty (informatyka / elektronika / automatyka) i traktuj go jako bazę, nie jako gotowy zawód.
-
Dobuduj fosę już na studiach:
- regulacje i compliance (AI Act, NIS2, DORA),
- bezpieczeństwo i odporność (Security, SRE),
- fizyczność (embedded/OT),
- domena (finanse, med-tech, przemysł).
-
Zbieraj dowody kompetencji, nie tylko oceny: staże, projekty w produkcji, udział w incydentach (nawet w kołach naukowych/CTF), rzeczy „nudne” jak monitoring, logowanie, testy regresji.
-
Ćwicz miękkie elementy, bo to one robią różnicę przy automatyzacji: pisanie decyzji technicznych, komunikacja ryzyka, negocjowanie zakresu, praca z niejednoznacznymi wymaganiami.
Na koniec rzecz nieprzyjemna, ale uczciwa: im wolniej postępuje automatyzacja, tym bardziej rynek potrafi „przemeblować” się bez fanfar – i tym łatwiej wypaść z obiegu, zanim powstanie polityczna presja, by kogokolwiek ratować. Dlatego sensowna strategia nie brzmi „znajdź kierunek odporny”, tylko: wejdź w IT przez fundamenty, a potem zaparkuj się za fosą – regulacyjną, fizyczną albo reputacyjną – zanim konkurencja zrobi się tłumem.