Przewiń do treści

Zawody regulowane prawnie – jedyne pewne studia w epoce AI? Spojrzenie z perspektywy rynku IT

2026-02-16

Teza, że „jedyną pewną” ścieżką edukacyjną w epoce AI są zawody regulowane prawnie, wraca falami – zwykle wtedy, gdy rynek technologiczny zaczyna być bardziej selektywny, a narzędzia generatywne przyspieszają automatyzację pracy umysłowej. Brzmi kusząco: skoro dostęp do zawodu jest ograniczony przepisami, egzaminami i licencjami, to popyt ma być stabilny, a konkurencja mniejsza. Rzeczywistość jest jednak mniej romantyczna i bardziej rynkowa: regulacja może spowalniać zmiany, ale nie gwarantuje odporności na zmianę technologii, modeli biznesowych ani polityki publicznej.

Poniżej rozkładam temat na czynniki – czym jest zawód regulowany, dlaczego „wydaje się bezpieczny”, co w tej układance robi AI oraz gdzie w to wszystko wchodzi rynek pracy IT w Polsce.

1) Czym właściwie jest „zawód regulowany” i dlaczego to ma znaczenie

W ujęciu unijnym i praktycznym zawód jest „regulowany”, gdy dostęp do jego wykonywania (lub używania tytułu zawodowego) zależy od spełnienia wymogów określonych w przepisach danego państwa: określonego wykształcenia, stażu, egzaminu, wpisu do rejestru, członkostwa w samorządzie zawodowym itp. Kluczowe jest to, że państwa członkowskie same decydują, co regulują – ten sam zawód może być regulowany w jednym kraju, a w innym nie.

W praktyce, listy i tryby uznawania kwalifikacji są utrzymywane publicznie (w Polsce m.in. poprzez ścieżki informacyjne i odwołania do baz UE), a Komisja Europejska prowadzi bazę zawodów regulowanych w krajach UE/EEA.

Regulacja nie jest „nagrodą” dla profesji. To narzędzie: ma chronić interes publiczny (bezpieczeństwo pacjentów, konsumentów, stabilność systemu finansowego, bezpieczeństwo budowlane itd.). Gdy ryzyko błędu jest wysokie, pojawia się pokusa, by ograniczać dostęp do zawodu.

2) Skąd bierze się przekonanie, że regulowane zawody są „odporne na AI”

Są trzy racjonalne powody, dla których ludzie łączą regulację z bezpieczeństwem kariery:

Po pierwsze – bariera wejścia. Długie studia, staże, egzaminy i formalny nadzór ograniczają liczbę osób mogących legalnie świadczyć usługi. W krótkim okresie to stabilizuje rynek (nie da się „dosypać” tysięcy nowych specjalistów w pół roku).

Po drugie – odpowiedzialność i ryzyko prawne. Tam, gdzie konsekwencje błędu są duże, organizacje chcą mieć po drugiej stronie człowieka z uprawnieniami, ubezpieczeniem, podpisem i odpowiedzialnością dyscyplinarną. AI może podpowiadać, ale ktoś musi „wziąć to na siebie”.

Po trzecie – społeczne zaufanie. Pacjent, klient czy sąd nie muszą ufać modelowi. Mają ufać procedurze oraz profesjonaliście, który działa w ramach standardów.

Problem w tym, że te trzy mechanizmy mówią głównie o stabilności dostępu do tytułu, a nie o stabilności zakresu pracy i liczby etatów.

3) AI nie musi odebrać zawodu, żeby odebrać „młodsze stanowiska”

Najbardziej widoczny efekt generatywnej AI na rynku pracy nie musi polegać na masowej likwidacji całych profesji. Częściej wygląda to tak:

  • mniej pracy „rutynowej”, którą tradycyjnie wykonywali juniorzy i stażyści (research, streszczenia, proste analizy, pierwsze wersje dokumentów),
  • większy nacisk na kontrolę jakości, odpowiedzialność i integrację procesów,
  • rosnąca przewaga osób, które potrafią „zarządzać” narzędziami oraz ryzykiem.

W badaniach ankietowych dużych pracodawców pojawia się wprost oczekiwanie redukcji zatrudnienia tam, gdzie AI może automatyzować zadania – World Economic Forum raportował m.in. odsetek pracodawców spodziewających się ograniczenia zatrudnienia z tego powodu.

To jest szczególnie ważne dla osób wybierających studia: nawet jeśli zawód pozostaje regulowany, to „dolny szczebel drabiny” może się kurczyć, a wejście do profesji staje się trudniejsze, bo mniej jest pracy treningowej, na której uczy się rzemiosła.

4) A gdzie w tym wszystkim jest IT w Polsce – i dlaczego dyskusja w ogóle wybuchła

W Polsce narracja o „końcu eldorado” w IT miesza się z danymi pokazującymi stabilizację po spadkach z lat 2023–2024. Źródła branżowe wskazują na odbicie liczby ofert w 2025 r. oraz selektywność rynku: mniej masowych rekrutacji, większa waga specjalizacji i doświadczenia.

W praktyce to rodzi dwie reakcje:

  1. część osób zaczyna szukać „bezpieczniejszych” kierunków, najlepiej z pieczątką państwa,
  2. część firm przesuwa oczekiwania: mniej „wyuczymy na miejscu”, więcej „przyjdź gotowy”.

I tu powstaje prosty, ale mylący skrót myślowy: skoro IT jest bardziej konkurencyjne, to może „tylko” regulowane zawody dają pewność.

Nie dają. Dają inny rozkład ryzyk.

5) Co regulacja realnie chroni – a czego nie chroni

Regulacja dobrze chroni:

  • tytuł i uprawnienia (nie każdy może wykonywać czynności),
  • minimalny standard wejścia,
  • pewne segmenty popytu publicznego (np. system ochrony zdrowia zawsze będzie potrzebował określonych ról).

Regulacja słabo chroni:

  • liczbę dostępnych miejsc stażowych i rezydenckich,
  • poziom wynagrodzeń (to dalej rynek, budżety, demografia),
  • zakres zadań (AI potrafi „wyjąć” z profesji całe pakiety rutyny),
  • tempo pracy i normy produktywności (AI często oznacza: „skoro szybciej, to więcej”).

Jeżeli dużo osób ucieknie z IT do kierunków regulowanych, efekt może być wręcz paradoksalny: większa presja konkurencyjna na wejściu, dłuższa kolejka do specjalizacji, większa liczba rozczarowanych w połowie drogi. Bariera wejścia działa w obie strony: chroni profesję, ale też kosztuje czas i elastyczność.

6) Regulacja w epoce AI: „zawód regulowany” kontra „branża regulowana”

Ciekawa rzecz dzieje się obok klasycznych profesji. Coraz częściej nie regulujemy konkretnego zawodu, tylko rynek i ryzyko technologiczne – a to tworzy popyt na ludzi, którzy potrafią spełnić wymagania prawne i audytowe.

Przykłady szczególnie istotne dla IT:

  • AI Act: unijne rozporządzenie ustanawia ramy dla systemów AI w podejściu opartym o ryzyko. Weszło w życie 1 sierpnia 2024 r., a obowiązki są wdrażane etapami (m.in. zakazane praktyki i wymóg „AI literacy” od 2 lutego 2025 r.; obowiązki dla modeli GPAI od 2 sierpnia 2025 r.; pełniejsza stosowalność wielu przepisów od 2 sierpnia 2026 r., a dla części systemów wysokiego ryzyka w produktach regulowanych – dłuższe vacatio). To nie tworzy „zawodu regulowanego programisty”, ale tworzy stały popyt na kompetencje: governance, dokumentacja, ocena ryzyka, zgodność, testowanie, bezpieczeństwo.

  • NIS2: dyrektywa cyberbezpieczeństwa wzmacnia odpowiedzialność organizacji i przenosi ciężar nadzoru na zarządy. Wprost mówi o obowiązku zatwierdzania i nadzoru nad środkami zarządzania ryzykiem cyber oraz możliwości odpowiedzialności za naruszenia. To napędza rynek cyberbezpieczeństwa, audytu, SOC, GRC i „security by design” – czyli obszarów, gdzie IT spotyka się z regulacją.

  • DORA: w sektorze finansowym wprowadza wymogi odporności operacyjnej i zarządzania ryzykiem ICT, obowiązujące bezpośrednio jako rozporządzenie UE. To znów: nie „regulowany zawód”, lecz regulowana odpowiedzialność – a więc etaty dla ludzi, którzy potrafią łączyć IT, ryzyko i procesy.

  • IOD/DPO w praktyce: RODO nie czyni z inspektora ochrony danych „zawodu regulowanego” w sensie klasycznym, ale formalizuje rolę i wymóg kompetencji („expert knowledge”). Efekt rynkowy jest podobny: rośnie zapotrzebowanie na specjalistów, którzy rozumieją prawo i systemy.

Wniosek: „bezpieczne” bywają nie tyle konkretne kierunki studiów, ile przecięcia kompetencji tam, gdzie prawo wymusza stałe procesy i audytowalność.

7) Czy to znaczy, że najlepsza strategia to porzucić IT i iść w regulację

Nie. To zbyt prosta recepta, a proste recepty są zwykle najdroższe w dłuższym terminie.

Rozsądniejsza interpretacja brzmi:

  • regulowane zawody mają inny profil ryzyka (wolniejsze zmiany, większy nacisk na odpowiedzialność, trudniejsza ścieżka wejścia),
  • IT ma wyższą zmienność, ale też większą możliwość szybkiego przestawienia się, budowania portfolio i pracy międzynarodowej,
  • AI przesuwa wartość w stronę ról, gdzie liczy się odpowiedzialność, bezpieczeństwo, zgodność i projektowanie systemów odpornych na błędy – a to często są role „na styku” regulacji i technologii.

Jeżeli ktoś dziś pyta o „pewne studia”, to w praktyce pyta o to, gdzie będzie popyt, kto będzie ponosił odpowiedzialność i jak trudno będzie wejść do zawodu. Regulacja jest jednym z elementów, ale nie jedynym.

8) Jak podejść do wyboru studiów w epoce AI – pragmatycznie, nie magicznie

Jeśli masz wybierać kierunek lub ścieżkę, sensownie jest przetestować ją trzema pytaniami:

  1. Czy w tej pracy ktoś musi ponosić odpowiedzialność prawną i reputacyjną? Im wyższa stawka błędu, tym dłużej „człowiek z podpisem” pozostanie w centrum procesu.

  2. Czy prawo lub regulator wymusza procesy, dokumentację, audyty? Tam, gdzie compliance jest stałym kosztem działania (finanse, zdrowie, infrastruktura krytyczna, dane), popyt na kompetencje zwykle nie znika – zmienia się tylko profil.

  3. Czy umiem zbudować przewagę łącząc dwie dziedziny? Prawo+IT (legaltech, privacy engineering), medycyna+data, finanse+cyber, inżynieria+bezpieczeństwo, AI+zarządzanie ryzykiem. To często bezpieczniejsze niż „czysta” specjalizacja.

Na koniec warto dodać rzecz mało medialną: „pewne studia” to te, po których człowiek potrafi się uczyć i aktualizować kompetencje szybciej niż zmienia się rynek. Regulacja może dawać czas. Nie da charakteru.