Przez ostatnie dwie dekady praca w IT była jednym z najprostszych sposobów na wejście do „warstwy aspiracyjnej”: relatywnie wysokie płace, globalny rynek, prestiż przypisywany „kompetencjom przyszłości”, a do tego narracja o zawodzie, który jest jednocześnie kreatywny i techniczny. Ten obraz nie znika z dnia na dzień, ale coraz wyraźniej pęka. Powody są banalne w swojej logice: masowa podaż (edukacja, migracje, praca zdalna), standaryzacja narzędzi i procesów oraz przyspieszająca automatyzacja pracy „przy klawiaturze”.
Jeśli „elitarność” rozumieć jako połączenie rzadkości kompetencji, wysokiej pozycji przetargowej i kulturowego prestiżu, to IT wchodzi w fazę normalizacji. W skali UE liczba specjalistów ICT rośnie szybko (w latach 2014–2024 o 62,2%), a w 2024 r. stanowili oni ok. 5% zatrudnionych. To nadal dużo w ujęciu historycznym, ale właśnie: „dużo” oznacza także „powszechnie”. A powszechność zwykle kończy się komodyfikacją.
1) Od rzemieślnika do linii produkcyjnej: industrialna analogia (i jej granice)
W klasycznej opowieści o industrializacji wykształcony rzemieślnik miał przewagę, bo posiadał całość wiedzy o produkcie i kontrolę nad tempem pracy. Przemysł przeniósł ciężar z „wiedzy w rękach” na „wiedzę w procesie”: standaryzacja, rozkład zadań, pomiar, kontrola zarządcza, a potem mechanizacja. Wokół tego zbudowano naukową organizację pracy (Taylorism): zanim wprowadzono ten model, produkcja była w dużej mierze w rękach wykwalifikowanych rzemieślników; potem menedżerowie mieli „badać, reorganizować i kontrolować” przebieg pracy.
Sporna, ale wpływowa interpretacja mówi o deskillingu: o tym, jak organizacja i technologia przenoszą wiedzę z pracownika do systemu, redukując niezależność wykonawcy. W tradycji tej ważną rolę odegrał Harry Braverman i jego książka Labor and Monopoly Capital, później wielokrotnie dyskutowana i reinterpretowana (w tym jako coś bardziej złożonego niż prosta „teza o deskillingu”).
Czy współczesna AI działa podobnie na pracę programistyczną? W pewnym sensie tak, bo przesuwa wartość z „umiejętności ręcznej” (pisania kodu) na „umiejętność organizacyjną” (definiowania, weryfikacji, integrowania). I robi to na dwa sposoby:
Po pierwsze, AI przyspiesza to, co industrializacja robiła od dawna: fragmentaryzację i standaryzację. To nie jest nowy pomysł. Już na początku lat 2000 pojawiła się wprost koncepcja „software factories” – łączenia wzorców, modeli, frameworków i narzędzi w konfiguracje, które umożliwiają systematyczne „składanie” aplikacji, budowanie łańcuchów dostaw i masową kastomizację.
Po drugie, generatywne narzędzia obniżają koszt wytwarzania „pierwszej wersji” kodu. W kontrolowanym eksperymencie z użyciem narzędzia typu Copilot osoby z dostępem do AI kończyły zadanie istotnie szybciej (raportowane ~55,8% przyspieszenia w tym konkretnym badaniu). To jest dokładnie ten moment, w którym umiejętność pisania „czystego kodu” przestaje być wąskim gardłem, a staje się zasobem łatwiej zastępowalnym.
Granice analogii są jednak ważne. Kod od zawsze był „dziwnym towarem”: ma wysoki koszt wytworzenia i bliski zeru koszt powielenia. To sprawia, że software industrializował się szybciej niż wiele prac fizycznych, bo standaryzacja i reuse są w nim naturalne. AI nie tworzy więc industrializacji z niczego; raczej domyka etap, w którym „wytwarzanie linijek” przestaje być centralnym kosztem.
2) Neo-luddyzm: nie tyle strach przed technologią, co spór o władzę i podział zysków
Historyczni luddziści byli w dużej mierze wykwalifikowanymi pracownikami tekstylnymi, którzy atakowali konkretne maszyny, bo widzieli w nich mechanizm obniżania płac i obchodzenia standardów pracy. Ich spór nie był „metafizyczny” („postęp jest zły”), tylko ekonomiczny: kto przejmie rentę z mechanizacji i kto poniesie koszt dostosowania.
Współczesny neo-luddyzm jest luźniejszą etykietą dla postaw krytycznych wobec kierunku rozwoju technologii, często w duchu „zasady ostrożności”, społecznych skutków automatyzacji czy koncentracji władzy. W kontekście AI może przyjmować formy miękkie (presja regulacyjna, bojkoty, postulaty ograniczeń), ale też konfliktu o prawo do danych i o to, czy automatyzacja ma być „augmentacją” czy „substytucją” pracy.
W IT neo-luddyzm raczej nie będzie polegał na niszczeniu serwerowni. Bardziej prawdopodobne są trzy pola tarcia:
- standardy i odpowiedzialność (czy wolno wdrażać systemy, których nikt nie rozumie w szczegółach, a mimo to odpowiada za szkody),
- własność i wynagrodzenie (kto zarabia na automatyzacji, a kto traci ścieżkę kariery),
- kontrola nad procesem (czy praca staje się „klikaniem w narzędzie”, czy pozostaje przestrzenią decyzyjności).
To ostatnie prowadzi nas do kwestii feminizacji i deprecjacji prestiżu.
3) Feminizacja w IT: demografia, ale też mechanizm statusu
„Feminizacja” bywa używana w dwóch sensach. Pierwszy to czysta statystyka: rosnący udział kobiet w zawodzie. Drugi to sens socjologiczny: zawód traci status i siłę przetargową, stając się bardziej „rutynowy” i mniej premiowany – a historycznie takie zawody często z czasem stawały się bardziej kobiece.
W UE kobiety stanowiły ok. 19,5% specjalistów ICT w 2024 r. (czyli mniej więcej 1 na 5). To niewiele, ale trend w dłuższym horyzoncie jest lekko rosnący (np. Eurostat raportował wzrost udziału kobiet wśród specjalistów ICT w 2023 r. względem 2013 r.).
Kluczowe jest pytanie: czy większa dostępność IT (narzędzia, edukacja, praca zdalna, standaryzacja) spowoduje istotniejszy napływ kobiet, i czy pójdzie za tym „odczarowanie” zawodu? Tu warto przywołać badania o relacji feminizacji i płac. W klasycznym artykule Asaf Levanon, Paula England i **Paul Allison autorzy pokazują, że zawody z większym udziałem kobiet przeciętnie płacą mniej (nawet po kontrolach), a dyskusja krąży wokół dwóch mechanizmów: „kolejki płciowej” (preferencje pracodawców) i deprecjacji pracy kojarzonej z kobietami.
To nie jest dowód, że „kobiety obniżają płace”. To raczej ostrzeżenie, że status zawodów bywa kruchy i społecznie konstruowany. Jeśli IT staje się masowe, bardziej przypomina pracę biurową z silną kontrolą procesową, a mniej „magię”, to łatwiej o mechanizm deprecjacji – niezależnie od płci.
Dodatkowa ironia: programowanie historycznie nie było od początku „męskim bastionem” w sensie symbolicznym; w USA udział kobiet w dyplomach CS osiągnął szczyt w latach 80., a potem spadł. To pokazuje, że płeć w IT nie jest stałą, tylko funkcją kultury, marketingu edukacji i struktury rynku.
4) Komodyfikacja kodu: gdy linijki przestają być przewagą, a stają się surowcem
Komodyfikacja to moment, gdy produkt przestaje być postrzegany jako unikalny, a zaczyna być „zamienny”. W IT ten proces widać od dawna: open source, biblioteki, frameworki, gotowe komponenty, chmura, managed services, platformy API. AI jedynie przyspiesza przesuwanie granicy tego, co „trzeba napisać samemu”.
Są trzy warstwy tej komodyfikacji:
- Komodyfikacja narzędzi i infrastruktury: chmura i gotowe usługi obniżają koszt wejścia i upraszczają architekturę, a rynek dąży do tego, by usługi stawały się porównywalne.
- Komodyfikacja aplikacji: low-code/no-code i platformy „dla biznesu” przejmują sporą część prostych zastosowań. Gartner prognozował, że do 2025 r. 70% nowych aplikacji w organizacjach będzie korzystać z technologii low-code/no-code (wzrost z <25% w 2020).
- Komodyfikacja samego kodowania: generatywne narzędzia zmieniają kod w półprodukt, który można wygenerować, a potem dopracować, zamiast „wytwarzać” od zera. W badaniu terenowym typu RCT („Dear Diary…”) w dużej firmie programistycznej regularne użycie narzędzi generatywnych zwiększało postrzeganą użyteczność i przyjemność, ale niekoniecznie zmieniało ocenę „wiarygodności” kodu – co jest ważne, bo komodyfikacja nie usuwa kosztu kontroli jakości.
Wniosek ekonomiczny jest prosty: jeśli kod jest łatwiejszy do wytworzenia, to wartość rynkowa przesuwa się w stronę tego, czego nie da się tak łatwo skopiować: rozumienia domeny, danych, integracji, bezpieczeństwa, zgodności, utrzymania, odpowiedzialności prawnej oraz zaufania organizacyjnego.
5) Koniec „programisty” jako osobnego zawodu: rozpad na role i „programowanie wszędzie”
Kiedyś „programista” był pakietem: pisał kod, budował architekturę, rozwiązywał problemy, wdrażał, bywało że utrzymywał. Wraz z industrializacją software’u te funkcje rozdzielały się (QA, DevOps, SRE, security, product). AI i low-code pchają to dalej: kodowanie przestaje być wyróżnikiem, staje się kompetencją przekrojową.
Już język rynku to sugeruje. Gartner, pisząc o low-code/no-code, zwracał uwagę na rosnącą rolę „citizen development” i „business technologists” – ludzi tworzących rozwiązania technologiczne poza klasycznym działem IT. To jest wprost scenariusz „programowania przez nie-programistów”, z profesjonalistami w roli kuratorów platform, integratorów, strażników jakości i ryzyka.
AI przyspiesza jeszcze jeden element: przesuwa presję z „wytwarzania” na „nadzór”. W artykule World Economic Forum pojawia się teza, że programiści są awangardą tego, jak AI zmienia pracę wiedzy: rola ma się istotnie przeobrażać, bo część czynności staje się „AI-native”.
Najbardziej namacalna konsekwencja społeczno-ekonomiczna dotyczy wejścia do zawodu. Zespół badawczy ze Stanford University analizujący dane płacowe (ADP) raportował spadek zatrudnienia wśród młodych (22–25) w zawodach silnie eksponowanych na AI, m.in. wśród młodych software developerów – zbliżający się do ~20% spadku względem szczytu z końca 2022 r. w pewnych ujęciach danych. To nie musi oznaczać „końca programistów”, ale jest sygnałem typowym dla procesu industrializacji: zwęża się gardło wejścia, bo część zadań juniorskich przestaje być opłacalna jako osobny etat.
W praktyce „koniec zawodu programisty” nie musi oznaczać braku ludzi piszących kod. Bardziej prawdopodobny jest układ, w którym:
- mniej osób ma etykietę „programista” jako pełnoetatową tożsamość,
- więcej osób „programuje” jako część roli domenowej (finanse, marketing, logistyka),
- elita przesuwa się na poziom architektury, bezpieczeństwa, danych, infrastruktury i odpowiedzialności.
6) Konsekwencje społeczno-ekonomiczne: co się zmienia poza samym IT
Najciekawsze skutki zwykle nie dotyczą technologii, tylko relacji pracy.
Po pierwsze, kompresja statusu. Gdy zawód przestaje być rzadki, znika część symbolicznej przewagi: mniej „nimbu”, więcej normalnej rywalizacji płacowej, KPI, kontroli. To często budzi opór kulturowy, który łatwo pomylić z „technofobią”, choć bywa raczej obroną pozycji klasowej.
Po drugie, polaryzacja wewnętrzna. IT nie tyle staje się przeciętnie płatne, co bardziej rozwarstwione: bardzo wysokie stawki w niszach o dużej odpowiedzialności (bezpieczeństwo, niezawodność, AI/ML, krytyczna infrastruktura) i presja na koszty w zadaniach zautomatyzowanych lub wystandaryzowanych.
Po trzecie, kryzys ścieżek kariery. Jeśli mniej jest pracy „na start”, to rośnie znaczenie alternatywnych kanałów wejścia (staże, portfolio, open source, praktyki w firmach), ale też rośnie ryzyko społecznej selekcji: ci, którzy mogą finansować dłuższy okres „uczenia się bez etatu”, zyskują przewagę.
Po czwarte, zmiana polityki firm i państw. W industrializacji spory o maszyny były w gruncie rzeczy sporami o regulacje, organizację rynku pracy i ochronę dochodu. Neo-luddyzm w erze AI może stać się po prostu polityką: jak rozdzielić zyski z produktywności i jak nie przerzucić kosztu transformacji na młodych oraz słabszych negocjacyjnie.
Zamiast puenty: elitarność rzadko umiera, raczej migruje
W industrializacji rzemieślnik nie zniknął całkiem; zmienił się rozkład ról. Pojawili się technicy, inżynierowie procesu, kontrolerzy jakości, projektanci narzędzi, zarządzanie produkcją. Podobnie w IT: „pisanie kodu” tanieje, ale rośnie cena za to, co trudniej skopiować i trudniej zautomatyzować: odpowiedzialność, ryzyko, integracja, zgodność, bezpieczeństwo, reputacja.