Jeszcze niedawno dyskusja o „AI na uczelniach” dotyczyła głównie przyszłości: kiedyś pojawi się problem ściągania, kiedyś zmienią się programy, kiedyś będzie trzeba uczyć nowych narzędzi. Dziś to już stan bieżący. Generatywna AI przeniosła część studenckiej pracy z obszaru „robię” do obszaru „zlecam i redaguję”, a uczelnie – zwłaszcza na kierunkach technicznych – muszą przebudować ocenianie, dydaktykę i oczekiwania wobec kompetencji absolwentów.
Skala zjawiska bywa zaskakująca nawet dla osób śledzących temat. Badanie Higher Education Policy Institute (zrealizowane z Kortext) pokazało, że w 2025 r. prawie wszyscy ankietowani studenci deklarowali używanie AI w jakiejś formie (92%), a 88% przyznawało, że korzystało z narzędzi generatywnych przy zadaniach ocenianych. Jednocześnie tylko 36% mówiło o realnym wsparciu uczelni w rozwijaniu tych umiejętności, mimo że „AI-literacy” uznawali za ważną.
To tworzy nową rzeczywistość akademicką – i nowy zestaw ryzyk.
Pierwszy problem: „projekty i prace domowe” przestały mierzyć to, co mierzyły W klasycznym modelu zadanie domowe (kod, esej, sprawozdanie, analiza) było w dużej mierze testem samodzielnego wykonania pracy. Generatywna AI w wielu przypadkach potrafi dostarczyć rezultat „wystarczająco dobry”, by przejść przez ocenę opartą na końcowym artefakcie. W IT dotyczy to nie tylko opisów, ale też działających fragmentów kodu, testów, dokumentacji, a nawet „poprawnie wyglądających” projektów architektonicznych.
W praktyce uczelnia staje przed wyborem: albo próbuje ścigać użycie AI, albo redefiniuje, co oznacza „samodzielność”. Międzynarodowe rekomendacje idą raczej w stronę budowania polityk i kompetencji niż prostych zakazów – m.in. dlatego, że tempo rozwoju narzędzi wyprzedza tempo dostosowywania regulacji, a instytucje bywają nieprzygotowane do walidacji narzędzi i ochrony prywatności.
Drugi problem: wyścig „detekcja kontra obejście” jest słabym fundamentem oceniania Wiele uczelni sięga po narzędzia wykrywania tekstu generowanego przez AI. Kłopot w tym, że skuteczność takich detektorów bywa zmienna, zależy od modelu i rodzaju treści, a fałszywe trafienia nie są czysto teoretycznym ryzykiem. Przeglądy badań wskazują dużą zmienność jakości detektorów oraz to, że nawet przy pozornie niskich wskaźnikach false positive skala oceniania może produkować tysiące „podejrzeń” do wyjaśnienia.
Z perspektywy rzetelności postępowania dyscyplinarnego ważna jest też prosta obserwacja z badań naukowych: narzędzia detekcji mogą dawać niespójne klasyfikacje, a wykrywanie treści generowanych przez nowsze modele bywa trudniejsze niż przez starsze; badacze podkreślają, że detektory nie powinny być jedyną podstawą rozstrzygnięcia. W podobnym duchu komunikują się sami dostawcy: dokumentacja Turnitin wprost mówi o ryzyku false positives i o tym, że wyniki nie powinny być jedyną podstawą „adverse actions”, a część progów jest celowo „niesurfowana”, by ograniczać szkody.
Wniosek dla dydaktyki IT jest dość bezlitosny: jeśli ocena opiera się głównie na końcowym kodzie lub raporcie, to AI zamienia ją w test umiejętności „dostarczenia pliku”, niekoniecznie w test rozumienia.
Trzeci problem: zależność od AI pogłębia starszą zależność od „zewnętrznych odpowiedzi” Argument „to już było – kiedyś Google i Stack Overflow” jest częściowo trafny, ale nie do końca. Wcześniej student zwykle musiał wykonać pracę integracji: znaleźć kilka źródeł, ocenić, złożyć rozwiązanie, dopasować do kontekstu. Generatywna AI skraca ten proces do jednej interakcji, a to zmienia nawyki poznawcze: mniej eksploracji, więcej akceptacji „pierwszej sensownej odpowiedzi”.
W społeczności programistycznej dobrze widać ten ambiwalentny zwrot. W badaniach Stack Overflow rośnie odsetek osób używających lub planujących użycie narzędzi AI w procesie wytwarzania oprogramowania (m.in. 76% w 2024 r.), ale jednocześnie spada entuzjazm, a osoby „uczące się programować” są bardziej sceptyczne niż profesjonaliści. To pasuje do akademickiego obrazu: AI jest używana masowo, lecz nie zawsze budzi zaufanie – co paradoksalnie zwiększa ryzyko bezrefleksyjnego przyjęcia błędów (bo „wypluło, to pewnie wie”).
Czwarty problem: luka pokoleniowa w kadrze i instytucjach Na wielu wydziałach najsłabszym ogniwem nie jest student, tylko system: brak spójnej polityki, brak standardu cytowania AI, brak narzędzi do bezpiecznej pracy z danymi, brak zgody co do tego, co wolno. Jednocześnie sytuacja szybko się zmienia. W cytowanym badaniu HEPI odsetek studentów, którzy oceniali kadrę jako „dobrze przygotowaną do pracy z AI”, wzrósł rok do roku z 18% do 42%. To nadal nie jest komfortowy poziom, ale trend jest jasny: instytucje uczą się w biegu.
W Polsce ten „bieg” widać po rosnącej liczbie dokumentów i wytycznych. Przykładowo Uniwersytet Łódzki odsyła do zarządzenia rektora regulującego użycie GenAI w kształceniu i dyplomowaniu, co pokazuje formalizację tematu na poziomie uczelni. Z kolei Politechnika Białostocka wprost podkreśla, że merytoryczna treść pracy ma pochodzić od studenta, a GenAI ma mieć charakter pomocniczy i być odpowiednio oznaczona. Politechnika Warszawska publikuje rekomendacje dla społeczności akademickiej dotyczące korzystania z GenAI jako narzędzia wspierającego proces kształcenia, przy jednoczesnym akcentowaniu wątpliwości i ryzyk. A Politechnika Gdańska łączy wytyczne formalne z budowaniem „infrastruktury kompetencji”: szkolenia, kursy, baza dobrych praktyk, biblioteka promptów, zasoby dla studentów i kadry.
To ważny sygnał: uczelnie zaczynają traktować AI nie jako „incydent przy zaliczeniach”, lecz jako stały element ekosystemu kompetencji.
Piąty problem: demotywacja i fatalizm („AI mnie zastąpi zanim skończę”) Ten lęk nie bierze się z niczego. Rynek pracy, szczególnie w IT, ma dziś dwie równoległe narracje. Pierwsza mówi: AI zwiększa produktywność, więc potrzebujemy mniej ludzi do prostych zadań. Druga odpowiada: AI przesuwa próg wejścia, ale popyt na kompetencje „wyższego rzędu” rośnie.
W debacie publicznej coraz częściej pojawia się wątek erozji ról juniorskich, bo to one zawierają najwięcej „grunt work”, które łatwo wspierać automatyzacją. Światowe Forum Ekonomiczne przytacza dane z raportu o przyszłości pracy: 40% pracodawców oczekuje redukcji zatrudnienia tam, gdzie AI może automatyzować zadania; równocześnie technologie mają tworzyć i likwidować miejsca pracy w dużej skali, a niektóre analizy pokazują, że młodsi kandydaci czują spadek wartości dyplomu na rynku.
Jednocześnie ostrożniejsze instytucje podkreślają „podwójny efekt” AI: zastępowanie pewnych zadań oraz komplementarność wobec pracy człowieka. Międzynarodowy Fundusz Walutowy opisuje AI jako technologię, która w wielu przypadkach będzie uzupełniać pracę, choć część ról i zadań pozostaje podatna na automatyzację. OECD, analizując użycie GenAI w sektorze MŚP, pokazuje z kolei, że firmy częściej raportują wzrost wydajności i rosnącą potrzebę wysoko wykwalifikowanych pracowników niż prostą „wymianę ludzi na model”.
Z punktu widzenia studenta IT praktyczna prawda bywa mniej dramatyczna, ale bardziej wymagająca: AI nie musi „zastąpić programisty”, żeby zmienić warunki startu. Wystarczy, że podniesie oczekiwania wobec juniora.
Co to oznacza dla rynku pracy IT: przesunięcie wartości z „pisania” na „rozumienie” W świecie sprzed GenAI wielu początkujących budowało przewagę szybkością dostarczania prostych fragmentów kodu, wykonywaniem powtarzalnych zadań, klejeniem integracji. W świecie z GenAI ta warstwa staje się tańsza. Rośnie natomiast wartość umiejętności, których AI nie gwarantuje:
– rozumienie problemu biznesowego i doprecyzowanie wymagań, – krytyczna ocena poprawności (logika, edge-case’y, bezpieczeństwo), – debugowanie i „czytanie kodu” z pełnym zrozumieniem skutków, – projektowanie systemu (kompromisy, niezawodność, koszt, utrzymanie), – praca zespołowa: przeglądy, uzasadnianie decyzji, komunikacja ryzyk.
Co ciekawe, nawet dokumenty tworzone na uczelniach mówią o tym wprost: raport DELab UW ostrzega, że zlecając zadania generatywnej AI można nie zdobyć kluczowych kompetencji potrzebnych do krytycznej oceny wyników. To jest sedno „ukrytej zmiany” w edukacji informatycznej: problemem nie jest samo użycie narzędzia, tylko utrata treningu w ocenie jakości i odpowiedzialności za decyzję.
Jak uczelnie mogą odpowiedzieć: mniej „polowania”, więcej redesignu Najbardziej sensowne reakcje dydaktyczne nie próbują udawać, że AI nie istnieje. Raczej przebudowują ocenianie tak, by nadal mierzyć kompetencję, a nie zdolność dostarczenia tekstu lub kodu.
- Ocena procesu, nie tylko wyniku: wersjonowanie (commit-history), krótkie notatki projektowe, uzasadnienie decyzji, analiza alternatyw, retrospektywa błędów i poprawek.
- Elementy „weryfikujące rozumienie”: obrona ustna, zadania na żywo, krótkie kolokwia z czytania i modyfikacji kodu, praca na nieznanym wcześniej fragmencie projektu.
- Zadania odporne na „jedno-promptowe” rozwiązania: projekty osadzone w kontekście lokalnym (dane, wymagania, ograniczenia), gdzie liczy się diagnoza i kompromisy.
- Jasne zasady użycia i oznaczania AI: co wolno (np. wyjaśnienia, streszczenia, szkice), czego nie wolno (np. generowanie merytorycznej treści pracy), jak dokumentować wkład narzędzia – tu polskie uczelnie coraz częściej idą w stronę formalnych wytycznych.
- Zamiast „detektor jako sędzia”: detektor jako sygnał pomocniczy, po którym następuje rozmowa i weryfikacja rozumienia; badania pokazują, dlaczego to podejście jest bezpieczniejsze.
- Kształcenie „AI-literacy”: limity narzędzi, halucynacje, prywatność danych, ryzyka prawne, bias – to kierunek zgodny z podejściem budowania zdolności instytucji, o którym mówi UNESCO.
A student? Dwie decyzje, które realnie zmieniają trajektorię Po pierwsze: potraktować AI jako narzędzie treningowe, nie jako podwykonawcę. Jeśli AI pisze za Ciebie, Twoja „pętla uczenia” zanika. Jeśli AI pomaga Ci szybciej dojść do momentu, w którym musisz sam ocenić, poprawić i obronić rozwiązanie – wtedy zyskujesz.
Po drugie: budować dowody kompetencji, które nie rozpływają się w pytaniu „czy to napisała AI?”. Portfolio projektów z historią decyzji, testami, wdrożeniem, krótką obroną architektury i uczciwym opisem użycia narzędzi jest bliższe temu, jak wygląda praca w IT niż „ładny plik zaliczeniowy”. A rynek – niezależnie od narracji o zastępowaniu – będzie premiował ludzi, którzy potrafią dowieźć odpowiedzialny rezultat, nie tylko wygenerować tekst.
AI już zmieniło studia. Największy paradoks jest taki, że przez chwilę może ułatwiać przechodzenie przez edukację, a jednocześnie utrudniać wejście na rynek pracy tym, którzy pozwolą jej przejść przez edukację za nich.