Czy sztuczna inteligencja może stać się elementem oficjalnego egzaminu na prestiżowej uczelni? Na Wydziale Polonistyki Uniwersytet Jagielloński postanowiono to sprawdzić w praktyce. Studenci mogli legalnie korzystać z Chata GPT podczas przygotowania do debaty, a wykładowca przeanalizował, czy AI rzeczywiście wpływa na jakość ich argumentacji – i czy „zdaje” za nich egzamin.
Na Wydziale Polonistyki Uniwersytetu Jagiellońskiego egzamin przestał być sprawdzianem pamięci, a stał się testem kompetencji analitycznych w realiach epoki sztucznej inteligencji. Podczas eksperymentalnego zaliczenia studenci mogli oficjalnie korzystać z Chata GPT. Prowadzący zajęcia, prof. Wojciech Baluch, postanowił sprawdzić nie tyle to, czy AI „zda za nich”, lecz czy w kontrolowanych warunkach stanie się narzędziem wspierającym proces myślenia. Wnioski z przeprowadzonego eksperymentu podważają czarno-białą narrację o zagrożeniu dla edukacji i wskazują na potrzebę zmiany sposobu oceniania.
Nietypowy egzamin odbył się z udziałem ochotników z dwóch kierunków: pierwszego roku wiedzy o teatrze oraz pierwszego roku performatyki. Zamiast tradycyjnej pracy pisemnej przygotowywanej w domu, która coraz częściej budzi wątpliwości co do samodzielności wykonania, studenci stanęli do debaty oksfordzkiej. Wcześniej samodzielnie wybierali dzieło do analizy – dramat, film lub serial – oraz przygotowywali się z zakresu poetyki dramatu i narzędzi analitycznych. Dopiero na sali egzaminacyjnej losowali tezę lub antytezę, której mieli bronić. Na przygotowanie argumentacji otrzymali 30 minut i w tym czasie mogli korzystać z AI.
Założenie eksperymentu było pragmatyczne. Jak argumentował prowadzący w rozmowie z portalem krakow.wyborcza.pl, udawanie, że studenci nie używają sztucznej inteligencji, przestaje mieć sens. W realiach, w których narzędzia generatywne są powszechnie dostępne, tradycyjne formy zaliczeń – zwłaszcza pisemne prace tworzone poza uczelnią – coraz słabiej weryfikują faktyczne umiejętności analityczne i interpretacyjne.
Relacje studentów pokazują, że Chat GPT nie zastępował ich wiedzy, lecz pełnił funkcję pomocniczą. Paulina Karahanr, studentka wiedzy o teatrze analizująca „Oresteję” Ajschylosa, wskazywała, że podczas egzaminu korzystała z narzędzia przede wszystkim do wyszukiwania i doprecyzowania pojęć z zakresu poetyki dramatu. Na co dzień traktuje AI jako szybkie wsparcie w porządkowaniu notatek czy streszczaniu obszernych tekstów.
Podobnie Mikołaj Miska podkreślał, że poprosił Chata GPT o uporządkowanie informacji, co pomogło mu zbudować logiczną strukturę argumentów do debaty. Jednocześnie zaznaczył, że narzędziu nie można ufać bezrefleksyjnie. Przywołał sytuację, w której otrzymał fragment „Przedwiośnia”, który w rzeczywistości nie istnieje w powieści – przykład tzw. halucynacji AI, czyli generowania treści brzmiących wiarygodnie, lecz niezgodnych ze stanem faktycznym.
Po zakończeniu egzaminu i wystawieniu ocen prof. Baluch przeanalizował zarówno zapisy debat, jak i historię rozmów studentów z Chatem GPT. Celem było ustalenie, w jakim stopniu podpowiedzi AI przełożyły się na realną jakość argumentacji. Aby usprawnić analizę materiału, wykładowca stworzył własną asystentkę AI, która pomogła mu porównać przebieg dyskusji z treścią generowanych podpowiedzi.
Wnioski z tej analizy okazały się istotne: o poziomie wypowiedzi decydowało przede wszystkim przygotowanie merytoryczne studentów, a nie sam fakt korzystania z narzędzia. Sztuczna inteligencja mogła uporządkować materiał, przypomnieć definicje czy wskazać możliwe wątki interpretacyjne, lecz nie zastępowała kompetencji krytycznego myślenia ani umiejętności prowadzenia sporu.
Eksperyment ujawnił także szerszy problem systemowy. Jak wskazywał profesor w rozmowie z krakow.wyborcza.pl, środowisko akademickie szkoli kadrę naukową z zakresu wykorzystania AI w badaniach i dydaktyce, natomiast studentom najczęściej mówi się o niej wyłącznie w kontekście potencjalnego oszustwa.





















