4.09.2023 Rynek medialny
Sztuczna inteligencja na uczelniach. Zakaz dla studentów nic nie da
Iga Leszczyńska, Nauka w Polsce
Zdaniem ekspertów studenci używają ChatGPT, ale odgórny zakaz wykorzystywania narzędzi bazujących na AI nie jest i nie będzie skuteczny. Należy zmienić metody weryfikacji wiedzy i umiejętności studentów. Środowisko akademickie nie może udawać, że problem nie istnieje.

Studenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 roku - powiedział PAP Krzysztof Rychlicki-Kicior, dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
- Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych - powiedział Rychlicki-Kicior. Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
- To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne - zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, według Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego "dorobku" konkretnego studenta.
- Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe - powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej. Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
- W przypadku potencjalnego sporu wykładowca - student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma - powiedział.
Zaskoczenie: Wideo już NIE RZĄDZI [PL NAPISY] 👇
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów.
- Środowisko akademickie nie może udawać, że problem nie istnieje - musi dostosować się do wymogów rzeczywistości! - podsumował Nadybski - Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta - a to jest przecież najważniejszy element kształcenia akademickiego.
***
artykuł pochodzi z portalu PAP Naukawpolsce.pl
Udostępniany jest na wolnej licencji.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Dezinformacja o ESG w mediach. Raport Instytutu Monitorowania Mediów
Joanna Rafał
W ostatnim kwartale liczba publikacji o tym zagadnieniu wzrosła aż o 58% rok do roku. Jednocześnie zwiększa się skala dezinformacji związanej z ESG, szczególnie w kontekście greenwashingu. To istotne zagrożenie wizerunkowe dla firm angażujących się w działania proekologiczne i prospołeczne.
Algorytmy personalizacji. Naukowcy zbadali, kto rozumie media cyfrowe
KFi
Większość użytkowników internetu wierzy, że wszyscy widzą w sieci te same treści. Tymczasem algorytmy personalizują przekaz tak skutecznie, że młoda kobieta z wyższym wykształceniem otrzyma inne informacje niż jej ojciec. Badacze pokazują, kto naprawdę rozumie mechanizmy cyfrowego świata.
Uzależnienie od mediów. Dlaczego mózg nie daje sobie rady
Wojciech Łobodziński
Media cyfrowe wywołują bardzo mocne reakcje w naszym mózgu. Pobudzają te same mechanizmy nagrody co narkotyki i alkohol. Dlatego osoby szczególnie podatne, korzystające z tych mediów, są narażone na rozwój uzależnienia.
Podobne artykuły:
Radio w 2011 roku. Ponad 24 miliony słuchaczy dziennie
Krzysztof Głowiński
Trzeci rok z rzędu zasięg dzienny radia ogółem utrzymywał się na poziomie ponad 80 proc. Oznacza to, że w 2011 roku średnio każdego dnia radio włączało 24,3 mln słuchaczy.
Medyczne fake newsy napędzane sztuczną inteligencją. WYWIAD
Zbigniew Wojtasiński
Przy użyciu nowych technik można produkować pozornie profesjonalne nonsensy i sprawdzać, które mają większą nośność oraz wpływ na poczucie lęku i niepewności. Z profesorem Dariuszem Jemielniakiem, współzałożycielem projektu MEDfake rozmawia Zbigniew Wojtasiński z PAP.
Sztuczna inteligencja w mediach. Kiedy AI zastąpi dziennikarzy?
Y Dzięgielewski
Jednym z największych wyzwań w tworzeniu treści jest po prostu nieustanna kreatywność. Zazwyczaj to autor ustala „background” i strukturę tekstu, dostosowaną do wytycznych. Co więcej, musi też ten tekst napisać i oddać do korekty. Przy dwóch ostatnich czynnościach od niedawna pomoże nam AI.
Wojna i komunikacja. Edycja specjalna badania Kryzysometr
Dagmara Gac
Aż 9 na 10 organizacji uczestniczących w specjalnej edycji badania „Kryzysometr” miało od czasu inwazji Rosji na Ukrainę do czynienia z różnego rodzaju trudnościami, które wymagały wprowadzenia specjalnych działań komunikacyjnych. Dużym wyzwaniem jest również walka z fake newsami i hejtem.