4.09.2023 Rynek medialny
Sztuczna inteligencja na uczelniach. Zakaz dla studentów nic nie da
Iga Leszczyńska, Nauka w Polsce
Zdaniem ekspertów studenci używają ChatGPT, ale odgórny zakaz wykorzystywania narzędzi bazujących na AI nie jest i nie będzie skuteczny. Należy zmienić metody weryfikacji wiedzy i umiejętności studentów. Środowisko akademickie nie może udawać, że problem nie istnieje.
Studenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 roku - powiedział PAP Krzysztof Rychlicki-Kicior, dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
- Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych - powiedział Rychlicki-Kicior. Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
- To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne - zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, według Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego "dorobku" konkretnego studenta.
- Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe - powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej. Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
- W przypadku potencjalnego sporu wykładowca - student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma - powiedział.
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów.
- Środowisko akademickie nie może udawać, że problem nie istnieje - musi dostosować się do wymogów rzeczywistości! - podsumował Nadybski - Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta - a to jest przecież najważniejszy element kształcenia akademickiego.
***
artykuł pochodzi z portalu PAP Naukawpolsce.pl
Udostępniany jest na wolnej licencji.
PRZERWA NA REKLAMĘ
Zobacz artykuły na podobny temat:
Machine Learning (ML) czyli uczenie maszynowe w produkcji filmowej
Arkadiusz Murenia
Zastosowanie technologii Machine Learning (ML) w produkcji filmowej może mieć kluczowe znaczenie dla sukcesu filmu, zarówno pod względem artystycznym, jak i komercyjnym
Koronasceptycy w mediach. Badanie agencji Dentsu
BARD
Mocno widoczny w digitalowych mediach koronasceptycyzm, który bagatelizuje pandemię albo skupia się na teoriach spiskowych, stanowi około 8 procent internetowych treści związanych z koronawirusem. Głównymi źródłami wiedzy o COVID-19 i bieżącej sytuacji są internet, media społecznościowe i telewizja, a coraz częściej także znajomi i rodzina.
Badanie oglądalności telewizji przy pomocy internetu rzeczy IOT
Newseria Biznes
Telewizja Polska SA prowadzi pilotażowe testy nowego systemu telemetrycznego, opartego o internet rzeczy i specjalne opaski, dokładnie rejestrujące zachowania widzów przed telewizorami. System ma być konkurencją dla pomiarów prowadzonych przez Nielsen Audience Measurement.
Dogma mediów
Marek Miller
Dogma wzięła się z tęsknoty za jasnością kryteriów, za czytelnym oddzieleniem dobra od zła, prawdy od fałszu, sztuki dziennikarskiej od jej pozorów. [Źródło: Tygodnik Powszechny]
Telewizja internetowa. Monitory wypierają telewizory
Bartłomiej Dwornik
Badania pokazują, że choć wideo w sieci ciągle jeszcze przegrywa z tradycyjną telewizją pod kątem ilości czasu przy nim spędzanego, to jednak ten czas się znacząco zwiększa.
Prasa, telewizja i radio nie wykorzystują możliwości internetu
Money.pl
Wyniki z badań I-Metria SA, przeprowadzonych w 2001 roku. Badania obejmowały witryny największych gazet, stacji telewizyjnych i rozgłośni radiowych.
Cudowny świat bez... "Gazety Wyborczej"
Magdalena Wierzchowska, Puls Biznesu
Marzenia polityków o wygranej z mediami są iluzją. Ich absurdalne wypowiedzi trudno traktować jako zagrożenie - twierdzi prezes Agory w rozmowie z Pulsem Biznesu.