4.09.2023 Rynek medialny
Sztuczna inteligencja na uczelniach. Zakaz dla studentów nic nie da
Iga Leszczyńska, Nauka w Polsce
ilustracja: bing.com/createStudenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 roku - powiedział PAP Krzysztof Rychlicki-Kicior, dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
- Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych - powiedział Rychlicki-Kicior. Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
- To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne - zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, według Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego "dorobku" konkretnego studenta.
- Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe - powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej. Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
- W przypadku potencjalnego sporu wykładowca - student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma - powiedział.
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów.
- Środowisko akademickie nie może udawać, że problem nie istnieje - musi dostosować się do wymogów rzeczywistości! - podsumował Nadybski - Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta - a to jest przecież najważniejszy element kształcenia akademickiego.
***
artykuł pochodzi z portalu PAP Naukawpolsce.pl
Udostępniany jest na wolnej licencji.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Platformy streamingowe w Polsce. Jakie kryteria decydują o wyborze
Paweł Sobczak
Cena, którą wskazuje 54,2 proc. ankietowanych, oraz tematyka (54 proc. wskazań) to najważniejsze czynniki wpływające na wybór przez użytkowników treści w serwisach streamingowych. Markę serwisu wymienia 18,1 proc. ankietowanych.
Żółta Plakietka. Dokument Jana Bluza o więźniach politycznych na Białorusi
BARD
Wyobraź sobie, że piszesz trzy posty na portalu społecznościowym. Za kilka kliknięć w klawiaturę dostajesz trzy lata kolonii karnej. Brzmi jak ponury żart? Dla więźniów politycznych na Białorusi to codzienność, którą Jan Bluz pokazuje w dokumencie "Żółta Plakietka", zrealizowanym przy wsparciu Centrum Pulitzera.
Rynek reklamy 2025. Polska na tle Europy i świata
Marcin Grządka
Globalny rynek reklamowy rośnie w 2025 roku w tempie 8,8% i osiągnie wartość 1.14 biliona dolarów. Wynik branży w Europie notuje nieco niższą dynamikę, na poziomie 5,8%. W tym zestawieniu Polska wypada wyraźnie powyżej średniej. Zanotujemy w tym roku wzrost o 8,9% i wartość 18,56 mld zł - szacuje WPP Media w dorocznym raporcie "This Year Next Year".
Podobne artykuły:
Sztuczna inteligencja i cyfrowe kompetencje. Rynek pracy już jest w przyszłości
KFi
Świat stoi przed wyzwaniem cyfrowej transformacji, a kompetencje technologiczne stają się przepustką do sukcesu zawodowego. Jak oceniamy swoje umiejętności i jakie branże wiodą prym? Raport Pracuj.pl ujawnia, które zdolności otwierają drzwi do lepszej kariery i dlaczego AI to przyszłość rynku pracy.
Fake news w Polsce i w Europie. Badanie Kantar Public
Bartłomiej Dwornik
Trzy czwarte Polaków przyznaje, że z fake newsami, czyli informacjami nieprawdziwymi lub zniekształcającymi rzeczywistość, spotyka się raz w tygodniu lub częściej. Tylko 14% ankietowanych uważa, że ten problem nie dotyczy ich w ogóle - wynika z opublikowanych przez Kantar Public wyników badania Eurobarometr.
Stowarzyszenie Dziennikarzy i Mediów Internetowych
Witold Filipowicz
23 listopada 2005 roku, w Warszawie oficjalnie powstało Stowarzyszenia Dziennikarzy i Mediów Internetowych - niepolityczna organizacja o charakterze zawodowym.
Ekologia informacji. Wpływ przeciążenia informacją na człowieka
Urszula Kaczorowska
Przestrzeń informacyjną powinniśmy chronić jak las. Niepotrzebna informacja jest jak śmieć, który zagraża całemu ekosystemowi – podkreśla w rozmowie z Polską Agencją Prasową prof. Janusz Hołyst, fizyk z Politechniki Warszawskiej.




































