4.09.2023 Rynek medialny
Sztuczna inteligencja na uczelniach. Zakaz dla studentów nic nie da
Iga Leszczyńska, Nauka w Polsce
ilustracja: bing.com/createStudenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 roku - powiedział PAP Krzysztof Rychlicki-Kicior, dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
- Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych - powiedział Rychlicki-Kicior. Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
- To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne - zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, według Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego "dorobku" konkretnego studenta.
- Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe - powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej. Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
- W przypadku potencjalnego sporu wykładowca - student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma - powiedział.
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów.
- Środowisko akademickie nie może udawać, że problem nie istnieje - musi dostosować się do wymogów rzeczywistości! - podsumował Nadybski - Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta - a to jest przecież najważniejszy element kształcenia akademickiego.
***
artykuł pochodzi z portalu PAP Naukawpolsce.pl
Udostępniany jest na wolnej licencji.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Social media, dziennikarstwo i reklama. Zaufanie do treści sponsorowanych
Krzysztof Fiedorek
Czy sponsorowane treści niszczą wiarygodność w mediach społecznościowych? Wyniki badań są bezlitosne. Zwykłym wpisom redakcyjnym ufamy 87,5 procentach. Kiedy materiał opłaca bank, wskaźnik spada do 20 procent. Młodzi odbiorcy stawiają znak równości między komercją a fałszem.
Najbardziej wpływowe kobiety w polskim marketingu i biznesie
Arkadiusz Zbróg
Joanna Malinowska-Parzydło, Dagmara Pakulska, Natalia Hatalska, Anna Ledwoń-Blacha, Monika Smulewicz i Dominika Bucholc. Tak prezentuje się czołówka zestawienia najbardziej wpływowych kobiet marketingu i biznesu, opracowanego przez agencję Widoczni we współpracy z Instytutem Monitorowania Mediów (IMM).
Narażeni na dezinformację. Badanie fake newsów w social mediach
azk/ bst/ amac/
Aż 58 procent osób z pokolenia Z nie potrafi rozpoznać fake newsa w social mediach. Wśród osób powyżej 65. roku życia odsetek ten wynosi 29 procent - wynika z badania opublikowanego przez NASK i stowarzyszenie Praktycy.eu.
Podobne artykuły:
Media "czwartą władzą"?
Paulina Dużyk-Dyna
W dokumentach prawnych demokratycznych państw jest zapisane i funkcjonuje trójpodział władzy. Skąd więc wziął się termin czwartej władzy? I dlaczego to mediom przypisuje się to pojęcie?
Clickbait pod lupą. Jak przez 25 lat zmieniały się nagłówki w internecie
Krzysztof Fiedorek
Badacze z Max Planck Institute przenalizowali 40 milionów nagłówków z ostatnich 25 lat. Są coraz dłuższe, bardziej emocjonalne i negatywne, z wyraźnym wpływem stylu clickbaitowego. Nawet renomowane media stosują strategie i tricki przyciągające uwagę.
Influencerzy zarabiają za dużo. Raport No Fluff Jobs
KrzysztoF
Zdaniem prawie 70 proc. Polaków influencerzy zarabiają za dużo, a u 54 proc. budzą najmniejszą sympatię ze wszystkich zawodów. Równie niskim poważaniem wśród ankietowanych przez No Fluff Jobs cieszą się tylko politycy. Za mało zarabiają natomiast pielęgniarki oraz… rolnicy.
Dziennikarstwo w erze AI. Dlaczego odbiorcy wolą ludzi od maszyn
Krzysztof Fiedorek
Tylko 12% ludzi akceptuje wiadomości tworzone wyłącznie przez AI, a aż 62% woli te pisane przez ludzi. Jednocześnie tylko 19% zauważa oznaczenia wskazujące na użycie sztucznej inteligencji, a młodzi odbiorcy proszą AI, żeby... wytłumaczyła im treść informacji. To wnioski z raportu Reuters Institute na temat sztucznej inteligencji w mediach.




































