4.09.2023 Rynek medialny
Sztuczna inteligencja na uczelniach. Zakaz dla studentów nic nie da
Iga Leszczyńska, Nauka w Polsce
ilustracja: bing.com/createStudenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 roku - powiedział PAP Krzysztof Rychlicki-Kicior, dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
- Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych - powiedział Rychlicki-Kicior. Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
- To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne - zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, według Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego "dorobku" konkretnego studenta.
- Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe - powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej. Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
- W przypadku potencjalnego sporu wykładowca - student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma - powiedział.
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów.
- Środowisko akademickie nie może udawać, że problem nie istnieje - musi dostosować się do wymogów rzeczywistości! - podsumował Nadybski - Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta - a to jest przecież najważniejszy element kształcenia akademickiego.
***
artykuł pochodzi z portalu PAP Naukawpolsce.pl
Udostępniany jest na wolnej licencji.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Social media, dziennikarstwo i reklama. Zaufanie do treści sponsorowanych
Krzysztof Fiedorek
Czy sponsorowane treści niszczą wiarygodność w mediach społecznościowych? Wyniki badań są bezlitosne. Zwykłym wpisom redakcyjnym ufamy 87,5 procentach. Kiedy materiał opłaca bank, wskaźnik spada do 20 procent. Młodzi odbiorcy stawiają znak równości między komercją a fałszem.
Najbardziej wpływowe kobiety w polskim marketingu i biznesie
Arkadiusz Zbróg
Joanna Malinowska-Parzydło, Dagmara Pakulska, Natalia Hatalska, Anna Ledwoń-Blacha, Monika Smulewicz i Dominika Bucholc. Tak prezentuje się czołówka zestawienia najbardziej wpływowych kobiet marketingu i biznesu, opracowanego przez agencję Widoczni we współpracy z Instytutem Monitorowania Mediów (IMM).
Narażeni na dezinformację. Badanie fake newsów w social mediach
azk/ bst/ amac/
Aż 58 procent osób z pokolenia Z nie potrafi rozpoznać fake newsa w social mediach. Wśród osób powyżej 65. roku życia odsetek ten wynosi 29 procent - wynika z badania opublikowanego przez NASK i stowarzyszenie Praktycy.eu.
Podobne artykuły:
Najlepsze polskie podcasty. Pierwsza edycja konkursu na Podcast Roku
Krzysztof Bulski
Podcast Roku to pierwszy ogólnopolski konkurs, promujący jakość, oryginalność i kulturę przekazu różnych form dźwiękowych w mediach digitalowych. Konkurs upamiętnia redaktora Janusza Majkę, związanego przez niemal 40 lat z Polskim Radiem w Rzeszowie, zmarłego w lutym 2021 roku.
Eksperyment Milgrama 2023. AI może nakłonić do przemocy
KrzysztoF
Naukowcy z Uniwersytetu SWPS powtórzyli słynny eksperyment Milgrama, w którym badani byli nakłaniani do wyrządzania bólu innej osobie na polecenie autorytetu. Tym razem autorytetem był robot. To pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić.
Finanse oczami kobiet i mężczyzn. Jak o nich rozmawiać?
Klaudia Smolarska-Kulej
Mężczyźni wciąż odczuwają społeczną presję bycia odpowiedzialnym za utrzymanie rodziny, nawet jeśli ich partnerki zarabiają tyle samo, co oni lub nawet więcej. Z kolei kobiety podkreślają, że - w przeciwieństwie do mężczyzn - brakuje im odwagi, aby poprosić szefa o podwyżkę. Dodatkowo obawiają się ryzyka, dlatego rzadziej inwestują pieniądze.
Sztuczna inteligencja w mediach. Analiza Reuters Digital News Report 2024
Krzysztof Fiedorek
AI w ciągu ostatnich kilku lat zyskała na znaczeniu, a jej zastosowanie w produkcji, dystrybucji i prezentacji treści informacyjnych stale rośnie. Jednak rozwój ten jest odbierany przez odbiorców z mieszanymi uczuciami, co ma istotne konsekwencje dla zaufania do mediów oraz ich przyszłości.





























