menu szukaj
tygodnik internetowy ISSN 2544-5839
nowe artykuły w każdy poniedziałek
tytuł monitorowany przez IMM i PSMM
zamknij
REKLAMAbanner Electro

20.03.2023 Rynek medialny

ChatGPT nie zna się na żartach

Ludwika Tomala

Naukowcy z Politechniki Wrocławskiej sprawdzili czy ChatGPT rozumie żarty, wychwytuje błędy językowe, sarkazm i agresję, rozpoznaje spam. Poprosili program o wykonanie ponad 38 tysięcy zadań. Na razie wypada on gorzej niż nowoczesne wyspecjalizowane w tym programy, nie mówiąc już o ludziach.

ChatGPT nie zna się na żartachfot. Airam Dato-on/CC0/Pexels

- Jak na program, który nie był trenowany specyficznie w tym zakresie, ChatGPT i tak wypadł całkiem nieźle - komentuje jeden z autorów badania dr Jan Kocoń.

Język naturalny w komunikacji człowiek-komputer


- Ludzie przyzwyczaili się już, że w komunikacji z komputerem używają formularzy, komend czy słów kluczowych zamiast języka naturalnego. A głównym celem opracowania ChatGPT miało być wykonanie kroku w stronę naturalnej interakcji człowiek-komputer w formie konwersacji. Według nas ChatGPT jest w tym zakresie czymś rewolucyjnym - wyjaśnia dr Jan Kocoń z Politechniki Wrocławskiej. - ChatGPT szybko zaczął być jednak stosowany do celów, o których nie śniło się jego twórcom: rozwiązywania bardzo różnych problemów, które często wymagają świetnego rozumienia języka i znajomości kontekstów towarzyszących używaniu języka. Pytanie więc, jak dobrze ChatGPT orientuje się w tych obszarach.

Jak zadać 38 ty sięcy pytań


Naukowcy z zespołu CLARIN-PL - zajmujący się badaniami nad sztuczną inteligencją i przetwarzaniem języka naturalnego - postanowili to systematycznie sprawdzić. Poddali nowy chatbot restrykcyjnym testom. Zadali sztucznej inteligencji ponad 38 tysięcy zapytań.

REKLAMA

- To było bardzo pracochłonne, bo nie było wtedy jeszcze do tego żadnej API (interfejsu) do zadawania takiej liczby pytań. Dostępna była również jedynie bezpłatna wersja z limitem około 50 pytań na godzinę dla jednego użytkownika. 20 osób z zespołu użyczało swoich kont w serwisie ChatGPT, dzięki czemu możliwe było automatyczne zadawanie ok. 2 tys. pytań dziennie - opowiada dr Kocoń.

To jedne z największych dotąd badań dotyczących Chatu GPT. Na razie badania te nie były jeszcze zrecenzowane, badacze udostępnili preprint.

ChatGPT a konkurencja


Naukowcy chcieli porównać, jak ChatGPT prezentuje się na tle najlepszych dostępnych na rynku modeli do automatycznej analizy języka. Chodzi choćby o systemy do analizy tzw. sentymentu. To programy, które np. firmom marketingowym pozwalają analizować, jakie emocje wywołuje w sieci dana informacja, usługa czy marka.
- Dostawaliśmy bowiem zapytania od firm, czy opłaca się zrezygnować z tych wyspecjalizowanych programów i zdać się jedynie na ChatGPT - opowiada dr Kocoń.

Wniosek? Na razie ChatGPT wypada gorzej niż te programy. Im gorzej radziły sobie z jakimś zadaniem inne modele, tym słabiej na ich tle wypadł ChatGPT. Popełniał błędy, które wychwyciłaby większość ludzi. Specjalista do wszystkich tematów nie okazał się więc być mistrzem w żadnym z nich - oceniają w swojej publikacji naukowcy.

Bazy ludzkich ocen


Badacze wzięli na warsztat 25 obszarów tematycznych powiązanych z wielkimi bazami różnych tekstów, w których każdy tekst oceniony był już ręcznie przez ludzi. I tak np. korzystano z bazy prawie 40 tysięcy tweetów z Twittera, gdzie każdy oceniony był już wcześniej przez ileś osób jako sarkastyczny lub nie. Zrobiono też użytek z bazy projektu Wikipedia Detox, gdzie wikipedyści głosowali nad tym, czy dany komentarz jest agresywny czy nie. Użyto też bazy kilkudziesięciu tysięcy wpisów z portalu Reddit otagowanych przez ekspertów jako zawierających jakieś konkretne emocje.

Badacze zadawali Chatowi GPT te same pytania, na które wcześniej odpowiedzieli już ludzie. Np. pytali, czy zacytowany przez nich tekst jest spamem albo czy zawiera sarkazm, jest humorystyczny, agresywny albo czy jest poprawny gramatycznie. Były też prośby o rozpoznanie w tekście emocji, o wnioskowanie na podstawie informacji zaszytych w tekście czy o rozwiązanie prostych matematycznych zadań "z treścią".

- We wszystkich z 25 badanych obszarów chatbot od OpenAI znacznie ustępował swojej konkurencji. Aktualnie najlepsze modele przetwarzania języka naturalnego SOTA (state-of-the-art) znacznie lepiej wychwytywały poprawność gramatyczną, emocje użytkowników, znaczenia słów, trafniej odpowiadały na pytania i rozwiązywały zadania matematyczne. Mimo to, wyniki osiągane przez ChatGPT są imponujące, biorąc pod uwagę fakt, że dla większości testowanych zadań model nie był wcześniej trenowany bezpośrednio do ich rozwiązywania - komentują naukowcy w przesłanym PAP komunikacie o badaniach.

REKLAMA

A dr Kocoń dodaje, że strata ChatGPT wobec innych modeli wynosiła średnio 25 punktów procentowych. Najgorzej ChatGPT radził sobie z oceną emocji i zadaniami pragmatycznymi, wymagającymi wiedzy o świecie. Lepiej - z zadaniami semantycznymi, gdzie odpowiedź na pytanie można było wyciągnąć z analizowanego tekstu.

Naukowcy zwracają uwagę, że wyspecjalizowane modele do przetwarzania języka naturalnego, które już są na rynku, są zaprojektowane do jednego celu, np. do automatycznego wychwytywania agresywnych komentarzy. Są mniejsze i szybsze, i wytrenowane na konkretnych zbiorach danych odpowiadających na potrzeby użytkowników.

ChatGPT, mimo że jego odpowiedzi były poprawne rzadziej niż innych modeli, miał też jednak inne silne strony, w których pokonywał konkurencję. Jego zaletą było choćby to, że był w stanie wyjaśnić, dlaczego udzielił takiej, a nie innej odpowiedzi. I był kreatywny w odpowiedziach - gdy zadawano mu kilka razy to samo pytanie - odpowiedzi różniły się między sobą (co niestety znaczy również, że czasem bot odpowiadał prawidłowo, a czasem - nie).

REKLAMA

- Na razie więc ChatGPT nie zastąpi tych wyspecjalizowanych modeli, ale otwiera przed nami nowe możliwości, pokazuje, jak rozwijać się będzie świat - podsumowuje dr Kocoń. - Jest sporo zawodów, które ChatGPT może wyprzeć. Możliwości, jakie daje bot zmniejszą prawdopodobnie popyt na pracowników call-center. Pojawią się jednak inne zawody, których dotąd nie było - to choćby prompt-engineer - osoba specjalizująca się w układaniu dobrych poleceń dla chatbota. Ddla innych zawodów chatbot może być sporym wsparciem - przyda się np. w programowaniu, edukacji, korekcie czy tłumaczeniu tekstów.

Projekt CLARIN-PL jest największym projektem rozwoju sztucznej inteligencji finansowanym ze środków publicznych w Polsce. W jego realizację zaangażowanych jest 6 instytutów i ponad 20 firm. Większość zespołu pracuje na Politechnice Wrocławskiej. Głównym celem projektu jest opracowanie narzędzi do automatycznego przetwarzania ogromnych danych tekstowych głównie w języku polskim (ang. natural language processing - NLP).

***
artykuł pochodzi z portalu Naukawpolsce.pl
Udostępniany jest na wolnej licencji.

Udostępnij znajomym:

dodaj na Facebook prześlij przez Messenger dodaj na Twitter dodaj na LinkedIn

PRZERWA NA REKLAMĘ

Zobacz artykuły na podobny temat:

Media skazane na internet?

Katarzyna Ogórek
Telewizja i prasa jakie znamy umrą najdalej za cztery lata – prorokuje guru nowych technologii, George Gilder. Podkreśla jednocześnie, że wpływa na to niewątpliwie agresywną ekspansję Internetu.

Radio z wizją zyskuje słuchaczy. Czwórka chwali się wynikami

Anita Celarska
Spośród polskich stacji radiowych Czwórka ma także najaktywniejszych fanów na portalu społecznościowym Facebook.

Co charakteryzuje dobry film?

Arkadiusz Murenia
Jak znaleźć interesującą pozycję filmową? Jakie elementy powinien zawierać dobry film? Czym kierować się przy wyborze filmu? Teoretycznie wydaje się, że jest to wręcz banalne pytanie. Czy aby na pewno?

Portal mediów publicznych

Lech Stankiewicz
Powstał portal skierowany do dziennikarzy mediów publicznych. Jest prowadzony bezinteresownie przez grupę dziennikarzy z różnych ośrodków w kraju.

Zaufanie do informacji z internetu. Wyniki badań 2017

Monika Koziar
Tylko 29% internautów ma świadomość, że dostęp do informacji w internecie może być regulowany, a zaledwie 14% zgadza się ze stwierdzeniem, że nie wszyscy mamy do nich równy dostęp.

Misja jak z TVP, czyli po co dzieciom mądre pismo

Bartłomiej Dwornik
- Nasz produkt musi sam się obronić, choć nie jest czysto komercyjny - podkreśla Krzysztof Ziomek, redaktor naczelny i wydawca nowego dwumiesięcznika dla dzieci "Cudaczek i Przyjaciele".

Wpadki na wizji. Badanie telewizyjnych programów informacyjnych

Marcin Gościniak
Agencja informacyjna PRESS-SERVICE Monitoring Mediów regularnie bada zawartość głównych wydań Faktów TVN, Panoramy TVP2, Wiadomości TVP1 i Wydarzeń Polsatu. Oto ich zestawienie pod kątem omylności.

więcej w dziale: Rynek medialny

dołącz do nas

Facebook LinkedIn X Twitter Google RSS

praca w mediach

Wydawca, influencer
Whitepress Dziennikarz
oferty mediów lokalnych, regionalnych i ogólnopolskich Więcej

reklama

WhitePress - zarabiaj na swojej stronie
Rozlicz PIT i przekaż 1,5% na projekty fundacji Ogólnopolski Operator Oświaty

zarabiaj

Zarabiaj przez internet

więcej ofert



Reporterzy.info

Dla głodnych wiedzy

Nasze serwisy

Współpraca


© Dwornik.pl Bartłomiej Dwornik 2oo1-2o24