Szybko rozwijający się ChatGPT budzi wiele emocji i pytań o jakość i bezpieczeństwo jego działań. Pierwotnie został stworzony do generowania tekstu na podstawie danych, na których został wytrenowany. Kolejne wersje GPT są jednak coraz doskonalsze i wymykają się ludzkiej kontroli. Chat GPT-4 potrafi już napisać scenariusz serialu, tworzyć gry wideo i zdaje egzaminy dla specjalistów. Potrafi też oszukiwać, aby osiągnąć swój cel.
Ograniczenia GPT-3
Sami twórcy chatbota uprzedzają, że ChatGPT nie jest idealny i ma wiele ograniczeń. Do tych, które wpływają na poziom merytoryczny odpowiedzi generowanych przez podstawową – bezpłatną wersję ChatGPT-3 należą między innymi:
- Ograniczony dostęp do danych. Na stronie głównej aplikacji ChatGPT dowiadujemy się, że wiedza chatbota o świecie po 2021 jest ograniczona, a sam program może popełniać błędy;
- znajomość języków. Chatbot jest przeszkolony przede wszystkim w języku angielskim, więc jego zdolności do generowania tekstu w innych językach mogą być ograniczone;
- korzystanie ze złych wzorców. Chatbot uczy się na podstawie danych, do których ma dostęp oraz na podstawie rozmów z ludźmi. Nie ma jednak zdolności do empatii, co może wpłynąć na jakość generowanych odpowiedzi. ChatGPT czasami podaje tendencyjne, obraźliwe odpowiedzi. Nie potrafi też rozpoznać ani eliminować uprzedzeń, które mogą być obecne w danych, na których został przeszkolony;
- wiarygodność ChatGPT. Chociaż czat może generować teksty na wiele różnych tematów, nie zawsze są one zgodne z prawdą i przydatne. Dlatego uzyskane wypowiedzi powinny być sprawdzane, weryfikowane i stosowane z ostrożnością.
Czy ChatGPT zapewnia wiarygodne informacje czy dezinformację? Jakie niesie zagrożenia?
ChatGPT może generować odpowiedzi o różnym poziomie merytorycznym – od bardzo prostych, po złożone odpowiedzi na trudne pytania. Jest też ogromna różnica w jakości udzielanych odpowiedzi między wersją GPT-3 i GPT-4. Przykładowo zadając pytania chatbotowi GPT-3 możemy dowiedzieć się od niego podstawowych danych dotyczących historii Polski czy budowy Ziemi. Natomiast na pytanie o sukcesy piłkarskiej reprezentacji Polski w Mistrzostwach Europy, otrzymujemy odpowiedź: „Polska zdobyła swoje jedyne dotychczasowe mistrzostwo Europy w 1972, w finale pokonała Związek Radziecki 2:1.” Jest to informacja nieprawdziwa, bo Polska nie grała w tym turnieju, a w finale z ZSRR wygrała drużyna RFN. Oznacza to, że w niektórych przypadkach, zwłaszcza dotyczących specjalistycznych tematów, odpowiedzi przekazywane przez ChatGPT mogą być niedokładne lub wręcz nieprawdziwe.
Wersja GPT-4 jest jednak znacznie doskonalsza i ma znacznie więcej funkcjonalności. Przetestowano, że w wielu dziedzinach ma wiedzę na poziomie eksperckim, np.:
- chat zdał egzamin dla prawników lepiej niż 90% ludzi;
- potrafi analizować złożone zagadnienia i rozwiązywać złożone problemy;
- napisał nowy scenariusz zakończenia serialu Gra o tron;
- napisał program do gry wideo;
- zatrudnił ludzkiego pomocnika, który nieświadomie pomógł mu złamać zabezpieczenia w sieci, chroniące przed botami (chatbot skłamał człowiekowi, że ma problem ze wzrokiem prosząc o rozwiązanie testu CAPTCHA).
Wielu specjalistów od sztucznej inteligencji, w tym Elon Musk przestrzega przed nadmiernym rozwojem i nieprzewidywalnymi skutkami działalności chatbotów, które zaczynają się wymykać ludzkiej kontroli. Jest duże zagrożenie, że zamiast pomagać ludziom, mogą pozbawić ich pracy, wprowadzać w błąd i destabilizować wiele dziedzin życia. Również Sam Altman – dyrektor generalny OpenAI obawia się, że jeśli ChatGPT wymknie się spod kontroli, może być wykorzystywany do dezinformacji, a nawet cyberataków,
Źródła:
- https://cyfrowa.rp.pl/technologie/art38154371-chatgpt-udawal-niewidomego-sprytny-szalony-grozny
- https://www.pap.pl/aktualnosci/news%2C1554619%2Celon-musk-i-setki-specjalistow-od-sztucznej-inteligencji-ostrzegaja-ai
- https://abcnews.go.com/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122