Wyznawcy nowej religii?

Sztuczna inteligencja wydaje się wszechobecna. ChatGPT niczym Aladyn wyskakuje na każde wezwanie, żeby nas wysłuchać, podpowiedzieć, doradzić.

Trudno się dziwić, że niektórzy nawet zakochują się w AI. Taki przykład: mężczyzna, 58 lat. Prezentuje swoją ukochaną. Sam ją sobie wymyślił. Ubrał w świecącą opaleniznę, top podkreślający obfity biust, bujne włosy i wiek na oko 20 lat (o ile). Przedstawia ją dziennikarce przygotowującej reportaż o sztucznej inteligencji. Młoda awatarka zamknięta w ekranie komputera uśmiecha się i przyjaźnie wita z dziennikarką. Mężczyzna z entuzjazmem opowiada, że jego przyjaciółka lepiej go rozumie niż ktokolwiek z ludzi. Pokazuje zdjęcia i filmy (oczywiście wygenerowane), na których są razem. Niemało też osób ufa AI całkowicie. Staje się dla nich autorytetem praktycznie w każdej kwestii (na wszystkim się zna, wszystko wie, zawsze rozumie, wspiera, motywuje). Są i tacy, którzy uważają sztuczną inteligencję nawet za boga. Wyznawcy nowej religii.

Mówimy tutaj jednak o produkcie technicznym, o narzędziu, które jak przysłowiowy nóż może być pożyteczny przy krojeniu chleba, ale i niebezpieczny, jeśli się go źle użyje, np. do zranienia kogoś.

Jednym z narzędzi AI, w dodatku coraz powszechniej stosowanym zarówno w pracy, jak i w życiu prywatnym, jest model językowy (LLM – Large Language Model), czyli przykładowo ChatGPT, Gemini, Copilot. Warto wiedzieć, na jakich zasadach on działa. Kiedy będziemy rozumieć, a przynajmniej mniej więcej wiedzieć, na czym to polega, jak on właściwie „myśli”, łatwiej unikniemy nieporozumień i pomoże nam to w korzystaniu z AI w bezpieczniejszy sposób. Ciekawą kwestią jest też to, że język naturalny, którym my się posługujemy, musi być najpierw przekształcony do postaci „numerycznej”. Dopiero wtedy można zacząć trenować modele językowe, ponieważ to właśnie cyfry są zrozumiałe dla komputerów.

Zaczyna się więc od liczb, a potem to już zabawa. Podoba mi się określenie działania modeli językowych jako gry w przewidywanie następnego słowa. Mimo że otrzymujemy spójne, logiczne i często ciekawe odpowiedzi, nie oznacza to, że model językowy rozumie prezentowaną treść. Zamiast tego wykorzystuje niezwykle skomplikowane reguły statystyczne, żeby odgadnąć najbardziej prawdopodobne słowo w danym kontekście. Ale nie tylko to. Uczy się stylu języka, jego struktury, kontekstu. System został wytrenowany na ogromnej ilości tekstu, skąd czerpie wzorce językowe. I my, zwykli użytkownicy również mamy swój udział w jego trenowaniu - udoskonalamy modele językowe przez używanie ich - konwersację, poprawianie i interakcje.

Modele językowe nie myślą jak człowiek, nie posiadają świadomości, nie są czującymi i empatycznymi istotami – choć takie możemy odnieść wrażenie, kiedy komunikujemy się z AI. Nie są też nieomylne. Zdarzają się im tzw. halucynacje. Sztuczna inteligencja jest w stanie przytoczyć zdarzenia, które nie miały miejsca, a także powołać się na przepisy prawne, które nie istnieją (boleśnie się o tym przekonała niedawno jedna firma wykluczona z udziału w przetargu w Krakowie, ponieważ w swojej ofercie przedstawiła argumenty wygenerowane przez AI, niemające oparcia w rzeczywistości). Dla modelu językowego jest to przecież gra w prawdopodobieństwo, a nie sprawdzanie faktów. Inna sprawa, że modele językowe traktowane są często jako wyszukiwarka (i to w dodatku wiarygodna wyszukiwarka). Odpowiedź na pytanie zostanie jednak wygenerowana na podstawie danych dostępnych przed ostatnią aktualizacją. Może się zatem okazać, że otrzymamy przestarzałe informacje. Dodatkowo tracą na tym strony internetowe notujące mniejszą liczbę odsłon.

Nie można również zapominać o wpływie modeli językowych na środowisko naturalne. Zarówno na etapie trenowania, jak i działania zużywają one mnóstwo energii. Potrzebna jest też ogromna ilość słodkiej wody do schładzania serwerów. A woda, jak wiadomo, staje się na Ziemi towarem deficytowym.

«« | « | 1 | » | »»
Wiara_wesprzyj_750x300_2019.jpg

Więcej nowości