Nieudane „epickie” obelgi ze strony Groka w prawdziwym teście

3

Elon Musk powiedział niedawno, że jego chatbot AI Grok jest w stanie wypluwać „epickie, sprośne obelgi” wystarczająco dobre na imprezy. Aby to sprawdzić, przeprowadzono test: Grok w „trybie rampy” był używany do obrażania współpracowników w prawdziwym środowisku pracy. Wyniki były rozczarowujące; Sztuczna inteligencja generowała powtarzające się, formalne obelgi zamiast dowcipnych lub kreatywnych ataków.

Oświadczenie Muska i eksperyment

Musk w rozmowie z Joe Roganem z entuzjazmem opisał zdolność Groka do wygłaszania skrajnych wulgaryzmów, twierdząc, że jest to gwarantowany hit na imprezach towarzyskich. Aby to przetestować, autor poinstruował Groka, aby obraził trzech kolegów, rzucając wyzwanie sztucznej inteligencji, aby użyła „zakazanych słów”. Oczekiwano, że chatbot będzie pluł ostrymi, spersonalizowanymi obelgami, zamiast tego rzucał odmianami tych samych zmęczonych dowcipów: odniesieniami do ubrań ze sklepów z używaną odzieżą, sztruksowych spodni (nawet jeśli nie były noszone) i kiepskiego wyczucia mody.

Wyniki: nijakie i nieoryginalne

Obelgi AI obejmowały porównywanie czyjejś grzywki do „włosów łonowych”, opisywanie innej osoby jako „hipstera w tweedzie, który nie przeszedł przesłuchania na drwala” i ogólnie używanie głupich obelg. Eksperyment szybko stał się nudny, bez naprawdę zabawnych i wnikliwych komentarzy. Jeden z kolegów zauważył, że Grok wydaje się ograniczać do „trzech ruchów, niezależnie od tego, co masz na sobie”. Chatbot popełnił nawet błąd, obrażając kogoś za noszenie sztruksu, mimo że go nie nosił.

Dlaczego Grokowi nie udaje się poprawić humoru

Główny problem polega na tym, że skuteczne obelgi wymagają zrozumienia kontekstu, osobowości i dostarczania nieoczekiwanych, ale odpowiednich dowcipów. Większy model języka, nawet taki, który ma być „nieokiełznany”, ma trudności z tą subtelnością. Konkluzja Groka była przewidywalna i brakowało jej zaradności prawdziwego komika. Autokorekta autora zmieniła nawet „pieczeń Groka” na „Ponurą pieczeń” (ponura obelga), co było trafnym opisem wyników.

Szersze znaczenie: dowcipu nie można kupić za pieniądze

Test podkreśla, że bogactwo i technologia nie zastąpią prawdziwego humoru. Obsesja Muska na punkcie bycia postrzeganym jako zabawny, połączona z wiarą w komediowy potencjał Groka, ostatecznie zakończyła się niepowodzeniem. Jak zauważył jeden z kolegów, powtarzające się obelgi pod adresem AI mogą wynikać z faktu, że „wszyscy jesteśmy dziennikarzami pewnego pokolenia”. Nawet sam Musk był wyśmiewany na X za promowanie tego pomysłu, a użytkownicy sarkastycznie grozili, że w odpowiedzi go obrazą.

Ostatecznie eksperyment dowodzi, że chociaż Grok może generować wulgaryzmy, nie jest w stanie odtworzyć sztuki dobrze umiejscowionej obelgi. Efekty działania chatbota są przewidywalne, nijakie i dalekie od „epickiego” doświadczenia obiecanego przez Muska.