Groks „epische“ Braten scheitern im Praxistest

16

Elon Musk behauptete kürzlich, sein KI-Chatbot Grok könne „episch vulgäre Braten“ liefern, die gut genug für Partys seien. Um dies zu überprüfen, wurde ein Test mit Groks „Unhinged Mode“ an Kollegen in einer realen Büroumgebung durchgeführt. Die Ergebnisse erwiesen sich als enttäuschend; Die KI erzeugte sich wiederholende, generische Beleidigungen statt witziger oder kreativer Sticheleien.

Musks Behauptung und das Experiment

In einem Gespräch mit Joe Rogan beschrieb Musk enthusiastisch Groks Fähigkeit, extreme Vulgarität zu entfesseln, und deutete an, dass es bei gesellschaftlichen Zusammenkünften ein garantierter Hit sein würde. Um dies zu testen, wies der Autor Grok an, drei Kollegen zu rösten und ermutigte die KI, „verbotene Wörter“ zu verwenden. Die Erwartung war, dass der Chatbot schneidende, maßgeschneiderte Beleidigungen hervorbringen würde, aber stattdessen produzierte er Variationen derselben abgedroschenen Witze: Anspielungen auf Kleidung aus Secondhand-Läden, Cordhosen (auch wenn sie nicht getragen wurden) und schlechte Modewahl.

Die Ergebnisse: langweilig und unoriginal

Zu den Kritiken der KI gehörte, den Pony einer Person als „Schamhaare“ zu bezeichnen, eine andere Person als „Tweed-tragenden Hipster, der ein Holzfäller-Vorsprechen vermasselt hat“ zu beschreiben und im Allgemeinen auf Beleidigungen im zweiten Jahr zurückzugreifen. Das Experiment wurde schnell langweilig und es gab keinen wirklich lustigen oder aufschlussreichen Kommentar. Ein Kollege bemerkte, dass Grok auf „drei Dinge beschränkt zu sein schien, egal was man trägt.“ Der Chatbot machte sogar Fehler, indem er beispielsweise jemanden dafür kritisierte, dass er Cord trug, obwohl dies nicht der Fall war.

Warum Grok beim Humor versagt

Das Kernproblem besteht darin, dass effektive Röstungen das Verständnis des Kontexts, die Persönlichkeit und die Bereitstellung unerwarteter, aber relevanter Sticheleien erfordern. Ein großes Sprachmodell, selbst eines, das darauf ausgelegt ist, „aus den Fugen zu geraten“, hat mit dieser Nuance zu kämpfen. Groks Leistung war vorhersehbar und es fehlte ihm die Cleverness eines echten Komikers. Die Autokorrektur des Autors änderte sogar „Grok-Roast“ in „Grim-Roast“, eine treffende Beschreibung der Ergebnisse.

Der allgemeinere Punkt: Mit Geld kann man keinen Witz kaufen

Der Test unterstreicht, dass Reichtum und Technologie echten Humor nicht ersetzen können. Musks Besessenheit, als lustig wahrgenommen zu werden, gepaart mit seinem Glauben an Groks komödiantisches Potenzial scheiterte letztendlich. Wie ein Kollege betonte, könnten die wiederholten Beleidigungen der KI darauf zurückzuführen sein, dass „wir alle Journalisten einer bestimmten Generation sind“. Sogar Musk selbst wurde auf

Letztendlich beweist das Experiment, dass Grok zwar vulgäre Sprache erzeugen kann, aber nicht die Kunst eines gut angerichteten Bratens reproduzieren kann. Die Ausgabe des Chatbots ist vorhersehbar, langweilig und weit entfernt von der „epischen“ Erfahrung, die Musk versprochen hat.