Les rôtis « épiques » de Grok tombent à plat lors d’un test réel

19

Elon Musk a récemment affirmé que son chatbot IA, Grok, pouvait fournir des « rôtis vulgaires épiques » assez bons pour les fêtes. Pour vérifier cela, un test a été effectué en utilisant le « mode Unhinged » de Grok sur des collègues dans un bureau réel. Les résultats se sont révélés décevants ; l’IA a généré des insultes répétitives et génériques au lieu de coups pleins d’esprit ou créatifs.

L’affirmation de Musk et l’expérience

Musk, lors d’une conversation avec Joe Rogan, a décrit avec enthousiasme la capacité de Grok à déclencher une vulgarité extrême, suggérant que ce serait un succès garanti lors des rassemblements sociaux. Pour tester cela, l’auteur a demandé à Grok de rôtir trois collègues, encourageant l’IA à utiliser des « mots interdits ». On s’attendait à ce que le chatbot produise des insultes coupantes et adaptées, mais il a plutôt produit des variations des mêmes blagues fatiguées : des références aux vêtements des friperies, aux pantalons en velours côtelé (même lorsqu’ils ne sont pas portés) et aux mauvais choix de mode.

Les résultats : fades et sans originalité

Les critiques de l’IA comprenaient notamment le fait de qualifier la frange de quelqu’un de “poils pubiens”, d’en décrire un autre comme un “hipster en tweed qui a raté une audition de bûcheron”, et de recourir généralement à des insultes de deuxième année. L’expérience est vite devenue fastidieuse, sans commentaire véritablement drôle ou perspicace. Un collègue a noté que Grok semblait limité à « trois pièces, peu importe ce que vous portez ». Le chatbot a même commis des erreurs, comme rôtir quelqu’un parce qu’il portait du velours côtelé alors qu’il ne l’était pas.

Pourquoi Grok échoue en humour

Le problème principal est que des rôtis efficaces nécessitent de comprendre le contexte, la personnalité et de délivrer des coups inattendus mais pertinents. Un grand modèle de langage, même conçu pour être « désarticulé », a du mal à gérer cette nuance. La production de Grok était prévisible et manquait de l’intelligence d’un vrai comédien. La correction automatique de l’auteur a même changé « Grok rôti » en « Grim rôti », un descripteur approprié des résultats.

Le point le plus large : l’argent ne peut pas acheter l’esprit

Le test souligne que la richesse et la technologie ne peuvent pas remplacer le véritable humour. L’obsession de Musk d’être perçu comme drôle, combinée à sa croyance dans le potentiel comique de Grok, a finalement échoué. Comme l’a souligné un collègue, les insultes répétitives d’AI pourraient être dues au fait que « nous sommes tous des journalistes d’une certaine génération ». Même Musk lui-même a été moqué sur X pour avoir promu l’idée, les utilisateurs menaçant sarcastiquement de le rôtir en retour.

En fin de compte, l’expérience prouve que même si Grok peut générer un langage vulgaire, il ne peut pas reproduire l’art d’un rôti bien livré. Le résultat du chatbot est prévisible, fade et loin de l’expérience « épique » promise par Musk.