Nick Clegg sobre la IA: evitar las exageraciones, abrazar la educación y la paradoja del poder

11

El ex ejecutivo de Meta, Nick Clegg, no encaja perfectamente en los campos de “la IA fatalista” o “impulsor”. En cambio, aboga por una visión pragmática de la inteligencia artificial, que reconozca su potencial y al mismo tiempo rechace tanto los temores sensacionalistas como las promesas exageradas. Desde que dejó Meta a principios de 2025, Clegg ha ocupado puestos en la junta directiva de Nscale (una empresa de centros de datos) y Efekta (una startup educativa impulsada por IA), lo que indica su continuo interés en las aplicaciones prácticas de la tecnología.

Las limitaciones del bombo publicitario

Clegg descarta los extremos del discurso de la IA, argumentando que tanto las predicciones apocalípticas como las afirmaciones utópicas están impulsadas por el interés propio. Señala que la IA sobresale en tareas específicas (como la codificación), pero tiene dificultades con otras, y que sus interacciones “extrañas” a menudo conducen a un antropomorfismo fuera de lugar. Esto es importante porque las expectativas exageradas pueden distraer la atención de los riesgos reales y obstaculizar una regulación sensata.

IA en la educación: democratización a través de la personalización

Clegg está particularmente entusiasmado con el potencial de la IA para transformar la educación, especialmente en mercados desatendidos como América Latina y el Sudeste Asiático. El asistente de enseñanza de IA de Efekta tiene como objetivo brindar instrucción personalizada a escala, abordar la escasez crónica de docentes y ofrecer acceso equitativo a una educación de calidad. Él cree que la IA puede superar las limitaciones de las aulas tradicionales adaptándose a las necesidades individuales de los estudiantes, algo que los profesores humanos luchan por lograr de manera constante.

Este cambio es significativo porque desafía el modelo tradicional de educación, donde los recursos y la atención se distribuyen de manera desigual. La IA tiene el potencial de nivelar el campo de juego, aunque Clegg reconoce los riesgos de una dependencia excesiva de la tecnología.

Navegando por los riesgos: dependencia emocional y envejecimiento

Clegg reconoce los peligros de la dependencia emocional de la IA, especialmente para los niños. Aboga por medidas de precaución, como IA agentes de control de edad para evitar interacciones inapropiadas. La comparación con la prohibición de las redes sociales para menores en Australia resalta los desafíos de su aplicación, pero Clegg sugiere controles en las tiendas de aplicaciones como una posible solución.

Este debate es crucial porque el acceso sin control a una IA emocionalmente manipuladora podría tener efectos psicológicos duraderos, especialmente en los jóvenes. La regulación debe lograr un equilibrio entre innovación y protección.

La paradoja del poder: concentración versus empoderamiento

Clegg es directo acerca de la creciente concentración del poder de la IA en manos de unos pocos gigantes tecnológicos, particularmente en Silicon Valley y China. El alto costo de la infraestructura LLM crea una barrera de entrada, lo que exacerba este desequilibrio. Sostiene que esto plantea un dilema fundamental: si bien la IA empodera a los individuos, también amplifica la influencia de unos pocos elegidos.

Este desequilibrio es un problema sistémico. Los efectos de red de la IA favorecen a los grandes actores, lo que dificulta la competencia y genera preocupación sobre los monopolios.

Regulación y Alineamiento Político

Clegg critica tanto las duras regulaciones sobre IA de la UE (llamándolas “autolesiones”) como el reciente alineamiento político de la industria tecnológica estadounidense. Sostiene que el enfoque de la UE es prematuro y sofoca la innovación, mientras que el giro de Silicon Valley hacia el apaciguamiento político es una tendencia peligrosa.

También señala la hipocresía de los defensores de la libre expresión en Estados Unidos que critican la regulación europea mientras pasan por alto las acciones agresivas de su propio gobierno contra empresas de inteligencia artificial como Anthropic. Esto subraya la necesidad de un enfoque más matizado y consistente para la gobernanza de la IA.

El caso del código abierto

Clegg aboga por la IA de código abierto como una forma de democratizar el acceso y evitar el control oligopólico. Irónicamente, señala que China está liderando el camino en este sentido, ya sea intencionalmente o no.

Esto es importante porque los modelos de código abierto pueden fomentar la innovación, la transparencia y una participación más amplia en el desarrollo de la IA, contrarrestando el predominio de los sistemas propietarios.

La paradoja del poder es clara: la IA ofrece empoderamiento individual y al mismo tiempo consolida el poder en manos de unos pocos. Abordar este desequilibrio requiere una regulación reflexiva, un compromiso con el desarrollo de código abierto y un rechazo tanto de la exageración como del miedo.

Las ideas de Clegg ofrecen una perspectiva fundamentada sobre la trayectoria de la IA, enfatizando las aplicaciones prácticas, reconociendo los riesgos e instando a un enfoque equilibrado de la regulación.