OpenAI está solicitando activamente asignaciones de trabajo reales a contratistas para comparar sus modelos de IA de próxima generación con el desempeño humano. La empresa solicita a los contratistas que carguen entregables de trabajos anteriores o actuales (documentos, presentaciones, hojas de cálculo e incluso repositorios de códigos) como datos de capacitación. Esta iniciativa parece ser una parte central del impulso de OpenAI hacia la Inteligencia General Artificial (AGI), donde los sistemas de IA superan las capacidades humanas en tareas económicamente valiosas.
Desempeño humano como línea base
OpenAI tiene como objetivo establecer una base humana cuantificable para diversas tareas. Al comparar los resultados de la IA con muestras reales de trabajo humano, la empresa puede evaluar el progreso de sus modelos. Se solicita a los contratistas que proporcionen descripciones detalladas de las tareas y los entregables correspondientes: el producto del trabajo terminado. Este enfoque prioriza la autenticidad, y OpenAI solicita explícitamente “trabajo real en el trabajo” en lugar de simulaciones.
Preocupaciones de confidencialidad
A pesar de las instrucciones de eliminar datos confidenciales, la práctica plantea importantes riesgos legales. El abogado de propiedad intelectual Evan Brown advierte que los laboratorios de inteligencia artificial podrían enfrentar demandas de apropiación indebida de secretos comerciales si se filtra información confidencial. Los contratistas que comparten muestras de trabajo, incluso después de la anonimización, pueden violar acuerdos de confidencialidad con empleadores anteriores. La propia OpenAI reconoce la necesidad de eliminar datos confidenciales e incluso hace referencia a una herramienta interna, “Superstar Scrubbing”, para este propósito.
El mercado de formación en IA en expansión
Esta práctica es sintomática de una tendencia más amplia: los laboratorios de IA dependen cada vez más de datos de entrenamiento de alta calidad. Empresas como OpenAI, Anthropic y Google están contratando ejércitos de contratistas a través de empresas como Surge, Mercor y Handshake AI para generar estos datos. La demanda de contratistas calificados ha hecho subir los precios, creando una subindustria lucrativa valorada en miles de millones. OpenAI incluso ha explorado la posibilidad de adquirir datos directamente de empresas en quiebra, aunque las preocupaciones sobre la completa anonimización de los datos detuvieron una de esas investigaciones.
El laboratorio de IA está confiando mucho en sus contratistas para decidir qué es y qué no es confidencial… Si dejan escapar algo, ¿se están tomando realmente el tiempo los laboratorios de IA para determinar qué es y qué no es un secreto comercial? Me parece que el laboratorio de IA corre un gran riesgo.
La dependencia de contratistas externos pone de relieve la creciente presión sobre las empresas de IA para mejorar sus modelos a través de datos del mundo real. Si bien OpenAI enfatiza la seguridad de los datos, los riesgos inherentes al manejo de muestras de trabajo confidenciales siguen siendo una preocupación importante tanto para los contratistas como para sus antiguos empleadores.





























