A OpenAI está solicitando ativamente atribuições de trabalho reais de empreiteiros para comparar seus modelos de IA de próxima geração com o desempenho humano. A empresa está solicitando aos empreiteiros que carreguem resultados de trabalhos anteriores ou atuais – documentos, apresentações, planilhas e até mesmo repositórios de códigos – como dados de treinamento. Esta iniciativa parece ser uma parte central do impulso da OpenAI em direção à Inteligência Geral Artificial (AGI), onde os sistemas de IA ultrapassam as capacidades humanas em tarefas economicamente valiosas.
Desempenho Humano como Linha de Base
OpenAI visa estabelecer uma linha de base humana quantificável para várias tarefas. Ao comparar os resultados da IA com amostras reais de trabalho humano, a empresa pode avaliar o progresso dos seus modelos. Solicita-se aos empreiteiros que forneçam descrições detalhadas das tarefas e dos resultados correspondentes – o produto de trabalho acabado. Esta abordagem prioriza a autenticidade, com a OpenAI solicitando explicitamente “trabalho real no trabalho” em vez de simulações.
Preocupações com confidencialidade
Apesar das instruções para remover dados sensíveis, a prática levanta riscos legais significativos. O advogado de propriedade intelectual Evan Brown alerta que os laboratórios de IA podem enfrentar reclamações de apropriação indébita de segredos comerciais se houver vazamento de informações confidenciais. Os empreiteiros que partilham amostras de trabalho, mesmo após a anonimização, podem violar acordos de confidencialidade com empregadores anteriores. A própria OpenAI reconhece a necessidade de limpar dados confidenciais e até faz referência a uma ferramenta interna, “Superstar Scrubbing”, para esse fim.
O mercado de treinamento em IA em expansão
Esta prática é sintomática de uma tendência mais ampla: os laboratórios de IA dependem cada vez mais de dados de formação de alta qualidade. Empresas como OpenAI, Anthropic e Google estão contratando exércitos de empreiteiros por meio de empresas como Surge, Mercor e Handshake AI para gerar esses dados. A procura de empreiteiros qualificados fez subir os preços, criando uma sub-indústria lucrativa avaliada em milhares de milhões. A OpenAI até explorou a aquisição de dados diretamente de empresas falidas, embora as preocupações com o anonimato completo dos dados tenham interrompido uma dessas investigações.
O laboratório de IA está depositando muita confiança em seus contratados para decidir o que é ou não confidencial… Se eles deixarem algo escapar, os laboratórios de IA estão realmente dedicando tempo para determinar o que é ou não um segredo comercial? Parece-me que o laboratório de IA está se colocando em grande risco.
A dependência de prestadores de serviços terceirizados destaca a crescente pressão sobre as empresas de IA para melhorarem os seus modelos através de dados do mundo real. Embora a OpenAI enfatize a segurança dos dados, os riscos inerentes ao tratamento de amostras de trabalho confidenciais continuam a ser uma preocupação significativa tanto para os contratantes como para os seus antigos empregadores.
