OpenAI sta sollecitando attivamente incarichi di lavoro reali da parte degli appaltatori per confrontare i suoi modelli di intelligenza artificiale di prossima generazione con le prestazioni umane. L’azienda richiede agli appaltatori di caricare i risultati finali del lavoro passato o attuale (documenti, presentazioni, fogli di calcolo e persino archivi di codici) come dati di formazione. Questa iniziativa sembra essere una parte fondamentale della spinta di OpenAI verso l’intelligenza generale artificiale (AGI), dove i sistemi di intelligenza artificiale superano le capacità umane in compiti economicamente preziosi.
Le prestazioni umane come punto di riferimento
OpenAI mira a stabilire una base umana quantificabile per vari compiti. Confrontando i risultati dell’intelligenza artificiale con campioni di lavoro umano reale, l’azienda può valutare i progressi dei suoi modelli. Agli appaltatori viene chiesto di fornire descrizioni dettagliate delle attività e dei risultati finali corrispondenti: il prodotto del lavoro finito. Questo approccio privilegia l’autenticità, con OpenAI che richiede esplicitamente “lavoro reale sul posto di lavoro” piuttosto che simulazioni.
Preoccupazioni sulla riservatezza
Nonostante le istruzioni per rimuovere i dati sensibili, la pratica solleva notevoli rischi legali. L’avvocato specializzato in proprietà intellettuale Evan Brown avverte che i laboratori di intelligenza artificiale potrebbero dover affrontare denunce di appropriazione indebita di segreti commerciali in caso di fuga di informazioni riservate. Gli appaltatori che condividono campioni di lavoro, anche dopo l’anonimizzazione, potrebbero violare gli accordi di non divulgazione con i precedenti datori di lavoro. La stessa OpenAI riconosce la necessità di cancellare i dati riservati e fa persino riferimento a uno strumento interno, “Superstar Scrubbing”, a questo scopo.
Il mercato della formazione sull’intelligenza artificiale in espansione
Questa pratica è sintomatica di una tendenza più ampia: i laboratori di intelligenza artificiale fanno sempre più affidamento su dati di addestramento di alta qualità. Aziende come OpenAI, Anthropic e Google stanno assumendo eserciti di appaltatori attraverso aziende come Surge, Mercor e Handshake AI per generare questi dati. La domanda di appaltatori qualificati ha fatto salire i prezzi, creando un sottosettore redditizio valutato in miliardi. OpenAI ha anche esplorato l’acquisizione di dati direttamente da società in bancarotta, anche se le preoccupazioni sulla completa anonimizzazione dei dati hanno bloccato una di queste indagini.
Il laboratorio di intelligenza artificiale ripone molta fiducia nei suoi appaltatori per decidere cosa è e cosa non è riservato… Se si lasciano sfuggire qualcosa, i laboratori di intelligenza artificiale si stanno davvero prendendo il tempo per determinare cosa è e cosa non è un segreto commerciale? Mi sembra che il laboratorio di intelligenza artificiale si stia mettendo a grave rischio.
La dipendenza da appaltatori terzi evidenzia la crescente pressione sulle aziende di intelligenza artificiale affinché migliorino i propri modelli attraverso dati del mondo reale. Sebbene OpenAI ponga l’accento sulla sicurezza dei dati, i rischi intrinseci legati alla gestione di campioni di lavoro riservati rimangono una preoccupazione significativa sia per gli appaltatori che per i loro ex datori di lavoro.




























