OpenAI vyžaduje skutečné funkční vzorky pro školení agentů AI

14
OpenAI vyžaduje skutečné funkční vzorky pro školení agentů AI

OpenAI aktivně vyžaduje skutečné pracovní úkoly od dodavatelů, aby vyhodnotili výkon svých modelů umělé inteligence nové generace ve srovnání s těmi lidskými. Společnost žádá dodavatele, aby nahráli minulý nebo současný pracovní výstup – dokumenty, prezentace, tabulky, dokonce i úložiště kódu – jako školicí data. Tato iniciativa se zdá být klíčovou součástí snahy OpenAI dosáhnout umělé obecné inteligence (AGI), ve které systémy umělé inteligence převyšují lidské schopnosti v ekonomicky smysluplných úkolech.

Lidský výkon jako měřítko

OpenAI si klade za cíl vytvořit měřitelný lidský benchmark pro různé úkoly. Porovnáním výstupu AI s reálnými příklady lidské práce může společnost vyhodnotit pokrok svých modelů. Dodavatelé jsou požádáni, aby poskytli podrobné popisy úkolů a odpovídající výstupy – konečný produkt díla. Tento přístup klade autentičnost na první místo: OpenAI výslovně požaduje „skutečnou pracovní aktivitu“ spíše než simulace.

Problémy se soukromím

Navzdory pokynům k odstranění citlivých dat představuje tato praxe značná právní rizika. Právník v oblasti duševního vlastnictví Evan Brown varuje, že laboratoře AI by mohly čelit obvinění ze zpronevěry obchodního tajemství, pokud by došlo k úniku důvěrných informací. Dodavatelé, kteří poskytují vzorky práce, i po anonymizaci, mohou porušovat dohody o mlčenlivosti s předchozími zaměstnavateli. Samotné OpenAI uznává potřebu odstranit citlivá data a dokonce pro tento účel zmiňuje interní nástroj „Superstar Scrubbing“.

Rozšiřující se trh školení AI

Praxe je příznačná pro širší trend: AI laboratoře jsou stále více závislé na vysoce kvalitních tréninkových datech. Společnosti jako OpenAI, Anthropic a Google najímají armády dodavatelů prostřednictvím firem jako Surge, Mercor a Handshake AI, aby generovali tato data. Poptávka po kvalifikovaných dodavatelích zvýšila ceny a vytvořila lukrativní pododvětví v hodnotě miliard dolarů. OpenAI dokonce prozkoumal možnost přímého nákupu dat od zkrachovalých společností, i když obavy z úplné anonymizace dat jedno takové vyšetřování zastavily.

AI Labs hodně důvěřují svým dodavatelům, aby určili, co je a není důvěrné… Pokud něco proklouzne, opravdu si AI Labs najdou čas na to, aby určili, co je a co není obchodní tajemství? Vypadá to, že laboratoř AI se vystavuje velkému riziku.

Spoléhání se na dodavatele třetích stran podtrhuje rostoucí tlak na společnosti využívající umělou inteligenci, aby vylepšovaly své modely pomocí reálných dat. Zatímco OpenAI klade důraz na bezpečnost dat, inherentní rizika zpracování citlivých vzorků práce zůstávají hlavním problémem jak pro dodavatele, tak pro jejich bývalé zaměstnavatele.