OpenAI aktywnie pozyskuje od wykonawców realne zadania, aby ocenić wydajność swoich modeli sztucznej inteligencji nowej generacji w porównaniu z modelami ludzkimi. Firma prosi wykonawców o przesyłanie przeszłych lub bieżących wyników pracy – dokumentów, prezentacji, arkuszy kalkulacyjnych, a nawet repozytoriów kodu – jako danych szkoleniowych. Inicjatywa wydaje się być kluczową częścią dążeń OpenAI do opracowania sztucznej inteligencji ogólnej (AGI), w której systemy sztucznej inteligencji przewyższają ludzkie możliwości w zakresie zadań mających znaczenie ekonomiczne.
Wydajność człowieka jako punkt odniesienia
OpenAI ma na celu ustanowienie mierzalnego ludzkiego punktu odniesienia dla różnych zadań. Porównując wyniki sztucznej inteligencji z rzeczywistymi przykładami pracy człowieka, firma może ocenić postęp swoich modeli. Wykonawcy proszeni są o dostarczenie szczegółowych opisów zadań i odpowiednich elementów końcowych — gotowego produktu pracy. To podejście stawia na pierwszym miejscu autentyczność: OpenAI wyraźnie prosi o „prawdziwą aktywność zawodową”, a nie symulacje.
Problemy z prywatnością
Pomimo instrukcji usuwania danych wrażliwych, praktyka ta stwarza znaczne ryzyko prawne. Prawnik zajmujący się własnością intelektualną Evan Brown ostrzega, że laboratoria sztucznej inteligencji mogą spotkać się z roszczeniami dotyczącymi sprzeniewierzenia tajemnicy handlowej w przypadku wycieku poufnych informacji. Wykonawcy udostępniający próbki pracy, nawet po anonimizacji, mogą naruszać umowy o zachowaniu poufności zawarte z poprzednimi pracodawcami. Samo OpenAI uznaje potrzebę usuwania wrażliwych danych i wspomina nawet o wewnętrznym narzędziu „Superstar Scrubbing” służącym do tego celu.
Rozwijający się rynek szkoleń AI
Praktyka ta jest symptomatyczna szerszego trendu: laboratoria AI w coraz większym stopniu zależą od wysokiej jakości danych szkoleniowych. Firmy takie jak OpenAI, Anthropic i Google zatrudniają armie wykonawców za pośrednictwem firm takich jak Surge, Mercor i Handshake AI w celu generowania tych danych. Zapotrzebowanie na wykwalifikowanych wykonawców spowodowało wzrost cen, tworząc lukratywną podbranżę wartą miliardy dolarów. OpenAI zbadało nawet możliwość bezpośredniego zakupu danych od upadłych firm, chociaż obawy dotyczące całkowitej anonimizacji danych utknęły w martwym punkcie jednego z takich dochodzeń.
AI Labs pokłada duże zaufanie w swoich wykonawcach w zakresie ustalania, co jest, a co nie jest poufne… Jeśli coś się prześlizgnie, czy AI Labs naprawdę poświęca czas na ustalenie, co jest, a co nie tajemnicą handlową? Wygląda na to, że laboratorium sztucznej inteligencji naraża się na duże ryzyko.
Zależność od zewnętrznych wykonawców podkreśla rosnącą presję na firmy zajmujące się sztuczną inteligencją, aby udoskonalały swoje modele z wykorzystaniem danych ze świata rzeczywistego. Choć OpenAI kładzie nacisk na bezpieczeństwo danych, nieodłączne ryzyko związane z przetwarzaniem wrażliwych próbek pracy pozostaje poważnym problemem zarówno dla wykonawców, jak i ich byłych pracodawców.
