OpenAI sucht nach realen Arbeitsproben, um KI-Agenten zu schulen

12

OpenAI bittet aktiv um echte Arbeitsaufträge von Auftragnehmern, um seine KI-Modelle der nächsten Generation mit der menschlichen Leistung zu vergleichen. Das Unternehmen fordert Auftragnehmer auf, frühere oder aktuelle Arbeitsergebnisse – Dokumente, Präsentationen, Tabellenkalkulationen und sogar Code-Repositorys – als Schulungsdaten hochzuladen. Diese Initiative scheint ein zentraler Bestandteil des Vorstoßes von OpenAI in Richtung künstlicher allgemeiner Intelligenz (AGI) zu sein, bei dem KI-Systeme die menschlichen Fähigkeiten bei wirtschaftlich wertvollen Aufgaben übertreffen.

Menschliche Leistung als Grundlage

OpenAI zielt darauf ab, eine quantifizierbare menschliche Basis für verschiedene Aufgaben zu schaffen. Durch den Vergleich der KI-Ergebnisse mit tatsächlichen menschlichen Arbeitsproben kann das Unternehmen den Fortschritt seiner Modelle beurteilen. Auftragnehmer werden gebeten, detaillierte Beschreibungen der Aufgaben und der entsprechenden Ergebnisse – des fertigen Arbeitsprodukts – bereitzustellen. Bei diesem Ansatz steht die Authentizität im Vordergrund, wobei OpenAI ausdrücklich „echte Arbeit am Arbeitsplatz“ anstelle von Simulationen fordert.

Bedenken hinsichtlich der Vertraulichkeit

Trotz der Anweisungen zur Entfernung sensibler Daten birgt die Praxis erhebliche rechtliche Risiken. Evan Brown, Anwalt für geistiges Eigentum, warnt davor, dass KI-Labore mit Ansprüchen wegen der Veruntreuung von Geschäftsgeheimnissen konfrontiert werden könnten, wenn vertrauliche Informationen durchsickern. Auftragnehmer, die Arbeitsproben weitergeben, verstoßen möglicherweise auch nach der Anonymisierung gegen Geheimhaltungsvereinbarungen mit früheren Arbeitgebern. OpenAI selbst erkennt die Notwendigkeit an, vertrauliche Daten zu bereinigen und verweist zu diesem Zweck sogar auf ein internes Tool, „Superstar Scrubbing“.

Der expandierende KI-Trainingsmarkt

Diese Praxis ist symptomatisch für einen umfassenderen Trend: KI-Labore sind zunehmend auf hochwertige Trainingsdaten angewiesen. Unternehmen wie OpenAI, Anthropic und Google beauftragen Heerscharen von Auftragnehmern über Firmen wie Surge, Mercor und Handshake AI, um diese Daten zu generieren. Die Nachfrage nach qualifizierten Auftragnehmern hat die Preise in die Höhe getrieben und eine lukrative Teilindustrie mit Milliardenwerten geschaffen. OpenAI hat sogar den direkten Erwerb von Daten von bankrotten Unternehmen untersucht, Bedenken hinsichtlich einer vollständigen Datenanonymisierung stoppten jedoch eine solche Untersuchung.

Das KI-Labor vertraut seinen Auftragnehmern sehr darauf, zu entscheiden, was vertraulich ist und was nicht. Wenn ihnen etwas durchschlüpft, nehmen sich die KI-Labore dann wirklich die Zeit, um festzustellen, was ein Geschäftsgeheimnis ist und was nicht? Es scheint mir, dass sich das KI-Labor einem großen Risiko aussetzt.

Die Abhängigkeit von Drittanbietern verdeutlicht den wachsenden Druck auf KI-Unternehmen, ihre Modelle anhand realer Daten zu verbessern. Während OpenAI Wert auf Datensicherheit legt, stellen die mit dem Umgang mit vertraulichen Arbeitsproben verbundenen Risiken sowohl für Auftragnehmer als auch für ihre ehemaligen Arbeitgeber weiterhin ein erhebliches Problem dar.