OpenAI, das Unternehmen hinter ChatGPT, hat in aller Stille seine Beziehungen zum US-Militär vertieft, obwohl es solche Kooperationen zuvor verboten hatte. Die jüngste Ankündigung eines Vertrags mit dem Pentagon nach einem gescheiterten Vertrag mit Anthropic hat intern Kritik und Fragen zu den sich entwickelnden Richtlinien des Unternehmens ausgelöst.
Hier geht es nicht nur um einen Deal; Es zeigt ein Muster, bei dem OpenAI bei der Zusammenarbeit mit Verteidigungsbehörden auf unklaren ethischen Grundlagen navigiert.
Der politische Wandel: Vom Verbot zur Partnerschaft
Im Jahr 2023 verbot OpenAI ausdrücklich den militärischen Zugriff auf seine KI-Modelle. Allerdings experimentierte das Pentagon bereits mit der OpenAI-Technologie über den Azure OpenAI Service von Microsoft – einem langjährigen Microsoft-Partner und OpenAI-Investor. Berichten zufolge beobachteten Mitarbeiter, wie Pentagon-Beamte das OpenAI-Hauptquartier besuchten, während das Verbot in Kraft war, was zu Verwirrung über die Durchsetzung der Richtlinien führte.
OpenAI und Microsoft behaupten, dass Azure OpenAI-Produkte niemals den Nutzungsbeschränkungen von OpenAI unterlagen, eine Unterscheidung, die den militärischen Zugriff hinter den Kulissen weiterhin ermöglichte. Bis Januar 2024 hob OpenAI stillschweigend das generelle Verbot der militärischen Nutzung auf, wobei die Mitarbeiter durch externe Berichterstattung und nicht durch interne Kommunikation von der Änderung erfuhren.
Erweiterung in die Verteidigung: Anduril und darüber hinaus
OpenAI arbeitet seitdem mit Anduril zusammen, um KI-Systeme für „nationale Sicherheitsmissionen“ zu entwickeln. Diese Partnerschaft war ursprünglich auf nicht klassifizierte Arbeitslasten beschränkt und steht im Gegensatz zu Anthropics Deal mit Palantir, bei dem es um geheime militärische Anwendungen ging. OpenAI lehnte sogar Palantirs Angebot ab, ihrem „FedStart“-Programm beizutreten, da es zu riskant war.
Trotz interner Debatten – einige Mitarbeiter stellten die Zuverlässigkeit der KI von OpenAI für kritische Aufgaben in Frage – ist das Unternehmen weiter in die Verteidigung vorgedrungen. CEO Sam Altman hat öffentlich seine Unterstützung für einen verantwortungsvollen KI-Einsatz erklärt und gleichzeitig Verträge mit der NATO abgeschlossen, was ein umfassenderes Bestreben signalisiert, seine Modelle an internationale Verteidigungsorganisationen zu verkaufen.
Deckkraft und Übersicht
Die mangelnde Transparenz dieser Partnerschaften gibt Anlass zu großer Sorge. Sarah Shoker, ehemalige Geopolitik-Chefin von OpenAI, argumentiert, dass die Undurchsichtigkeit der militärischen KI das Verständnis ihrer realen Auswirkungen erschwert und „Black Boxes bis in die Tiefe“ schafft. Experten vermuten, dass das Pentagon die KI von OpenAI möglicherweise bereits zur rechtlichen Überwachung nutzt, etwa zum Kauf und zur Analyse von Benutzerdaten.
OpenAI hat seine Vereinbarung als Reaktion auf einige Bedenken geändert, aber ohne vollständige Offenlegung muss sich die Öffentlichkeit auf das Wort des Unternehmens verlassen. Dies wirft Fragen zur Rechenschaftspflicht und zum Potenzial für unkontrollierte militärische Anwendungen von KI auf.
Im Wesentlichen hat OpenAI seine anfängliche ethische Haltung gegen ein stärkeres Engagement im Verteidigungssektor eingetauscht. Diese Verschiebung verdeutlicht die Spannung zwischen kommerziellen Interessen, nationalen Sicherheitsbedenken und der sich entwickelnden Rolle der KI in der Kriegsführung. Der Mangel an öffentlicher Aufsicht sorgt dafür, dass die vollen Auswirkungen dieser Partnerschaften weitgehend unbekannt bleiben und Zivilisten und Konfliktgebiete dem unkontrollierten Einsatz militärischer KI ausgesetzt sind.





























