Say NO to OpenAI – leave ChatGPT

Hintergründe und Vertragsinhalte

OpenAI, bekannt für seine KI-Modelle wie ChatGPT, unterzeichnete Ende Februar 2026 einen Vertrag mit dem US-Verteidigungsministerium. Dieser Vertrag sieht vor, dass OpenAI seine KI-Technologie in klassifizierten Netzwerken des Pentagons bereitstellt. Der Deal erfolgte kurz nach dem Scheitern von Verhandlungen zwischen dem Pentagon und dem KI-Unternehmen Anthropic. Anthropic hatte sich geweigert, seine ethischen Richtlinien zu lockern, die den Einsatz seiner Technologie für Massenüberwachung oder autonome Waffensysteme verbieten. Als Folge wurde Anthropic von der US-Regierung als „Supply-Chain-Risiko“ eingestuft und von Regierungsaufträgen ausgeschlossen.

OpenAI betonte, dass der Vertrag „technische Schutzmaßnahmen“ enthalte, um den Missbrauch der Technologie zu verhindern. CEO Sam Altman versicherte, dass die KI-Modelle nicht für Massenüberwachung im Inland oder für autonome Waffensysteme eingesetzt werden dürften. Diese Zusicherungen wurden jedoch von vielen Beobachtern als vage und unzureichend kritisiert, da der ursprüngliche Vertragsentwurf keine expliziten Schutzklauseln gegen Überwachungszwecke enthielt.

Öffentliche Reaktionen und Kritik

Die Ankündigung der Partnerschaft löste eine Welle der Empörung aus. Viele Nutzer von ChatGPT kündigten ihre Abos und wandten sich Alternativen wie Claude von Anthropic oder Google Gemini zu. Innerhalb weniger Tage verzeichnete OpenAI einen massiven Nutzerverlust, während Anthropic Rekordzuwächse verbuchte. Die Kritik richtete sich vor allem gegen die mangelnde Transparenz und die Sorge, dass OpenAI seine Gründungsprinzipien verrate, indem es mit dem Militär zusammenarbeitet.
Auch innerhalb von OpenAI formierte sich Widerstand. Mitarbeiter unterzeichneten einen offenen Brief, in dem sie die Führung aufforderten, den Vertrag zu überarbeiten oder zu kündigen. Ehemalige Mitarbeiter wie Miles Brundage, ehemaliger Leiter der Politikforschung bei OpenAI, warfen dem Unternehmen vor, Zugeständnisse an das Pentagon gemacht zu haben, die den ethischen Rahmen sprengent.
Sam Altman räumte ein, dass die Ankündigung des Deals „überstürzt“ und „opportunistisch“ gewirkt habe. Als Reaktion auf den öffentlichen Druck kündigte OpenAI an, den Vertrag nachzubessern und explizite Schutzklauseln gegen Massenüberwachung und die Nutzung durch Geheimdienste wie die NSA aufzunehmen.

Negative Effekte des Vertrags

  1. Vertrauensverlust und Reputationsschaden
    Der Vertrag hat das Vertrauen vieler Nutzer in OpenAI nachhaltig erschüttert. Die Sorge, dass die Technologie für militärische Zwecke missbraucht werden könnte, führte zu einem digitalen Massenexodus. Viele Nutzer fürchten, dass OpenAI seine ethischen Standards zugunsten von Profit und Einfluss aufgibt. Dieser Vertrauensverlust könnte langfristig die Marktposition des Unternehmens schwächen, da Nutzer zunehmend auf Alternativen ausweichen.
  2. Ethische Bedenken und Präzedenzfall
    Die Zusammenarbeit mit dem Pentagon wirft grundsätzliche ethische Fragen auf. KI-Technologie, die ursprünglich für zivile Anwendungen entwickelt wurde, könnte in militärischen Kontexten eingesetzt werden, in denen die Grenzen zwischen legitimer Verteidigung und ethisch fragwürdigen Praktiken wie Massenüberwachung oder autonomer Kriegsführung verschwimmen. Kritiker warnen davor, dass dieser Vertrag einen Präzedenzfall schafft, der andere Tech-Unternehmen unter Druck setzt, ähnliche Kompromisse einzugehen.
  3. Politische und rechtliche Risiken
    Die US-Regierung hat mit der Einstufung von Anthropic als „Supply-Chain-Risiko“ gezeigt, dass sie bereit ist, harte Maßnahmen gegen Unternehmen zu ergreifen, die sich ihren Forderungen widersetzen. Diese Entwicklung könnte dazu führen, dass Unternehmen aus Angst vor Repressionen ihre ethischen Standards lockern. Zudem könnte der Vertrag OpenAI in rechtliche Grauzonen führen, insbesondere wenn die Technologie entgegen den Zusicherungen doch für Überwachung oder autonome Waffen genutzt wird.
  4. Technologische Risiken
    KI-Systeme sind noch nicht ausgereift genug, um in hochsensiblen militärischen Kontexten sicher eingesetzt zu werden. Sam Altman selbst räumte ein, dass es viele Bereiche gebe, in denen die Technologie noch nicht bereit sei und die notwendigen Sicherheitskompromisse nicht vollständig verstanden würden. Ein unkontrollierter Einsatz könnte zu unerwarteten und gefährlichen Folgen führen, insbesondere wenn KI-Systeme in Entscheidungsprozesse eingebunden werden, die über Leben und Tod entscheiden.

Was bleibt?

Der Vertrag zwischen OpenAI und dem Pentagon markiert einen Wendepunkt in der Debatte über die ethische Nutzung von KI. Während OpenAI betont, dass der Deal mit Schutzmaßnahmen verbunden sei, bleibt die Skepsis groß. Die Nachbesserungen am Vertrag sind ein erster Schritt, doch viele Beobachter fordern eine grundsätzliche öffentliche Debatte über den Einsatz von KI im Militär.
Die langfristigen Folgen dieser Partnerschaft werden davon abhängen, ob es OpenAI gelingt, seine ethischen Prinzipien glaubwürdig zu verteidigen und gleichzeitig die Erwartungen des Pentagons zu erfüllen. Sollte der Vertrag als Einfallstor für den Missbrauch von KI-Technologie wahrgenommen werden, könnte dies nicht nur OpenAI, sondern die gesamte Tech-Branche in eine Vertrauenskrise stürzen.
Die aktuelle Entwicklung zeigt, dass die Frage, wie KI verantwortungsvoll genutzt werden kann, dringender denn je ist. Es braucht klare gesetzliche Rahmenbedingungen und eine breite gesellschaftliche Diskussion, um sicherzustellen, dass KI dem Wohl der Menschheit dient -und nicht als Werkzeug der Überwachung oder Kriegsführung missbraucht wird.
Ich habe mich entschieden mein Abonnement von ChatGPT zu kündigen und mache einen großen Bogen, um OpenAI.