OpenAI hat gerade etwas bewiesen, das wir seit Jahren vermutet haben: Die größten KI-Labore erfinden alles improvisierend. Das leise Aufgeben eines erwachsenenorientierten ChatGPT-Modus des Unternehmens ist nicht nur eine weitere Unternehmenswende – es ist ein Geständnis, dass selbst die Menschen, die diese Systeme entwickeln, keine kohärente Philosophie darüber haben, was KI tun oder lassen sollte.
Berichten zufolge hatte OpenAI ein erotisches Chatbot-Feature entwickelt, das es ChatGPT ermöglichen würde, an Erwachsenenunterhaltungen teilzunehmen. Das Projekt hatte bereits genug Fortschritt gemacht, dass interne Teams aktiv über die Veröffentlichung debattierten, bevor es letztendlich auf Eis gelegt wurde. Die Entscheidung fiel nach Protesten sowohl von Mitarbeitern als auch von externen Interessengruppen, die Bedenken hinsichtlich Sicherheit, Markenruf und die Möglichkeit des Missbrauchs äußerten.
Das Inkonsistenzproblem
Was das faszinierend macht: OpenAI erlaubt bereits, dass ChatGPT über Sexualität in Bildungskontexten diskutiert, romantische Romane mit expliziten Inhalten schreibt und Beziehungsratschläge gibt. Die Inhaltsrichtlinie des Unternehmens zieht Grenzen, aber diese Grenzen sind willkürlich und ändern sich ständig. Ein Erwachsenenmodus hätte einfach das explizit gemacht, was bereits implizit ist – dass die Menschen KI für intime Gespräche wollen, und sie werden Wege finden, sie zu führen, unabhängig von der Unternehmenspolitik.
Das eigentliche Problem ist nicht, ob KI sich mit Inhalten für Erwachsene auseinandersetzen sollte. Es ist, dass OpenAI keinen prinzipiellen Rahmen für diese Entscheidungen hat. Sie reagieren auf Druck, anstatt mit klaren Werten zu führen. An einem Tag positionieren sie ChatGPT als Allzweckassistenten, der bei allem helfen kann. Am nächsten ziehen sie rote Linien um ganze Kategorien menschlicher Erfahrungen.
Was die Konkurrenz tut
Während OpenAI sich zurückzieht, drängen kleinere Unternehmen vor. Character.AI hat ein Milliarden-Dollar-Geschäft, das teilweise auf romantischen und flirtenden KI-Begleitern beruht, aufgebaut. Replika vermarktet sich offen für intime Beziehungen. Dutzende von Startups entwickeln explizit erwachsene KI-Produkte mit weniger Ressourcen und weniger ausgeklügelten Sicherheitsmaßnahmen, als OpenAI einsetzen könnte.
Indem OpenAI sich weigert, mit diesem Markt zu interagieren, verhindert das Unternehmen keinen Schaden – sie sorgen nur dafür, dass der Markt für erwachsene KI von Unternehmen dominiert wird, die weniger Verantwortung und weniger Ressourcen für Sicherheitsforschung haben. Es ist der Ansatz der Ausbildung mit Abstinenz in der KI-Politik, und er ist ebenso ineffektiv.
Das wahre Sicherheitsthema
Seien wir ehrlich, was “Sicherheitsbedenken” hier wirklich bedeutet. OpenAI sorgt sich nicht um einvernehmliche Erwachsene, die private Gespräche mit einer KI führen. Sie sorgen sich um Schlagzeilen. Sie sorgen sich um Anhörungen im Kongress. Sie sorgen sich, dass ihre Marke auf irgendeine Weise mit Sexualität in Verbindung gebracht wird, die ihre nächste Finanzierungsrunde oder Vertriebspräsentation komplizieren könnte.
Das ist eine Geschäftsentscheidung, keine Sicherheitsentscheidung. Und es ist in Ordnung, Geschäftsentscheidungen zu treffen – aber nenne sie, was sie sind. Verstecke dich nicht hinter vagen Sicherheitsrhetoriken, wenn das eigentliche Anliegen das Reputationsmanagement ist.
Reale Sicherheitsarbeit würde den Aufbau robuster Altersverifizierung, die Schaffung klarer Einwilligungsrahmen und die Entwicklung von Systemen zur Verhinderung von nicht einvernehmlichen Deepfakes oder Belästigungen beinhalten. Es würde bedeuten, anzuerkennen, dass menschliche Sexualität existiert und durchdachte Schutzmaßnahmen zu entwickeln, anstatt zu glauben, man könne sie mit Inhaltsfiltern wegwünschen.
Das größere Muster
Dies ist nicht das erste Mal, dass OpenAI einen Werteumschwung erlebt. Erinnern Sie sich, als sie eine gemeinnützige Organisation waren, die sich der offenen Forschung verschrieben hatte? Dann nahmen sie Milliarden von Microsoft und schlossen ihre Modelle. Sie haben zwischen “KI sollte für alle kostenlos sein” und “wir müssen den Zugang sorgfältig kontrollieren” hin- und hergeschwankt. Zwischen “wir sind nur ein Forschungsinstitut” und “wir entwickeln AGI, die die Zivilisation transformieren wird.”
Die Rücknahme des Erwachsenen-Chatbots ist nur das jüngste Beispiel für ein Unternehmen, das zu schnell gewachsen ist, um kohärente Prinzipien zu entwickeln. Sie entwickeln technologie, die die Welt verändern könnte, während sie gleichzeitig herausfinden, was sie darüber glauben. Das ist erschreckend.
Wo uns das lässt
Der Markt für erwachsene KI wird existieren, egal ob OpenAI teilnimmt oder nicht. Menschen haben seit ELIZA in den 1960er Jahren emotionale und romantische Bindungen an Chatbots entwickelt. Moderne KI macht diese Verbindungen nur überzeugender. Andernfalls zu behaupten, ist naiv.
Was wir von führenden KI-Unternehmen brauchen, sind keine moralischen Paniken oder Unternehmensfeigheit. Wir brauchen eine durchdachte Auseinandersetzung mit schwierigen Fragen zu Intimität, Einwilligung und menschlicher Verbindung im Zeitalter der künstlichen Intelligenz. Wir brauchen Unternehmen, die bereit sind, die harte Arbeit zum Aufbau sicherer Systeme zu leisten, anstatt einfach ganze Kategorien menschlicher Erfahrungen zu vermeiden.
OpenAI hatte die Chance, dieses Gespräch zu führen. Stattdessen wählten sie, zu folgen – oder genauer gesagt, sich zu verstecken. Und das sagt Ihnen alles, was Sie wissen müssen, darüber, wer derzeit wirklich die Kontrolle über die KI-Entwicklung hat. Spoiler: Es sind nicht die Menschen, die sie entwickeln, und es sind definitiv nicht die Menschen, die sie nutzen.
🕒 Published: