Sam vs. Satya

Sie lesen den KI-Newsletter "Natürlich intelligent" vom 19. Juni 2025. Um den Newsletter jeden Donnerstag per Mail zu erhalten, melden Sie sich hier an.

Starten wir diesen Text mit einem kleinen Experiment. Fragen Sie den KI-Chatbot Ihres Vertrauens nach einer zufällig ausgewählten Zahl: "Rate eine Zahl zwischen 1 und 50". Kommt bei Ihnen 27 heraus? Dann sind Sie nicht allein: Dutzende Nutzerinnen und Nutzer wundern sich auf Social-Media-Plattformen und in Foren darüber, dass fast alle KI-Chatbots überdurchschnittlich häufig diese Zahl als Antwort nennen. Auch bei mir antworteten Anthropics Claude und OpenAIs ChatGPT einhellig: 27.

Womöglich liegt's am Club 27, der viele Menschen fasziniert, und vielleicht auch die KI. Damit ist das Mysterium gemeint, dass berühmte Musiker wie Amy Winehouse oder Kurt Cobain in diesem Alter starben. Wahrscheinlich ist die Antwort aber viel langweiliger. Menschen geben überdurchschnittlich häufig die Zahl 7 als Lieblingszahl an. Irgendwo in den Sprachmodellen ist diese Information mutmaßlich hinterlegt. Und so wie die 7 eine Zahl zwischen 1 und 10 ist, die nicht genau die Mitte ist und nicht gerade, gilt das auch für 27 in Bezug auf 1 und 50. KI-Chatbots finden, was Menschen finden.

Das müssen Sie wissen: OpenAI droht mit "nuklearer Option" – Microsoft droht zurück

Ohne Microsoft gäbe es kein OpenAI. Nur mit den 13 Milliarden Dollar des Windows-Konzerns konnten Sam Altman und seine Mitstreiter die beeindruckenden Sprachmodelle hinter ChatGPT entwickeln.

Doch die Bromance zwischen dem OpenAI-Gründer und Microsoft-Chef Satya Nadella kühlt gerade ab. Hintergrund ist, dass sich OpenAI von einer Non-Profit-Organisation in eine gewinnorientierte wandeln will. Das würde der Firma zum Beispiel einen Börsengang ermöglichen. Für diese Umwandlung braucht das ChatGPT-Unternehmen die Zustimmung ihres wichtigsten Investors. Es geht nun unter anderem um die Frage, wie viele Anteile Microsoft künftig an OpenAI hält. Bisher kursieren Zahlen von 20 bis 49 Prozent.

Nur gestalten sich die Gespräche Medienberichten zufolge als schwierig. Und zwar so schwierig, dass man bei OpenAI offenbar über eine "nukleare Option" nachdenkt: Es könnte Microsoft wettbewerbswidriges Verhalten vorwerfen. Das berichtet das Wall Street Journal. Bisher hat das Unternehmen aus Redmond nämlich Zugriff auf das geistige Eigentum von OpenAI, die Microsoft-KI Copilot basiert auf den Sprachmodellen der ChatGPT-Firma. Zunehmend konkurrieren die beiden Unternehmen aber, zum Beispiel bei KI-Programmiertools.

Der Financial Times (FT) zufolge droht Microsoft wiederum damit, die Gespräche zu beenden. Der Windows-Konzern könnte dann, basierend auf bisherigen Verträgen, bis 2030 weiter auf OpenAI-Technologie zugreifen, außer es gäbe ein gleichwertiges oder besseres Angebot. Eine Quelle sagte der FT: Einfach abzuwarten – das sei Microsofts nukleare Option. Für OpenAI sind das keine guten Nachrichten. Bis Ende des Jahres muss eine Entscheidung her. Danach könnte die Firma Milliarden an Investorengeldern verlieren.

Wer sich mit der komplexen Unternehmensstruktur von OpenAI tiefer auseinandersetzen möchte, dem seien The OpenAI Files empfohlen, eine Sammlung verschiedener Dokumente zum Unternehmen, die am Mittwoch von den Nichtregierungsorganisationen The Midas Project und The Tech Oversight Project veröffentlicht wurde. 

Darüber sollten Sie nachdenken: Wie KI-Chatbots Menschen psychisch schaden können

Wenn man bedenkt, dass Gesundheitssysteme oft überlastet und Therapieplätze rar sind, dann klingt eine KI als Therapiezusatz nach einer guten Idee. Warum nicht schon mal mit einem Chatbot reden, der eine Art mentale Erste Hilfe leisten kann, während man auf einen Therapieplatz wartet?

Die New York Times hat in einem Artikel nun die gegenteilige Wirkung beleuchtet. ChatGPT überzeugte einen Mann, er lebe in einer Simulation à la Matrix. Einer Frau gaukelte die KI vor, dass körperlose "Wächter" über die Welt herrschten, bis sie einen davon als ihren Partner ansah und nicht mehr ihren Ehemann. 

Einem Großteil der Nutzerinnen und Nutzer wird das sicherlich nicht passieren. Genauso wie auch vielen Menschen Handys oder Social Media nicht per se schaden, entgegen aller alarmistischen Behauptungen. 

Doch die von der New York Times beschriebenen Fälle verdeutlichen: KI kann unseren tech bias verschärfen. Wir glauben der Maschine eher als anderen und womöglich auch uns selbst. Die Firmen verstärken dieses Gefühl durch die stark vermenschlichte Interaktion.

Im Kleinen kann das dazu führen, dass man einer KI-Zusammenfassung vertraut, die Fehler enthält. Aber im Extremfall steigert man sich eben gemeinsam mit der KI in eine Wahnvorstellung hinein. Und wenn Chatbots eines nicht haben, dann die Fähigkeit irgendwann zu sagen: Moment, jetzt haben wir uns verrannt. Das wäre aber wichtig – erst recht, wenn man sie irgendwann als Therapeut einsetzen will.

Das können Sie ausprobieren: Gigi AI

Erinnern Sie sich noch an Prisma? Oder FaceApp? Im Online-Hypecycle gibt es immer wieder Anwendungen, die ein Wochenende lang jeder und jede ausprobiert. Im Silicon Valley war es kürzlich Gigi AI, eine Art KI-Dating-Seite.

Gigi AI funktioniert so: Man verrät der KI das eigene LinkedIn-Profil, dann sammelt sie alles aus dem Netz zusammen, schreibt ein – meist ziemlich schmeichelhaftes – Kurzporträt der Person und erstellt einen Score zwischen 1 und 10. Und sie macht einen Vibe-Check mit Menschen im Netzwerk, zu denen man besonders gut passt. Unser Reporter Nicolas Killian, der aus dem Silicon Valley berichtet, vibet demnach zum Beispiel zu 95 Prozent mit Yann LeCun – Metas KI-Chef. (Ich würde Ihnen gerne sagen, mit wem ich vibe, aber ich bin nur auf der Warteliste gelandet.)

Wer sich um seine Daten schert, sollte vielleicht kurz überlegen, ob er sich bei Gigi AI anmelden möchte. Denn Quatschanwendungen sind ein beeindruckend einfacher Weg, an persönliche Informationen vieler Menschen auf einmal zu kommen. Und die Frage ist, ob es das dann wert ist, schließlich verschwinden solche Anwendungen genauso schnell wieder, wie sie gekommen sind. Aber auch wahnsinnig belanglose Anwendungen können wahnsinnig unterhaltsam sein.