Jahresgehalt 100 Millionen Dollar

Der Facebook-Konzern Meta hat eine neue Abteilung. Sie heißt Meta Superintelligence Labs (MSL) und hat zum Ziel, die namensgebende Superintelligenz zu erschaffen, also eine dem menschlichen Verstand überlegene künstliche Intelligenz (KI). Und zwar möglichst, bevor es eine andere Firma tut. "Ich bin fest entschlossen, alles zu tun, was nötig ist, damit Meta vorangeht", schrieb Meta-Chef Mark Zuckerberg am Montag in einer internen Mitteilung, über die unter anderem Bloomberg berichtet hat.

Nötig ist dafür vor allem eine Menge Geld. Darüber berichten US-Techmedien in den vergangenen Tagen nicht ohne eine gewisse Häme, denn es scheint für Zuckerberg nicht einfach gewesen zu sein, führende KI-Forscherinnen und -Forscher dazu zu bewegen, in sein Team zu wechseln. Meta gilt manchen offenbar nicht als der erstrebenswerteste Arbeitgeber oder nicht unbedingt als der Ort, an dem die beste Chance besteht, durch einen großen Durchbruch seinen Namen in die KI-Geschichtsbücher einzugravieren.

Laut Berichten musste Meta manchen Fachleuten bis zu 100 Millionen Dollar pro Jahr bieten. Das ist selbst für das Silicon Valley eine schon fast obszöne Summe. Sie weckt Assoziationen mit der legendären Szene aus der 1980er-Jahre-Fernsehserie Kir Royal, in der Mario Adorf als Generaldirektor einem Widersacher in kölschem Singsang droht: "Ich scheiß' dich so wat von zu mit meinem Geld, dass de keine ruhige Minute mehr hast". Irgendwann, so prophezeit der fiktive Unternehmer, wird die Versuchung zu groß.

So war es offenbar auch bei Meta. Jedenfalls gelang es dem Unternehmen dann doch, eine Reihe von Forschern abzuwerben, die etwa für OpenAI an ChatGPT mitgearbeitet hatten oder für Google an den Modellen der Gemini-Reihe. OpenAI-CEO Sam Altman schrieb in einer internen Nachricht laut Wired, Metas Vorgehen fühle sich "etwas geschmacklos" an. Es werde immer einige "Söldner" geben, die des Geldes wegen wechseln, aber die Mehrheit in der Branche seien Überzeugungstäter – und die, so ist Altman überzeugt, seien natürlich am besten bei OpenAI aufgehoben. 

Einkaufstour für die Champions League

Zuvor hatte Meta schon für 14 Milliarden Dollar 49 Prozent der Anteile an der Firma Scale AI gekauft, die vor allem Daten für das Training von KI-Modellen aufbereitet und zu deren Kunden auch Google zählte. Der Gründer und bisherige CEO, Alexandr Wang, wird nun Chef des neuen Superintelligenz-Teams bei Meta, gemeinsam mit Nat Friedman, dem früheren Chef der Programmierer-Plattform GitHub, die heute zu Microsoft gehört. 

In die für KI nötige Hardware investiert Meta schon länger. Im Jahr 2024 plante Zuckerberg, 350.000 Hochleistungschips des Herstellers Nvidia anzuschaffen, was sich je nach genauem Stückpreis auf Kosten von knapp zehn Milliarden Dollar belaufen dürfte.

Der Grund für Zuckerbergs aktuelle Einkaufs- und Abwerbetour dürfte zugleich der Grund dafür sein, dass sich die Talente nicht gerade darum reißen, für ihn zu arbeiten: Meta spielt, jedenfalls in den Augen vieler, im KI-Rennen nicht mehr in der Champions League.

Nachdem OpenAI mit ChatGPT im Jahr 2022 den aktuellen KI-Hype ausgelöst hat, ist das Unternehmen für viele zu einer Art Synonym mit künstlicher Intelligenz geworden. Das Start-up Anthropic ist der Liebling vieler Nerds und Programmiererinnen. Riesenkonzern Google hat es nach anfänglicher Panik geschafft, aufzuholen und zuletzt die Branche etwa mit dem Video-Generator Veo 3 beeindruckt.

Bei Meta lief es tendenziell eher umgekehrt: Schon wenige Monate nach der Veröffentlichung von ChatGPT brachte der Konzern sein Sprachmodell LLaMA heraus, noch mal einige Monate später bereits die zweite Version. Insbesondere diese zweite und die etwa ein Jahr später folgenden Versionen der dritten Generation galten als im Großen und Ganzen konkurrenzfähig zu den damaligen Modellen von Anbietern wie Google oder OpenAI, wenn auch nicht unbedingt als die allerbesten der Branche. 

Aber sie hatten eine wichtige Besonderheit: Sie waren frei verfügbar. Man kann sie herunterladen und kostenlos nutzen, Softwareentwickler können sie in ihre eigenen Anwendungen einbauen. Man konnte diese Open-Source-Strategie von Meta so interpretieren, dass die Modelle gewissermaßen zum Rückgrat der weltweiten KI-Entwicklung werden sollten. Und sie schien aufzugehen: Viele Entwickler setzen LLaMa-Modelle in ihren Projekten ein. Dass Meta die bis dahin leistungsfähigste Version LLaMa 3.2 in Europa nicht zur Verfügung stellte (wegen Streitigkeiten mit EU-Aufsichtsbehörden um die Frage, mit welchen Daten die Modelle trainiert werden dürfen), war für manche Entwickler hierzulande ein spürbarer Nachteil.

Die vierte Version von LLaMA sollte dann endlich auch leistungsmäßig ganz vorne mitspielen. Meta behauptete bei der Veröffentlichung im April dieses Jahres, das Modell habe in Vergleichstests besser abgeschnitten als die Topmodelle von OpenAI und Google. Es stellte sich allerdings heraus, dass das Modell, das Meta auf der Testplattform anbot, nicht das gleiche war wie das am Ende veröffentlichte. Es ist nicht klar, wie genau sich diese Modelle unterscheiden. Aber in der Branche setzte sich schnell der Eindruck fest, dass die Leistungsfähigkeit der Modelle mit den Behauptungen nicht mithalten kann. Vielen gelten die Modelle der LLaMA-4-Serie eher als Enttäuschung.