Am 4. Februar 2025 kündigte Anthropic seine erste Super-Bowl-Kampagne an – mit einem klaren Ziel: OpenAI bloßzustellen. Vier Werbespots zeigen Menschen in intimen Momenten mit KI-Assistenten, die plötzlich zu Werbeverkäufern werden. Die Botschaft: „Ads are coming to AI. But not to Claude.“
Der Kontext macht den Schlag verheerend: Drei Wochen zuvor, am 16. Januar, hatte OpenAI angekündigt, Werbung in ChatGPT zu testen. Für kostenlose Nutzer und das neue 8-Dollar-Abo „ChatGPT Go“ – zunächst in den USA. Sam Altman, der 2024 noch sagte, KI mit Werbung sei „uniquely unsettling“, vollzieht damit eine 180-Grad-Wende.
Und im Hintergrund wartet noch eine dritte Front: Elon Musk fordert vor Gericht bis zu 109 Milliarden Dollar von OpenAI. Der Vorwurf: Verrat an der ursprünglichen Mission, KI zum Wohle der Menschheit zu entwickeln.
Das ist mehr als ein Marketingscharmützel. Das ist psychologische Kriegsführung.
Der Super-Bowl-Schlag
Die vier kurzen Werbespots sind simpel inszeniert – beim Therapeuten, beim Personal Trainer, in persönlichen Gesprächen. Sie stellen Fragen an KI-Chatbots, personifiziert als echte Menschen. Die Antworten beginnen empathisch, fürsorglich. Dann: der Bruch. Plötzlich wechseln die „Therapeuten“ und „Trainer“ in unnatürlich überschwängliche Werbesprache, preisen Produkte an, die nichts mit dem Gespräch zu tun haben.
Die Pointe ist nicht subtil. Sie muss es auch nicht sein.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenDie Psychologie des perfekten Timings
Die Anthropic-Ad wirkt nicht, weil sie witzig ist, sondern weil sie psychologisch sauber gesetzt ist:
Sie rahmt OpenAI als kommerzialisiert und widersprüchlich. Erst drei Wochen zuvor, am 16. Januar, hatte OpenAI angekündigt, Werbung in ChatGPT zu testen. Für kostenlose Nutzer und das neue 8-Dollar-Abo „ChatGPT Go“ – zunächst in den USA. Die Ads sollen am Ende der Antworten erscheinen, „klar gekennzeichnet“ und „ohne Einfluss auf die Antworten“.
Das Problem: Sam Altman hatte noch 2024 gesagt, die Kombination von KI und Werbung sei „uniquely unsettling“ – einzigartig beunruhigend. Werbung wäre der „letzte Ausweg“. 2025 wurde er weicher: „Ich bin nicht völlig dagegen.“ Und jetzt, Anfang 2026: Werbung kommt.
Sie bedient das Narrativ „ethische Alternative“. Anthropic wurde 2021 von OpenAI-Aussteigern gegründet – unter anderem von CEO Dario Amodei. Der offizielle Grund: Uneinigkeit über die Ausrichtung von OpenAI, besonders nach der Partnerschaft mit Microsoft. Das war immer Teil der Markengeschichte. Mit der Super-Bowl-Ad wird daraus ein Werbeversprechen: „Wir sind anders. Wir bleiben bei unseren Prinzipien.“
Sie setzt Zweifel, ohne erklären zu müssen. Die Spots zeigen keine komplizierten Sachverhalte. Sie inszenieren ein Gefühl: das Unbehagen, wenn ein vermeintlich neutraler Berater plötzlich zum Verkäufer wird. Vertrauen wird zur Verkaufsfläche. Diese emotionale Botschaft sitzt tiefer als jedes Faktenblatt über Datenschutz-Prinzipien.
Die Falle der Verteidigung
Und dann kam Sam Altmans Reaktion. 428 Wörter auf X (ehemals Twitter), gepostet am 5. Februar. Er nennt die Anthropic-Ads „funny“ – aber „clearly dishonest“. OpenAI würde „obviously never“ Werbung so schalten, wie Anthropic es darstellt. Die Nutzer würden das ablehnen, und OpenAI sei „not stupid“.
Dann wird es persönlich: „Anthropic serves an expensive product to rich people.“ Mehr Texaner würden ChatGPT kostenlos nutzen als Amerikaner insgesamt Claude. Und: „Anthropic wants to control what people do with AI.“
Das Statement endet mit der Ankündigung, dass OpenAIs eigene Super-Bowl-Ad „about builders“ sein wird – darüber, wie jetzt jeder alles bauen kann.
Das Problem: Verteidigung auf Prinzipienebene, während der Markt längst auf Wirkung schaut.
Altman versucht, die Debatte auf technische Details zu lenken: Wie genau die Ads platziert werden, dass sie die Antworten nicht beeinflussen, dass keine Nutzerdaten verkauft werden. Alles richtig, alles wichtig. Aber es trifft nicht den Kern.
Denn der eigentliche Punkt ist nicht „Ads ja oder nein“. Der Punkt ist: Vertrauen unter Beobachtung.
Der strategische Shift, den niemand übersehen kann
ChatGPT war bisher ein Werkzeug. Neutral, nützlich, auf Abruf. Mit der Einführung von Werbung verschiebt sich die Wahrnehmung: Von Werkzeug zu Plattform. Von neutral zu interessengeleitet.
Das ist kein moralisches Urteil. Es ist eine Geschäftsentscheidung. OpenAI hat 1,4 Billionen Dollar in Infrastruktur-Deals investiert. Die Firma verliert Geld – bis 2029 werden kumulierte Verluste von etwa 115 Milliarden Dollar erwartet. Gewinn soll erst 2030 kommen. Werbung ist da keine Laune, sondern Notwendigkeit.
Aber strategisch nachvollziehbar heißt nicht: psychologisch unproblematisch.
Anthropic hat diese Bruchlinie erkannt – und nutzt sie aus. Clever. Rücksichtslos. Effektiv.
Die Ironie der Millionen
Das Pikante an der ganzen Sache: Anthropic gibt Millionen für Super-Bowl-Werbespots aus, um zu verkünden, dass Claude werbefrei bleibt. Ein 30-Sekunden-Slot kostet durchschnittlich 8 Millionen Dollar, manche gehen für über 10 Millionen weg. Anthropic schaltet einen 60-Sekunden-Spot vor dem Spiel und einen 30-Sekünder während des Spiels.
Altman weist darauf hin: „I guess it’s on brand for Anthropic doublespeak to use a deceptive ad to critique theoretical deceptive ads that aren’t real, but a Super Bowl ad is not where I would expect it.“
Er hat einen Punkt. Aber er verkennt die Botschaft. Es geht nicht um Werbefreiheit als absolute Tugend. Es geht um Positionierung: „Wir sind nicht wie die anderen.“
Und diese Botschaft kommt an. Anthropics Claude-Code-Assistent ist bereits ein viraler Hit in der Entwickler-Community und wurde als Mitauslöser des jüngsten Ausverkaufs bei Software-Aktien identifiziert. Die Firma wächst, auch wenn sie deutlich kleiner als OpenAI bleibt.
Musk: Der dritte Spieler im Hintergrund
Während OpenAI und Anthropic sich öffentlich beharken, schwebt über allem noch eine weitere Figur: Elon Musk.
Der Tesla-Chef, früher Mitgründer von OpenAI, fordert bis zu 109,4 Milliarden Dollar Schadensersatz – berechnet aus seinen ursprünglichen 38 Millionen Dollar Investition plus „Kontakten und Fähigkeiten“. Vom Microsoft sollen weitere 13 bis 25 Milliarden kommen.
Der Vorwurf: OpenAI habe die gemeinnützige Mission verraten, aus der es hervorgegangen war. Stattdessen profitiere jetzt vor allem Microsoft. Eine „eklatante Verletzung“ der Gründungsvereinbarung.
OpenAI kontert: Musk habe damals die „volle Kontrolle“ angestrebt und 2018 vorgeschlagen, OpenAI mit Tesla zu fusionieren. Als das nicht klappte, sei er im Streit gegangen. Jetzt, mit seiner eigenen KI-Firma xAI und dem Chatbot Grok, wolle er einen Konkurrenten schwächen.
Die Klage wird wohl als Teil eines „Privatkriegs“ abgetan. Aber sie liefert Munition für genau das Narrativ, das Anthropic jetzt bedient: OpenAI hat sich von seinen Wurzeln entfernt.
Was wirklich auf dem Spiel steht
Die Super-Bowl-Debatte ist mehr als ein Werbegeplänkel. Sie markiert einen Wendepunkt in der öffentlichen Wahrnehmung von KI-Unternehmen.
Bisher konnte OpenAI als Vorreiter auftreten, der KI für alle zugänglich macht. ChatGPT war das Gesicht der Revolution – schneller, besser, demokratischer Zugang zu Intelligenz.
Jetzt muss sich das Unternehmen positionieren zwischen:
- Kommerzialisierung (notwendig, um zu überleben)
- Zugänglichkeit (das Versprechen, KI für alle bereitzustellen)
- Vertrauen (das Fundament, auf dem alles steht)
Und genau dieses Fundament wird jetzt getestet.
Altmans Argument lautet: „Wir haben mehr kostenlose Nutzer als Anthropic insgesamt Nutzer hat. Wir müssen einen Weg finden, das zu finanzieren, ohne die Leute auszuschließen, die nicht zahlen können.“
Das ist fair. Aber es ändert nichts daran, dass Werbung die Beziehung verändert.
Wenn ich ChatGPT nach Rat frage – zu Gesundheit, Beziehungen, Karriere – und am Ende der Antwort steht „Sponsored by …“, dann ist das nicht mehr nur Werkzeug. Dann ist es Vermittler. Mit eigenen Interessen. Auch wenn diese Interessen algorithmisch sauber von der Antwort getrennt sind.
Das Spiel ist noch nicht vorbei
Anthropics Kampagne wird am Super Bowl Sunday laufen. 120 Millionen Zuschauer werden die Message sehen. „Ads are coming to AI. But not to Claude.“
OpenAI wird ebenfalls einen 60-Sekunden-Spot zeigen – laut Altman „about builders“. Ein positives Framing, weg von der Defensivhaltung.
Wer diesen Kampf gewinnt, ist noch offen. Aber eines ist klar: Die Debatte wurde verschoben.
Es geht nicht mehr nur darum, wer die bessere KI baut. Es geht darum, wem die Nutzer vertrauen. Und Vertrauen ist fragil.
Anthropic hat OpenAI gezwungen, sich zu erklären. Nicht juristisch. Nicht technisch. Sondern emotional. Das ist der Treffer, der sitzt.
Die Frage ist jetzt: Wie reagiert der Markt? Wie reagieren die Nutzer? Und vor allem: Wie sehr ist OpenAI bereit, sein Geschäftsmodell an der öffentlichen Wahrnehmung auszurichten – oder diese Wahrnehmung als Preis des Wachstums zu akzeptieren?
Der Super Bowl wird nicht die letzte Runde sein. Er ist nur der Auftakt zu einem Kampf, bei dem es nicht um Features geht. Sondern um Glaubwürdigkeit.
Und die lässt sich nicht zurückprogrammieren.