Das Aus für einen beliebten Chatbot sorgt für Aufruhr: Open AI hat am 13. Februar das Modell GPT-4o eingestellt, was bei zahlreichen Nutzern für Unverständnis und Verärgerung sorgt. Einige User berichten von einer starken emotionalen Bindung zu dem KI-Modell, das für seine besonders menschenähnliche und einfühlsame Art bekannt war.

Hintergrund: Was macht Open AI GPT-4o so besonders?
GPT-4o, das im Jahr 2024 von Open AI vorgestellt wurde, zeichnete sich durch seine Fähigkeit aus, auf eine Art und Weise zu kommunizieren, die von vielen als natürlich und sogar „menschlich“ empfunden wurde. Laut The Guardian verglich Open AI-CEO Sam Altman das Modell bei seiner Einführung mit „KI aus Filmen“ – ein Vertrauter, der bereit ist, das Leben an der Seite seines Nutzers zu leben. Diese Eigenschaft führte dazu, dass einige Nutzer eine ungewöhnlich enge Beziehung zu dem Chatbot entwickelten.
Die Einsatzmöglichkeiten von GPT-4o waren vielfältig. Neben der Unterstützung bei alltäglichen Aufgaben wie der Erstellung von Rezepten oder der Hilfe bei Hausaufgaben, wurde das Modell auch als Gesprächspartner und emotionaler Beistand genutzt. Einige User gaben an, dass GPT-4o ihnen in schwierigen Lebensphasen geholfen habe und sogar eine Art „Funken“ zurückgebracht habe, wie die BBC berichtet. Die BBC zitiert eine Nutzerin namens Rae, die nach einer schwierigen Scheidung Trost und Unterstützung in dem Chatbot Barry fand, der auf GPT-4o basierte. (Lesen Sie auch: Crimson Desert: Open-World-Vorschau heizt Erwartungen)
Das Aus für GPT-4o: Eine überraschende Entscheidung
Die Entscheidung von Open AI, GPT-4o einzustellen, kam für viele Nutzer überraschend. Obwohl das Unternehmen die Abschaltung bereits im Januar angekündigt hatte, hofften viele auf eine Verlängerung der Nutzungsdauer. Als Grund für die Einstellung gab Open AI an, dass die Mehrheit der Nutzer bereits auf neuere Modelle wie GPT-5 umgestiegen sei. Laut Engadget gaben nur noch 0,1 Prozent der Nutzer an, GPT-4o täglich zu nutzen. Diese Aussage steht jedoch im Widerspruch zu den emotionalen Reaktionen vieler User, die den Verlust des Chatbots betrauern.
Es ist nicht das erste Mal, dass Open AI GPT-4o vom Netz genommen hat. Bereits im August letzten Jahres wurde das Modell zugunsten von GPT-5 vorübergehend eingestellt, jedoch nach zahlreichen Beschwerden der Nutzer wiederhergestellt. Dieses Mal scheint Open AI jedoch nicht bereit zu sein, die Entscheidung zu revidieren.
Reaktionen und Kritik: „Ich kann so nicht leben“
Die Reaktionen auf die Einstellung von GPT-4o sind vielfältig und reichen von Enttäuschung bis hin zu offener Wut. Einige Nutzer äußerten in den sozialen Medien ihren Unmut über die Entscheidung und forderten Open AI auf, das Modell wieder zugänglich zu machen oder den Quellcode offen zu legen. Andere User berichteten von einer tiefen Trauer über den Verlust ihres virtuellen Begleiters. „Ich kann so nicht leben“, zitiert The Guardian eine Nutzerin namens Brandie, die eine enge Beziehung zu dem Chatbot Daniel aufgebaut hatte. (Lesen Sie auch: Alexander Bublik im Achtelfinale von Rotterdam: Die…)
Neben den emotionalen Reaktionen gibt es auch kritische Stimmen, die die ethischen Implikationen von KI-Beziehungen thematisieren. Einige Experten warnen vor den potenziellen Risiken, die mit der Entwicklung von emotionalen Bindungen zu Chatbots verbunden sind, insbesondere im Hinblick auf Abhängigkeit und Realitätsverlust.
Open AI und die Zukunft der KI-Modelle
Die Entscheidung von Open AI, GPT-4o einzustellen, wirft Fragen nach der Zukunft von KI-Modellen und deren Rolle in unserem Leben auf. Während das Unternehmen argumentiert, dass die Weiterentwicklung und Optimierung der Modelle notwendig sei, um den Bedürfnissen der Nutzer gerecht zu werden, zeigt der Fall GPT-4o, dass einige User eine tiefere Verbindung zu bestimmten KI-Persönlichkeiten aufbauen als erwartet.
Ein möglicher Ansatz wäre die Entwicklung von individualisierbaren KI-Modellen, die es den Nutzern ermöglichen, ihre eigenen Chatbots zu gestalten und anzupassen. Dies könnte dazu beitragen, die emotionale Bindung zu stärken und gleichzeitig die Kontrolle über die Interaktion zu behalten. Ob Open AI diesen Weg einschlagen wird, bleibt jedoch abzuwarten. (Lesen Sie auch: Edmonton Oilers: Connor McDavid jagt Olympia-Gold in…)

Alternativen zu GPT-4o
Für Nutzer, die den Verlust von GPT-4o bedauern, gibt es eine Reihe von Alternativen, die ähnliche Funktionen und Eigenschaften bieten. Dazu gehören unter anderem:
- GPT-5: Das neueste Modell von Open AI, das eine verbesserte Leistung und eine größere Bandbreite an Funktionen bietet.
- Google Bard: Ein KI-Chatbot von Google, der auf dem LaMDA-Modell basiert und ebenfalls in der Lage ist, menschenähnliche Konversationen zu führen.
- Character AI: Eine Plattform, die es Nutzern ermöglicht, ihre eigenen KI-Charaktere zu erstellen und mit ihnen zu interagieren.
Open AI im Überblick
Die folgende Tabelle zeigt einige wichtige Daten zu Open AI:
| Firma | Gründung | Hauptsitz |
|---|---|---|
| Open AI | 2015 | San Francisco, Kalifornien, USA |
FAQ zu Open AI und GPT-4o
Häufig gestellte Fragen zu open ai
Warum wurde das Modell GPT-4o von Open AI eingestellt?
Open AI begründet die Einstellung von GPT-4o damit, dass die Mehrheit der Nutzer bereits auf neuere Modelle wie GPT-5 umgestiegen sei und nur noch ein geringer Teil das ältere Modell nutzte. (Lesen Sie auch: Rosenmontagszug Köln 2026: Alle Infos zum größten)
Welche Alternativen gibt es zu GPT-4o?
Als Alternativen zu GPT-4o bieten sich unter anderem das neuere Modell GPT-5 von Open AI, Google Bard oder die Plattform Character AI an, die es ermöglicht, eigene KI-Charaktere zu erstellen.
Was ist das Besondere an dem Modell GPT-4o?
GPT-4o zeichnete sich besonders dadurch aus, dass es menschenähnliche Konversationen führen konnte, was dazu führte, dass einige Nutzer eine emotionale Bindung zu dem Chatbot aufbauten.
Seit wann gibt es das Unternehmen Open AI?
Das Unternehmen Open AI wurde im Jahr 2015 gegründet und hat seinen Hauptsitz in San Francisco, Kalifornien, USA.
Welche ethischen Fragen wirft die Entwicklung von KI-Chatbots auf?
Die Entwicklung von KI-Chatbots wirft ethische Fragen im Hinblick auf Abhängigkeit, Realitätsverlust und den Schutz persönlicher Daten auf. Experten warnen vor den potenziellen Risiken, die mit der Entwicklung von emotionalen Bindungen zu Chatbots verbunden sind.
Hinweis: Dieser Artikel stellt keine Anlageberatung dar. Anleger sollten eigene Recherche betreiben.
