OpenAI hat mit einer überraschenden Ankündigung für Aufsehen gesorgt: Auf einem Live-Event wurde das neue Omnimodel GPT-4o vorgestellt, das speziell für ChatGPT entwickelt wurde.
GPT-4o ist ein Omnimodel, das Audio, Text und Vision auf native Weise vereint. Mira Murati, CTO von OpenAI, präsentierte das neue Modell und betonte dessen enorme Bedeutung für die Effizienz und Latenz bei der Nutzung von ChatGPT.
Mit GPT-4o können Nutzer ihr Smartphone als Kamera verwenden und Fragen stellen, mathematische Probleme lösen oder sich über Codes unterhalten. Das Modell kann sogar Emotionen in Live-Selfies erkennen. Die Präsentation wurde von einem humorvollen Moment begleitet, als der sprechende Chatbot darauf hinwies, dass er nur einen Tisch sehe.
OpenAI stellt GPT-4o ab sofort für ChatGPT und über die API zur Verfügung. Nutzer von ChatGPT Plus erhalten dabei fünfmal mehr Nachrichten pro Tag mit GPT-4o. In den kommenden Wochen soll auch der Sprachmodus von GPT-4o als Alpha-Version in der Plus-Version verfügbar sein.
Entwickler können über die API auf GPT-4o als Text- und Bildmodell zugreifen. Das neue Modell ist doppelt so schnell, kostet die Hälfte und hat ein fünffach höheres Rate-Limit im Vergleich zu GPT-4 Turbo.
Neu sind auch provisorische Chats, die aus Sicherheitsgründen 30 Tage lang aufbewahrt werden, jedoch nicht im Verlauf angezeigt oder für das Training der KI-Modelle verwendet werden.
Mit dieser Ankündigung setzt OpenAI ein starkes Zeichen und zeigt, dass sie weiterhin an der Spitze der KI-Entwicklung stehen. Es bleibt spannend, wie Google auf der I/O mit neuen KI-News kontern wird, nachdem OpenAI bereits mit GPT-4o vorgelegt hat.
UPDATE: OpenAIs Präsentation wurde eingebunden und weitere Details zur Ankündigung ergänzt.
