Agentic AI Foundation // OpenAI Code Red // GPT-5.2
- // Podcast
- // News AI 51/25
Shownotes
In der letzten AI-News des Jahres werfen wir einen Blick auf die Gründung der Agentic AI Foundation. Mit Unterstützung namhafter Unternehmen entsteht dort ein Ökosystem aus Tools und Funktionen, die gemeinsam als Open Source weiterentwickelt werden, darunter auch das Model Context Protocol.
Außerdem sprechen wir über geleakte Informationen rund um einen angeblichen „Code Red“ bei OpenAI, den Sam Altman ausgerufen haben soll. Der Wettbewerbsdruck nimmt spürbar zu, weshalb OpenAI offenbar seinen Fokus noch stärker auf praxisnahe und nutzungszentrierte Funktionen legt.
Passend dazu werfen wir einen Blick auf GPT-5.2, das neueste Modell von OpenAI. Besonders im agentischen Modus zeigt es seine Stärken und kann viele typische Arbeitsaufgaben weitgehend eigenständig übernehmen.
- Dennis
- Hallo und herzlich willkommen zu den letzten AI News 20 25. Wir reden heute über Agenic AI Foundation und dass bei Open AI der Code Red ausgerufen wurde und gleichzeitig oder vielleicht sogar im Zuge dessen auch eine neue Version von GPT rauskam, nämlich GPT 5 Punkt 2. Mein Name ist Dennis Becker und ich sitze heute hier zusammen mit Fabi Fink, Hello. Hallo Fabi, schön, dass Du dabei hier bist. Dennis. Liebe Grüße an Philipp, der ja regelmäßig hier und aber einen verdienten Urlaub im Moment hat. Und ja, ich hab gesagt, letzte Folge, letzte AI News. Wir treffen uns noch mal dieses Jahr, das vielleicht schon mal zu teasern. Und ich glaub, laut aktuellem Plan wird die Folge am ersten Januar veröffentlicht, wo wir noch mal son bisschen zurückblicken auf das natürlich sehr ereignisreiche AI Jahr 2025 und 'n bisschen auch in die Zukunft blicken, was wir denken, was in 20 26 passieren wird. Das alles aber in unserer Recap Folge, die wie gesagt ein neuer erscheinen wird. Heute geht's die genannten Themen und vielleicht steigen wir erst mal mit der agentic AI Foundation ein. Worum geht es da, Fabi?
- Fabi
- Genau, also wie der Name schon sagt, wurde eine, geht's hier eine Foundation, also eine Non Profit Foundation, die sich nennt Agentic AI Foundation und läuft unter der Linux Foundation und die haben 3 Firmen im Grunde genommen zusammen gegründet oder zumindest sind 3 Firmen Stiftungsmitglieder, dass sie 3 verschiedenen Dinge dieser Foundation gestiftet haben. Dazu gehören Open AI, Entropic und Block. Block haben wir vorher gar nicht so ganz im Begriff, komme ich gleich noch mal drauf, aber es hat sozusagen 'n bisschen den für Schlagzeilen gesorgt, weil eben 1 der 3 Dinge, die jetzt zu dieser Agentic AI Foundation gehören, der MCP Standard ist. Und grundsätzlich geht's darum, dass es sozusagen ein eine neutrale, offene Foundation ist, so die die dafür sorgt, dass bestimmte gescherte Komponenten im AI Space eben allgemein weiterentwickelt werden, so wie man's im Endeffekt auch ne, offen kennt von Linux. Also zu der Linux Foundation gehören ja einige Dinge auch, zum Beispiel Node, also auch Kubernettesten so. Also Linux Foundation kennt sich sehr gut aus im Open Source Bereich und wie es Dinge eben mit 'nem offenen Standard und offen für alle umsetzt. Und die Agentic AI Foundation ist jetzt eben gegründet, das zu tun für alles rund agentische AI. So und das Erste von 3 Projekten, was dazu gehört, ist das Model Context Protocol, was ja von ins Leben gerufen wurde, sich relativ schnell, haben wir auch eine eigene Folge mit dem Philipp zusammen drüber gemacht im Mai, son bisschen als der jetzt ja der Standard oder 1 der Standards implementiert hat, externe Funktionalitäten an Agenten anzubinden. Und genau, das aber vorher von Enshopic ja auch als offener Standard gelauncht wurde, aber jetzt das Ganze zusammengefunden wird unter der Agenic AI Foundation. 2 weitere Themen sind da dann auch noch mit runtergekommen. Also jedes dieser 3 genannten Unternehmen hat ein Thema gespendet, OpenAI hat die Agents m d da hinzugefügt. Also können wir ja schon das das Marktdown Fall, in dem grundsätzliche Dinge für Agenten definiert werden und schon ja, son paar Grundlegende, ich mein, das ist jetzt technologisch nichts besonders Weltbewegendes, ne. Im Grunde genommen ist es ein Marktdown Fall, was an 1 bestimmten Stelle liegt, aber es hat son paar Standards definiert, so in welcher Reihenfolge, wann welche Agents sind die, nachdem wo man's in welchem Kontext man ausführt, genommen werden und ähnliche Dinge und hat's son bisschen als 1 der Standards implementiert, wurd, glaub ich, ursprünglich mal von OpenAI einfach intern als ein Standard genommen und hat sich dann aber son bisschen, ich glaub, Sie haben geschrieben, mittlerweile nutzten 60000 verschiedene Open Source Projekte sozusagen als der Standard für grundsätzliche Anweisungen an den Agenten. Und das dritte Thema ist GUOSE. GUOSE ist 'n Open Source erweiterbarer AI Agent, der sich auch 'n bisschen darauf fokussiert, dass man lokale LLMs benutzen kann und das wiederum wurde gespendet von von Block und Block, ich weiß gar nicht, Dennis, ist bei dir Block oder ist Block da überhaupt 'n Begriff? Sagt dir das was als Firma? Nee. Blog da ist im Endeffekt das Enterprise, was verschiedenste Produkte zusammenbringt. Unter anderem, ich glaub, das bekannteste, was man jetzt vielleicht so kennen könnte, vielleicht auch Square. Das ist son bisschen auch 1 dieser Point of Sale Bezahlterminals, so grade im Gastrobereich oder Ähnliches. Und ansonsten gibt's also eigentlich ist 'n sozusagen geht in Richtung geht in Richtung Fintech. Dazu gehört auch so was wie also der Rest geteilt kennt man noch vielleicht, aber ist auch im Bitcoin Bereich mit Bitkey und Cash App irgendwie gehört mit dazu. Und sie haben eben auch Teile im AI Space entwickelt und dazu gehört eben GooE, haben sie, glaub ich, Ende letzten Jahres. Das ist ungefähr so ein Jahr alt so als ein Open Source lokaler AI Agent. Ich selbst hab ihn jetzt noch gar nicht ausbürden. Ehrlicherweise war er mir vorher sowohl die Firma als auch Gus an sich als Produkt gar kein Begriff so. Kanntest Du kanntest Du Gus?
- Dennis
- Gus kannte ich, weil die mal auf irgend 'ner, ich glaub, auch Tokio Developmenters hatten ihren relativ großen Stand und waren da vertreten. Und da hatte ich mir das auch mal 'n bisschen angeguckt in der Zeit, ja. Hast Du
- Fabi
- hast das auch mal ausprobiert?
- Dennis
- Kurz, ja. Nicht nicht ausführlich evaluiert, ja.
- Fabi
- Also ich mein, auf jeden Fall interessant, wie gesagt, mir war's vorher nicht wirklich 'n Begriff. Ich fand erst mal so, dass Promis so was da, sag ich, sah auf jeden Fall erst mal relativ interessant aus. Aber ich hatt's eher gewundert, dass es bisher noch überhaupt nicht zu mir durchgedrungen war, das Tool. Und dann jetzt Teil als Teil als 1 der grad 3 großen Dinge der Gentic AI Foundation irgendwie genannt wird. Also da hab ich mich noch mal 'n bisschen Gründe, aber vielleicht noch mal so zum Hintergrund auch, was Blog angeht. Also 1 der Gründer ist Jack Dorsey, der auch als eine der Gründer von Twitter bekannt geworden ist und dann eben danach zu Square Square gegründet hat. Und ich hab auch noch 'n bisschen nachlesen noch mal über Jack Dorsey im Moment ja wieder son bisschen gehandelt wird als der der der Bitcoin Gründer, also Satoshi. Wie heißt er noch mal wie hieß er noch mal 'n Vornamen?
- Dennis
- Weiß ich nicht.
- Fabi
- Satoshi Nakamoto. So, das war der Vorname. Satoshi Nakamoto wird son bisschen gehandelt, sodass er vielleicht dann doch jetzt auch Also ich sag, das hat ja lange Zeit, dass es irgendwie Elon Musk ist. Jetzt ist es wohl vielleicht auch Jack Dursy, weil als das Paper releast wurde, ist sein Geburtstag und 2 der wichtigsten ersten Transaktionen waren sowohl der Geburtstag seiner Mutter als auch seines Vaters. Gibt noch 'n paar andere Anzeichen. Kann man 'n bisschen nachlesen. Also ich bin in diesem Blog Rabbit Hole auch 'n bisschen bisschen versunken. Genau, aber ansonsten, dass die Agentic AI Foundation, wie gesagt, ich glaub, mit dem größten Impact jetzt, was die 3, nennt man's Produkte angeht, auf jeden Fall Model Context Protocoly, was wir uns zuletzt sehr stark unterhalten haben. Und also so, die jetzt aber kein nichts gestiftet haben der Foundation, sondern aber auch AWS, Bloomberg, Open, gut Open Air hab ich schon genannt, Microsoft, Google, Cloudflare. Also sind auch einige Partner grundsätzlich mit dabei. Denke eine ganz gute, ganz gute Entwicklung irgendwie an einen Ort, wo diese allgemeinen Dinge entwickelt werden, aber wird erst mal mittelfristig natürlich jetzt nicht groß was verändert dadurch das Protokoll ja vorher auch schon ein offener Standard war.
- Dennis
- Haben die irgendwas gesagt über Ressourcen oder so was, die Sie da explizit reinstecken oder so? Das sind erst mal praktisch nur die Tools oder die Formate, wie man sie nennen möchte, die da reinkamen oder arbeiten sehr aktiv auch in irgend 'ner Agenda?
- Fabi
- Nee, also Sie sagen haben, glaub ich, nur gesagt, dass Sie im Endeffekt die Linux Foundation sozusagen schon 'n proven track Record hat mit halt so was wie Linux Node und so was, dass Sie wissen, wie Sie solche solche Open Source Projekte weiterentwickeln so und schreiben mir. Also ich denke mal, das ist wahrscheinlich in an der Stelle dann mit monetären Mitteln die Foundation ausgestattet. Ich weiß jetzt auch nicht, ob dann irgendwie teilweise Mitarbeiter von den Firmen jeweils dahingehen, das dann dort weiterzuentwickeln. Aber ich denk jetzt auch erst mal grundsätzlich, Linux Foundation an sich, kein schlechter Ort, solche Dinge irgendwie weiterzuentwickeln. Aber dazu haben sonst haben sie mehr dazu nichts gesagt, so.
- Dennis
- Okay, cool. Ich glaub, von der Dramaturgie macht es Sinn, wenn auch Du direkt das nächste Thema noch kurz erläuterst. Und zwar geht es da den, ist das eigentlich komplett offiziell oder die das Gerücht, dass OpenAI intern den ausgerufen hat?
- Fabi
- Also es ist kein offizielles Statement von OpenAI, man hat auch nicht jetzt die Memo, also ich hab zu der wirklichen Memo von OpenAI jetzt an sich gefunden oder so. Also die Memo an sich ist jetzt nicht offen, aber es sind so viele Quellen, die das jetzt irgendwie bestätigen, dass es diesen internen Code red gibt, dass das jetzt, jetzt nicht groß hinterfrage, dass es nicht gibt. Aber es ist keine kein offizielles Announcement und hier OpenAI sagt, Achtung, Code red, das ist schon was Internes und wurde in dem Fall geleakt, aber Du hast ja, genau, grade schon gesagt, so der OpenAI oder Sam Ortman hat den Code red für OpenAI auf ausgerufen und das wahrscheinlich, es sind jetzt alles natürlich teilweise Spekulationen, was der Grund auch wirklich ist so, aber ich mein, man kann's ja von außen natürlich relativ gut betrachten, dass der Konkurrenzdruck, den OpenAI und damit auch ChatGPT hat, natürlich sehr viel größer wird und zuletzt man da wirklich sagen muss, man, wenn man noch mal 'n bisschen zurückblickt, ne, also Google auf jeden Fall jetzt einfach der, würd ich sagen, zumindest mit Open AI der Platzhirsch ist, was die LLMs angeht und dazu noch einen ganzen Ecke weiter voraus ist, was die Bildgenerierung angeht. Also sozusagen an 2 Fronten jetzt einfach so ist, dass Open AI eben nicht mehr mit Abstand immer ein Stückchen vorneweg läuft und die Leute sich an Open AI orientieren, sondern jetzt schon ganz klar ist, okay, da wo Google steht, ist einfach eine sehr, sehr große Gefahr für Open AI, was natürlich auch son teilweise son bisschen an den an den Zahlen dann auch sieht. Ich mein, sie haben sind immer noch immer noch eine weit höhere Userbasis, was jetzt einfach ChatGPT und den und die das Webinterface irgendwie angeht im Vergleich zu Gemini. Aber es gab jetzt zum Beispiel auch grade im Herbst, 7 Jahr auch zum ersten Mal, dass Gemini vor ChatGPT im App- und Play Store gerankt war so. Das sind schon mal erste Indizien, die man sieht. Dann natürlich einfach so, wenn man sich mal die oder die Userrate son bisschen anschaut, den den Zuwachs, da war's, glaub ich, von Dezember auf Januar diesen Jahres noch so, dass sie bei die 35 Prozent, glaub ich, waren an 'n Userzuwachs. Jetzt zuletzt, wo uns, glaub ich, August, September waren Zahlen, die man gesehen hat, da waren sie nur noch bei die 10 Prozent, was immer noch beeindruckende Zahlen sind. So, wenn man das Ganze mal hochrechnet auf die nächsten 4 Jahre sieht und sie so ähnliche Zahlen halten sollten. Aber ist natürlich einfach so, ich mein, das ist ja auch was, was wir im Grunde genommen wahrnehmen, auch schnell unserer Usage, so, ne. Also Germania ist einfach so verdrängt OpenAI an vielen Stellen immer mehr. Und wenn man natürlich auf die Agenda schaut so, Google, ein Unternehmen, was sehr profitabel ist, sich dieses Spiel sehr, sehr lang leisten kann versus OpenAI, was in einem riesigen Scale Geld einsammeln muss, ihre Agenda irgendwie irgendwie hinzubekommen. Sie haben jetzt zwar ihre ihr Umsatzvolumen für 2030 ein bisschen angepasst. Ich glaub, wir hatten uns ja bei der letzten größeren Fundingrunde mal son bisschen drüber unterhalten. Da war irgendwie 2030 estimated mit 100000000000 Dollar Umsatz. Das haben sie jetzt mittlerweile prognostiziert auf 200000000000. Allerdings muss man auch sagen, für dieses Jahr hatten sie irgendwie, ich glaub, 12000000000 antizipiert und man sind nämlich immer, gibt immer nicht so ganz aktuelle Zahlen, mal 'n bisschen Unterschiede gefunden. Die meisten Quellen reden von dreizehneinhalb Milliarden, die sie dieses Jahr irgendwie umgesetzt haben. Also wenn man das Ganze natürlich zusammensieht, zu sagen, so, ihre Kosten steigen dann doch noch mal eine ganze Menge, deswegen auch so ihre ihre antizipierter oder was heißt deswegen, gleichzeitige antizipierter Revenue, anders wär's natürlich auch 'n bisschen schwierig. Und in der jetzigen Situation sind sie nicht so weit über ihre aktuellen Projektion hinaus und der Wettbewerbsdruck wird natürlich superviel größer. Was allerdings der Code Red am Ende son bisschen bedeutet, also auf was sie jetzt ihren Fokus setzen, das kann man natürlich nicht so hundertprozentig irgendwie erkennen oder das ist halt wieder in Richtung Mutmaßung und Insiderwissen so. Und da ging's dann schon darum, dass sie das die User Experience von ChatGPT verbessern wollen. Also geht's jetzt nicht darum, dass der dass der Code red bedeutet, okay, wir müssen jetzt unbedingt das beste Modell und ist ja die Entwicklung, die sie so oder so machen, sondern es geht schon die User Experience an sich. Zum Beispiel war's ja so, dass sie zuletzt auch son bisschen defensiver werden mussten, was jetzt ChatGPT und die ganze Integration angeht, zum Beispiel so was die Flirtiness von ChatGPT angeht oder Dinge, die sie ja auf jeden Fall ganz stark zurückschrauben mussten, wo sie jetzt auch teilweise A-Statings einführen. Und was wir sie auch gesehen haben, dadurch sind die ist die Sessionlänge zurückgegangen und so. Und jetzt viele der Dinge, die sie sozusagen jetzt machen wollen, geht einfach die User Experience von ChatGPT, also auch das viel viel das Drumherum so. Mal gucken, auf was die dann jetzt weiter irgendwie setzen werden, aber es ist definitiv getrieben von dem großen Druck von ihren so einerseits, was den LLM Space angeht. Aber auch ganz klar, muss man sagen, einfach Nano Bananen war, glaub ich, ein Ding, was auch OpenAI sehr stark überrascht hat. Und auch wenn, können wir gleich mal 'n bisschen dadrauf, Sie jetzt grade wieder ein neues Modell releast haben, will man jetzt sagen, hat sich diese Situation noch nicht so groß verändert. Und ich glaub, es wird, und da bin ich mal sehr gespannt auch auf unseren AI Recap und fürs nächste Jahr, ich glaub, es wird schon ein etwas anderes Jahr für Open AI. Wenn man wirklich noch mal ganz kurz den Blick zurückmacht mit Google, ich glaub 2022 als Chat GPT kam, das war ja wirklich, da rief Google den Code son bisschen aus. Da haben sie sogar die Gründer Sergey Brin und Larry Page zurückgeholt für das ganze Vorhaben. Und man hat ja echt lange Zeit hier, haben wir auch in der AI jetzt darüber geredet, wie weit Open AI irgendwie vorne dran ist und ob Google das überhaupt noch aufholen kann, hat sich gewundert, dass Google mit Deep Mind so viel irgendwie dem ganzen AI Research macht und dann diesen ganzen Zug irgendwie verschlafen hat. Und jetzt sieht die Welt schon ein wenig anders aus. Und wenn halt Open AI nicht den atvantage weiter weiter hat und irgendwie vorne wegrennt, da muss man natürlich sagen, Open AI tritt hier gegen ganz viele Größen der Techindustrie an, die sehr viel besser mit Kapital ausgestattet sind, als sie es sind. Und die OpenAI Wette braucht natürlich eine ganze Menge an Geld, damit sie's durchziehen können.
- Dennis
- Ja, spannend. Aber ja, wie Du schon sagst, werden wir noch 'n bisschen mehr reflektieren. Aber grundsätzlich kann man, glaube ich, schon mal festhalten, ist schon schon abgefahren, was Google in diesem Jahr alles so auf die Straße gebracht hat und und intern bewegt hat, da aufzugreifen. Ja. Ein Ding, was Open Air ja auch gemacht hat, munkelt man auch ein bisschen, weil eben durch das Germany 3 Release wieder mehr Druck war, ein bisschen früher als eigentlich geplant, eine neue Version von GPT veröffentlicht zu haben. Wir hatten GPT 5 Punkt 1 ja als letztes großes Update, was, glaub ich, erst im November kam und jetzt am elften Dezember GPT 5 Punkt 2 rausgekommen ist. Und was ich schon irgendwie faszinierend
- Fabi
- finde, dass, also es ist
- Dennis
- ja son bisschen 'n Schiff, dass bis jetzt eher die Releasedükl ein bisschen größer waren und dann praktisch diese Modation Models irgendwie komplett trainiert wurden und die dann irgendwie rausgebracht wurden. Und jetzt eher auch so ist, dass kleinere Iteration, die praktisch nach dem Training so dieses des des Hauptmodells kommen, dann noch besser zu werden auf auf verschiedenen Ebenen, Skalen, ja, letztendlich irgendwie der der Logik, wie das Ganze wie das Ganze dann noch funktionieren kann und so. Ist tatsächlich auch bei 5 Punkt 2, Was vor allen Dingen so das, was man oder worunter es promotet wurde, so den den Business besser betrachtet, also einfach besser dabei ist, in tatsächlichen Arbeitsumgebungen zu unterstützen. Und ein, es gibt ja immer diese verschiedensten Benchmarks da draußen, die dann genutzt werden, zu zeigen, wie toll jetzt gerade ein Modell geworden ist. Und da gibt es ein sogenanntes GDP Vell, ist auch 1 dieser Benchmarks. Und da geht es darum, dass es revierundvierzig Arbeitsbranchen oder Branchen gibt, auf denen das getestet wird. Und was tatsächlich krass ist halt so der Sprung von GPT 5 Punkt 1 Thinking, da waren wir bei 38 Prozent zu jetzt 74 Prozent mit GPT five Point to pro arm. Also das heißt einfach, grade im Bearbeiten von komplexen Aufgaben mit inhaltlichem Wissen, Dinge aufzubereiten und darüber lange nachzudenken und dann ein Ergebnis zu haben, wo man sagen kann, okay, das ist jetzt nicht mehr nur, das muss ich jetzt überprüfen und habe dann viel Arbeit damit, sondern ich kann wirklich diese Aufgabe übergeben und kann dem danach trauen, dass das gut ist oder so gut wie Experten, Menschenexperten das machen würden. Ist irgendwie von der Aussage natürlich noch mal 'n ganz anderes Level als das, was wir vorher gesehen haben. Genau. Die Token sind, glaub ich, 'n bisschen größer geworden. Ich mein, das German ja immer noch 'n bisschen weiter vorne, aber es gibt zumindest jetzt 400000 als Token Kontext Window, was man hat. Und was auch noch von der Architektur oder von der Technik anders ist, es gibt 'n sogenanntes, ich weiß gar nicht, ob son deutscher guter Begriff ist, das vielleicht komprimieren oder so, aber komprimieren ist 'n, ja. Also auf jeden Fall ist es so, dass man sowohl über die API als auch, dass es passiert, wenn Sachen sind, dass das Modell sich selbst praktisch Zusammenfassung schreibt der wichtigsten Dinge, die bis jetzt passiert sind, den Kontext kleinzuhalten. Das heißt, das ist praktisch mit eingebaut. Diese Funktionalität des ja, genau. Wenn man, ne, verschiedenste Tools nutzt und so, das hatten wir, glaub ich, auch schon mal diskutiert, dass man schnell halt diesen Kontext riesig aufbläst und dann da da da da da da alles gar nicht mehr reinpasst. Und das ist jetzt praktisch ein Automatismus, der das immer wieder eindampft und nur die wichtigsten Fakten mitnimmt, dann eben nicht in dem Riesenkontext irgendwie verloren zu gehen, sondern immer wieder auf das ursprüngliche Ziel, was man eigentlich dort gegeben hat, auch auch mitzukommen. Das Ganze gibt es in der Oberfläche letztendlich in so 2, in 3 unterschiedlichen Ausprägungen. Es gibt einen Version davon, die einem sofortige Antworten gibt. Es gibt den Thinking Mode, der ja, wie auch vorherige Thinking Modelle einfach sich Zeit lässt und ein bisschen darüber iteriert. Und dann gibt es noch den Pro Modus, der hier von Open AI mit Intelligenz auf höchstem Niveau gesabtitled ist, den man dort hat. Genau, auch auf den, also wir haben jetzt grade über diesen relativ besonderen GDP Vell Benchmark geguckt, aber Sie haben tatsächlich auch in ihrem Blogbeitrag dazu ganz, ganz nette Beispiele, also wo wo Excel Tabellen, komplexe Dinge zu berechnen oder so, auch einfach diesen Unterschied zwischen 5 Punkt 1, der ja dann noch relativ stark gefehlt ist, wo irgendwelche Zellen fehlten, die Berechnungen am Ende nicht da waren, zu jetzt 5 Punkt 2 der solche Tasks mit, mach mir mal eine Arbeitsplahnung für meine Mitarbeiter oder so was, das halt konsequent bis zum Ende so durchdenkt, dass es dann funktioniert. Also einfach dieses Dranbleiben, bis ein vernünftiges Ergebnis da ist, das sich schon stark verbessert hat.
- Fabi
- Ja, interessant. Ich mein, gefühlt, wenn ich irgendwie das höre und auch wieder den so den Blogbeitrag mir durchlese und dann das gepaart mit in Verbindung bringen mit allem, was ich irgendwie gelesen hab rund diesen Code red find ich's natürlich auch schon wieder so sehr interessant diesen diesen Blogbeitrag, ne. Und die die Use Cases, jetzt irgendwie rausgegriffen hast. Find ich interessant, wenn sie wenn sie irgendwie über die Introduction von GPT 4 5 Punkt 2 reden, dann sagt nur der erste Satz das und dann der nächste Satz geht einfach nur darauf ein oder die nächsten Abschnitte gehen direkt darauf ein, so was es alles für Enterprises, für Vorteile bringt und wie viel Minuten Leute jetzt schon sparen irgendwie am Tag so, wenn Du irgendwie in deinem Arbeitsleben so und so, dass es noch mehr ökonomischen Value irgendwie hebt und irgendwie so gut ist für Spreadsheets, Präsentationen und so und so so richtig diese Business Use Cases. Wenn man dann das noch mal in Verbindung bringt, ich hab's ja vorhin gemeint so, Sie wollen 200000000000 Umsatz 2030 machen und in erster Linie so ist es weiterhin so, dass Sie das den Großteil dieses Revenuees über subscription Base machen wollen. Und son bisschen gab's auch so einen Artikel darüber, dass wir 'n bisschen in Verhältnis gebracht haben. Wo sie ja, glaub ich, grade sind, sind 800000000 wöchentlich aktive User, wovon ungefähr 5 Prozent 5 Prozent subscriben subscribed sind. Und was Sie denken, 2030 zu haben, sind 2600000000.0 wöchentlich aktive User, wovon achteinhalb Prozent subscribed sind. Und der der der Case in dran, wo sie sagen, woher sie woher sie das heben können, sind im Grunde genommen alles Business Subscriptions. Wo sie eigentlich sagen so, dass Leute eben den Mehrwert dafür erkennen, die in der in dem Free Tier erkennen die Leute den Mehrwert und die großen Enterprises, die großen Businesses schließen dann Rahmenverträge für ihre Mitarbeiter ab und können darüber sozusagen diesen großen Scale erreichen, noch mal eine viel höhere Anzahl an Subscriptions und sie sozusagen den Weg darin sehen, dass sie eben diese Subscription über die Businesses son bisschen bekommen. Und ich fand's auch mal ganz interessant, also wenn man wenn man davon redet von achteinhalb Prozent bei 2600000000.0 wöchentlichen aktiven Usern, also dann sprechen sie da von irgendwas so zwischen 200 bis 300000000. Und ich wusste gar nicht, wo hast Du hast Du 'n Gefühl dafür, so die großen, was die so, was glaubst angeht? So was sind die oder die 3 größten Produkte, sagen wir's mal. Hast Du eine Idee?
- Dennis
- ICloud, also hier Apple, wenert sich das? Was ist der Oberbegriff davon?
- Fabi
- Ist, ja, ist das nicht iCloud? Ich glaub schon, dass man sich nennt, ja. Ja. Würd ich mal auf die Liste packen. So,
- Dennis
- das Spotify. Mhm.
- Fabi
- Du hast schon den Platz 3. 2, Apple Music ist,
- Dennis
- glaub ich, kleiner als als Spotify von den Subscribers. Deswegen nehm ich das mal nicht. Oh, was haben wir noch? Oh, Netflix ist wahrscheinlich kleiner, ne.
- Fabi
- Sagste's oder sagst Du's nicht? Hier draußen kann alles nur 'n bisschen mitrate. Vergeb ich dir noch 'n paar
- Dennis
- Es geht, es geht die Anzahl der, ne, es geht nicht die Umsatz. Es geht die Anzahl der
- Fabi
- Ja, das ist jetzt ja nicht im Umsatz.
- Dennis
- Dann würde ich sagen, ist Netflix nicht dabei.
- Fabi
- Okay, komm ich los, das würde ich auf. Doch Netflix ist dabei. Also iCloud ist, also man muss dazu sagen Quelle wie Information so. Ich weiß nicht, ob's im Endeffekt auch was ausgelassen haben, vielleicht zu manchen Dingen nicht groß zahlen haben. Also iCloud gehört an der Stelle da nicht mit dazu, aber es waren Spotify, Netflix, also Spotify Platz 3 mit 281000000, Netflix 302000000 Active Subscriptions und dann an Platz 1 ist Microsoft Office 365 425 bis 460000000 Subscriptions so. Und deswegen, ich weiß gar nicht, ob diese Liste komplett ist, ne, weil Sie haben natürlich auch davon gesprochen in dem Artikel so, dass Slack auch eine superhohe Rate hat auch so was wie Google Workspaces und so was auch superviel ist. Deswegen, die tauchen jetzt in der Liste da an der Stelle gar nicht auf. Ich denk mal, dass es dass es da schon, dass jetzt nicht eine komplette Liste an irgendwie Subscriptions, aber damit man son bisschen Gefühl dafür bekommt, ne. Also wenn wenn OpenAI davon redet, dass sie 2030 ihre achteinhalb Prozent von 2600000000.0 haben wollen, dann kann man da mal son bisschen die Einschätzung treffen. Also es sind bei 8 bei achteinhalb Prozent 220000000, hab ich jetzt grad noch mal kurz parallel ausgerechnet. Das heißt, sie wären da ungefähr in dem Level so bisschen unter Spotify, wo's jetzt grade ist mit 280000000 Subscriptions. Was ich, also wie gesagt, wenn man mal die Anstalt, wo wo OpenAI gerade steht und dass Sie grade Ihren Code Red ausgerufen haben und so, was dann noch in Challenges vor Ihnen steht so, halte ich das immer noch für eine sehr, sehr hochgegriffene Zahl, aber es ist zumindest nicht komplett außerhalb der Norm, wenn man sich jetzt mal anschaut, wo auch irgendwie Microsoft Office 365 ist. Aber trotzdem fand ich in dem Zuge einfach noch mal interessant, dass dann jetzt mit Code Red und irgendwie diesem diesem dieser Strategie und so was dann son Artikel über GPT 5 Punkt 2 kommt, wo ich mich dann frage so, also was war zuerst da? So war erst die Capability da und dann haben sie's darauf ihren ihren Sprech angepasst? Oder wurd's dafür wirklich entwickelt so? Oder wurden am Ende jetzt nur hier die Use Cases rausgesucht, hätte man gpd 5 Punkt 2 auch komplett anders schreiben können? Wahrscheinlich hat viel einfach die Businessstrategie da den Einfluss gehabt und ich frag mich, wie viel besser ist es da jetzt Also es schützt direkt an, wie viel besser ist es wirklich bei den Spreadsheets?
- Dennis
- Ja, weiß ich nicht. Andererseits, also ich mein, ich ich find's ja schon auch interessant, dass sie's mit sich selbst vergleichen in den ganzen Schritten.
- Fabi
- Also es
- Dennis
- ist jetzt nicht so, dass sie da irgendwie dann sagen Germany 3 produziert sollen müsst, sondern sie vergleichen, die meisten Graphen sind der Vergleich zwischen gpt 5 1 und dann 5 2, wo sie mit gleichen Proms praktisch arbeiten und sagen, hey, so sah das vorher aus und so sieht's jetzt aus. Also insofern glaub ich schon, dass sich da 'n bisschen was zu dir grad hat. Und dann muss man ja auch eigentlich sagen, so, ist jetzt, wie kann man sagen, okay, vielleicht aus der Not heraus, dass es gerade 'n bisschen irgendwie kritischer ist. Und andererseits ist ja genau das das, was wir was noch gebraucht wird, so, ne. Also es ist ja schön, wenn man da irgendwie alles Mögliche an Informationen irgendwie rausfindet, aber wenn wir davon sprechen, ne, dass dass ganze Workflows und und und Jobs unterstützt werden können von AI, dann sind ja genau diese Sachen das, was man irgendwie braucht an an Capabilities. Und von daher, in die Richtung weiter zu, da weiß ich jetzt gar nicht mehr technisch, ist das trainieren? Ist das, wie man diese Schritte dann nennt hinten raus, irgendwie
- Fabi
- Ja, es ist Training zu machen, aber der Chain optimieren, wo genau, Da fehlt mir auch da fehlt mir auch das Wissen, aber
- Dennis
- Ja. Genau. Und ich mein, es ist auch, ne, es ist auch in, also eben nicht genannt, als auch in den Coding Benchmarks beispielsweise ist auch relativ stark gestiegen so, Ist einfach durch die Bank weg, ja, schon besser. Was halt dann irgendwo beeindruckend ist, dass das dann doch in 'nem relativ kurzen Time Frame mit 'nem Monat sozusagen dann doch auch wieder eine relativ große Steigerung gab. Genau, was glaube ich auch noch relativ besonders ist, wollte ich noch nennen, dass sie mittlerweile diese, den Knowledge Cut off, dass sie's da schaffen, so viel näher dran zu sein.
- Fabi
- Was sind die denn? Es ist
- Dennis
- Ich suche gerade, ich meine, es war sogar so was wie August oder September dieses Jahres. Eindreister August.
- Fabi
- Ja, krass. Ist ja wirklich sehr anders. Ja. Wo man dazu sagen,
- Dennis
- das heißt, das heißt am
- Fabi
- Ende, also, weißt Du so, es hatte früher ja noch viel größeren Einfluss als das search und so, was diese Anbindung ja gar nicht gab. Also ich weiß gar nicht, in meinem Alltag ist, muss ich sagen, den Knowled Base gar nicht son Thema, oder? Das ist bei dir?
- Dennis
- Nee, aber Du, also das halt, also die Idee halt kann viel mehr Aktuelles auch noch machen, ohne halt 'n search Tool nutzen zu können müssen, so. Ja. Aber
- Fabi
- ja. Aber in der Realität ist er so so für mich gar keine aktive Entscheidung mehr. Also suchst Du so suchst es nicht, stell mir eine Frage und dass man da entscheidet selbstständig, ob es die search macht oder nicht.
- Dennis
- Ja, das stimmt.
- Fabi
- Ja, ich find, also deine eine war ja auch noch mal gut, ich würd auch sagen, ich find das, dass diese Richtung, die sie da jetzt einschlagen und so was, das es hat natürlich auch einen absoluten Business Value, sondern ich find's natürlich auch supergut, wenn ich sehe, was da irgendwie an an Funktionalitäten mit Tools irgendwie verbessert wird. Das hat auf jeden Fall 'n großen Einfluss auf meinen Arbeitsalltag und find ich auf jeden Fall eine eine gute Entwicklung. Aber es hat natürlich wiederum auch so, je je enger dieser Wettbewerb da ist, ne, desto desto grade halt auch oder OpenAI muss natürlich auch gucken, dass es einerseits, also es halt viel dafür tut, dass die, die sie da tun, auch wirklich stimmen, sodass sie kompetitiv auf jeden Fall an der Vorfront irgendwie bleiben. Das bedeutet auch am Ende auch so, dass sie diese das aktuelle Produkt halt so verbessern müssen, dass die Leute jetzt schon im Mehrwert drin sind und ich mich halt frage so, wie viel wie viel Raum dann wirklich noch für diese Innovation bleibt und ihrer allgemeinen AGI Agenda irgendwie zu folgen. Weil ich bin, glaub ich, weiterhin so der Meinung, dass das einfache Transformer immer größer und einfach immer nur weiter trainieren wahrscheinlich nicht der Weg ist, wie sie wie sie wie sie da hinkommen so. Und so der ganze Code wird bestimmt nicht, also bedeutet nicht so, wir müssen jetzt kurzfristig gucken, wie wir AGI schneller erreichen, sondern so, wie geschaffen wir's, dass wir kurzfristig eben nicht gegen Google verlieren. Deswegen, haben sie auch kurz vor Weihnachten, kam ja auch, US dieser Shopping Agent so, der es einem zeigt, wie man irgendwie sozusagen dann wirklich so auch Instant Checkout und so was dann wirklich umsetzen kann und über Chat GPT kaufen kann. Ich glaub, im nächsten Jahr würd ich auch geroomert so, werden wir Ads sehen in in Chat GPT so. Und es sind halt viele Dinge, die so in son diesen Produktlebenszyklus halt einfach reinkommen und wichtig sind für für die Konkurrenz gegenüber Google, weshalb ich mal gespannt bin so, wie inwiefern diese ambitionierte AGI Agenda und der extreme Konkurrenzdruck halt vereinbar sind. Und mich freut der extreme Konkurrenzdruck so. Mein Arbeitsalltag macht's auf jeden Fall besser, deswegen gerne mehr davon so. Aber auf das langfristige AI Race hat's natürlich auch 'n starken Einfluss. Ja. Bin spannend. Mal gucken, bin wirklich sehr gespannt. Also ich glaub, ich hab ja letztes Jahr in unserem in sonem Vorausblick schon viel darüber gesagt, weil ich mal gespannt bin so, wie groß die Sprünge überhaupt werden und so und wann kommt son bisschen an die Grenzen der Daten. Aber ich glaub, nächstes Jahr wird noch mal sehr viel spannender, was diese Ganze so, in welche Richtung entwickelt es sich, welche Schritte machen wir wirklich und wie viel realistischer wird ein ag I szenario oder auch nicht. Ja. Aber alles Teaserdiskussionen für in heute 2 Wochen.
- Dennis
- Richtig. Vielleicht noch ganz kurz zum Pricing, dass
- Fabi
- wir das
- Dennis
- noch haben. Also grundsätzlich kann man sagen, es ist tatsächlich teurer geworden. Also vielleicht ein Trend, der sonst nicht so ist. Aber sie argumentieren, dass GPT 5 Punkt 2 halt deutlich effizienter ist. Also das heißt, weniger Token einfach benutzt, weil schneller beim Ergebnis. Das heißt, im unterm Strich soll es in der Nutzung nicht so viel mehr kosten oder sehr ähnlich sein, aber die einzelnen Token kosten bei GPT 5 Punkt 2 mehr.
- Fabi
- Mhm. Was ihr
- Dennis
- heute auch auf LinkedIn gelesen habt, das war ja auch noch gar nicht so bewusst. Ich glaub, dass das stimmt, was da stand, dass alle Free User von ChatGPT noch auf 4 sind aktuell. Also ich mein, bei mir ist jetzt 5, 2 direkt
- Fabi
- Darf ich mal, dass es so wäre, dass es nur mit 'nem sehr limitierten, einem sehr limitierten Budget, was die anderen Modelle angeht. Aber ich konnt's dir gar nicht genau sagen, dadurch, dass ich kein Free User bin. Such's gerne meinen Namen. Also ich bin grade mal in einen Inkognito Window Inter GPT gegangen und hab zumindest schon mal keine Modelauswahl, von daher.
- Dennis
- Dann kannst Du fragen, Model. Darauf warten wir noch. So, dann sag ich schon mal, bevor wir die Antwort haben, wenn ihr Feedback habt zur Podcastfolge, schreibt uns gerne an Podcast at Programmier Punkt bar. Sonst hören wir uns, wie genau, zwischen Jahren beziehungsweise an Neuer noch mal mit 1 Folge zum
- Fabi
- Recap. Und dann, warum die Antwort ist, BT Users können auch gpd 5 Punkt 2 nutzen, aber nur mit einem limitierten Anzahl in einem 5 Stunden Window, also
- Dennis
- Okay, alles klar.
- Fabi
- Stimmt nicht. LinkedIn lügt. Liest da nicht rum. Der lügt.
- Dennis
- Ja, sagen wir mal, Influencer der Aufmerksamkeit wollte. Vielen Dank, Fabi. Danke, Dennis. Macht's gut. Eine schöne Zeit. Bis denn. Tschau. Tschau.