News AI 45/25 –
Cursor 2.0 // GitHub Agent Headquarter // OpenAI Group PBC
06.11.2025
- // Podcast
- // News AI 45/25
Shownotes
In dieser Folge dreht sich alles um drei große Themen aus der KI-Welt:
-
Cursor 2.0 bringt mit Composer-1 erstmals ein eigenes LLM-Modell an den Start. Was das Besondere daran ist und welche neuen Features euch im Editor erwarten, erfahrt ihr bei uns.
-
Auf der GitHub Universe hat GitHub das Agent Headquarter vorgestellt. Damit lassen sich künftig Agents mit beliebigen Model Providern direkt auf und rund um GitHub ausführen. Wir sprechen darüber, ob Cloud Agents wirklich die Zukunft sind und wer sie schon nutzt.
-
Und: OpenAI hat offiziell zur Public Benefit Corporation (PBC) umfirmiert. Was das rechtlich und wirtschaftlich bedeutet, und welche Auswirkungen das auf Partner:innen und Infrastruktur haben könnte, analysieren wir im Detail.
/transkript/programmierbar/news-ai-45-25-cursor-2-0-github-agent-headquarter-openai-group-pbc
- Fabi
- Hallo und herzlich willkommen zu den AI News der programmier.bar in der Kalenderwoche 45, 25. Und heute haben wir 3 Themen dabei. Wir sprechen über die GitHub Universe und die Agent das Agent Headquarter. CursA hat 'n eigenes neues Modell rausgebracht mit Composer 1, Cognition hat hinterhergelegt, die ja Windsurf Aquired haben mit SWE 1 Punkt 5 und das Restrukturing von Open AI hin zu 1 Public Vina Trade Corporation ist durch. Was das bedeutet und was das so nach sich zieht, darüber unterhalten wir uns gleich. Ich bin Fabian Fink und mit mir im Studio sind Dennis Becker. Hallo.
- Philipp
- Und Philipp.
- Fabi
- Ah, hallo. Lass uns doch direkt einsteigen mit der GitHub Universe. Dennis, was was sind was ist das Agent Headquarter?
- Dennis
- Was ist das Agent Headquarter und was ist GitHub Universe? Kennen vielleicht einige. Grundsätzlich, das ist die, ich weiß nicht mehr, dev- oder einfach Product Announcement Konferenz Gedöns, Veröffentlichung von Github, wo sie einmal im Jahr zeigen, was es alles Neues gibt. Und natürlich auch in diesem Jahr einiges aus dem AI Space und so das ganz große Headline Feature, das Sie praktisch angekündigt haben, ist Agent, das Agent Headquarter, wo es darum geht, verschiedenste Agents von unterschiedlichen Firmen, und das ist das Spannende, eben an 1 Stelle, zu orchestrieren. In 2 Sätzen nur zur Vollständigkeit, bevor wir gleich in das Headquarter noch 'n bisschen tiefer einsteigen, was Sie auch angekündigt haben, dass der der Copilot noch stärker verknüpft wird, das heißt aus Slack, aus Microsoft Teams, aus Linear, aus den Azure Boards. Also es gibt noch viel, viel mehr Kontexte, wo man den Copilot jetzt ansprechen kann und mit ihm sprechen kann. Und das,
- Philipp
- was auch noch 'n
- Dennis
- paar Updates zu wie es Code beziehungsweise dem Copilot Plug in für wie es Code. Das heißt, wie viel andere Tools es mittlerweile auch haben, gibt es da einen, den Sie jetzt haben. Der ist auch jetzt, das heißt, das ist ein Feature, das man jetzt direkt nutzen kann. Und auch die Integration von der hatten wir, glaub ich, auch jetzt schon häufiger im Podcast, worum es da grundsätzlich geht in Visual Studio und im, der in der dort direkt nutzt. Und dann gab's noch son bisschen, ich denke, das werden wir nächste Woche dann in den normalen News noch ein bisschen besprechen, wo's einmal Codequalität geht, wo Sie 'n paar Dinge veröffentlicht haben. Und dann gibt es noch son octoverse, das ist son Report, wie es auf GitHub aussieht, welche Programmiersprachen da spannend sind, wo vielleicht so das einzige relevante noch ist, dass jetzt praktisch auf Nummer 1 gepusht hat, was vorher nicht so war. Also das heißt da, durch die Nutzung von viel und favorisierten Nutzung von einzelnen Programmiersprachen in AI tatsächlich die meistgenutzte Sprache dort geswitcht hat und jetzt eben type Skript ist.
- Philipp
- Seid ihr GitHub Kunde? Nutzer? Ja. Also alles von sozusagen ist GitHub. Ja. Nutzt ihr diese neuen Features auf GitHub?
- Dennis
- Was also was alles ist, ein neues Feature für dich?
- Philipp
- Sorry, alle, Hot Pilot Features sollte ich vielleicht sagen. Also dieses, dieses, wo man 'n Review hat, wo der eventuell Dinge von alleine fixt, dass Du die noch besser bekommst und irgendwie direkt ansteuern kannst und alles das.
- Dennis
- Also ich glaube nicht übergreifend über alle Teams und nicht konsequent, dass wir all das nutzen. Ich weiß, dass wir in einem Team auf jeden Fall die Reviews als eine der Tools nutzen. Also ich glaub, da sind so 2 in Evaluierungen aktuell, aber 1 davon. Was wir schon stark nutzen, glaub ich, in uns deswegen ist schon stark eingebunden ist in dem Prozess, sind halt die, also auch unsere ganze Bildprozess auf auf liegt.
- Philipp
- Aber jetzt nicht speziell mit, sondern halt einfach.
- Fabi
- Genau. Ich würd sagen, Grotteti Co Pilot Usage macht einen kleinen einstelligen Prozentsatz aus, wirklich was über Co Pilot läuft so. Und ich glaub, wir machen schon 'n paar so noch Reviews über so vielleicht noch mal drüber. Aber ich würd sagen, Großteil der Usage, was er angeht, ist bei uns auf jeden Fall einfach lokale und jetzt mit. Also also remote Modelle, aber lokal. Gar. Aber ich mein, das muss aber auch generell sagen, ich bin auch, also Copio oder auch im Allgemeinen, auch wenn ich so so nutze, jetzt nicht nicht mein favorisiertes Modell so. Das heißt, die Integration muss schon sehr gut sein, dass ich den vorziehen würde vor irgendeinem anderen.
- Philipp
- Ja, ich mein, ich fand, sah schon sehr cool aus mit den neuen, die man ja jetzt supereinfach installieren kann oder kann mit Code Review und Code Quality irgendwie. Aber ich hab immer das Gefühl, son krass großer Mehrwert entweder gibt es nicht oder man ist einfach nicht, also der ist nicht so groß. Also
- Dennis
- Ja, also ich kann mir schon vorstellen, dass davon einiges noch kommt und vielleicht die Qualität bis jetzt. Also ich mein, dieses Review Feature zum Beispiel, das gibt's ja auch schon ziemlich lange, dass da dran hängt und also ich weiß, dass wir es sehr am Anfang einmal genutzt haben, als das praktisch in der wahrscheinlich noch Beta irgendwie rauskam und wir da einfach von der von der Qualität unter dem dem Mehrwert das ganze Gebiet geboten hat, nicht so weit waren, auch weil es halt noch ne, mehr noch Kontextprobleme gab, das ganze Projekt zu überblicken und so was, die die Stylerichtlinien und so was auch noch nicht mit drin waren. Kann mir schon vorstellen, dass es heute son automatisiertes erstes schon einiges helfen und aufdecken kann.
- Fabi
- Aber ich würd auch sagen, ich mein, generell würd ich in den ganzen Topf halt auch dieses ganzen Part, wie jetzt zum Beispiel auch Codex Cloud oder alle sozusagen werten. Ich würd generell sagen, da ist die User halt super gering, weil schon mein, der Vorteil ist im Endeffekt, dass Du das, was Du halt lokal machst, im Endeffekt noch 'n bisschen steuern kannst über blicken kannst und irgendwie dieses so, lass uns mal losrennen und gucken, was am Ende bei rauskommt. So, ich glaub dieser ganze Use Case klar, und das Review davon ist nur noch 'n bisschen spezifischer, deswegen haben wir's auch hier und da mal eingesetzt. Aber ich würd sagen, dadurch, dass es spezifischer ist, würd ich's eher nutzen als zum Beispiel jetzt wie Codex Cloud, also also für die für diese, da hab
- Dennis
- ich noch, also kenn ich auch keinen so, der das wirklich aktiv in seinem Development Flow irgendwie nutzt, so diese diese Cloud Agents. Ja, und andererseits, das ist ja son bisschen vielleicht, was sie sehen als Zukunft, was dann immer wichtiger wird. Und von daher können wir gerne mal 'n bisschen über eben sprechen, was es ist. Und da finde ich nämlich interessant, weil's eigentlich son bisschen wieder zurückgeht zu dem, was er GitHub anbieten will, son zentraler Platz für Entwickler, wo sie alle Sachen, die sie so in ihrem Entwicklerflow haben, irgendwie abbilden können, wenn sie mit Code arbeiten und mit Code kollaborieren wollen. Und agent h q ist eben die Möglichkeit, dass man praktisch all die Interaktivität, Interaktionen, die man mit eben komplett hat an 1 Stelle, praktisch in einem Ökosystem zusammenführt. Und das ist halt ganz spannend, dass tatsächlich auch die Großen alle zugesagt haben, dabei zu sein. Also das heißt Anthropic, Open AI, Google und XAI. Sind alle da 'n Teil davon in den kommenden Monaten. Das heißt, jetzt, Stand heute ist, glaub ich, nur Open AI Codecs möglich für Copilot pro Plus User. Und was eben auch spannend ist, dass das Teil der GitHub Copilot subscription wird. Das heißt ja, dass auch das das Billing darüber in irgendeiner Art und Weise dann eben gesteuert wird. Und das machen zu können, weil wir ja sagen, okay, was heißt denn überhaupt Steuern und Übersichtlichkeit, irgendwie Übersicht haben? Es gibt son sogenannte Mission Control. Weiß nicht, ob Sie da Ärger von Apple bekommen. Heißt nicht irgend 1 dieser Windows Features irgendwie Mission Control? Das nicht im Nier
- Fabi
- ist oder rechts oben, wie das einfach Ja, ich
- Philipp
- glaub in NASA, das darf dann, darf das auch. Okay.
- Fabi
- Wenn Apple das von NASA durfte,
- Philipp
- ey, ja.
- Fabi
- Genau. Also auf jeden
- Dennis
- Fall, da ist es ist dieses nennen sie das, wo man alles Mögliche Was 'n jetzt? Es heißt Mission Control, aber es ist ein. Okay. Es ist die Funktionalität, die da drunter ist. Genau, wo Du praktisch deine ganzen Agents, die da rumlaufen, siehst. Und wenn Du dir dann den anguckst, dann hast Du halt sone integrierte View, wo Du den Code sehen kannst, wo Du die den Chat, die Ausgaben des Agents sehen kannst. Also teilweise so, wie's jetzt in IDI Integration oder so was auch ist, aber dort eben über alle Agents, egal was es jetzt für 1 ist, hinweg, mit denen zu interagieren. Und weil Du eben sagtest, Fabi, wenn man die so komplett einfach remote gehen lässt, dann biegen sie auch häufiger ja in Richtung ab, wo man nicht unbedingt will. Das ist ein ganz cooles neues Feature, dass man die unterbrechen kann oder nicht unterbrechen kann, sondern Instruktionen, während sie arbeiten geben kann, die dann einfach praktisch mit der mit dem nächsten internen Prompt, wo dann weitergearbeitet wird, mit eingefügt werden. Also das ist ja häufig son nerviges Ding, wenn man irgendwie sonen Prozess geschadet hat und sieht grade auch, da ist irgendwas doof. Willst Du das ganz abbrechen, dann ist irgendwie wieder teils des Kontexts weg. Also Du hast dann die Möglichkeit, zu den Verlauf, den Du siehst, auch noch zu beeinflussen, indem Du weitere Instruktionen zwischendurch gibst.
- Fabi
- Und Du kannst auch, ich glaub, auch mit CLI, wenn jetzt irgendwie ein uns auch mit 'nem Slerash Stelle geht sozusagen, das dann direkt starten in der Cloud, ne. Genau. Ja. Ja, ich mein, wie Du oder willst Du noch irgendein, ist noch 'n Feature, was fehlt, oder?
- Dennis
- Nee, ich glaube, für den für das reicht das mal erst mal, ja.
- Fabi
- Ich mein, ich im Endeffekt, ich war ja noch etwas dann blöde in von uns, das ist erst mal darüber gestern, wie schlecht es ist sozusagen in der Cloud und dann auch, dass das tolle Neue gibt so. Und ich mein, wie Du ja sagst, ne, wenn man wenn man ihre Vision weiterdenkt und sagt, okay, dann macht's auf jeden Fall absolut Sinn, die Quarter, dass Du supereinfach an alle möglichen Agents delegieren kannst, da den Überblick hast und in der Theorie ja 5 Dinge parallel tun kannst so oder so und 5 Dinge parallel anstellen kannst. Ich glaub, da ist halt genau der Knackpunkt, ne, meine Zusatz dazu noch ist, so, damit ich das anfangen kann, muss ich überhaupt erst mal einem einzelne Aufgabe vertrauen, also mit 'nem möglichst guten Output daherkommt. Ansonsten hab ich ja so einen Kontext, wo ich die ganze Zeit, dass ich 5 Dinge parallel mir irgendwie anschauen muss, weil ansonsten sehe ich keinen Vorteil darin, es in der Cloud zu machen im Vergleich zu, ich mach's mit 'ner CLI auf meinem auf meinem Computer. So, also was wäre wirklich der Vorteil bei jetzt, ich mache nur einen Task. Sobald ich mehrere Tasks orchestriere, versteh ich's total. Aber das kommt für mich erst, wenn ich da wirklich glaube, dass in 95 Prozent 'n guter Output rauskommt, wie ich nur in 5 Prozent interagieren muss. Und ansonsten sehe ich immer noch nicht den Vorteil darin, dass ich's mache.
- Philipp
- Also ich ich glaub, 'n ganz großes Thema ist einfach, dass wir's nicht gewohnt sind. Also bisher, wenn Du irgendwie 'n Review ja machst oder irgendwas anderes, dann schreibst Du der Person halt oder schaust dir's selber noch mal an. Und wenn halt irgendeiner Review, dann Du einfach in Zukunft hinschreiben hinschreiben hinschreiben kannst, weil es 'n einfacher Task ist. Es ist ja 'n bisschen wie dieses intern Junior Developer Konzept. Und ich glaub, ganz viel wär wahrscheinlich einfach nur, man müsste sagen, hey, wir testen das jetzt für 'n Monat. Wir versuchen für uns als Team herauszufinden, wann macht es Sinn, das zu nutzen und wann macht das keinen Sinn, also son bisschen ein Gefühl dafür zu bekommen. Und ich glaub, dann kann das schon jetzt 'n sehr großen Mehrwert liefern. Aber ich glaub halt einfach dieses, okay, ich fang's an zu testen und zu nutzen, ist so, in Anführungszeichen, viel mehr Aufwand für die Leute, weil das halt einfach nicht in deinem aktuellen Workflow mit drin ist, dass Du's nicht testest. Deswegen hab ich auch nachgefragt, ob ihr's vielleicht irgendwie macht, weil ihr ja doch aktive Entwicklungsteam habt habt, die wirklich an ja Spielen und Produkten arbeiten. Ja. Und dann wär's mal interessant zu sehen, okay, wie funktioniert's oder wie wird's genutzt?
- Fabi
- Aber obwohl dieses Headquarter für mich ja auch noch mal irgendwie einen Schritt weiter ist als nur dieses Review Ja klar. Fixe Teile aus meinem Review heraus, so, ne.
- Philipp
- Ich mein, Headquarter gibt da halt wieder die Möglichkeit, dass jedes Team den nutzen kann, den es am meisten mag. Also kann ja sein, es klapp halt wieder dieses Bundeling. Team 1 nutzt halt vorher gern Codex, Team 2 nutzt halt lokal und Team 3 irgendwas anderes. Du kaufst als Unternehmen Enterprise, GitHub, HQ, whatever, Seeds und alles geht über eine eine Einkostenstelle oder so was.
- Fabi
- Ja. Ja, also genau, also diese sozusagen diese grundsätzliche, technische Grundlage dafür zu bauen, verschiedene Agents anzuwenden, verschiedene Agents zu nutzen, natürlich jeden Fall total viel sinnvoll. Und und wie gesagt, ich glaub auch bei den Reviews würd ich auch sagen, da kann man jetzt schon sehr viel mehr rausholen als wir da aktuell rausholen so. Also ich glaube auch, dass da gibt's genug Use Case, die einen Vorteil verbringen würden für alles Komplexere so. Da würde ich gerne mal jemanden treffen, der das jetzt einsetzt und sagt, es bringt ihm wirklich was. Oder da würde ich stark dran zweifeln, dass die Qualität dafür aktuell ausreicht.
- Philipp
- Ja, vielleicht müsst ihr einfach bei Loto mal einen Monattestlauf machen und da eine detaillierte Podcastfolge dazu, was funktioniert hat und was nicht funktioniert hat.
- Dennis
- Ja, ich kenn, ich glaub, das ist 'n, ist halt auch 'n stetiger Prozess, ne. Ich mein, vor 'nem halben Jahr, irgendwie hat noch keiner überhaupt so was wie Crowd Code, nenne ich mich jetzt zu weit ausm Fenster in 'nem halben Jahr. Nein, nein, ich überlege gerade bei Load und so. Also, na ja gut, was haben wir jetzt? November, sagen wir Anfang des Jahres. Irgendwie stark intensiv genutzt und mittlerweile hab ich das Gefühl, wurde sehr, sehr intensiv genutzt und irgendwie ähnlich die Richtung, ne, wenn da die Skills noch besser werden, seh ich seh ich auch, dass die noch weiter können. Philipp, an der, ich erinner mich an meine Frage, die ich noch stellen wollte, weil Juuls hier dann als aufgelistet wird. Und dann hatte ich noch mal gegoogelt, so kurz hier, son bisschen, ist es letztendlich eigentlich nur die Cloud Variante davon oder funktionieren sie anders? Haben sie unterschiedliche? Dann hab ich gesehen, gibt's lustigerweise auch erst vor 'n paar Tagen gelauncht eine Extension oder wie sie offiziell heißen, weiß ich nicht, aber von General CLI, wo dann gestoßen werden kann. Ja. Sind die von den Instruktions und den von den Prompt irgendwie identisch oder den Modellen oder wie unterscheiden sich aktuell noch die Kurier?
- Philipp
- Nee, also es sind wirklich 2 verschiedene Teams, die es auch bauen und 2 verschiedene Agents und sind wirklich für lokale Entwicklung ausgelegt, also dieses viel mehr mit dem Interagieren interagieren. Und ist so halt remote mäßig, hier ist mein. Ich hab hier eine Art Definition und fang einfach an und versuch, das komplett autonom zu lösen. Und sind ja viel mehr interaktiv aktuell und kollaborativ. Und bisher ist das, sag ich mal, getrennt. Keine Ahnung, was in 'nem halben Jahr ist bezüglich Germany und Jules. Ist auf jeden Fall, also die Extension, wenn ihr das eine oder das andere nutzt, ist sehr cool. Weil Du kannst halt Germany ein bisschen nutzen, lokal zu entwickeln. Und wenn Du merkst, okay, dieser spezielle Task irgendwas umzusetzen, kann ich halt superschnell in son Workflow jetzt absetzen in die Cloud und dann halt auch immer von aus schauen, hey, würde das schon geändert oder aktualisiert und so was? Und klar kommt's halt wieder darauf an, wie passt's in meine Workflow oder so rein? Aber Schulz dürfte in dem HQ dabei sein und nicht aktuell ist, soweit ich weiß.
- Dennis
- Ja. Und gibt's irgend eine Aussage zu der Qualität? Also gibt's irgendeine Art von Task, wo ich sagen würde, ja, die kriegt die CIA hin, aber die kriegt Schulz nicht hin oder andersrum? Oder würdest Du sagen, das ist ähnlich, weil's Grundlagen angeht?
- Philipp
- Das kommt wirklich ganz stark darauf an, wie man mit diesen Agenten arbeiten möchte. Es ist son bisschen, was Fabi gesagt hat, mit hab ich eine Aufgabe, die ich irgendwie sehr kollaborativ mit immer direktem Feedback lösen möchte. Also ich hab zum Beispiel ganz oft einen Case, wenn ich halt irgendwie ist, okay, programmier das und das und ich seh seh schon nach den ersten 2 Steps oder Thinkings oder Tool Calls, der rennt in die falsche Richtung, kann ich ja in 'ner abbrechen und halt irgendwie noch mal mehr Kontext hinzufügen. Das ist bei jetzt nicht so der Fall. Da hat man mehr Zeit, die am Anfang investieren wird, 'n detaillierten Plan oder SPAC zu erstellen. Und dann geht los und macht Dinge. Aber beide nutzen, deswegen ganz so großen Unterschied, was sie können, sollte es nicht geben.
- Dennis
- Okay. Und weißt Du noch was Letztes, weil dieses, wie sie das nennen, also dass man während der Agent praktisch arbeitet, das ist jetzt in den in den Gitterblock unter diesem Paket runter, aber es ist auch irgendwo mit Co Pilot verknüpft. Ich weiß nicht, ob das dann eine Funktionalität ist, die die Agenten dann noch alle kriegen oder unterstützen müssen oder ob das dann vielleicht nur mit manchen funktioniert, dass man das so, während es arbeitet, noch in eine Richtung stupsen kann.
- Philipp
- Das weiß ich nicht.
- Dennis
- Okay. Na gut, dann lassen wir uns mal überraschen, Kriegen wir nicht
- Fabi
- mal alle
- Dennis
- Agenten da hinkommen.
- Fabi
- Aber dann lass doch, weil's unseren Entwickleralltag eben so beeinflusst, mal über Cursor 2 Punkt 0 und Composer 1 reden, Philipp.
- Philipp
- Genau. Also AI Coding Startups sind nicht länger nur Clayd und GPT Rapper, mehr oder weniger. Also Cursor hat ihre Reversion 2 Punkt 0 vorgestellt. Ich glaub, 1 Punkt 0 kam auch erst vor 'n paar Monaten. Also da ist schon relativ viel Veränderung aktuell. Und sie haben ihr erstes eigenes Modell vorgestellt, Composer 1 und 12 Stunden später oder so was gefühlt am gleichen Tag hat Cognition beziehungsweise Windsurf ihr erstes eigenes trainiertes Modell vorgestellt mit s wie 1 Punkt 5. Vielleicht ganz kurz zu Curser 2. Ich glaub, der große Unterschied ist, man hat jetzt sone Art dedizierten Agent Mode oder Interface, also nicht mehr nur dieses, hey, ich bin in meiner IDE und kann anschauen, sondern ich hab son bisschen wie bei ChatGPT sone Interface, wo ich sagen kann, hey, löst das und das Problem und hab dann auch sone Art diving direkt direkt in dem Agent Monat. So, ich seh das Thinking und die Tool Calls und dann kann ich auf der Seite wie so Art Tabs oder immer die anschauen und dann halt sozusagen akzeptieren. Das heißt son bisschen 'n Interface Change. Sie haben 'n neuen integrierten Browser hinzugefügt. Das heißt, wenn man irgendwie Web dabei damit macht, hatte man ja immer dieses, hey, und dann öffne ich mein Chrome und local Host 3000 oder so was. Das kann jetzt in Cursor passieren und dann kann ich in sozusagen die Elemente direkt referenzieren. Das heißt, wenn ich irgendeinen Button hab oder irgendwas anderes, kann ich sozusagen im integrierte Browser son Tool auswählen, darauf klicken und dann geht es in mein Chatinterface und sagen, hey, keine Ahnung, macht das vertikal und nicht horizontal oder irgendwie so was? Und man kann jetzt über get Work Trees mehrere Agents dieselbe Aufgabe geben, die die dann parallel lösen, was interessant ist. Das heißt, man sagt irgendwie zu Codex, und löst es. Und dann kann man mehr oder weniger schauen, wer es am besten gelöst hat oder wo ich dann weiterarbeiten möchte, was wahrscheinlich gewisse Speed improvements bringt, aber auch natürlich mit mehr Kosten einher. Und da
- Fabi
- ist der Workstreet, der Flow, den auch bei Cloud Code und einigen Set ups irgendwie gezeigt haben, wie man dann eigentlich an verschiedenen Features parallel mit Cloud Code dann arbeiten kann, ne?
- Philipp
- Genau. Ich hab's
- Fabi
- ja auch noch nicht gemacht. Ja, ich glaub bin Ja,
- Philipp
- es ist glaub, also haben wir erstens zu vergleichen, wie wir halt auch entwickeln. Du hast irgendwie einen Main Branch und wenn Du halt ein Feature entwickelt, machst Du ja erst einen Feature Branch, dann entwickelst Du in diesem Branch und hast nicht Konflikte mit jemand anderes. Und wenn es dann zurück in den Main Branch geht, dann musst Du halt sozusagen, wenn es Konflikte gibt, diese irgendwie lösen. Und Du kannst auch immer dann wieder und Zeug. Und es gibt noch einen verbesserten Plan Mode. Aber ich glaube, den gab's auch schon 2 Punkt 0. Zumindest ist mir der bekannt. Genau und zu Composer beziehungsweise 1 Punkt 5 erste Modelle Stellt sich natürlich die Frage, okay, wie haben die die Modelle trainiert? Und aktuell wird sehr stark davon ausgegangen, dass sie Open Modelle genommen haben aus China, weil es gibt verschiedene Kommentare und Bilder und anderes auf Social Media, dass diese Modelle ab und an anfangen, Chinesisch zu sprechen. Also irgendein haben oder irgendwas anderes, wo dann plötzlich chinesische Zeichen mit dabei sind. Man weiß also, sie haben nicht veröffentlicht keiner von beiden, welches Modell sie genommen haben für Post Training. Beide sagen, es setz dich mal unterschiedlich zu jetzt oder Codex auf vor allem Speed und. Also in Marketingbereichen für sagen sie, dass sie viermal schneller sind als irgendwie, aber
- Fabi
- nur
- Philipp
- noch 'n bisschen schlechter. Also sie gehen viel mehr über dieses, hey, Du kannst viel schneller iterieren als, hey, wir haben das beste Modell. Und hat sogar mit Seripras noch mehr daran gearbeitet. Und sie sagen, also s wie I 1 Punkt 5 von, es schafft 950 Tokens die Sekunde. Und sie sagen, das ist sechsmal schneller als Haiku und dreizehnmal schneller als. Und auf der anderen Seite schafft 250 Token die Sekunde. Mhm. Und ist viermal schneller wie gleich gute Modelle, also accresse, sag ich mal. Es gibt viel Zweifel und Skeptisches, sag ich mal, auf Social Media, ob die Version wirklich besser sind als von dem, wo sie kommen. Also im Open Bereich gibt's mittlerweile echt sehr, sehr, sehr gute Coding Modelle, vor allem von Mini Max, von Kimmy, von Deep SEK, die sind ja alle nicht weit entfernt von Sonet oder Codex. Und es wird son bisschen daran gezweifelt, wie viel dieses Custom Post Training von Cursur oder dann wirklich die Performance verbessert hat. Ja, sie sind beide nativ in ihren Plan integriert. Das heißt, Du kannst Composer nur nutzen, wenn Du eine Kursse Subscription hast. Du kannst s wie 1 Punkt 5 nur nutzen, wenn Du eine Subsurve Subscription hast. Und ich glaub, generell ist sehr interessant zu sehen, dass halt die Start ups versuchen, sich son bisschen unabhängiger machen zu machen von den großen Foundation Model Providers, aber auch, dass sie halt wirklich auf Open Source Modelle bauen, also nicht die Milliarden an Kosten und Zeit investieren, komplette Modelle von neu auf zu trainieren.
- Fabi
- Ja, supercool. Und sag mal, da hatt ich das richtig verstanden immer mit diesem Work tree Beispiel? Es ist aber so, dass es im Endeffekt für mich gar nicht genau visuell ist, wie's andere, die sagen. Zwar sie nutzen get Work tree, aber im Endeffekt ist es so in der UI ist integriert. Ich kann mehrere Modelle gleichzeitig losschicken.
- Philipp
- Ja, Du kannst sozusagen son dort, wo man das Modell auswählen kann, einen Cursor kannst Du jetzt, ich weiß nicht, wie das genau nebendran ist, kannst Du auch draufklicken und dann auswählen. Dann kannst Du irgendwie auswählen und dann kannst Du mit Checkboxen die Modelle anhaken, die Du nutzen möchtest, die parallel arbeiten sollen. Und da kannst Du, ich weiß nicht, wie viele, aber das, was ich gesehen habe, getestet hab, kannst Du halt irgendwie 3, 4 Modelle oder so anklicken und die machen dann denselben Task beziehungsweise Du kannst natürlich auch mehrere Tasks starten. Also ein Chat mit irgendwie, änder den Button, das lässt Du 2 machen. Nächsten Chat mit, mach irgendwas anderes, das lässt Du wieder 2 machen.
- Fabi
- Ja, interessant, wie wie wie häufig in der Realität dann jetzt man da sich zwischen verschiedenen Modellen irgendwie entscheiden würde. So, ich hatte auch schon 'n paar Use Case, wo es auf jeden Fall einen großen Unterschied gemacht hat, welches Modell ich ausgewählt hab. Ich bin mal gespannt, wie viel wie viel das dann genutzt wird.
- Philipp
- Ja, ist halt wieder eine Kostenfrage, ne. Also wenn ich Das ist halt doppelt so teuer, wenn ich 2 parallel machen lassen würde und wie viel ich danach am Meer hab oder ob ich danach einfach noch mal iteriert oder zufrieden bin mit dem Ergebnis von einem.
- Fabi
- Ja. Ja, ich mein, Kosten ist vielleicht auch ein Punkt, warum sie in Sachen eigenes Modell gehen und vielleicht auch eigenes Hosting davon umgehen.
- Philipp
- Ja, aber was was interessant ist, es ist nicht günstiger. Also Composer, das Modell von Cursor kostet, hat den Faktor 1, was genauso viel ist wie GPT 5 oder Gemini Pro. Also es ist Aber ist
- Fabi
- ja die Frage, nur weil sie bei gegen den Kundenfaktor einzeln, ist ja die Frage, was kostet sie intern so, ne?
- Philipp
- Ja klar. Also das weiß man natürlich nicht.
- Fabi
- Ja. Und und ich mein, ich würde auch sagen, wir sind mittlerweile auf 'ner Qualitätsstufe, wo es auf jeden Fall Sinn macht, auch in in Speed vielleicht zu investieren, weil ich glaub auch für viele der Tasks, wofür man dann teilweise CursAI einnutzt so, ist auf jeden Fall Speed erst mal der relevantere Teil, als vielleicht die nächsten 3 bis 4 Prozent in accuracy zu haben so. Deswegen, glaub ich, kein schlechter Move, bin ich mal gespannt.
- Dennis
- Philipp, ja. Kurze Zwischenfrage. Deine
- Fabi
- dein Bauchgefühl,
- Dennis
- wie viel schneller können die Modelle noch werden? Also das heißt, im Moment ist ja, keine Ahnung, bei den ganzen Agents denke ich immer so, das ist ja eine starke Limitierung einfach, dass die da lange rumrödeln und ihre Tokens generieren. Wenn wir diesen Faktor noch deutlich erhöhen würden, also sagen wir mal so was wie Faktor 100 von mir aus, ist das was, was Realistisches in den aktuellen Architekten oder ausgeschlossen?
- Philipp
- Ich glaub, aktuell haben wir eher so physikalische Probleme auch, die wir physikalische Probleme auch, die wir erst mal lösen müssen. Also was halt trotzdem Transformer Modelle sind halt nicht wirklich Computeffizient. Aber man sieht ja, dass mehr oder weniger das Servemodell auf 'ner normalen Hardware oder älteren Hardware vier- bis zehnmal schnell auf soner modernen, speziell optimierten Hardware laufen kann. Und wir machen ja auch trotzdem noch Architekturinnovationen mit MOIs oder anderen Dingen. Und ich glaub, man muss einfach zurückschauen, wie's in der Vergangenheit war. Also ich kann mich dran erinnern, vor 'nem Jahr hat keiner von 100 Tokens die Sekunde geredet von den besten Modellen. Und jetzt sind wir mit Serpras und Croc irgendwie bei 1000 Tokens die Sekunde. Die Frage ist natürlich auch, wie sich das Verhältnis ändert zu wie viel Tokens werden generiert, bis ich meine Antwort hab? Und ich glaub, das wird halt genauso steigen. Also ich glaub, wir werden halt schneller werden, aber deine normale Antwort, die Du bekommst für eine Aufgabe, wird halt auch mehr Tokens haben. Das heißt, die wird eventuell nicht erst mal runtergehen. Aber ich glaub, ich mein, Fabi hat's ja glaub richtig gesagt, Speed ist 'n Thema. Und wenn ich in derselben Zeit 10 Ergebnisse durchjagen kann und nur 1 davon richtig ist, bin ich ja happy, dann bin ich zehnmal schneller im Ende gesagt.
- Fabi
- Ja.
- Dennis
- Das ist son guter Punkt, mich zu verabschieden. Ich hatt nämlich tatsächlich einen kollidieren Termin, wo ich jetzt raus muss, ein Vorstellungsgespräch. Deswegen wünsch ich euch beiden noch viel Spaß bei den restlichen News.
- Fabi
- Tschau.
- Philipp
- Und die
- Dennis
- hör ich danach. Mach's gut.
- Fabi
- Bis dann. Tschau. Dann lassen wir jetzt mal an dem Punkt über das. Bin noch da. Dann bist noch da. Nee, Dennis, geh doch jetzt raus. Lass er los?
- Dennis
- Lässt er nicht hier auf. Stopp. Oh. Tschüs.
- Philipp
- Tschau.
- Fabi
- Über das Restrukturing von OpenA Eye reden. Wir haben ja, Philipp, Du und ich, Ende letzten Jahres schon darüber gequatscht, dass OpenAI das Ganze plant mit der Public Benefit Corporation und es ist jetzt seit Kurzem, da gab's noch einige Gespräche, die mit Microsoft und offiziellen Stellen dazu geführt werden mussten und seit letzter Woche oder Anfang dieser Woche ist es jetzt so weit, dass es die dass es die OpenAI Group PBC gibt und im Grunde genommen ist es, das hat man ja beim letzten Mal schon erklärt, PBC, Public Benefit Corporation, ja eine eine Firma, mit der dann sozusagen Profit gemacht werden darf und kann aber immer noch mit dem Public Benefit eine eine Firma ist, die dem Allgemeinwohl dienen soll. Das ist im Grunde genommen eine eine Firmenform, die auch theoretisch mit rechtlichen Schritten irgendwie bedacht werden kann, wenn sie diesem Ziel nicht gerecht wird, aber was genau Public Benefit ist und so was, kann ja die Firma wiederum selbst son bisschen definieren. In ihrem Blogbeitrag dazu haben sie gesagt, okay klar, sie wurden als, sie haben sozusagen immer diesen Non profit Arm und dann die Open AI Group PBC, der Non profit Arm heißt jetzt Open AI Foundation und beide haben weiterhin das Ziel sozusagen der AI für die für die Allgemeinheit, für die Menschheit zu machen. Und aber es ist so, dass Open AI Foundation, der Non profit Arm immer noch beteiligt ist an dem vor profit Arm mit ungefähr 130000000000 Dollar, was son bisschen äquivalent ist. Ganz interessant, also wenn man jetzt mal schaut, Microsoft und diese OpenAI Foundation halten ziemlich genau gleich viel Anteile jetzt an der Public Benefit Corporation, also Microsoft mit 135000000000 und die Public Benefit Corporation, die OpenAI Non Profit mit 130000000000, was jeweils, wenn man das sich mal anschaut in Prozenten, kann man eigentlich sagen, ein Viertel geht an Microsoft, ein Viertel geht an OpenAI Non Profit. Ein Viertel fand ich dann auch noch mal ganz interessant, geht an OpenAI Mitarbeiter, also ist auf OpenAI Mitarbeiter verteilt und das restliche Viertel sind verteilt sich sozusagen auf die verschiedenen Investmentrunden. Also die 3 Runden, die hatten die ersten Investoren verschwinden geringer unter einprozentigen Teil. Zweitausendvierundzwanziger Fundrace hat 4 Prozent und die letzte Runde in 2025 haben 15 Prozent an der Firma. Und noch 'n kleiner Teil geht an diese io Shareholders, also diese Firma, die sie da übernommen haben von Johnny Ives oder Anteil davon. Ich weiß auch nicht ganz genau, wie eigentlich das damals vonstatten gegangen ist, aber ungefähr ein Prozent. Geht auch noch mal an sie. Und in dem Zuge, es war ja viel Arbeit, die sie mit Microsoft da reinstecken mussten, zu da sich einig zu werden, wie das Ganze genau abläuft, weil das, was Microsoft ja großer Investor in Open AI ist, viele exklusive Verträge mit Open AI hat und in dem Zuge musste auch einiges restrukturiert werden. Was in dem Zuge auch kam, ist, dass die Regeln, wie OpenAI andere Cloud Infrastruktur nutzen kann, 'n bisschen gelockert wurden. Vor war es ja exklusiv mit Azure, die OpenAI Modell auch exklusiv über über Azure zur Verfügung gestellt oder eben über die API von OpenAI direkt. Das wurde jetzt 'n bisschen aufgelöst. Im gleichen Atemzug musste sich aber OpenAI dazu verpflichten, 250000000000 in Azure Services zu stecken zusätzlich und dafür dürfen Sie aber jetzt sozusagen auch andere Cloud Infrastruktur nutzen. In dem Zuge haben Sie auch schon einige Verträge abgeschlossen, wie zum Beispiel 'n Amazon Deal mit 38000000000 oder auch jetzt announct, dass Sie eigene Chips herstellen. Der Oracle Deal war mit dabei und dieser den die eigenen Chips werden zusammen mit Broadcom herstellen. Genau und aber so son bisschen vielleicht zu dieser zu dieser Einschränkung, was genau dürfen Sie damit machen? Also die API Produkte, die OpenAI anbietet, die müssen weiterhin auf Azure laufen, weil sie dürfen darauf wahrscheinlich viel von Research und sowas wird auch auf den anderen laufen, aber so dieses API Produkt wird weiterhin auf Services von Microsoft laufen. Genau und in diesen ganzen Announcements kamen auf jeden Fall noch 'n paar irgendwie andere interessante Themen hoch, wie zum Beispiel einerseits, dass sie möglicherweise planen, aber da hat jetzt eigentlich Open AI Open AI offizielle Leute gesagt, dass eigentlich gerade nicht ihr Fokus ist, aber es wird zumindest gab's schon einige Dokumente, die darüber reden, dass es sein kann, dass sie 2026 mit 'nem IPO in den Start gehen wollen und ungefähr eine einen, jetzt müssen wir wieder kurz umrechnen, trillion im Englischen, also Billionen im deutschen, Valuation haben zu diesem Zeitpunkt, was natürlich sehr extrem ist, wenn man schaut, was für Companies eigentlich bisher überhaupt über eine Billion bewertet werden. Ich glaub, da gibt's eigentlich fast nur amerikanische Unternehmen. Ich glaub, TSMC, der Halbleiterhersteller ist noch ist noch 1 da. Ich glaub, irgend eine Ölfirma aus China und und die Saudis, irgend einen Saudi Ölkonzern, der auch überhaupt da bewertet wurde. Ansonsten sind's eigentlich echt nur die großen, klar, NVIDIA jetzt mit ihren 5 Billionen, die sie da irgendwie geknackt haben, aber auf jeden Fall 'n sehr anderer Skale. Also mal schauen, ob ein IPO von OpenAI demnächst ansteht. Und ich muss son bisschen an unsere letzte AI News denken, indem ein Podcast oder Livestream, den Sam Orton mit OpenAI gemacht hat, haben sie sich auch darüber unterhalten, dass sie dass sie im Endeffekt einen ein Modell haben wollen, was so ein bisschen auf dem Niveau von 'nem AI Researcher ist. Und im März 28 sind die ein bisschen hinter der Timeline von AI twenty twenty seven, was wir beim letzten Mal gesprochen haben, dass sie einen ai researcher haben, der sehr viele ihrer eigenen ai researcher outperformen soll. Also er meint, das ist eine sehr ambitionierte Ziel. Kann auch gut sein, dass sie's verfehlen, aber ist schon sehr interessant, dass irgendwie das, was Sam Oppman da erzählt, so 1 zu 1 der Sprechest, den wir beim letzten Mal über AI twenty twenty twenty 7 hatten.
- Philipp
- Ja, vielleicht noch mal kurz als Größe. Ich hab mal grad kurz gefragt, wie viel Marktkapitalisierung denn die DAX 40 Unternehmen haben. Und das ist ungefähr zwischen 1.9 und 2 Trillionen. Das heißt, Open Air wäre dann zu viel wert wie die Hälfte von unserem ganzen DAX Konzern, was ja, ich weiß nicht, wie viel Prozent vom GDPR in Deutschland oder irgendwie so was ausmacht. Und was vielleicht auch noch interessant war, zusätzlich, dass sie jetzt ja neue Cloud Deals machen können, würde gestern maß, glaub ich, in 38000000000 Dollar Deal mit Amazon direkt erst mal angekündigt. Dass Ja. Ob Mäher sozusagen Amazon Infrastruktur nutzt für GPUs. Keine Amazon Service ist also nicht irgendwie Sagemaker oder irgendwie so was, sondern ihr eigenes Zeug halt mitbringt, aber halt die Computerhardware von Amazon. Und für mich ist das son bisschen, ich weiß nicht, aus welchem Film das ist, aber das ist so irgendwie, wenn Du 1000 oder 10000 Dollar der Bank schuldest, dann ist das dein Problem. Aber wenn die Bank dir irgendwie 100000000 schuldet, dann ist das irgendwie in der Bank. Genau und ich ich weiß nicht, ob wir den Punkt nicht schon lange überschritten haben von, hey, wenn OpenAI wirklich scheitern sollte, die können die ja gar nicht scheitern lassen. Also zum einen die ganzen Milliarden, Billionen, Trillionen Beträge, die ja da irgendwie immer angekündigt werden in diesen Verträgen. Das Geld existiert ja de facto einfach nicht. Also Obmayer hat nicht mehr so viel Geld gerast, dass die irgendwie Amazon 38000000000 überweisen kann für irgendwelche Infrastruktur. Sei bei Oracle oder all diesen anderen Deals, das ist ja mehr so, hey, wir wollen irgendwie so und so viel Konsum. Wer dann nachher wie wo wofür bezahlt wird, ist ja super undurchlässig für uns Außenstehende und natürlich auch wieder interessant. Der Markt hat super positiv auf den Amazon Deal irgendwie reagiert mit irgendwie 4 Prozent.
- Fabi
- Ja, ich mein von Amazon.
- Philipp
- Das ist son bisschen, ich ich bin echt gespannt, was ist, wenn keine Ahnung, wir wirklich 'n bisschen langsamer Fortschritt machen und alle Erwartungen nicht erreicht werden. Also wie können die, die ich hab sone Auflistung gesehen von irgendwie 300 Billionen, also Milliarden Dollar. Wie kann das Open AI zahlen? Also was passiert, wenn keine Ahnung, Dezember 20 26, die Amazon kommt rein, Open AI hat keinen Cash. Was passiert dann? Dann ist es ja nicht das Problem von Open AI, sondern eher das Problem von Amazon, weil da ist halt kein Geld da, so. Ja. Ja, aber ich mein,
- Fabi
- ich mein, das ist ja im Endeffekt, deswegen sprechen ja auch grade viele darüber, dass es halt, also ich mein, da muss man jetzt glaub ich kein Prophet sein und zu sagen, wir haben hier 'n Potenzial auch für eine ganz große Bubble, wenn diese wenn diese Ziele am Ende nicht erreicht werden. Und ich mein, die Grundproblematik ist ja auch so, wenn man sich das vorher angeschaut haben, vorher die ganzen großen Tech Riesen waren ja im Endeffekt so alles competitas und irgendwie Winner Takes it all Mentalität und jetzt hast Du ja auch, wenn Du dir mal anguckst, diese ganzen Abhängigkeiten, die die ganzen Firmen untereinander haben, allein mit dieser ganzen Hardware irgendwie Nvidia light Open AI Geld. Open AI kauft damit aber eigentlich nichts anderes als Nvidia Chips so und wie sich's jetzt teilweise gegenseitig extrem hoch pusht, so und und auch da, wenn man sich mal anschaut, sind wir ja erst am Anfang. Ich fand auch diese Zahl, wenn man mal sich anschaut, was sie an was sie an Strombedarf haben, an an Gigawatt, die sie sozusagen jetzt aktuell gerade haben, diese Zahlen fand ich auch schon sehr, sehr beeindruckend. Und aktuell sind Sie bei 2 Gigawatt, wo wovon der Großteil in RUND geht so. Also davon ist ein kleinerer Teil, ich will jetzt mal nach der Grafik ungefähr 20 Prozent schätzen, gehen in Inforence, der Rest ist wirklich so RUND und Sie sind bei 2 Gigawatt. Sie planen aber bis im Jahr 2033 250 Gigawatt an sozusagen dann Computerkonsum, in dem Fall in in Strom gemessen und das ist ungefähr die der Energiebedarf von Indien. Indien braucht 223 Gigawatt United States, klar noch mal 'n bisschen größer, 488, aber es ist schon unfassbar, wenn wir grade sagen, wir sind jetzt grade ungefähr bei 2 Gigawatt und sie wollen nur innerhalb der nächsten 8 Jahre auf 250 Gigawatt kommen und
- Philipp
- Ja. Es gibt auch 'n Bericht von, also es ist erst jetzt vom siebzehnten Oktober von CNN. Da wird gesagt, dass wenn Du in den USA in der Nähe von 'nem Datasender lebst, dass in den letzten 5 Jahren deine Stromkosten 267 Prozent gestiegen sind.
- Fabi
- Ja? Also sag mal so, wir sind erst bei 2 Gigawatt und da sollen 250 mal hinkommen. Ich würd mal tippen, das geht auch noch weiter als
- Philipp
- Pegground schreibt, dass aktuell 4 Prozent von der Elektrizität in den USA für draufgeht. Das ist doppelt so viel wie 2018 und bis 2028 rechnen sie zwischen 7 und 12 Prozent von aller Elektrizität, die in den USA generiert wird für Servercenter.
- Fabi
- Ja, es sind schon sehr verrückte Zahlen, aber ich hatte auch, also wie Du auch vorhin vorhin immer son bisschen gegoogelt so, okay, diese ganzen Zahlen machen Also für mich sind's alles zu hohe Zahlen dafür, was Du auch gemeint hast, was sie gerazed haben, was sie auch, wie viel Profit sie bis 2030 irgendwie machen. Weil allein ja auch dieser 500000000000 Stargate Deal so, ne. Klar, OpenAI ist nur eine davon, Softbank auch als großer Investor und da wird nicht da wird auf jeden Fall bestimmt nicht das größte Kapital von OpenAI gestemmt werden, aber da wird ja da werden ja Deals links und rechts irgendwie gemacht und das Geld von links nach rechts geschppert.
- Philipp
- Vor allem, wie gesagt, es trifft, also es geht ja bei Open Air ist 'n wär jetzt wirklich an 'nem Punkt. Ich glaub, jetzt fehlt nur noch irgendwie Google Cloud, das sie nutzen oder irgendwie so was, das sie alle haben. Aber also eingenommen, ich weiß nicht, irgendwas Schlimmes passiert oder wir machen Es wird einfach nicht erreicht. Dann sitzt Du da und dann bricht das Kartenhaus zusammen und dann ist ja nicht, dass Open AI plötzlich 'n Problem hat, sondern dann hat ja Amazon, Nvidia, Oracle, alle anderen, die halt sozusagen darauf gebaut haben, son Riesenproblem. Das heißt, dies die wollen ja, dass die gewinnen. Ich glaub, bei Antropic ist es nicht ganz so krass. Also ich weiß, wir hatten ja auch vor, ich glaub, in den letzten 2 Wochen auch den Deal zwischen Antropic und Google Cloud für 1000000 TPUs oder so was. Und Antropic ist ja auch 'n sehr, sehr großer Amazon Kunde, wo sie den Supercomputer mit Traineom Bone zusammen, das Projekt Rudinerir oder so was. Aber das sind halt so 2 Player und ich mein, Sam Altman und Open Air haben's vielleicht echt gut gemacht, so alle. Dann kann uns schon nichts passieren so in dem Sinne. Deswegen ich bin bin gespannt, ob wir nächstes Jahr zu derselben Zeit dasitzen und das gleiche Kontinuuim haben von von diesen Projekten oder ob jetzt alle dieses Jahr ihre Deals gemacht haben und wir nächstes Jahr nicht so viel hören, weil die Deals sind ja immer mehrere Jahre und nicht so irgendwie, hey, für 20 26 haben Sie 38000000000. Das ist ja wahrscheinlich wieder son Fünf- bis 10 Jahre Deal.
- Fabi
- Ja, in einem Jahr sind wir immer einige schlauer, auch was jetzt irgendwie auch diese Revenue Projects und sowas angeht, ne, wächst das Ganze jetzt mit. Also ich bin mal sehr gespannt. Aber auf jeden Fall, also Potenzial für eine Bubble ist auf jeden Fall mehr als da so, aber natürlich auch das Potenzial für eine, ich mein, haben wir auch beim letzten Mal haben wir's eigentlich aus der anderen Seite eher diskutiert, ne, dass sich so viele sicher sind, wir erreichen AGI, nur die Frage ist wann. Wenn das Ziel natürlich erreicht wird, dann sind das hier gute Gambles und dann kann man sie auch eingehen, kann aber auch sein, dass es sehr, dass es sehr in die Hose geht. Und ich sag mal, zuletzt war auch noch wieder ein Artikel bei The Information, wo's auch noch mal XAI oder Elon Musk klagt ja auch OpenA-I in dem Zuge, sind auch noch mal einige Interne Memos irgendwie zu dieser ganzen Sam Altman Entlassungsgeschichte irgendwie bekannt geworden und so.
- Philipp
- Mhm.
- Fabi
- Oh, und ich muss schon sagen, was auch immer davon stimmt, aber so Mira Murati hat ja wohl auch einige Interne Memos und so was dann mit Andre Capati damals geteilt, so, der ja auch da federführend mit dabei war eigentlich für seinen Rauswurf. Und oh, wenn da auch nur die Hall Hälfte von Bar ist so, dann würde ich sagen, ist es halt auch, ja, nicht der Typ, den ich da eigentlich an der Spitze haben will von sonem Unternehmen mit dem Eben keinen Ausschiepen.
- Dennis
- In keinem Auto spielen.
- Philipp
- Ich find's cool, dass während der Zeit der Also wo Sam Oldman sozusagen kurzzeitig beurlaubt war, sag ich mal, der CEO von Antropic sozusagen, Open Air geschrieben hat, so von wegen, hey, Leute, sollen wir nicht wieder zusammen gehen. Wir leiten dann den Laden, aber wir machen's gemeinsam. Fand ich schon witzig. Das wär, ist auf jeden Fall Ich mein, ich glaub, da wird 'n Film ja dazu gemacht. Ich glaub, die Rechte wurden hier irgendwie drauf.
- Fabi
- Ja, stimmt. Ja.
- Philipp
- Wird auf jeden Fall, glaub der ein sehr cooler Film.
- Fabi
- Wird ein cooler Film, ja und sag mal, den hätte ich ja lieber sitzen gehabt, wenn man bei dem, was man da so liest. Ja, das ist die Frage, ist überhaupt 1 von denen, also ich sag mal, da wo ich bei dem ich 'n gut Gefühl hab, ich würd gern Andre Capathy da sitzen habe, aber ich glaub, das ist nicht so der Businessman.
- Philipp
- Richtig und also man muss sehr vorsichtig sein. Weil ich glaub, Du brauchst 'n gewissen Charakter, also es hätte wahrscheinlich nur Sam Oldman schaffen können, Open Air dahin zu manövrieren, wo sie aktuell sind. Mit anderen wär's wahrscheinlich in eine positive Richtung auch gegangen, aber vielleicht in eine ganz andere oder so was. Deswegen
- Fabi
- Ja, aber mein, aber es ist ja
- Philipp
- ein bisschen wie mit mit Elon Musk. Also man kann ihn mögen oder nicht mögen und das hat auf jeden Fall 'n speziellen Charakter. Und ich glaub, Du brauchst für diese Rollen 'n sehr, sehr speziellen Charakter, dass Du so in Anführungszeichen erfolgreich werden kannst.
- Fabi
- Ja. Trotzdem die Frage, ob's das Aber es ist 'n Thema fürs nächste Mal, ob das ob Ich mein, die diese Machtkonzentration bei den bei den größten, die diese Unternehmen da mittlerweile haben, wird ja auch immer extremer und so. Und ist das dann wirklich das Richtige, dass solche Dass es so ein Wenn wenn man jetzt mal sagt, die These stimmt, Du brauchst so einen Charakter und dahin zu kommen, ist es dann aber das, was gesellschaftlich das ist, was passieren sollte, dass solche Charaktere in diese Machtposition kommen, fraglich, klärlich.
- Philipp
- Ich mein, dieselbe Frage kann zu stellen, wieso nur in den USA Du so riesen erfolgreiche Tech Start ups hast und warum die wenigsten in Europa sind und die, die in Europa sind, eventuell wieder in die USA gehen und so was. Also gibt für alles merkwürdige Gründe.
- Fabi
- Nehmen wir vielleicht mal auf für eine nächste AI News, da sind wir schon mal eine Dreiviertelstunde. Philipp, dir vielen Dank, dass Du dir gut dabei warst. Dennis Ja, auch wann tschüs, ne? Ja, mach's gut. Bis zum bis zum nächsten Mal. Herzlich beim nächsten Mal Zeit für eine ganze Podcastfolge. Wär auch nett. Euch vielen Dank fürs Zuhören und wir hören uns in 2 Wochen wieder.
- Philipp
- Macht's gut.