News AI 31/25 –

AI Action Plan der USA // ChatGPT-Agent // Kiro

31.07.2025

Shownotes

Diese Woche bei den AI News haben Philipp und Fabi wieder die spannendsten KI-Neuheiten für euch.

Fabis News:

Philipps News:

  • Das Weiße Haus stellt den US AI Action Plan vor und will damit klare Leitlinien und Strategien für eine KI-gesteuerte Zukunft setzen.
  • Googles Veo 3 beeindruckt mit fortgeschrittenen Video-Generierungstechniken und will damit realistischere KI-Videos bieten als je zuvor.
  • Amazon launcht Kiro IDE – eine neue, speziell für KI-Projekte optimierte Entwicklungsumgebung.
  • Anthropic veröffentlicht das MCP Directory, eine übersichtliche Sammlung aller verfügbaren Claude-Konnektoren auf einen Blick.

Alle News im Detail hört ihr direkt in der Folge!

 

/transkript/programmierbar/news-ai-31-25-ai-action-plan-der-usa-chatgpt-agent-kiro
Fabi
Hallo und herzlich willkommen zu der programmier.bar AI News in der Kalender Woche 31 im Jahr 2025. Ich bin der Fabi Fink und mit mir dabei ist wie immer der Philipp Schmid. Hi Philipp. Hallo. Dennis hat uns heute mal verlassen. Wir sind wieder in der ursprünglichen Standardbesetzung, denn es ist Kitesurfen auf Jaber. Der wird uns wahrscheinlich, ich glaub, sogar 2 AI News Folgen aussetzen. 3 Wochen ist der Liebe weg. Aber erst fand ich da, dafür sind wieder sehr, sehr viele Themen da. Wir unterhalten uns mal wieder über Windsurf und irgendein Teil davon, der mal wieder gekauft, verkauft wurde. Antropic ist 'n Thema und zwar haben Sie ein bisschen was darüber erzählt, wie Sie intern Cloud Code nutzen und haben das MCP Directory gelauncht. Amazon haben wir mit dabei, weil nicht nur Windsurf als Cursor Alternative zu 1 AI IDI gibt es jetzt, sondern Amazon auch eine rausgebracht mit Kero, Kyro oder wie auch immer. Ansonsten gab's auch den ABS Summbleovoren euch das Ganze mal zusammenzufassen, zusammenzufassen. Gitter hat Spark rausgebracht, OpenAI, jetzt ihren eigenen ChatGPT Agent und Philipp hat ein bisschen was zu Google, WO 3 und wie man da supergut konsistent Videos generieren kann. Und zu guter Letzt das Thema, mit dem wir starten. Hat die USA den AI Action Plan rausgebracht, also ein Strategy Paper aus dem Weißen Haus. Philipp, lass uns doch mal damit einsteigen. Was hat's mit diesem Paper auf sich?
Philipp
Genau, der AI Americas AI Action Plan Entschuldigung. Heißt der sogar mit einem Fokus auf nationale Sicherheit und globale Konkurrenz, Global. Ja, wurde letzte Woche vorgestellt. Ich weiß nicht, wie lang, genau wie lange die daran gearbeitet haben, aber ich glaub, wir hatten's über mehrere Newsfolgen mal im letzten Jahr, dass mehrere CEOs mal beim Weißen Haus war. Es gab mehrere Anhörungen und mehr oder weniger der Plan von dem AI Action Plan ist, also der Plan dahinter ist, wie halt die USA mehr oder weniger das AI gewinnen kann, was irgendwie 'n bisschen, ja, interessant ist, weil ich weiß nicht, man gewinnt eher gemeinsam als alleine, würd ich jetzt mal stark behaupten. Und generell wär ich mit dem allem 'n bisschen vorsichtig. Ich bin jetzt nicht der größte Freund der amerikanischen Regierung aktuell und das ist sehr, sehr, sehr interessante Thematik, aber
Fabi
Definitiv.
Philipp
Es gibt, also der Actionplan basiert auf 3 Pillars. Pillar 1 ist Accelerating AI Innovation, Pillar 2 ist Building America AI Infrastructure und Pillar 3 ist International Diplomacy and Security. Und es spiegelt relativ gut wider, würd ich mal sagen, worauf sie fokussieren sollten. Also unter anderem USA als Regierung oder Land an sich, sowohl aber auch bisschen, sag ich mal, US amerikanische Unternehmen zu motivieren. Pillar 1, Accelerating AI Innovation geht natürlich darüber hinaus, okay, man muss mehr Forschung machen, man muss mehr investieren in Diversity, Equity, Inclusion. Man muss wirklich schauen, okay, wie kann man Open Source und Open AI, Open Weiht AI Models voranbringen und dass sie sozusagen den amerikanischen Werten entsprechen. Pillard 2 ist ganz stark, okay, man braucht besseres bessere Infrastruktur für Stromversorgung, dass halt alle ihre großen neuen Gigawatt Servercenter bauen können mit Millionen von GPS und anderen Dingen. Und dass sie auch schauen, dass das sozusagen sichergestellt ist, also dass nicht plötzlich dann in der Zukunft Angriffe passieren können auf diese verschiedenen Rechenzentren. Da wird auch das Department of Defense referenziert, dass Sie da genauer zusammen oder enger zusammenarbeiten wollen mit den privaten Sektoren, wie man Computerressourcen sicherstellt oder bereitstellt. Und dann Pillard 3 ist son bisschen, okay, wie können Sie global agieren und nicht gegen China verlieren? Und wie funktioniert das mit Exportkontrollen, also GPS und Semiconductor Technology, die dann nicht nach außen gehen soll? Also es ist relativ breit gefächert. Man hat interessante Meinungen, sag ich mal, auf Social Media gesehen. Wenn das euch interessiert, schaut gerne mal selber rein. Es ist relativ lang, aber mithilfe von KI Modellen kann man das relativ gut zusammensuchen und auch Fragen stellen. Schön war auf jeden Fall, denk ich, dass nicht nur irgendwie Open AI oder Foundation Models beschrieben würden, sondern dass es auch eine ganze Sektion über Open Source und Open Waates gab, welches sehr wichtig ist und generell hoffentlich was Positives dabei rumkommt für Universitäten und Forschungsinstituten, dass halt, sag ich mal, die große, die der große Unterschied zwischen Big Tech und allen anderen halt nicht noch größer wird, was Computingperity und alles angeht.
Fabi
Ja. Obwohl Du mein, meinst Du ja auch, dass grade auch die die öffentlichen Modelle und so auch darauf abziehen, auch sag ich mal, keine Ahnung, im Mittelstand oder einfach generell die Non Tech Konzerne fürs eigene Hosting und so weiter, dass auch die unterstützen, dass es nicht nur in Richtung Forschung geht, so die ganz nerven Modelle Ja. Sonst grundsätzlich Also ist wahrscheinlich einfach auch 'n großer Wirtschaftszweig, Leute, die nicht komplett auf die gehotstet Modelle vom großen Tag setzen wollen.
Philipp
Genau. Und viel halt viel viel ist halt wirklich, sie müssen mehr Server bauen, sie brauchen bessere Infrastruktur, mit mehr Server kommen bessere Modelle. Mit besseren Modellen kommen bessere Open Source Modelle, bessere Modelle, bessere Positionen im Markt, müssen strenger kontrollieren, dass sozusagen andere nicht ihre Technologie klauen. So. Das Typische, was wir eigentlich schon kennen, sag ich mal.
Fabi
Ja, auch gerade dieser dritte Pille, ne. Wir hatten es ja auch gerade mit den NVIDIA Chips, wo es dann auch die ganzen Deep SEK Modell und so in dem Zug hat man ja auch darüber diskutiert, wie kamen sie denn überhaupt an die GPUs dafür und so? Und dann das hat zumindest hat man ja auch mitbekommen, da man auch hier im Podcast drüber unterhalten, dass es einige Loop Holmes gab, irgendwie an bestimmte Anbieter Chips eben doch in China ranzukommen und so, wenn auch nicht an alle. Das da hat man auf jeden Fall einiges ja schon drüber gehört und gelesen gehabt vor. Und ich meine, ich muss ja grundsätzlich sagen, ich meine so einen Act so, grundsätzlich wird man sich von der EU vielleicht auch wünschen, einfach, dass sowas mal rauskommt mit so 'nem ganz klaren Strategieplan. So, ich glaub der ganze Sprech halt rund das Gewinnen, was Du am Anfang meint, das Gewinnen des AI Races, also dass dieser Sprech dafür genutzt wird. Das ist der, den ich auf jeden Fall auch bedenklich finde, aber son bisschen der jetzt mich nicht wundert bei der aktuellen Regierung, dass genau in diesem Sprech so ein Plan gefasst wird, aber ich meine, mit den grundsätzlichen Pillars, ich meine, über den Dritten kann man jetzt ein bisschen streiten, aber so die ersten beiden sind ja auf jeden Fall etwas, wo man sagen würde, so strukturiert daran zu gehen, wär von der EU durchaus auch nicht mal schlecht, da noch ein bisschen aufholen zu können. Ja. Cool, so viel zum wie America AI Act.
Philipp
Action Plan.
Fabi
Action Plan, okay. Ja, ja, die Nomenklatur. Deswegen ist ja so Winning the AI Race, der klappt, ich sag mal, den genauen Namen des Plans kann ich mir nicht merken, aber den den Slow German. Amerikas
Philipp
AI Action Plan.
Fabi
Amerikas AI Action Plan. Okay. Lass uns doch mal über Amazon uns unterhalten und vielleicht steigen wir ein mit dem noch mal die Zusammenfassung vom AWS Summit und dann können wir noch mal über Kairo hin zu den AI IDs kommen. Aber einsteigen mit, was gab's denn beim AWS Summit?
Philipp
Genau, Amazon hat ja so ähnlich wie Google unterjährig, würd ich mir jetzt einfach sagen, verschiedene Summits, wo in verschiedenen Städten und Ländern, wo typisch Amazon Konferenz bisschen kleiner halt verschiedene Dinge vorgestellt werden, Workshop gibt, Session gibt. Und der New York Summit dieses Jahr war son bisschen der große Summit, wo sie ganz viele neue Features in ob in AWS mehr oder weniger vorgestellt haben, unter anderem Amazon BatRock Agent Core. S 3 heißt jetzt 'n Vektdoor Store Und es gibt 'n besseres API key Management für Batrock und neue Nova Modelle. Nova ist ja das Amazon interne Modell für Batrock Agent Core. Es ist mehr sone Art komplette Plattform mit allem drumherum. Ich hab selber noch nicht ganz verstanden, was jetzt wirklich Host it Services, was irgendwie nur eine SDK ist oder so was, aber es besteht aus 1 Agent Core Run Time, welche scheinbar auf basiert, Agents auszuführen. Also man soll mit der Agent Core Run Time Agens bauen können mit Crew AI oder oder andere Dinge, die dann mehr oder weniger isoliert und gemanagt ausgeführt werden können. Es gibt jetzt Agent Core Memory, was son bisschen wie, ist das Open Source alternativ dazu oder Jet GPT ja jetzt auch dieses, dass man halt sozusagen extern persistent Informationen speichern kann und die wieder dann in den Kontext von dem Modell hinzufügen kann bei Bedarf. Es gibt, welches auf, ja, wie der Name sagt, son bisschen auf Identity und Access Management abspielt. Wie können Provider wie Okta oder Microsoft mehr oder weniger genutzt werden, dann Agents zu geben, Salesforce- oder Slack Nachrichten senden zu können. Das hab ich am wenigsten bisher durchstanden, weil da gibt's wenig Beispiele, sag ich mal einfach dazu. Es gibt jetzt 'n Gateway, welches, Sie schreiben, wie Open Air API oder Smithy zu AWS Lambda Tools umfunktioniert, welche dann mit Agents und MCT genutzt werden können. Also im Sinne von, okay, ich hab jetzt irgendwie meine, ich weiß nicht, Kunden API mit oder so was, dass man dann daraus direkt son MCM cp Server machen kann. Es gibt für einfach das von Agents, die auf der ausgeführt werden können. Browser ist 'n Browser, für dass man sozusagen oder anderen Modellen einfach halt 'n wahrscheinlich Chrome Chromium Browser geben kann und die dann durchs Web klicken können. Und einen Agent Core Code Interpret ist eine isolierte Code Book Environment, dass man in Agent sozusagen 'n 'n Bereich geben kann, wo die Code ausführen können. Relativ viel, auch alles, nicht g a und nur in Preview und auch nur in speziellen Regionen. Deswegen, wenn ihr irgendwie auf Amazon oder mit BatRock unterwegs seid, gerne mal schauen, ob das irgendwie schon erreichbar für euch ist in eurer Region oder hinter 'ner Whitelist oder irgendwas anderem. Auf jeden Fall jede Menge, muss ich sagen. So mehr oder weniger, ich glaub, für jeden dieser Punkte gibt's so 5 bis 10 Start ups, die das aktuell versuchen, individuell zu lösen. Deswegen bin ich mal gespannt, was Amazon da zusammenbringt und ob das sich durchsetzen kann oder nicht. Amazon Badrock Keys, relativ einfach. Das ist eine neue Methode, sich einfache Entwicklern und Anwendungen Zugang zu Batrogs Models zu geben. Basiert immer noch auf IEM, aber halt 'n bisschen einfacher als das Komplexe, sag ich mal, und Policy Management. Estray hat 'n Vektostore, was relativ Cooles. Also man kann jetzt 'n Vektorbacket erstellen und dann machen, wie so ähnlich von Biviat oder. Denk ich, relativ cooles Feature. Und die Nova Modelle sind jetzt verfügbar in. Wie hieß hieß es, dass Du kannst, die haben irgendwie 'n, dass Du 'n Bild von dir mit Klamotten anprobieren kannst und es gibt neue, andere Optimierungen. Also ganz, ganz, ganz viel. Aber hier weiß ich auch nicht, ist alles, glaub, Review bisher und nicht für jeden zugänglich oder
Fabi
Ist Nova eigentlich 'n Modell? Was hast Du schon mal irgendwo irgendwie ausprobiert oder hattest Du schon mal Kontakt mit einem der Nova Modelle? Wir hatten's ja, glaub ich, nur echt, als es damals releast, da mal jetzt nur kurz im Podcast
Philipp
Ja, es wurde ja letztes Jahr im Dezember auf der vorgestellt und ist ja auch eine Modelfamilie von verschiedenen LLMs, sag ich jetzt mal. Und dann gibt's auch Image- und Videomodelle. Aber ich hab nie jemand gesehen, der die nutzt. Sie werden auch in jeglichen Benchmarks einfach ignoriert.
Fabi
Ja, weil ich glaub's auch für, seitdem wir uns darüber unterhalten haben, war's eigentlich kein Thema mehr in diese Novage.
Philipp
Genau, ich glaub, das ist 'n bisschen, Amazon hat da vielleicht auch nicht das beste Developermarketing. Und generell haben, ich weiß nicht, ob sie jetzt Benchmark so krass released haben oder den Zugang dann so easy machen, für Forscher das dann auch zu evaluieren oder weitere Research darauf zu machen. Aber nee. Und ich mein, nicht soweit ich immer mitbekomme, ist alles claud of bedrock. Das Einzige, was Sie gesagt haben, war bei dem Amazon Alexa Plus Pro, wie auch immer das neue Modell heißt, dass diese Experience mit claud und Nova gepowert werden soll, was auch immer das bedeutet.
Fabi
Ja, interessant. Aber wie wir jetzt gesagt haben, viele davon auch mal schauen, ob's überhaupt ausprobierbar ist, schon so direkt so. Was auf jeden Fall ausprobierbar ist, ist eben die neue IDI von Amazon, Kairo.
Philipp
Auch nicht mehr.
Fabi
Auch nicht mehr? Nee. Siehste mal, dann das deswegen liegt das Thema bei dir und gleich kommen wir zu den anderen Themen, wo ich dann mehr dazu sagen kann. Aber erzähl doch mal kurz für die Leute, die's nicht wissen, es kam ja kurz nach unserer letzten AI News Folge raus, die News also 2 Wochen jetzt schon her. Amazon neue IDI.
Philipp
Genau. Und zwar heißt die ganze IDI Kiro, nicht Kairo. War am Anfang, es ist eine Previewversion, Version, so ähnlich wie Cursor. Ich glaub, das ist die einfachste Beschreibung. Aktuell gibt's jetzt 'n jetzt 'n Joint Button. Also wenn man am Anfang schnell war, konnte man sich so runterladen, Preview ist auch kostenlos. Sehr, sehr Also ich weiß nicht, wenn ihr euch schon mal Tray hatten wir schon 'n paarmal. Das kommt aus China, VHS Codefolk. Visuell hat es ganz viel von Tray, weil es diese schwarzen Balken zwischen den verschiedenen Fenstern hat. Typisch spezifisch 'n Chat und ansonsten alles, was man von kennt. Der große Unterschied, den ich sehr, sehr interessant finde und der auch son bisschen die Historie von Kiro zeigt, weil soweit ich weiß, es ist es intern in Amazon gewachsen und sie haben's intern genutzt und nutzen es sehr viel für die Entwicklung bei Amazon, ist der Fokus auf Enterprise. Also sie nennen es selber und sie setzen auf so was, das sich nennt. Also wenn man caros startet, hat man eine eine Art Landingpage, bei der man auswählen kann, ob ich zwischen geh oder Spectrivan Development. Viep Coding ist sehr, sehr cursor standardmäßig. Ich hab 'n Chat, kann einfach prompt no los anfangen. Bei diesem Spectrivan Development ist es mehr so typisch Enterprise spezifisch, dass man erst mal son bisschen erklärt, was man macht. Careo erstellt dann eben son, dass man sich dann anstellen kann, anschauen kann und reviewen kann und editieren kann. Von diesem geht's dann weiter in sone Art, wo dann verschiedene To dos oder User Stories mehr oder weniger mit erstellt werden. Und diese kann dann Kero mehr oder weniger selber implementieren. Es gibt die System Proms, die gelauncht wurden oder geleakt wurden, sag ich mal, die bisschen hinter den verschiedenen Agents sind, die 'n bisschen 'n Durchblick geben, was so, wie es formuliert wurde, weil er ist sehr, sehr Enterprise spezifisch. Du hast so unendlich viele Tasks für ganz viele Kleinigkeiten. Es wird ganz viel auf Tests irgendwie geachtet. Der negative Effekt daraus ist, dass Kero bei den Videos und Tests, die ich gesehen hab, da zu stark tendiert, einfach ganz, ganz viele neue Files zu erstellen. Also da wurde dann plötzlich son komplettes File von 500 Zellen Code einfach nur mit Interfaces erst mal definiert und Also man merkt schon die Das ist
Fabi
doch Enterprise. Ist das nicht Enterprise Coding?
Philipp
Ja, genau.
Fabi
Liegt zu Enterprise?
Philipp
Also es war sehr interessant, weil ich hab auch 'n Video gesehen, wo Leute es wirklich haben mit Curser im selben einfach 'n Feature hinzufügen. Cursor war halt irgendwie zehnmal schneller und Keror hat irgendwie zehnmal mehr Code geschrieben, der am Ende auch funktioniert hat, aber hat halt zehnmal mehr Tests und anderes Zeug und sonstiges ganz, ganz viel mit zugefügt. Das heißt, wenn ihr irgendwie im Enterprise mehr unterwegs seid, dann gerne mal reinschauen. Aktuell schade, ist noch eine Waitlist. Pricing ist, gibt zwar eine Page, aber da steht aktuell Preview ist free. Basiert auf. Leute haben den kompletten Code und man hat festgestellt, dass es auch Prompts und Integration für Lama, Mysterrill, Co hier und anderen Modellen auf BatRock gab. Die sind aber jetzt nicht direkt verfügbar. Also man sieht son bisschen in dem Code, dass das, okay, schon 'n bisschen länger existiert. Aktuell nur. Sie schreiben aber, es sollen mehr Modelle kommen und ich bin mal gespannt. Ich mein, wenn's 'n Amazon internes Produkt ist, das viel genutzt wird für die interne oder Inhouse Entwicklung, dann kann das Sinn machen, das nach extern zu bringen. Vielleicht bekommt's darüber auch viele Updates, aber es ist schon sehr spezifisch mit diesem Design und dann der wirklichen Taskliste und die Implementierung. Und ja. Also eigentlich das, was man alles immer erhofft hat von AI Coding, dass ich nur sag, okay, mach den Button blau und er geht los und mach den Platten blau korrekt. Ist halt alles verloren gegangen, weil jetzt hat man wieder, ich hab eine SPAC, ich hab eine Design, ich hab eine GitHub oder und dann wird es irgendwann wieder. Also es kommt sehr viel außen rum mit, was eventuell, wie gesagt, für Enterprise Environments ja doch auch sehr hilfreich sein kann.
Fabi
Ja, aber ich find's mal, ich mein, ich find's interessant, weil irgendwie so, ich sag mal das Design und Designsprache von dem ganzen Ding und so, das Buch jetzt gar nicht so, wirklich überhaupt nicht Enterprise. Ich muss sagen, Carroll, Sie haben ja diesen kleinen Geister irgendwie als als Logo und so, wo ich jetzt erst mal sagen würde, so, das ist das wirkt vom ganzen Branding her nicht so, als sei das als bauen Sie hier gerade 'n Enterprise Tool.
Philipp
Man hat auch nirgendwo Amazon Branding. Das ist sehr interessant. Also es ist wirklich, wurde von Amazon angekündigt, hat auch CEO und haben's geteilt und sind auch Amazon Mitarbeiter, die daran arbeiten, aber Du erkennst auf der Landingpage und generell nirgendwo, dass es 'n Amazon Produkt oder Service gibt oder weniger. Du kannst
Fabi
ganz runter, ganz, ganz runter im im Food- Ah ja, ja. Und 'n kleines Alex Logo.
Philipp
Ah ja, ja.
Fabi
Da da findest Du Aber ansonsten, ja, aber auf jeden Fall spannend. Mal schauen, ob es dann am Ende wirklich also Platz im Enterprise findet, ob es, wenn es mal aus der Waitlist raus ist, irgendwie doch ein Competitor zu
Philipp
Ich kann's, also es gibt ja viele und aws direkt mit q und q CLI und anderem Zeug. Eventuell ist das dann nachher, sag ich mal, das Endergebnis.
Fabi
Ja. Dann lass uns doch mal von dem der ein AIEE zur anderen kommen und zwar zu Windsurf. War ja jetzt 'n paarmal Thema so, wer es jetzt in unserer AI News eben nicht immer komplett mitverfolgt hab. Es fing an, dass Windsurf, dass es die gab, dass es von OpenAI gekauft wird. Kurz nachdem dieser Deal son bisschen ausgelaufen wurde, hat Google sich angestellt und hat aber nicht Windsurve gekauft, sondern hat im Endeffekt einige Core Mitglieder von dem Windsurve Team übernommen und zwar unter anderem den CEO und einen Co Founder, aber auch einige von den Research Leaders haben sie damit übernommen und haben sozusagen das Produkt und einen Großteil der ich Wie viele waren's damals? Ich glaube 250 Personen, was heißt damals, also jetzt auch immer noch sind des 52 Personen Teams sozusagen in der Firma gelassen. Also es war ein Akkuhaier da war's und kurz nachdem das, das war dann auch nach und in unserer letzten ER News Folge war das sozusagen der letzte Stand. Google übernimmt die Core Leute, wo ich dann son bisschen gefragt hab, okay, was passiert mit Windsurf? Sehr viel Geld gesehen hab der Rest der Firma, auch nicht unbedingt von diesem Aqui Hier und interessanterweise wurde Windsurf jetzt übernommen von 1 Firma, die ich jetzt so gar nicht auf dem Schirm hatte, dass sie überhaupt das Kapital haben, das Ganze zu tun. Und zwar der Firma Cognition war auch schon Teil von son AI News und zwar, weil sie eine, ja, kann man eigentlich sagen, 1 der ersten waren, die so komplett autonome Coding Agents son bisschen marketingmäßig gepitcht haben und zwar ihre Devan AI. So, wo man's damals, also das erste Mal den AR News hatten, nur als Video gesehen hatte und so vom Grundprinzip her war, okay, ich öffne hier einfach einen Pull Request, ich sag, Devan implementierst und ich hab wie so einen Junior Developer, der für mich komplette Tasks übernichten und das komplette das komplette, ja, das komplette Entwickeln und Lösen von irgendwelchen Issues für einen übernimmt. Ich glaube, auch sie noch damals War's auch wirklich noch so? Das war zu dem Zeitpunkt, als der VanAI rauskam, sodass wir eher so die Pricings kannten von irgendwie ChatGPT und sowas, waren so im 20 Dollar Range. Es gab noch keine Reasoning Modelle und sie waren, glaube ich, auch dann die Ersten, die in sonem Preissegment von, ich Was war damals Devan AI? Ich weiß nicht, wie es jetzt ist, 500 Dollar oder so was, was sie wollten für den Coding Agent hatten und auf jeden Fall diese Firma so Cognition, die Devan AI entwickelt, hat jetzt Windsurf gekauft, ist sozusagen jetzt Teil von Cognition. Es war irgendwie dann auch wirklich wohl relativ spontan irgendwie in den Twitter-x-Posts liest man, dass es dann irgendwie, nachdem das bekannt war mit Google gab's irgendwie freitags abends 5 die ersten Gespräche über eine mögliche Acquisition und montags war alles unterschrieben. Also übers Wochenende haben sie diesen Deal irgendwie eingetütet. Und genau, grundsätzlich alle Mitarbeiter von Windsurf wurden sozusagen mit übernommen, wurden auch beteiligt in dem ganzen Zuge. Windsurf bleibt ein separates Produkt so, also es ist im Endeffekt ein Produkt, was von Cognition jetzt entwickelt wird, also die Windsurf IDE soll es in diesem Zuge so weitergeben. Genau, aber auf jeden Fall sehr interessant diese wilde Reise, die Windsurf da durchgemacht hat. Abwarten. Ja, also genau. Es ist Was was passiert, ist was anderes als das, was Sie sagen, ne? Es ist Wir schreiben jetzt Dienstag, den neunundzwanzigsten Juli, das heißt, das Ganze ist jetzt knapp 2 Wochen her. Letzte Woche Montag gab's die Unterschriften. Mal gucken, was Sie was Sie damit machen. Aber es ist so oder so die Frage, ich mein, ich sag mal so, Devan wirkt für mich jetzt bisher nicht wie das Konkurrenz konkurrenzfähigste Produkt. Ich kann schon, ich kann mir eher vorstellen, dass aus Windsurf ein neues Produkt entsteht, was und Devan es am Ende nicht mehr oder in 1 anderen Form irgendwie geben wird, aber
Philipp
Ja, bleibt bleibt abzuwarten. Ich glaub, das das Interessante, was ich jetzt gesehen hab von vielen ist, also es ist nicht so, dass Cognition irgendwie Millionen an Bargeld überwiesen hat, sondern es ist ja alles über Stocks mehr oder weniger passiert, soweit ich weiß. Und 'n großes Vorteil war ja, dass wenn Du bei 'nem Start-up anfängst, hast Du normalerweise zu 'ner Vesting Zeit am Anfang. Das heißt, innerhalb des ersten Jahres ganz oft bekommst Du noch keine. Das heißt, wenn Du innerhalb des ersten Jahres kündigst, dein Arbeitgeber wechselst oder das Unternehmen, sag ich mal, verkauft wird, dann ist das ganz oft der Fall, dass Du halt einfach leer ausgehst. Und Cognition ist ja vor allem im, sorry, Windsurfers ist ja vor allem im letzten Jahr sehr stark gewachsen. Das heißt, sehr viele Mitarbeiter waren noch in dieser Vesting Periode. Und Cognition hat sozusagen die Vesting Periode exkludiert. Das heißt, Mitarbeiter haben trotzdem mehr oder weniger den gerechten, in Anführungszeichen, was auch immer das bedeutet, Anteil von ihren bekommen.
Fabi
Ja, auf jeden Fall fairer Move, mal schauen, was da noch so kommt an News. Wir werden euch jeden Fall auf dem Laufenden halten. Wenn wir gerade bei IDIs sind, wer keine Lust auf IDIs hat, sondern eigentlich nur Vive Coding mäßig seine Applikationen erzeugen möchte, hat nun einen neuen Player im Game und zwar GitHub Spark ist jetzt in der public Preview. Und wenn man's ganz einfach runterbricht, kann man sagen, okay, GitHub Spark ist ein eine weitere weiteres Vibe Coding Tool von Text zu production Code Production Applikationen, sowas wie Lovable oder Bowl oder Ähnliches, kennen wir ja schon einige in dem Space und GitHub ist ja jetzt auch eingestiegen in der Public Preview. Erst mal für uns natürlich in der EU wieder eine, sorry, ist noch eine Public Preview, also man muss sich auf eine Waidliste schreiben lassen, so. Es ist noch, kann auch nicht jeder komplett nutzen, aber im Grunde genommen erst mal nichts groß Neues. Das Schöne sozusagen ist, dass es halt in GitHub komplett integriert ist, also von vornherein irgendwie alles mit GitHub Repository und halt dem ganzen Tool, den das GitHub irgendwie so mitbringt, wo ich mir durchaus vorstellen kann, dass das einige Vorteile irgendwie mit sich bringt, wenn man sagt, man will eben nicht nur hier einen Prototyp machen, sondern eine Applikation, an der man auch wirklich langfristig irgendwie weiterentwickelt, glaube ich, haben Sie da einfach 'n ganz gutes Standing. Ich fand eine Sache ganz interessant, als ich's gelesen hatte, so, ich bin ja kein großer Co Pilot User eigentlich. Hier und da teste ich's immer mal wieder aus, aber irgendwie ist ja der Standard bei Co Pilot, auch wenn ich andere Modelle nutzen kann, ja die GPT Modellreihe und Spark basiert jetzt auch auf Cloud Sonet 4 irgendwie. Das war auf jeden Fall eine Sache, wo ich erst mal Also ich hab irgendwie zweimal gelesen, dass man diese Teile dachte, so hä, wirklich? So und muss dann auch noch mal kurz nachlesen, ob ich irgendwas verpasst hatte mit mit dem Co Piloten, ob das mittlerweile auch standardmäßigmäßig auf Sonet ist, aber Spark ist basiert auf Cloud Sonet 4, fand ich auf jeden Fall noch mal sehr interessant, aber genau. Ansonsten gibt's gar nicht so viel übers Spark zu sagen. Wird, glaube ich, interessant sein, wo sie sich positionieren da im Markt, aber eine weitere Alternative und bisschen Public predue.
Philipp
Hast Du kurz erzählt, was das Pricing ist?
Fabi
Nee, aber ehrlicherweise, weil ich's auch gar nicht weiß. Ich hab mir das Pricing gar nicht ganz genau angeschaut.
Philipp
Was ist also Teil von Copilot Pro sein. Das bedeutet, ab 39 Euro im Monat verfügbar. Und man bekommt 375 Spark Messages pro Monat. Du kannst more Spark Messages kaufen, also wenn die dir nicht reichen. Man hat 10 aktive Apps während 1 Session und unendliche Anzahl an Apps und genau, Hosting, Compute ist alles mit dabei.
Fabi
Okay, also in dem, ist auch, es heißt sozusagen, aber es ist immer, die Grundlage ist sozusagen Co Pilot als
Philipp
als Ja, Du kriegst zwar nur über Co Pilot plus.
Fabi
Ja, mal schauen, wie lang's dauert, dass Co Pilot plus auch auf ist.
Philipp
Ich ich, wenn ich richtig weiß, haben die auch mittlerweile das Konzept von Premium sehr ähnlich zu cursor, dass es eigentlich egal ist, welches Modell Du nutzt. Und je nachdem, welches Modell Du halt hast, konsumierst Du eine gewisse Anzahl von Premium. Und 4 ist ein Premium und wäre dann Verhältnis zu 10, also ein, gleich 10.
Fabi
Mhm. Ja. Ja, wie gesagt, fand ich nur interessant, dass das auf jeden Fall standardmäßig auf basiert. Ja. Vielleicht, wie gesagt, kannst Du ja auch die Modelle tauschen. Ist ja nicht so, dass es nicht wie am Anfang nur ein Modell gibt dort. Wir haben noch so ungefähr 3 Themenbereiche, die wir durchgehen. Einmal son bisschen das Antropic Space und später noch mal die Google w-o-drei-Sache, die ich am Anfang genannt hab. Vorher, vor den beiden Themen gehen wir aber nur auf OpenAI ein. Und zwar haben Sie Ihren ChatGPT Agent rausgebracht. Wir hatten ja schon mal Anfang des Jahres über den Operator erzählt, also Ihre Möglichkeit, Ihren Modellen mit Webseiten interagieren zu lassen. Also Websiteinteraktion heißt in dem Fall jetzt nicht wie WebFashion oder so was, dass wir einfach nur Inhalte von Webseiten aufrufen können, sondern wirklich Webseiten öffnen können, mit ihnen interagieren können und Dinge darauf tun können. Und im Endeffekt ist jetzt der ChatGPT Agent die Zusammenführung von Operator und ihren beispielsweise Reasoning Modellen, also dass wir ab jetzt ein Interface haben. Wenn ich von wir spreche, spreche natürlich wie immer nicht von wir als EU, sondern von allen anderen, die in den Pro Plänen und so weiter sind, auch wenn das sukzessive ausgerollt wird, hat man jetzt die Möglichkeit, im Webinterface den Agenten auszuwählen. Und der Agent hat dann sozusagen jetzt die Möglichkeit, durch Reasoning und Operator Dinge im Web für einen zu tun, also verschiedenste Use Cases so. Ich glaub, die die standardmäßigen, was ich jetzt auch in auf Youtube schon 'n paar Videos gesehen hab, sind dann irgendwie, geh mal los und schau mal 'n bisschen Shopping, hab ich keine Lust mehr, selbst such mir mal passende Klamotten mit meiner Größe raus, die und die Dinge mag ich. Wo man einfach sieht, okay, der Agent läuft los und das Interface ist irgendwie echt ganz schön. Also man sieht dann einfach in seinem Chatverlauf kommt son kleiner, sieht eigentlich aus wie 'n kleiner kleines Betriebssystemfenster, wo einfach nur ein Browser geöffnet ist und man kann wirklich son bisschen in der Zeitleiste sehen, was genau hat denn der Agent da für einen getan? Im Endeffekt hat er jetzt die Möglichkeit, Webinformationen sich selbst zusammenzusuchen, bestimmte Interaktionen zu tätigen und das Ganze mit Reasoning zu verbinden, zu schauen, diese Informationen miteinander zu verbinden und so autonom bestimmte Dinge für einen tun zu können. Man hat dann auch sone Art Scrabbing History, also man kann in dem Browserverlauf sozusagen schauen, okay, was hat der Agent gemacht? Und genau, kann damit einfach, hat dann jetzt die Möglichkeit auch für diejenigen, die jetzt nicht schon irgendwelche Agenten Tools nutzen, Ich denk mal für die große breite Masse hier in dem Fall, das Chatinterface zu nutzen, einen Agenten loszuschicken und bestimmte Dinge zu tun. Ich selbst konnte's jetzt, wie gesagt, leider noch nicht ausprobieren und hab nur Tests bisher davon gesehen, aber sieht auf jeden Fall ganz interessant aus und ich muss auch mal wieder sagen, so Interface haben Sie echt ganz gut hinbekommen. So viel zum ChatGPT Agent. Kommen wir zu Ant Tropic. Ant Tropic hat 2 Dinge getan und das Erste ist, Sie haben das MCP Directory gelauncht. Will, willst Du uns darüber was erzählen?
Philipp
Ja, es ist das, aber es sind halt MCP Server. So mehr oder weniger, man hatte jetzt ja vor 'n paar Monaten schon, dass man jetzt 'n Cloud AI oder auch lokal MCP Server hinzufügen kann. Sie haben ja gestartet mit Asana, Linear Partnern und haben sie jetzt mehr oder weniger 'n 'n Art offizielle Landingpage gemacht oder bessere Integration in Clay. Sie nennen es Directory. Es enthält verschiedene Tabs für Web und Desktop. Das heißt, wenn ich im Web bin, kann ich natürlich nur remote MCP Servers nutzen. Da haben sie eigene entwickelte zu verfügbar, die zum Beispiel Google Kalender oder Google Drive verknüpfen. Aber es gibt auch für Party remote MCP Servers von Centory Canva jetzt mittlerweile Cloudflare, bisschen noch gemixt. Sehr interessant auf jeden Fall. Es gibt interessanterweise Stripes, Square, PayPal, alles 3 Bezahlservices. Genau und Desktop ist vielleicht bisschen interessanter, weil sie auch MCV Server haben, mit macOS zum Beispiel zu interagieren. Also es gibt Messages, Apple Notes, Spotify, also relativ interessant, sag ich mal, oder auch Controllen von Chrome. Genau, einfach 'n bisschen mehr Struktur dahinter. Sie haben auch auf Cloud a I Antropic Punkt com eine Landingpage. Und wenn man als Partner interessiert ist, kann man sozusagen über 'n Googleform mehr oder weniger es ausfüllen und sich dann für diesen App Store in, sag ich mal, bewerben. Und dann kann es sein, dass man hinzugefügt wird.
Fabi
Ich fand auf jeden Fall ganz interessant. Ich hab dann kurz auch 'n bisschen damit rumprobiert und hab mich dann son bisschen grade, Du hast ja grad gemeint, ich hab auch einige selbst entwickelt, wie ich hab jetzt Google Kalender wollte probieren als auch die Chrome Steuerung über meine Mac Applikation und irgendwie war ich zuerst verwundert, ich hab die Ich hab erst mal ausprobiert, bevor ich irgendwie das Announcement genau gelesen hab so und dachte, gut, es ist im Endeffekt ein Repository von verschiedenen MCP Servern und MCP Server, die ich auch grundsätzlich irgendwo anders anbinden könnte, so. Aber es ist ja schon interessant, so diese diese selbst entwickelten, also korrigier mich gerne, wenn Du eine Möglichkeit gefunden, diese MCP Server irgendwo anders zu nutzen, die eine MCP MCP Unterstützung haben. Also beispielsweise, dass der Chrome MCP, der in Chrome steuern sollte, ich wollt ihn beispielsweise mal in Cloud Code einbinden und hab probiert, mir 'n MCP Server hinzuzufügen. Man findet erstens keinerlei Dokumentation dazu. Ich hab dann irgendwo irgendwo im im Source Code oder so was hast Du, ich weiß nicht genau, wie ich draufkam, irgendwo hast Du gefunden, dass es im Endeffekt eigentlich nur eine eine eine JavaScript Applikation ist, die Du mit 'n Node ausführen kannst. Na, probiert mir, das liegt ja irgendwo in deinem Application Support Directory, mir den MCP Server damit händisch irgendwie hinzuzufügen. Hat aber nicht geklappt. Also son bisschen verwundert somit, dadurch, dass ja eher offener Standard ja von Ihnen ist so, warum Sie, also ob's einen technischen Grund gibt, wahrscheinlich nicht, oder einen Marketinggrund, dass Sie die nicht zugreifbar sind, oder die Frage, geht es?
Philipp
Ich glaub, was sehr interessant ist, ist halt, also es gibt ja schon Gmail und Google Kalender und Drive, MCT Server von Antropic, die waren bisher, also Local only, wo man auch son bisschen komplexeres Google API key Token hinzufügen musste. Und soweit ich weiß, sind die ganzen hostet jetzt über Oort, das heißt, Antropic hat mir Oort App in Google Cloud gemacht, das alles freizugeben und so was. Aber ja, ich find auch keine Informationen. Und ich glaub, das ist son bisschen wie
Fabi
Aber Chrome zum Beispiel ist ja, also Chrome hat ja nix mit zu tun. Also Chrome ist ja
Philipp
Ja, nee, aber das ist ja sozusagen, wie Du's benutzt und ich kann mir jetzt stark vorstellen. Das ist 'n einfach nur dahinter, der in 'nem Node Server dann ausgeführt wird. Und Cloud bekommt dann die Inputs. Und es gibt auch Open Source MCP Servers, Chrome zu kontrollieren, aber vielleicht wollten sie einfach 'n bisschen mehr Kontrolle oder wollten auch 'n bisschen Tracking mit einbauen oder andere Dinge? Oder hat 'n Angst, dass wenn sie den Google Chrome MCP Server Open Source, dass Google kommt und sagt so, hey, das wollen wir nicht oder so was? Oder ich mein, 'n Tropic ist jetzt nicht dafür bekannt, dass sie 'n groben großer 'n Open Source Advokant sind. Ich glaub, man muss einfach 'n bisschen abwarten, wohin sich das entwickelt. Ich glaub, wir werden mehr solcher Fälle sehen. Ich bin auch fast sicher, dass ChatGPT bald so. Also ich glaub, wir haben's schon in der Plattform, aber noch nicht in ChatGPT direkt, dass Du remote MCP Server anwenden kannst. Und bei denen wissen wir ja einfach nicht, wie's funktioniert. Das ist halt mehr in diese App Richtung im Sinne von, hey, der App Store ist halt son bisschen standardisiert, dass ich alle Apps installieren kann. Und anstatt halt irgendwie Swift hab ich halt als Kommunikationsprotokoll halt MCP, dass ich das einfach nutzen kann. Aber was da genau dahinter passiert, weiß man ja nicht. Und deswegen ist es ja auch so wichtig, dass wir mehr oder weniger zertifizierte oder autorisierte MCP Servers haben. Nicht, dass irgendeiner sagt so, hey, ich bin jetzt der Google Drive MCP Server, aber eigentlich stell ich alle deine Daten im Hintergrund, weil Du mich jetzt connected hast.
Fabi
Ja. Aber ich mein, im Endeffekt ist es ja auch ein Part davon, deswegen hatt ich zum Beispiel auch Chrome, wollte ich Chrome ausführen, weil ich dachte, na gut, das ist immerhin mal eine Trusted Source irgendwie Antropic mit ihrem MCP, den sie irgendwie bauen. Und hat gedacht, okay, ich hatte zum, weil dann können wir können wir son bisschen auf das nächste Thema eigentlich schon kommen. So, es gibt ja diesen den Artikel von Antropic, die sie son bisschen erzählt haben, wie ihre Teams intern Cloud Code nutzen und das hat mich irgendwie auch noch mal 'n bisschen dazu gebracht, selbst mich noch mal intensiver mit Cloud Code zu beschäftigen. Ich weiß gar nicht, wie viel für wie viel nutzt Du Cloud Code? Denn ja ist das so, dein Nein. Nutzt Du gar nicht? Nee. War nicht
Philipp
so auch Ich bin Germany Sealy tatsächlich ganz viel, was ja eigentlich die Alternative für die Zunge ist.
Fabi
Ja, hab ich zum Beispiel bist Du auch noch nicht ausprobiert. Ich war ja bisher bei den ganzen WS Code irgendwie, Integration beziehungsweise Curcur, damit Klein haben wir uns auch drüber unterhalten, aber ich muss sagen, ich bin jetzt echt, nachdem ich mich jetzt mal son bisschen intensiver mit Cloud Code beschäftigt hab, ist ja echt relativ begeistert. Und das war auch der Punkt, weshalb ich dann probieren wollte, den Chrome Pan gesteuert per MCP anzubinden. Dachte, okay, wenn wenn's das in diesem Repository geht, gibt, dann werde ich es ja irgendwie einen Cloud Code einbinden können, weil es eben da draußen so super viele Alternativen MCP Server gibt, die mir irgendwie Zugang zu irgendwie Puppettier oder Playrite oder sowas geben wollen so und einige haben nicht funktioniert. Also ich fänd's bisher echt relativ schwierig, so ein eine wirklich eine Source zu finden, wo ich sag, okay, der MCP Server, dem trau ich jetzt wirklich, obwohl ich am Ende bei Playrite einen von Microsoft gefunden hab. Und da war nämlich mein Use Case, Cloud Code hab ich jetzt dafür benutzt. Wir müssen ja jedes Mal, wenn diesen Podcast hier vorbereiten, fassen wir unsere Notes hier son bisschen. Wir haben eigentlich über 2 Wochen sammeln wir immer die ganzen Themen und vor dem
Philipp
Wir?
Fabi
Viele davon sammelt der Philipp. Ich, genau, Philipp sammelt sie und ich fasse sie zusammen. So, das könnten wir diese so könnten wir den Prozess beschreiben, so. Ab und zu verwirren sich auch mal Links von uns in diesem Ja. In diesem Channel. Und diese Zusammenfassung, wir war bisher immer relativ händisch und ich hab mit Cloud Code mir jetzt im Endeffekt so eine Integration gebaut aus verschiedenen MCP Servern so, dass einerseits Slack ausliest, ist der erste Step so. Okay, guck dir einfach alle Posts an, die der Philipp da so reingehauen hat und probieren wir mal die Zusammenfassung davon zu schreiben. Irgendwie können wir das an ganz vielen Stellen abbiegen und zwar der eine Part ist, dass Slack übrigens seit 2 Monaten, weil mir da mal aufgefallen, ihre ganzen Applikationen eingeschränkt hat für AI Agenten. Ja, ja.
Philipp
Irgendwie einen request pro Minute oder irgendwie sowas.
Fabi
Im Endeffekt kannst Du sagen, Du kannst es einfach nicht nutzen, weil ich Und es gibt eine einzige Ausnahme, deswegen funktioniert mein MCP Server jetzt gerade. Wenn Du eine Applikation hast, die vor Mai diesen Jahres erstellt wurde, dann hat die noch vollen Zugriff und ich hatte zum Glück irgendeine alte Applikation, die irgendwas tun sollte. Davon hab ich einfach jetzt den Access Token genommen und deswegen kann ich jetzt einfach ganz frei alles aus unserem Channel irgendwie auslesen, so. Aber ansonsten ging's wirklich gar nicht. Also selbst wenn Du's irgendwie, Du konntest dann irgendwie ein request pro Minute und konntest da irgendwie, ich glaub bis zu 50 Threads sozusagen dir durchst, nee, nicht mal Threads, ich glaub 50 Nachrichten oder sowas raus, sondern superwenig, sodass Du's eigentlich vergessen kannst. Aber fand ich einen interessanten Move, dass sie sagen, es ist wohl aufgrund von Security machen sie's so, aber ich bin irgendwie unser, ich glaub, sie wollen ihre eigene AI einfach besser positionieren im Vergleich zu offenen Varianten. Na ja, wie auch immer und da hab ich dann, der nächste Schritt war interessant, da mussten diese ganzen Links ja eigentlich, wir schicken meistens nur Links rein, der Inhalt liegt dann im Link, sollten aufgehoben sein. Oh, okay. Und mit mit Webfetch wurde das Ganze dann gemacht, was auch super funktioniert hat, außer alle x Twitter Posts, weil die ja scheinbar von den, ich hab's jetzt nicht mit Grock probiert als Modell unten drunter.
Philipp
Nee, generell ist da ganz strikt. Kannst Du Du kannst x nicht scrapen.
Fabi
Ja, und da war dann nämlich der Punkt, jetzt kommen wir hin zu diesem Chrome Beispiel. Da dacht ich ja, gut, dann machen wir's halt einfach lokal und hab dann einen erst mal 'n Puppettier und dann einen Playrite MCP einfach angeboten und gesagt, okay, alle Links, die Du nicht öffnen kannst per Webfatch, also nicht crawlen kannst, dann mach halt einfach hier lokal mir im Browser auf und liest dann die Links aus. Muss echt sagen, hat supercool funktioniert, aber ist jetzt auch nicht erst mal unbedingt Cloud Code spezifisch. Aber in diesem Fall war ich verwundert, so dass ich, hey, wenn Antropic doch ihren Chrome MCP hat, warum kann ich die nicht mit Cloud Code nutzen? Ja. Genau, aber zum Deswegen so, ich, nachdem ich mich auch ein bisschen über den Artikel gelesen hab, über den wir jetzt unterhalten, aktuell gerade relativ großer Fan von Claude Code und Sie haben, ich will eigentlich gar nicht so ganz im Detail jetzt irgendwie alles durchgehen, aber Sie haben son bisschen gesagt, so Claude Code nutzen Sie sind son bisschen durchgegangen so. Wie nutzen Sie's im Product Development? In Infrastrukturthemen bei Security Engineering, aber auch so in Ihrem ganzen Modelgenerierungsteam und im Legal Bereich. So, was sind so Ihre Use Cases von Cloud Code und wie setzen Sie es ein? Und ich Wir packen auf jeden Fall mal diesen ganzen Artikel in die Shownotes und unter anderem auch ein Talk, den hatte ich in dem Zuge mir noch mal angeschaut von Boris Tscherny. Das ist 1 von dem Technical Star von den Tropic, der Cloud Code entwickelt hat. Der hat son Talk Mastering Cloud Code in Terty Minutes, wo er auch noch mal son paar Beispiele, wie sozusagen man Cloud Code nutzt, wie man's am besten aufsetzt und bringt noch mal echt 'n paar sehr sehr gute Beispiele dadrin. Er und der Herr hat's auch schon damals son bisschen darüber erzählt, wie sie's denn in den in den Teams nutzen und was für Use Cases es da gibt, so. Und ich glaub, da kann man sich echt viele Dinge von abschauen, so. Also keine Ahnung, wenn Du ins Infrastrukturbereich guckst, eine ihrer Beispiele, so, dass sie Probleme hatten, als ihre Pods irgendwie nicht mehr skaliert sind, so und irgendwie gab's Probleme beim Autoscaling, sodass sie Cloud Code einfach genutzt haben und sie immer wieder Screenshots einfach reinkopiert haben von dem von der Google Cloud Konsole und sich komplett durch navigiert haben, ihre ganzen und ihre Production Problemen einfach nur mithilfe von Cloud Code lösen konnten, weil sie ja im Endeffekt dadurch einfach durch navigiert wurden, wo sie hin klicken. Wundert mich, dass sie da Papiertiere nicht angebunden haben und das einfach automatisch haben machen lassen, sondern das ihr Beispiel war, sie haben immer händisch Screenshots gemacht und drüberkopiert, aber ansonsten sagen sie, dass sie's superviel nutzen beispielsweise für neue Hiers, für neue Hiars, irgendwie überhaupt erst mal zu verstehen, wie genau funktioniert denn ihre Code Infrastruktur? Also ist das 1 ihrer großen Use Cases, einfach mit natürlicher Sprache mit dem Code zu interagieren. Und es ist auf jeden Fall super, super interessantes Tool und ich würde euch einfach mal empfehlen, so gerade wenn ihr mal mit Cloud Code rumprobieren wollt oder gerne auch hier Germany CLI als Counterpart so. Wollen wir nicht eine Werbung für Cloud Code machen. Schau euch mal dieses 30 Minuten Video an und lest mal 'n bisschen in diese, ihre Use Cases rein, wie wie Entropic das Ganze nutzt. Fand ich auf jeden Fall sehr interessant zu lesen.
Philipp
Generell sehr stark, was man da ablesen kann oder vielleicht wirklich mitnehmen. Also ich bin auch 'n großer Fan von den Tools geworden, weil Du halt 'n bisschen, musst nicht was extra installieren im Sinne von Posten, Setup, Remote Server, Webseite posten oder irgendwie sonst was, sondern Du startest einfach es im Terminal. Und Du kannst es für ganz, ganz viele Dinge einfach nutzen, wo Du eigentlich gar nicht denkst, die können das. Also ich mein ja, das mit oder alle anderen Dinge ist son bisschen, ich kann da auch selber nachschauen. Und wenn ich irgendwie, keine Ahnung, viel mit macht, dann find ich das wahrscheinlich auch irgendwie selber schnell raus. Aber wenn ich's halt einfach reinprompte oder einfach sag, hey, hier sind die Logs oder ich hab 'n MCP, der da irgendwie reinschaut und das son bisschen kombinieren kann, dann ist es halt sehr, sehr, sehr viel. Und ich glaub, was am ehesten da rausgeht, ist halt so, durch die komplette Organisation weg hindurch sind sie und versuchen möglichst für alles, wo sie Hilfe sehen oder Produktivitätgewinnung können, einfach Clay zu nutzen. Und ich glaub, das Interessanteste daraus ist, dass Clay Code als Terminal auch für IT Leute zugänglich war.
Fabi
Ja. Das ist auch so, weil Ihre Beispiele waren zwar grade auch im Finance Bereich, wenn Sie irgendwelche Analysen hatten und so was, was Sie im Finance Team gezeigt haben, okay, wie können Sie denn bestimmte Automatisierungen in Cloud Code als Input geben? So, also wie machen Sie so Draftfiles, die Sie als Input geben für Cloud Code und damit komplette Automatisierung für Ihre Finanzanalyseprozesse bekommen, wo sie am Ende, keine Ahnung, in einen Excelfil rausgeworfen wird oder so? Genau. Was super interessant war und in diesem 30 Minuten Talk auch son bisschen wurd sich auch noch mal drüber unterhalten. Da gab's auch die Frage ausm Publikum so, hey, warum habt ihr euch denn eigentlich überhaupt für eine CLI entschieden und nicht für eine ID ISO? Und eine Antwort, die ich auf jeden Fall voll unterstützen würde, warum ich auch jetzt sage, würd auch wieder aufn CLI Tool umsteigen, ist halt erst mal, dass Sie halt grundsätzlich IDI agnostisch sind und grade auch in Ihrer, also es wurde ja erst mal auch für aus intern heraus geschrieben so, dass auch im in der Firma selbst nicht eine standardisierte IDI gibt so, sondern jeder Nutzer hat die IDI, die er da braucht und CLI ist sozusagen agnostisch über die IDIs entdeckt. Das ist auch was, was ich jetzt grade gemerkt hab, ne. Ich war ja großer Fan auch von klein, was ich in CursA benutzt habe. Mittlerweile, dadurch, dass wir auch unsere Entwicklung auf YouTube umgestellt haben, nutze ich gar nicht mehr so viel CursA, sondern bin jetzt auch wieder im IntelliJ Universum unterwegs und da ist dann halt so, hey, so die AI Star finde ich so, na ja, und Cloud Code ist auf jeden Fall einfach, was ich komplett agnostisch überall nutzen kann, Ja. Egal, wo ich irgendwie bin und irgendwie wirkt wieder mehr wie einen allgemeiner Agent, der mich unterstützen kann.
Philipp
Ja, zum anderen, was ich auch gesehen hab, ist, dass sie halt gesagt haben, hey, die Modelle verbessern sich so schnell oder welche Tools sie nutzen können. Du kommst gar nicht hinterher, wenn Du eine IDI baust, weil Du immer mehr oder weniger am Versuchen bist, am einzuholen oder die User Experience zu erreichen. Und ganz vieles selbst wirklich, Du hast da diese Server reingeknallt, schreibst da mal rein, ja, hey, hier ist die Zusammenfassung, bitte besuch jede Website oder sonst was. Das dafür brauchst Du ja keine IDI und das ist da ganz, ganz, ganz viel mehr. Wobei ich halt noch dazu sagen muss, ich code noch einiges mehr wahrscheinlich wie Du in Cursor, diese wenn man selber Code schreibt, ist schon. Also ich würd, nee, also ich könnt nicht nur mit 'ner Silay arbeiten, weil ich einfach viel noch selber in Codefiles bin und einfach diese Mustererkennung oder Blog Posts abschreiben oder Dokumentationen updaten und so was. Da hat man doch schon sehr viel von diesem, tapp, tapp, tapp.
Fabi
Ja, auf jeden Fall. Ich mein, aber das ja auch Also zum Beispiel mein mein Workflow vorher aber war zum Beispiel dadurch, dass ich also Rider, das hat sie zum Beispiel die Intelliter ID, die ich da jetzt gerade dafür nutze, ist es so, die haben ja trotzdem Copilot Chat und irgendwie irgendwie ihre eigene AI Integration. Ich muss sagen, da ist halt so den Copilot finde ich für die Tab Autocompletion, ist fein, aber so sobald ich halt eigentlich wirklich mit Chat komplexere Dinge irgendwie tun wollte, so, da war's am Ende so, dass ich echt immer 2 IDs aufmachte, obwohl Curse eine schlechtere C-Shop Unterstützung hat, weil ich einfach entweder entweder wirklich den Curse Chat oder oder klein nutzen wollte, so. Und das war halt so, der Workflow war halt Banane dafür, dass ich eigentlich nur sagen wollte, ich will eigentlich einen guten Agent haben, der eben komplexere Tas übernehmen kann. Und da find ich's halt ganz schön, wenn Du irgend eine ID bist, komplexere Tas in clayd code, aber natürlich lasse ich ja nicht clayd code jede kleinste Zeile Code, irgendwie jede kleinste Funktion, die ich irgendwie machen will oder Auto Completion so selbst schreiben lassen so, sondern da ist natürlich ganz klare Trennung, welche Tasks ich dann in Cloud Code mache und wo ich irgendwie die AI Unterstützung der IDI nutze. Und da würd ich ja schon sagen, grade der Agent, da ist mir schon wichtig, wie ich ihn konfiguriert hab, wie ich damit interagiere und bei komplexeren Haars macht's für mich schon unterschiedlich. Ich find bei der Tab Autocomplicion klar, find ich Cursor besser, wie sie's machen und so, aber da kann ich schon mit dem Co Piloten arbeiten. Das ist schon ist schon in Ordnung. Aber das weiß ich noch sagen, weil Du hast ja gemeint, also der der der Punkt war einerseits IDE Agnostisch dann, dass man mit der UI, also ist einfach viel Arbeit bei 'ner IDE drumrum, von dem eigentlichen Use Case, den sie bauen wollen. Der dritte Punkt war, den er genannt hatte, war dann noch, ja ihr Take ist Sie glauben, dass man am Ende des Jahres kein sozusagen der Development Flow, dass es sogar keine IDIs mehr braucht. So Sie glauben IDIs sind nicht mehr Ja. Also ich fand's auf jeden Fall nur sehr interessant so, dass Sie da gesagt haben, so IDIs wirst Du dann ja gar nicht mehr brauchen. Abwarten. Ja. Ja, auf jeden Fall. Also ich unterschreib den Part auch nicht, aber fand ich interessant, dass er das so auch als eine mögliche Antwort genannt hat. Dann lasst doch den Abschluss noch kurz machen bei unserer sehr kurzen News vorgefundene 47 Minuten zu Google w-o-drei Videogeneration Tipps, die Du gepostet hast.
Philipp
Ja, genau. Also ich mein, das w-o-drei können wir alles schon, ist seit Google I o. Das Interessante, glaub ich, ist einfach, dass sie jetzt in der Geminar API zur Verfügung ist. Das heißt, in der AI Studio. Das heißt, man kann via API Videos generieren, kostet 75 Cent pro Sekunde. Und was ich einfach gemacht hab, ist son bisschen, also ich bin jetzt nicht der supergute Prompter, was Images und Videos angeht, aber man kann relativ nutzen, Videoproms zu erstellen. Oder zum Beispiel, ich hab auch 'n Skript erstellt, welches mehr oder weniger wie sone Art Ich schreib erst eine Szene mit 'ner verschiedenen Anzahl an Clips. Das, keine Ahnung, irgendwie Man kennt bestimmt diese typischen Jedi Vlogs von Social Media, wo halt 'n Yeti irgendwelche verschiedene Dinge macht. Mhm. Dass ich halt erst Germany hab, dass mehr oder weniger mit sonem gewisse Konsistenant sie diese verschiedene Szene erstellen und dann man pro Video pro Szene 'n Video generiert. Funktioniert relativ easy, muss ich sagen, macht auch sehr viel Spaß, klar. Ist 'n bisschen teuer aktuell noch, aber wenn ihr irgendwie 'n paar freie Euros habt, dann gerne mal reinschauen und testen. Ist auf jeden Fall immer wieder verrückt zu sehen, wenn dann Videos existieren, wo gesprochen wird. Ich glaub, der letzte aktuelle Trend ist die Home Security, Homecams irgendwie im Garten, die seh ich zumindest immer, die son bisschen bei Nacht sind, wo dann plötzlich, weiß nicht, 'n Känguruh aufn Trampolin springt oder eine eine Bande von Eidechsen, nicht Eidechsen.
Fabi
Eichhörnchen? Nee.
Philipp
Nee, wie hast 'n denn die anderen gestreiften Tierchen? Waschbären. Genau, eine Bande von Waschbären irgendwie was macht im Garten und so was, wo dann man halt sich die Kommentare anschaut und 90 Prozent denken, oh mein Gott, was passiert da? Das sieht so real aus. Und man weiß halt ganz genau, okay, das halt irgendwie mit Bio oder so generiert. Ja. Genau.
Fabi
Ja, cool. Ich muss noch sagen, Bio hab ich bisher, also
Philipp
Dennis hat, glaub ich, bei euch getestet jetzt letzte Woche für euren.
Fabi
Ja, also Dennis hat's son bisschen verbündet. Ich glaub, wir wollen auch, also wir machen auch diese Woche bei uns son bisschen AI Week, alle, also alle haben einfach nur mal eine Woche Zeit so. Es machen ja viele bei uns so, aber nicht nicht jeder in der Company sich komplett nur mal damit zu beschäftigen, wo wo stehen wir denn da? Was was können wir da alles tun? Ich glaub, ein Part, den wir auch da noch mal 'n bisschen machen wollen, ist son bisschen UA Videos, also User Acquisition Videos zu generieren und da 'n automatisierten Flow irgendwie 'n bisschen zu machen. Da da sind jetzt, glaub ich, auch 'n paar dran. Also WO 3, das machen schon 'n paar bei uns in der Firma, ne, grade die, die im Marketing UA Bereich sind, die nutzen auf jeden Fall und andere Modelle, Videos zu generieren. Aber ich selbst hab's noch nicht, also außer viel davon schon konsumiert, aber erstellt hab ich noch keine. Aber vielleicht ist das jetzt mal 'n guter Ansatz jetzt die Woche, dass ich mir auch noch mal anschaue, was Du da gemacht hast und das mal als Grundlage nehmen, mal 'n bisschen auszuprobieren.
Philipp
Irgendjemand muss ja mein Essen zahlen.
Fabi
Genau, das mach ich natürlich gerne, wenn Du sie einfach freier trockenmäßig raus haust so, dann zahl ich dir das 'n bisschen. Cool, Philipp, vielen Dank, dass Du dabei warst. Euch wie immer vielen Dank fürs Zuhören und wir hören uns in 2 Wochen wieder. Macht's gut.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos
Feedback