News AI 19/25 –
LlamaCon // OpenAI Shopping // Claude Integrations
07.05.2025
- // Podcast
- // News AI 19/25
Shownotes
Meta hat auf ihrer LlamaCon neue Entwicklungen rund um LLaMA vorgestellt – auch wenn die Erwartungen teilweise nicht erfüllt wurden.
OpenAI steigt in den E-Commerce-Markt ein und bietet personalisierte Shopping-Ergebnisse direkt aus ChatGPT heraus an. Passend dazu kündigen Visa und Mastercard die Einführung „AI Ready“ Kreditkarten an, mit denen KI-Agenten künftig den gesamten Bezahlprozess übernehmen können.
Weitere spannende Updates:
-
NotebookLM unterstützt jetzt 50 Sprachen.
-
Amazon veröffentlicht sein neues Sprachmodell Nova.
-
Gemini 2.5 Pro wird zum ersten LLM, das ein Pokémon-Champion ist.
Und es gibt neue Modelle zu entdecken:
-
Microsoft Reasoning: Phi-4-mini-reasoning
/transkript/programmierbar/news-ai-19-25-llamacon-openai-shopping-claude-integrations
- Fabi
- Hallo und herzlich willkommen zu 1 weiteren Folge der programmier.bar AI News in der Kalenderwoche 19 2025. Ich bin back im Game der Fabi und bei mir ist wie immer der Philipp. Hi Philipp.
- Philipp
- Hallo.
- Fabi
- Gefühlt wurde ich schon ein paarmal wieder willkommen geheißen in der Programmier, in der AI News, jetzt bisher noch nicht. Philipp und ich haben zwar schon einen AI Related Podcast aufgenommen, der kommt aber erst nächste Woche Dienstag raus zu MCP. Wird doch schon heute in der Folge noch das ein oder andere Mal referenziert, das ganze Thema MCP. Von daher hört nächste Woche Dienstag rein. Und hier die AI News mit einigen an Themen, die Lamakon Bar, Updates zu Notebook LM, Amazon hat ein AI Model mit Nova rausgebracht. Open AI hat mal wieder 'n paar Themen. Es gibt Bezahlungsdienstleister, die jetzt in myIs und der Weg gesehen mit Visa und Mastercard. Und grade hat Integrations rausgebracht, da werden wir das Thema MCP mal wieder aufnehmen. Und ansonsten ein paar Updates zu Modellen wie Gwen oder einen neuen Model von Microsoft. Lass uns doch mal anfangen, Philipp, mit der Lamakon Meta. Was gab's da Neues?
- Philipp
- Ja, es gab gar nicht so viel Neues, muss man ehrlicherweise sagen. Also man hatte ja Anfang von April hat ja randomly, sag ich mal, an 'nem Samstag Meta Lama 4 released, was son bisschen unter den Erwartungen war, sag ich mal, von der Community und auch verschiedenen Modellgrößen war ja 'n bisschen anders und neuer. Und alle haben gehofft, dass, okay, Ende April, Lamacon, vielleicht kommt da das große. Mark Zuckerberg hat ja in 'nem kurzen Video angekündigt, dass es Lama 4 geben wird und dieses große BMoff Modell und vielleicht noch kleinere Modelle. Aber es war relativ ruhig, sag ich mal. Also sie haben zwar ein neues Modell released, und zwar 'n neues Lama Guard Modell, welches das Safety- und Guardrails Modell ist, was man nutzen kann, sozusagen Prompts oder Outputs zu checken, ob die, sag ich mal, harmvoll sind. Mhm. Sie haben eine neue Meta AI Standalone iOS- und Android App vorgestellt, so ähnlich wie, sag ich mal, ChatGPT oder wie Gemini, dass man halt einfach mit den mit Meta AI interagieren kann, was man bisher schon im Browser konnte. Und was vielleicht 'n bisschen neu dabei ist, dass dieses ein Social Feed geben soll, welche Nutzer oder indem Nutzer teilen können, was sie mit der AI geschrieben haben oder Bilder generiert haben oder anderes, bin ich mal gespannt. Also definitiv 'n Social Aber
- Fabi
- ob's auch Einzug halten wird in in andere LLM Anbieter oder
- Philipp
- Ich mein, Open Air hat ja auch irgendwie gesagt, sie wollen 'n Social Network machen, deswegen mal mal abwarten. Dann ist wahrscheinlich das Interessanteste für alle Entwickler, sie haben Lama API vorgestellt, was mehr oder weniger son bisschen 'n AI Studio oder 'n OpenAI Plattform Competitor ist. Sie arbeiten mit Krog und Serebras zusammen, Lama Modelle zu hosten. Und für die, die Krog oder Serebras nicht kennen, das sind AI Start ups, die spezielle Hardware machen für Inference. Also es, die nutzen keine GPUs, sondern die Hardware von Krog und Serebras und die sind dafür bekannt, dass sie sehr, sehr schnell sind. Also ich glaub, Mysteral AI nutzt auch Serebras und Crogun sichert auch eine eigene API, wo Lama mit, ich glaub, 8 b mit mehreren 1000 Tokens pro Sekunde ist. Also das ist, sag ich mal, 'n großer Unterschied Verhältnis zu den anderen. Soll eine Developer Plattform sein mit One Click API Key Generierung. Man hat 'n interaktiven. Es soll auch eine eigene Lightway SDK geben für Python und Java, sozusagen die Brite aufrufen zu können. Es soll aber auch kompatibel mit der Open AI SDK sein. Es gibt keine Details. Man soll fine tunen können, aber bisher irgendwie nur Lama 3 Punkt 3 8 b. Und Zugang ist hinter 'ner Whitelist oder Whitelist. Das heißt, ich hab mich mal drauf geschrieben, mal schauen, ob ich Zugang bekomm oder nicht. Und genau, und sie haben halt immer noch weiterhin bisschen angeteasert, dass Lama 4 kommen soll und bessere Modelle und ja.
- Fabi
- Und weißt Du, zu der Standalone App ist die, ist die jetzt schon überhaupt verfügbar? Wenn ja, überhaupt in der EU in der EU?
- Philipp
- Also ich würd mal von, falls sie verfügbar ist, nicht von der EU ausgehen. Lama hat ja weiterhin noch ihre EU Restriktionen auch für Lama 4 beziehungsweise für alle Multimodalmodelle. Wenn ich jetzt auf Meta Punkt EIG com, doch kann ich chatten.
- Fabi
- Zumindest ja auch die MetaA EIIII benutzt hast, gibt's ja auch mittlerweile in Whatsapp. Janusz hast Du, hast Du die schon mal getroffen?
- Philipp
- Nee, ja, ja, ja. Auch aufzudrücken? Nee, nee, ich hab auch in Instagram und überall ist hier auch, ich hab noch, ja, ich wünschte, man könnte den Button irgendwie ausblenden. Ja, auf jeden Fall.
- Fabi
- Aber grad in meinem Whatsapp will ich irgendwie die MetaAI eigentlich haben.
- Philipp
- Und doch, man kann sie runterladen. Also ich kann in meinem Iwe App stalker nicht, seh ich Meta AI und kann auf jeden Fall auf laden drücken.
- Fabi
- Ja, dann würd ich sagen, probieren wir's mal aus bis zum nächsten Mal. Probiert ihr's auch gerne mal aus und
- Philipp
- sag uns mal, was Aber vielleicht noch vorsichtig, weil ich hab grad mal 'n bisschen reingeschaut. Da steht unter Beschreibung, verwalte deine Rainbow oder deine Rainbow Brille. Und das war ehemals unter Meta View veröffentlicht. Also Sie haben gar keine neue App gemacht, so wie das aussieht für den App Store, also Ja.
- Fabi
- Steht auch in der Beschreibung steht da drin mit der Meta View App, also
- Philipp
- Ja und Meta AI ist nur in den USA und Kader verfügbar. Das heißt, man, es gibt zwar die App, aber man kann nichts nutzen.
- Fabi
- Ah, es ist aber sozusagen auch einen zusammen mit der für die Meta Ray Ban. Genau. So, dass es ein eine ein und dieselbe App ist. Ja, cool. Also cool oder auch nicht so cool. Mal schauen, je nachdem, wie man's sieht. Auf jeden Fall hat man da 'n bisschen mehr an Updates erwartet.
- Philipp
- Ja, ich glaub, dass das wirklich, was das Neue war, ist so bis vor Kurzem hat Meta immer gesagt, sie wollen nicht Modelle hosten und im API Business sein. Jetzt sind sie plötzlich im API Business und hosten Modelle. Und man dachte eigentlich, es werden neue Modelle vorgestellt, aber wurden keine neue Modelle vorgestellt. Deswegen bleibt's ein bisschen abzuwarten, was da kommt und dann wie gut, sage ich mal, die neuen Modelle werden. Und ich bin mir sicher, dass sie sehr viel Zeit und vor allem im Comput investieren, dass da was rauskommt.
- Fabi
- Ja, eigentlich am Geld, was investieren sollte, ist auf jeden Fall nicht scheitern. Von daher wär's ja schade, wenn jetzt demnächst nichts Ja. Nichts kommt an Meta. Vielleicht werden wir gerade Competereton, Du hast OpenAI zu genannt, dass Sie vielleicht auch ein Social Network bauen wollen. Gefühlt sind Sie ja in vielen Bereichen unterwegs. Vielleicht deswegen lass uns zum OpenAI Thema springen. 2 Themen, haben wir ein kleines und zwar, dass es jetzt eine Lightwait Deep Research Variante gibt, also Deep Research, ja, dass die die Art, die das LLM zu prompten, das relativ lang dauert und viel Riesending hinten dran steckt von dem Modell, was ja relativ limitiert ist, je nachdem, was man für einen Pricing Plan hat. Also man hat im im Free Bereich bei Deep Research 5 Anfragen pro Monat, plus und Team 10 pro Monat und pro 125. Und jetzt fügen Sie die Lightwait Version hinzu, sodass nachdem man die die normalen Tass aufgebraucht braucht hat, wird die Lightway Variante genutzt, die ein anderes Modell nutzt, aber auch nicht insgesamt gar nicht ganz so computerintensiv ist. So viel haben sie zu den Details gar nicht geteilt. Und genau würde dann Fallbänken, sobald man seine Tasks aufgebraucht hat, braucht hat. Und ich hab auch grad gemerkt, ich hab Quatsch erzählt, was das Free angeht. Free hat nur die Variante mit 5 Tasks pro Monat und plus hatte, wie gesagt, beispielsweise 10 mit dem normalen Deep Research und die Variante kriegt man dann noch 15 weitere pro Monat hinzugefügt. Genau, die haben jetzt Release, ich hab's selbst noch nicht ausprobiert, ich bin gar nicht so viel Du machst ab und zu was mit Deep Research, ne?
- Philipp
- Ich Ja.
- Fabi
- Ich brauch meistens meine Tasks gar nicht auf. Ich werd nicht das so die Lightwait schon ausprobiert?
- Philipp
- Nee.
- Fabi
- Von daher, man muss ein paar machen pro Monat. Also mal schauen, ob 1 von uns reinläuft bis zum nächsten Mal, aber zumindest klingt's ganz interessant, aber selbst noch nicht ausprobiert. Und das andere, weil ich ja meinte, OpenAI ist in vielen Bereichen mit unterwegs, und zwar jetzt sind sie ins Shopping gegangen, sodass bei in der Open im OpenAI Interface, wenn man beispielsweise anfrage, ich glaub, die Beispiele, die OpenAI selbst in ihrem Blogpost nannten waren, gib mir doch mal eine Empfehlung für eine Kaffeemaschine, für die beste Kaffeemaschine unter 200 Dollar. Und man hat eine direkte Shopping Experience, die erst mal son bisschen an Google Produkte auch erinnert, die man in der Search angezeigt bekommt. Also eine Auswahl von Produkten, die auch im Endeffekt also den Alternativen dargestellt sind. Man kann in eine Detailansicht gehen, wo man dann die verschiedenen Anbieter findet, wo man's kaufen kann. Und son paar UI Tweets, wo man bestimmte Nachfragen zu einem Artikel stellen kann, als wenn man Harvard über einen Artikel direkt sagen kann, okay, nimm doch mal das als Kontext, dazu möcht ich gerne Frage stellen oder bestimmte Produkte vergleichen möchte. Also eine Shopping Experience direkt in der im LLM Chatinterface zu haben. Und ich glaube, Sam OpenA hat auch gesagt, son bisschen was Monetarisierung angeht, Sie haben ja immer mal gesagt, Werbung sehen Sie nicht irgendwie in den Chatinterfaces, aber Sie können sich beispielsweise vorstellen, dass es wie sone Art Affiliate Teil an OpenAI geht, wenn über ChatGPT ein Produkt gekauft wird, was ja auf jeden Fall schon mal relativ interessant ist. So, das heißt Werbung, die man dann wahrscheinlich dort schalten kann, dass man höher gerankt wird in irgendwelchen Suchergebnissen und dafür einen kleinen Affiliate Teil abgibt. Bin ich mal gespannt, wie das, wenn das wirklich kommen sollte, so 'n bisschen vielleicht auch den den E-Commerce Werbeanteil von Google hin zu OpenAI shiften sollte. Aber wie gesagt, bisher gibt es alles noch nicht. Bisher gibt es erst mal nur als Testballon. Ich hab's bisher, also es soll jetzt seit Montag ausgerollt werden. Sie schreiben eigentlich auch global, auch sowohl für Free- als auch Pro User. Ich hab jetzt mehrere Anfragen getätigt. Ich hab die UI bisher nicht bekommen, das heißt, ich kenn's nur aus YouTube Videos oder irgendwelchen Artikeln. Dann ich Philipp, ob Du's schon mal willkommen aus dieser Shopping Variante, aber sieht erst mal ganz interessant aus. Mal schauen, was das macht. Und in dem Zuge, vielleicht passt's auch gut dazu, ich hatte ja vorhin schon gemeint, dass die PIM Provider Visa und Mastercard auch in den in den AI Space gehen, beide relativ gleichzeitig mit 'ner Art, nennen wir's jetzt mal Payment Plattform. Also Visa Visa schreibt, dass sie Unterschied ist erst mal son bisschen, mit wem sie zusammenarbeiten. Also Visa ist relativ breit aufgestellt mit irgendwie IBM, Microsoft und dann dann den typischen, die man kennt, OpenAI, Perplexity, wobei Mastercard eigentlich nur von Microsoft spricht. Weiß nicht, ob damit dann auch indirekt irgendwie Open AI gemeint ist
- Philipp
- so,
- Fabi
- zumindestens schreiben sie's nicht explizit in ihrem Artikel. Aber das, was bei beiden eigentlich gleich ist, ist so der Part, okay, wie wie wollen sie's denn oder was genau ist denn, steckt dann technisch hinten dran? Auch wenn sie nicht genau beschreiben, was es ist, sprechen sie, Visa beschreibt ziemlich ganz gut von AI, sodass man nicht mehr irgendwelche Card Details im im Checkout Prozess angeben muss, sondern dass sie sogenannte token heißt digital Credentials haben, die man wahrscheinlich irgendwo hinterlegen kann und wahrscheinlich in seinem jeweiligen LLM Anbieter hinterlegen kann. Also sie diese diese ganzen Tokenize Digital Credentials funktionieren auch nur für verifizierte Partner, die dann in dem Fall bei bei Visa, OpenAI oder perplexic oder ähnliche wären, wo man dann seine wahrscheinlich seine Token hinterlegen kann, somit wie Art digitale Kreditkarten, mit der in mit den die AIs nutzen können, hinterlegen kann, sodass das erst mal technisch die Grundlage dafür bietet, dass eine AI rein theoretisch autonom Käufer für einen tätigen kann. Aber natürlich schreiben sie auch, es sind, also dass man selbst bestimmte Bedingungen setzen kann, dieser Karten setzen kann und wahrscheinlich die ganzen Interface auch so gebaut werden, dass jetzt nicht ein Kauf getätigt wird ohne eine finale Bestätigung, aber es schafft erst mal die grundsätzliche technische Grundlage dafür, dass so in sonem Prozess eine AI auch automatisch ein Payment durchführen könnte. Was natürlich mit der News zusammen Open AI geht, im Shoppingbereich sehr interessante Neuerungen sind.
- Philipp
- Also ich hab's mal kurz getestet. Wenn man einfach sucht nach oder tippt, hey, ich brauche weiße Schuhe und dann fragt's, okay, was für weiße Schuhe? Dann hab ich halt gesagt, Männer Nike, da hab ich dann eine Auswahl bekommen und konnte auch 1 anwählen und an der Seite auf klicken. Hab Rezession von Amazon, Reddit, anderen Seiten. Und wenn ich auf den Button geh, komm ich dann auf die die jeweilige Seite, wo ich's kaufen kann.
- Fabi
- Und das hast Du jetzt in der App bekommen? Ich hab bisher nur Browser probiert oder wo hast Du Ja,
- Philipp
- ja, wir
- Fabi
- haben jetzt
- Philipp
- 'n Browser einfach getestet.
- Fabi
- Okay, weil dann bin bist Du vielleicht schon freigeschaltet. Ich hab jetzt heut mal mehr
- Philipp
- Ich bin nicht mal eingeloggt.
- Fabi
- Nicht mal eingeloggt?
- Philipp
- Nee.
- Fabi
- Recht. Ich hab, also ich hab probiert, ich hab das Kaffeemaschinenbeispiel probiert, was ich haben wollte. Da wurden mir aber immer nur irgendwelche Links einfach vorgeschlagen. Also es war einfach nur eine normale Websuche und ich
- Philipp
- hab Weißt Du, hast Du auf Deutsch gemacht?
- Fabi
- Nee, auf Englisch. Also ich hab auf Englisch gesprochen, danach hab ich nach nach gesucht, aber es war immer nur, ich hab auch die die angeklickt. Ich hab mir son paar Youtube Videos angeguckt, die haben dann immer, also mussten's über die Web Search aktivieren. Nö. Nee, ich
- Philipp
- hab einfach einfach gesagt und dann so, ey, bla bla bla, was für weiße Schuhe? Dann hab ich gesagt, und dann und dann hab ich die bekommen.
- Fabi
- Das war bestimmt bestimmt gehen einfach nur weiße Nike Schuhe. Das ist das Einzige, was man suchen kann. Das wahrscheinlich der Trick von mir ist einfach,
- Philipp
- ich mein, was für andere Schuhe werden heutzutage gekauft?
- Fabi
- Ja, eben. Also ja, ich krieg schon direkt, ich krieg schon, wenn ich nach White Shoes frage, kriege ich direkt schon links von Zalando, so, aber keiner diese Shoppings führen. Ich, keine Ahnung, ich seh sie nicht. Mal schauen. Vielleicht sollte ich gleich noch mal in 'nem in Ja, ich
- Philipp
- hab mal weiter gefragt und oder halt noch eine Frage gestellt. Und dann mal schauen, nee, kommt wieder. Ich hab jetzt schwarze Schuhe.
- Fabi
- Ja, dann viel Spaß beim Shopping. Aber Du hast wohl noch keine Digital AI Credit Card und gehst also jetzt noch auf die Merchance Website, ja? Also der der Ja, ja, genau. Das ist ja wahrscheinlich am Ende das Ziel, ne? Du gehst jetzt aktuell auf die Website und wer am Ende die AI komplett kaufen kann, wär ja wahrscheinlich sogar die Idee, ich gehe gar nicht über über die Website selbst.
- Philipp
- Genau. Was halt auf jeden Fall interessant ist, ist halt man, wenn ich das grad mal so seh, die Seiten, es ist wirklich divers. Also ich hab von, Zalando, also ganz viele verschiedene. Und halt nicht dieses, keine Ahnung, ich geh halt auf Zalando und fang an, nach Schuhen zu suchen, weil's halt der größte Store ist. Also definitiv mehr wahrscheinlich auf lange Sicht oder auch Otto seh ich hier zum Beispiel an Amazon. Und ich glaub, dieses Affiliate gibt's ja eigentlich heutzutage schon. Also es gibt ja, ich glaub, oder so hieß es, wo die dann über Cookies das machen. Und ich mein, wenn Du 'n Link hast, dann kannst Du auch bei Amazon bei anderen bei anderen mitschicken. Und ey, wenn man 100000000 Nutzer hat und ein Prozent pro Monat was kauft, dann ist das schon einiges, sag ich mal.
- Fabi
- Ja. Ich mein, beim normalen, trotzdem muss das ja auf, also diese Affiliate Links und so, das sind die dann von wirklich, sagen wir mal, irgendwelche Influencern und sowas, die diese Affiliate Links nutzen. So, ne. Und ich meine, OpenAI würde ich ja schon erst mal mit mit normalem Google Search Traffic vergleichen. Und ich halt, Google hat der, könnte ja auch sagen, okay, alles, was über mich kommt, ich mach Google macht, es gibt den Google Affiliate Link und jeder muss irgendwie, was über die Google Search kommt, ein Prozent abgeben. Das entspricht ja auch nicht die Realität. Also ich würde, wenn am Ende OpenAir wirklich probieren will, bei jedem Produkt, sagen wir mal, ein Prozent abzuknapsen. Also was ich auf jeden
- Philipp
- Fall weiß oder gesehen hab, ist, wenn man da aufn Link anklickt, Sie fügen einen Parameter in der URL hinzu mit UTM Source Chat GPT.com. Also der Service Provider bekommt auf jeden Fall mit, wenn Leute von Chat GPT sozusagen kommen, sage ich mal. Und Open Air kommt bekommt natürlich auch mit, wenn Leute auf den Link klicken, das werden die auch safe tracken. Und dann kann ich mir vorstellen, dass die wahrscheinlich nach und nach zu den Leuten gehen, wo halt viel Traffic entsteht. Und ich meine ja, Google könnte das auch sagen, aber ich mein, bisher gab's ja immer keinen Grund von den Verkäufern, weil es gab ja keine Alternative. Also so, ja, nee, ich zahl das dir nicht. So, okay, ja, so. Ach so, mal schauen.
- Fabi
- Genau, aber Google macht's ja auch an. Es gibt ja eigentlich auch keine Alternative. Also Google
- Philipp
- ja ja
- Fabi
- auch tun können wie OpenAI. Also ich glaube, solang der Flow bleibt, ich gehe auf die Webseite und mache den Kauf da, glaube ich, wird sich nicht viel dran verändern. Ich glaube, wenn muss OpenAI es schaffen, dass sie diejenigen sind, über die der Bezahlprozess auch wirklich läuft, weißt Du? Wenn der Kauf wirklich über OpenAI am Ende getätigt wird, dann haben sie, glaube ich, 'n anderen Leverage so. Dann können sie sagen so, hey, okay, der ganze Flow ist bei uns so.
- Philipp
- Oder Du kommst halt in den Bereich von, hey, wenn Du 'n Partner bist von OpenAI, wirst Du eher vorgeschlagen, als wenn Du kein Partner bist und wenn Du dann halt 1000000 potenzielle Kunden hast und nicht mehr vorgeschlagen wirst und
- Fabi
- genau, deswegen ich ich hätte sehr diese Affiliate Ding auch eher, was ich vorhin meinte, wie halt Werbung, die ich auf der Plattform mache, ne? Dass Du irgendwie sagen kannst, okay, in den und den Bereichen möchte ich, wenn's halt nach keine Ahnung Espressomaschine, beste Espressomaschine unter 200 Dollar, wenn Du da weit oben drin sein willst, dann gibt's natürlich 'n Teil des Umsatz so. Aber ich bin mal gespannt. Also wie gesagt, mit Visa und Mastercard und den Integrationen könnte ich mir schon vorstellen, dass es, also dass Sie 'n ganz anderen Leverage haben, wenn Sie der Bezahlprovider einfach sind. Weil dann können Sie auch einfach überall sagen, gut, wir machen die Bezahlung so, wir nehmen die ein Prozent davon ab, wie Visa Mastercard sie im Endeffekt auch tut, so. Da könnte ja auch nichts dagegen tun. Dadurch ist die Zahlung darüber läuft, sobald OpenAI da im Sattel ist, ist es, glaube ich, etwas ganz anderes, aber da muss es halt erst mal sein, dass auch die Webseiten die Integration dafür bauen, OpenAI den kompletten Bezahlprozess irgendwie abschließen kann, außer sie machen's irgendwie komplett automatisiert übers LLM. Also interessant, was da noch kommt. So wenn da wenn OpenAI oder andere Anbieter sich da wirklich den kompletten Bezahlprozess krallen, kann ich interessant werden.
- Philipp
- Ich find's auf jeden Fall cool. Und ich glaub son bisschen, weil man kennt's ja, wenn man 'nem Onlineshopping macht. Also ich weiß nicht, ich kaufe halt meine Sachen auf Amazon oder vielleicht Zalando oder anderen Seiten. Ich investier jetzt nicht so viel Zeit und schau mir Alternativen an für Produkte, die es mit Sicherheit auch gibt. Und wenn, sag ich mal, Open AI darüber das eher abstrahiert und einfacher macht, dann kaufe ich vielleicht auch bald meine Sachen mehr bei Otto oder auf anderen Seiten als nur bei Amazon. Also es ist auf jeden Fall eine eine eine interessante Entwicklung.
- Fabi
- Ja. Ja, definitiv. Zumindest, wenn man auch keine Useraccounts auf den Seiten und so was mehr braucht, alles im Endeffekt so einfach wird, wie wenn ich bei Amazon bestelle. Ganz interessant werden, dann differenziert Du wirklich nur noch darüber, welche Produkte bieten die jeweilige Anbieter an. Da ist Amazon halt weiterhin breit aufgestellt. Aber ich denke, es wird sehr interessant. Mal schauen, wenn ich's auch mal selbst ausprobieren kann und wie wir in dem im nächsten halben Jahr so darüber reden, ob dann die Bezahlprozesse integriert sind oder nicht. Apropos Amazon, was hat sie mit Amazon Nova auf sich, Philipp?
- Philipp
- Ja, Amazon hat endlich, sage ich mal, ihr bestes größtes KI Modell zur Verfügung gestellt. Also letztes Jahr schon in haben sie ihre Nova Family vorgestellt mit verschiedenen LLMs und Generative Modellen. Darunter war auch Nova Premiere angekündigt, welches das größte beste, sag ich mal, Nova Modell war, Wurde aber war nie verfügbar, ist jetzt verfügbar in Amazon Batrock. Ja, ist jetzt ist interessant, ist jetzt nicht irgendwie krass besser als irgendwie, was wir jetzt von Gemini 2 Punkt 5 pro oder von o4 mini oder von Clayd kennen. Eigentlich ist es nicht besser auf irgend 'ner Ebene, aber wenn man Amazon Kunde ist, ist es günstiger als Clayd. Ist relativ gut, was, sage ich mal, Coding angeht. Mal reinschauen, ausprobieren, ist multimodal, kann Bilder und Text verstehen, kann Text generieren. Ja.
- Fabi
- Ja, ja, schon interessant. Ich mein Amazon ist ja im ganzen Gegner durchaus 'n bisschen hinten dran, auch so was den zeitlichen Einstieg angeht, ne. Mal schauen, wie wir uns in 2 Jahren drüber unterhalten, wo Amazon dann steht.
- Philipp
- Ja, ich bin mal gespannt, wenn dann Alexa plus oder wie auch immer es heißt, kommt.
- Fabi
- Ja, definitiv. Lass uns doch mal über En Shopic Cloud Integrations unterhalten. Mhm. Und zwar jetzt das, was wir auch in der Intro schon meinten, Grundlage, ja, MCP, hört euch gerne nächste Woche Dienstag die Folge dazu an, aber so unsere Kurzzusammenfassung war ja MCP der USB Standard für AI AI Agents und wir hatten ja schon in der Folge uns drüber unterhalten, dass es im Moment viel darum geht, so man hat bestimmte Server, die man beispielsweise lokal auf seinem Computer hat. Das ist mittlerweile relativ einfach, mit den Desktop Clients MCP Server zu integrieren und zu sagen, keine Ahnung, ein Desktop Client könnte zum Beispiel sein, der Zugriff aufs Filesystem, keine Ahnung, der Zugriff auf meinen Slack, was ich lokal laufen habe. Aber das kann man entweder dann also in den Client integrieren wie dem ChatGPT oder oder meinem meinem Clayd Mac App beispielsweise, aber ich könnt's auch in meiner IDE wie Cancer integrieren, wofür womit ich jetzt viel auch rumprobiert hab. Und mit Cloud Integrations haben wir jetzt die Möglichkeit, auch im Grunde genommen im im Web von Cloud diese MCP Integration zu machen und eben keine lokal gehosteten Service zu haben, sondern Remote Services. Und die, mit denen Sie von vornherein an den Start gehen, sind ein paar verschiedene beispielsweise. Was ich dann auch ganz interessant fand, war User Centry, User Centry Session, das war ein falscher Link, den ich auch hab, Centry, ja, also das ist im Endeffekt unser Bug Tracking Tool, was wir viel in in der Entwicklung einsetzen, aber auch beispielsweise für viele Freunde da draußen noch interessanter, so die ganze Adlassien Suite wie Gyra und Confliance, Zappia, Cloudflare, Intercom, Asana, also viel so Projektmanagement Dinge, als auch Linear und Plate Paper ist auch mit drin, sodass man jetzt die Möglichkeit hat, man muss dafür einfach nur in seine Einstellung gehen und da dann in der Konfiguration kann man weitere in also weitere remote Services, MCP Services hinzufügen und diese diese remote Services und die Möglichkeit, das jetzt im Web zu tun, nennt Cloud Integrations. Weiß nicht, also konntest Du schon einen davon ausprobieren?
- Philipp
- Ja, ich hab mir Also was vielleicht ganz interessant ist, man hat ja, es kommt dann auch in der Folge, man hat sozusagen bei MCP, sag ich mal, 'n bisschen das Back aktualisiert, dass man jetzt auch remote Server nutzen kann. Und alle diese Integration sind remote Server. Das heißt, sie sind bereitgestellt von den Providern. Ich hab versucht, 'n bisschen reinzuschauen, ob man mehr dahinter versteht, weil alle jetzt supporten. Das heißt, wenn ich sozusagen mit Cloud das nutze und Asana Integration nutzen möchte, werde ich sozusagen erst mal auf die Asana Seite geleitet und muss mich dann anmelden und dann hat Clay sozusagen mein Nutzer Access Token und kann Tools nutzen und halt direkt auf meine Gyra Asus zum Beispiel zugreifen. Find ich superinteressant. Allerdings ist das Technische dahinter superundetailliert, wie man jetzt selber son O-AFC-Server baut. Leider ist auch keiner dieser Integration Open Source, also die MCP Server von allen sind closed Source. Bisher war es immer so, dass die MCP Server eigentlich Open Source waren, weil man die ja natürlich auch irgendwie lokal ausführen müsste oder halt selber gehostet hat. Ist jetzt bei denen nicht der Fall, auf jeden Fall coole Entwicklung, aber ich mein definitiv reinhören in die Folge. Dann nächste Woche ist alles noch 'n bisschen work in progress, aber zeigt definitiv eine coole Zukunft, wie ich dann halt vielleicht wirklich oder die anderen wirklich mit ChatGPT konkurrieren können, ohne dass sie alles selber bauen. Weil bisher ist es ja mir so, ChatGPT baut ja die ganzen Integrationen gefühlt selber mit dem Shopping und partout ganz viel und alles passiert son bisschen wie high in the scenes und an Tropic fährt ja wirklich diesen Ansatz von, hey, PayPal hat hier diesen MCP Server und den kannst Du in Cloud AI nutzen. Und natürlich kannst Du jetzt halt auch dein den Server halt woanders nutzen, wenn MCP unterstützt wird.
- Fabi
- Ja. Ja, das wär jetzt dann auch mein nächster Punkt gewesen noch mal mit dem Oort, weil das ja durchaus Thema war in unserer Folge, wo wir noch die Oort implementieren noch nirgendwo in der freien Wildbahn gesehen haben. Ich hatte es jetzt, konntest Du, Also mal wieder ein Feature, was ich nicht ausprobieren konnte, zumindest nicht in bei Intrumpic in der im User Interface, weil man soll's ja eigentlich über seine Settings im Integrationspart sollte es eigentlich den Button geben, add more oder so was. Ich hab da nur eine GitHub Integration, also ich konnte die konnte kein weiteres hinzufügen. Ich hab dann mal in meinem Cursor die MTP Konfiguration beispielsweise für Sentin hinzugefügt und da war's auch wirklich cool. Man hat's hinzugefügt. Dann ist eigentlich nach dem Hinzufügen sofort mein Browthfenster aufgegangen mit dem Oort Flow. Allerdings hing's bei mir dann daran, sobald ich dann der Redirector auf Localhost irgendwie kam, das hat hat mein Cursor irgendwie nie erhalten. Jetzt ist so jedes Mal, wenn ich wenn ich jedes Mal, wenn ich einen Cursorfenster aufmache, wird immer wieder einen Token abgefragt. Das ist ja immer wieder, öffnet sich mein Browserfenster, sagt eigentlich auch success, autorization complete, aber mind Centry ist auf jeden Fall, sie findet keine Tools und irgendwie konnte den Client nicht initialisieren. Ich bin mal gespannt grad bei diesem Oortflow so, wie gut er es schafft, sich die Token zu speichern, weil wenn am Ende ich irgendwie 4 MCP Server hab und jedes Mal, wenn ich meinen Cursor aufmache, irgendwie viermal da irgendeine Integration schnell mal läuft, wird's auf jeden Fall nervig. Aber ich hab, also anders gesagt, ich hab's noch nicht zum Laufen bekommen. Hast Du den Zugriff bei Intropic und hast schon mal einen successvoll orough gemacht?
- Philipp
- Nee, aber ich hab mein Wochenende damit verschwendet versucht, 'n Python o-of MCP Server zu schreiben und es ist leider, es gibt keine Details, keine Dokumentation, es gibt nur die SPAC und ich hab's teilweise geschafft, dann teilweise auch wieder nicht. Also man kann's erfolgreich identifizieren und hat auch alles geklappt mit 'nem OLA Flow und man, je nachdem, das Problem ist halt trotzdem, welchen Provider ich nutze, hat man ja Refresh Token und Access Tokens und theoretisch müsste der Client dann sozusagen deine Tokens managen, also deinen Refresh und deinen Access. Und wenn Du dann die die das neu startest und er versucht irgendwie sie zu connecten und kriegt halt 'n müsste ja eigentlich ja den das Refresh Token nutzen, sich 'n neues Access Token zu holen. Ich geh mal stark davon aus, dass das halt alles noch relativ experimentell ist, aber am Ende nachher funktionieren wird. Die andere Frage ist dann natürlich, wo werden diese refresh Tokens gespeichert? Ist das lokal aufn Client? Ist das im Browser? Ich find's an sich auf jeden Fall richtig cool, wenn man darüber nachdenkt. Man hat irgendwie, also das, was ich versuch zu bauen, ist, man hat son Art Gmail MCT Server. Und ich logg mich halt einmal ein und kann dann wirklich über den remote Service das nutzen und er nutzt mein personelles Token und kann dadurch meine E-Mails lesen, was halt es schon viel einfacher macht, als ich muss irgendwie als Nutzer son eigenes Token generieren und dann irgendwie Ein paar Sachen. Starten. Und ich
- Fabi
- war auch letzte Woche mit einigen rumprobiert. Das hing im Endeffekt, also dass ich nicht so viele Ausbilder lieg halt, da hatte ich auch keinen Bock haben, jedes Mal den API Token, wo kriege ich den jetzt da her und so. Und hab mich dann grad echt drauf gefreut, dass oh geil, jetzt hier Ohrsflopschen. Ich hab mich schon sehr gefreut auf den State, wenn ich eingeloggt bin, einfach mal kurz rumprobieren. Ja. Hat da halt der Redirect nicht geklappt. Na ja, geben wir dem noch mal Zeit. Ich werd noch mal 'n paar andere probieren und ich weiß nicht, vielleicht kannst Du immer später checken, ob Du dann on Tropic die Militäatters 1 hinzuzufügen hast. Es würd mal interessieren, ob's jemand schafft, da draußen diesen Ortflow komplett zu machen. Muss ja irgendwo gehen, weil zumindest in der Century MCP Dokumentation von diesem remote Service, da stand CursA als ein Beispiel und sollte eigentlich grundsätzlich, laut Dokumentation soll's funktionieren, wenn Sie's da drin haben, aber bei mir hat's das wie gesagt nicht getan. Genau, also nächste Woche Dienstag, fünfzehnte kommt die MCP Folge raus. Hört mal rein, gebt uns Feedback. Notebook l m, 50 plus Sprachen.
- Philipp
- Yes, Notebook l m, wenn ihr's vielleicht noch nicht gehört habt, ist, sag ich mal, 'n sehr, sehr cooles Möglichkeit, wie man wie AI Apps in der Zukunft aussehen könnte. Ist auch in Deutschland verfügbar und man kann Audio Overviews machen von PDFs, man kann Mind Maps generieren, man kann generell einfach mit verschiedenen Daten chatten und bisher konnten gab's diese Audio Reviews oversues und Podcasts, sag ich mal, die generiert wurden nur in Englisch. Jetzt gibt's sie aber auch in unter anderem Deutsch, Japanisch, Spanisch und ganz viele anderen Sprachen und generell nutzt man jetzt 'n neues Gemini Modell. Das heißt, die Qualität sollte auch 'n bisschen besser werden. Gerne mal reinschauen, vielleicht mal 'n PDF hoch, PDF hochladen und Podcast generieren lassen. Vielleicht, ich weiß nicht, können wir irgendwann mal auch die AI News darüber generieren lassen. Wir droppen nur die Themen rein und dann kommt die Folge und dann schauen wir, wie's ankommt. Dann auch
- Fabi
- Multi Multi Language. Dann können Sie auch auf Englisch hören Richtig.
- Philipp
- Hier auf Deutsch.
- Fabi
- Wo Du grad gesagt hast, Germanite ist ein AI Pokémon Champion. Warum ist Ja. A. I. Germanite 2 Pro ein AI Pokémon Champion?
- Philipp
- Genau, also wir hatten's, glaube ich, in der Cloud, wo Cloud 3 Punkt 5 vorgestellt wurde. Antropic hat ja in paar Entwickler in ihrer Freizeit haben sonen Agent gebaut, der Pokémon spielt, als sie wirklich sozusagen immer 'n Bild bekommt und dann verschiedene Aktionen ausführen kann. Und Gemini 2 Punkt 5 pro wurde ja Anfang März released und 'n Entwickler dachte sich, hey, coole Idee von Antropic, lass mal testen, wie wie Gemini so agiert. Und dann hat sich wirklich jemand das halt zur Aufgabe gemacht, hat's auch auf Twitch gestreamt und hat Gemini mehr oder weniger alleine Pokémon durchspielen lassen. Und jetzt letzte Woche nach ungefähr 800 Stunden hat Gemeny erfolgreich alle auch alle 8 Orden gehabt und die Top 4 besiegt. Es ist witzig, der Stream ging auch noch 'n bisschen weiter und ich hab heute Morgen gesehen, das hat versucht zu fangen in der in der Insel in der Höhle, hat es leider getötet und hat dann gesagt so, Muteu fahnted, what a bummer? Ist auf jeden Fall cool. Also ja, und es ist das erste Mal, dass 'n, sag ich mal, nicht speziell dafür trainiertes Modell erfolgreich Pokémon durchgespielt hat. Und was sehr, sehr krass ist, weil man vor einem, also ich glaub Antropic hat damals gezeigt, dass Clay 3, was ungefähr vor einem Jahr releast würde, nicht mal den ersten Orden geschafft hat.
- Fabi
- Mhm.
- Philipp
- Clay 3 Punkt 5 hat dann 4 Orden geschafft und Gemini hat jetzt halt, ist einfach durchgespielt. Das ist
- Fabi
- aber jetzt auch 'n Punkt, wo man bei euch bei Google auch die die Korken knallen lässt oder? Innerhalb der Firma. Endlich Pokémon Champion. Ja, ihr habt's gemacht.
- Philipp
- Was halt beeindruckend war, es war ja, also es es wurde entwickelt und umgesetzt von niemand, der was mit Google zu tun hat. Mhm. Wir haben den zwar supportet mit Credits oder mit mit Tokens, dass der halt nichts bezahlen muss, weil 800 Stunden lang die ganze Zeit Requests an Gemini Pro schicken, ist halt schon teuer. Ist auf jeden Fall cool zu sehen und ist auch, also war cool zu sehen, dass selbst so Sundar oder Demirs, also die CEOs von Alphabet oder Deep Mind das geteilt haben und auch den Community Member sozusagen gehighlightet haben. Das fand ich sehr cool. Ja, wirklich cool.
- Fabi
- Ja, Glückwunsch. Ja. Ein paar Themen haben wir noch. Kleines Update zu Models zu Cursor und Deep Wiki. Das ist, wir haben schon lange nicht mehr drüber unterhalten, Devan AI, das ja, so seitdem man es mal probiert hat, nur einen sehr teuren Agent dahinter vermutet hat. Hat zumindest bei mir lang nicht mehr aufgeschlagen, jetzt unsere Deep Wiki rausgebracht, ein Tool, mit dem man GitHub Repositories in Dokumentation verwandeln kann. Also ihr könnt jeglichen GitHub Link einfach in der URL austauschen. Da wo GitHub Punkt com steht, schreibt ihr einfach Deep Wiki Punkt com und wenn das Ganze ein offenes Repo ist, erzeugt Deep Wiki daraus eine Dokumentation und ist wirklich Also ich find's Ich hab's für ein paar Dinge mal gemacht, unter anderem unsere programmier.bare Homepage, die ich ja selbst nie wirklich entwickelt hab und noch nie Ich hatte mal hier und da kurz meine Finger dran. Aber ist echt ganz cool, so fängt meistens an mit sonem Architekturellen Überblick, auch vielen Diagrammen so, also wie welche Komponenten spielen da miteinander zusammen und ist wirklich ganz cool strukturiert und gerade irgendwie, also einerseits irgendwelche Projekte, die keine sonderlich gute Dokumentation haben oder auch in Code Bases reinzukommen, die zwar dokumentiert sind, aber nicht so richtig von technischer Seite dokumentiert sind, da mal son erstes Browser zu bekommen, ersten Überblick von 'nem High Level View zu bekommen, welche Komponenten habe ich denn in der App? Fand ich ziemlich interessant und selbst bei unserer programmier.baren Homepage habe ich hier und da noch was Neues gelernt, so an Komponenten, die wir da integriert haben, so. Also könnt ihr gerne mal selbst machen, die programmier.bar, DeepRicky packen wir vielleicht mal rein, so was wie das für die Search Algoliak nutzen. Ich dachte, ich kenne alle Komponenten, die unsere Homepage nutzt, auch wenn ich sie nicht selbst implementiert hab, aber dass wir für die search Algolia nutzen, wusste ich vorher auch nicht. Und das ist irgendwie ganz cool, echt diesen Überblick zu bekommen und sozusagen probiert gern mal 'n bisschen rum. Wie gesagt, private Repositories gehen nicht einfach so, dafür braucht man dann einen Account bei Account bei Devan, dann ist es auch möglich, aber ansonsten ist es erst mal für Free Repositories ganz einfach ausprobierbar mit 'nem Drop in Replacement in der URL. Kommen wir noch, bevor wir abschließen mit den Models zu Cursor. Philipp Cursor 'n bisschen Geld eingesammelt, obwohl die MCP Integration mit Overth nicht funktioniert, hat mich gewundert, also ich hätt nicht missen.
- Philipp
- Ja, genau. Cause hat gestern angekündigt, dass sie 900000000 Dollar gerast haben bei 'ner Evaluierung von 9000000000 Dollar, unter anderem von Andreesen Horowitz, Axel. Ich hab mal versucht, rauszufinden, wofür sie denn diese 900000000 brauchen. Gibt keine Public Statements dazu. Was vielleicht noch ganz interessant war, ein Tag davor hat der CEO von CursOR auf Twitter geteilt, dass sie jetzt pro Tag 1000000000 Zeilen Code generieren mit CursOR, was schon eine Menge Nicht nur generiert hat, der wird eingecheckt oder? Also eingecheckter Code. Nee, nee, akzeptiert. Also.
- Fabi
- Ach, accep, okay, dann habe ich das, dann habe ich das falsch gemacht, wenn man akzeptiert nicht in Form von irgendwo eingecheckt, sondern irgendwo akzeptiert in der UI. Genau.
- Philipp
- Was schon doch eine ganze Menge ist und man hat jetzt auch, also es gibt, weil Sie haben jetzt über 200000000000 and you reccon revenue. Der durchschnittliche Preis ist irgendwie bei 20 beziehungsweise 40 Dollar. Da kann man auch hochrechnen. Das sind 'n paar Nutzer, sag ich jetzt mal. Bleibt auf jeden Fall spannend. Vielleicht auch noch ganz kurz im selben Zug. Heute Morgen beziehungsweise gestern Nacht wurde angekündigt, dass OpenAI Windsurf oder sich zusammengeschlossen hat mit Windsurf beziehungsweise Windsurf Aquired oder 'n Deal geschlossen hat. Windsurf war ja die, sage ich mal, die große Cursor Alternative. Windsurft waren's nur 3000000000. Vielleicht wurde Cursor einfach dann zu teuer. Auf jeden Fall sehr, sehr viel Bewegung aktuell. Ich bin sehr gespannt. Ich bin wie gesagt immer noch 'n großer Cursor Fan und Nutzer. Und vor allem, was ich halt besonders gut finde, also klar, der Agent Mond gibt's ja mittlerweile auch einen Copilot oder einen anderen IDS oder auch einen Browser. Aber halt auch allein dieses Auto Completion Modell finde ich super. Und das ist ja selber trainiert von Cursor. Und ich glaub, ich meine, sie brauchen viel Infrastruktur, viel Computer. Und ich meine, wenn man wirklich es mit GitHub und Microsoft und Copilot aufnehmen möchte, dann kann ich mir durchaus vorstellen, dass Du viel Sales und viel Geld brauchst, halt wirklich dann auch zu Enterprises zu kommen und wahrscheinlich einiges noch mit umsetzen musst an Security, aber es bleibt auf jeden Fall spannend.
- Fabi
- Ja, definitiv. Und wie gesagt, auch mein weiterhin meine favorite IDE. Okay, bevor wir es für heute abschließen, noch 2 Updates zu Modellen Microsoft, FIFA, Mini Reasoning und Quinn 3.
- Philipp
- Genau, also Lama 4 war ja leider nicht so gut. Dafür gibt's noch genug andere und Alternativen. Das Stärkste, glaube ich, was man jetzt mittlerweile wirklich sagen kann, ist Quen 3 von Alibaba. Open Modell, Apache License wurde jetzt vorgestellt mit 6 neuen Versionen. Es gibt 2 MOI Versionen mit 235000000000 Parameter und 22000000000 Active und 30000000000 Parameter 3 Active, eine 32000000000 Parameterversion normal, eine 4000000000 Parameter Version. Noch 'n paar andere, 1.7 0.6814, also wirklich ohne Ende Modelle und ohne Ende besser als die bisherigen Versionen. Also wirklich jetzt zum Open Modellbereich ist Quen auf allen Linien eigentlich führend von Reasoning zu Non Reasoning zu Sanktion Calling Benchmarks, zu Mathe, zu normales Wissen. Man kann die Modelle lokal ausführen, relativ easy mit OLAMA oder LM Studio. Sie sind 'n Higigface und Transformers dabei. Es gibt Versionen speziell für SG Lang und VILLM, damit man sie einfach hosten kann. Lama CPP, man kann sie kostenlos testen auf Chat Punkt quen Punkt d I. Sie haben also Sie haben Base Versionen und -version Release. Base Version kann man selber feintunen. Die -version haben einen Hybrid Thinking Mode. Das heißt, je nachdem, wie man die Generierung startet, hat man dieses, was man kennt von O1 oder von Gemini Pro oder halt auch nicht? Sie haben einen sehr, sehr coolen Blogpost darüber geschrieben, wie Sie es gemacht haben. Es gibt detaillierte Benchmarks, Multilingual, einhundertachtundzwanzigtausend Token Kontext. Also ja, wenn man irgendwie im Open Modell Bereich unterwegs ist, lokal gerne Modelle testet und ausführt, dann definitiv Quen 3 mal anschauen. Und wie gesagt, selbst die die kleinen Modelle so wie Quen 3 4 b, was ja wirklich gefühlt auf jedem PC mittlerweile läuft, ist fast so gut wie deren letztes 72000000000 Parameter Modell beziehungsweise relativ ähnlich auch zu Jämmer 3 und vor allem großen Fokus auf Code. Also ja, sehr cool. Genau. Und dann vielleicht noch ganz kurz Pi for Reasoning. Neue Pi Version von Microsoft basierend auf der Pi 4 Version. Jetzt ein Model trainiert, ist eine Destillierung von Open AI mini. Das heißt, sie haben Open AI o free mini genutzt,
- Fabi
- dieses
- Philipp
- zu generieren, haben dann darauf trainiert, haben noch Reanforcement Learning angewendet, haben ein cooles Paper released, Modell auch unter MIT verfügbar. 2 Versionen, 3800000000.0 Parameter und 14000000000 Parameter kann man auch lokal ausführen und testen. Ja, also hat leider nicht Dilabor, sag ich mal, eben April. Dafür gibt's eine jede Menge andere Modelle und auf jeden Fall superinteressant, was da aktuell alles passiert.
- Fabi
- Und die wichtigste Frage zum Schluss, heißt's jetzt Pi oder heißt's Fee oder wie nennt man das?
- Philipp
- Ich hätt jetzt Pi gesagt.
- Fabi
- Von nämlich immer Hast Du hast Du mal irgendwas von diesem Hast Du mal irgendwie den Podcast irgendwas zu dem Wirecard Skandal dir angehört? Nein. Der ist ja der CIO, der gesucht wird und vermutlich russisches Spion ist, heißt ja Jan Marsalek oder auch Marsalek oder Marsalek und jeder nennt diesen Namen anders. Ich frage mich, der ist 'n CIO, der irgendwie in Russland ist. So einige seiner Kollegen sind noch irgendwie da. Warum fragt man nicht mal, wie die den angesprochen haben? So, der wird immer der wird immer anders genannt. Jeder nennt ihn dem Podcast irgendwie so, weiß nicht, das Gefühl wie bei diesen ganzen AI Modellen. Das sind auch irgendwie Am Ende hauen auch auch die AI Modelle nach Russland ab. Aber okay, Du sagst Pi, ich sag wie, sagt uns mal, wie er's nennen würde und auch gerne, wie ihr Jan Marsalek nennt. Das wars mit der Programmier bei AI News.
- Philipp
- Heißt im Englischen nicht Pi? Mit Pi Day. Pi Day,
- Fabi
- aber ist nicht Pi wär für mich dann also raspberry Pi, weißt Du, mit der Pi geschrieben wird und fei mit PHI. Pi Day. Pi Day. Also ich ich glaub dir wahrscheinlich mehr, aber ich nenn's trotzdem viel. Sagt uns Bescheid, wie ihr's nennt. Genau, Feedback wie immer 'n Podcast at Programmier Punkt bar oder über die einschlägigen Kanäle wie Spotify oder auch LinkedIn oder Ähnliches. Ihr hört uns in 2 Wochen wieder, da wahrscheinlich dann auch zusammen oder in als Ersatz für mich mit dem Dennis. Philipp, dir wie immer vielen Dank für deine Zeit und euch fürs Zuhören. Ja. Macht's gut. Tschau.
- Philipp
- Tschau.