News AI 23/25 –
Claude 4 // DeepSeek R1 0528 // Chatterbox TTS // Mem0 // Koog // Duolingo AI-first
05.06.2025
- // Podcast
- // News AI 23/25
Shownotes
- Anthropic bringt mit Claude 4 die nächste Modellreihe heraus und setzt damit neue Maßstäbe in den Benchmarks.
- DeepSeek-R1 hat ein Update vom 28. Mai erhalten und ist nun wieder auf Augenhöhe mit den anderen großen Modellen.
- Chatterbox TTS ist ein neues Open-Source-Modell, das Stimmen mit nur fünf Sekunden Vorlage klonen kann.
- Mem0 ist ein Konzept, das langfristiges Gedächtnis (Long Term Memory) für Agenten verbessern soll.
- Trea nutzt ein Multi-Stage-Agentensystem, um aus LLMs bessere Coding-Ergebnisse herauszuholen.
- OpenAI eröffnet ein Vertriebsbüro in München.
- Duolingo wird „AI-first“.
- JetBrains veröffentlicht mit Koog eine Infrastruktur, um KI-Agenten im Kotlin-Umfeld zu bauen.
- Apples Kurzbefehle-App („Shortcuts“) soll künftig KI-Unterstützung erhalten.
- Steve Jobs wusste schon vor 40 Jahren, was er von Technologie will – mit historicmentor.com wird das bald erlebbar.
- Link zum Stargate-Video.
- Fabis erwähnte Prompt-Analyse von Cursor.
/transkript/programmierbar/news-ai-23-25-claude-4-deepseek-r1-0528-chatterbox-tts-mem0-koog-duolingo-ai-first
- Dennis
- Hallo und herzlich willkommen zu 1 neuen programmier.barfolge der AI News. Sind mittlerweile schon in Woche 23 im Jahr 2025 angekommen und heute zum allerersten Mal versuchen wir die Dreierkonstellation aus Fabi und mir Dennis. Hallo Fabi.
- Fabi
- Hi Dennis. Wir damit schon 3?
- Dennis
- Damit sind wir noch nicht 3, aber der Dritte, der ist uns wieder aus der weiten Ferne zugeschaltet und ist heute Morgen extra 5 Uhr aufgestanden oder nee, wahrscheinlich früher aufgestanden, 5 Uhr sitzt ja schon mit uns zusammen. Philipp, cool, dass Du dabei bist.
- Philipp
- Morgen. Hallo. Genau,
- Dennis
- 'n bisschen ruhiger, vielleicht mal die 2 Wochen, nachdem vor 2 Wochen ja noch die Kracher mit Google IO waren. Trotzdem gibt es einiges Neues, Cloud 4 als neues Modell im Bereich von von Voice, ein bisschen was, Deepseak, genau, hat hat was Neues. Also ein paar neue Dinge gibt es auf jeden Fall, die wir heute besprechen können. Vielleicht fangen wir mal bei dem, ich weiß nicht, ob das das größte Modell, weiß ich gar nicht, ob's aus aus dieser Liste heute ist, aber zumindest ein ein relativ großes Modell, Cloud 4 Fabi. Was hat es damit auf sich?
- Fabi
- Genau, ein hat 200 Modelle rausgebracht, Cloud Opus 4 und Cloud Sonit 4, also Modellfamilie von den Größen, die man ja schon kannte mit Sonit und Opus, aber jetzt in der Version 4. Ich glaub, Sonit 3 Punkt 7 haben wahrscheinlich so oder so schon einige von den Entwicklern, die uns hier hören, in ihrem Alltag eingesetzt, weil's ja auch weiterhin 1 der Modelle war, die fürs grade fürs Software Engineering anhand des SWR Benchmarks weiterhin 'n sehr, sehr gutes Modell war, auch wenn's schon andere Modelle gab, die's die sie überholt haben, wie jetzt Open AI Codex One, war's trotzdem immer noch 1 der Benchmarkmodelle, die ich auch selbst superviel eingesetzt hab. Und jetzt haben sie mit der Modellfamilie 4 sozusagen, mit Sonite als auch mit Opus neue, ja, den den neuen Highscore auf dem SWR Bench Verified Benchmark knackt mit 80.2 Prozent von vorher 70 Prozent, was von von 203 7 auf 4, was auf jeden Fall supercool ist. Vom Pricing her ist auch alles gleich geblieben im Vergleich zu der 3 Punkt Siebener Familie. Also wir sind bei weiterhin son bisschen teurer als jetzt beispielsweise Gemini 2 Punkt 5 Pro. Wir sind bei Cloud Sonnet bei 3 Dollar für 1000000 Input Tokens. Und ich glaube, 15 Dollar für 1000000 Output Tokens im Vergleich zu Gemite 2 Punkt 5 ist dann ein Dollar 25 zu 10, also ungefähr 50 Prozent mehr, was die Outputs angeht und ungefähr zweieinhalbmal mehr, was die Inputs angeht. Und genau, ansonsten ist es so, das ist noch einiges, was jetzt irgendwie Model improvements angeht, grade irgendwie für den Gentic Use, was Claude Opus 4 angeht, sodass das Modell sehr viel besser darin geworden ist, sich son bisschen Memory aufzubauen mit dem, was den Kontext des Anfragen angeht. Also grade wenn man wenn man irgendwie es in in der Entwicklungsumgebung irgendwie nutzt, dass sich dass sich die Modelle sehr viel besser merken können, welcher Kontext jetzt relevant ist. Sie haben auch in dem Blogbeitrag da als Beispiel son bisschen gezeigt, wie sie Pokémon spielen, was wir zuletzt schon mit Google und dem erst maligen, was war der Benchmark, finden aller 150 Pokémon oder wann hat man Pokémon noch mal durchgespielt? War's ja letztens mal Thema. Und zumindest sollte Claude sehr gut oder ist sehr gut darin sozusagen, sich son bisschen eigene dazu zu schreiben, auf was es achten soll beim Spielen von Pokémon und eben auch sehr gut darin sein soll, auf was es achten soll, wenn's erst mal Kontext des des Repositories und so was hat, auf auf was geachtet werden soll bei den nächsten bei den nächsten Outputs. Genau, aber ansonsten neues Modell, ist auch direkt also an vielen Stellen integrierbar. Ich glaub, wer jetzt beispielsweise Cursern und ich hab selbst, weiß nicht, hatten wir übrigens schon mal KleinAI schon mal als Thema hier in den den Agenten hier in den AI News, weil den hast Du es mir drauf gebracht, den nutz ich mittlerweile viel mit meinem meiner Cursor IDI, wo ich auch 4 schon benutzt hab. Und da ist echt der Impact noch mal beachtlich von 3 Punkt 7 auf 4.
- Dennis
- Weiß gar nicht, ob wir klein hier schon mal explizit besprochen haben. Nee. Wenn nicht, lohnt es sich im Moment?
- Philipp
- Ich hätte mich auf jeden Fall gewundert, wie Fabi Klein ausspricht. Ist eine BS Code Cursor Extension wie auch möglich.
- Fabi
- Genau. Wie spricht man's aus? Hab ich's heute sofort?
- Philipp
- Keine Ahnung. Ich war auf jeden Fall klein a I, okay, es ist irgendwie 'n deutsches Start-up.
- Fabi
- Okay, CLINE, klein AI, der, wo wo ich wirklich sagen muss, ist noch mal 'n anderes Level als meine als der als die Cursor hauseigene Cursor hauseigene Agent so. Also vor allen Dingen teurer, weil's halt tokenbasierte Abrechnung ist so und relativ viel, glaub ich, betreibt so. Aber es ist schon sehr interessant, sehr mächtig. Und da hab ich jetzt Soneed 4 'n paarmal probiert und auf jeden Fall auf dem Fabi Benchmark auch ein sehr gutes Modell, was auch mittlerweile 'n sehr wichtiger AI Benchmark ist.
- Dennis
- Und was für mich bei bei, was ich einen kleinen besonders mag, ist irgendwie so, dass es einigermaßen verbaus ist. So kriegst Du mit, was passiert. Das find ich irgendwie ganz cool. Dann kannst Du das das verifiziert so für einen selbst noch mal, okay, macht das, was grade nachgedacht wird, irgendwie Sinn geht es in eine richtige Richtung. Das das ja, find ich sehr cool. Philipp, an der Stelle vielleicht die Frage, weil passt jetzt nicht ganz zu dem Model Thema, damit ich erst mal anfangen wollte, aber weil gerade Fabi meinte jetzt hier, 80 Prozent und mega cool auf dem SWR Bench verified. Da hattest Du was was geteilt auf LinkedIn, dass Tray, was ja auch eine IDI bereitstellt, es geschafft hat letztendlich mit, also genau, wie sie's geschafft haben, kannst Du gerne gleich erklären, aber der der Blocktitel ist zumindest Number one on s an der SWR e bench verified mit Cloud 3 7, auch wenn Cloud 4 schon auf dieser Liste ist. Worum worum geht's da? Also was ist da noch mal jetzt der warum noch besser?
- Philipp
- Genau, Trace ja, diese, ich sag mal auch Curseer Klum. Ich komm glaub ursprünglich aus China und eventuell mit ByteDance irgendwie verknüpft, also auch sozusagen und die haben einen Blogpost veröffentlicht, dass sie mit ihrem Agent der Teil von der IDI ist, also so ähnlich wie bei Klein oder Cure oder VHS Code oder Copirot halt 70.6 Prozent erreicht haben mit 3 Punkt 7 und sie haben aber einen anderen Ansatz. Also ich weiß nicht, natürlich wissen wir nicht, was genau hinter bei klein oder cursor passiert, wie der Agent genau funktioniert, aber bei Tray haben sie geschrieben, dass sie eine Art Multi Agent Ansatz haben und insgesamt 4 Tools. Diese 4 Tools, die der Agent nutzen kann, sind einmal ja Stringreplacement eigentlich nur. Das heißt, man kann einfach editieren mit so ähnlich wie, okay, replace dir die Stelle mit dem neuen Teil. Es kann ausführen und was sehr interessant ist, man kann oder es baut eine Art Knowledge Code. Das heißt, während es sozusagen über deine Aufgabe durchgeht, speichert es mehr oder weniger automatisch Memories oder halt Informationen weg in diesen Knowledge Craft, damit es einfach besser nachher ist und es hat dieses Sequenz Tool, was dabei helfen soll, vor allem bei Clayd, halt zwischen den Tool Calls, die man hat, noch wie son Art Scratch Pat, dass das Modell noch 'n bisschen mehr Tags generieren kann, bevor es den nächsten Tool Call macht. Also wenn man sich son bisschen so vorstellt, ich stelle irgendwie die Frage, hey, ändere mein meine Version in meinem ganzen Projekt von, ach, weiß ich nicht, 18 auf 19 oder irgendwie so was, dann kann ja sein, dass der erste Tool Call irgendwie ist, okay, ich les halt das package json oder so was. Und dann kann ja sein, dass der zweite Tool Call direkt wäre, okay, ich ersetze den package json die Zeile, wo 18 steht mit 19 und dieses Tool mehr oder weniger erlaubt es dem Modell dazwischen erst mal noch, okay, hier ist das JSON, ich sehe hier alle Versionen, ist irgendwie auf ich muss es sozusagen ersetzen. Also so ähnlich wie man es kennt bei diesem, dass man einfach 'n bisschen mehr Tokens nutzen kann, bessere Ergebnisse zu erzielen. Das funktioniert vor allem mit gut. Und was Sie dann gebaut haben mit Ihrem ist, Sie haben einen, ein Tester Agent und ein. Der ist sozusagen dafür verantwortlich, dass er erst mal verschiedene Versionen erstellt, die man 'n File sozusagen verändern kann. Sie nennen jetzt, dann gibt's 'n Tester Agent, der durchgeht und sozusagen schreibt und ausführt und schaut, okay, welches dieser Patches funktioniert. Und dann gibt's den, der mehr oder weniger dann von all diesen Codegenerierungen das Beste auswählt. Und damit haben Sie sozusagen dann die 70 Prozent erreicht. Ich weiß nicht, ob das schon genau Teil von der IDE ist oder ob da noch eine irgendwie abgespeckte Variante ist. Aber so haben sie auf jeden Fall den besten Score mit 3 Punkt 7 erreicht und nicht, also sie sind ja nicht ein. Das heißt, sie haben mehr oder weniger das Modell genommen, was es auf der API für jeden zur Verfügung gibt, was schon sehr beeindruckend ist.
- Fabi
- Und weißt Du, ist das ist das auch die selber, also mit diesen 3 Agents, das, was auch wirklich in der IDI dann passiert? Also ist das
- Philipp
- Nee, also hab ich ja, also ich bin mir unsicher. Und sie haben auch nichts geschrieben in ihrem Blogpost und ich hab leider auch nicht den Editor. Das ist auf jeden Fall das, was Sie angekündigt haben oder Sie Sie wollen auch weiter daran arbeiten und ja, es gibt auch 'n Paper dazu.
- Fabi
- Weil ich mein, es klingt ja auf jeden Fall nach, da werden ein paar Token dafür benutzt, sone Anfrage zu bearbeiten. Und wenn ich mir jetzt irgendwie Spricing davon anschaue, dir irgendwie sagen, 10 Dollar ab dem zweiten Monat und ich jetzt nur mal bei klein, wo man dann ja wirklich tokenbasiert das Ganze abrechnen merke, wie schnell ich da Geld verbrennen kann. Würd mich irgendwann interessieren, wie Sie das hinbekommen mit einem, klar, irgendwann werden's dann, aber irgendwie von der gymnaschierenden Menge wirkt es schon mit, wird schwierig, mit 10 Dollar im Monat zu halten, wenn Sie so was bauen.
- Dennis
- Was ich bei klein auch so interessant find, ich weiß gar nicht, ob das die anderen so haben, dass man relativ transparent ja auch in die in die reingucken kann. Also das heißt, wie diese Anfragen strukturiert sind, mit was der Prompt ist, was fürn Kontext mitgegeben wird und so weiter. Ich weiß gar nicht, ob die anderen so transparent sind in dem, was da aufgebaut wird.
- Philipp
- Ich mein, da ist eine, wie's Code Extension ist, mehr oder weniger. Denk ich, macht das ja Sinn, dass sie da mehr transparent sind. Mhm. Und bei Cursase siehst Du nur sozusagen ja auch den Du siehst zwar dieses Thinking bei Cloud und bei Gemini auch, aber nicht genau, was die im Hintergrund machen.
- Fabi
- Vorhin hab ich aber einen Blogbeitrag noch gelesen, wo 1 meinte bei CursA, er hat irgendwie seinen eigenen Server angebunden und sozusagen analysiert, mit welchen Proms CursA arbeitet und irgendwie, dass sie, wie genau das aufgebaut ist und dass sie irgendwie 2 User Prompts haben. Wo er meinte, das war ihm vorher gar nicht bewusst, dass man 2 User Prompts irgendwie hinzufügen kann. Können wir euch auch noch mal reinpacken in die Shownotes. Ich hab noch nicht komplett gelesen, aber waren 'n paar ganz interessante Dinge. Allein auch wieder 'n bisschen so son bisschen prompt Designing, so wie wie wie machen sie's? War ganz interessant auf jeden Fall. Cool. Ich hab's noch nicht zu Ende gelesen, aber das die die ersten paar Zeilen klang auf jeden Fall ganz interessant, so wie sie alleine in System prompt designen dafür. Okay.
- Dennis
- Gut, Philipp, dann gibt es von Deepseak R one noch 'n Update mit der Endung 0 5 28, also vom achtundzwanzigsten Mai?
- Philipp
- Genau, es gibt 'n also neues Deep SEK Modell. R One war ja im Januar das, sag ich mal, Resilding Modell, was son bisschen die Märkte, sag ich mal, sinken lassen hat. Ich weiß nicht, mein oder mein Portfolio sah jetzt letzte Woche nicht ganz so schlecht aus, also haben sich alle jetzt so einigermaßen wieder einbunden, sag ich mal. Nichtsdestotrotz ist a one ein, sag ich mal, eine sehr, sehr starke Verbesserung zu dem bisherigen Modell. Sind auf also Parameter und Modellarchitektur eigentlich genau gleich. Deswegen wahrscheinlich auch nur hinten eine neue 'n neues Datum anstatt 'n Artur oder irgendwie so was. Aber sie sind auf jedem Benchmark einiges besser, also gerade man hat ja diesen Benchmark für Mathe, das sind sie von 70 auf 87 Prozent. Life Coding Bench ist 'n Programmier Benchmark, das sind sie von 63 auf 73. Von 8 auf 17. Und wenn man das son bisschen vergleicht mit was so von oder von o 3 sozusagen an an von ist, ist es mehr oder weniger relativ ähnlich. Also da, die was bewegen sich alle jetzt, sag ich mal, plus minus 3, 4 Prozent, also wirklich auch Top Tier Model sie haben, was sehr cool ist, die MAT LiCense behalten. Das heißt wirklich eine, man kann's sich runterladen, man kann es nutzen, man wie auch immer. Natürlich, man hat immer noch 685000000000 Parameter und kann jetzt vielleicht nicht jeder irgendwie daheim ausführen. Und vielleicht, was noch die größte in Verneuerung ist, Sie haben jetzt Tool Calling und Output Support. Das heißt, man kann halt Agents viel einfacher bauen mit dem neuen Modell. Man kann es testen auf Deep SEEK. Es gibt auch mittlerweile andere Provider, die es bereitstellen.
- Dennis
- Cool.
- Philipp
- Cooles Update auf jeden Fall.
- Dennis
- Sehr gut. Okay, dann würd ich weitermachen mit Text to Speech. Und zwar gibt es die Firma Resemble AI, die sich bis jetzt auch son bisschen auf, ja, den ganzen AI Voice Part konzentriert hat, die auch aus Kalifornien kommt. Und die haben letzte Woche ein neues Open Source Voice Cloning Modell vorgestellt. Also das haben sie tatsächlich auch mit MIT License released. Und genau, Sie schreiben noch in den Subtitle Emotion Control und Superfast. Also es ist hat eine sehr, sehr geringe Latenz und es ist son Zero Shot Voice Cloning Ansatz. Das heißt, man kann das ganz cool testen, unter anderem auf auf Hackingface und es reichen wirklich 5 Sekunden der eigenen Sprache, daraus dann in der eigenen Sprache neue Texte zu generieren. Ich hab das eben mal getestet. Der einzige, also für uns aktuell noch große Nachteil ist, dass Englisch die einzig unterstützte Sprache aktuell ist. Sie arbeiten schon an den kommenden Sprachen, die Sie die Sie bald reinbringen wollen, aber zumindest hörte sich danach auch nach meinem Englisch an. Also das Beispiel, es hat es hat es ganz gut getroffen.
- Fabi
- Also heißt,
- Dennis
- Sie können schlechtes Englisch. Sie können auch schlechtes Englisch. Ich hatte es nämlich kurz mit Deutsch probiert und da hast Du auf jeden Fall, also da hört er sich dann an, weil's halt so versucht hat, die Englisch Aussprache zu machen. Also das kann es halt noch nicht. Aber ja, irgendwo auch wieder mal wieder eine Ecke gruseliger, weil einfach, ne, wenige Sekunden deine Stimme reichen, daraus direkt ganze Texte generieren zu lassen. Dann wiederum cool, dass sie's Open Source gemacht haben, dass man's ausprobieren kann, lokal laufen lassen kann. Jo. Find ich ein cooles Update. Chatterbox, hab ich gesagt, wie sie heißt überhaupt? Weiß ich nicht. Hab ich, glaub ich, vergessen. Chatterbox heißt es heißt das ganze Ding. Cool. Gut. Ja, noch son Ding, wo man den Namen nicht ganz genau weiß. Kuh oder Kuh oder Coke.
- Fabi
- Coke. Weiß ich auch nicht. Auf jeden Fall, die ja auf jeden Fall eher immer sehr interessante Namen für ARDs und so weiter haben. Ich würd's aussprechen, koke, sehr deutsch. Also k Doppel o g. Ist 'n Framework, AI Agenten zu bauen und diesmal für ein Ökosystem, was Jet Braines natürlich auch sehr am Herzen liegt und zwar in Kotelyn. Ich sag mal vom Featureset, das, was man so grundsätzlich erwartet, aber eben jetzt für für das das Kotelyn Ökosystem so, also dass es ganz viele, also dass es grundsätzlich sehr, sehr einfach ist, beispielsweise auch MCPs schreiben, MCPs anzubinden, dass das Streaming von LLMs mit drin ist, so das Generieren von strukturierten Outputs oder dass man die die LLMs dazu bringt, in 'nem spezifischen Format zu antworten und auch son bisschen Workflow Handling mit drin ist. Also sag mal, wenn man jetzt Ei Agenten bauen will, dass man auch im Kotelan Ökosystem eine Möglichkeit dafür hat, das relativ easy zu tun so. Denk, 'n ganz cooler Move. Also für die da von euch da draußen, die die Kotelan bisher benutzt haben, klingt nach 1 ausprobierenswerten Alternative, AI Agents zu bauen, sodass ihr dann nicht mehr eine andere Sprache dafür benutzen müsst oder euch händisch jegliche API Aufrufe einfach zusammenbauen müsst.
- Dennis
- Cool. Damit wir nicht eine News Folge haben, komplett oben ohne Open AI, Geht schon. Gibt es zumindest eine kleine Open AI News. Und zwar haben Sie jetzt eröffnen Sie ein ein Büro in München, das heißt auch in Deutschland. Was ich am interessantesten eigentlich daran fand, also es geht nicht Entwicklung oder Weiterentwicklung der Sachen, sondern es ist 'n reines so Sales und Unterstützungs Büro, wo eben Unternehmen bei Fragestellungen unterstützt werden, wie sie vielleicht in ihre Produkte und Prozesse einbinden können. Und startet auch, glaub ich, erst mal relativ klein. Was da ganz interessant war, in dem man täglich dazu noch gelesen hab, so, dass Deutschland scheinbar nicht so schlecht dasteht, was die aktuelle Adaption von AI angeht. Also wir sind wohl so europamäßig Platz 1 oder 2 so was einfach Nutzung von OpenAI Diensten, von der API, von allen möglichen Diensten einfach sind. Also Deutschland scheint ein sehr aktives Land zu sein, was die Adaption von AI Technologien angeht. Von daher, da sind wir auch ganz froh, da einigermaßen mitzuspielen.
- Fabi
- Weißt Du, was ist da, was hat's eigentlich mit München auf sich, dass das irgendwie immer sone Tech Sales statt? Ist das nicht so, also gefühlt, ich glaub, ich glaub, hat nicht Google auch ihre München Office, ist auch so Tech Sales und irgendwie Apple sitzt doch da, glaub ich, auch. Was was hat's denn mit München auf sich? Warum gibt man denn noch München für Tech Sales?
- Philipp
- Für Microsoft das da auch.
- Fabi
- Also den den Move kann mir vielleicht gerne mal jemand erklären,
- Dennis
- was man weiß, was was
- Fabi
- es mit München auf sich hat, dass man da hingeht.
- Philipp
- Ich mein, wenn das hauptsächlich dafür genutzt werden soll, so Customer Engineering zu machen und Sales, ich mein, es gibt viele Mitarbeiter oder Menschen schon in München, die, sag ich mal, das machen von Amazon, von Google, von Microsoft. Ich mein, Du gehst ja dahin, wo Du auch Leute einstellen kannst. Und dann gehst Du vielleicht nicht irgendwie an die Nordsee, weil keine Ahnung, da gibt's halt nicht so viele Experten, sag ich jetzt mal.
- Fabi
- Genau, das ist die Frage, wer war dann, ja, okay, ich versteh, sozusagen, weil jetzt schon Leute da, weil's jetzt schon da ist, geht man auch hin? Oder warum hat sich der Erste überhaupt München ausgesucht? Ist das 'n strategisch sinnvoller, ist München gut angebunden?
- Philipp
- Ich glaub, ich verspü hier irgendwie Fabi Mark München nicht so gut.
- Fabi
- Ich mein, nee, ich mein, irgendwie kann man Es ist halt, das
- Dennis
- ist schon richtig. Man würde ja denken, jetzt so immer die Tech Branche, die was entwickelt, würde eher jetzt in Berlin verortet werden so bei vielen Sachen. Und dann ist halt die Frage 'n bisschen, haben wir bei Hamburg mit 'n paar Sachen? Also halt die Frage, warum dieser Sales Part jetzt nach München gerutscht ist. Weißt Du, SAP verbünde ich auch mit München? Hat die das was mit mit München zu tun? Nee. Walldorf. Okay.
- Philipp
- SAP ist herrlich. Ja.
- Fabi
- Okay, alles
- Dennis
- klar. Gut. Fabi, nee, nicht Fabi. Philipp,
- Fabi
- klären Sie Leute was. Gottes.
- Dennis
- Furchtbar. Was ist Mem zero?
- Philipp
- Genau. Also 'n typisches Beispiel, was wir alle kennen, ist, wenn ich mit 'ner KI schreibe oder nutze, dann vergisst die ja ganz oft, wer ich bin oder was ich schon in der Vergangenheit mal gefragt hab. Und ob Merle vor 'n paar Monaten, sag ich mal, die Memoryfunktion hinzugefügt, dass einfach son bisschen 'n Verständnis hat von dem, was Du halt davor geschrieben hast. Und ist 'n Start-up, die bauen eine Open Source Library, die dasselbe mehr oder weniger macht, aber nur kannst Du das so mehr oder weniger komplett außerhalb nutzen. Und sie haben 'n Paper veröffentlicht, jetzt erst, das son bisschen darauf eingeht, wie Sie denn das umgesetzt haben. Und vor allem, was auch sehr interessant ist, dass Sie 91 Prozent geringere erreichen mit 90 Prozent weniger Token Kosten und Open AI bei 26 Prozent Upperformen auf dem Lockomo Benchmark, welcher ein Benchmark ist sozusagen. Und das Ganze funktioniert 'n bisschen so, dass man wie eine Art Hintergrundprozess hat. Also ihr könnt's euch so vorstellen, dass ich mit meinem, keine Ahnung, Chatbot irgendwie rede. Ich hab 'n User Input, 'n. Und was dann währenddessen passiert ist, dass man sone Art Backgroundjob hat, der direkt die User 'n bekommt. Und man nutzt 'n LLM, dieses dann zu prozessen und mehr oder weniger wichtige Informationen zu extrahieren und schaut, okay, hab ich schon aktuell in meiner Datenbank irgendwelche, sag ich mal, ähnlichen Informationen über diesen User und hab dann verschiedene Operationen wie oder Know up, dann meinen meine Datenbank upzudatend von von den Userpräferenzen, sag ich einfach mal. Und das wird dann mehr oder weniger wieder über bei einem User Input bereitgestellt, als bevor es ins Model reingeht, ich sozusagen in Kontext oder halt die Systeminstruktionen vor dem Model erweitere. So kann man sich das auch 'n bisschen vorstellen, was Open AI macht. Also ich glaube, wir haben ja jetzt keine genauen Details, aber das ist mehr so dieses, also es passiert so im Hintergrund und es ist sehr cool, sehr einfach zu nutzen. Gerne mal reinschauen oder auch wenn euch das Thema generell 'n bisschen interessiert. Ich glaub, dass das 'n wahrscheinlich dieses Jahr noch 'n bisschen häufiger kommen wird mit, weil alle Agents und alles, was wir machen, wird ja immer 'n bisschen, sag ich mal, reifer und wir wollen immer mehr. Und ich weiß es jetzt auch, sag ich mal, von Freunden und Familien, die nutzen, dieses Memory Feature ist schon ganz cool. Und wenn man das einfach mal auf den Businesskontext übertreibt, dass wenn ich irgendwie, keine Ahnung, 'n Customer Support Agent hab und ich jetzt mit dem schreib und der einfach weiß, dass ich vor 2 Wochen irgendwas bestellt hab oder irgendwie schon mal was geschrieben hab und das in 'ner sehr guten und strukturierten Form bereitgestellt werden kann, dann verbesser ich ja auch wieder die die User Experience.
- Fabi
- Ja, cool heißt das?
- Philipp
- Ja.
- Dennis
- Nice. Cool. Gut, dann hat Fabi noch eine News, die weiter zeigt, wo überall AI Einfluss hat auf das Umfeld oder zumindest der die suggeriert das mit Duolingo.
- Fabi
- Ja. Ja, weil Duolingo jetzt offiziell hat, dass sie sind, also eine AI First Company. Also dazu gab's eine, also Memo vom CEO an die Firma, die sie jetzt auch auf dem offiziellen Duolinkocanal, auf LinkedIn geteilt haben und son bisschen in Kontext gesetzt haben, als noch alle irgendwie ihre Apps für Webseiten gebaut haben und sie das jetzt, bin bestimmt auch nicht, also gehören schon noch zu den, aber jetzt auch nicht mehr. 'n absolut krasser Move ist zu sagen, okay, sie setzen auch bei AI auf und sagen, okay, ab jetzt alles AI wird für sie wie eine neue Plattform sein so. Und es ist nur nicht nur irgendwie 'n Produktivitätsboost, sondern es ist wirklich der Weg, der sie näher daran bringt, ihre Mission zu erreichen, so, die ja, also wahrscheinlich eine einfache Grundsysteme zu tun hat, den Leuten so einfach wie möglich einfach wie möglich die Möglichkeit zu geben, eine neue Sprache zu lernen. Sie sagen so, so, dass es jetzt auch beispielsweise so was in in Reichweite ist, dass man wirklich einen Videocall mit Lehrern haben kann, die einem etwas beibringen, so und dass AI am Ende das Tool sein wird, die sie dahin bringen. Und dass sie grundsätzlich einfach sagen, was hat's fürn, also es ist im Endeffekt 'n Move, der natürlich auch einen Impact einfach auf die Firma im Allgemeinen hat, sodass sie sagen, okay, sie hören sofort auf oder nach und nach auf mit mit Firmen zusammenzuarbeiten, die oder also extern mit extern zusammenzuarbeiten, wo AI diese Arbeit auch erledigen kann. Und auch wenn Teams sagen, sie wollen neue Leute einstellen, dann müssen sie erst sozusagen beweisen, dass sie das nicht die Arbeit, die dann neue Personen machen sollen, nicht mit 1 AI Automatisierung lösen können und sozusagen an allen oder auch generell, wenn sie hiren. Dass sie halt sagen, okay, Leute müssen nachweisen, wie sie nachweisen, wie sie AI in ihrem Alltag einsetzen, sodass das 'n wichtiges Kriterium in ihrem Einstellungsprozess ist und sozusagen an allen Stellen sagen, okay, AI First, das waren jetzt nur 'n paar Beispiele davon, aber wahrscheinlich ja 'n Impact auf die gesamte Filmstruktur haben wird. Fand ich auf jeden Fall 'n ganz interessanten Move gemacht, glaub ich, auch schon von Shopify. Ich glaub, das hatten wir
- Philipp
- auch schon
- Fabi
- in einem der News, war ja auch 1 1 der Firmen, die son Move gegangen ist.
- Philipp
- Und Seppia hat das auch gemacht. Seppia. Das hab ich auch gesehen. Also aber es Fliegen, ist mir so vorbeigeflogen so am Telefon. Ja, ich ich weiß nicht, also es ist halt son bisschen, ich bin gespannt, wo die es hinführt, weil es gibt immer eine leichte Möglichkeit, dann einfach Kosten zu sparen oder wir stellen keine neue Leute ein oder und man bisher sieht ja hauptsächlich bei so Start ups, wo man eher gesagt hat, gibt's die in der Zukunft noch? Also alle haben ja mit ChatGPT gesagt irgendwie, Duolingo ist irgendwie tot und Zepir, brauche ich Zepir, wenn irgendwie ChatGPT oder eine KI meine Integration kurz programmiert. Deswegen bleibt das mal abzuwarten, ob das auch für andere Companys dann irgendwann gilt oder auch für größere. Ich find's auf jeden Fall cool, dass man offen darüber umgeht, ne, weil man könnte auch einfach sagen, wir machen's so weiter und die Teams kriegen nur es nur irgendwie im Hintergrund mit. Ich glaub, We Work war auch noch eine, die sozusagen gesagt haben, AI First, aber auch dort gleiches Prinzip, ich brauch vielleicht keine Zeitarbeiter mehr oder kurzfristige Arbeiter, wenn ich irgendwie KI für die meisten Dinge nutzen kann. Ja.
- Dennis
- Ja. Interessanter Take, dass das so so welche sind, die sich mit daher auflösen würden.
- Philipp
- Ja, aber was vielleicht noch ganz interessant ist, also ich hab das, Klarna hat ja auch mehr oder weniger den Ansatz gefahren mit irgendwie, sie stoppen irgendwie Einstellungen und gehen ganz viel auf AI. Die müssen ja jetzt wieder 'n bisschen zurückrudern eventuell. Also da läuft's ja nicht ganz so gut und die haben ja eher die die Gegenseite jetzt erreicht. Also ist mir auf jeden Fall 'n spannendes Thema, was mit den ganzen AI Start ups, a-Fir-Start-ups passiert und wo wir vielleicht in 'nem halben Jahr stehen.
- Fabi
- Was heißt müssen einfach, weil Sie merken, Sie kriegen's mit eher nicht hin oder ist das eine, also hat hat's 'n regulatorisches Thema bei Clan dann auch? Oder weißt Du's, was heißt, Sie müssen wieder 'n bisschen zurückbodern?
- Philipp
- Ich weiß nur, dass Sie ja so ganz, ganz große Probleme haben mit Nichtzahlungen und andere Themen und scheinbar nicht so schnell vorankommen mit, also die Produktivität so da 'n bisschen dahinter fehlt.
- Fabi
- Okay. Ja, also interessant, was ist, ich mein, Duolingo, ich mein, da ist auf jeden Fall, ich mein, erst mal Gründe zu sagen, auch grad diese ganze Inhaltserstellung und so was, ne, ich kann im Notfall verstehen, da ist einfach so viel, wo Du sagst, so, dafür brauchen sie definitiv keine keine externen Contractor. Das ist meine, ist halt die Frage, Sie dann die gleiche Qualität erreichen so, aber das werden Sie hoffentlich sehr engmaschig betreuen und sich anschauen. Bin ich sehr gespannt, weil ich mein, wenn haben Sie auf jeden Fall allein halt die schiere Content Menge, die Sie haben, ne. Es ist halt einfach einen super Use Case. Ich bin gespannt, was das was am Ende vielleicht auch dann für ihre Subscription und so was bedeutet, also Kosten. Klar, wenn Du jetzt irgendwie erst mal nur Inhalte Inhalte automatisierst, dann wird sie eigentlich eher günstiger. Wenn sie jetzt sagen, sie bauen am Ende auch viele AI Inhalte, Features ein, wo dann jeder User am Ende irgendwie mit 'nem LLM interagiert so, dann muss es halt auch eine andere Kostenstruktur werden. So, weil wie gesagt, der eine Part spart eher Geld, der andere wird auf User gesehen wahrscheinlich mehr kosten. Von daher bin ich gespannt, was was mit dem Produkt wird.
- Dennis
- Ja, das Nächste ist vielleicht eher für ein reines Schmunzeln gut, als die nächste große News zu sein, son Video aufgeploppt von Steve Jobs, der schon vor 35 Jahren die Zukunft von AI gesehen hat. Und zwar ist das irgendwie auch, glaub ich, für sone Vorlesung vor vor Studenten, wo er eben sagt so, er sieht es als großen als großen Fortschritt irgendwie der Menschen an, dass er jetzt auf einem Blatt Papier lesen kann, was Aristoteles geschrieben hat und praktisch diese Gedanken, ne, lesen kann und dadurch irgendwo daraus das auch wieder lernen kann. Und dass er irgendwann sich vorstellt, dass er hofft, dass all dieses Wissen, die die die Grund das Grundwissen über die Welt und wie das alles funktioniert, in einem Computer drinstecken und dass man praktisch Aristoteles etwas fragen kann und ja, dann eine Antwort bekommt, was er denken würde. Und ein bisschen ist das ja irgendwo jetzt gerade der die die Zeitenwende, die wir haben, dass wir genau das haben, dass wir alles einfach nachfragen können und da die entsprechenden Antworten bekommen. Und wer sich denkt, ach, das wär ja megaspannend, wenn ich explizit noch mal so die die die großen Namen der Geschichte, die die Weisheit verteilt haben, wenn ich deren Meinung zu Themen haben könnte. Der kann sich auf eine setzen von historic Mentor dot com, wo es darum gehen wird, dass man Mentorship von den ganz Großen bekommt, von Benjamin Franklin, von Leonardo da Vinci, Sokrates Konfuzius, Friedrich Nietzsche und eben mit ihnen dann chatten kann und ja, im im Youtube Video eben auch die Avatare von ihnen hat. Aber dass man die Weisheit dieser Größen kondensiert dort befragen kann.
- Fabi
- Man muss natürlich dazu sagen, da ist 'n super, ich mein, das hat ja bisher auch kaum Juristen, das ist eine superkleine Page. Bin mal gespannt, was am Ende da überhaupt fürn Produkt hinten dran steht. Aber ich find interessant, dass diese Idee, die Steve Jobs vor 35 Jahren mal formuliert hat, jetzt jemand mit historic Mentor probiert. Ja. Was daraus wird, kann auch sein, dass es über diese Landingpage niemals hinausgeht, aber war auf jeden Fall 'n witziger Web Pfund. Genau.
- Dennis
- Klenn ich jetzt noch zu Apple?
- Fabi
- Ja, vielleicht, ich mein, der Inhalt an sich ist zweitrangig, weil wir werden nächste Woche sehen, was da genau passiert, weil es wird gemunkelt, dass es von Apple eine neue Shortcuts App nächste Woche auf der WWDC gibt, die AI Features integriert haben soll, sodass man ganz viele Automatationen auf dem Device mithilfe von AI erzeugen kann. So, ich bin mal gespannt, ich bin ja bisher kein selbst kein Shortcuts User, so mit AI wird's vielleicht eine Möglichkeit sein, aber vielleicht son bisschen eher als die die zu. Nächste Woche werden wir uns höchstwahrscheinlich mal die WWDC anschauen und gucken, was Apple da vielleicht im AI Space macht. Ich hab ja keinerlei keine wirklich großen Hoffnungen so. Alles, was ja bisher an Features ausprobiert wurde von dem, was sie da letztes Jahr gezeigt haben, lässt einen oft nicht so viel Großes hoffen. Und zumindest, was ich gelesen habe so, Bloomberg und so und wie heißt mal dieser Mark, irgendwas, der immer diese ganzen Insights von Apple
- Dennis
- kennt.
- Fabi
- Ja. Der, also es heißt so, sie sie haben wohl schon einiges am Start, aber es ist sehr wenig davon bereit bei der WWDC, also es ist nicht viel davon ist präsentabel. Also von daher erwarte ich jetzt nicht sonderlich viele Features. Ihr arbeiten ja irgendwie an 'ner neuen Siri und so weiter, aber es soll wohl irgendwie das das lokale Modell da wohl zugänglich sein für Entwickler, danach.
- Dennis
- Du warst zumindest gehypt, da kann ich mich dran erinnern, war wie von dem, vor der grundsätzlichen Architektur. Da warst Du doch großer Fan von und hast das als noch traditionellationär dargestellt damals. Na ja,
- Fabi
- aber ich mein, im Endeffekt müssen sie ja trotzdem irgendwie, also es muss ja trotzdem am Ende
- Dennis
- Oh mein Problem, ja, ja.
- Fabi
- Das Leute dann auch wirklich nutzen und so. Und ich sag mal,
- Dennis
- gut, ich
- Fabi
- mein, wir sind in Europa auch immer noch 'n bisschen abgeschnitten davon. Ich hab bisher weiterhin nur Videos gesehen, hab's nicht selbst getestet. Also die, in der Umsetzung muss es dann schon Im Endeffekt hab ich jetzt so in einigen Beispielvideos, sodass es einfach immer an ChatGPT einfach irgendwelche Anfragen weitergegeben werden, so ist die Realität.
- Dennis
- Und da ist halt dann schlechter als die App selbst.
- Philipp
- Ich mein, vielleicht bekommen wir keine AI Updates, aber vielleicht bekommen wir iPhone aufm Mac jetzt.
- Fabi
- Ah, das wär ja eigentlich alles. Kurz als ich in Asien war, wurd ich's ja immer kurz für mich freigeschaltet, aber irgendwie war ich dann im falschen US Store oder so was. Dann ging im falschen Store und dann ging's irgendwie trotzdem nicht. Also ich hatte kurzzeitig hatt ich dieses iPhone Mirroring App auf meinem Mac. Ich hab mich so sehr gefreut. Aber es soll ja iOS 26 kommen, ne. Sie nennen ja jetzt, glaub ich, das Betriebssystem Und das wird jetzt nach Jahren benannt und es soll wohl das größte Redesign seit iOS, 4 7, was, also irgendeinem Frühen, so wahrscheinlich von diesem sehr plastischen Design hin zu dem etwas moderneren Jetzt. Von daher, also gespannt wird's aber im AI Umfeld. Also ich glaub, für uns hier in dem Podcast bin ich mal gespannt in den News selbst, wenn wir uns viel drüber unterhalten, wie viel AI Themen hinten runter putzen.
- Dennis
- Voraussichtlich wird's auch eine Special Folge geben direkt am Abend. Nächste Woche Montag Abend könnt ihr auch in die Programmier reinhören. Dann haben wir noch einen kleinen Videotipp. Ich hab das noch nicht selbst gesehen, von Bloomberg hat ein das Projekt Stargate, die Megafactory, wo auch Sam Altman dann gefeatured ist und fünfundvierzigminütige, weiß gar nicht, ob das Dokumentation ist oder wie man's nennt, wahrscheinlich eine Art Dokumentation. Darüber könnt ihr euch mal angucken, wenn ihr daran Interesse habt. Und sonst muss ich noch darauf hinweisen, darf ich noch darauf hinweisen, dass die Programmierer jetzt eine Discord Community hat. Das heißt, unter Discord Punkt Programmier Punkt bar ist, glaub ich, der einfach zu merkende Link, könnt ihr gerne unserer Discord Community beitreten und dort Fragen stellen, Anregungen für Themen, Feedback da lassen und genau, einfach den Austausch innerhalb der programmier.baren Community noch ein weiter bisschen weiter fördern. Gut. Dann lassen wir Philipp mal, ah, langsam, ja, noch ist immer die 5, 5 ist immer noch.
- Fabi
- 5 Uhr 45 in San Francisco.
- Dennis
- Genau. Aber ruhig in den Arbeitstag starten, während wir bald hier fertig sind mit unserem.
- Fabi
- Jetzt nur 40
- Dennis
- Feierabend, oder? Bald. Man muss auch noch nicht 6 Uhr anfangen, hat er noch 3 Stunden Zeit, Ach so. Ob Du anfangen kann. Philipp, vielen, vielen Dank, dass Du die Zeit genommen hast, dass Du dabei bist. Fabi, dir auch vielen Dank.
- Fabi
- Dank dir.
- Dennis
- Ja, wir hören uns in 2 Wochen in dieser Runde wieder. Nächste Woche noch mal die Juice. Mach's gut.
- Fabi
- Bis bald.
- Philipp
- Tschau, tschau. Tschau.