o3 Pro // ScaleAI Acquisition // Magistral
- // Podcast
- // News AI 25/25
Shownotes
In der heutigen Folge sprechen Dennis, Philipp und Fabi über das erste Reasoning Model von Mistral mit dem Namen Magistral. Meta übernimmt 49 % von ScaleAI für knapp 15 Milliarden Dollar. Im Zuge dieses Deals wird der ehemalige CEO von Scale AI, Alexandr Wang, das Meta Superintelligence Lab leiten.
Darüber hinaus haben wir mal wieder ein paar OpenAI News – o3 Pro ist nun released und ist um 87 % günstiger als der Vorgänger o1 Pro. Das Base Modell o3 ist ebenfalls um 80 % günstiger geworden und kostet jetzt nur noch so viel, wie erfolgreiche non-reasoning Modelle wie bspw. Gemini 2.5 Pro. OpenAI geht unerwartet einen Cloud Deal mit Google ein und updated den Voice Mode in der ChatGPT App.
Für lange Diskussionen zwischen Philipp, Dennis und Fabi hat der Report großer News-Plattformen wie bspw. der Washington Post gesorgt, die in den Google AI Overviews den Hauptgrund dafür sehen, dass ihr organischer Such-Traffic um 55 % in den letzten 3 Jahren zurückgegangen ist.
Weitere interessante Themen in dieser Folge:
- Nvidia, die Bundesregierung und die Telekom schließen einen Deal für eine GPU Gigafabrik in Deutschland
- GitHub hat jetzt einen Remote MCP
- Windsurf released ihren Planning Mode
- Dennis
- Hallo und herzlich willkommen zu den programmier.baren AI News der Woche 25. 25, 25. Im Jahr 25. Wir nähern uns schon dem Jahres der Jahresmitte. Wann ist die? 52 durch 2 oder wie? 26? Nächste Woche.
- Fabi
- Nächste Woche. Nächste Woche. Circa. Türkei.
- Philipp
- Okay, also halbes
- Dennis
- Jahr. Ich bin Dennis Becker auf der Couch neben mir.
- Fabi
- Der Fabi Finkheim.
- Dennis
- Und zugeschaltet der Philipp Schmidt.
- Philipp
- Hallo Philipp, schön, dass Du da bist. Schmid. Hallo.
- Dennis
- Schmid? Ja. Deswegen wirst Du so geschrieben. Ja. Ich hab mich noch, ja, mach's Siehste
- Fabi
- mal, ich hab dich hab auch, ich hab's einfach auch jedes Mal schon Ja, ey. Wir reden uns zur selben mit Nachnamen und deswegen ist das doch gut, dass wir's mal gemacht haben. Das wissen wir endlich, wie wir heißen.
- Philipp
- Ja. Namestechnisch ist bei mir ganz schwierig. Ich hab, glaub, noch nie es geschafft, dass jemand mehr als zweimal meinen Namen korrekt schreibt oder ausspricht mit Philipp und Schmied, deswegen Ja, ist aber auch
- Dennis
- mit diesem p p und wo kommt das jetzt hin und 2 l und so, ist schon schwierig bei dem Namen einfach. Und dann aber, ja, macht dann macht irgendwie Sinn bei Schmied.
- Fabi
- Ja. Aber das ist
- Dennis
- ja, ich
- Fabi
- sag's mal, haben bestimmt erst da, die wir heut gelernt haben. Und so kann ich mir
- Dennis
- vor allen Dingen auch merken, wie ich die schreiben habe, wenn ich jetzt weiß, wie's gesprochen habe. Na ja,
- Philipp
- solange Du kein e-zwei-machen machst, ist alles gut.
- Dennis
- Kann passieren. Gut, wir reden heute über Updates von Mysteral. In Deutschland bewegt sich ein bisschen was, was AI angeht. O 3 Pro von OpenAI wurde gelauncht. O 3 ist ein bisschen billiger geworden und kleine Updates noch aus OpenAI und Windsurf Richtung. Aber ich würde sagen, dass zumindest so, wenn ich's richtig über Nein, okay. Auch vielleicht entschuldige nicht richtig, wenn man o-t-drei-Pro noch sieht als Launch. Aber Mistral hat zumindest mit Magisstrahl ist es dann vielleicht Ja. Wieder was eröffnet. Philipp, worum geht's da?
- Philipp
- Ja, zuallererst Naming auf jeden Fall ganz stark. Weil ich glaub, ist somit die Einzigen, die das irgendwie gut hinbekommen, würd ich jetzt mal sagen. Aber Magistral ist sozusagen eine Familie oder die erste Familie von Modelle von. Also bisher hatte noch nicht diese Modelle. Sie haben jetzt und released. Es gibt 2 Versionen, einmal eine Variante, die nennt sich basiert auf dem Modell, ist 24000000000 Parameter. Gibt's auf, Apachee, 128000 Token Kontext. Ist wie alle Modelle gut in Mathe und programmieren. Und Magistral Medium ist sozusagen nur die API Variante, gibt's für 2 Dollar Input Tokens und 5 Dollar Output Tokens bei auf der API Plattform sozusagen.
- Dennis
- Was sagen die Benchmarks? Lohnt es sich, das anzugucken oder ist es erst mal nur ein Mitziehen?
- Philipp
- Also ich glaub, der wichtige Unterschied hier ist vor allem für Magistral Small ist, dass es halt 24000000000 Parameter heißt, man kann's relativ einfach mit OLama oder so auf seinem MacBook oder etwas besseren CPU zu Hause ausführen, bewegt sich son bisschen. Also sie haben's leider nur mit Deep Sieg a one verglichen und da ist es halt schlechter. Aber es ist definitiv besser als. Also das bisherige Modell in sozusagen allen mehr oder weniger Benchmarks. Das heißt, wenn ihr irgendwie oder andere Modelle aktuell lokal oder via API ausführt, dann lohnt sich's definitiv mal, sich anzuschauen. Ansonsten nicht viele Details wie ja, immer eigentlich bei erzählt.
- Dennis
- Weil ich grade son Workshop vorbereite für intern, son bisschen mal noch mal die Grundlagen firmweit zu teilen. Was ist denn, Philipp, würdest Du sagen, das Go to Maximum Modell, was man auf 'nem m 1 Mac MacBook mit 64 Gigabyte Speicher ausführen kann und die besten Ergebnisse generalistisch bekommt?
- Philipp
- Ach so, es kommt ganz darauf an, ist besonders gut, wenn alles, was mit Content und Creative, sag ich mal, zu tun hat. Und die Quellenmodellen waren Quellen Modelle waren zuletzt sehr, sehr gut, was Codings, sag ich mal, angeht. Und dann muss man sich einfach durchtesten. Also auch. Und natürlich umso mehr Memoryspeicher man hat, umso weniger muss man die Modelle ja quantisieren und ist leider Testing. Also es gibt nicht so, hey, nutz einfach das, sondern dann hast Du gewonnen.
- Dennis
- Gucken wir mal. Fabi, o 3 pro.
- Fabi
- Was bringt dich denn darauf als nächstes Thema etwa, weil der Philipp gesagt hat, dass Misslos gut hinbekommt mit ihrem Namings der Modelle oder was? Open Ja, auf jeden Fall 'n bisschen komplizierter ist. Wir sind, genau, wir finden uns in der o-Familie der Modelle von von Open AI, was ja ihre Modelle sind, an den Start damals gegangen mit den o-One-Modellen. O-zwei haben sie ja übersprungen und aktuell gibt's o-o-drei-und-o-vier. Ja, was jetzt released wurde, ist o 3 Pro. Im Grunde genommen tanz's ja immer so auf, sie releasen immer zuerst das, meistens das Minimodell, dann das Base Modell und dann das Pro Modell. Mit dem Base Modell von o 3 haben sie ja zuletzt das o-vier-Mini eingeführt. Also im April waren wir aber stand die aktuellste Modell, was angelehnt angeht, war schon die neue Modellfamilie o-vier mit ihrem Minimodell und o-drei mit dem o-drei-Bas Modell, wo man auch sagen muss, benchim in Benchmarks waren die sich immer sehr, sehr, sehr, sehr ähnlich. Also zumindest von der Performance her 2 sehr ähnliche Modelle, aber eben ein sehr viel kleineres in der neuen Modellfamilie, was die gleiche Performance bringt. Und jetzt sind wir, haben wir sozusagen das erste Update in der Pro Familie. Vorher gab es nur das o one Pro, was im Grunde genommen so ist. Also ich mein, der das darunterliegende Modell und was genau die Parameter sind und so was, dafür darüber wissen wir nicht sonderlich viel. Aber was man grundsätzlich sagen kann, je höher man in dieser Modellfamilie geht von mini zu pro, desto länger geben sich diese Modelle Zeit zum und was auch gleichzeitig bedeutet, desto teurer sind die Modelle. Wir waren bei o one Pro natürlich bei sehr, sehr, also da damals, als wir das gehört haben, superteuren Pricings, so. Es war ja auch wurd ja auch gleichzeitig eingeführt mit dem 200 Dollar Tier für eine, wo man dann auch eine gewisse und gewisses Budget an Calls gegen diese Pro Modelle hatte. Bei o one Pro waren wir noch bei 600 Dollar Output und 150 Dollar Input Tokens. Und das heißt, wenn man einfach nur die Pro Modelle vergleicht, sehr viel sehr viel günstiger von 80 Dollar Output und 20 Dollar Tokens, also natürlich immer auf Millionen bezogen, ne. Mhm. Was eine siebenachtzigprozentige Preisreduktion ist und auch ein Modell ist, was natürlich sehr viel mächtiger im Vergleich zu o one pro ist. Es sind also einige Benchmarks auf jeden Fall genannt, in denen es besser ist. Ich mein, grundsätzlich, vielleicht mach ich erst kurz das Pricing fertig, also o 3 Pro, das neue Pro Modell, sehr viel günstiger als o one pro, das erste Neue in der in der pro Schiene der Modelle. Gleichzeitig sind sie aber auch mit o 3 sehr viel günstiger geworden. Sie sind jetzt startend von, wann war's, glaub ich, Mitte letzten Jahres von 60 Dollar Output und 15 Dollar. Also immer, ich sprech immer von Millionen auf 8 Dollar Output und 2 Dollar Input. Das ist, wenn man das jetzt mal vergleicht, so was wie Pro, also im Endeffekt vergleichbar mit anderen Modellen, die auch nicht direkt Modelle sind. Also vom Pricing ja wirklich super-, superinteressant, was jetzt angeht und eben nicht mehr eine komplett andere Liga, was die was die angeht. Und aber man natürlich trotzdem noch sagen muss, diese Modelle werden für unterschiedliche Use Cases so benutzt, ne. Also wir haben die natürlich die Standardmodelle von beispielsweise OpenAI wie was man natürlich eher benutzt. Und jetzt kommen wir vielleicht zu 'nem anderen Artikel, den ich jetzt erst mal anschließen würde, von von den Jungs von Late Space, einem Podcast auch im AI Umfeld, die auch in einigen Firmen im im im Umfeld unterwegs sind, die ja schon zu o one 'n relativ interessanten Blogbeitrag geschrieben haben, wie man o one und eben jetzt auch o 3 und was genau der Unterschied ist. Gab's auch viel Diskussionen drum. Und im Grunde genommen kann man sagen so, dass man diese grade die o 3, also die Pro Modelle so, wenn man jetzt auf die Minis schaut, die kann man schon eher benutzen wie so einen wie so einen Chatbot, so wie man ChatGPT oder irgendwelche anderen Modelle natürlich auch benutzt. Und die o-drei-Modelle sind eher die Modelle, wo's wirklich darum geht, sone Art oder oder zu sein. Also im Endeffekt funktionieren diese Modelle sehr viel besser mit sehr, sehr, sehr viel mehr Kontext so. Also man, da ist wirklich Kontext, ist in dem Zuge King und eben nicht so einen Chatlike Interface Button hat, sondern man sollte im Endeffekt sehr viel arbeiten des Crafting, des Promptes stecken und möglichst viel Kontext dafür liefern so. Und dann kriegt man auch und es und so der Blogartikel geht's sehr darum, sodass es halt auch schwierig ist, die Qualität dieser Modelle anhand der Benchmarks, die wir bisher so haben, die halt einzelne Anfragen mit Antwort darauf, richtig oder falsch, dass sie da natürlich auch besser drin sind, aber natürlich viel, viel länger brauchen. Teilweise geht das über mehrere Minuten, irgendwie Beispiele mit dreieinhalb bis 5 Minuten irgendwie, eine Antwort zu generieren. Und dass sie eben dann bei Use Case aber sehr viel besser sind. Ich glaub, das Beispiel, was im Blogbeitrag genannt wurde, war so, sie haben einfach probiert, auch von den letzten Jahren in ihrer Company Range irgendwie alle möglichen Aufzeichnungen ihrer Planungsmeetings, alles alles, was sie an Sprachmieus oder irgendwas bekommen haben, als Kontext da reinzugeben, dann wie eine Art für das für die nächste für das mindestens das nächste Jahr sich generieren zu lassen. Und gemeint, dass die bei diesen Use Cases einfach unfassbar war, wie gut diese Modelle oder grad o 3 Pro an dieser Stelle funktionieren, eben bei Aufgaben, die einen riesigen Kontext haben und innerhalb dieses Kontextes Antworten zu geben, beziehungsweise auch sehr viel, weiß nicht, ob man da von Bewusstsein sprechen kann, aber sehr viel bewusster sind, was ihre eigenen Limitierungen sind. Also sehr viel bewusster sind, wann sie für welche Funktionalität irgendwelche irgendwelche brauchen, irgendwelche MCPs oder oder ähnliche Tools. Und genau, also auf jeden Fall einfach, glaub ich, eine sehr interessante Ergänzung zur Modellfamilie und auch was das angeht definitiv auf 'nem anderen Niveau als wir noch bei waren. Und denk ich einfach ganz andere Use Cases. Also wenn man bei schaut, so diese Use Cases Use Cases sind, glaub ich, stark oder Codecs, mit dem ich jetzt selbst gar nicht so viel gemacht habe, also wirklich so auf Basis des, also Agenten auf Basis des gesamten des gesamten Code Repositories, möglichst viel Kontext zu geben. Ich glaub, da spielt's auf jeden Fall seine Vorzüge aus. Genau, aber selbst ausprobiert, also ich hab mal kurz gestern einfach nur einen Codex Anfrage jetzt mal gemacht. Und Sie sagen auch generell sollte dieses Modell viel genutzt werden für für den Background Mode, also wo man im Endeffekt asynchrone Tasor, wenn man mit der API interagiert, das im Background Mode fährt, was zum Codecs als auch die machen. Aber wenn man damit selbst interagiert in der eigenen API, dass es eben nicht irgendwelche Connection Abbrüche oder so was geht, weil's wie gesagt ein sehr langes ist bei den Modellen.
- Dennis
- Okay. Ist aber auch verfügbar in den in den, wie heißen sie? Wahrscheinlich jetzt immer, weiß ich nicht, mittlerweile, aber wir haben, glaub ich, Chat GPT Teams heißt es, ne. Also in unserer Chat GPT Lizenz ist zumindest auch.
- Fabi
- Genau, ist da ist da auch mit drin. Ich weiß aber jetzt ausm Kopf nicht, wie viele, also wie viele man im Monat oder Woche machen darf. Das ist ja immer definitiv sehr viel strenger limitiert als bei dem. Ja. Aber grundsätzlich ausprobierbar. Ja.
- Dennis
- Okay. Cool. Dann ein kleines Update. Ihr habt das Gefühl, es war 'n bisschen unterm Radar, aber ich weiß noch, man weiß auch nicht so genau, was passiert ist, aber Open hat den Voicemode noch mal gepimpt. Und das heißt, in diesem genau Livechat, wo man mit ChatGPT redet, sind jetzt, ich weiß gar nicht, ob die Stimmen unbedingt neu sind, aber die Art, wie die Stimme spricht, sie hat sich noch mal verändert. Und ich muss ganz ehrlich sagen, es war fast schon wieder son kleiner Aha Moment. Ich mein, man kannte das ja jetzt so, ne, dass die einfach irgendwie schön und natürlich mit einem reden und jetzt ist das so natürlich geworden, dass es wirklich schon creepy ist, dass man's halt 'n, das schon sehr, sehr schwer wird,
- Fabi
- das von den Menschen zu unterscheiden und einfach, weil da
- Dennis
- so kleine Lacher eingebaut sind und kleine Ips und kleine fast son bisschen heutige Frage, ob sie mit 'n Dialekt kriegen kann. Es war, ob sie son bisschen beschämend ist, das jetzt zu tun und so, also wirklich auch Emotionen mit mit rüberzubringen. Ja, also solltet ihr auf jeden Fall mal ausprobieren, wenn's 'n bisschen länger her ist, dass ich's gemacht hab, ist, glaub ich, seit knapp 'ner Woche, eineinhalb Wochen neu drin. Lohnt sich auf jeden Fall mal 'n bisschen mit rumzuspielen.
- Fabi
- Muss ich auf jeden Fall mal machen, hab ich bisschen nur von euch gehört, aber noch gar nicht
- Dennis
- ausprobiert. Ja. Philipp, was ist mit Matter und ai los?
- Philipp
- Ja, ich glaub, wir hatten's vor 'n paar Wochen beziehungsweise General Lama 4 war ja jetzt son bisschen eine Enttäuschung für alle. Und Marc hat der damals noch angekündigt, ja, es gibt Lama 4 Behemov und Lama 4 und irgendwie seit Anfang April war's, glaub ich, wo die Modelle kamen. Mhm. Hat man irgendwie nichts mehr gehört, bis dann plötzlich letzte Woche son bisschen losgegangen ist die News, dass mit ein neues Superintelligent Lab gründet, dass Leute gegangen sind, dass jetzt auch plötzlich scalei mehr oder weniger aufgekauft würde. Und zwar nicht ganz, beziehungsweise Meta hat 49 Prozent von scalei sich angekauft, sag ich einfach mal. Und nicht nur das, sondern auch so, also ich glaub, man nennt's fachsprachlichen Aquir, also man hat sozusagen eine Acquisition mit Hiring mehr oder weniger verbunden, da der ehemalige Scale CEO Alexander Wang das neue oder die neue Super Intelligence Division von Meta leiten soll. Die 49 Prozent haben Meta nur 14300000000.0 US Dollar gekostet. Und Alexander Wang will wird nicht der einzige von bleiben, der sozusagen mit zu Meta geht. Aber das ist nicht alles, Meta ist aktuell oder Mark Zuckerberg generell in sonem Auftrag. Also sind schon einige Rumers und generell geht er zu Google, Open Air, in Tropic, er zu allen guten Labs und versucht sozusagen Mitarbeiter abzuwerben. Es wird auch spekuliert, dass bis zu acht- oder neunstellige Zahlungen sozusagen verhandelt werden. Das Ganze ist dann eher über son, ich glaub, irgendwie Vierjahreshorizont und wenn man halt nur sozusagen die Ziele erreicht, aber es sind auf jeden Fall Geldsummen, die Sind wir hier im Fußball unterwegs? Ja, es scheint
- Fabi
- so fast. Transferfenster ist offen.
- Philipp
- Ja, son bisschen wirkt's. Also ich hab auch schon 'n paar, sag ich mal, Dinge mitbekommen, wo Leute angeschrieben würden oder generell. Und ja, also Beta ist auf jeden Fall aktiv und merkt, okay, sie haben hier was falsch gemacht, man muss was ändern, deswegen dieses neue, deswegen auch diesen großes Invest in. Vielleicht ganz kurz für die, die ja nicht kennen, ist eigentlich, glaub, die Company in den USA, die alle Labs mehr oder weniger mit synthetischen Daten und Datensätze beliefert. Also sie erstellen Datenset für alle mögliche Use Cases, vor allem für oder auch für Feedback. Das heißt, sie haben einen großen Prozess und Mitarbeiter und ich weiß nicht genau, wie's hinter den Kulissen funktioniert. Auf jeden Fall gehen AI oder Model Providers zu scale AI, sagen, hey, ich brauch hier 'n Datensatz dem und dem Bereich mehr oder weniger. Und die erstellen an dieses Datensatz, sag ich mal, semiautomated mit Menschen oder mit KI oder anderen Dingen. Es ist Metas größter externes Investment in AI. Mhm.
- Fabi
- AI. Mhm.
- Philipp
- Und zweitgrößte nach Whatsapp überhaupt. Also definitiv versucht er hier was zu ändern.
- Fabi
- Zeigt schon was.
- Dennis
- Ja, spannend. Bisschen in die Richtung Gehen von Investment ist eigentlich auch die News, dass OpenAI und Google einen Deal geschlossen haben, was jetzt auf dem ersten Blick vielleicht 'n bisschen komisch wirkt, da OpenAI ja sehr stark an Microsoft immer sich gekoppelt hat in der Zeit bisher. Und genau, also nach mehreren Monaten, so munkelt man, das ist nämlich auch noch keine offizielle Meldung dazu, ist es so, dass Open AI zukünftig auch Google Cloud Ressourcen nutzen möchte für all die Compute Power, die sie brauchen. Und genau, Google scheint da zumindest nicht dann verschlossen gewesen zu sein, zumindest an dem Partner dann ein bisschen mit zu verdienen. Und von daher wird es nicht mehr ausschließlich auf Microsoft Infrastruktur zukünftig sein, sondern auch ein bisschen in der Google Cloud laufen. Google. Vielleicht machen wir bei der News grade weiter, Fabi.
- Fabi
- Mhm.
- Dennis
- Dass Google ja auch eine Gefahr es für Google ist, was die aktuellen Entwicklungen angeht oder nicht nur für Google, sondern das, was an die Suche verknüpft ist.
- Fabi
- Genau, also da geht's Eigentlich
- Philipp
- ist es ja wegen Google, oder nicht?
- Fabi
- Genau, wegen Google, aber wir können ja auch richtig interessieren, ob's ob auch für Google eine Gefahr ist so, ne, weil zumindest Also genau, es geht hier worauf er denn das anspricht, ist einen einen Report von einigen größeren News Seiten beziehungsweise dem Onlinepart von großen von großen Zeitschriften, aber auch generell Onlinemagazinen wie der Huffing Post, Business Insider, Washington Post. Und dass sie im Endeffekt alle darüber sprechen, dass ihr organischer Sucht Traffic seit April 2022 bis heute beispielsweise jetzt am Business Insider Beispiel 55 Prozent gesunken ist so und sie ist in erster Linie darauf zurückführen durch die Einführung von Googles AI Overviews, so, dass einfach grundsätzlich sehr viel weniger User überhaupt auf Links drücken. Und ich würd jetzt mal sagen, das ist wahrscheinlich nicht nur etwas, was die was hier die News Seiten sehen, sondern generell viele der Seiten, die über Google aufgerufen werden, dass im Endeffekt die Leute oftmals schon bei den auf aufhören und gar nicht mehr auf links klicken und jetzt grade hier im Journalismus zumindest da der große Aufschrei kommt, weil eben auch ich, eine einen Zusammenschluss einiger die, also die einige von diesen von diesen Nachrichtenseiten vertreten eben auch sagen, dass im Endeffekt Google das macht, indem sie unerlaubterweise Inhalte der Seiten nehmen, zusammenfassen, indem ihnen anzeigen und wir in eine Art Diebstahl begehen, indem Leute, indem die User dann gar nicht mehr auf die Seiten geführt werden so. Und dass einige größere Nachrichtendienste auch darüber sprechen, dass sie sich auf eine Zeit vorbereiten müssen, indem es im Endeffekt keinerlei organischen Sucht Traffic mehr gibt und sie sich eigentlich auf eine Zeit einstellen müssen, indem sozusagen sie eigentlich nicht mehr auf Google setzen können, irgendwie Traffic auf ihre Seiten zu bekommen. Grade der CEO von Washington Post sagt das zum Beispiel und das das wär mit so ein so mit eine große Gefahr für den für den Journalismus. Und klar, ich mein, auch Simplapiche hat darauf reagiert und sagt irgendwie, dass das gar nicht, dass das gar nicht der Fall sei, dass sie weiterhin superviel Traffic senden würden und dass auch zum Beispiel AI Overviews bei bestimmten Nachrichtendiensten oder bei bestimmten Anfragen in Bezug auf Nachrichten gar nicht angezeigt werden und dass sie auch sehen. Ich mein, die Idee ist ja eigentlich, dass man über eine eine Zusammenfassung bekommt, dann in die Details einzusteigen, dass die, die zuerst sehen und dann auf solch einen Link klicken, sehr viel sind, was dann was dann ihre, was dann die Seite angeht, auf die sie, die sie gedrückt haben. So, von daher würd ich, also ich find's schon insofern interessant. Also erst mal kann ich's mir grundsätzlich vorstellen, wenn ich einfach nur auf meine eigene, auf mein eigenes Verhalten schaue, so was mir selbst schon einfach auffällt, dass ich, wenn ich Google im Endeffekt in vielen Fällen komplett ausreicht, meine Antwort zu finden. Aber dass jetzt Google zum beispielsweise ich auch weniger suche für tagesaktuelle Nachrichten und so. Also ich kann mir vorstellen, dass es vielleicht bei diesen Nachrichtendizen auch dann eher weiß nicht, größere inhaltliche Recherchen oder so was geht, wo der Traffic runtergedroppt ist, weil ich würd jetzt sagen, für die tagesaktuellen Nachrichten, zumindest jetzt einfach nur aus meinem Gefühl gesprochen so, da hatt ich mein Beispiel noch nirgendwo gesehen, aber würd ich Google wenig für nutzen. Aber ansonsten kann ich's schon vollkommen nachvollziehen. Aber natürlich auch son bisschen die Frage ist so, wie sieht Google das in Bezug auf ihre Werbebudgets so, ne? Woher durchaus Leute sich auch Platzierungen in diesen Rankings kaufen und so was. Und ich weiß jetzt auch gar nicht, ich bin gar nicht so im dadrin, inwiefern man sich diese Platzierung auch auf und so kaufen kann. Aber im Endeffekt verschlechtern sie ihr eigenes Werbeprodukt, wenn sie sagen, es ist der der Traffic, der über links passiert, ist sehr viel geringer oder wahrscheinlich wird es irgendwie geschiftet zu. Aber so, auf jeden Fall kein überraschender Blogbeitrag, würd ich sagen.
- Philipp
- Ich wär aber irgendwie vorsichtig, weil ich meine, ich bin selber nicht so viel auf so News Seiten, aber man kann sagen, was man möchte, das ist, deutsche Seiten, US Seiten, vor allem Nachrichtenseiten haben ganz viel diese in Website at, dass überall es blinkt und Werbung ist und sonstiges Zeug, was für mich eine komplette Abschreckung ist. Also ich schau mir solche Dinge gar nicht an. Und durch KI hab ich halt irgendwie eine Möglichkeit, eventuell die Information anders davorzuziehen. Wenn ich zum Beispiel meinen Blog anschaue, ich hab nicht weniger Aufrufe und ich hab halt vielleicht irgendwie 'n 'n besseres UI oder UX. Und ich glaub halt, das oder die Experience, die Du hast, wenn Du sagst, bei AI Overview, was ist hier und hier passiert? Und Du hast eine schöne Nachricht und nicht erst mal 35 Anzeigen und Fenster und Klicks, die Du machen musst. Vielleicht haben die da auch 'n bisschen selber dazu beigetragen, dass Du einfach nicht mehr auf diese Nachrichtenseiten gehen möchtest, weil es einfach die User Experience fürn Arsch ist, außer Du zahlst halt irgendwie 3, 4 Euro im Monat.
- Dennis
- Das ist grundsätzlich richtig. Trotzdem muss man natürlich irgendwie die Frage stellen, wie man das am Leben erhält, ne. Also ich mein, weil die Informationen auch für die AI Summary, die müssen ja irgendwo herkommen. Das heißt, irgendwo muss es ja diesen Journalismus geben und wenn er halt nicht finanziert werden kann über Anzeigen auf der Seite, muss man sich ja zukünftig irgendwie ein Modell ausdenken, was sich erstellt, dass dass es Leute gibt, die so was recherchieren und irgendwo Runden niederschreiben.
- Philipp
- Klar, gar keine Frage. Ich glaub halt nur, dass dieses Werbungskonzept, das wir haben, halt durch KI wahrscheinlich noch beschleunigt überholt wird und wahrscheinlich schon die falsche Herangehensweise vor ein, 2 Jahren war.
- Fabi
- Also ich glaube, ich mein, da können wir gerne, also ich ich seh es aus, ich bin auch kein Fan auf jeden Fall von dem Monetarisierungskonzept, den den solche Seiten gewählt haben. Also ich bin auch gar kein Fan von diesen Modellen. Denk immer, wenn ich mir einfach natürlich jeden Artikel 'n einzeln geben will, dass ich dafür bezahlen kann, hätt ich schon, also ich es ich spende eigentlich überhaupt gar kein Geld bei diesen bei bei Nachrichtendiensten, weil mir immer die zu teuer ist, aber ich superviele Einzelartikel, in Summe hätte ich vielleicht sogar schon mehr gemacht, als wenn ich die hätte. Also ich seh's erst mal ähnlich, auch mit dem Werbekonzept und so weiter. Trotzdem, wenn man auch noch mal 'n bisschen rauszoomt, ich weiß nicht, wie's bei dir ist, aber würd mal sagen, ist ja schön, dass in deinem Blog noch genauso viel Traffic kommt, anders muss man sagen, Du musst auch dein Geld nicht mit deinem Blog verdienen so. Und trotzdem ist auch, wenn wenn ich bei mir draufschaue, also meine Realität ist definitiv, ich gehe weniger auf links drauf durch AI Overviews so. Also zumindest, wenn ich einfach nur mehr selbst darauf blicke und dass es natürlich bei irgendjemand einem Impact haben muss und dass ich mir vorstellen kann, dass bei Nachrichtendiensten der Impact da ist, kann ich mir durchaus auch vorstellen. Und ich mein, sich mal darum Gedanken zu machen, was es bedeutet im Endeffekt, dass die Suchmaschine dich nicht mehr kein son guter organischer Kanal mehr sein kann. Ich glaube schon, dass er weniger sein wird. Also ich erwarte jetzt nicht mehr organischen Traffic durch, aber wie ist er wird doch geringer sein oder sieht das jemand von euch anders.
- Philipp
- Ich glaub, ich würd's anders sehen. Ich glaub, dass AI Traffic dazu führen kann, dass wir wieder So, ganz am Anfang, Google wurde ja erfolgreich, weil das Web so viele Seiten hatte und Du wusstest nicht, welcher Seite Du vertrauen kannst oder wo high qualitativer Content war. So, das war ja der hat der Hauptgrund, warum man eigentlich am Anfang Google son bisschen genutzt hat. Und ich glaub, das selbe Konzept kann son bisschen bei AI kommen. Ich mein ChatGPT, Gemini, Antopic, jeder unterstützt ja jetzt mehr oder weniger Quellen und Zitate und Ressourcen. Und ich glaub, umso besser dein Content und umso zugänglicher dein Content ist, den Du published, umso eher wird der wahrscheinlich auch referenziert. Und die Frage ist halt, wie Du das richtige Modell dann dazwischen ausarbeitest, aber ich glaub nicht unbedingt, dass dein Traffic runtergehen muss, nur weil AI kommt. Das wird sich halt verändern und es wird sich halt wieder rauskristallisieren, welche Seiten mehr oder weniger am KI freundlichsten sind und qualitativ halt anspruchsvoll sind, dass sie halt wieder bevorzugt werden. Ich mein, dasselbe, was wir bei PCO hatten vor 10, 15 Jahren, wird halt jetzt irgendwie mit KI kommen auf die eine oder andere Art und Weise.
- Dennis
- Aber dafür brauchst Du da den Need, dass Du dann diese viel weiteren Informationen noch brauchst. Ich mein, wenn dann halt der die Quintessenz von dem, was dein dein Blogartikel sagt, mir direkt innerhalb des Chatpots gezeigt wird, dann ist mein dann ist mein Drang, auf deine Webseite zu geben.
- Philipp
- Ja, aber hab ich dann weniger Aufrufe, wenn in dem Moment die KI meine Webseite liest und das dieselbe Nutzeranzahl macht? Der Unterschied ist halt, dass eine KI meine Seite besucht und nicht der User Und die KI sieht halt die Werbung nicht und der User sieht halt die Werbung. Also an sich
- Fabi
- Genau, genau.
- Philipp
- Dem Traffic wird wahrscheinlich nicht verändert.
- Fabi
- Genau, aber ich mein, im Endeffekt geht's dann wiederum da ja den Traffic, sondern darum, dass ich am Ende Geld verdienen will und von der mit der KI werde ich kein Geld verdienen. Aber vielleicht ist ja am Ende auch so, keine Ahnung, dass wir eher von Businessmodellen sprechen wie, sagen wir mal, Youtube es macht oder so, ne, dass News Site im Endeffekt auch nur Inhaltprovider sind für die verschiedenen AIs. Und im Endeffekt, wenn Google sich 'nem anderes Modell finden muss, wenn er angeschaut werden, sich halt auch überlegen muss, okay, wie verdienen wir damit Geld? Entweder ist es über Subscription oder wie auch bei Youtube zeigen die ja zwischen Werbung an, keine Ahnung. Dann kriegst Du halt, je nachdem, wie häufig Du auch immer in diesen auftauchst als Quelle, einen gewissen Anteil vom Kuchen oder so was. Aber mein, die, es kann ja nicht am Ende sein so, dass Du sagst, okay, wir, ist ja im Endeffekt, wenn man wenn man Philipp dein Argument weiterführt so, ist ja dann wirklich nichts anders als stehend, sondern die AI schafft es, ohne dass die Werbung gesehen werden muss, den Inhalt zu nehmen und besser aufzuarbeiten so. Und dadurch, natürlich ist es für den User besser. Ich will ja auch die lesen, wenn sie besser werden und nicht keine Werbung mehr sehen musste. Aber trotzdem muss man natürlich sagen, irgendwie müssen die Inhalte ja generiert werden. Und zumindest komplett ohne Bezahlung wird's nicht funktionieren so. Dann wird's am Ende auch qualitativ schlechter, wenn die nicht mehr auf die Ressourcen zurückgreifen können, weil sie eben nicht mehr online werden.
- Philipp
- Ja, bisher wie bei allem, man muss sich halt Gedanken machen, wie sich das verändert wird. Und es wird sich verändern und nur davon jetzt auszugehen, dass es so weitergeht, wird nicht funktionieren. Und ich mein, das ist die Technologie.
- Fabi
- Ja. Aber wir hatten
- Philipp
- ja auch mal noch Zeitungen auf Papier, dann hatten wir Zeitungen als App, dann hatten wir Zeitungen online. Es entwickelt sich ja immer weiter und ich muss mich halt auch irgendwie versuchen, mitzuentwickeln. Und manche werden's schaffen und manche oder viele werden's wahrscheinlich nicht schaffen. Und dann muss man schauen, was das bedeutet.
- Fabi
- Ja. Aber ich glaube Ich
- Dennis
- glaube, das ist richtig. Und trotzdem kann man in dem Fall, glaub ich, schon auch von soner gewissen Gesamtverantwortung irgendwie sprechen, ne. Also natürlich ist es eine Technologie, die sich weiterentwickelt, aber wenn Du der große Player oder die großen Player sind, die das vorantreiben und
- Fabi
- und
- Dennis
- da ist halt schon eine Grenze. Also oft würde ich irgendwie sagen, ja, die Leute müssen sich dann anpassen, aber weiß nicht, beim bei Journalismus fällt es mir irgendwie schwerer dann zu sagen, ne, irgendwie andere Wege finden, Ja. Das
- Philipp
- sicherzustellen. Ich mein, damals gab's ja, ich mein, wir zahlen alle 'n GEZ Beitrag für Journalismus eigentlich.
- Dennis
- Ja, ist richtig.
- Philipp
- Ich mein, dann muss man wieder über so was gehen und dann vielleicht den GEZ Beitrag auch vielleicht für Journalismus nutzen und nicht irgendwie Traumschiff oder so was.
- Fabi
- Gut, anhalten muss, aber da ist auch wieder irgendwie, find ich's schon auch 'n bisschen zu kurz gedacht, weil ich irgendwie denke, das heißt, wir sollen dann am Ende über den GEZ Beitrag Journalismus fördern und große Techkonzerne nehmen sich diese Information und nehmen sozusagen das Geld, was wir bezahlen und arbeiten, in anderen Formen auf. Und damit kann kein weiteres Geld generiert werden, außer für die großen Techkonzerne so. Also ich ich würd schon sagen, auch deine Beispiel mit, die Plattform hat sich verändert, Zeitschriften klar, der war irgendwie analog, dann wurd's digital, dann haben wir Apps, dann haben wir Webseiten und so was. Hat jedes Mal die Plattform verändert, aber man selbst war der Provider und jetzt wird einem der Inhalt genommen und auf eine Plattform gebracht, auf die ich keinen direkten Innen Einfluss habe so. Und ich bin im Endeffekt erst mal als Newsletter davon abhängig, wie der aufgebaut gebaut wird, dass man den Traffic bekommt, dass ich natürlich probieren kann, meine Seite so anspruchsvoll wie möglich zu machen, das zu optimieren. Aber trotzdem bin ich am Ende von der von der Gunst und der Einstellung des Algorithmus irgendwie abhängig. Und ich hab auch keine definitive Antwort darauf, aber irgendwie zu sagen, das ist jetzt einfach Technologie, die entwickelt sich weiter und dann muss man sich eben anpassen, glaub ich, greift in dem Zuge halt nicht. Man muss sich schon darüber unterhalten, was ist, also was was darf so ein Unternehmen sich dann nehmen und einfach so dort anzeigen in so und was auch nicht?
- Philipp
- Aber es es ist immer noch 'n Plattfronthema, weil die funktionieren ja nur, weil Du aktuell deine Nachrichten auf deiner Webseite hast. Wenn Du deine Nachrichten nicht mehr auf deiner Webseite hast, sondern nur hinter 'ner API, die zugänglich ist für, ich weiß nicht, Google zum Beispiel und die bezahlen dich dann, dann bist Du auch wieder der Eigentümer von den Nachrichten. Also wenn's dir die Webseiten gibt, die AI Overview anschauen kann oder weil Du Bots oder AI Detectors und die blockierst, dann würde auch Google oder Open AI nicht deine Seite indizieren. Aber dann kommst Du halt zu dem Punkt, den wir halt vorher hatten. Wenn dein Content halt nicht mehr in AI integriert wird, wird andere Content integriert, dann hast Du halt auch wieder nichts gewonnen.
- Fabi
- So. Genau, das ist aber halt der Punkt. Und wer ist jetzt in der Verantwortung, wenn Du halt sagst, so in der Richtung, da ist halt eine, also vom Monopol kann man nicht sprechen, weil's sehr viele Anbieter gibt, aber im Endeffekt bist Du halt schon davon abhängen, nur weil Du jetzt sagst, okay, ich will da nicht mitspielen. Im Endeffekt müssen halt das alle zusammentun und ich glaube, das ist halt Ich
- Dennis
- glaube, der springende Punkt ist ja, also wenn Google das jetzt als kostenlosen Service rausbringen würde, wär das vielleicht auch noch mal was anderes, aber wie Du schon sagst, wir zahlen ja für die Nutzung von AI und die wiederum zahlen nicht für die Inhalte Ja. Ne, die die sind. Und da ist ja der Bruch.
- Philipp
- Aber AI Overview ist doch kostenlos oder ChatGPT ist ja auch kostenlos, oder?
- Fabi
- Ja, gut, da in dem Fall zahlt jemand anders, in dem Fall waren zahlen die Werbeprovider, ne. Also so Google verdient ihr Geld mit der Werbung so. Wir sind das Produkt, was verkauft wird, unsere Aufmerksamkeit und 7 bestellen sozusagen die Inhalte Inhalte dafür bereit.
- Philipp
- Also ich kann mir halt vorstellen, dass es eine größere Differenzierung zwischen wirklich Nachrichten gibt und Entertainment, weil ich sag ja, viele Nachrichtenseiten sind zu viel Entertainment geworden, auch wenn man hier in Deutschland mal schaut. Und Nachrichten sollte man definitiv fördern staatlich, dass sie halt einfach ihre Journalismus und Recherche machen können und objektiv bleiben. Ich mein, das hat 'n guten Grund gehabt, warum man damals GEZ eingeführt hat und das son bisschen objektiver gestaltet hat. Und für Entertainment, das wird sich halt komplett ändern, weil ist einfach der Lauf der Dinge. Und dann wird's wahrscheinlich Seiten geben, die ja hochqualitativen Content generieren, die entweder Partnerschaften mit denen Providern eingehen oder halt wirklich hinter sind, wo Du dann einzelne Artikel kaufen kannst oder halt 'n Abonnement.
- Fabi
- Ja. Also wie gesagt, wenn wenn wir von einem Zukunftszenario sprechen, wo's Partnerschaften gibt, würd
- Dennis
- ich da auch
- Fabi
- 'n Haken dran machen. So die Frage ist nur, wer von wem werden die getrieben? So bisher sieht's ja nicht so aus, wie Du Google irgendwelche Partnerschaften eigentlich Doch.
- Philipp
- Also ich mein, Open Air und Google und auch, die haben ja alle Partnerschaften mit Washington Post und New York Times und sonst was. Also da gibt's ja wirklich mittlerweile. Aber ich frag mich halt, sind es nur Daten oder andere Dinge? Also
- Fabi
- Aber interessant, ne, Washington Post gehört ja auch zu denen, die da genannt waren im Artikel so und interessant, dass sie das trotzdem so so dann schreiben, würde man ja meinen, dass es da Gespräche drüber gibt.
- Dennis
- Aber gut, wir werden's leider nicht abschließend lösen können.
- Fabi
- Ja, aber interessant,
- Dennis
- aber Nee, war nicht auch gut.
- Philipp
- Ja. Ich mein, gleich, ich hab jetzt, ihr wisst ja Google versucht ja oder aktuell, weil wir arbeiten ja alle daran, dass wir Google Search nicht nutzen müssen in der Zukunft und dass ja auch son bisschen in sich geschlossen schwierig, weil Google Search ein großer Teil von Google ist. Das heißt, keiner weiß so genau, was passiert. Alle wissen, dass es extrem wichtig ist und wir können's nicht ignorieren. Und das würde auch nicht weggehen, wenn wir, wenn wir jetzt aufhören.
- Fabi
- Ja. Ja, also definitiv. Da glaub ich auch schon. Also ich glaube, dass dass, wenn wir uns in 10 Jahren mit, keine Ahnung, Dennis und ich nicht mit unseren Kindern drüber unterhalten, die würden uns wahrscheinlich auslachen. Wenn wir irgendwie 10, früher haben wir in Google gesucht und am Ende mussten wir die ersten 5 blauen Links durchklicken, selbst rauszufinden, was davon relevante Infos sind. So. Wie gesagt, ich merk's ja selbst an meinem Verhalten, ich geh vollkommen damit, dass das nicht die Zukunft sein wird, dass man auf eine Suche drückt und dann sich die Links durchgeht so. Da geh ich vollkommen mit. Von daher, Haken dran, die Technik wird sich verändern.
- Dennis
- Und entweder ich hab 'n Bug aktuell in meinem Browser oder es ist son komischer Test, aber mir sind jetzt grade die Farben, es kann nur Farbe sehen, die sehen alle so aus, als hätte ich die Seiten schon besucht. War so unterbewusst, so wahnsinnig verwirrend, also ich zu Google irgend eine neues Thema und das ist alle besuchte Seiten, kann doch gar nicht sein. Das ist grade sehr komisch.
- Philipp
- Vielleicht ist da der Viertelstunde, Du googelst.
- Fabi
- Ja. Die wollen dich davon ab.
- Dennis
- Aber ich will doch die haben. Krass. Iute. Speaking, wir haben grade über Partnerschaften und Kollaborationen gesprochen. Und jetzt Deutschland vorneweg als größter KI Fahnenträger Europas. Bis jetzt bis jetzt hätten wir durch die Kopf gestohlen, ich wollt jetzt weiter einschränken. Ja, ich Europas, der westlichen, der der 5, was auch immer. Also Philipp, was gibt's da Neues?
- Philipp
- Genau. Letzte Woche war in Paris 'n ganz großes NVIDIA Event und im Zuge dessen hat Bundeskanzler Friedrich Merz gemeinsam mit NVIDIA CEO und der Deutschen Telekom eine KI Initiative angekündigt. Und zwar möchte Deutschland oder beziehungsweise Nvidia, Telekom und ich weiß nicht, wie die Bundesregierung mit reinspielt, auf jeden Fall ein eine KI Cloud bauen oder eine Gigafabrik mehr oder weniger mit GPUs von Nvidia. Es sollen bis spätestens 2026 10000 GPUs verfügbar sein, bis 20 27 sollen's bis 100000 GPUs verfügbar sein an mehreren Standorten. Zielgruppe, Start ups, Industrieunternehmen, die halt KI oder CPU und Rechenleistung brauchen und man möchte das halt sozusagen lokal ermöglichen. Klingt sehr cool. Also ich find's richtig cool als Nachricht. Ich bin aber 'n bisschen skeptisch, weil wir hatten, ich weiß nicht, es ist letztes Jahr gewesen, wo man die anderen KI Initiativen von der EU vorgestellt hat und was man alles machen möchte. Deswegen ich bin da mittlerweile sehr vorsichtig und warte erst mal ab, bis man wirklich hört, dass es fertig ist oder bis es Zugang gibt und was es dann kostet und wie es funktioniert. Ich mein, ich weiß nicht, wie viele von euch's noch wissen, aber die Telekom hat ja auch mal versucht, eine deutsche Cloud zu bauen, so vor 5 bis 5 Jahren, würd ich mal sagen, bisschen länger. Hat nicht so gut funktioniert, deswegen
- Fabi
- eine GPU Cloud hat ja nicht 'n Problem.
- Philipp
- Nee, die deutsche, die sone Public Cloud wie, man wollte mit Amazon und Azure konkurrieren, hat nicht gut funktioniert. Deswegen bin ich da 'n bisschen vorsichtig, was das alles angeht. Aber klingt sehr gut. Ich hab auch versucht, 'n bisschen Research zu machen, warum Telekom und warum nicht irgendwie die Schwarzgruppe oder irgendjemand anderes, sag ich mal, oder SAP oder irgendjemand anderes halt. Findet man nichts. Also Mhm.
- Dennis
- Gut verdrahtet mit der Bundesregierung. Ja. Cool. Wo sind wir hier? Dann kurzes Update zu Windsurf. Windsurf ist eine der AI first IDEs, die es da draußen gibt, über die wir auch heute häufiger schon gesprochen haben. Da gibt es einen neuen Plan Mode, was auch andere ja durchaus auch schon haben. Aber im Marketing ist eben die die Rede davon, dass es das deutlich besser macht, einfach von jetzt auf gleich, weil es eben, und das vielleicht 'n bisschen neu, also es führt praktisch son eigenes Dokument mit. Es gibt son Markdown File, was dann im Projekt liegt und da ist so aktuell immer der der aktuelle Plan mit drin. Und dann muss es nicht immer wieder komplett sich den ganzen Kontext holen und wieder irgendwie neu anfangen, sondern dass diese Grundlage biegt seltener falsch ab und ist son bisschen strukturierter, das zu tun und genau, das ist jetzt dieser explizite Planungsmodus mit den Marktdown dazu.
- Fabi
- Windsurv ist ja, also genau, bin jetzt mit Leuten zu OpenAI, da wird ja Anfang Mai 3000000000 von OpenAI gekauft.
- Dennis
- Angeblich ist das ja immer noch nicht offiziell.
- Fabi
- Ist das so?
- Philipp
- Ja. Also es gibt noch
- Fabi
- Es gab
- Dennis
- immer noch kein offizielles Statement, aber
- Fabi
- Siehste mal, ich hab das als offizielles Statement abgespeichert. Bei mir ist das ganz offiziell. Okay. Ich
- Philipp
- meine, auch ganz offiziell hat ja auch an Tropic Windsorv Zugang zu ihren Modellen zu geben.
- Fabi
- Deswegen Könnte damit zusammenhängen. Okay, also nichts offiziell, ja. Also vermeintlich. Nicht, man weiß.
- Philipp
- Ja, vermeintlich.
- Fabi
- Aber das einzuordnen. Da, das ist richtig. Den die die
- Dennis
- geht's, ja. Und das war ein schöner Übergang, wo Du grad als Stichwort genannt hast, Fabi. Da gibt es noch etwas, was die vorgestellt haben, aus der Forschung, glaub ich, ne? Also wo hast Du
- Fabi
- Ja, im Endeffekt gab's 2 gute Übergänge, zu diesem Thema zu kommen. Der eine war jetzt das das Stichwort, weil es ein Paper ist von, wo's einen geht, also im Verfahren, dass sich Sprachmodelle selbst feinjustieren können. Und der andere gute Übergang wäre gewesen bei, die ja durchaus sind für viele Datensätze, auch grad was Feedback angeht, was ja durchaus eine der Methoden war, solche Modelle fein zu justieren. Und hier geht's jetzt eben einen Algorithmus, der vielleicht auch ein bisschen Angst machen könnte, aber ich denk, es eher eine Ergänzung statt 1 Ersetzung ist. Und zwar ein 1 ein Algorithmus, der das eben nicht mit manueller Arbeit macht, solche Datensätze zu labeln und irgendwie bestimmt neue Labels zu erzeugen, sondern das automatisch tut mit 2 grundlegenden Prinzipien. Das eine ist, also so Vorhersagbarkeit, wo im Endeffekt die schauen soll, dass es ja ganz viele Informationen hat und probiert, von den bestehenden Informationen abzuleiten, was die Antwort von einem neuen, von 1 neuen Aussage sein könnte. Also im Grunde genommen zu sagen, okay, es ist ja sehr gut darin, bestimmte Patterns irgendwie zu erkennen und einfach selbst zu erkennen, was könnte denn ein Pattern sein und was könnte die richtige Antwort an 'ner bestimmten Stelle sein? Aber auch so was wie, das zweite Prinzip ist die logische Konsistenz, also dass bestimmte Dinge und bestimmte bestimmte Annahmen, die dann dort getroffen werden, sich eben gegenseitig nicht widersprechen. Sozusagen, dass die schaut, okay, kann ich eine Antwort ableiten von dem, was ich schon weiß? Und wenn ich diese Antwort abgeleitet habe, so ist es in dem, in sich logisch noch konsistent, dass es nichts anderem widerspricht, was ich schon weiß. Und dadurch sozusagen selbst Labels selbst Labels erzeugt und sozusagen das, was Green und Learning from Human Feedback macht, automatisierter tun kann. Und zumindest die Erkenntnis ist, dass in einigen Dingen hinten ansteht, was angeht, aber in manchen Dingen auch sogar schon besser funktioniert. Grundsätzlich kann man sagen, dieses Prinzip funktioniert erst mal für Dinge, die das Modell schon weiß, also von Daten, die auf denen es trainiert ist. Wenn es etwas komplett Neues erlernen soll, funktioniert es nicht, weil es muss irgendwoher diese natürlich diese Annahmen treffen und da ist es nicht gut. Aber es gibt einige Benchmarks, wo es dann durchaus so was wie, also so was wie Wahrheitsgehalt bei mathematischer Korrektheit oder den Alpaka Benchmark, so was, was Hilfsbereitschaft angeht. Also so, ich kenn sie nicht genau. Ich weiß nicht, ob Du ob Du sie besser kennst, diese diese Tests, aber dass es da auf jeden Fall durchaus schon Vorteile haben soll, das einzusetzen. Aber eben wie es klingt, grade weil es eben sich nicht neue Dinge dadurch dann ableiten kann, scheint das eine Ergänzung zu sein, was das Feintuning von Modellen angeht. Mhm.
- Dennis
- Gut. Da die Zeit schon relativ fortgeschritten ist durch unsere Diskussion in der Mitte, mach ich mal ganz kurz mit GitHub remote MCP, also auch GitHub hat jetzt einen Server, womit man auf, ja, so alle irgendwie aktuellen Daten in sonem, in 'nem zugreifen kann. Das kann sein, das können sein, können auch, ja, Codeänderungen sein. Und genau dann, das funktioniert auch mit O-Auth. Fabi, hast Du noch mal mittlerweile irgendwelche O-Auth Erfahrungen mit MCP, die irgendwie besser waren?
- Fabi
- Ja, zumindest hatte ich ja, ich glaub ja, auch auf LinkedIn irgendwie einen Post gemacht, wo ich zumindest mal linear angebunden hatte und's auch grundsätzlich funktioniert hat. Ich muss sagen halt grad in der IDI, was grundsätzlich nervt halt jedes Mal, wenn Du irgendwie eine neues Wind auf machst, jeder MCP Server muss halt jedes Mal diesen, jedes Mal gehen da irgendwelche Websites plappen da auf so. Also wie in 'n MCP Server, wo Du irgendwie 'n hast, plappen bei mir jedes Mal diese Tokens auf so. Also ich ich hab noch nicht so viel weiter getestet. Ich hab schon hier und da funktioniert, aber ich nutz sie ehrlicherweise lokal nicht so viel aktuell.
- Dennis
- Okay. Genau, aber ist auf jeden Fall möglich, da jetzt auf den Kontext von GitHub zuzugreifen, aus dem Modell raus. Und dann haben wir noch letztes Thema für heute von Philipp, wo es Multi Agent versus Single Agent geht. Was ist das für eine Diskussion?
- Philipp
- Genau, also es gab zufälligerweise an 'nem selben Tag auf wurden 2 Blogposts released. Der eine von Antropic, der andere von Cognition. Cognition ist das Unternehmen hinter Devan AI, welches 'n Blogpost veröffentlicht hat, der hieß Down Build Multi Agents. Am selben Tag hat Antropic 'n Blogpost veröffentlicht, der heißt, und das hat son bisschen auf Social Media halt zu sehr interessanten Perspektiven geführt, dass halt dies die eine sagen, hey, mach das, die anderen sagen, hey, mach das nicht. Was ist sehr gut oder was sehr interessant ist, dass beide mehr oder weniger dasselbe sagen. Also was wichtig ist oder worauf Du achten musst, wenn Du halt an sich AI Agent post Und wie man auch sehen wird in der Zukunft, dass das halt, dass man nicht sagen kann, okay, ist es jetzt richtig, nur ein Agent zu haben mit irgendwie mehreren Tools und ich wähle die Tools dynamisch aus oder ich hab halt wirklich diese Multi Agents, ist auf jeden Fall beide sehr, sehr, sehr lesenswert. Die sind auch relativ kurz und das war's eigentlich schon.
- Fabi
- Okay. Cool.
- Dennis
- Dann sind wir durch.
- Fabi
- Vielleicht Gleich noch kurz, ich hab's vergessen bei dem einen Artikel zusammen, bin ich gesprochen, was und den neuen Algorithmus da angeht. Oder? Das kamen wir als Hörervorschlag von Wolfram bei uns rein. Von daher noch mal vielen Dank, dass Du es uns geschickt hast. Und vielleicht auch hier noch mal der Aufruf, dass ihr das gerne natürlich auch häufiger machen könnt, uns Themen zu schicken, die hier irgendwie landen soll. Sei das einerseits über unsere E-Mail-Kanäle, Podcast oder Programmier Punkt bar oder auch über die neue Discord Community. Immer herzlich gern und vielen Dank für die einen Sinne.
- Dennis
- Ja, cool. Vielen Dank Philipp. Vielen Dank Fabi. Danke Dennis. Und bis in 14 Tagen in dieser Runde wieder. Macht's gut. Tschau. Tschüs.