News AI 49/25 –

Flux 2 // Nano Banana Pro // Opus 4.5

04.12.2025

Shownotes

🖼️ Flux.2 von Black Forest Labs

  • Black Forest Labs aus Freiburg hat das neue Bildgenerierungsmodell Flux 2 veröffentlicht.

  • Parallel dazu hat das Unternehmen eine Series-B-Finanzierungsrunde über 300 Mio. € abgeschlossen.

  • Die Unternehmensbewertung liegt nun bei 3,2 Milliarden Euro.

🍌🧠 Google Nano Banana Pro & NotebookLM-Updates

  • Google hat eine Pro-Version des Nano Banana Image Modells vorgestellt.

  • Flux 2 und Nano Banana Pro werden derzeit als Flagship-Modelle im Bereich Bildgenerierung eingeordnet.

  • Google erweitert NotebookLM um neue Funktionen auf Basis des Modells:

    • Infographic-Generierung

    • Präsentationsgenerierung

🤖📚 Anthropic Opus 4.5 Modell & neue API-Funktionen

  • Anthropic hat das neue Modell Opus veröffentlicht.

  • In der API wurden zusätzliche Funktionen eingeführt, darunter das Tools Search Tool, das den Einfluss von MCPs auf die nutzbare Kontextgröße bei Anfragen reduzieren soll.

/transkript/programmierbar/news-ai-49-25-flux-2-nano-banana-pro-opus-4-5
Dennis
Hallo und herzlich willkommen zu den AI News in der Kalenderwoche 49. Wir sprechen heute über Flachs 2, das neue Opos Modell und die neue oder die Features, die's dort neu gibt. Und dann vom letzten Mal praktisch kurz hinter der Aufnahme, die wir hatten, kam noch Nano Banana Pro, das Bildmodell von Gemly 3 mit. Und ich will noch 'n bisschen über die Funktionen sprechen, die damit auch in Notebook l m noch Einzug erhalten haben. Mein Name ist Dennis Becker und heute zusammen mit mir im Studio
Fabi
sind der Fabi Fincolo und der
Philipp
Philipp.
Dennis
Und das ist, Philipp haben wir grad festgestellt, deine letzte Folge vor Weihnachten. Ja. Ja. Hänger.
Philipp
Vor der nächsten Folge.
Fabi
Man kann ja, Du setzt eine Folge aus, könnte man auch sagen.
Dennis
Ja, so könnte man's auch formulieren. Aber Du hast zumindest mal verdient Urlaub. Ich würde sagen, ich war war schon sicher 'n spannendes Jahr bei Google, aber auch mit Sicherheit jetzt, was in 'ner gewissen Weise anspruchsvoll war, was die Belastung angeht. Von daher, glaub ich, ist immer ganz gut, ein bisschen Auszeit dir zu gönnen.
Philipp
Ist das jetzt son, das ist sone Aufforderung, dass man die nächste Folge skippen kann oder eher so, dass man nicht so viel Erwartungen haben sollte oder?
Fabi
Oder das ist mal, wie ich Du hast ja nur Du
???
hast ja eine Frage, ne?
Fabi
Nein, wir können noch anders
Dennis
Richtig tief mal in AI einsteigen. Okay. Erst mal ich dann. Okay.
Philipp
Ja, vielleicht gibt's dann gar keinen Bedarf mehr 20 26.
Dennis
Wir werden sehen,
Fabi
genau. Vielleicht hatte das es doch recht. Das ist wirklich deine letzte Folge.
Dennis
Nein, wir freuen uns, wenn Du uns heute mit deinen Inside bereicherst. Aber Fabio und ich sind selbstbewusst genug, die nächste ARD News selbst aufzunehmen. Nicht wahr.
Fabi
Ja, ich denk, doch auch.
Dennis
Sehr schön. Dann Fabi, fang noch mal an mit ein bisschen deutschem Stolz.
Fabi
Ja, genau, das ist jetzt ja die Frage. Jetzt haben, wenn wir beim letzten Mal Nano Banana Pro noch gar hatten und so und jetzt nehm ich den Vergleich, den aus der deutschen Riege, ein neues Bildmodell. Genau, Black Forest Lab hat's nämlich 1 rausgebracht, Flachs zweite Vielleicht noch mal son bisschen die Historie aufmachen. Ich weiß gar nicht, wann wir zuletzt über Black Forest Labs damit auf Flachs gesprochen haben, aber wenn man mal son bisschen die Historie aufmalt, es ist ja ein Start-up aus Freiburg. Es waren ja Jungs von der Ludwig Maximilian Universität in München, die waren auch bei Stable Diffusion, haben da damals mit ihrem Professor das Ganze zusammen gemacht, haben dann so Mitte letzten Jahres eine eigene Firma gegründet, Black Forest Labs. Sitzen, wie gesagt, Freiburg und haben im August 24, da haben sie Flachs 1 rausgebracht. So seitdem, was man eigentlich so gehört hat, ich weiß gar nicht, was wir davon alles in den News hatten, aber sie haben im November 24 letzten Jahres son Flachs Tools rausgebracht und im Mai diesen Jahres Flachs Kontext, also so diese diese Bildbearbeitungsvariante von ihren Flachs Modellen, haben jetzt ein neues Modell mit Flachs 2 rausgebracht. Parallel dazu auch son bisschen, wenn man so die Größe sich mal anschaut, so Black Forest Lab, Sie waren damals 10 Leute, sind jetzt 50, haben jetzt auch grade vor Kurzem die zweite Series-B-Fundingrunde abgeschlossen, letztes Jahr irgendwie knapp paarunddreißig Millionen irgendwie aufgenommen. Jetzt sind sie bei 300000000, damit sind sie jetzt mit 'ner Evaluierung von 3200000000.0, glaube ich, das größte KI Unternehmen Deutschlands. Und auf jeden Fall super cool, dass Sie jetzt da Wir können ja gleich noch mal drüber reden, wenn wir uns über Nano Banana Pro unterhalten, aber im Endeffekt ein Model rausgebracht haben, was auf dem Markt wirklich State of the Art zusammen mit Nano Banana Pro ist. So, ich glaub der Klar, im im Detail und so was, man da mal 'n bisschen schauen, worin sie sich unterscheiden. Vielleicht erst mal featuremäßig so. Also man hat irgendwie 'n Multireferent Support, also man kann bis zu 10 Bilder gleichzeitig mit irgendwie Character Products Style Consistency mit reingeben. Man hat auch dieses sehr gute Text Rendering und auch diese Beispiel, die wir auch in unseren internen Channels hier mit Philipp und so auch geteilt haben, dass man so Informationsgrafiken erstellen kann. Auf jeden Fall auch sehr beeindruckende Use Cases von Flux zweite Genau, ansonsten auch erhöhtes World Knowledge, so, also das ist sehr sehr viel konsistentere Bilder und auch die high also hohe Auflösung bis zu 4 Megapixel an Bildern.
???
Und wenn man sich die Modellfamilie mal son bisschen anschaut,
Fabi
der große Unterschied, wenn man sich auch Black Frost Labs und mal son bisschen anschaut, der große Unterschied, wenn man sich auch Black Frost Labs und Flux anschaut, ist das hier auch immer ein Open Source Modell mit Release. Also wir sind auch sehr aktiv im Open Source Bereich. Im Grunde genommen kann man bei der Modellfamilie, ich würd das mal auf die 4 Hauptdinge runterbrechen, so Sie haben Flux 2 Pro, das ist das Flaggschiff Modell, was dann auch Ihrem Playground nutzbar ist und über die API. Sie haben Flux 2 Flex, was im Grunde genommen noch noch mal das Modell ist, aber sehr viel flexibler, was die Parametereinstellungen angeht. Also falls das irgendwie wichtigführend ist, also die Anzahl von Steps, die man haben möchte, wie so ein Bild generiert wird so. Aber ich denk, für die meisten Use Cases so da draußen ist wahrscheinlich Flux Pro das Modell, was am häufigsten genutzt wird. Ansonsten haben sie jetzt auch schon einen Flux 2 Dev rausgebracht. Das ist wiederum aber nur in Anführungsstrichen ein Open Way Modell, also 'n frei nutzbares Modell, aber eben kein Open Source Modell. Nur Open Weides, 32000000000 Parameter. Und das Open Source Modell, wie er aussieht, beim letzten Mal schon vom Naming hatten, das gute deutsche 2 Klein. Ein das kleine Modell soll, das wird dann wieder Open Source Apache 2 Punkt o Lizenz und wird bald kommen. Also das ist jetzt noch nicht released, das Open Waiddes Modell ist aber schon released. Und genau, wenn man mal son bisschen schaut, also wir sind bisschen kosteneffizienter als Nanobanana two, obwohl wir gleich verstehen uns noch mal drüber unterhalten, wie man auch, also was genau ein Nanobanana jetzt grade kostet. Aber ich weiß gar nicht, ich hab jetzt gar nicht ganz genau im, ich hab jetzt hier nur so eine Grafik, wo man sozusagen irgendwie der dreifache Kosten, was Nanobanana 2 angeht, aber vielleicht kann Philipp's auch gleich noch mal einordnen, weil er wahrscheinlich die Pricings oder auch Dennis Du genauer kennst. Genau, aber ich find's ansonsten supercool, auf jeden Fall einfach noch mal zu sehen so, ich hatte, klar, Black Frost Labs hatte ich irgendwie immer im Kopf und so was, aber jetzt auch noch mal zu sehen, wie groß sie jetzt auch geworden sind, irgendwie deutsches Start-up, die auch auch immer noch, also von den 50 Mitarbeitern immer noch in Freiburg sitzen. Sie haben jetzt mittlerweile auch eine kleine Base, glaube ich, in San Francisco so. Aber schon sehr interessant, dass das dann doch irgendwie funktioniert hier Modellentwicklung im Imagebereich auch auch in Deutschland. Sehr cool zu sehen.
Philipp
Vielleicht ganz kurz zum Pricing. Es kostet 3 Cent pro Megapixel generiertes Bild. Das heißt, wenn Du 1000 auf 24 auf 1024 hast, sind's 3 Cent bei Flux Two Pro. Und Nano Banana, also das Gemini 2 Punkt 5 Modell, kostet auch 3 Cent.
Fabi
Wo ich irgendwas gelesen hab, das, weiß nicht so was, wie das bei Flux der der erste der erste günstiger ist als die folgenden oder so? Also hochskandidte Bilder teuer sind. Irgendwas hatt ich gelesen, aber ich
Philipp
Ja, der erste Megapixel kostet 3 Cent. Und dann, wenn Du, also 2 Megapixel sind nicht 6 Cent, sondern 4.5 Cent. Mhm. Also sozusagen 50 Prozent pro hochskaliertes. Und bei Nano Banana, bei dem Flashmodell hast Du generell nur 1024 Pixel Output, aber bei dem Pro Modell hast Du andere Output Formate. Ich glaub, Dennis, Du hast gleich. Hoffentlich
Fabi
Find ich find ich ganz interessant, dass sie in ihrem Blogbeitrag, weiß gar nicht, von wann der ist, fünfzehnzehn November, also vor 7 Tagen, da haben sie selbst Nano bei 1 Two in bei 15 Cent eingeordnet, warum auch immer. Also in ihrer Grafik, auf ihrem Blogbeitrag, da sieht man son bisschen nach Edo Score gerankt so, Nano Banana, nachdem Edo Score noch 'n bisschen höher ist, aber sie sprechen von 15 Cent hier. Also keine Ahnung, woher diese woher jetzt ihre 15 Cent
Philipp
Das ist sone Promo Mode.
Fabi
Ach genau, okay, dann haben Sie's gegen Pro verglichen
Philipp
und Also es geht 15 Cent, das sind 13 Cent, aber
Fabi
Ja, also es ist auf 'ner, die Skala sieht man nicht genau. Da haben Sie Nano Banana irgendwo bei, also bei 4 Cent, Flux Two Pro haben Sie bei 3 Cent eingeordnet, Nano Banana 2 haben Sie's dann hier genannt bei, ja, es müsste 15 Cent bei Ihnen sein. Okay. Aber Sie sagen an in Ihrer in Ihrem Ranking, dass wiederum besser als Nano Banana sei.
Philipp
Aber was vielleicht ganz interessant ist, ich hab die das Pricing grade kurz offen, es kostet weniger als das Flux 1 Modell und weniger als das 1 Punkt 1 Modell. Also Flux 1 Pro, das, was vor 'nem Jahr ungefähr kam, hat 5 Cent noch gekostet. Flux 1 Pro Ultra hat 6 Cent gekostet beziehungsweise das normale Pro 4 Cent. Also ist jetzt nicht so, dass man irgendwie mehr bezahlen muss, damit man das neuere Modell nutzen kann, was ja doch auch sehr cool ist, find ich.
Fabi
Ja. Ja, total. Und ich find auch noch mal ganz interessant, wenn man mal son bisschen schaut, auch mit deutsches CRM Unternehmen und so was. Und ich hab, gibt auch, also es ist immer interessant, ne, wenn man wenn's jetzt irgendwie son deutsches Unternehmen ist und da was Neues Release, wenn man da jetzt danach sucht, man findet superviel so, okay, Handelsblatt zum Beispiel schreibt halt superviel irgendwie darüber. Ist auf einmal so, wenn man danach a I sucht, wo man sonst im Handelsblatt nicht so unterwegs ist, gibt's einige Beiträge darüber, aber trotzdem immer ganz interessant irgendwie zu sehen, mit wem Black Frost Lab's da auch so zusammenarbeitet, ne. Ich mein, da werden jetzt in sonem Handelsblatt natürlich die großen Deutschen, Otto, Tchibo, Mercedes Benz, Telekom und so was genannt. Was ist wahrscheinlich, wenn man im globalen Skate schaut, noch nicht die interessanten Use Case sind so? Aber es war ja auch so, dass sie das Modell waren, was auch in Grok dann beziehungsweise auf x x genutzt wurde und auch Kooperationen mit Adobe beispielsweise haben oder großen
Philipp
War's am Anfang auch. Aber ich weiß nicht, ob Also Grock hat ja sein eigenes Modell mittlerweile oder schon länger. Und ich weiß auch nicht, wie's bei der Fall ist.
Fabi
Das hab ich da nicht gehört bei. Aber zum Beispiel auch, Sie haben ja auch Kooperationen mit Matter und auch Adobe. Was mir auch sehr interessant ist. Sehr cool, dass es aus Deutschland kommt. Und übrigens noch anderer Funfact, ich war die ganze Zeit vorhin, ich dacht schon übrigens, ich irgendwie, ich hab irgend eine Mailware auf meinem Mac und dacht schon, was ist denn da los? Ich hab mir den Blogbeitrag von Flox Two angeschaut und dacht irgendwie, irgendwas irgendwas irgendwas stimmt da nicht so. Ich krieg andauernd irgendwie soll irgendeine Chrome Extension installieren, hab ich auf irgendwelche Folgelinks gedrückt und kam dann immer auf irgend eine andere Werbeseite so. Und wenn man nach Flox Two sucht, hab ich direkt als ersten Google Treffer Flux 2I0 Blog. Also die Adresse ist Flux 2I0. Und auf dieser Seite ist nichts anderes als der Blogbeitrag zu Flux Two und das ist eine komplette Phishing Seite einfach nur. Also jeder Link führt einfach immer zu irgend 'ner anderen Werbeding, so Spielcasino, dann gehen auch mal Erotikseiten und das noch so hä? Also witzig, dass sie das als Angriffsvektoren nutzen. Leute, die über Flux Two was suchen. Gut, vielleicht, weil sie denken, es ist Mainstream genug, keine Ahnung.
Philipp
Ja, es gibt auch ganz viele Nanobananas Seiten, die nicht von uns kommen.
Fabi
Ja, aber auf jeden Fall. Also wenn ihr euch sagst, hallo
Dennis
Mir ist auch grad nicht aufgefallen, dass ich hier parallel wollt ich auch 'n bisschen gucken und bin drauf und zumindest wurde erst mal alles, also sie haben mich dann, das hat mich gewundert, aber auch noch nicht aufmerksam geworden, auf get im Punkt a I gelotst. Also das ist wahrscheinlich dann dort, also da kann man son nutzen auf andere Projekte, aber das ist wahrscheinlich dann son Link oder so was, der der ihnen dann doch auch was bringt.
Fabi
Klar, bei mir waren wirklich nur so sehr links. Ich hab wirklich gedacht, hab ich irgendwie eine falsche Chrome Extension? Was ist denn hier los so? Bis dann gehen wir mal das an, so heißt jetzt alles kompromittiert so und ja. Okay. Ja, spannend. Also falls ihr nach Flachs Two sucht, geht nicht auf den Flachs Two iOLink. Denk packen wir nicht in die Shownotes.
Dennis
Sehr gut. Erinnert mich auch ein noch ein To do, was ich habe?
Philipp
Ja, wir haben Andreas kennengelernt oder Ihr Andreas kennengelernt nach der via Development Conference.
Dennis
Richtig. Wir haben Andreas kennengelernt und eigentlich auch mit ihm schon besprochen, dass wir 'n Podcast machen dürfen. Da hat Ich
Fabi
wollt nur kurz an, wer Andreas ist.
Philipp
Der CEO von Black Forest Labs und wir damals bei der Wayer Developer Conference hab ich mit ihm und 'n paar anderen Zonen, ich weiß gar nicht, sone Diskussion gehabt. Ja, genau. Und danach haben wir kurz noch geredet mit, weil Dennis und andere ja auch da waren. Genau.
Dennis
Und uns dann den Kontakt zugute genutzt haben, dort dran zu kommen.
Fabi
Und dann nicht genutzt haben. Und dann nicht,
Dennis
und die dann nicht genutzt haben.
Philipp
Haben. Und jetzt hab ich sie
???
jetzt halt auch noch mal. Wahrscheinlich mittlerweile nach San Francisco gezogen oder so was.
Dennis
Ja, wie gesagt, der Großteil
Fabi
der Firma soll noch in Freiburg sitzen. Sie haben nur einen kleinen Teil in
Dennis
Mhm. Ich nehm das mal mit, dass, ich hoffe, das kriegen wir Anfang des Jahres hin, mit ihm mal zu sprechen innerhalb unserer CDU Speschutz.
Fabi
Cool.
Dennis
Ja, Du hast recht. Ich mein, Du hast auch noch nicht genau den Vergleich gezogen, aber vielleicht hast Du noch irgendwie die Sachen dann auf. Aber was noch passiert ist, dass Nowanana Pro rausgekommen ist oder auch genannt Gemny 3 pro Image. Also das heißt, es ist aus dem aus der Gemny 3 Modellserie daraus gekommen dann noch, wurde aber 'n paar Tage später releast, vielleicht noch mal 'n bisschen Hype auszulösen. Und ja, also ganz viele Dinge, die Du grade auch genannt hast. Also ich glaube, 1 der ganz großen Sachen ist, wie gut jetzt Text gerendert werden kann. Dass das wirklich eigentlich durch die Bank immer sehr gut funktioniert und auch nicht nur irgendwie einen Titel, sondern auch Absätze sehr gut funktionieren. Und wo das halt so führt, dass man halt so Infografiken, Slides für Präsentationen, solche Sachen halt megagut erstellen kann, weil eben durch das ganze Wissen, was da drin ist und das ist nicht nur ein, ich erstelle jetzt ein Bild davon, sondern ich bin ein Modell, was auch die ganzen Zusammenhänge kennt, ja, halt supergut das runterbrechen kann, dort Dinge aufzulösen. Ich mein, Du hast eben was von 10 Bildern gesagt, die man mitnehmen kann. Bei Nano Banane Pro sind es 14 Referenzbilder, die man mit reinpacken kann, beispielsweise unterschiedliche Charaktere dann auf einem Bild zusammenzubringen. Das ist etwas, was was sehr viel besser geworden ist. Und ja, ehrlich gesagt, als eben mit dem Pricing anfandet, ich finde es schwer, da immer up to date zu bleiben. Wir hatten auch jetzt intern wieder Diskussionen, ist es jetzt in Work was für eine Germany Version ist darin da mit drin? Wenn man Google Workspace Business Standard hat, ist es dann ein Unterschied zu Google AI Pro. Da ist dann eine Seite von Google, die noch andere Pricings hat, wo dann einen Blogartikel, wo stand jetzt auch das mit drin und so, nicht mehr geupdatet waren. Also es ist, glaub ich, sehr schwer, da überhaupt hinterherzukommen. Also es gibt verschiedenste Wege, sagen wir mal, auf Nanobanana Pro zuzugreifen, auch im, die Seite nennen wir immer wieder gerne, das AI Studio von Google, wo so verschiedenste Sachen drunter zusammengefasst sind. Auch da hat man, glaube ich, weiterhin die Möglichkeit, auf Nanobanana dann zuzugreifen, was 'n relativ zu einfacher Zugang ist. Philipp, würdest Du noch sagen, wenn Du, wenn man sonst nichts hat, was ist der simpelste Weg?
Philipp
Das ist eine gute Frage. Das Einzige, was ich sagen kann als Nanobanana Pro ist nicht kostenlos in AI Studio. Du musst einen API Key auswählen und der muss sein. Okay. Aber ich glaub, in der für die App halt, für die Gemini App, da dürfte es dabei sein. Ich weiß aber nicht, wie viele Bilder man generieren oder editieren kann. Aber da ist es auf jeden Fall dabei.
Fabi
Ja. Also in der auf der auf dem Blogbeitrag steht in der Jamina App, dass die und danach, wenn die zurückgestuft, und Banane, also auch da steht nicht explizit, wie hoch das ist. Wahrscheinlich hängt's son bisschen davon ab, wie die Usage grade ist und so.
Philipp
Wahrscheinlich.
Dennis
Und was mir noch aufgefallen ist, weiß nicht, ob das bei Attention oder als Bug bezeichnet werden kann, aber in der Gemini App, oder zumindest auf der Website ist es so, wenn man da Bilder generiert, dann sehen die erst mal ziemlich unausgelöscht und unscharf aus. Aber wenn man dann einfach auf Download Image legt, dann kriegt man trotzdem eine Version dessen. Dadurch
???
hab ich
Dennis
zumindest auch mitbekommen, waren 1, 2 schon 'n bisschen abgeschreckt, weil sie dachten, ja, die Qualität ist ja voll pixelig und schlecht, aber das ist irgendwie der Preview in der Gemini Webseite, der ist im Moment noch nicht, also wie gesagt, ich weiß nicht, ob's extra ist, irgendwie zu sparen oder was was die genauen Gründe sind und davon nicht abschrecken lassen, sondern wenn ihr wirklich davon was Hochqualität ist wollt, könnt ihr da aufn Download Button klicken oder eben die verschiedensten anderen Tools nutzen, auf das Motto zu
Fabi
Ja, ich glaub, also es
Philipp
gibt auch 'n. Es gibt's in Fall, was ja son, sag ich mal, Image API Provider ist und jeglichen anderen Gen Media Tools, sag ich jetzt mal.
Dennis
Ja. Wir nutzen da häufig viel immer noch Leonardo. Ah, das ist auch mit drin. Da kann man das auch nutzen und genau. Was ich noch in dem Rahmen erwähnen wollte, ich glaub, das sind deine Funktionalitäten, die auch im Zuge dessen dann dazugekommen sind. Wir hatten ja über Notebook l m schon ab und zu mal gesprochen hier, was ich 'n ziemlich cooles Tool finde von Google, wo man einfach eigene Quellen reinschmeißen kann und dann darauf basierend Fragen zu stellen, also einmal im ganz normalen, simplen Chatmodus sozusagen. Und die Besonderheit eben ist, dass all die Antworten rein auf deinen Quellen dann basieren. Und da gab es auch schon jetzt lange die Möglichkeit, sich 'n Podcast darüber zu generieren. Da haben wir, glaub ich, auch schon mal drüber gesprochen. Was jetzt aber eben neu hinzugekommen ist, ist einmal, dass man sich 'n Slide Deck generieren kann und eine Infografik generieren kann. Und beide Features find ich auch wieder sehr beeindruckend. Also Slidedeck kann man sogar auch auswählen und sagen, das soll eine Präsentation sein, wo alle Inhalte in der Präsentation stecken oder es soll 'n Speakerdeck sein, wo ich als Speaker einfach rede und soll mich bisschen grafisch unterstützen bei meinen Punkten, die ich habe. Also diese groben Unterscheidung gibt's dort. Und ja, es erstellt einem halt einfach komplett eine cool aussehende Präsentation, die die zum zum Thema passt und genau auf die eigenen Quellen irgendwie runtergebrochen werden.
Philipp
Zusätzlich ist es auch noch in Flow. Also Flow von Google Apps ist ja das Tool, wo man mit Video generieren kann, die Extenten und andere Features. Und da hat man jetzt auch Nano Banana pro drin. Das heißt, man hat da zum Beispiel die Möglichkeit, eine Start und 'n Bild und 'n Endbild zu zeigen und die kannst Du halt mit Nanobanana generieren. Und was ja noch mal besser ist von der Pro zur normalen Version, dass das Bild editieren ja noch mehr, viel natürlicher ist. Das heißt, es ist relativ cool, wenn Du, sag ich mal, eine Vorstellung hast von, hey, ich möchte jetzt 'n kurzes Video machen, wo 'n Charakter oder irgendwas sich eine spezielle Richtung bewegt, dann kannst Du sozusagen das Anfangsbild nehmen, dann andere Bananer sagen, hey, wie das Endbild aussehen soll. Dann hast Du schon mal das, den Anfang und das Ende und dann mit sozusagen mit 'nem prompt zeigen, was noch passiert. Und die Beispiele, die ich gesehen hab, sehen echt richtig cool aus. Da waren Sachen mit Focus Shift von Vorcrownt zu Background, wenn man Menschen sieht und andere Dinge.
???
Ja, ich hab
Fabi
mich grad, als Du davon gesprochen hast, Dennis gefragt, ja, dann musst Du ja fürn Notebook LM gehen, hab ich das denn nicht einfach in Google Slides drin so und hab grad mal kurz Google Slides auf dem. Das Erste, was ich bekomm, ist dieses Pop-up so, was willst Du willst Du Image generieren? Willst Du Slides generieren? Wie was was willst Du machen so ungefähr.
Dennis
Oder Slides generieren generiert auch Bilder?
Fabi
Ja. Ich hatte noch nicht, also auf jeden Fall hab ich jetzt Slide Image und Infografics. Sind 3 verschieden ist 'n Betterfeature und ich kann entweder sagen, generiere ein Slide, generiere ein Bild oder generiere eine Infografik und
Dennis
wahrscheinlich Und setzt sich das natürlich noch son bisschen 'n Bruch aktuell, ne? Ich mein, weil Du generierst dir halt Bilder für Slides, die Du dann halt nicht einfach mal ein Wort austauschen kannst. Das ist noch son bisschen, wo man irgendwie denkt 'n neues Bild. Er riss 'n neues Bild, ja. Kann sein. Klar, wenn das Ich mein, ist halt die Frage, ob man zukünftig dann trotzdem noch mal irgendwie so was haben möchte wie ein Tool, was dazwischen ist, wo man ein Element auf dem Bild bewegt die die die die die
Fabi
die die die die die die die die die die die Nein, ich Nee, aber ich hab mir das nicht vorhin da, was war das Beispiel für Flux Kontext? Im Endeffekt ist es ja das Tool so, ne? Du editierst verschiedene, Du editierst die Bilder in bestimmte Bereiche, aber im Endeffekt
???
ist es ja Ja,
Philipp
ich glaub, Dennis möchte einfach gern eine generiert haben und dann manuell Dinge noch ändern. Also irgendwie die Headline tippen und dann sagen, hey, nee, mach das mal lieber so oder so oder 'n bisschen das Layout verschieben. Ich glaub, abwarten, was kommt, weil wenn das Modell innerhalb von 2 Sekunden 'n neues Bild generiert, ich glaub, dann ist das egal.
Fabi
Ja. Aber jetzt zum Beispiel, weil Du meintest mit mit Slide, ich hab jetzt grad mal ganz kurz ausprobiert, Slide zu generieren, die Slide, wenn die das vorhin meint, ist aber einfach nur ein Bild, ne?
Dennis
Ja, genau, das meint ich. Also, genau, es wird dann halt keine Slides erstellt. Da gibt's ja auch AI Tools, die das machen, wo Du dann dann Elemente hast und die verschieben hat, sondern das ist 'n generierteres Bild. Und auch, sagen wir mal, wer nicht sehr beeindruckt war von dem, was Notebook gemacht hat, hat's natürlich irgendwo auch noch das Sternchen so, die, dass jetzt die Titel auf der gleichen Höhe sind beispielsweise, ne, also son, was man von 'ner normalen Präsentation son paar Sachen erwarten würde, die sind halt dann noch nicht gegeben. Und da war dann halt meine Idee, gibt's noch mal die Übersetzung in ein Präsentationstool irgendwann oder wird das einfach so viel noch genauer, dass man dann nur auf der Ebene arbeitet?
Philipp
Also, was ich sagen kann, was ich sehr viel mittlerweile mache und auch was sehr gut funktioniert, ist, man hat ja ganz oft, vor allem in dem im Entwicklungsbereich so Dokumente. Du kannst supercool Visualisierungen erstellen und die einfach oben am Dokument hin machen, die halt das Erste relativ einfach erklären. Und früher war das ja extrem der Hassel, dass ich halt so einfache Visualisierungen mittlerweile und Dinge und Flows hab. Und wenn man Slides erstellt, dass Du sozusagen pro, also nicht alles auf einmal machst, sondern Du hast halt irgendwie dein Dokument, deine Themen, dann erstellst Du die erste Slide und dann machst Du 'n zweiten im Sinne von, hey, das ist die 1, behalte das und die Stellen und das gleich und dann erstellst Slide 2 und dann erstelle Slide 3 und dann halt, Du halt deine ganzen Slides hast so oder so, das hab ich mal getestet. Und man kann echt, also ich hab meine Blogposts, sag ich mal, alle in Whiteboard umgetauscht und dann auch auf Twitter gepostet. Und die Ergebnisse ist das schon echt, also ich ich, es ist echt hart für alle, die die Dinge manuell gemacht haben und dass der Großteil ihrer Arbeit war, muss ich leider sagen. Das ist echt schon fast perfekt.
Fabi
Als Use Case meinst Du, der Input war dein Blogbeitrag und hast gesagt, macht daraus eine Infografik und jagt sozusagen in in eine Grafik zusammen.
Philipp
Ja. Und das funktioniert so gut und es ist wirklich nicht nur im Sinne von, es sieht gut aus, sondern auch, was das Modell genommen hat an Kontext und wichtigen Informationen, dass Du wirklich die Infografik anschaust und eigentlich 90 Prozent von dem Blogpost erst mal versteh, ist auf 'nem am High Level.
Fabi
Ist da irgend 'n Prompt Engineering noch wichtig oder kann ich relativ stumpf sagen, er zeigt mir daraus eine Infografik oder gibt's irgendwas was?
Philipp
Ich ich hab den den Prompt ja mit Dennis geteilt, aber ich mein, ist mehr oder weniger.
Dennis
Ja. Und also, also diese Funktion gibt's ja auch bei Notebook allem mit einem Klick praktisch. Da kannst Du sagen Infografik und auch da Aber da sieht man. Genau. Okay. Und da sieht man halt auch wieder diese diese halt, ne.
Fabi
Also dass
Dennis
es halt versteht. Und das fand ich, wir hatten hier diese bei Lotum, wo wir so Stärken haben und so. Und das hatt ich hochgeladen und dann mein Profil. Und dann, ne, waren halt so die 3 Basisdinge als Foundation, die dann in sonem Gebäude waren und unten waren noch 2 Säulen, die das Ganze stützen. Und es ist halt nicht nur ein, okay, ich pack das jetzt in der Grafik, sondern halt wirklich, wie man sich denken würde, okay, wie kann man das jetzt richtig cool visualisieren, es verständlich zu machen? Ja. Das ist das, was man da bekommt. Also es ist schon wirklich sehr beeindruckend, sollte
Fabi
Use Case.
???
Ja.
Dennis
Und vielleicht kurz noch Cross Promo machen, weil Philipp grade sagte, das ist alles so, was man alles für Video machen kann. Es gibt ja bei Lotum neben der programmier.bar, auch weil das nennt sich about Design für die Kreativ Community, wo wir auch hier lokale Events veranstalten. Und da ein Shoutout an Ariane, die zuletzt da war und die find ich, die folge, der folge ich jetzt auf Instagram, die das mittlerweile schon ganz schön perfektioniert hat. Also sie ist, ja, hat schon immer Video Editing praktisch gemacht und ist aber sehr früh auf AI umgesprungen, macht eben auch ganz viel mit. Jetzt 'n anderer Banana Pro. Ihr Instagramhandel heißt Ariane Punkt Gif. Und ja, da ist eigentlich jeden Tag irgendwie was Cooles, wo sie damit rumspielt und all diese Techniken mit Star Trek, Entframen und so weiter nutzt. Also ist megacool, wenn man sieht so, wenn das 1 professionell macht, was jetzt schon alles möglich ist, weil weil's supercool aussieht.
Fabi
Ja, schön. Wir sind ja auch damals nach dem Meet-up, hab ich mir auch, hab ich mal kurz gefolgt, mal wieder auschecken.
Dennis
Ja. Judith, kommen wir zum Themenblock rund neue Modell Modelle von. Da gab's auch wieder was Neues.
Philipp
Genau. Hat, also ich mein, die letzten 2 Wochen waren generell verrückt mit,
???
ich
Philipp
glaub, wir hatten gar nicht Crock 4 Punkt 5.
Fabi
Ja, ja.
Philipp
Dann GPT 5 Max High irgendwas oder 5 Punkt 1 Max High. 1, ja. Dann Gemini Free Pro und natürlich die Imgemodelle, aber auch Antropicat 'n neues Modell vorgestellt, zwar Cloud Opus 4 Punkt 5. Es gab ja schon Cloud so nett 4 Punkt 5 und Cloud Heiko 4 Punkt 5. Und Opus ist jetzt sozusagen das große neue Modell. Sehr interessant ist, dass es günstiger ist als das alte. Also Opus war ja bekannt dafür, dass es super kostenintensiv und superlangsam war. Zum Vergleich, Opus 4 Punkt 1 hat 15 Dollar pro Million Input Tokens und 75 pro Million Output Tokens getröstet. Und Gemini und Open AI sind ja alles so in dem, sag ich mal, 10 Dollar Bereich. Jetzt mit Opus 4 Punkt 5 haben sie's Faktor 3 reduziert, also Input 5 Dollar, Output 25 Dollar. Und sie haben auch in ihrem Release, weil ja, welcher sehr Coding orientiert war mit und generell, was man alles programmieren kann, Beispiele aufgeführt, dass OPOS 4 Punkt 5 an manchen, in manchen Bereichen sogar effektiv günstiger ist als so nett 4 Punkt 5, weil es weniger Tokens und generell Tokens und Tool Calls braucht, dasselbe Ergebnis zu erreichen. Und vielleicht ganz kurz, OPOS kostet 3 Dollar Input und 6 Dollar Output für unter 200000 Tokens. Also gehen die auch in dieselbe Richtung wie Open AI mit dem Sinne von, hey, okay, die Token pro Million sind trotzdem sehr intensiv. Aber hey, was können wir tun, dass unser Modell zum selben Ergebnis mit weniger Tokens kommt? Opus an sich auf den Benchmarks top oder fast top für alles, was Coding, glaub ich, angeht. Und alle Noncoding Benchmarks definitiv nicht top. Und generell wurde nicht viel, sag ich mal, promotet oder gezeigt, was so Normales oder multimodal, sag ich mal, Bereiche sind. Ich mein, passt ganz stark in den Fokus, den wir eigentlich von Antropiok über die letzten, über das letzte Jahr eigentlich, sagt man, gesehen hat, dass für sie Coding und oder am wichtigsten ist und obus da auch wieder in die gleiche Richtung geht. Was für mich aber besonders interessant fand, ist, dass sie nicht nur das Modell released haben, sondern ganz, ganz viele neue API Features. Und zwar gibt es jetzt 'n Tool Tool, also 'n Tool, was man nutzen kann, Tools zu suchen. Und sie haben mehr oder weniger halt aufgeführt oder generell, wenn ihr wahrscheinlich baut, kennt ihr das? Man hat irgendwie 20 Tools oder noch mehr oder 'n MCP Server, mal ganz viele Tools und die nehmen am Anfang schon ganz viel Kontext ein. Weil man hat ja diese und JSON SGIMAS. Das heißt, bevor ich überhaupt 'n Sender, hab ich vielleicht schon 50000 Tokens nur mit den Definitionen verbraucht. Und sie haben festgestellt, dass halt durch MCP und durch das ganze Toolthema immer mehr Tools gibt Und es halt viel effizienter ist, wenn ich sozusagen anhand von dem Userprom nur die Tools in meinen Kontext packe, die ich auch benutze. Und das Tool ist sozusagen 'n Tool, dass ich's definier zusätzlich zu meinen anderen Tools. Und dann, bevor sozusagen die erste Generierung durchgeführt wird, wird der User genommen für das Tool search Tool. Und das Tool search Tool gibt dann zurück, hey, hier ist eine Liste von nur 10 Tools? Von nur 10 Tools, die ich nutzen brauche, zum richtigen Ergebnis für den Nutzer kommen. Das heißt, wenn man oder auch Cloud Code, glaub ich, nutzt, kann man das aktivieren. Und ich kann trotzdem meine 100 Tools irgendwie bereitstellen beim API. Jetzt füg ich das Tool hinzu und dann hab ich mehr oder weniger automatisiert die anderen Tools entfernt. Und so spart man sich Kontext oder halt auch Kosten. Und sie sagen in dem Blogpost, dass es den Context 90 Prozent reduziert, vor allem, wenn man mehr als 50 Tools hat. Das heißt, wenn man aktuell schon viel viele Tools hat, dann ist es definitiv interessant. Das Tool nutzt oder die Suche. Man kann aber auch seinen eigenen Suchimplementierung für das Tool erstellen. Also wenn man zum Beispiel irgendwie mit den Modellern agieren und sagen möchte irgendwie, hey, kalkuliere irgendwelche und dann filter auf der Basis. Zusätzlich haben Sie noch vorgestellt, was son bisschen darauf abzielt, wie kann ich effizienter gestalten, wenn man viel, wenn diese Tools viel Kontext normalerweise benötigen. Also keine Ahnung, ich hab und ich arbeite mit Excel. Und sone Excel Sheet ist ja irgend eine Tabelle und es kann sein, dass die Easy mal mehrere 1000 Zeilen hat. Und bisher ist ja eher der Gedanke, wenn ich irgendwie, keine Ahnung, from Excel nehm, dann wird ja die komplette Tabelle mehr oder weniger in meinen Kontext gepackt. Und dann arbeite ich ja wieder damit weiter. Und wenn sone typische Anfrage, die Sie zeigen, ist so von wegen, hey. Und wenn ich jetzt mehr oder weniger mehrere Tools hab, das eine Tool holt die Kunden, das zweite berechnet irgendwas und das dritte fördert irgendwas. Das heißt, für jedes dieser Tools würd ich meine komplette in meinen Kontext packen, was oft dazu führen würde, dass einfach der Kontext explodiert, weil vielleicht hab ich 10000 Kunden und eigentlich sind mir die alle egal. Mit ist das jetzt so, dass sozusagen alle diese Tools hat, aber anstatt Tool Calls zu generieren, schreibt das 'n Python Script. Und in diesem Python Skript werden dann die Tools ausgeführt. Das heißt, man hat, wenn man 'n Tool hat mit irgendwie wird dann in Python Call generiert. Und das, was dann im Hintergrund passiert ist, dass der User trotzdem sozusagen den Tool Call sieht, dann führt der der User die, keine Ahnung, Datenbanken und hat seine 10000 Konter und schickt die zurück zu der API. Aber diese diese Kombination auf von Call und wird nicht im Kontext hinzugefügt, sondern es bleibt nur in diesem Python Script. Das heißt führt dieses Python Script aus und Return das Ergebnis dieses Python Script. Und die, die in diesem Python Script passieren, die man zum einen selber ausführen kann, wenn es integrierte Tools sind oder die halt der Client dann ausführt, wenn es irgendwie Datenbank oder so sind, werden nicht dem Kontext hinzugefügt. Und darüber vermeidet halt man einfach, dass ich so diesen Kontext explodieren lasse, vor allem, wenn ich mit irgendwelchen Tools arbeite, was sehr, sehr cool ist. Ich mein, das ist jetzt nichts Neues an sich, aber definitiv eine eine Weiterentwicklung, weil Modelle halt einfach besser sind im Skript generieren. Trotzdem, man generiert irgend einen Skript oder Code, was dann automatisiert ausgeführt wird. Das heißt, kommt mit seinen eigenen Risiken son bisschen. Zusätzlich gibt es jetzt noch Tool Use Examples. Das heißt, bisher, wenn man sone Definition von 'nem Tool erstellt hat, hat man ja ganz oft den Fall gehabt, dass ich irgendwie in die son bisschen Extrakontext gebe, wie Beispiele, wie es genutzt werden soll. Sie haben das jetzt mehr oder weniger raus extra hier oder machen jetzt zusätzlich zu dem, 'n, wo ich eine, einfach eine Liste von den bereitstellen kann, wie das Tool nutzen kann. Genau.
Fabi
Nee, das hab ich grad gesehen als ein ein Beispiel. Was wir haben's jetzt da diesbezüglich released, kann zumindest vorher noch nicht, dass Sie als für dieses Tool Calling als Beispiel gesagt haben, dass jetzt gibt, also die Ja, genau. Extensionion für Excel, mit der man da dann, wahrscheinlich ist ja ein Beispiel dafür sozusagen, relativ viele lokale Daten dann hat. Ja. Hab's auf jeden Fall selbst noch nicht ausgebildet, da werd ich direkt mal mir auf die Liste packen.
Philipp
Ja. Bei dem ganzen ist halt sozusagen, man hat Vor- und Nachteile. Vorteile sind halt, dass ich gerade diese User Cases halt irgendwie ab ja, erreichen kann oder halt umsetzen kann. Nachteil ist halt natürlich, generiert dynamisch Code. Das heißt, wenn ich irgendwelche Tools hab, die irgendwelche, ich mein, das Geld für für für die auch so, aber wenn ich irgendwie eine Datenbank verhed hab, weil ich verhed irgendwie meine und ich hab noch als zusätzliches Tool Google Search, kann es sein, dass Cloud sich überlegt, hey, ich such irgendwie Kundendaten und dann mach ich eine Websuche für den Kunden mit 'ner spezifischen Informationen von meinen eigenen Kundendaten. Und ich hab keinen Einfluss darauf, ob was da genau funktioniert, weil es kann ja sein, dass halt denkt, hey, ich hab irgendwie, keine Ahnung, Customer Table, da ist eine Telefonnummer. Ich such die Telefonnummer im Internet, ob ich irgendwas dazu finde. Und dann sende ich halt meine internen Daten halt ins Internet. Deswegen muss man immer ein bisschen vorsichtig sein, wenn man so Zeug hat von LLMs, die dann wirklich Code ausführen, wo man eigene Daten hinzufügt.
Dennis
Wie heißt dieses Trinkspiel, wo man bei einem bestimmten Wort was trinken muss?
Philipp
Du meinst Tool.
Dennis
Und in dieser Podcastfolge würd ich das Wort Tool empfehlen.
???
Ich glaub, ich glaub,
Fabi
ich glaub, zum ersten Mal ist das bei, da machen sie's doch irgendwie, wenn Robin, ist in die, weiß ich nicht, Nachrichtensprecherin oder so, sie sagt immer Am oder so was. Ist das nicht Habt ihr nie
Philipp
geguckt, ne? Doch, aber
Fabi
ich weiß nicht, dass Ja,
Dennis
aber wir haben ja auch einmal abends
Fabi
in der Bar und wird's irgendwie immer dafür, weiß nicht, ob ob ob, ich sag irgend son Füllwort. Ich weiß jetzt einfach nur noch
Philipp
Wir haben das mal, das ist schon längst ganz lange her, bei Herr der Ringe gespült. Man hat Herr der Ringe angeschaut und bei dem Wort Ring musste man dann trinken. Und dann hast Du halt den Prolog mit irgendwie, es wurden 7 Ränge Ringe für die Zwergen erschaffen, 3 Ringe für die Elben und
Fabi
Ja, man kann sich's auch selbst stören, ne. Was sagen, komm, bis auf einfach.
Philipp
Nee, aber ich muss halt sagen, was man, find ich, oder für mich persönlich, superinteressant wieder war bei dem Release, antropic pusht wirklich das Thema nach vorne und versucht immer, mit möglichst innovativen Ideen voranzugehen. Sie haben auch 'n sehr guten Engineering Blog. Also wenn ihr einfach mal auf Untropic Engineering geht, es gibt noch weitere Blogposts, die Sie in den letzten Wochen veröffentlicht haben, gerade zu diesem oder Code execution mit MCPs oder auch das ganze Thema mit Skills, wo Sie mehr oder weniger anstatt Tooldefinitionen haben, einfach Python Scripts, die dann das Modell ausführen kann. Ist auf jeden Fall 'n sehr guter, sag ich mal, Anlauf oder eine sehr gute Anlaufstelle zu sehen, was so kommen kann oder kommen wird. Weil oftmals ist es so, wenn 1 der Provider so was vorstellt und die Nutzer darauf reagieren und es möglichst positives Feedback gibt, dann ist es sehr wahrscheinlich, dass andere Nutzer oder halt andere Provider das halt auch anbieten. Man hat's ja bei MCP irgendwie 'n bisschen gesehen. Das hat's vorgestellt in der API, in der OpenAI hat's ja jetzt auch mittlerweile in ChatGPT oder in ihrer API drin. Ist ja auch noch mal son Thema, was es mittlerweile überall gibt.
Fabi
Ja, total. Hast Du noch, vielleicht hab noch eine Nachfrage zu dem Toolsarch für den Part, den ich da gar nicht ganz komplett verstanden hab. Ist es denn was, was mich auch zum Beispiel lokal interessiert, wenn ich Cloud Code nutze? Ist das 'n Tool, was ich an der Stelle auch nutzen könnte? Ja. Muss ich dafür irgendwas muss ich dafür irgendwas einrichten? Oder ist das, also gibt's irgendeinen Nachteil, warum ich das Tool Use Tool nicht nutzen sollte? Tool search Tool? Bitte. Tool search Tool. Entschuldigung.
Philipp
Ja, also Wie gesagt, das ist 'n Trade off. Wenn ich weiß, dass ich nur 10 bis 15 oder 20 Tools hab generell für meinen Agent, dann muss ich dieses Tool wahrscheinlich nicht nutzen. Wenn ich aber mehrere Tools hab und die Arbeit nicht selber machen kann, welches Tool pro welchen Input irgendwie bereitstellt, dann ist halt der Vorteil von sonem Tool, dass es das für mich automatisiert macht. Natürlich kann es sein, dass bei dieser Toolfilterung Tools verloren gehen, die ich eigentlich zum Erreichen dieser Aufgabe brauch. Und was 'n bisschen mir zu kurz kam, ist, man denkt naiv, okay, cool, jetzt pack ich einfach jeden MCT Server irgendwie rein, den ich hab und dann wird mit dem Tool schon das Richtige auswählen, was ich brauch. Aber sie haben leider nichts dazu geteilt, wie das ist, wenn man Tools hat, die relativ ähnlich klingen. Also wenn ich irgendwie keine Ahnung hab, ich hab 'n GitLab MCP Server und 'n GitHub MCP Server und beide haben irgendwie oder irgendwie so was. Oder Du hast Services oder anderen Services, die haben. Das heißt, je nachdem, wie gut diese Toolsuche ist, hat es halt extremen Einfluss darauf, ob Cloud überhaupt den die Aufgabe von dem User umsetzen kann oder nicht. Weil wenn Du halt sagst, hey, bitte erstellen 'n und Du hast keine Tools, dann wird sich das Modell im Kreis drehen oder andere Dinge versuchen oder eventuell Tokens nutzen und am Ende zu keinem Ergebnis kommen.
Fabi
Ja.
Dennis
Ich frag mich manchmal, ob's Leute gibt, die das irgendwie antizipieren können, diese Dinge, die dann passieren. Also ne, wenn Du irgendwie so was hast wie, okay, wir haben 'n Modell, wir haben 'n Kontext und dann haben wir jetzt Tools und dann laufen alleine, läuft ja komplett schon mit diesen Tooldefinitionen zu, ob das irgendeiner sich schon mal dann vorher ausdenkt oder was wir bei Vorentwicklungen sind, auf die man dann reagieren muss oder genauso auch mit dem großen Modell, hey, das braucht weniger Token, also oder ne, es kann günstiger sein, obwohl's teurer ist, weil es schneller ist in der Beantwortung, weil's schlauer ist. Das sind irgendwie immer lustige Fragestellungen, die so in Also
Philipp
man macht sich definitiv Gedanken rüber, das kann ich dir sagen, aber es hat alles 'n Prioritätsthema und man hat 'n 'n riesen 'n Riesen, eine diese am aktuell. Also das heißt, Du machst immer irgendwelche Trade offs und ab bis vor 'nem halben Jahr hatte man halt keine 4000 MCP Servers oder Tooldefinitionen. Da hatte man eher das Problem, dass Modelle nicht mal Tools nutzen konnten. Jetzt konnten sie Tools nutzen. Jetzt fangen an, die Leute da 1000 Tools reinzuballern. Jetzt muss ich halt eine Lösung dafür finden.
Dennis
Ja. Ja, spannend. Gut. Habt ihr noch was? Ja. Sehr schön. Dann vielen Dank euch beiden für die Insights. Wenn ihr Feedback oder Fragen habt, schreibt uns gerne an Podcast at Programmier Punkt bar. Sonst wünschen wir Philipp an der Sheira Schuppa einen schönen Urlaub. Danke. Wir hören uns vermutlich rund Neujahr noch mal in der Dreierrunde, wo wir versuchen, ein bisschen auf das Jahr 2027 zu blicken und auch noch mal den Rückblick zu machen natürlich, was 2006 insgesamt passiert ist. Einfach noch mal ein ein gewisser Jahresrückblick, der folgt dann Ende des Jahres. Und bis dahin, habt eine gute Zeit. Macht's gut.
Fabi
Nur vielleicht, ich muss grad selbst noch kurz nachgucken, aber Du hast, glaub ich, die Jahre durcheinander, wir unterhalten uns über 26 und was in 25 so passiert ist. Wir sind nicht da grad schon
Dennis
krass, es kommt
???
schon die
Fabi
Jahre 2027. Du hast mich, ich hab mal kurz gedacht so, okay, ich lieg bestimmt falsch. Das war schon zweitausendsechshundertundzwanzig. Nee, ich hab noch mal gegoogelt, Datum und hab gemerkt, das ist 2025.
Philipp
Kalenderwoche, okay.
Dennis
Nein, sorry, ist richtig. Ich bin eigentlich immer viel zu spät dabei, aber irgendwie. Ich glaub, ich hab dich diesmal schon mit Urlaub für Nächstes sehr beschäftigt. Da ist seit 20 Jahren hängen
Philipp
geblieben. Seit 1 Woche wieder zurück. Lass schauen, wo kann ich ihn gehen?
Dennis
Seit 2 Tagen.
???
Dann
Dennis
macht's gut.
Philipp
Bis dann. Tschau.
Fabi
Tschüs denn. Tschüs.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos
Feedback