Gemma 4 // Seadance 2.0 // Hermes Agent
- // Podcast
- // News AI 15/26
Shownotes
Habt ihr unsere Videopodcasts schon gesehen? Unsere News-Folgen gibt es auf YouTube und Spotify als Video.
Ihr möchtet auf der programmier.con 2026 (25.-26. November 2026) einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar
In der neuen Folge AI 15/26 begrüßen euch Dennis und Philipp, die die spannendsten Entwicklungen der Woche sortieren. Im Fokus steht das massive Release von Gemma 4, Googles neuestem Open-Source-Streich, der nicht nur multimodal überzeugt, sondern dank der Apache-2.0-Lizenz auch rechtlich für deutlich weniger Kopfzerbrechen in euren Projekten sorgt. Wir schauen uns an, was die verschiedenen Modellgrößen von 2B bis 31B leisten und warum ihr Gemma 4 ab sofort nativ auf eurem Smartphone über die Google AI Edge Gallery testen könnt.
Außerdem werfen wir einen Blick auf Seadance 2.0 von ByteDance. Das Videomodell sorgt mit 15-sekündigen Clips inklusive Sound für Aufsehen, musste nach heftiger Kritik aus Hollywood aber in Sachen Copyright ordentlich nachbessern. Ihr könnt es jetzt direkt in CapCut ausprobieren.
Für alle, die tiefer in die Welt der Agenten eintauchen wollen, stellt Philipp den Hermes-Agenten von Nous Research vor. Im Gegensatz zu eher Konsumierenden-orientierten Tools richtet sich dieser Python-basierte Agent-Harness primär an Unternehmen und die Forschung. Wir besprechen die Vorteile der engen Ollama-Integration und wie ihr damit hochwertige Traces für das Fine-Tuning eurer eigenen Modelle generiert.
Zum Abschluss gibt es wichtige Insights zu den jüngsten Security-Vorfällen: Wir klären auf, warum der Leak von Claude Code doch brisanter war als gedacht und wie eine extrem perfide Social-Engineering-Masche mit gefaketen Slack-Workspaces zum Axios-Leak führte.
- Dennis
- Hallo und herzlich willkommen zu 1 neuen programmier.bar AI News Folge 15 2026. Wir reden heute über Seedance, Hermes Agent und Jimmer 4 Punkt 0. Ich bin Dennis Becker und mir zugeschaltet ist der
- Philipp
- Philipp. Hallo.
- Dennis
- Moin Philipp. Heute wieder ohne Farbe muss man eigentlich sagen. Der war ja letzte Woche schon im Urlaub und ich weiß gar nicht genau, was er heute hat. Er hat der Flur geschrieben, er ist heute nicht da, aber ich weiß nicht, ob er es Urlaub noch im Extended hat, Ostern oder was die was die Gründe sind. Genau. Gut, fangen wir an. Wer möchte statt Ich glaub, Jama ist so das Größte wahrscheinlich gewesen, oder? Update, das son bisschen gab als Open Source Modell mit viel Kapazitäten. Was gibt denn alles Neues rund das Modell oder was muss man wissen?
- Philipp
- Also es gibt jetzt Jammer 4 letzte Woche, Release. Ich glaub, war unser beste Release im Sinne von, mit welchen Partnern wir zusammengearbeitet haben. Also es ist 'n in jedem, sag ich mal, Open Source Tool zur Verfügung, das ihr nutzt von Studio zu OLAMA und allen anderen Tools auf ganz verschiedenen API Providers, verschiedene Clouds, verschiedenen Agents und Tools. Aber vielleicht ganz kurz, Jamma 4 ist sozusagen der Nachfolge zu Jamma 3. Es gibt 4 Größen. Es gibt wieder e 2 b und 4 e b, das waren sozusagen ja die Jämmer 3 n Modelle, die Mitte letzten Jahres kommen gekommen sind. Selbes Prinzip hier multimodal heißt Text, Video, ja, Text, Video, Audio, Image Input, Text Output. Kann nativ auf Android und iPhone laufen. Gibt's auch die coole Google AI Edge Gallery App. Also könnt ihr direkt mehr oder weniger jetzt App Store aufmachen für beide, Wie weiß es, son Google Layer Edge Gallery suchen und dann das Modell runterladen dort ungefähr 2 Minuten, dann könnt ihr direkt Schema 4, 2 b oder 4 b auf eurem Telefon testen. Es gibt dann noch eine MOI Variante mit 26000000000 Parametern und 4 Active. Die ist, sag ich mal, sehr gut für kleinere MacBooks oder GPUs. Man braucht so die, also je nachdem, was für Quantisierungstyp man nutzt, aber man kann die schon auf, sag ich mal, jedem moderneren MacBook Easy laufen lassen und dann gibt's noch eine 31000000000 Variante, das ist 'n Dentsmodell, das heißt bisschen langsamer im Verhältnis zu dem MUI, aber dafür 'n kleines bisschen besser. Die kleinen Modelle haben 128000 Token Kontext, die größere Modelle haben 256000 Token Kontext. Und das ganz Besondere, worauf ich auch sehr stolz bin, ist, dass alle Modelle jetzt unter Apachee 2 Punkt 0 Lizenz released sind. Das heißt, eine gängige Open Source Lizenz ohne groß Nachforschungen oder muss ich mit meinem Legal Team reden, ob ich das nutzen darf? Auch wie die anderen Jämmer Modelle, 140 Sprachen nativ supportet, sehr, sehr gut. Auch sehr, sehr vieles positives Feedback auf Social Media bekommen. Man kann es nutzen in AI Studio im Chat, also ihr könnt auf Google AI Studio dot com gehen. Mhm. Dann könnt ihr es im Chat nutzen. Es gibt auch die API Variante, das heißt, man kriegt aktuell bis zu 1500 pro Tag für Jämmer. Natürlich, je nachdem wie die Auslastung ist, könnte das auch 'n bisschen weniger sein. Es ist verfügbar in Android Studio offline. Das heißt, wenn ihr Android Apps programmiert, könnt ihr jetzt 'n Android AI Jem nutzen offline ohne Internet. Es ist verfügbar in Light a t, was sone, sag ich mal, c-library ist, direkt nativ auf den Geräten auszuführen. Das heißt, wenn ihr irgendwie eine Edge galerie testet und das cool findet, könnt ihr in Light at euch anschauen, wie kann ich's in meine eigene Apps integrieren? Es ist verfügbar auch in MLX, also die spezielle Apple Open Source, Machine Learning Library. Es ist verfügbar in Cloud mit Beispielen für, Cloud Run, GKI, alles Mögliche. Es geht verfügbar für Viadaleme und auf TPUs. Also egal wo eigentlich, sage ich mal, gibt's jetzt Jämmer. Es ist verfügbar in Openclaw mittlerweile auch. Das heißt, wenn ihr euch damals 'n McMeni gekauft habt, laufen zu lassen und vielleicht nicht den Kleinsten genommen habt, ist die Wahrscheinlichkeit sehr hoch, dass ihr das auch jetzt mit Schimmer testen könnt und in allen anderen Agents sag ich mal.
- Dennis
- Cool. Wie groß ist so von der von der Speichergröße, dass wenn Du das aufm iPhone oder Android drunter liest?
- Philipp
- Je nachdem, ob man 2 oder 4 b näht. Also man muss dazu sagen, 2 und 4 b ist hier 'n bisschen, also deswegen auch davor, weil das haben. Es ist so, ich glaub, zwischen 5 und 8 Gigabyte, Mhm. Aber ihr müsst ihr lügen. Auf jeden Fall, mein iPhone 16 Pro hat super easy e 2 b gehändelt.
- Dennis
- Okay. Und kannst son bisschen einordnen, wo wir uns so benchmarkmäßig befinden, also was sind Tasks, die damit realistisch sind?
- Philipp
- Also der große Unterschied, sag ich mal, zu Jamma 3 ist vor allem, Output und, also wir haben auch Benchmarks veröffentlicht. Es bewegt sich so im Groben und Ganzen für seine Größe bei den Top Open Modellen, also so Quen 3 Punkt 5, sag ich mal, bisschen besser. Hier mal da muss man selber testen. Natürlich wieder auf Arena, LM Arena sehr, sehr gut. Da ist das 31 b Modell das drittbeste Open Modell, also konkurriert eigentlich mit Kimmy, K two und GLM, welche ja zwanzigmal größer sind, aber ich mein, das muss man für sich selber testen. Coding ist besser, ist besser und natürlich halt ich denk mal für alles, was man open, kleine Open Modelle nutzen kann von Klassifizierungen zu Samarization zu. Ich glaub, das Beste, was man vergleichen kann, ist, das E-vier-b-Modell hat ungefähr beziehungsweise die bessere Performance als Gemma 3 27 b. Also wir sind jetzt von 27 b zu Mhm. 4 b gekommen mit der Performance und dann die anderen Modelle sind dann auch besser und Base Modell und Feintunem Modell verfügbar. Das heißt, wenn ihr vielleicht aktuell GM Mat 3 genutzt habt oder 'n anderen Open Open Source Modell oder Open Modell genutzt habt, dann können die einfach auch sagen, hey, okay, ich mag's Feintunen oder ich test das normale und kann's dann nutzen.
- Dennis
- Mhm. Cool. Ja, schön, dass es auch in der Hauptwelt weitergeht und da genauso Sachen erstellt werden.
- Philipp
- Ja, ist echt cool. Also man ist doch doch immer wieder beeindruckt, wenn ich das dann auf meinem iPhone laufen lasse, wie gut's denn ist. Für alltägliche Dinge oder die AI Edge Gallery App hat auch jetzt die Möglichkeit, Skills auszuführen, also was wir ja von Cloudcode und allen anderen kennen. Man hat diese Agents Skills und die kann man auch lokal auf seinem Telefon dann haben und ich glaub, dauert nicht mehr dann, bis man so dann sein Telefon lokal steuern kann, also im Sinne von, dass sich zu Jamerson sagt, hey, bitte, mach das und das und im Hintergrund oder im Vordergrund öffnet es dann Apps und klickt irgendwo herum und macht andere Dinge. Und das ist halt dann schon cool, wenn das wirklich offline verfügbar ist und halt auch funktioniert einigermaßen.
- Dennis
- Ja. Wobei das wahrscheinlich am iPhone noch 'n bisschen schwieriger ist oder mit den ganzen Centboxen oder wie
- Philipp
- ist Ja, die dabei kenn ich mich jetzt nicht aus. Okay. Aber ey, ich mein, Apple und Google arbeiten ja, jetzt sag ich mal enger zusammen, wer weiß, was da alles noch kommen wird.
- Dennis
- Ja. Das ist richtig. Du hast grad 'n kaputten Finger, nee, kann man ja, hast Du zu kochen, aber was hast Du gemacht?
- Philipp
- Ich hab Tee über meine Hand geleert, kochen dann am Freitagabend.
- Dennis
- Oh Gott.
- Philipp
- Ja, ich war nicht so gut. Aber es hätte mittlerweile Voice Inputs und dann rede ich einfach mit meinem Computer und der programmiert dann für mich und
- Dennis
- okay. Dann gute Besserung an der Stelle. Mhm. Gut, dann reden wir über etwas, was jetzt nicht meganeu diese Woche rausgekommen ist, aber was zumindest was die Verfügbarkeiten angeht, die Zeit 'n bisschen war und zwar über das Videomodell von ByteDance. ByteDance zur Erinnerung ist der TikTok Anbieter oder zumindest hier in der westlichen Welt TikTok als als großes Produkt. Und genau, die haben mit Seadance 2 ein Videomodell rausgebracht, was auch ähnlich wie die großen anderen, die wir gesprochen haben, mit keine Ahnung Video 3 Punkt 1 oder oder Klingen 3 3 Punkt 0 ist es glaube ich bei Klingen aktuell. Also ein Modell, was eben nicht nur Video rausspuckt, sondern auch das Ganze mit Ton versieht. Es können Clips bis zu 15 Sekunden generiert werden und was tatsächlich sehr, also es es toppt viele der Benchmarks, die es da draußen gibt und ist da ist da mit Spitzenreiter. Jetzt ist das Ganze schon mal im Februar, glaube ich, das erste Mal veröffentlicht worden und hat dann aber sehr heftigen Gegenwind bekommen, vor allen Dingen aus Hollywood damals, weil einfach komplett Copyright kein Thema war. Also Du konntest mit allen bekannten Schauspielern, die es da draußen gibt und auch IPs, wie keine Ahnung, Marvel und was auch immer, konntest Du einfach neue Clips erstellen, die also ich hab mir jetzt im im Nachhinein in der Recherche noch mal 'n paar dieser Beispielevideo angeguckt, die sind schon krass, ne. Also da erkennst Du nicht so, dass die sehen aus wie die Originalschauspieler, so verhalten sich die Gesichtsausdrücke und sowas schon schon sehr beeindruckend. Und da hat tatsächlich Bytance nachgegeben und hat gesagt, okay, da müssen wir noch mal 'n bisschen feintunen, dass das nicht überall so verfügbar ist und deswegen war dieser Rollout dann son bisschen ja nicht so klar so jetzt ist es einmal da. Gibt irgendwie auch verschiedene Artikel, in welchen Ländern es jetzt irgendwie wo verfügbar ist und keine Ahnung ist, aber wenn ich das, wenn es keine Phishing Seite ist, unter ich jetzt gelandet bin, was ich aber nicht glaube, also Capcat ist son Video Schneid Tool. Das gibt es auch von ByteDance schon länger.
- Philipp
- Hab ich das für einen genutzt. Ist sehr beliebt für Mobile Video Editing.
- Dennis
- Genau, ja. Ist halt ja alles, was man Social Media machen, weil ich hier ein sehr cooles Tool eigentlich, was man nutzen kann. Und da gibt's jetzt genau, nennt sich noch was, Dreamina. Ich bin mir nicht ganz sicher, was diese Produktname bedeutet, weil es auch teilweise jetzt genannt wird so als Dreamina Seedance sozusagen, aber wie dem auch sei, wenn ihr es mal ausprobieren wollt, könnt ihr dann eben über Cap Cut oder beziehungsweise Dreamina Punkt Cap Cut Punkt com auch Videos erstellen mit Seadance 2 Punkt 0.
- Philipp
- Glaubst Du, es ist wirklich gefeintuned oder 6 Klassifizierungslayer davor und danach die sicherstellen, dass kein Copyright Material genutzt wird? Ich glaub eher letzteres, oder? Ich finde, ich wär auch interessant zu wissen, ob es, sag ich mal, in China, Mainland oder in anderen Regionen dann noch das normale Modell ist. Ich hab vor allem auch sehr viele Animes gesehen, beziehungsweise wo Leute dann Mangas genommen haben und die dann direkt verfilmt haben innerhalb von 'n paar, paar Stunden. Mhm. Ja, bin gespannt, wo's
- Dennis
- hingeht. Ja. Nee, aber auch da lohnt es sich einfach wieder son bisschen, wenn man mal State of the Art sehen möchte, so was ist möglich mittlerweile, wie ist die Qualität dort, kann man sich mal gut 'n paar dieser Beispiel Videos einfach reinziehen. Das ist 'n sehr beeindruckendes Modell.
- Philipp
- Und ich hab dann, mir ist grad noch eingefallen, ich hab noch 2 Nachträge zu eurer letzten News Folge. Okay. Ich hab dir gestern gehört oder vorgestern, ich weiß gar nicht. Zum einen zu Jan bezüglich Cloud Code und der Source Code und warum ich's mache, ist es überhaupt eine News, dann ist da überhaupt irgendwie was drin. Und ich glaub, zu den Sätzen von Jan, also ich hab's mir auch angeschaut, genauer, sag ich mal 'n bisschen und Cloud Code ist wirklich eigentlich nur 'n Rapper die API herum. Also es ist alle Proms, alle Prozesse, wie Tools definiert werden, wie der zusammengebaut wird, wie Skills geladen werden. Ist alles part auf der Cloud Code auf dem auf dem Source Code. Das heißt und es gibt auch Leute, die haben das genommen und also nicht nur 'n Raster umgeschrieben, sondern auch einfach den Java Script Code genommen und den Model Provider, also die Stelle, wo dann der LLM Call ausgeführt wird, durch Open AI ersetzt und haben dann einfach Codecs innerhalb von Cloud Code ganz einfach nutzen können mit denselben System Proms, mit denselben Features mehr oder weniger. Also es ist schon eine sehr große News, vor allem, weil Du halt als, sag ich mal, Framework Provider oder Stella wirklich nachschauen kannst, okay, wie haben sie's geschafft, dass Claude manchmal hier das oder das macht oder es gab ja auch diesen Automode, der in Claude Code irgendwann kam mit, ich muss nicht mehr machen und das ist zum Beispiel auch Teil des des Codes, sag ich mal, und die nutzen dafür, dass halt sozusagen so gemacht wird. Also ist schon 'n sehr großer Lead gewesen und nicht einfach, ich hab hier eine API, die heißt Cloud Code und die läuft. Das Gleiche ist ja auch, dass Cloud Code die Codebasis für die Agent SDK genutzt hat. Also dass er einfach mehr oder weniger nur 'n hooke da da rein Und der war auch davor nicht, sag ich mal, aufn Klein verfügbar. Also klar, man hatte irgendwie die Types, aber der kompletteierte Binary Code in Bun, da konntest Du nichts mit anfangen. Klar, man hätte irgendwie die Promps rausholen können. Das hatte man doch vor schon, aber wie's so alles 'n bisschen zusammengebaut wird, war schon ein sehr großes Thema. Ja. Und das andere ist, also es gab ja diesen Axios League und ich hab jetzt die Folge noch nicht zu Ende angehört, aber ich weiß nicht, ob's besprochen würde. Man weiß mittlerweile, wie die an die Daten gekommen sind. Aha. Hattet ihr das?
- Dennis
- Ich glaube nicht, nee.
- Philipp
- Okay, also es gibt mittlerweile 'n Post auf GitHub. Ich kann das auch gleich mal checken. Mhm. Und zwar Sie haben zu einem, Sie sind zu einem Contributer, Sie sind auf ihn zugegangen mit 'nem als Founder mit 'nem kompletten faken Company, welches Sie geklont haben, halt so ähnlich aussieht wie anderen Start ups. Dann haben sie ihnen einen echten Slack Channel hinzugefügt mit 'nem echten Workspace, der gebrandet war, der CICD Channels hatte, wo Leute gechattet haben, was alles sehr echt aussah. Die hatten Channels, wo sie LinkedIn Posts oder Twitter Posts geteilt haben, die interessant sind für die Company. Und die haben sogar also Fake User, Fake Profile mehr oder weniger in 'nem Slack erstellt, die dann auch mit der Person geschrieben haben. Dann haben sie mit ihm 'n Meeting gemacht, nicht in Slack, sondern in Microsoft Teams. Und das Meeting hat mehrere Personen mehrere Vene gehabt, aber es hat nicht funktioniert, als er den Link geöffnet hat. Und dann haben die ihm den neuen Link geschickt, der was runtergeladen hat und das war die das RAT, also die die RANCMware, die hat er dann installiert unter der Annahme, hey, ich geh in dieses Microsoft Teams Meeting rein und dann waren seine Credentials sozusagen weg. Also es ist nicht so, ich hab irgendwie meinen Token geleakt auf getab oder ich hab auf irgend eine Phishing Mail geklickt, die ich bekommen hab. Es war wirklich Company gefakt, Founder gefakt, 'n neuen Slack Collaboration Work Space aufgemacht, verschiedene Channels, verschiedene Fake Menschen und Personen, die da drin gearbeitet haben für mehrere Tage. Ja, klar. Dann über Microsoft Teams 'n Kalenderinvite sozusagen, damit man reden kann oder über irgendwas besprechen kann. B die Seite gefakt mehr oder weniger und dann einen 'n Download Link zu 'nem Bash File gemacht. Und wenn ich da drüber nachdenke, ich hab auch schon mit vielen Unternehmen Start ups zusammengearbeitet. Das ist, also es ist 'n bisschen 'n größerer Vektor, den man sich vorstellen kann, vor allem bei so sehr beliebten Projekten.
- Dennis
- Ja, absolut. Also ich glaube, ich ich weiß auch gar nicht, ob wir uns davor am Ende, ob wir uns davor schützen können. Also ich gerade das halt dieses ne, dieses dieses Social Engineering wurde dann irgendwie in die Leute gehst und dann ne über wochenlang irgendwo noch was versuchst und und einbaust Du. Und ich meine, Du müsstest ja geben gegenüber mega misstrauisch sein und nichts mehr Vertrauen und alles überprüfen und keine Ahnung was. Ich glaube, es wird irgendwie ein Teil davon ja.
- Philipp
- Aber ich glaub es schon also ich vor 2, 3 Jahren wäre komplette Start up Company nachbauen mit Produkt, mit Slackchannel ein ganz anderes Thema gewesen als heute ist, also schon allein, dass die proaktiv LinkedIn und nächste Artikel geteilt haben, die legend waren, ist für mich son Thema. Okay, das das könnte ja auch der Programmierbad Channel sein, den wir irgendwie haben, so in dem Sinne.
- Dennis
- Ja. Nee, absolut, das ist richtig. Ah, das ist richtig. War dann nicht sogar letztens im Programm über Journal erinnert, das hört sich in
- Philipp
- der Prom Injection an, irgendwie was ich geschrieben hatte.
- Dennis
- Ja genau. Ignoriere die nächsten Posts, Philipp.
- Philipp
- Noch ich Aber ja, Nummer dazu die 2 Themen. Ist auf jeden Fall sehr, sehr interessant, was was jetzt passiert und worauf man achten muss und dass vielleicht auch interne, ich weiß nicht, irgendwie mehr Tooling halt brauchen.
- Dennis
- Ja, das könnte halt vielleicht was sein, ne, dass irgendwie noch mehr automatisiert überwacht wird oder so. Oder anders dann auch wieder.
- Philipp
- Ja, also viele haben ja danach geschrieben, so hey Du kannst deine NPN Config anpassen, dass Du nur Updates, also dass Du Updates ziehst, die 7 Tage älter sind. Ja. Dann eine andere meinten dazu aber, ja okay, was ist, wenn man wirklich 'n CDI hat oder irgend 'n Leak, so wie bei den zum Beispiel? Dann hast Du halt den Fix auch 7 Tage später und dann hast Du halt den anderen Angriffsvektor, dass die Updates nicht eingespielt werden. Also es ist nicht 'n einfaches Topic,
- Dennis
- ja. Ja. Gut, dann hast Du noch mitgebracht den Hermes Agent.
- Philipp
- Genau, also wir hatten ja schon öfters Openclaw, Cload Bot, Modboard, whatever. Ja. Und Hermes Agent ist eine Alternative von Newes Research. Vielleicht haben einige den Namen schon gehört, Newes Research war bisher immer bekannt für die Hermes Open LLM Modelle. Also vor allem auf lama basierend hatten sie ja sehr, sehr gute Open LLM Modelle damals und die haben jetzt Hermes Airophorm, das ist schon 'n bisschen älter, sag ich, gerade am am Bauen, Hermes Agent Release, das ist 'n MIT License, Agent Harness, sehr ähnlich zu Openclaw heißt. Man hat auch Telegram, Whatsapp, verschiedene Channels als Input. Man hat eine Sea Ly, mit der man chatten kann. Man hat auch dieses Single Gateway Prinzip. Das heißt, dass ich von verschiedenen Channels halt eine Nachrichten mein Agents schicken kann. Man hat Skill Support, man hat ganz, ganz, ganz viele andere Features, die man kennt und andere Themen. Was besonders ist, sag ich jetzt mal, ist, es ist 'n Python geschrieben und es ist mehr oder näher an orientiert oder in orientiert, denn Open Cloud ist ja sehr b-to-c-orientiert, ich als individueller User nutz es und mach dann damit irgendwelche Dinge. Und worauf die geachtet haben, wenn ich's richtig verstehe, ist es research ready. Das heißt, man hat mehr programmier.bare Interfaces, man hat, man kann es in seinen mit einbauen. Alle Interaktionen, die man mit Hermes Agent macht, werden in dem Format gespeichert, dass ich denn die auch nutzen kann, danach kleinere andere Open Source Modelle sozusagen trainieren kann. Das heißt, alles ist darauf ausgelegt, dass ich den Agent nutzen kann in meinem Training von meinen eigenen Modellen beziehungsweise auch im Generieren von Daten für Ivals, für Feintuning und die alle, sag ich mal, das Python Ecosystem mehr oder weniger mit reinpassen. Es gibt auch interessanterweise von Openclaw. Das heißt, wenn ihr irgendwie aktuell Openclaw nutzt, dann könnt ihr relativ easy mal euch HMS Agent anschauen und sie haben halt, wenn sie doch, sag ich mal, Open Lab sind mehr oder weniger 'n starken Fokus auf den Open Modellen. Das heißt, sie arbeiten mit den ganzen, sag ich mal, Gines Open Modell Providern zusammen. Es gibt Gemini, aber auch für Jammy jetzt und ist definitiv interessant. Also man hat einen ähnliches Onboarding Prinzip, ich hab eine, die ich installier und dann kann ich halt sonen Onboarding Flow durchgehen, wo ich meine meine Provider auswählen kann und sehr cool, vor allem weil sie auch eine relativ enge Integration mit Ohlama haben. Ich glaub, das ist irgendwie ein Command, den ich eingeb, Ohlama als Backgen nutzen zu können mit dem Hermes Agent, mit dem neuen Jämmer Modell jetzt. Und dann hab ich diesen Fullplown Agent Hannes, den ich dann superschnell zu Telegram oder zu anderen Dingen verknüpfen kann. Und dass ich halt diese Traces für jede Interaktion mit Speicher, die ich dann halt wirklich nutzen kann fürs fürs Training.
- Dennis
- Okay.
- Philipp
- Und dann halt auch ja gleiche Features, also mit Skills, mit Memory. Sie sagen selber, dass sie mehr auf dem erstellt Skills, denn als Nutzer erstellen Skills und die werden auch getestet oder selber ausgeführt im Hintergrund son bisschen. Ist auf jeden Fall, wenn ihr Fans seid, dann gerne mal reinschauen. Vielleicht lernt ihr irgendwas Neues, vielleicht passt's 'n bisschen besser. Und vor allem, wenn die halt irgendwie 'n, sag ich mal, eine mehr sind, wo man vielleicht 'n Agent irgendwann nutzen kann, dann ist es halt schon 'n Riesenvorteil, wenn ich jetzt schon anfangen kann, son bisschen meine eigenen Daten zu erstellen von wie meine Nutzer, wie meine, sag ich mal, Entwickler, wie irgendwas anderes mit halt diesem Agent interagiert.
- Dennis
- Ja. Irgendwie ist gefühlt mir für mich da immer son krasser Unterschied, ob das jetzt so im Moment noch in den privaten Space ist, den man halt auch so was, sone alle Zugänge und sonstige Sachen auch irgendwie angeht oder wenn man's dann direkt schon so auf auf Enterprisebene denkt, ja, dass da ja mal irgendwie gleich viel mehr Implikationen mitkommen, wo liegt das Ganze und was sind da die Zugänge? Wie ist das User Management und wer kann auf ne, die Daten zugreifen und wie ist das alles geteilt und so? Das eröffnet irgendwie gleich noch son ganz anderen Space an Gedanken, die man irgendwie hat.
- Philipp
- Ja, jetzt warum ich's vor allem interessant finde, ist aktuell ist son wachsender Fokus darauf. Jeder nutzt ja Agents für alles Mögliche und vor, sag ich mal, 2 Jahren haben wir ja alle Datasets erstellt, synthetisch mit LLMs und jeder hat diese Datasets geteilt. Da gab's Chat GPT, was damals echte Chats von ChatGPT war, die Users geteilt haben und so was. Und alles geht in Richtung, hey, okay, mit diesen Agents, wir brauchen diese ganzen Agents Sessions, wo man mehrere User Input hat, wo man den ganzen Tool Calling Loop hat, damit ich den halt als Daten hab, zu evaluieren, echte Proms zu bekommen, Modelle dann auch zu verbessern. Und da geht halt alles hin. Ich weiß jetzt nicht, ob OpenClown auch 'n Feature hat, wo ich das direkt exportieren kann oder das generell alles lokal so gestourt ist, dass ich das direkt nutzen kann oder so was. Aber das fand ich halt für alle, sag ich mal, Modellbauer, Menschen, die Finetuning Modelle nutzen sehr, sehr cool. Vor allem jetzt hat man mit Jämmer ja 'n relativ gutes, kleineres Open Modell, was schon sehr gut im ist. Nutz ich jetzt irgendwie Hermes Agent in meinem Team oder nur privat, dann kann ich's wahrscheinlich supereasy besser machen oder dann halt die Daten, die ich gesammelt hab, mit anderen Modellen verbessern oder also im Sinne von, hey, ich hab hier irgendwie eine Tradeory, wo ich sag, hey bitte, ich weiß nicht, check meinen Google Mailkalender, meine E-Mails und erstelle mir 'n Daily Flow oder plan meine neue Meetings, find Zeit mit Dennis. Und wenn ich halt diese hab, die vielleicht nicht perfekt sind, weil das Modell irgendwie Tool Calling Fehler macht oder irgendwie so was, kann ich die halt anpassen oder synthetisch verändern, dass ich halt den richtigen Flow hab und dann halt wieder Modelle darauf trainieren oder halt dann mit Reforcement Learning die dagegen zu verifizieren. Ja. Und ich glaub, das ist der größte, sag ich mal, Unterschied dazwischen und ich sage selber auch natürlich, sie sind besser und es ist 'n bisschen. Und aber das kommt dann, sag ich mal, alles auf die persönliche Präferenzen an. Okay. Hast Du aktuell irgendwas in die Richtung laufen? Jein. Also persönlich jetzt nicht. Okay. Ich weiß nicht, also ich hab nutzt Poke immer noch, also ich hab Ja? Ja. Krass, okay. Aber auch mehr so, ich weiß nicht, ich hab jetzt nicht so viele Dinge, die ich im Hintergrund machen muss, wo ich dann eine Benachrichtigung brauch, muss ich sagen.
- Dennis
- Ja, was war 'n das? Pika, Pika, die hatten wir glaube ich auch irgendwann drüber gesprochen, die haben so vor allen Dingen so Kurzvideoclips so vorgefertigten Szenen und sowas gemacht. Die haben auch vorletzte Woche oder sowas auch son Agent als App rausgebracht. Ich glaub einfach so, kann sich vorstellen, als sehr abgespeckte Version von von einem dieser Dinge, aber wo man eben auch zu 'n paar Services eben Zugriff geben kann und das halt einfach in 'nem schönen Interface irgendwie ist und es redet halt von seinem deinem AI Bild zu sagen. Das heißt, Du machst auch 'n Snap 'n Selfie von dir und dann wird direkt son 3D Avatar erstellt, wie dann aussieht und ist aber auch direkt schon son gewisser Businessbezug ne. Sagt so, hey, wenn Du auf LinkedIn irgendwie Sachen posten willst, keine Ahnung. Ja, versucht das halt eben son bisschen zu aber hat mir trotzdem nicht so gut gefallen.
- Philipp
- Also Was ich was ich gesehen hab, also ich hab der hat 'n sehr guten Podcast mit den Dreamern Start-up gemacht. Dreamer wurde ja innerhalb von einem Monat, nachdem sie gelauncht sind von Meta Direct Aquir, das war son Agent OS Start-up, kann man sich gerne mal anhören. Da haben die auch viel darüber geredet mit diesen, sag ich mal, Pro Active Hintergrund Agents, wofür die die nutzen. Und interessante Use Cases fand ich, vor allem, wenn man halt irgendwie sehr viel arbeitet oder halt beschäftigt ist, dass man halt so Themen wie, keine Ahnung, was kann ich am Wochenende mit meinen Kindern machen? Da haben die halt gemeint, okay, da kriegt ja jede Woche irgendwie 'n Art Report basierend auf dem, was sie halt in der Vergangenheit gemacht haben und direkt halt so Vorschläge oder und und für alles andere, ich
- Dennis
- weiß nicht, ich frag dann halt
- Philipp
- doch irgendwie noch gamma oder wenn ich irgend einen Flug buchen möchte, dann buch ich den halt selber und privat hab ich jetzt nicht so viele E-Mails und sag ich mal Social Media Anbindungen ist ja auch nicht immer gut und man möchte ja auch irgendwie nicht, dass man mit Also wenn mir jemand eine Nachricht schreibt, dann antworte ich den. Dann hab ich nicht irgendwie 'n Bot, der da antwortet. Das ist irgendwie 'n bisschen Das heißt ganz viel, meinus nutzen das halt einfach mehr in dem professionellen Umfeld als irgendwie im privaten. Ich hoff zwar darauf, dass die ganzen Smarthome Device jetzt die Upgrades schneller bekommen und dann mehr User darüber geht. Abwarten.
- Dennis
- Ja, ist eine gute Frage. Ich meine, ich hab gestern irgendwie 2, 3 Stunden verbracht, einen 'n neues Haus für 'n Skiurlaub zu suchen für nächstes Jahr. Ja. Klar.
- Philipp
- Ciao. Kauft ihr direkt oder? 2 Wochen Skiurlaub, dann mal kurz Ja
- Dennis
- ja genau. Wer mietet denn? Nein, zur Miete natürlich. Gut. Dann haben wir's.
- Philipp
- Ja.
- Dennis
- Vielen Dank, deine gute Reise. Du bist bald jetzt beruflich wieder im Flugzeug unterwegs. Ja. Und dann hören wir uns hoffentlich in 2 Wochen wieder, sonst schreibt ja.
- Philipp
- Ja, in 2 Wochen ist, glaub schon, die Google Cloud Next. Ich weiß nicht, ob die programmier.bar vor Ort sein wird, aber ich werd definitiv vor Ort sein.
- Dennis
- Du wirst definitiv vor Ort sein und Jan ist auch vor Ort.
- Philipp
- Ja. Perfekt.
- Dennis
- Sehr gut, cool. Dann gucken wir mal, wie wir da vielleicht eine Aufnahme reinstopfen können oder nicht. Sehr gut. Bis bald, macht's gut.