News AI 27/25 –

Gemini CLI // OpenRouter // OpenAI Deep Research, ChatGPT Connectors, Web Search // 11ai // Vercel Sandbox

03.07.2025

Shownotes

/transkript/programmierbar/news-ai-27-25-gemini-cli-openrouter-openai-deep-research-chatgpt-connectors-web-search-11ai-vercel-sandbox
Dennis
Hallo und herzlich willkommen zu 1 neuen Programmier bei AI News. Wir sind in Kalenderwoche 27 im Jahr 2025. Neben mir auf dem Sofa chillt Fabian Fink. Hallo. Schön, dass Du da bist. Und zugeschaltet ist uns Philipp Schmid.
Fabi
Jetzt jetzt kann
Dennis
ich den Namen richtig gelernt und ja jetzt auch kennengelernt. Ich bin Dennis Becker. Freut uns sehr, dass ihr wieder zuhört und wir ein bisschen teilen können, was es alles Neues im AI Space gibt. Ja, man muss leider sagen, wenn ich jetzt auf unsere Liste gucke, eigentlich schon wieder so die großen da draußen, die weiterhin Updates veröffentlichen, die spannend sind. Immer wieder natürlich auch kleinere Dinge, aber da geht vor allen Dingen wieder neue Modelle von Google Eleven Labs, die man ja auch häufiger mal schon gehört hat in Audiosachen sind auch wieder am Start. Und Open AI fehlt heute auch nicht. Und ja, jetzt durfte ich mittlerweile ja tatsächlich erstes Mal Philipp in Real Life auch treffen. Wir waren zusammen auf der gleichen Veranstaltung letzte Woche auf der Google IO Connect, wo Philipp auch einen Vortrag gehalten hat über das Jämmerverse. Und auch da hören wir heute noch mal ein kleines Update zu. So, womit fangen wir an? Immer den größten und der kleine Ich will immer nicht, was der Spannungsbogen sein soll. Deswegen heute direkt der Hinweis auf Oudas Feedback machen wir vorne rein. Podcast at Programmier Punkt bar, wenn ihr Feedback habt zu dem Podcast und ihr könnt mal sagen, wie ihr den Spannungsbogen haben wollt. Sollen wir am Anfang die ganz großen News erzählen oder die hinten raus dann rausknallen? Was was würde euch besser gefallen? Wir starten heute mal, Philipp, mit der Gemini 2 Punkt 5 Reihe, denn da hat sich ja 'n bisschen was von der Verfügbarkeit geändert.
Philipp
Genau, es kam mehr oder weniger direkt, nachdem wir die letzten News aufgenommen haben, ist Gemini 2 Punkt 5 Pro und 2 Punkt 5 Flash g a gegangen. Das heißt, keine Version mehr. Ganz kurz, Pro Version ist die, die am sechsten Juni, fünften Juni vorgestellt wurde. Das heißt, das ist dasselbe Modell wie die vom fünften Juni. Für Flash ist es dieselbe Version wie vom zwanzigsten Mai. Da hat sich eigentlich nichts viel geändert. Das Pricing von Flash hat sich 'n bisschen angepasst. Es gibt jetzt kein separates Pricing mir zwischen und. Das heißt, wenn ihr 2 Punkt 5 Flash mit genutzt haben, dann bekommt ihr jetzt 'n günstigeren Preis. Wenn ihr's ohne genutzt habt, dann ist es 'n bisschen teurer. Aber für alle, die kein genutzt habt, gibt's jetzt eine neues 'n neues Modell, und zwar 2 Punkt 5 Flash light. Das ist sozusagen das kleinste Modell in der Familie. 2 Punkt 5 Flash light ist ungefähr so gut wie 2 Punkt 0 Flash. Keine Thinking, 1000000 Kontext kostet 10 Cent pro 1000000 Input Token, rund 40 Cent pro 1000000 Output, also genauso wie 2 Punkt 0 Flash einfach, aber 'n bisschen besser. Alle 3 Modelle in der AR Studio und Germanai API.
Dennis
Cool. Dann schließ ich mich an über Verfügbarkeiten bei Google, denn Imagine 4, das nagelneueste Bilderstellungstool von Google, ist jetzt auch über die API verfügbar. Auch da letztendlich so, hatten wir, glaub ich, schon mal als Update, was grundsätzlich Imagine 4 angeht, aber bezogen mit vor allen Dingen große Verbesserungen in der Darstellung und dem Rendering von Texten auf Bildern und genau, da gibt es noch sone eine, ja, ist es jetzt Ultra oder Pro? Immer die Namen Ultra. Imagine 4 Ultra gibt es noch über die API und in der ARD Studio, wo die noch ein bisschen besser dem prompt followad. Also das heißt, dass da 'n bisschen klarer ist und man auch mal präziser steuern kann, wie das Bild am Ende aussieht. Genau, also auch sehr coole Ergebnisse jetzt über die API verfügbar und in Google AI Studio zum Ausprobieren. Ja, ich hätt das noch mal 'n bisschen sortieren müssen, aber das machen wir jetzt live hier an der Stelle, denn das sind ja letztlich auch neue Modelle, von daher direkt noch mal zu Philipp und den Modellen, so wurden sie, glaub ich, genannt von Open AI mit o 3 Deep Research und o 4 Mini Deep Research?
Philipp
Genau. Und zwar hat Open AI Deep Research in der API mehr oder weniger vorgestellt. Und was das eigentlich ist, das sind neue Modelle in der API für Deep Research. Die heißen auch und. Das heißt, wenn man sozusagen ein eigenes Deep Research bauen möchte, kann man sozusagen die Modelle nutzen und die mehr oder weniger miteinander verknüpfen, supporten die seinem Features wie alle anderen Open AI Modelle. Das heißt, Deep Research zu erzeugen, muss ich denen das Tool Web Search geben und dann können die sozusagen das durchführen. Was sehr Cooles, muss ich sagen, sie haben einen Cookbook veröffentlicht, wie man diesen sozusagen baut. Also im Sinne von, man hat eine User, dann wird erst mal gecheckt, okay, ist die User aussagekräftig oder hab ich erst mal 'n zu 'nem anderen Modell, der sozusagen wieder eine Rückfrage zu zu dem User stellt und dass ich dann sozusagen den verbesserten prompt hab. Wenn ich den verbesserten prompt hab, dann geht es hinzu diesen Modell mehr oder weniger, welches dann Websuche nutzt. Hier kann man dann auch selber MCP Server nutzen. Das heißt, wenn ich irgendwie nicht nur Web verbinden möchte, sondern auch irgendwie, keine Ahnung, ich hab meine meinen Sharepoint als MCP Server mit Word Dokumenten drin, die genutzt werden sollen für die Suche. Kann man da auch nutzen. Und dann hast Du sozusagen wieder das Ergebnis und dann haben die noch sone Art mit drin. Das heißt, man baut mehr oder weniger den selber und das Herzstück ist dieses oder sind diese Modelle, kosten gleich viel wie die normalen o-vier-und-o-f-Min-Modelle. Was ganz interessant ist, Sie haben noch die die Kosten für Ihren, Ihre Websuche angepasst und reduziert auf, glaub, 10 Dollar pro 1000 Websuchanfragen, was auch sehr cool ist. Genau.
Dennis
Weißt Du oder denkst Du Also das ist ja jetzt vor allen Dingen für die API, glaub ich, relevant. Das heißt, in dem Chat GPT Client, den man hat, hat man ja durchaus auch die Möglichkeit, mit o die ausführen. Weil ich glaub, das ist so wie das ist das. Also das ist letztendlich einfach nur jetzt die Form
Philipp
Also das ist vielleicht eine andere Version, aber es wird eben genau dasselbe Modell sein. Wir wissen halt leider nichts über die, die Modelle, aber einfach nur von dem, was man weiß und wie es sich verhält. Das ist einfach 'n U-drei-Modell oder o-vier-Modell, welches einfach weiter trainiert würde höchstwahrscheinlich mit Learning, was einfach besser ist in dem Nutzen von diesen Websuchtools und halt auf dem Reflexion sozusagen. Also dass einfach Modelle weiter trainiert wurde für diesen einen Use Case und die jetzt separat bereitgestellt werden. Kann mir ganz gut vorstellen, dass halt das irgendwann wieder später sozusagen die nächste Generation, dass das wieder der Standard ist für die Modelle. Das heißt, Du brauchst wieder diese Custommodelle nicht. Vielleicht machen sie dann wieder Custommodelle, aber das sollte immer son paar Custommodelle hast und das ganze Learning und die Results gehen dann immer zurück in das Hauptmodell. Und man hat auch, glaub, letzte Woche oder vorletzte Woche über GPT 5 gesprochen auf irgend 'nem und das, was im Sommer kommen soll, deswegen sind wir mal gespannt.
Dennis
Okay, gut. Was Sie aber auch noch im Zuge dieser Veröffentlichung mit veröffentlicht haben, sind die Webhooks, die auch vielleicht interessant sind im Bezug zu den Deep Research Dingen, ne?
Fabi
Genau, also Web Webhooks, die Sie im Endeffekt für alle asynchronen Badge Jobs oder auch länger laufende Task gibt's jetzt die Möglichkeit, Webhooks zu bekommen, die man dann, ich mein, Grundprinzip Webhooks, glaub ich, braucht man nicht zu erklären, sodass ihr im Endeffekt asynchron darüber Bescheid bekommt, wann solche Jobs fertig sind. Es gibt verschiedene Events, also einmal zum Beispiel, dass 'n Badjob complete ist, aber auch wenn's ums geht, sodass man im Endeffekt Webbooks bekommt, wenn der Job abgeschlossen ist. Oder wie gesagt, auch einfache Response Events, also wenn's im im Endeffekt asynchrone Ausführungen sind, die man hat, eben jetzt auch in der verfügbar. Denk ich eine ganz gute, ganz gute Ergänzung, nichts Webbewegungswahl für diejenigen, die's brauchen, wichtig.
Dennis
Ja. Cool. Und dann lass uns doch OpenAI noch mal abschließen. Und da haben wir nämlich noch die Konnektoren für externe Tools, die neu sind.
Fabi
Genau. Und da bei den Konnektoren eben superinteressant, dass wir eigentlich so diese ganzen Businessapplikationen, die man so im Businesskontext braucht, jetzt im Endeffekt als Chat GPT Connector zu zur Verfügung hat, eben Chat GPT anzureichern mit allen Daten, die beispielsweise Google Drive, in Dropbox, im SharePoint liegen. Und aber leider wie immer für uns in der Europäischen Wirtschaftsunion als auch UK und der Schweiz nicht verfügbar. Das heißt nicht ausprobierbar, aber natürlich der Part grade jetzt für uns, die zumindest mit Google Workspace viel arbeiten wär Google Drive natürlich superinteressant, dass die Modelle direkt Zugriff auf diese diesen Kontext sozusagen haben und automatisch darin suchen können. Also im Endeffekt könnt ihr's euch ja so vorstellen, die Konnektoren wie eine Websearch auch so, man gibt sie mit als Kontext oder kann sie sozusagen als Connector hinzufügen in 1 Anfrage. Und sucht selbstständig darin sich den notwendigen Kontext für für eine Anfrage raus. Was natürlich superinteressant ist, aber wie immer superschade für uns, dass wir's nicht testen können.
Dennis
Mhm.
Fabi
Wenn ich oder hat jemand schon mit irgendwie VPN oder irgendwas mal, Philipp, hast Du's schon ausprobiert? Nee.
Dennis
Nee. Bring mir, ich hatten mir das ja letzte Woche in den News, weil ich glaub, in AI Studio in Kombination mit Jaminar 2 Punkt 5 pro gibt es doch auch die Workspace Konnektoren, also so was wie Google Drive, können wir da, glaub ich, mittlerweile auch anbinden. Geht das über die Google eigenen Produkte schon hinaus, Philipp? Weißt Du das? Nee. Weißt Du So weiß ich nicht. Geht nicht drüber hinaus.
Philipp
Nein, weiß ich nicht.
Dennis
Okay. Weil er war ja jetzt irgendwie auch neu, dass man da dann Und das hab ich zumindest in irgendeinem kleinen Test schon gemacht, also das war verfügbar. Da kann man das schon mal, wenn's einem sehr wichtig ist, könnte man's mit den mit der Google Feed machen unter AI Studio Punkt Google Punkt com. Okay.
Fabi
Dann Und dann ist übrigens eben auch die Option natürlich über MCPs das Ganze natürlich dann lokal zu machen, ne. Da gibt's 'n bisschen mehr Gefrickelt. Kriegt man die kriegt man dieses kriegt man dieses Verhalten ja durchaus auch schon lokal hin? Ja. Richtig. Aber natürlich super. Also wenn's, ich mein, ist er da einfach nutzen einfach superviele Leute da draußen. Ist natürlich schon cool, wenn wir das für die EU auch bekommen werden.
Dennis
Ja. Wenn wir von Lokal sprechen, kann man zumindest, können wir vielleicht über 3 N a noch sprechen. Und zwar ist auch das jetzt verfügbar. Das heißt, das wurde auch schon, glaub ich, angekündigt im Mai, meine ich. Ist mal son bisschen her und ist jetzt allgemein verfügbar. Und bei Jamma 3 l oder generell noch mal kurz abgeholt abgeholt, die Jamma Familie ist die Open sind die Open Models von von Google, wo Jamma 3 so das aktuelle Flagship Modell ist, was da draußen existiert. Und Jam mal 3 n ist letztendlich eine durch verschiedene Architektur Dinge, die sie dort gemacht haben, noch mal kleiner geworden. Das heißt, die die Parameterzahl ist, Sie nennen die Modelle, die glaube ich gerade verfügbar sind, und und und das ist irgendwie so die Effekt, die effektiven Parameter, die da drin sind. Das heißt, eigentlich hat das Modell mehr, aber in der Ausführung wird das durch so verschiedene Layer, die es gibt, reduziert und dadurch kann man's halt einfach mit weniger RAM ausführen. Und genau. Das heißt, das ist, glaube ich, rankt relativ hoch in den in den Benchmarks unter anderem in der LM Arena dafür, dass es eben deutlich kleiner und deutlich effizienter zu nutzen ist. Ist sehr schnell auch in Response Zeit, also Und ja, also für alle, die lokal irgendwie mal mal Spaß haben, Philipp ich hab von Philipp Ärger bekommen, wir haben uns unterhalten letzte Woche in Berlin und ich hab gesagt, ich hab immer noch nie mal 'n lokales Modell laufen lassen so, weil das, nicht, meine ich immer so, es ist ja alles da online. Und jetzt kann ich sagen, ich hab das erfolgreich getan. Ich habe LM Studio heißt das einfach, ne. Genau, LM Studio supereinfach, eine Mac App, die Du mal runterladen kannst, braucht nur einen Klick, sich dann ein Modell zu laden und das einfach im Speicher zu haben und kann das dann einfach mal gucken. Und ist auch schon beeindruckend, dann zu sehen, wie viel da dort schon drin ist. Ich mein, ne, ganz, ganz viele Use Cases mit Bilderkennung, was da drauf und erklären und Zusammenhänge einordnen und so was ist halt jetzt schon einfach auf sonem MacBook zu nutzen. Und Jamma 3 n ist eben genau für diesen Use Case auch Ich
Fabi
hab's aber auch schon lange nicht mehr gemacht. Ich glaub, die letzte letzten noch irgendwie als mit irgendwelchen Myster Modellen, die ich dann lokal ausgeführt hab, aber vielleicht wär ja Jammer 3 n jetzt auch mal wieder für mich Herr Ja. Der Start.
Philipp
Was halt vor allem nur Scooter ist bei 3 n, es ist halt multimodal, aber noch mehr multimodal als die Jammer 3 Familie. Das heißt, Du hast jetzt auch Audioinput. Das heißt, Du kannst Transkriptionen direkt führen, durchführen und nicht nur Transkriptionen, sondern Du kannst auch mehr oder weniger machen. Also im Sinne von, Du sprichst auf Deutsch rein und kannst es in Echtzeit auf Englisch streamen oder auf eine andere Sprache. Das war eine Demo, die wir hatten. Und das 3 n, das n steht für Nano, weil Jama 3 n die Basis für Germani Nano auf Android werden wird.
Dennis
Mhm.
Philipp
Das heißt sozusagen, alles was wir aktuell sehen, wird auch in naher Zukunft sozusagen noch näher und tiefer in Android integriert. Deswegen testet das Modell also für 4000000000 Parameter oder Parameter, wie Dennis es sehr korrekt erklärt hat, ist es geisteskrank beeindruckend. Also wirklich, das ist komplett lächerlich von wo wir eigentlich kommen,
Dennis
Mhm.
Philipp
Zu was wir jetzt können. Also ich hab auch auf, ich sag mal, meinem, während meinem Talk in der IO, wir hatten sone Demo, wo Cemadrain aufm Android Phone gelaufen ist, wo der Nutzer mehr oder weniger Astra live nachgestellt hat. Und für die, die Astra nicht kennen, das war die Demo, die wir letztes Jahr 'n Google I o hatten, wo Du mit Jammon einem oder weniger mit deinem Handy rumlaufen konntest und das dir alles erzählt hat über das, was Du gerade gesehen hast und dein Handy kontrollieren konnte. Und wir haben bei uns intern eine Android App gebaut, wo Du mit Jama 3 and dasselbe machen kannst. Und es geht halt wirklich von, ich hab irgendwie 'n Whiteboard und sag zu Jama, hey, kannst Du mir bitte Notizen speichern? Und es öffnet dann auf deinem Android Phone die Reminder heißt das, glaub ich, von Google, die Google Notes halt und speichert dort den Kontext rein. Und das ist halt okay. Es versteht audiomäßig, was Du möchtest, verarbeitet das Bild und nutzt dann sozusagen Tools, dein Android Handy zu kontrollieren und alles lokal auf deinem Gerät. Also da ist keine Internetverbindung notwendig.
Dennis
Ja. Nur, das kurz noch mal, damit man's nicht verwirrt ist, also multimodal im Input. Das heißt aktuell nur Text als Output, also Bilder generieren oder Audio generieren geht nicht. Aber genau, die verschiedenen Formen, dann Text als Output zu haben. Nice. Es hat immer so eingeatmet, aber hat jetzt keine Frage mehr einfach wie?
Fabi
Nee, ich hab eine parallelmische Studio auch noch mal runtergeladen und werd das auch noch mal 3 n ausprobieren.
Dennis
Sehr gut.
Fabi
Aber auf jeden Fall, ich Also
Dennis
irgendwas hat bei mir, aber gut, das Feedback kann ich auch nach der Podcast mein Philipp geben. 3 n hatte ging, na, ich hab jetzt nur die GMR 3 Modelle gehabt, 3 n ging noch nicht direkt am ersten Tag. Das konnt ich runterladen, aber dann kam ein Error. Das ist ja
Philipp
jetzt Ja, das ist ja nicht genau. Geht's auch. Okay. Und wenn ihr eher, sag ich mal, Transformers Fans seid oder Hingeface, Viadalam oder andere Dinge nutzt, auch überall jetzt verfügbar.
Dennis
Okay, cool. Gut. Das, das, das hatten wir schon. Lass uns mal 'n bisschen was anderes machen mit Musik. Fabi, das ist auch mal 'n Thema für dich, all der Musiker.
Fabi
Ja, genau. Aber muss ich ja jetzt nicht mehr sein nach bei den ganzen Modellen, rauskommen. Wir sind aber wieder im Google, das war Google Deep Mind hat ein Realtime Musikmodell rausgebracht. 2 Dinge da, also einerseits das, was wir hier als Thema haben, ist das Magenta Realtime Modell, ein Modell mit Open Waits, was aber im Grunde genommen jetzt vor, ich glaub, 10 Tagen oder so was, released wurde. 'N paar Tage vorher gab's schon das Lyria Modell, was hat und aber über eine API ausgetestet werden kann. Also es gibt die Lyria Realtime API, wo's auch schon son paar kleinere Applikationen im AR Studio gibt, wo man's ausprobieren kann. Und Magenta, ist jetzt eben die Variante. Grundsätzlich geht's hier ein Transformermodell, was erzeugen kann. Im Endeffekt wird das ja die Schwierigkeit daran, es erzeugt schneller ein bestimmtes, als das dann laufen wird. In dem Fall oder wenn man von LLMs sprechen würde, Token in dem Fall ist 2 Sekunden lang. Also erzeugt immer 2 Sekunden Audio Snippets und schafft das in eben unter 2 Sekunden und dazu gehört auch Latenz natürlich zum Streamen und so. Mhm. Und macht das grundsätzlich mit 2 verschiedenen Inputs. Also es nutzt immer die letzten 10 Sekunden an Audio Generierung, sozusagen die die Tokens, auf denen es basiert und das nächste, wenn wir jetzt von Tokens sprechen würden, aber damit mein ich eben immer dieses 2 Sekunden Autosempel, das 2 Sekunden Audiosempel, das nächste zu generieren. Und es ist sozusagen einerseits Audio als Input, aber es gibt eben auch Text. Text oder es können sogar weitere sein, die man dann die mit reingegeben werden können. Also ich kann zum Beispiel sagen, ich möchte ein Audiosempel haben aus 3 verschiedenen Parametern so. Das war jetzt hier in dem Beispiel, was 'n Blogartikel sieht, Deep House, es soll eine drin sein und ein Saxofon. Und ich kann eben ein damit geben, das Audiosempel. Wie viel von diesen Inputs soll es denn übernehmen? Und man kann es, also einerseits wie gesagt, Magenta, vielleicht noch zumindest so als Parametergröße, wir unterhalten's über 'n 800000000 Parametermodell. Es ist hauptsächlich auf auf Instrumentalmusik trainiert so, also Vocals, eher so summenmäßige Melodien, so kann es zwar auch erzeugen. Es manchmal kommen auch wirkliche Wörter raus, die dann irgendwie, aber es ist auf jeden Fall nicht auf Lyrics und so. Denn jetzt heißt, geht in erster Linie Instrumentalmusik. Wie gesagt, noch mit dem kleinen Kontext von 10 Sekunden. Das heißt, es ändert sich nicht an jegliche, also es kann eigentlich ein Endlosstream aus Audio erzeugen, ändert sich aber nicht an alles, was er schon gespielt hat. Ausprobieren könnt ihr's wie gesagt mit im AR Studio mit so was wie jetzt zum Beispiel prompt DJ packen wir auch einfach alles mal oder wir packen den Blogbeitrag in die Shownotes, dann könnt ihr dann dann wiederum die und so weiter verlinkt, wo man dann mal son bisschen rumspielen kann, eben selbst Parameter definieren kann oder selbst definieren kann, die kann. Und am Anfang ist es son bisschen, hat man das Gefühl, die Parameter machen gar nix, weil natürlich dieses diese diese immer nur für den nächsten 2 Sekunden Samples. Das heißt, man dreht irgendetwas, muss warten, bis die aktuellen 2 Sekunden abgespielt sind und dann verändert sich die Musik hin zu den neuen. Aber es ist auf jeden Fall superinteressant und echt superbeeindruckend, dass wir da einfach was haben, was Audio überhaupt in erzeugen kann. Und können wir von schon vorstellen, grade wenn's jetzt eben ein Model mit gibt so, dass da interessante kreative Applikationen für Musiker und Musiker*innen dabei herauskommen können. Ist auf jeden Fall also einfach einfach technisch super beeindruckend, wo wir da sind mit.
Philipp
Ich bin mal gespannt, ob wir irgendwann bald so automatisierte Hintergrundmusik haben, so im Sinne von, das Modell bekommt 'n Video Input Livestream von dem, was Du aktuell machst und wo Du rumläufst. Und je nachdem, was passiert, Ja. Verändert sich die Musik dann son bisschen wie in den Stummfilmen, sag ich mal, die man ja früher hatte?
Fabi
Ja. Ja, ich mein, dafür bräuchten wir noch mal Videoinput so. Aber ich mein, so weit sind wir, wenn wir das schon bei der Realtime, das sind ja dann nicht davon entfernt. Klar, irgendwie total son 800000000 Parametermodell auszuführen wird 'n bisschen schwierig. Aber also echt, ist wirklich schon super beeindruckend so. Und ich mein, das Ich mein, was das fürn DJ Mixing
Dennis
dann wird, wenn das, das ist ja Also jetzt sind wir noch, wie wie wie Philipp sagte, so Hintergrundmusik, ja, das, ne, wenn man das sich so anhört, ja, Code von hinkommen, aber wenn man irgendwann auf die Qualität von richtig guter Musik kommt und das kann praktisch sich immer so der Stimmung anpassen, spannend.
Fabi
Ja, ich mein, ich mein, wie gesagt, wir sind ja auch mit SunoAI und so was schon bei bei auf jeden Fall einfach Qualität, was irgendwie Songs und so was und Hooks angeht, die ja schon superkrass ist. Und jetzt haben wir hier einige Schritte in Richtung gemacht. Ist jetzt wahrscheinlich nur eine Frage der Zeit, bis sich mit Qualität von Suno irgendwie merged und wir da auf jeden Fall noch mal in 'n ganz anderes herankommen. Ja.
Dennis
Okay, machen wir weiter mit, die ja vor allen Dingen zu viele Modelle haben, Audio zu generieren und auch son bisschen schon in dem mit, also, die wir auch mal für Lotum angeguckt haben, sie in unserer Telefonanlage anzuschließen eventuell. Da gibt es 2 Updates. Das eine ist, es gibt einmal jetzt eine native App für iOS und Android, wo man einfach mobil die ganzen Dinge machen kann und Audios erzeugen kann, weil sie halt festgestellt haben, dass viele Creator draußen, die das brauchen, immer mobil unterwegs sind. Von daher einfach 'n besserer Zugang dazu. Und der vermutlich spannendere Teil ist allerdings, dass es jetzt jetzt einen einen gibt, der son bisschen in der Prototypphase ist und der nennt sich. Und also der ist, dass da MCP Server angebunden werden können und dass halt dieses Setting außen rum mit den Conversational Agents. Man kann live sprechen, man kriegt live Sprachfeedback. Das ist angebunden an verschiedene Dienste, beispielsweise deinen Kalender, deinen Slack und so weiter, dass es halt in die Richtung geht, wie der so ein persönlicher Assistent. Ich hab das mal 'n bisschen angetestet, war jetzt noch nicht so direkt überzeugt im Sinne von, dass irgendwie das Prompting oder wie der reagiert hat, war jetzt noch nicht so, wie ich mir irgendwie zukünftig oder wie ich's dem Film höre war, so dass man halt wirklich, ne, so 1 denkt mit und weiß, was die nächsten Schritte sind und so. Und irgendwie würde ich auch im Moment noch davon absehen, 'nem Agent zu sagen, was auf Slack posten soll oder in welche Richtung es geht, aber ja. Ist zumindest mal, wenn man son bisschen einen Glims haben möchte, wie wird das mit Agenten, die sowas dann irgendwie noch haben und als Assistenten wirklich fungieren mit eigenen Tools, die man dann letztendlich anbinden kann, Oder Du bist auf der Autofahrt her und lässt dir die neuesten Linear Issues geben, also beispielsweise, für die Tags vorzubereiten, so und kannst darüber reden. Kann ich mir schon ganz cool vorstellen. Aber ja, auch noch nicht der der ganz große Durchbruch.
Philipp
Ich muss sagen, ich fand das Video, dass Sie geteilt haben, sehr cool und ich find auch den Namen für den Assistant auch irgendwie ganz angenehm. Also ich freu mich auf jeden Fall, dass was kommt und ich werd 1 der Ersten sein, der definitiv die Dinger kauft. Und vor allem, ich hoff mal, dass, also für uns Technwords, sag ich mal, ich möchte nicht irgendwie oder sonst was haben, wo ich dann nicht entscheiden kann, welche MCP Server ich nutzen kann, sondern die sagen halt, hey, okay, Du hast halt jetzt irgendwie, keine Ahnung, wir haben halt Google Drive und Google Kalender. Ich glaub, es wär richtig cool, wenn's halt welche gibt oder dass die Techunternehmen bleiben, so von wegen, hey, Du hast halt hier irgendwo online in der Cloud son JSON File, wo Du reinschreiben kannst, welche MCP Server Du connecten möchtest und die dann nutzen. Ich glaub, das find ich so, dass bei mir bis vor der Demo son bisschen, hab ich mir keine Gedanken darüber gemacht, aber kann ja sein, dass das alles kommt. Und vielleicht, keine Ahnung, möchte der Fabi, der halt gerne irgendwie mit redet, halt morgens beim Frühstück über seine reden oder Reviewen. Und keine Ahnung, Dennis möchte halt irgendwie über 'n Wikipedia Artikel reden und wenn Du das halt alles integrieren kannst, find ich das schon sehr cool. Also ich hoff, dass wir uns nicht wieder direkt limitieren von, keine Ahnung, Alexa und Siri und Moever können dann nur die MCP Server oder Tools nutzen, die die Provider bereitstellen.
Dennis
Ja, das stimmt.
Fabi
Ja. Das stimmt. Wahrscheinlich findest Du als Namen nur so gut, weil Du son Stranger Things Fan
Dennis
Du wolltest grad fragen, ob das ob das da die war oder
Philipp
Ja, ich mein, ich kenn's von dort, aber an sich ist es 'n Ja, ein angenehmer Name.
Dennis
Ich weiß nicht.
Philipp
Das ist einfach so.
Fabi
Aber man verbindet auch 'n bisschen was damit, deswegen ist die Frage, wie würd ich's finden? Und aber ich bin Als mein
Dennis
als mein Sohn noch sehr klein war, da haben wir immer mal die die Haare so mit soner Maschine einfach kurz geschnitten oder so. Und dann hat er diesen diesen Ausdruck, wo der so die Hand ausstreckt und so böse guckt. Das, der war, keine Ahnung, 2 oder so. Das das das so cool, Du konntest to Eleven sagen, hat er so ganz böse geguckt und die Hand ausgestreckt. Das war 'n großer Spaß. Okay. Open, na ja, das ist wahrscheinlich jetzt wieder Britisch in American Englisch, ne? Router, Router, wie Warum? Ich bin immer, Du sagst, Router, okay, Open Router hat ein Funding bekommen. Gleichzeitig kann's vielleicht mal kurz sagen, weil irgendwie blitzt es auch immer überall auf und man hört das und Aber erklär noch mal ganz kurz, was es eigentlich ist.
Philipp
Open Router ist mehr oder weniger 'n Stripe für LLMs. Also so präsentieren sie sich jetzt mehr oder weniger seit ihrer. Und das Einfache daran ist, es ist eine API, die standardisiert ist, die dir Zugang als Nutzer gewährt für 450 verschiedene AI Modelle, unter anderem alle von Open AI an Tropic Google, ganz viele Open Modelle, chinesische Modelle und alle unter der Open AI Chat Compleitions API. Das heißt, man kann die Open AHS, die kennen uns, sondern alle diese Modelle. Und ich bezahl dann mehr oder weniger nur für bei Open Router.
Dennis
Mhm. Das
Philipp
heißt, wenn ich irgendwie o 3 teste, dann gibt's da 'n Kostensatz und kann Germani desselben mit seinem Account nutzen, ohne dass ich irgendwie jetzt Open AI Quota und GMary Quota irgendwie brauch. Man hat auch, oder Sie haben auch 'n Feature. Das heißt, wenn ich irgendwie Special Deals hab, kann ich das auch selber machen. Und es ist war oder ist ein großer Indikator dafür, wie populär Modelle sind. Also nicht nur haben wir alle Marina mit den, sag ich mal, Userscores, sondern ist auch sehr beliebt geworden, zu schauen, okay, wie gut kommen neue Modelle wirklich an? Weil hat auf ihrer Seite das son Art Ranking. Das da kann man dann sehen pro Woche und pro Tag, welche LLMs das meiste genutzt wurde. Ich glaub, man kann's 'n bisschen auch verstecken, aber es gibt, sag ich mal, boardsboards und da kennt man dann, okay, wenn jetzt irgendwie, keine Ahnung, General 2 Punkt 0 Flash, wo es gelauncht wurde, hast Du halt gesehen, wie krass es gewachsen ist und dass halt deswegen irgendwie 3 Punkt 5 'n bisschen nach unten ging. Deswegen war's halt relativ interessant. Und sie haben jetzt 40000000 Funding eingesammelt von, ich sag mal, den typischen Venture Capital Firmen, unter anderem Andresen Horowitz, Menlo Ventures und Sequoia. Und wie gesagt, das Ziel ist, als Strip für LLMs zu werden, dass Du Open Router einfach prost und jedes LLM nutzen kannst unter einem Price Provider, 1 API, ,Logging, Privacy und alles Mögliche. Open Router hat bisher in 100000000. Ich weiß nicht, was das bedeutet, aber ich glaub wahrscheinlich alles zusammengerechnet über die verschiedenen Provider 100000000. Mhm. Sie haben über 1000000 Entwickler, die sie nutzen und wollen natürlich an typischen AI Features arbeiten wie Smart Routing oder Enterprise Features. Genau. Definitiv cool. Sehr coole Leute, sehr aktiv.
Fabi
Ist auch
Philipp
'n Go geschrieben, soweit ich weiß. Genau. Ist eine, sehr coole Plattform.
Dennis
Und haben die haben die auch irgendwie noch 'n Interface oder ist das rein für User?
Philipp
Nee, Du hast auch sone Art Chat in der UI, wo Du sogar mehrere Monate nebeneinander kommen, vergleichen kannst. Also sag ich mal, 'n sehr einfaches Chatinterface, aber der ist, Du gehst auf, stellst den Account, packst eine Kreditkarte rein und dann kannst Du jedes mögliche Modell nutzen. Was sehr cool ist, find ich, ist grade für Modelle, das ist son bisschen wie eine Art Marketplace auch. Also wenn irgendwie Company 1 Lama hostet, Company 2 Lama hostet, kannst Du aussuchen, welchen Provider Du möchtest, ja? Weil die Provider haben natürlich auch andere Prize. Croc zum Beispiel, also der Special Hardware oder Serepras, die hosten zum Beispiel Lama günstiger. Dann kannst Du sagen, okay, ich möcht halt irgendwie über das Lama Modell von Serepras nutzen und nicht mehr irgendwie das Lama Modell von Nvidia oder irgendwie so was. Und sie haben Provider im Sinne von, wenn einem Provider down geht, dass sie dann automatisiert zu 'nem anderen Provider rauten, dass Du eine höhere Verfügbarkeit hast von Modellen. Bei Google weiß ich zum Beispiel, dass sie das mit Vertex AI Modellen und mit Geminar API Modellen machen. Open AI ist Club Azure und Azure und Open AI API zum Beispiel. Und bei wird's wahrscheinlich auch entweder Wordx oder Amazon oder irgendwie so was sein.
Dennis
Mhm. Hätt ich auch
Fabi
ganz kurz auf der Homepage. Das ist ja einerseits gemeint, darüber kann man sehen, was die so, also welche welche grad am meisten genutzt werden. Aber kannst ja auch sozusagen sehen, welche welche Apps die nutzen, sozusagen am meisten Tokens. Also einfach so auch bestimmten Apps ranken sozusagen, wie viel wie viel User ist über diese Apps. Und da ist interessant, dass auf Platz 1, ja grad hat man schon häufiger genommen, kleinen ist. Klein AI, ja, die ich ja auch sehr gut finde. Und man eben diesen Token, also ich hab ja zum Beispiel meine Token sogar klein gemacht, die wahrscheinlich hintendran auch einfach ihren, also einfach auch einfach nur über Routen. Aber man könnte auch seinen eigenen hinterlegen. Aber sehr interessant, dass die so bei 40000000000 Token sind. Ich weiß zwar nicht, was der, also sind auf jeden Fall Platz 1 wenigstens.
Philipp
Aber bei diesen Apps oder Projekten, die kann man verstecken. Das heißt, wenn man als, also Apps ist mehr oder weniger wie sone Art Google Project, würd ich jetzt mal am einfachsten sagen, also mehrere Useraccount können in einem App irgendwie arbeiten und Du hast spezielle Keys. Und die Apps kannst Du verstecken, dass Leute nicht sehen, wie viele Tokens Du nutzt oder was Du entwickelst. Weil man kann auch, glaub ich, auch über die Apps dann wieder zurückgehen, okay, ist das jetzt so das Coding, was Contentwriting. Mhm.
Dennis
Und ich
Philipp
glaube Also
Fabi
Du kannst in deinem Account hinterlegen, so soll für meine App getrackt werden, soll ich in diesem
Philipp
Ja, oder soll sichtbar sein. Also sichtbar weiß ich auf jeden Fall mit Tracking weiß ich's nicht. Aber es ist definitiv cool. Also wenn man wirklich 'n all in one Shop braucht, verschiedene zu testen oder generell wenig hat und dann Schwierigkeiten hat, irgendwie an neue Modelle zu kommen. Ich mein, ich glaub, es ist mittlerweile besser geworden, wenn man direkt mit Open Air in oder sag ich mal, mit AR Studio arbeitet, aber man hatte ja ganz oft die Fälle, vor allem in den Cloud Bereichen, dass wenn irgendwie 'n neues Modell rauskommt für Cloud oder durch 'n neuen, dass hey, ja, ich krieg irgendwie einen Minute oder so was und da kann man halt nichts bauen. 'N macht das halt son bisschen einfacher, weil Du halt diesen mehr oder weniger hast, dass Du 'n hast und 'n hat ganz, hat ganz viel Coder bei den einzelnen Provider.
Fabi
Ja. Meine erste Ahnung war jetzt gewesen, dafür lassen sie sich 'n bisschen bezahlen, beziehungsweise auf der Homepage sagen sie, sie die besten Preise, also ob ihr jetzt
Philipp
Ja, genau, die, also es ist 1 zu 1 durchgeführt. Keine Ahnung, wie sie's bisher gemacht haben, ob die dann wieder eigene Deals haben mit den verschiedenen Providern. Aber wenn Du direkt, sag ich mal, zu irgendwie gehst, zahlst Du dasselbe wie bei durch Open Air als Open Router Cerebras.
Fabi
Mhm. Ja. Aber interessant. Ich mein, woraus wir überlegen können, ne, einfach für jeden bei unseren Developmentern da 'n Open Routern Das
Dennis
hab ich auch gedacht, weil ich schon länger mal gesucht hab, ne, weil es ist irgendwie schön, wenn man verschiedene Sachen ausprobieren kann irgendwie auf jeden Fall so dieses Management dann. Wo hast Du dann
Philipp
Ihr braucht mehr als No AI Studio.
Fabi
Noch mal?
Philipp
Ihr braucht mehr Zugang als 'n No AI Studio.
Fabi
Ja. Nee, ich mein, aber ich glaub, jeder bei uns ist halt so, dass halt jeder sich diese Zugänge halt sozusagen selbst holt, ne. Ich nur 2 verschiedene Modelle, wie gesagt, beispielsweise über klein und so. Ich hab ja verschiedene, wo ich im Endeffekt auch verschiedene Modelle irgendwie ausprobieren kann. Aber ich mein, grade wenn Du's bei hast, ist ja wahrscheinlich überintegriert, kannst Du wahrscheinlich auch für die Firma relativ einfach abrechnen und so über mehrere.
Dennis
Deswegen war meine Frage auch nach dem Chatinterface, weil natürlich für viele der Non Devs, sagen wir mal, ist es eine ChatGPT so der immer noch Zugangspunkt aktuell. Und wie viel schlechter ist sozusagen das Interface, wenn Du dann halt easy andere Modelle immer nutzen kannst in dem Chat. Aber
Philipp
wenn ihr was als für Chat Interface sucht, ich mein, wir hatten ja Theo schon öfters oder Theo war ja schon öfters
Fabi
in den News.
Philipp
Der Youtuber, der hat Chat heißt das. Das ist sone Art All in one Chat GPT, wo Du dir für 8 Euro im Monat 'n Account erstellen kannst und eigene Keys mitbringen kannst. Und die haben, soweit ich weiß, Support und dann hast Du 'n Chat Interface für jegliche Modelle, aber halt keine API.
Dennis
Mhm.
Fabi
Und auch wirklich ziemlich gut, sondern auch, was Geschwindigkeiten angeht. Ich hab's selbst noch nicht ausprobiert. Ich hab nur einige Videos, die hab ich bisher immer geskippt von ihm so, aber klang auf jeden Fall ganz interessant, was ich über die Headlines gelesen hab.
Dennis
Okay. Ja. Ja. Spannend. So. 'N paar Themen haben wir noch. Verselle und
Philipp
Ja. Weiß gar nicht, ob Pümmer stell oder?
Fabi
Pümmer stell machen. Ja. Cloudflare und Verselle. Im Endeffekt hat Verselle ihre Sandbox gelauncht, was Cloudflare ebenfalls gemacht hat eigentlich am selben Tag, da heißt Containers. Und im Grund im Grunde genommen geht's darum, dass es darum geht, isolierte Services in der Cloud dynamisch starten zu können, beispielsweise grade, wenn man irgendwelche bauen will, wo AI generierter Code ausgeführt werden kann, wenn ich irgendwas end user mäßiges bau, wo vielleicht Oder generell ist das Grundprinzip, daran kann ich etwas ausführen, dem ich erst mal nicht so. Das kann irgendein Server sein, wo irgendwie Code ausgeführt wird, wenn ich irgend eine Codingschule oder so was mache, wo irgendwas ausgeführt werden kann. Oder wenn ich eben AI Code ausführen möchte, dass sie in einem isolierten Container ich sie auch dynamisch kann und bei Vassell und so weiter natürlich automatisch irgendwie global verteilt gestartet werden, dass ich selber die Möglichkeit hab, Code auszuführen. Also falls das für euch 'n Use Case ist, gibt es jetzt sowohl von Cloudflare als auch von.
Philipp
Weißt Du was über Spricing?
Fabi
Nee, hab ich jetzt bisher nicht gelesen. Sie haben nur geschrieben, dass es genauso ist wie, aber ich bin auch nicht drin, was die Preise sind so.
Philipp
Also ich glaub, es ist auf jeden Fall Server das Pricing. Das heißt, Du zahlst halt für die CPU und Memory, also ist eigentlich überall Lambda und
Fabi
allem Möglichen. Genau.
Philipp
Aber es war halt 'n bisschen witzig, weil ja beide am Tag ihr Service gelauncht
Dennis
haben.
Philipp
Ja. Und beide haben nicht die beste Beziehung, zumindest auf öffentlichen Plattformen. Es gibt immer ganz viele Diskussionen von, wenn bei wer wer wer mal down ist, dann postet der Cloudflash CEO, wie man doch seine Next JS App von Virtzell zu Cloudflash migrieren kann. Und hinweg Cloudflash was ist, dann postet irgendwie Next JS CEO oder halt Virtzell CEO, wie viel besser die diversell Firewall ist oder irgendwie so was. Das war auf jeden Fall sehr amüsant zu sehen.
Fabi
Ja, aber also Pricing sind auf jeden Fall draußen. Ich hab sie nämlich vorher nicht angeguckt, aber hab sie grad offen. Also packen wir einfach auch nur mal in die Shownotes. Ist auf jeden Fall auch mit Release Pressing.
Dennis
Dann ein kurzer Tipp, kann man sich durchaus mal durchlesen, einen Blogartikel von, die ein Research Projekt hatten, wo sie einen kleinen Shop beziehungsweise einen ja, wieso, in einem Büro einen Automaten und Snack Snackautomaten betrieben haben und gucken wollten, wie gut es denn ein LM Modell heutzutage schon hinbekommt. So. Quintessenz ist, würden sie heute noch nicht machen. Also der hat nicht wirtschaftlich gehandelt und ist bankrottgegangen, weil er zu sehr den Wünschen und sich hat zu oft verarschen lassen von den Anfragen, die es gab. Also man konnte irgendwie per 6 Sachen, aber er sollte halt alles managen vom Input, also wie viel da ist. Er hatte Hilfe von Menschen, die das tatsächliche Stocking übernommen haben, also er hat 'n Bestellung ausgeführt, aber dass Menschen ihm das in den Automaten da wieder reinstellen sozusagen, das war konnte auf Servicemitarbeiter zurückgreifen, die auch gekostet haben in in dem Experiment.
Fabi
Und aber wie hat das, also wie hat das gestock gemanagt? Einfach so Leute mussten echt dann dem dem LLM sagen, wie viel gekauft wurde? Gab's Genau,
Dennis
es gab 'n iPad Interface, was über diesen Kühlsteuermodell im Snickouto Button war und da konnte man dann auschecken und das bezahlen und sich kaufen halt tatsächlich.
Fabi
Okay, aber das heißt nicht über irgendwie Video- oder Kamerainput oder so was gesprochen?
Philipp
Nee, genau,
Dennis
das war dann noch relativ.
Fabi
Aber hat das dynamische Preise gemacht oder was wie wie kann man's schlecht managen?
Dennis
Ja, genau. Also da sollte halt alles, man sollte, also was für Produkte gehen denn überhaupt? Was wollen die Leute? Welche nehmen wir ausm Sortiment raus? Was nehmen wir Neues in das Sortiment? Und ja, so Dinge machen. Und auch hat dann halt einfach manchmal schlecht entschieden. Er hat irgendwie eine irgendwas 92 gekostet. Und die Leute haben waren halt total Geld drauf und dann irgendwann entschieden, okay, ich mach's teurer. Und dann hat's 2 95 dafür genommen und halt so am Markt vorbei irgendwie gewirtschaftet. Und ähnlich, ich weiß gar nicht, was die englische Übersetzung war, irgendwelche Metall, ob das so so Zauberwürfel waren oder irgendwie so was, hatte sich 1 gewünscht und dann hat er davon sehr viel angeschafft und die wollte am Ende keiner haben, bis Du gesagt hast, irgendwelche verschenkt und so. Also Sie sagen, es war superspannend und Sie sagen auch, da sind jetzt viele Dinge, die Sie besser machen können, einfach so in den Guardrails, ne, die das System hat und Erklärungen von dem, was dort ist. Und von daher, ja. Aber ich find's 'n lustiges lustiges Side Project irgendwie, kann man ganz gut lesen.
Philipp
Ja, was ganz interessant ist, vielleicht für alle, die das jetzt interessiert, ich weiß nicht, ob wir's hatten, aber bisschen eher im Jahr wurde 'n Benchmark beziehungsweise Paper vorgestellt, der hieß, der mehr oder weniger genau dasselbe macht, aber für verschiedene Modelle. Das heißt, jedes Modell hat mehr oder weniger son, ja, wenn Maschinen bekommen und musste selber bestellen und nachkaufen. Dort wurde es aber simuliert im Sinne von, was Leute kaufen und machen wollen. Mhm. Und ich hab grad mal auf das Leaderboard geschaut, Cloud 4 Opus hat tatsächlich in 'nem Wunschingbench geschafft, einen erfolgreichen laufen zu lassen. Mhm. Hat mehr Geld der Wirtschaft als als ein Mensch und lief für 133 Tage, also simulierte Tage, bevor er's dann aufgehört hat.
Dennis
Ach, gehört heißt, das Experiment war vorbei oder doch Bankrott.
Philipp
Ich hab, keine Ahnung. So weit hab ich nur nicht reingeschaut.
Dennis
Ah, okay.
Philipp
Na ja. Aber es ist relativ interessant, weil das zeigt ja auch im Sinne von, dass Agents nicht nur Modellfehler sind, sondern Kontextfehler, was mich zu, ich würd sagen, Werbung und auch relativ interessant bringt, zwar jetzt nicht irgendwie in den, was wir aufgeschrieben hatten, aber letzte Woche ging's los mit Tobias Lütge, der CEO von Shopify, aber auch Andre Kapaphi haben auf Social Media darüber geredet, ob wir von prompt Engineering zu Contact Engineering gehen müssen, weil bisher hat man ja, sag ich mal, sehr einfach verbunden, okay, ich versuch meinen String, den ich im Modell bereitstell, so zu optimieren, dass ich das bestmögliche Ergebnis hab. Aber mit allen neuen Anwendungen, die wir bauen, geht's darum, okay, welche Informationen stell ich zu welcher Zeit mit welchen Tools dem Modell bereit, damit dieses Modell die bestmögliche Antwort generiert? Und das fällt ja genau in diesen Use Case von jetzt, Ja. Dem mit rein. Was sie gelernt haben, ist mit, okay, bevor Du vielleicht irgendwie 'n Preis vorschlägst, muss ich noch zusätzlichen Kontext hinzufügen. Und wenn jemand das Thema interessiert, ich hab da 'n Blogpost drüber geschrieben, 3 Minuten oder irgendwie so was, wo der Unterschied zwischen Prompt Engineering und Kontext Engineering ist, welcher tatsächlich über Nacht auf Hacker News Platz 1 war und ich jetzt irgendwie 80000 Aufrufe hab.
Fabi
Ja, krass. Ja, dann dürfen wir mal die Shownotes.
Dennis
Packen wir rein. Cool. So, ein dickes Ding haben wir ja noch. Die Gemini. Genau. Wurde auch noch veröffentlicht. Ja. Und mach mal Philipp, könnt ihr mal bei Google 'n bisschen weniger machen, weil sonst kommt das langsam, ist das son bisschen, wenn Du jetzt bei Google arbeitest, müssen aufpassen, dass es nicht so Google lästig ist. Aber Jetzt möchte ich das nicht sagen,
Philipp
dass ich, seit ich bei Google angefangen hab, Google Mail angefangen hat, Open Source und Dinge zu releasen. I, okay, ich ich hab da, ich akzeptier das so. Nee, ist, ist, sehr cool, wurde getrieben aus 'nem internen Effword, dass man halt so ähnlich wie bei Cloud Code oder Open Air Codex halt gern 'n Gemini Assistant oder Agent hat in der. Ist 'n komplett Open Source Projekt. Das heißt, wenn ihr auf Google, auf GitHub geht unter Google, findet ihr das komplette Paket. Ist eine geschrieben in node j s mit Also der, sag ich mal, das Terminal ist 'n, so ähnlich wie, glaub ich, Codex und auch. Ist 'n sehr, sehr cooler Assistant, kann man testen. Es gibt einen Free Tier über den Google Code Assistant. Man kann sein AR Studio API key nutzen oder wenn man Wortex User ist, auch Wortex, hat verschiedene Tools für, auszuführen. Man hat, kann MCD Servers integrieren, man eintrich dasselbe, was Cloud Code kann, nur halt über eine Open Source Variante mit Gemini. Genau.
Dennis
Warum ist die, das macht vom ja auch nicht so viel Sinn, oder? Warum die jetzt Open Source ist oder das ist trotzdem der Gemmaly? Hätte man vielleicht ja vielleicht Gemmaly? Nee, das macht auch keinen Sinn. Na ja.
Philipp
Na ja, die ist ja Open Source.
Dennis
Ja, genau. Aber deswegen ist es, das ist ja 'n bisschen verwirrend, dass dann Germany davorsteht. Warum? Weil Germany nicht besonders Open Source ist.
Philipp
Ja, das Modell halt nicht, aber das hat ja nicht damals zu tun, der Code. Also es ist nur Ja, okay. Ja. Man kann also die das die muss man nicht mit Gemini nutzen. Dadurch, dass es Open Source ist, kann ich's auch anpassen oder Leute haben's, glaub ich, schon angepasst, zum Beispiel mein eigenes Modell nutzen zu können oder Open Router nutzen zu können.
Dennis
Umso mehr, deswegen meine ich ja, dass es ja Gemini CLI heißt, hätte sie ja auch beispielsweise Gemma CLI nennen können, ja, dann wär's hättest zu open gepasst und obwohl Du dann die Gemini Modelle damit benutzt. Auch nicht gut, okay, auch nicht gut. Du hattest, Philipp, kurz vor unserer Aufnahme noch einen einen Stimmt. Gepostet in unserem Channel, wo Mark Zuckerberg mit Laseraugen irgendwie sich Leute schießt. Kannst Du uns ganz kurz aufklären, was Ja, wie wir hatten das hier hast.
Philipp
Wir hatten's ja vor 2 Wochen, wo wir darüber geredet haben, dass Meta Scalia ja mehr oder weniger gekauft hat und zum Superintelligence Lab gründen möchte. Und damals hat ja Sam Altmann in dem Interview gesagt, dass Meta irgendwie bis zu 100000000 zahlt für Open AI Researcher, aber dass niemand von Open AI zu Meta gehen würde. Jetzt, 2 Wochen später, gibt es 'n Update. Es gibt 12 Leute, die dem neuen Intelligence Lab von Meta Join, unter anderem 7 Leute von, 8 Leute von. Ich hoff, ich ich werd die Namen falsch aussprechen, aber es gibt Rabid Bansal, der war führend oder Co Creator von der, vor allem, was RL und Jane of Thardan geht. Also denke, 'n definitiv guter Haie. Dann gibt es Suo Bi, der war Co Creator auf und. War Co Creator auf GPT4O Imagegeneration. Hat geholfen, o 4 und o 4 4 1 4 5 Modelle zu erstellen, so wie den Joel Puba war macht Inferenz bei, Jack Rey kommt von Gemini und war dort mit für Modelle. Hong Gurren, Barco Creator von, o, o, mini, o, mini, o, mini, jonathine, und Teil von, da weiß ich jetzt nicht genauso viel darüber.
Dennis
Auch
Philipp
Cocreator von o 3 o o 4, o und dann noch, war auch ChatGPT mit dabei, und alle Mini Modelle. Also definitiv interessante Haya, würd ich mal sagen. Ich bin mal gespannt, ob Mark Zuckerbergs, ich weiß nicht, Poachingtrip weitergeht.
Fabi
Und ob der Plan aufgeht, ne?
Dennis
Ja, und ob die jeweils 100000000 bekommen.
Fabi
Ist ja schon, also, er war schon interessant, ne, was wir da Also ich ich find immer diese Fußballanalogie mit irgendwelchen Transferfenstern auf jeden Fall. Ich mein, da hat man ja sonst, ich mein, klar wurden immer große Gehälter bezahlen irgendwie jetzt auch im, keine Ahnung, im im Sea Level Bereich natürlich viel irgendwie über neue und so was berichtet. Aber jetzt so, dass es so viel Thema ist bei den unter den in der Eiszene ist ja schon besonders fair für diese Szene. Ja, Mal schauen, wie viel mehr das auch passieren wird jetzt so, ne.
Philipp
Ja, ich ich ich, also ich hab einige Diskussionen, sag ich immer, Gespräche schon darüber geführt. Es ist für mich, ich beschreib's immer als Paris Saint Germain Moment, vor im, wenn man's mit Fußball vergleicht, man investiert unendlich viel Mengen an Geld und es bleibt abzuwarten, ob sie wirklich was gewinnen können.
Dennis
Ja. Und
Philipp
ich mein, Paris hat ja jetzt, soweit ich weiß, in diesem Jahr, letzten Jahr die Champions League gewonnen, aber ohne alle diese Stars. Also Mbappé, Nemao und wer da alles vor 'n paar Jahren gespielt hat, die sind ja jetzt alle nicht mehr da. Das heißt, es bleibt son bisschen abzuwarten. Und alle diese Researcher sind sehr berühmt, haben sehr viel erreicht. Die Frage bleibt halt, ist es so, bekomm ich darunter Kultur, Teamplay und eben gemeinsames Ziel? Ich werd's auf jeden Fall mit Spannung verfolgen, vor allem auch, was das für Meta bedeutet. Alle diese Menschen kommen ja von, das heißt keine Open Model Releases, keine Open Source Kultur. Ob das dann Auswirkungen darauf haben wird, wie Meta neue Modelle released oder neue Modelle testet oder ob sie jetzt wirklich auch so im Sinne von, hey, wir haben hier Meta AI unseren Assistenten und hier ist die Lama API und.
Dennis
Und ob die auch Druck verspüren,
Fabi
so. Was willst Du das leisten für dein Geld?
Dennis
Aber im im selben Zug,
Philipp
was ich vielleicht noch ganz interessant fand, diese Woche ist ja vierte Juli in den USA, welche Feiertag ist. Und in dem ganzen Zug von OpenAI und Mitarbeiter hat OpenAI diese Woche geschlossen, eine Woche frei. Also sie haben sozusagen eine eine Company offsite mehr oder weniger gemacht, weil auch son paar Stimmen in Ruhe losgegangen sind, dass sie halt irgendwie zu viel arbeiten mussten und zu wenig Urlaub hatte, gibt's jetzt sozusagen Closed Office bei OpenAI für eine Woche.
Dennis
Okay. Dann sind sie vielleicht nächste Woche 'n bisschen weniger präsent.
Fabi
Eingekauft für Freizeit.
Dennis
Cool. Ich glaub, dann haben wir's. Yes. Philipp Fabi, vielen Dank fürs Dabeisein und euch fürs Zuhören. Wir hören uns in 14 Tagen wieder. Bis dahin eine gute Zeit, hoffentlich eine Klimaanlage in eurer Nähe und bis bald. Macht's gut. Tschau. Tschüs. Tschau.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos
Feedback