News AI 37/25 –

Nano Banana // OpenAI Jobs-Plattform // OpenAI Cost rise to 115B$

11.09.2025

Shownotes

AI News mit Dennis, Philipp und Fabi, diesmal in neuem Format: Weniger Themen, mehr Diskussion! Diese Woche sprechen wir ausführlich über vier Entwicklungen:

  • Nano Banana – Googles neues Image-Generierungsmodell, das die Messlatte für KI-Bildtools deutlich höherlegt. Ist das wirklich das Photoshop-Ende?
  • OpenAI Revenue & Costs – Neue Projektionen bis 2030: von vormals 35 Mrd. Dollar Kosten hoch auf 115 Mrd. Dollar. Trotzdem soll Break-even nur ein Jahr später kommen. Wie das funktionieren soll, hinterfragen wir.
  • OpenAI Jobs Platform – LinkedIn-Konkurrenz aus dem Hause OpenAI: mit Zertifikaten, KI-Matching und großen Auswirkungen auf den Arbeitsmarkt.
  • EmbeddingGema – ein winziges, hochoptimiertes Google-Modell für On-Device-Use-Cases. Wir schauen, was damit zum Beispiel in nativen Apps möglich wird.

👉 Außerdem: Feedback erwünscht! Wie gefällt euch das neue Format mit mehr Tiefe und weniger Themen?

👉 Und nicht vergessen: Im Oktober steigt unsere programmier.con! alle Infos findet ihr auf https://con.programmier.bar

Paper zum Impact von AI auf den Job Markt: Paper 1 & Paper 2

/transkript/programmierbar/news-ai-37-25-nano-banana-openai-jobs-plattform-openai-cost-rise-to-115b
Dennis
Hallo und herzlich willkommen zu 1 neuen AI News. Wir sind in Kalenderwoche 37, im Jahr 25. Ich bin Dennis Becker. Wir haben aus New York zugeschaltet. Philipp Schmid. Entschuldigung.
Fabi
In in in der Latenz dauern
Philipp
wir Sie wissen, bis es rüberkommt.
Dennis
Und dann haben wir noch Fabian Fink hier im Studio. Fabian, schön,
Fabi
dass Du wieder da bist nach deinem Krankheitsausfall. Aber man merkt auf jeden Fall, Du hast jetzt lang nicht mehr gemacht, ne. Erst hast Du das falsche Intro abgespielt und dann ist ja auch noch aufgefallen, dass wir bei der AI News der Host immer alle vorstellt. Aber es sei dir verziehen Okay. In die Krankheit. Lange Zeit. Aber jeder draußen werd wahrscheinlich das richtige Intro hören. Das ist in der Postproduction machen wir da was anderes hin.
Dennis
Genau, das machen wir richtig. Aber das mache ich, dass extra, weil das RA News Ding ist mir immer zu lang hier für den Video gekommen. Ach komm. Das das war Absicht.
Fabi
Okay, das war Absicht.
Philipp
Okay, das war Absicht.
Fabi
Dann haben wir das vielleicht vergessen, dass Du gesund zu machen hast.
Philipp
Das Ausreden ging auf jeden Fall nicht verloren dann in der Zeit. Danke sehr.
Dennis
Wir reden heute über Nano Banana, ein neues Imagemodell von Google und Embedding Jammmer und dann haben wir noch von Open AI die Themen Burn rate und ja Revenue Vergleich, also was ist da son bisschen die Prognose? Wie wurden die angepasst? Und dann noch über einen LinkedIn Competitor von OpenAI, über den wir sprechen. Das heißt, inhaltliche Themen kommen vor allen Dingen heute von Philipp und Fabi. Ich hab aber trotzdem eine News, die ich heute auch beisteuer und wir haben's nämlich noch gar nicht in den AI News erwähnt. Ist jetzt aufgefallen oder habt ihr's vor 2 Wochen? Nee, wir
Fabi
haben's bis noch nicht erwähnt.
Philipp
Ei, ei, ei, ei,
Dennis
ei, ei. Also, die programmier.bar veranstaltet dieses Jahr wieder eine Konferenz und zwar mit den Themen Web und AI. Das ist ein großes Happening, findet statt im Oktober Ende Oktober, am neunundzwanzigsten und dreißigsten Oktober diesen Jahres. Man kann Tickets kaufen dafür. Wir haben sehr viele coole Speaker, die mit dabei sind, unter anderem Philipp, als da auch Reinhard, der dort aufkreuzen wird. Wir würden uns natürlich freuen und ja, viele ganz coole andere. Tickets kosten 249 Euro unter unserer Webseite programmier.bar findet ihr alle weiteren Infos. Und wir wollten uns freuen, wenn wir euch da zahlreich sehen. Wir sind natürlich auch da, Fabi und ich und die anderen der programmier.bar und ja, werden bestimmt 2 coole Tage, 2 Tracks, die wir haben. Und genau, das kommt alles Ende Oktober. Sehr cool. Dann starten wir mit dem großen Thema, würde ich sagen, der letzten 2 Wochen oder so was zumindest mal wieder am meisten da draußen für Posts und und virale Momente gesorgt hat, nämlich dem neuen Gemini Modell zum Erstellen von Bildern, wo irgendwie der interne Name anscheinend so gut angekommen ist, dass er mittlerweile eigentlich auch der offizielle Name für dieses Produkt nämlich Nano Banana.
Philipp
Eigentlich heißt es in der Germany 2 Punkt 5 Flash Image Review und ich meine, die Geschichte wäre ja auch noch
Fabi
mal Schön, dass Du es noch mal gesagt hast, ist auch vielleicht 'n schlechter Name.
Philipp
Ich weiß nicht. Also es kommt darauf an, weil wie gehst Du so weiter? Was kommt nach Nano Banana, kommt dann Nano Banana 2? Ist ja auch wieder oder Nano Banana Extende, High Definition, I don't know?
Fabi
Nano Orange.
Philipp
One. Name geht der Name geht zurück, glaub auf, dass das Modell sozusagen in getestet wird. Also es glaubt mittlerweile generell kommen Pattern für AI Labs, dass die Modelle bevor offiziellen Release in Plattformen halt testen wie bei der Alemara oder ich glaub, die haben jetzt auch 'n Image Playground oder auf Open Router gibt's ab und an immer mal Stealth Modelle, die haben dann halt son Codename. Und der Codename für 2 Punkt 5 Flash Image Preview war Nanobanana. Interessanterweise geht es auch zurück auf eine Researcherin, die daran gearbeitet hat, woraus sich der Name relativ gut ableiten lassen. Ich kenn leider jetzt den Namen nicht direkt, aber es geht irgendwie auf jeden Fall so darauf zurück. Und im ganzen, sag ich mal, Prerelease und Marketing außenrum wurden halt viele Bilder gepostet und jedem war irgendwie schon klar, dass hey, das Modell kommt halt irgendwie von Google. Und dann haben halt auch Also Demis, also der CEO von Google Deep Mind, hat dann halt auch son unter dem Mikroskop eine Banane gepostet für Nanobanana sozusagen. Und jeder hat mehr oder weniger den Namen weiterhin benutzt, deswegen ist das auch son bisschen geblieben, weil halt einfach die ganzen Leute danach gesucht haben und auch mittlerweile in der Geminar App ist so eine kleine Banane neben dran oder wenn Du auf AI Studio bist oder auf AI dot Studio Slash Banane gehst, kommst Du bei dem Modell raus. Aber worum sich's eigentlich handelt, ist, ich mein, Dervis hat ja schon gesagt, das ist 'n neues Imagemodell. Aber ich glaub, viel wichtiger ist es ein Image Editing Modell. Also man kann auf jeden Fall klar Bilder generieren, wie wir's schon kennen irgendwie von, dass man ganz am Anfang mit Stable Diffusion mittlerweile mit oder halt das Modell von von uns. Und der große Unterschied mit Nanubanana ist es, dass es 'n Update zu Gemini 2 Punkt o Image war. Das war Anfang des Jahres, glaub ich, war der Release. Und die große Besonderheit damals war schon, dass es dieses Image Princistancey hat. Das heißt, wenn ich 'n Bild hochlade von mir, kann ich mit 'nem ganz einfachen Text prompt das Bild bearbeiten und das Bild oder die der Charakter, die Merkmale, bleiben alle mehr oder weniger erhalten. Und jetzt mit dem neuen Modell ist es noch so, so, so viel besser geworden. Also ich weiß nicht, ob ihr's getestet habt, aber Ja, ja. Ich hab's mit Demily gezeigt und 'n Foto gemacht und dann halt ganz einfach, ich mach das T-Shirt von schwarz auf grün oder färbt meine Haare oder was auch immer und es dauert halt irgendwie 3, 4 Sekunden oder so was, sag ich mal. Und das ist halt 'n perfekt editiertes Foto, wie Du von Photoshop mehr oder weniger kennst. Und ja, ich mein, die die Use Cases, ganz grob mal zusammengefasst, Du hast Multiimage Composition oder Fusion. Das heißt, ich hab mehrere Bilder, die ich als Input hab und mit 'nem Textprom generier ich 'n neues Bild. Das heißt, ich hab irgendwie 'n Bild von 'nem Modell oder von mir selber, hab vielleicht eine Handtasche oder 'n T-Shirt oder irgendwas anderes. Da sag ich halt, ey, zieh das Kleid der Frau an oder häng mir die Handtasche und dann generiert Nano Banana neues Impf daraus. Das Beste, was ich gesehen habe auf Social Media, war irgendwie, da hat jemand 10 Bilder kombiniert, dazu irgendwie 'n Auto und Klamotten und Menschen und Schmuck und ganz viele andere Dinge und dann hat sie so Und dann hat sie so sagen. Und zwar
Fabi
diese Frau, die an diesem Auto dann bewegt
Philipp
ist und so was
Fabi
mit dieser Valenciaga Cup und so was. Fand ich auch sehr beeindruckend.
Philipp
Also ganz, ganz viele. Das ist so der der eine große Use Case und dann hast Du auf jeden Fall dieses Context the where Conversational editing bedeutet im Sinne so viel, ich hab halt 'n Anfangsbild und ich editiere das so lange über Interaktion mit dem Modell, bis ich das gewünschte Ergebnis hab. Weil ganz oft ist es ja so, wenn ich irgendwie sag, okay, mach meine Haare irgendwie grün, dann ist es vielleicht grün, aber es ist nicht das Grün, das ich möchte oder die Länge passt nicht, dass ich einfach immer weiter an das Modell promptte und immer halt mehr oder weniger dynamisch basierend auf Feedback von dem Bild mehr oder weniger das gewünschte Ergebnis erreiche. Und es ist wirklich so, Text prompt, Image kommt raus, ich kann wieder 'n Text prompt machen, das bearbeite halt das letzte Image, bis ich bei, dann sag ich mal, das den den gewünschten Effekt erhalte. Und das große Merkmal ist halt diese Image Consistency. Also 'n bisschen für mich war's wie bei dem Bio 3 Launch, wo wir plötzlich Sound hatten zu, hey, Du darfst halt jetzt gar nichts mehr glauben, weil es halt wirklich surreal ist. Also ich hab auch auf LinkedIn Bilder gesehen, ich mein, das waren mir so Satire, aber da hat jemand gemeint so von wegen, er hat irgend einen K-Pop, 'n Popstar getroffen und hat halt sozusagen 'n Seifie von sich gemacht, aber mit Nanobanana den Star zu dem Bild hinzugefügt und hat dann halt so geschrieben, so von wegen, er war bei dem Investorveranstaltung, er hat zufälligerweise die Person getroffen und mit der geredet und die fand deren Idee cool und und so weiter, aber halt dann ganz unten son Disclaimer hieß und von wegen alles, was sich geschrieben hat, stimmt halt nicht, weil das ist halt generiert und es hat halt irgendwie 5 Sekunden oder so gedauert.
Fabi
Mhm. Ja. Das fand ich auch, also es ist es, was was da kommt, dann wär extrem beeindruckend. Vielleicht noch als 1 der Feature, wenn ich dazu noch nicht so viele Beispiele gesehen hab, ist ja son bisschen dieser Zugriff auf das World Knowledge des Modells so, also wo Du einfach sagen kannst, Du brauchst noch nicht mal Bild als Input, kannst dir auch einfach so Textbeispiel machen, wie zum Beispiel hab ich gesehen, hey, er stelle mir ein Bild von 1 Pizza, das für 8 die 8 Stunden lang bei 200 Grad im Ofen war, so und dann rausgeholt wurde und so, dass er einfach grundsätzlich ein Bild erzeugen kann, was den den Weltkontext hat, so ein Bild zu erstellen und irgendwie sinnvollen Output zu generieren vielleicht noch als als weiteren Input. Aber ich würde auch sagen, dieser Part mit, jetzt kann man sehr viel weniger klappen, aber die ist wie beeindruckend und ich find das ist auch immer wieder, also einerseits wie groß der Sprung, das sieht man ja an an vielen Dingen. Ich glaub, man kann's das Extreme ist, man kann's einfach nur testen und beispielsweise der Family Test wirklich, wenn Du den jetzt mal dieses Modell zeigst, versteht jeder da draußen, der keine Ahnung von AI hat, wie viel krasser es auf einmal geworden ist. So, also es war auch so, dass man mal wieder ein Modell, der es in meinen Familienchat geschafft hat mit irgendwelchen Beispielen, was da irgendwie rauskommt. Das heißt schon etwas technischere Evaluierung wäre ja auch auf dem Helen Marina Benchmark Benchmark, ist ja auf dem Editing Image Benchmark, ist das Modell ja auch Platz 1, aber hat auch, glaub ich, den größten Sprung jemals gemacht worden an Platz 1 So wie wir von elfhundert auf 30 Punkt, ja
Philipp
irgendwie Meinst Du bei 200,
Fabi
dachte ich? Genau, 'n Wert weiß ich auf jeden Fall den größten Sprung jemals, das wär eher von der technischen Seite aus betrachtet, was ja schon sehr beeindruckend ist. Und Und Sag Du gern?
Philipp
Ja, ganz kurz vielleicht noch zu den Use Case, was Du gemein hast mit den. Also klar, wir haben jetzt über die Use Case Use Case Geräte zu verlinken, irgendwie E-Commerce, anderes, aber es gibt halt auch Use Case, wo die die fallen einem, mir zumindest halt nicht ein. Da haben Leute irgendwie von oben sone Architektur an sich gehabt von der Raumaufteilung, wie groß irgendwie was ist und halt sozusagen gesagt, hey, mach das mal bitte dreidimensional. Dann hattest Du plötzlich deinen deinen Bauplan dreidimensional oder hast sozusagen auch von Google Maps, wo Du reingemacht mit 'nem Pin, wo Du bist und hat dann gesagt so, hey, generier 'n Bild für die Person, wie das aktuell aussieht. Und das hat halt einfach funktioniert und das ist halt so krass oder Leute haben 'n echtes Foto genommen und gesagt so, hey, hier sind die Informationen über keine Ahnung, das World Trade Center, das Neue. Macht bitte son Art drei-d-A-O-Verlook mit soner Karte nebendran, wo dann der Text draufsteht, was das ist oder so was. Also ja, ich glaub, man hat so viel Möglichkeiten jetzt, dass meine Kreativität zumindest dafür nicht mehr ausreicht. Ja, ja, genau. Und das sind 100 170 Punkte Unterschied von Nanobanana zu dem zweitbesten Modell in der LM Arena Image Editing.
Fabi
Ja. Und ich auch Und
Dennis
dieses dieses Google Maps Beispiel, das fand ich auch total beeindruckend, weil er einfach praktisch wie son Pfeil angemalt ist und dann gesagt wird, das ist die Perspektive, die Du hast und ne. Das heißt, aus diesen Informationen, wie Fabio auch gesagt hat, ne, also dieses Verständnis einfach, was was will ich jetzt und aus der Karte dann so ein Bild zu generieren, das ist schon heftig.
Fabi
Ja. Im Grunde genommen dieses ganze Character Consistency, was was dadurch halt auch einfach noch möglich ist. Interessanterweise hatten wir vor 'nem Monat bei uns bei Lotum auch eine AI Week, wo jeder sich ein bisschen mit Themen beschäftigen konnte, die er wollte und dann natürlich ist bei uns natürlich auch Imagegenerierung und Contentgenerierung durch auch viel Bilder in Worten so was auch ein Thema und wir schauen uns auch immer mal wieder an, wie können wir vielleicht auch Userbilder irgendwie mal integrieren und so in solche Use Cases und zudem stand noch vor einem Monat, muss man wirklich sagen, hey da wurden echt, da gab's auch schon echt beeindruckende Ergebnisse, was man so mit unserem Content und User Input Bilder machen kann, aber so die wirklich Guten haben halt dann trotzdem noch am Ende mehrere Inputs von mehreren von derselben Person gebraucht, irgendwie gute Character Consistenance zu haben und preislich auch irgendwie noch 'n anderes Level gewesen, Geschwindigkeit 'n anderes Level gewesen, wenn man jetzt einfach, wir haben jetzt gerade am Montag in unserer Firmenweiten Präsentation auch dafür noch mal 'n Recap gemacht, so wie wäre das jetzt mit Nano Banana und es sind einfach wirklich Welten dazwischen, was Du auf einmal, was Du auf einmal machen kannst mit einfach nur einem einzigen Bild als Input. Ist einfach 'n unfassbarer Sprung, was diese Characterkonsistenance hier angeht.
Philipp
Ja, vielleicht ganz kurz zum Pricing, wenn wir das hatten, hatten wir das ja nicht? Also Ja. Nanobanana kostet jetzt ungefähr 4 Cent pro generiertes Bild. Und zum Vergleich, ich glaub, GPT one oder Image one ist war zehnmal so teuer, aber ich schau das mal gleich nebenher nach. Da irgendwie hat 'n Bild 40 Cent oder so was gekostet. Und wenn ihr's testen wollt, also es gibt, ich mein, leider jetzt vorbei, aber wir hatten einen Hackathon am Wochenende auf, wo man Free Usage hatte mit der Gemmy API. Aber es gibt immer noch Free Usage in AI Studio. Das heißt, wenn ihr einfach AI Punkt Studio Slash Banana eingibt, kommt ihr direkt in AI Studio Ross mit dem Model schon ausgewählt und auch in der Gemini App für iOS, Android oder im Browser hast Du Free User, auch als nicht zahlender Kunde. Klar, wenn Du zahlender Kunde bist, hast Du mehr User, aber kannst Du sozusagen direkt in der Gemini App auch nutzen. Ansonsten gibt es noch in jeglichen Partnerintegration. Also es gibt's mittlerweile in Firefly, bei Adobe, in Freepic, in Fall, was auch son Start-up für alles, was mit Gen Media zu tun hat. Es gibt's auf Open Router, ja, überall, wo's eigentlich AI Models gibt.
Fabi
Ja. Ja, ist witzig, dass Du jetzt auch gerade noch mal Photoshop ansprichst und so, weil es ist auch jedes Mal, wenn man über Nano Banane spricht, ist ja auch irgendwie, wird gesagt, dass es eigentlich der Killer für alle Image Editing Software ist. Ich glaub, wenn man sich das Ganze anschaut, weiß man, woher es kommt. In der Realität gibt's, glaube ich, noch genug Use Case für Photoshop, aber so dieses diese Consistance, die sind einfach sowas diese Image Editing Sachen. Wie heißt denn diese, wie sind immer diese Memes, wo irgendwelche Leute, wie heißt dieser Typ, dem Sie immer sagen, so additier doch bitte mal mein Bild und mach mal die Frau aus dem Hintergrund raus, sondern immer sehr
Dennis
witzig, dass
Philipp
sich das so
Fabi
dran wird. Ja, und ich sag mal, dass das die Gags wird jetzt vielleicht nicht mehr geben, weil niemand wird jemand mehr fragen, ob das tun kann, wenn das jetzt die Imgemodelle tun können. Aber so was das für diesen Markt bedeutet so, weil's wirklich, also diese auch was wir was wir am Montag bei uns in der Firma als Beispiel noch mal hatten so, Du hast ja vorhin dieses beeindruckende Beispiel mit Multi Image Input und so, dass Du einfach sagst, okay, hier diese 10 Dinge packt die mal alle in ein Bild und das wirklich alle Objekte und sowas sehr konsistent dann in das Zielbild überführt werden. Aber auch so, dass man aus 10 Beschreibungen hatten wir auch dieses Beispiel, keine Ahnung, nimm hier einen Tisch und ich hab hier 3 Personen und so in dem einen Bild klingelst Du die 3 Personen mit unterschiedlichen farbigen Kreisen ein und in dem Zielbild ebenfalls und sagt, pack mal die Person mit dieser Pose an diese Stelle und so. Und ist ja wirklich so mit mit welchen einfachen Mitteln, ich hab auch dieses eine Beispiel von Sam Altman gesehen, wo irgendwie Bild von Sam Altman, 'n Open AI T-Shirt und eine grobe Zeichnung davon, wie jemand so son einarmigen Handstand macht, so, wo es einfach nur gesagt wurde, gib mir bitte Sam Ortman in dieser Pose mit diesem T-Shirt an und so. Und das eine war nur sone ganz grob gekritzelte Zeichnung und perfekter Output so. Es ist schon schon crazy so. Ich glaub, so eine ganze Usergruppe an Photoshop Usern wird auf Fall wegfallen und viele Leute werden hinzukommen, die zu nicht fähig genug für Photoshop und die Skills nicht hatten, die jetzt damit enablet werden.
Philipp
Ja, was für mich noch ganz interessant ist, dass sag ich mal, Text Editing ist ja schön und gut, aber ist ja trotzdem herausfordernd, wenn Du's halt irgendwie nicht kennst, sag ich mal. Oder wie schreibst Du jetzt, dass dass ich irgendwie 'n spezielles Element von dem Bild ersetzen soll, wenn da irgendwie 3 Personen drauf sind? Wie erzählst Du dem Modell? Okay, welche Person soll das ersetzen oder ein Fern oder so was? Aber ich glaub, der ganze User Interface und UX Aspekt wird immer noch riesig bleiben, deswegen sind wahrscheinlich Integrationen wie Photoshop oder andere Start ups immer noch sehr superattraktiv und ich mein, kostet er trotzdem irgendwie. Und das heißt, wenn ich irgendwie vielleicht meine Adobe Lizenz hab oder so was, dass dass damit dann dabei ist und halt trotzdem genutzt werden kann. Ich seh jetzt noch nicht irgendwie den Untergang von Photoshop als Anwendung, wahrscheinlich eher als, wer nutzt das? Also ich mein, es wird ja auch superpositiv für Photoshop sein, dass, hey, es ist nicht mehr 'n Expert oder Pro Tool, was irgendwie nur noch irgendwie ein Prozent aller Nutzer target, sondern vielleicht sind's jetzt 10 Prozent, weil jeder kann das jetzt irgendwie editieren und man kann das supereasy auf dem Bild einzeichnen und dann supereasy beschreiben. Dann die haben vielleicht irgendwie prompt Editing, Behind the Scenes oder bessere Beispiele oder Education dazu und so was. Also ich glaub auf jeden Fall spannend, aber klar.
Fabi
Andererseits natürlich keine Ahnung.
Philipp
Die Personen, die letzten 15 Jahren Photoshop gelernt und gemacht haben, die haben 'n bisschen neue Herausforderungen, sag ich mal.
Fabi
Und vielleicht ist auch die Einstiegshürde noch mal sehr viel geringer geworden für neue Photoshop Competitor damit, ne, weil Du halt viele Basic Funktionalitäten gar nicht mehr bauen musst und vielleicht mit 'ner besseren UI jetzt einfach und gar nicht mehr so viel Tooling vielleicht 'n besseres Bildeditierungssoftware da hinstellen kannst. Also spannend, was da was da passiert. Ich denke auch nicht der Tod für Bildeditierungssoftware, aber Photoshop wird sich bestimmt verändern. Und vielleicht als Letztes noch, weil irgendwie gefühlt hat man Nan und Banana ja auch immer in Kombination irgendwie mit Video Editing auch immer mal gesehen. Also es gibt ja auch dieses Trump Video, wo sie irgendwie in diesen, wo in den Barbie Film irgendwie reineditiert wird und so und mein, was ja was ja durch diese Character Consistenants ja auch son bisschen mitkommt, dass man halt sehr gut Frames für Videos generieren kann, das als Input für andere Videomodelle nutzen kann. Also einerseits könnte man ja einfach Google Flow nehmen, wo man ja auch einen Start- und einen End Frame setzen kann, die vorher mit Nanana erzeugen kann, aber ich glaub Higgsfield AI waren, glaub ich, die, die auch dieses Trump Video erstellt haben, sodass man jetzt einfach durch diese Character Consistenancy Frames vorerzeugen kann, die man dann in entweder Runway oder Higgsfield oder wie auch immer für Videoinputs nehmen kann. Und deswegen eben dieser Effekt mit Charakter Consistency eben, Achtung, ab jetzt nicht nur bisschen schauen bei bei den Bildern, sondern auch bei Videos sehr viel besser und einfacher wird. Also echt viele krasse Beispiele da auch gesehen.
Dennis
Jetzt haben wir viel über die Use Cases gesprochen und was man damit machen kann. Philipp, hast Du auch noch 'n bisschen Einblicke, was jetzt technisch daran so die Revolution war? Also sehen wir jetzt bald, dass keine Ahnung, ähnliche Funktionalitäten bei den anderen dann auch kommen oder war da jetzt irgend eine besondere Advantage oder einfach irgendwie der natürliche Weg, dass das so weiterging, dass es die Kombination ist aus Dutch Language Modellen und Imagegenerierung, die irgendwie zu Aber
Philipp
wie klappt der natürliche Weg? Das war irgendwie jedem bewusst. Ich mein, hatten, oder es gab ja Super und Oflash am Anfang vom Jahr, dann kamen wir Open Air mit Image One, was ja genau son Sprung von 2 Punkt 0 Flash zu Image One war, zu jetzt noch mal 'n Sprung, Flachs oder halt Black Forest Labs hat ja ähnliche Modelle jetzt, also es wird immer besser und immer weitergehen. Was jetzt interessant wird, ist halt, wo wir halt noch limitiert sind, was auf jeden Fall verbessert wird in Zukunft, ist die Aspekt Ratio. Also aktuell hast Du halt heimgenau 'n Weg, die Aspect Ratio zu kontrollieren. Also meistens behältst die Aspect Ratio von dem Bild, das Du hochlädst. Das heißt, wenn Du irgendwie 'n 16 zu 9 Bild hochlädst, dann editierst halt dieses Bild und Return auch wieder dieses Bild, aber wenn Du 'n neues Bild generierst, ist es aktuell quadratisch. Und ich glaub, das ist bei, nee, ich weiß jetzt nicht genau, was für Flexibilität die ja halt dort haben, aber gerade halt solche Themen oder was die Resolution halt ist, ist irgendwie aktuell 1024 mal 1024 beim normalen Bild und das gilt, glaub ich, so industriemäßig. Ich glaub, die Themen werden halt weiterkommen und ich mein, die Modelle werden halt immer besser, ne. Also besser, günstiger und schneller ist der Weg. Ich bin mal gespannt, wohin es geht, aber es ist jetzt nicht so Also man konnte damit rechnen, dass wir bessere Modelle so was haben. Und ich hab auch gestern oft Twitter irgendwie gesehen, dass OpenAI auch irgendwie 'n internes Update für GPT-1 hat, was irgendwo geleakt wurde in irgend 'nem Modelpicker, deswegen wird da wahrscheinlich auch irgendwie was Neues kommen. Und ich mein, es geht halt immer weiter wie wie Waben.
Dennis
Spannend. Gut. Wie geht's denn weiter bei OpenAI, Fabi?
Fabi
Ja, das das ist sehr breitgefasste Frage. Ich beantworte ich beantworte sich sehr spitz erst mal nur auf Ihre auf Ihre Umsatz- und Gewinnprojektion für die nächsten Ja.
???
Paar Jahre. Weil wir ja Philipp und ich hatten das ja in der AI News Ende letzten Jahres, war so rund die letzte Fundingrunde von OpenAI,
Fabi
Boya, OpenAI, unter anderem auch OpenAI bisschen über ihren Forecast bis in das Jahr 2029 gesprochen hat, so was da an Umsatz und Revenue Growth, als auch an an Kosten bis dahin entstehen und damals war es ja, wir haben vor im Vorgespräch grad noch mal kurz drüber unterhalten, dass sie 2029 Break even werden und dass das erste Jahr wird, indem sie nett positiv sind mit, glaube ich, 'nem geschätzten Gewinn von 12000000000 Dollar und da war natürlich auch einiges irgendwie an Kosten mit drin und Sie haben jetzt diese Projektion, die auch Anfang diesen Jahres noch mal ungefähr so announced wurden, noch mal angepasst. So der eine Part ist so diesen den den Revenue Growth für dieses Jahr haben sie auf jeden Fall erreicht und leicht über übertroffen mit 300000000, wo sie wahrscheinlich dieses Jahr 13000000000 Dollar Umsatz machen werden, aber sie prognostizieren, dass sie bis ins Jahr 2029 115000000000 Dollar ausgeben werden, was ungefähr nur knappe 80000000000 Dollar mehr ist, als sie ursprünglich gedacht haben, was damit auch son bisschen diesen Break even Part wohl nicht mehr 2029 kommt, sondern erst dann 2030, also 2029 sind sie immer noch mit 8000000000 in den in den Miesen und einfach noch mal grundsätzlich sehr interessant, wie wie stark sie einfach noch mal diesen Wert für die Kosten einfach angepasst haben, ne, weil es einfach hauptsächlich einfach zurückzuführen ist auf Trainingskosten, GPU Kosten und wir sind noch nicht mal ein ganzes Jahr weiter zu ihrem letzten Forecast und sind irgendwie 80000000000 teurer geworden für die für die nächsten Jahres. Ist natürlich sehr, sehr, sehr interessant, aber im gleichen Atemzug haben sie auch die die Umsatzzahlen oder die Umsatzprognosen angehoben und da sind auch 'n paar ganz interessante Dinge drin, weil Philipp und ich, wir hatten uns ja zuletzt über diesen Vergleich von Antropic gegen Open AI unterhalten und hatten ja zumindest diesen Part gesehen hier, dass Open AI noch ganz klar vorne ist, was irgendwie das Subscription Modell angeht, wo sie aktuell so bei 5000000000 Umsatz waren zu dem Zeitpunkt, was die was die Subscription angeht und in Tropic sehr stark irgendwie dem in dem API Geschäft ist, grad was irgendwie Coding angeht und in dieser Projektion, die OpenAI da gemacht hat, ist es so, dass sie davon ausgehen, dass sie noch mal sehr, sehr, sehr viel mehr mit den ChatGPT Usern verdienen werden. Also aktuell sind sie, wenn sie wohl das Jahr abschließen, bei ungefähr 10000000000 und meinen im Jahr 2030 das zu vern9fachen 90000000000 über ChatGPT User zu verdienen und auch was wohl dann ab nächstem Jahr losgehen soll. Ein neuer Revenue Stream sind die New Products beziehungsweise auch die Free User, also dass sie die ChatGPT Free User monetarisieren wollen, ab nächstem Jahr damit so 2000000000 machen wollen und bis 2030 genau Werbung oder also das, was so draußen gesagt wird, ist noch dieser ganze Shopping Aspekt so, ne, also dass sie darüber möglicherweise viel verdienen könnten. Ich gehe mal davon auch aus, dass ein Mix definitiv Werbung sein wird, wie viel in diesem Mix davon Werbung sein wird, bleibt abzuwarten. Aber so und das ist nämlich interessant bis 2030, also wenn wir dann da sind, da wo sie dann das erste Mal Plus machen wollen, machten diese Free User 60000000000 aus. Also insgesamt von ihrem gesamten Umsatz im Jahr 2030, was ungefähr 200000000000 sein sollen in diesem Jahr sind 90000000000 ChatGPT Subscriptions, 60000000000 dieses neue Geschäft der Free User und neuen Produkte und die restlichen 50000000000 teilen sich heftig auf Agents und auf API auf. Also auf jeden Fall ganz interessant, wo Sie da so Ihren hauptlichen Revenue Stream sehen, dass 3 Viertel davon eben von ChatGPT Subscriptions beziehungsweise Free Users und neuen Produkten irgendwie herrührt.
Philipp
Was was für mich interessant ist, ist, ich mein, wir hatten's grade leider nicht bei Nano Banana, aber, also der Lead hinter Gemini App hat geteilt auf Social Media, dass Nano Banana zu 13000000 neuen Google Geminar App Kunden geführt hat. Ja, was Und irgendwie 500000000 Bilder generiert oder irgendwie so was mittlerweile. Was halt für mich interessant bleibt, ist, okay, geht die Prognose darauf, wie der LGBT aktuell wächst? Geht die von schnellerem Wachstum aus als aktuell? Gehen die von langsamerem Wachstum aus als aktuell? Und wird dieses monetisieren funktionieren? Weil aktuell, das ist ja alles son bisschen negativ, also jede, sei es Google Antropic, Vistral, Meta, whatever, alles, was ja im EMEA Umfeld passiert, ist ja, sehr stark subventionigend, würd ich mal sagen. Also die 20 Dollar ChatGPT Subscription, die man irgendwie bezahlt für, das, was man bekommt, wird nicht profitabel sein. Heißt, wenn sie anfangen, irgendwie Limits zu ändern oder für Free Nutzer irgendwie Werbung zu machen und nach jedem, keine Ahnung, dritten ChatGPT Nachricht kommt 'n Pop-up mit irgend 'ner 30 Sekunden Werbung wie bei irgendwelchen Handy Apps oder irgendwie so was, Wird dann werden die Leute dann zu irgendwie, keine Ahnung, claudd oder zu Gen, weil die das nicht haben und keine Ahnung, vielleicht man bei bei Google oder bei anderen nicht dieses diesen Druck hat, Geld zu verdienen mit für Usern. Also das ist so richtig, ich bin, ich
Fabi
weiß nicht. Ich glaube eher, dass wenn OpenAI damit anfängt, wird's nicht so lang dauern, dass alle anderen das auch machen. Ich glaub eher dann dann ist eher die so, wenn das erst mal überschritten ist, sehen die anderen, dass es dass es okay ist so.
Philipp
Ich glaub, wir sind noch in soner soner Anfangsphase, dass es wichtiger ist, Kunden zu sichern. Also Du bleibst ja bei 'nem Produkt, wenn Du wirklich 'n krassen Mehrwert davon hast, dich so krass daran gewöhnt hast und alles, was wir an den EA Apps sehen, ist, dass ja so viele neue Features geschept werden und Dinge sich so schnell verändern mit neuen Modellen, neuen Agenten, neuen whatever, da es sich auch relativ easy von a nach b wechseln kann, sag ich jetzt einfach mal, grob gesagt. Und ich kann mir halt nicht vorstellen, wenn ich so in meinem privaten par privates Umfeld mal denk, dass normale Nutzer für ChatGPT irgendwie unbedingt Geld zahlen möchten. Also die meisten, die ich kenn, sind Free Nutzer, so nicht im Tech Umfeld, sag ich mal. Und die halt nichts irgendwie mit Business mäßig damit machen, ist halt werden die's dann weiterhin nutzen, wenn Werbung reinkommt oder keine Ahnung, wenn ich die Websuche nutze und dann andere Dinge gerankt werden oder wie auch immer das halt dann aussehen mag.
Fabi
Ja, obwohl Du ja andererseits sagen musst, natürlich ist es wichtig, deine Kunden zu halten. Andererseits musst Du sehen, bis 2030 braucht OpenAI noch weitere 100000000000 Ja. Irgendwie Investmentgelder, das Ganze zu zu securen und bisher haben sie es immer geschafft, in Revenue genau mit dem mitwachsen zu lassen, wie auch ihre Funding Investments irgendwie gestiegen sind und wenn in diesem Mix 60000000000 von den 200000000000 in 2030 von Free Usern kommen sollen, wenn am Ende Du's, wie sind die jetzt nicht über Werbung machen, also da müssen sie ja irgendetwas tun, so, weil ich weiß nicht, wie sie wie sie ansonsten in dieser dieses Gap von 60000000000, also fast, ja, was sind 35 Prozent des des potenziellen Umsatzes, sie woher der dann kommen soll. Und weil Du gerade meintest, so wie das Wachstum ist für die Subscriptions, also sie gehen von 25 auf 26 noch vom Verdopplung des Umsatzes aus im Vergleich zu 29 auf 30. Das Geld ist, glaube ich, nur noch von 70 auf 90000000000, was die paaren 20 Prozent irgendwie sind. Also das von 2025 auf 26 ist das letzte Jahr der Verdopplung des Umsatzes über Subscriptions. Danach geht es prozentual auf jeden Fall immer runter bis runter zu paaren, 20 Prozent dann im Jahr 29 auf 30 in ihrem in ihrem Podcast.
Dennis
Und ist ja auch wirklich die Frage, also ich mein, endlos als Verlustgeschäft kann ja, ne, dann Google das auch nicht betreiben. Und ich meine, 2030 ist ja jetzt auch noch mal ganz schön lange hin, so, wenn man einfach mal in AI Zeit rechnet. Ob das über über diese Jahre von den anderen großen einfach komplett als Verlustgeschäft genutzt werden kann, muss ich auch mal zeigen lassen oder ob sie halt irgendwas mit den Daten und keine Ahnung mit den Sachen anfangen.
Fabi
Ja, solang sie aber, also solang der Revenue Growth noch da ist, glaube ich, ich würd würd's auch schon noch 'n paar Jahre weiter Geld geben, solange sie das mitmachen können, aber ja, ja. Ich glaub, das kriegen Sie schon 60000000000
Philipp
wollen die mit Free 60000000000 wollen die mit Free
Fabi
und New products. Also das das ist eine Kategorie. So. Okay. New products, weil, was ein möglichst neues Produkt kann man uns ja gleich als Nächstes unterhalten.
Philipp
Ja, aber also ich hab mal, ja, Germany gefragt, wie viel ich denn pro Nutzer machen müsste, damit ich auf 60000000000 komm. Und wenn ich 500000000 Nutzer hab, dann ist sind das 120 Dollar pro Jahr pro User. Was Ich mein, ihr seid immer an dem App Bereich tätig. Wie viel ist das so bei euch, den User? Ich würd mal spontan sagen, unter 'nem Dollar gefühlt.
Fabi
Ja, guck mal, oder in welchem welchem Markt Du unterwegs bist so?
Philipp
Aber also 120 Dollar ist Ja.
Fabi
Ambitioniert, sagen wir mal. Das
Philipp
Wenn man von 500000000 Nutzern ausgeht und alles alle davon zu den 60000000000 beitragen.
Fabi
Ja, also die Frage, was für was für Werbeformate Sie dann da da da drin haben, wie viel Zeit die Leute da am Ende wirklich verbringen. Also ich kann mir nicht vorstellen, dass diese 60000000 nur von Werbung kommen. So, ich glaub, es kann einen beträchtlichen Teil ausmachen, aber 120 Dollar klingt schon sehr utopisch. Aber ich mein, trotzdem ja dieses dieses Shopping- und Commercial Ding und so, ich glaub, ich würd das nicht unterschätzen. Wenn Sie das gut machen, glaub ich schon, dass da dass da sehr viel Geld drinsteckt so. Also Aber
Philipp
wie gesagt, dann geht's halt auch wieder zurück so, okay, warum sollten, keine Ahnung, Zalando, Google, nicht Google, sorry, Open AI Geld bezahlen, dass Sie da drin vorkommen, wenn Germany, keine Ahnung, 10 Prozent weniger Nutzer hat oder 20 Prozent weniger Nutzen und das da umsonst anbietet. Also das geht ja, das ist ja son bisschen davon ausgehen, dass ChatGPT sehr, sehr dominant ist, was sie anbieten und halt keine Alternativen existieren.
Fabi
Und und deine Annahme geht davon aus, dass die Alternativen kostenfrei sind, so ja. Wenn wenn das
Philipp
Ja, ja oder selbst wenn das Shopping kommt. Mal angenommen, die machen das Shopping oder die Shoppingintegration. Meta ziehen alle nach mit derselben Experience, weil Du kannst siehst ja, was die anderen machen und bieten halt den Händlern günstigeres Angebot oder gar kein oder wie auch immer. Dann ist halt ja auch wieder die Frage, kann Open Air dann mithalten oder nicht? Weil zum einen geht's ja davon aus, dass dann Unternehmen wie Zalando Open Air Geld bezahlen, dass die sozusagen Chat GPTs sind oder als sone Art Referal existiert, was ja auch dann von Zalando bezahlt werden würde. Und ja, bleibt auf jeden Fall spannend.
Dennis
Ich mein, klar, wenn Du solche Projektionen hast, dann gehst Du ja irgendwie davon aus, also ne und in diesen Größenordnungen, dass Du irgendwie weiter erfolgreich bist, ne. Also ich mein, wenn OpenAI jetzt anfangen würde, keine neuen Sachen mehr rauszubringen und nicht mehr mit Marktführer zu sein, dann kannst Du, glaube ich, die Zahlen streichen, wenn andere Angebote attraktiver, günstiger und besser sind. Aber dafür müssen sie halt irgendwie bei der Stange bleiben und weiter. Cooles Zeug schippen, so, sonst sonst geht es natürlich nicht auf. Cooles Zeugshippen, ist das vielleicht ein Stichwort, ich weiß es nicht, ob es cool ist, aber Du hast zumindest, glaube ich, noch ein Thema von OpenA mitgebracht.
Fabi
Dass sie einen LinkedIn Competitor
Philipp
bauen muss.
Dennis
Ist das aber ist nicht dein offizielles Wording wahrscheinlich, ne?
Fabi
Na also Ihr offizielles Wording nicht, aber es gibt ein offizielles Statement dazu und zwar gibt's 'n Blogbeitrag von ihrem CEO of Applications Fidschi Simo und da sprechen sie darüber, dass sie So, das ist das, was was da drinsteht, wo Sie grundsätzlich mit, und das finde ich daran ganz interessant, schreiben Sie, ich mein grundsätzlich geht's den Nie, dass Sie sagen, dass Firmen da draußen als auch als auch Jobsuchende einen guten Weg brauchen, irgendwie sie sie sie fokussieren sich sehr auf auf AI Skill People. Also Leute zu finden, die wirklich nachweislich irgendwie Erfahrung in AI haben, dass das vermehrt in der Zukunft gesucht wird und dass das ein ein wichtiger Teil ist und sie eben in diesem Zuge diese Open AI Jobs Plattform gründen wollen so in dem, also in dem in zu dem zum Beispiel dem Tech Crunch Artikel so, da da liest man es eher als ein so allgemein so Firmen suchen Mitarbeiter und eine allgemeine Jobsplattform. In dem Blogbeitrag von OpenAI liest sich schon sehr viel spezieller auf Workforce im AI Space so, aber das kann man natürlich auch interpretieren, dass OpenAI's Interpretation ist. Jeder muss grundsätzlich diesen Skill haben und damit wieder auf alle erweitern. Also mich würde es sehr wundern, wenn diese Jobsplattform bei AI Skill People irgendwie aufhört und nur auf diese White color Jobs geht, die darauf spezialisiert sind. Genau, aber in diesem gleichen Atem, Sie sagen, es gibt halt sozusagen die Problematik, dass vermehrt Firmen sozusagen Leute suchen, die trainiert sind im AI Umfeld. Die Jobsplattform soll sozusagen die dafür sein und sie arbeiten mit vielen großen Firmen zusammen, unter anderem auch Indeed, weshalb's da ganz interessant ist, dass Indeed ja auch als eine Jobsplattform da irgendwie mit OpenAI zusammenarbeite, wenn OpenAI vorhat, ihre eigene Plattform zu gründen. Fand ich ganz interessant, dass sie mit dabei sind, deswegen was was ihr was ihr Anreiz daran ist, vielleicht irgendwie eine gute Integration. Ich weiß es nicht genau. Fand ich interessant, aber nun auch mit mit 1 der größten privaten Jobanbieter der USA, Walmart arbeiten sie da zusammen und der eine Part ist die OpenAI Jobsplattform und der andere Part ist AI Certifications, die OpenAI anbieten will, sozusagen, dass es einen sinnvollen Nachweis dafür geben muss, wie gut Leute mit AI umgehen können, wie ihr Knowledge ist. Sie haben ja generell schon ihre Learning Plattform hier ist draußen, OpenAI Academy und das soll sozusagen erweitert werden, dass man wirklich Zertifizierung bei OpenAI für AI Skills bekommen kann, was dann sozusagen auch Teil dieser Open AI Job Plattform werden soll. Aber mal schauen, ob das ein mögliches neues oder ein neues Produkt für OpenAIs in Ihrem Revenuestream oder wie Sie das Ganze vermarkten wollen.
Philipp
So, man ersetzt oder jeder Job nutzt AI, man nimmt an, dass alles OpenAI ist und dann mach ich Zertifikate, die dir helfen, einen Job zu bekommen, aber dieses Zertifikat kostet dann 5000 Euro.
Fabi
Da, also siehste mal, da ist das Product Mindset Philipp bei dir, ja.
Philipp
Ich mein, das könnte auch 'n Ready Stream sein. Das verstehe ich auf jeden Fall, weil Du brauchst ja, damit Du als AI Foundation Labs gewinnst, Leute, die deine Technologie nutzen können. Und die Technologieinutzen von AI ist ja anders, als sage ich mal Software Engineering. Also das ist ja 'n großen Unterschied zwischen, ich hab jemanden, der kann voll gut mit ChatGPT, Deep Research und allen möglichen Tools außen rum umgehen oder selbst auch bei Softwareentwicklung mit den ganzen neuen CIs Reclaud Code und jemand, der kann das nicht nutzen. Ich mein, denken wir 20 Jahre zurück, Menschen konnten nicht wirklich Google Search benutzen son bisschen. Und es ist auf jeden Fall interessant und sehe ich als sehr wichtig, wenn man, sag ich mal, die Zukunft denkt. Ich geh auch stark davon aus, dass wahrscheinlich Universitäten, wenn sie's noch nicht haben, aber halt generell Lehrpläne und vielmehr darauf eingehen, wie kann ich mit der Technologie umgehen und warum nicht da die Plattform schaffen und dann halt Leuten auch wirklich direkt helfen, 'n Job zu finden. Dann kann das ja relativ schnell diesen Mikro Systemeffekt erstellen, wenn Du von Familien, Bekannten hörst, dass die halt irgendwie leider ihren Job verloren haben, weil es sich halt Dinge geändert haben, aber halt über die Plattform wieder relativ schnell 'n neuen Job gefunden haben, ist ja eigentlich 'n 'n gutes Ding son bisschen.
Fabi
Ja, also ich mein, dass es grundsätzlich, glaub ich, dafür 'n Need gibt, würd ich auch sagen, ob ich jetzt in der Zukunft, die ich mir vorstelle möchte, dass OpenAI derjenige ist, der diese Zertifikate vergibt und auch gleichzeitig der Hub für die Jobs ist. Was macht nicht? Der Iljas Suzkiewa macht doch auch, sein hat er nicht auch irgendwie bisschen in die Learning Richtung, die er geht mit seinem AI Start-up so? Ich würde mir ja hoffen, dass aus der Ecke irgendwas mit Zertifikaten kommt und nicht aus der Open AI Ecke. Aber ich mein, ich glaube auch, brauchen wir gar nicht drüber diskutieren, dass das grundsätzlich gut ist. Vielleicht in dem Zuge noch ganz ganz interessant, so, wenn wir uns darüber unterhalten, dass sich die Joblandschaft ja irgendwie verändern wird. Ich hab auch noch 2 neue Paper mir angeschaut, die jetzt grade relativ kürzlich rauskam so, also jetzt vor, ich glaub, knapp anderthalb Wochen so, wo sie einmal 'n bisschen angeschaut wurde grade, also auf den US amerikanischen Markt, so wie hat sich denn so das seit 2022 die das Hiring so verändert und beide Paper schauen son bisschen auf natürlich auf verschiedene Sektoren, aber in diesen Sektoren schauen sie juniorige versus Seniorige oder Intermedia Jobs sich das Ganze an und eigentlich kann man sagen, dass beide Paper son bisschen zu der Beobachtung kommen, dass man seit 2022 ungefähr, also vorher war es so, dass die die die Einstellungsrate von sowohl seniorigen Mitarbeitern als auch juniorigen Mitarbeitern, also dann gerade so College Graduats eigentlich immer relativ ähnlich miteinander gestiegen ist und seit 2020 sieht 2022 sieht man eigentlich, dass es im Seniorbereich sich dann nicht viel verändert oder sogar wenn dann tendenziell positiv entwickelt, wobei man seit 2022 eigentlich bei den Juniorigen eine Flatline beziehungsweise zuletzt auch einen Decrease in Einstellung von Juniorigen Jobs sieht, was in erster Linie eben auf so College Graduals abzielt und da in den Sektoren klar Technologie, was uns ja auch vollkommen klar war, aber auch, jetzt hab ich grad den Grafen parallel nicht offen, was die, muss gleich noch mal nachschauen, was die andere Industrie war, in der der mich erst mal verwundert, hier genau im Old Sale und Retail eigentlich der der größte Change passiert ist, also knapp 40 Prozent weniger Einstellung von Junioring Entwicklern in den Year over Year vergleichen seit 2022, was da auf jeden Fall der Sektor ist, der da am meisten von beeinflusst wurde. Und auch wenn man sich so Zahlen anschaut, bisher war es eigentlich immer so, dass in USA Unemployment Raten von College Graduards immer geringer waren als die allgemeine Unemployment Rate, so wo man einfach vergleicht so, okay Leute, die grade aus der Uni kamen, was ist denen ihre Unemployment Rate versus, was ist die was ist die allgemeine im Land? Und da war es eigentlich immer so, dass es grundsätzlich positiv aussah für die Graduots und jetzt wirklich so teilweise die Unemplementrate höher ist als die des Landes so in den letzten zweieinhalb Jahren. Ich mein, natürlich kann man viel drüber diskutieren, so welche makroökonomischen Effekte da drauf abzielen, dass sich das so verändert hat und ob das jetzt wirklich nur AI ist so. Also es gibt auch einige Artikel, die dann irgendwie davon sprechen, keine Ahnung. Seit der seit der Finanzkrise gepaart jetzt auch noch mal mit Corona, hat's auch durchaus einige einigen Einfluss darauf, dass juniorige Profile hier nicht mehr so gesucht werden. Aber ich glaube, es ist schon auch nicht in der Hand von der Hand zu weisen, wenn man sich jetzt wirklich den Zeitstrahl mal anguckt und 2022 so wirklich mit dem mit dem Beginn unserer AI Phase zusammenfällt. Das ist und auch wenn man sich probiert zu erklären, ne, macht natürlich irgendwie Sinn, dass Leute eher weniger von den Juniorigen Jobs suchen und grundsätzlich eher die erfahren Leute, die Domainwissen haben und so, die irgendwie dieses neues nutzen können, AI richtig einzusetzen, eher genutzt werden als juniorige Profile, die man vielleicht schneller mit ein paar wenigeren ihre Jobs machen konnte, die vielleicht gerade auch so im Legal Bereich oder so was vorher super viel Fleißarbeit waren und irgendwie Leute eingestellt wurden und in ihren ersten Jahren eher paar einfache Arbeiten vollzogen haben. Aber so diese beiden Paperpacking Pong, wo man nämlich schon hat, fand ich sehr, sehr interessant, was diesen Trend noch mal anging so.
Philipp
Und was ist die Lösung für jetzt aktuell Studierende dann?
Fabi
Das wüsste das wüsste ich auch gern. Die Frage ist halt auch natürlich, wie geht's wie geht's am Ende son bisschen weiter, ne? Ist das jetzt irgendwie 'n Frühwarnsignal so? Ist das ist das einfach so, dass jetzt der der Weg mit, mach mal deinen Hochschulabschluss erst mal gar nicht so einfach nicht mehr so per Default der richtige ist und es einfach nicht mehr so den großen Bedarf irgendwie dafür gibt? Aber ich mein, dass irgendwie grundsätzlich eine Problematik darin besteht, dass dann die Firmen wohl weniger Bedarf dafür haben, junge Leute einzustellen, die vielleicht, ich mein, gehört ja auch immer irgendwie was dazu, auch Leute einzustellen, denen was beizubringen. Natürlich sind die ersten Jahre nicht die größten Produktivitätsjahre, aber wenn Du mal probierst, das in die nächsten 10 Jahre irgendwie zu projizieren, wie soll's denn dann werden, wenn sich, also woher sollen denn dann die nächsten Senioren kommen, die wir dann einstellen wollen? Aber Die Bedienung,
Philipp
wenn dann EA macht alles?
Fabi
Philipp, es war reif ein mit diesem fatalistischen mit dieser fatalistischen Zukunft. Ich mein,
Philipp
was ich vielleicht noch dazu fügen würde, ich mein, und dann muss, glaub, sehr vorsichtig sein, wie Du gesagt hast, ob das jetzt auf AI zurückzuführen ist oder nicht son generelles wirtschaftliches Thema aktuell ist. Ich mein, wir sind ja in 'nem sehr interessanten wirtschaftlichen Lage, wo wir gefühlt vor na, weil alle denken son bisschen, okay, wir sind, Inflation steigt alles und wir sind son bisschen, nicht läuft super. Man zieht auch irgendwie an den USA, dass generell die arbeitssuchende Zahl steigt. Ich hab auch gesehen, in Deutschland, verhaltens zu dem Jahr davor, haben wir irgendwie 150000 mehr arbeitssuchende Menschen. Glaube ich halt nicht, dass es in Deutschland zumindest viel auf AI zurückgeht, sondern eher son generelles generelles schwierige Situation ist.
Fabi
Obwohl halt dieses Paper muss man Also ich wir verpacken mal 'n paar Artikel in die schauen, es gibt auch einige, die es kritisieren, auch sagen, es kann nicht so einfach auf AI zurückzuführen sein und innerhalb von 3 Jahren kannst Du noch nicht sehen, was der makroökonomische Effekt davon wirklich ist so. Aber zum Beispiel in dem einen Paper haben sie dann auch probiert, Firmen zu identifizieren, die generell eine hohe Adoption rate für für AI haben und das anhand von Job Descriptions da draußen, sozusagen wo sie schauen, schauen sie grundsätzlich nach Leuten, die die AI anwenden können und haben sich ihre Jobproof Listings verändert und haben da zumindest eine Korrelation gesehen, dass die Unternehmen, die das grundsätzlich einsetzen, noch einen höheren, die klein an juniorigen Einstellungen haben als als Unternehmen, die jetzt nicht so nach außen hin diese AI Skill People suchen. Und ja, ist hundertprozentig klar ist es nicht, aber ich find jetzt auch, ist ja immer die Frage, was ist die realistischere, was glaube ich, ist die realistischere Antwort so und was was könnte wahrscheinlicher sein? Und wenn Du mich nach meiner Wette fragst, würde ich sagen, ich halte's schon für wahrscheinlicher, dass da die Korrelation mit AI zu suchen ist, als mit 'nem makroökonomischen Effekt, jetzt wenn man irgendwie Corona und Finanzkrise irgendwie mit reinnimmt, so. Aber Ich
Philipp
wär vorsichtig.
Fabi
Das eine Paper hat den Titel Canaries in the Col min. Wisst ihr was? Kanarienvögel in der, warum man die in den Kohleminen mitnimmt und was das ist?
Dennis
Ja, nachm Sauerstoff zu gucken.
Fabi
Ja, genau, CO2, weil's genau, es ist ein Frühwarnsignal für Gefahr und irgendwie die sind sehr viel empfindlicher für CO2 und sterben früher oder fallen früher und wenn 'n Kanarienvogel aufhört zu singen oder irgendwie lethargisch wird, dann müssen die Leute die Kohlmine verlassen. Vielleicht sind das hier die Canaries and the Coelmine, die ersten Effekte der AI, die wir sehen.
Philipp
Deswegen fleißig AI News hören, fleißig lernen, fleißig bauen und dann geht's schon.
Dennis
Und zur Konferenz kommen. Wir haben trotzdem noch ein kleines oder nee, 2 kleinen Themen, ne. Hast Du noch mitgebracht? Abbelli, Jama
Fabi
und SQ Light. Ein Thema zusammen, oder?
Dennis
Ist das ein Thema zusammen?
Philipp
Ein Thema zusammen würde ich auch sagen, genau. Also wir hatten's ja vor der, ich weiß nicht, wann, letzten paar News. Wir haben eine neues Modell bei Google gelauncht, 'n Open Modell, Jammal 3 270 m, was 'n sehr kleines Jammalmodell war. Und jetzt letzte Woche haben wir 'n 'n Wedding Modell gelauncht. Und wenn man vielleicht ganz kurz 'n Wedding Modell ist mehr oder weniger 'n Modell, das eine 'n Textinput hat und eine Vektorrepräsentation erstellt. Das heißt, ich konvertiere 'n Text zu 'ner mehrdimensionalen Matrix. Diese Matrix kann ich dann nutzen, sie mit anderen Matrizen zu vergleichen und so Ähnlichkeiten zu finden, ne. Ganz einfaches Konzept, was irgendwie, ich glaub mittlerweile jeder kennt, der irgendwie eher Anwendungen baut mit. Und das Besondere jetzt hier würd ich mal sagen, alles, was wir in den letzten Jahren, Wochen, Monaten so gesehen haben, was im LLM oder Generality AI und Space war, war ja immer neue Foundationsmodelle, neue LLMs mit irgendwie, Trading Cababilities und sehr, sehr wenig in diesem anderen Bereich, also gerade, was Embedding Modelle angeht. Wir hatten zwar neue Embedding Modelle von, aber die waren alle hostet. Und Open oder Embedding Jamma ist jetzt 'n 300000000 Parameter Modell und speziell trainiert für On Device Embeddings. Das heißt, man braucht weniger als 200 Megabyte Arbeitsspeicher, das auszuführen. Und wir haben auch Tests durchgeführt für gerade Android Phones oder halt andere On Device Maschinen wie 'n Computer oder halt andere Dinge. Kannst sogar auf 'nem Raspberry Pi ausführen, was super interessant ist, weil dadurch, dass es kein generative Modell ist, das heißt dadurch, dass ich nicht diesen Loop hab, immer neue Tokens zu generier, ist es auch relativ schnell für für Laatency. Vielleicht noch ganz kurz zum Modell, 100 Sprachen, also multilingual und hat einen Input von 2840 Tokens und nutzt auch Matroschka Embeddings. Das bedeutet, ich generier diese Matrize und beim Matroschka ist sozusagen das Prinzip, dass die wichtigen Informationen am Anfang der Matrize stehen. Das heißt, wenn ich eine, weiß nicht, 1024 große Matrize hab, ist der Plan, dass ich alles Wichtige am Anfang hinspeicher und dadurch die Möglichkeit hab, die diese zu verkleinern. Das heißt, einfach kleiner zu machen, dann hab ich natürlich weniger Informationen repräsentiert, aber ich brauch auch weniger Speicher und das Konzept wird da auch genutzt. Man kann von 768 Dimensionen bis runter auf 128 Dimensionen gehen. Und wirklich der der Haupt Use Case, auf den wir gehen oder wen wir erreichen wollen, ist okay, dass es mehr oder weniger nativ einfach mit auf den Geräten verfügbar ist. Und ich mein, wir kennen ja alle den Vorteil von semantischer Suche, dass wenn ich irgendwas eingebe, dass ich ähnliche Dokumente finde oder Clustering machen kann, auch Klassifizierungen machen kann und wirklich alles unter dem Aspekt, okay, kann ich's nativ auf meine Geräte integrieren? Kann ich's für App Anwendungen bereitstellen, ohne dass ich immer diesen API Call machen muss oder andere Dinge dafür? Und was ich dann im selben Zug getestet hab oder ausprobiert hab, also es gibt kennt ja wahrscheinlich jeder. Mhm. Secret Datenbank, fallbasierend meistgenutzte Datenbank auf der Welt, also jedes iPhone, jedes Android Phone hat eine oder mehrere SQLite Datenbanken mit auf dem System. Und anders, sag ich mal, zu postPress oder MySQL ist, dass ich nicht irgendwie 'n Server brauch, der läuft mit 'ner Pfeilsystem und Datenbank und was ever, sondern ich hab einfach 'n einen Pfeil. Und dann hab ich einfach eine, in dem Fall C, Implementierung, die halt mit diesem Pfeil interagiert und dann halt alles abbildet wie von 'ner normalen SQL Datenbank. Und für SQL Light gibt es eine Extension, die nennt sich SQL Light weg und wie der Name verrät, konvertiert das meine SQL Light Datenbank zu 'ner Vektordatenbank. Das heißt, mit SQL Light weg und Embedding Jamma kann ich jetzt supereinfach in jeder, sage ich mal, Programmiersprache, weil das sehbasiert ist und die haben Clients für Python, Java Script, Swift, Kotelin, Server, Go, also alles Mögliche. Mir solche semantischen Suchanwendungen bauen für On Debise. Das heißt, wenn ich irgendwie, keine Ahnung, ich hab irgend eine coole App Idee, dass ich lokal auf meinem Phone oder auf meinem MacBook irgendwelche Dokumente durchsuchen möchte. Und das wird halt jetzt so krass viel einfacher dadurch, dass ich halt einfach meine Vektoren in meiner SPI Datenbank speichern kann. Da kann ich diese NIRES Sniper suchen durchführen. Ich kann zusätzliche Informationen speichern, die halt, wo das Original File zum Beispiel gespeichert ist, wenn das irgendwie 'n PDF ist oder andere Filter mit dem Datum, dass ich das auch noch dazufiltern kann und halt super easy anfangen kann, jetzt diese Anwendungen zu bauen, aber wirklich halt lokal first. Und ich find das superinteressant, weil ich weiß nicht, schon allein, wenn ich vorstellen könnte, ich halt irgendwie auf meinem Handy in Whatsapp oder in anderen Notizen die Möglichkeit, viel besser nach Dingen zu suchen, wär halt 'n großer Vorteil für mich schon alleine.
Fabi
Und hattest Du's am Anfang gesagt, wie also wie groß ist das mit? Also ist das realistisch, dass ich das mit 1 Applikation schippe oder ist es so, ich muss wirklich Ja. Warten bis das, ja?
Philipp
Also hat 200 Megabyte. Ah, okay.
Fabi
Das das hatt ich gehört.
Philipp
Ich mein, klar, es ist jetzt keine kleine Anwendung, aber ich mein
Fabi
Na gut, aber bei 'ner iOS Anwendung oder sich natürlich wär schon wär schon cool, wenn's in der Zukunft eher allgemein gelöst wird und nicht jede Applikation ab jetzt 200 m b größer wird, aber ist jetzt nicht so, dass es unrealistisch ist, eine
Philipp
Ich mein, man arbeitet ja daran mit gerade auch Gemma 3 n oder halt Gemma 9 Nano, dass es mehr in Android integriert wird und ich mein, zu jedem LLM oder jeder LLM Anwendungen find ich eigentlich 'n guten Use Case für einen Embeddingmodell, selbst sei es für irgendwelche Agents, die Zugang zu Tools haben, dass ich einfach feststellen möchte, okay, möchte ich überhaupt alle Tools auswählen oder irgendwelchen machen, wo halt der Input erst mal zu anderen Beispielen hinzugefügt wird. Ich mein, im hast Du ja mittlerweile so krass viele Anwendungen oder auch alleine die Memory Features, die wir in ChatGPT jetzt haben, einfach zu schauen, okay, hab ich zu 'nem ähnlichen zu 1 ähnlichen Anfrage in der Vergangenheit schon irgendwelches Feedback gegeben? Irgendwie, hey, ich möcht eine neue Webanwendung bauen. Okay, kann ich nachschauen, ob derjenige gerne nutzt oder Swelt oder View? Und dann kann ich das halt direkt mit interagieren und das funktioniert halt alles jetzt on device. Ich mein, es gab davor schon on device Embedding Modelle, aber Embedding Jam ist sozusagen das beste Modell unter 500000000 Parametern und zusätzlich haben wir auch Quantize Weartraining Modelle bereitgestellt. Das heißt, extra dafür gedacht, dass ich die quotisieren kann und dann halt wirklich auf diesen lokalen Geräten ausfüllen.
Fabi
Ja, schon superinteressant. Und da also Du hattest am Anfang, ich hätt's jetzt akustisch nicht richtig verstanden, 2048 Token sind, ist der in Kontext, in dem Kontext. Okay. Ja gut, das sind auf jeden Fall so grad so Suchanfragen und so was. Ist auf jeden Fall ein prädestiniertes Beispiel wahrscheinlich dafür. Ja, sehr cool. Ich mein, wann wann war das denn? Ist in welcher Weihnachtsfolge haben wir Prediction fürs nächste Jahr gemacht? Von meinem Prediction war wir sehen ganz, ganz viel on device. Ich glaub, das war das war das letzte Jahr, bei dem ich das predict habe, ne. Das war ja. Von 2023 Weihnacht auf das Jahr 2024.
Philipp
Sind wir
Fabi
noch nicht ganz, aber im Dadding ist auf jeden Fall, geht da in die richtige Richtung, find ich. Ja. 200 m b und ich kann's wirklich mit 'ner Applikation schippen.
Philipp
Ja und das funktioniert relativ irgendwie Ola mal up oder MLX oder lm studio und sonst was, die haben's alle und dann lass ich gern wirklich supereasy Dinge ausprobieren, ohne dass ich 'n MPIQ brauch und es läuft halt wirklich auf 'nem MacBook wie sonst was.
Dennis
Cool. Vielen, vielen Dank euch beiden für all die Infos, die ihr heute mitgebracht habt. Sehr spannend. Da draußen meldet euch an, kauft euch Tickets zur ProgrammierCon, noch mehr zu erfahren und uns zu treffen und sonst gut 2 gute Wochen.
Fabi
Ja und vielleicht
Dennis
gibt uns
Fabi
doch mal, ich meine ihr habt wahrscheinlich ein bisschen gemerkt, wenn man diesmal ein bisschen weniger Themen mitnimmt, darf uns mehr drüber unterhalten, es ist länger geworden als jede andere AG Folge, die wir sonst hatten, obwohl es weit weniger Themen sind. Aber wenn ihr's bis hierhin geschafft habt, lasst uns doch gern mal Feedback da, wie euch das generell gefällt. Weniger Themen und dafür mehr Unterhaltung. Vielleicht beim nächsten Mal achten wir wieder 'n bisschen mehr auf die Zeit. Wer weiß. Oder vielleicht bleiben wir auch so lang. Sagt uns, wie ihr's findet. Über Discord über oder Podcast at Programmier Punkt bar.
Dennis
Yes. Danke sehr, macht's gut. Alles gut. Ciao.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos
Feedback