Gemini 3.1 Pro // Taalas // OpenAI Smart Speaker // Sam Altman und die Umwelt
- // Podcast
- // News AI 09/26
Shownotes
In dieser Folge besprechen wir den Release von Gemini 3.1 Pro und schauen uns an, wie Google bei Benchmarks wie ARC AGI 2 ordentlich zulegt. Ein echtes Highlight ist die Hardware-Innovation von Taalas: Ein Chip, auf dem das Modell direkt auf das Silikon „gebrannt“ ist und so unglaubliche 20.000 Tokens pro Sekunde liefert. Außerdem geht es um das Beispiel ChatJimmy.
Außerdem diskutieren wir die neuesten Gerüchte um den OpenAI Smart Speaker, der in Zusammenarbeit mit Jony Ive entstehen soll. Zum Schluss setzen wir uns kritisch mit Sam Altmans Aussagen zum Energieverbrauch von KI im Vergleich zur menschlichen Evolution auseinander.
Habt ihr euch schon zu unserem nächsten Meetup in Bad Nauheim angemeldet? Lotum gibt Einblicke in die Arbeit zwischen Product Design und Development beim Thema Micro-Animations.
- Dennis
- Hallo und herzlich willkommen zu 1 neuen AI News. 9 2026. Wir reden heute, wie man ein LLM auf Silikon presst. Dann gibt es von Google ein neues Modell mit Gemini 3 Punkt 1 Pro und wir reden zum einen über Gerüchte über einen OpenAI Smart Speaker. Ich bin ja gar nicht sicher, ob's Gerüchte sind oder Informationen über einen potenziellen Smart Speaker und über 1 Aussage von Sam Altband, der sagt, dass wir Menschen doch auch ganz schön viel Energie verbrauchen, zu dem zu werden, was wir sind, werden wir am Ende auch diskutieren. Ich bin Dennis Becker. Bei mir sind
- Fabi
- der Fabi Finkalo und der Philipp, hallo.
- Dennis
- Schön, dass ihr wieder dabei seid und uns zuhört. Und ich weiß nicht, vor 2 Wochen hatten wir ja, ja, glaube ich, die großen Modelle, die neuen Coding Modelle von und mit Clayd 4, Opus 4 Punkt 6 und Codex 5 Punkt 3. Vielleicht ist mir fällt mir grade erst auf, weil das hat man das letzte Mal nicht, was auch noch passiert in den letzten 2 Wochen, dass Sonnet 4 Punkt 6 rausgekommen ist, also auch
- Philipp
- Und Codex 5 Punkt 3 Spark.
- Dennis
- Ja, das hab ich auch Wieder nicht mitbekommen. Okay, das ist, ist das die kleinere, eine kleinere Variante oder eine Codex
- Philipp
- Spark ist das erste Modell, was auf Serepras läuft und irgendwie Superschnall ist.
- Fabi
- Kostet 2000 Tokens die Sekunde hieß es, glaub ich. Genau. Und vergleichen wir uns gleich noch mal über den anderen On Chip Unterhaltung. Genau. Ich glaub, Sie waren bei 1000 Tokens.
- Dennis
- Okay. Und dann weiß ich aber auch nicht mehr hundertprozentig sicher Opus hatte oder Claw Anthrobic. Boah, die ist ganzen Namen. Anthrobic hatte ja auch noch diesen Fast Mode rausgebracht für Opos 4 6. Ich weiß nicht, ob wir darüber auch kurz gesprochen, ich glaube schon, das hat ja
- Fabi
- 'n Podcast, ne?
- Philipp
- Ja, die kosten
- Dennis
- dieses zweieinhalbfache. Okay, also das heißt, auf rund 5 Punkt 3 gibt es praktisch dann eine Speedvariante. Vielleicht noch genau zu, weil wir zumindest hier bei bei Lotum hatten wir in den letzten Wochen vor allen Dingen eigentlich immer Opos genutzt und gesagt, okay, das ist einfach das Modell, was am meisten kann und davor gab's mal da sofort eine Phase, wo man irgendwie gesagt hat, ja, Planungssachen macht man mit Opos und wenn's dann die Umsetzung geht, weil 'n bisschen weniger Ressourcen verbraucht werden, kann man das mit Sonne machen. Es ist noch nicht so viel Erfahrung, dass es wieder dahin zurück ist, aber zumindest war son bisschen okay, vielleicht kann man ja jetzt bei dem anderen oder anderen Task sich auch wieder entscheiden, Sonne zu nutzen, weil's einfach einfach 'n bisschen günstiger ist und trotzdem in der Version 4 Punkt 6 sehr, sehr gute Ergebnisse liefert. Aber welcher Große fehlte noch in der Runde, sein größtes Modell zu updaten? Das war Google. Google und da haben wir jetzt eben Gemini 3 Punkt 1 Pro. Ich muss ehrlich sagen, ich find so die die offizielle Veröffentlichung oder die offizielle Promo so die die auf dem Blog ist, ist relativ reduziert irgendwie. Also es ist zum einen mal so der Hinweis, hey, es gab schon dieses Update zu Gemini 3 Deep Think, wo es eben darum ging, dass ja, da technisch 1 gemacht wurde und das war so, das war jetzt die Foundation, dass wir auch 3 1 Pro haben. Und trotzdem gibt es natürlich wie immer ein Benchmark Tabelle, die ein bisschen geh highlightet ist, was für das Modell besonders gut ist. Weiß nicht, ob ihr's anders seht, aber ähnliche Feststellungen wie, glaub ich, letzte, vor 2 Wochen auch, dass sie sich auf vielen Ebenen nicht so viel geben und trotzdem dann irgendwie immer auch wieder beeindruckend zu sehen, dass man wie eine Metrik, ne, teilweise extreme Sprünge macht und 'n Modell da einfach deutlich, deutlich besser wird. Also es gibt beispielsweise ein Arc AGI 2 oder RFC AGI 2 Benchmark, wo es son bisschen darum geht, so neue logische Patterns zu lösen. Und da hat er ein Gemini 3 Pro 30 Prozent roundabout und ist jetzt bei 77. Also das heißt einfach in son paar Capabilities gibt's dann doch irgendwie Riesensprünge, die die zwischen diesen Modellupdates kommen. Und ja, das Einzige, ich weiß nicht, ob das 'n Alleinstellungsmerkmal ist, aber ich finde es zumindest, fand das ein ganz, ganz schönes Beispiel. Also sie haben so 3, 4 Beispiel, wo Germany 3 1 pro deutlich besser geworden ist. Und 1, was ich ganz cool fand, war so, also dass sie gesagt haben, hey, und auch den direkten Vergleich vom 3 Pro zu 3 Punkt 1 Pro haben und wo einfach für Webseiten so Microinteraktions mit ganz coolen kleinen, kleinen sWG Animationen super cooles Smooth hin. Hab ich eben auch einmal getestet und so gesagt, hey, mach mal 'n Teddybär, der dem Moussecursor folgt und ist 'n supercutees s s-VG, wo dann nicht nur die Augen sich bewegen, sondern der ganze Kopf son bisschen, also korrekt vorm Movement, sich irgendwie physikalisch da bewegt. Weiß gar nicht, vielleicht ist das eine gute, das war gar nicht beabsichtigt, aber gute Crossreferenz auf unseren nächstes Meet-up, was stattfindet. Da geht's nämlich auch Ist
- Philipp
- das das wichtigste Meet-up, zu dem man kommen soll?
- Fabi
- Das ist das Meet-up, zu dem man kommen
- Philipp
- soll, ja?
- Fabi
- Okay, richtig. Genau das.
- Dennis
- Das ist
- Fabi
- das Micro Animations, ne?
- Dennis
- Micro Animations am fünften März hier in Büttauheim. Meldet euch gerne noch über Meet-up Punkt com an. Wenn ihr ein Meet-up sehen solltet dieses Jahr, dann ist es dieses.
- Philipp
- Und das danach natürlich.
- Dennis
- Und und das danach. Aber erst danach.
- Fabi
- Die nicht da kommen soll. Danach genau danach sind alle anderen die Wichtigste.
- Dennis
- Ja. Aber erst mal ist jetzt das
- Fabi
- das Wichtigste.
- Dennis
- Ist immer das nächste das Wichtigste. Was dort ist. Ja, vielleicht noch 'n bisschen zur Availability. Also ist relativ relativ groß, glaube ich, ausgerollt. Also es gibt sowohl AI Studio kann man's nutzen als auch jemand, eben wenn man in Team Plans oder bezahlten Plänen ist, ist auch in Notebook, LLM schon drin. Google AI Pro und Ultra User haben auch Zugriff und die ganzen API Sachen, also sei es die oder oder oder. Genau, da ist überall 3 1 Pro jetzt schon verfügbar und kann man austesten. Philipp, hast Du noch irgendwelche Insights, die Du ergänzen möchtest zu dem Release?
- Philipp
- Ja, ich glaub, das Einzige, was man sehen kann und was man auch 'n bisschen auf Social Media merkt, ist, dass es sich 'n bisschen anders verhält als Codex oder Cloud. Das heißt, wenn man mit den, ich weiß nicht, wenn man mit, wenn man das gewöhnt ist, irgendwie Cloud zu nutzen und dann nutzt, dann muss man eventuell seine Prompts 'n bisschen anpassen oder darauf reagieren, wie sich das Modell verhält, dass man das bestmöglich nutzen kann. Aber definitiv, wenn man bisher genutzt hat, ist 3 Punkt 1, so wie das Upgrade oder Verbesserung.
- Fabi
- Mhm.
- Dennis
- Auch wenn Du dann beide Fabi Themen dahinter hast, aber ich glaube, es passt 'n bisschen besser jetzt noch zu Modellen, wo es 'n bisschen was anderes ist, aber biegen wir erst mal auf das Thema ab, was, ja Philipp hatte son bisschen gestern glaube ich erst in unserem Channel gepostet und das haben wir aber auch bei Lotum dann schon 'n bisschen die Runde gemacht. Man hat das Gefühl, das ist son kleiner Blick in die Zukunft. Wir haben uns auch schon mal darüber unterhalten so, ne, wie schnell kann das Ganze noch werden? Was machen wir mit den Pausen und Wartezeiten, die wir aktuell haben, wenn wir warten, bis ein Modell irgendwie was errechnet hat. Und da gibt es spannende Neuerungen, die man im Moment auch schon ausprobieren kann, das sich ein bisschen anzugucken. Worum geht's da, Philipp?
- Philipp
- Ja, also ich hab Dennis jetzt nicht supergut verstanden. Ich hoff, das kam im Podcast gut an, aber ich glaub, er hat über Talis geredet. Vielleicht können kann Talis auch Dennis 'n bisschen helfen bei seiner Verbindung. Talis ist 'n sehr bis gestern oder bis zum Wochenende, sag ich mal, unbekanntes Start-up aus Toronto, sehr kleines Team, 24 beziehungsweise 25 Employeés sie sind eine Hardware Company, aber oder AI Hardware Company. Aber anders zu irgendwie Serebras, Croc oder auch, ich sag mal, TPUs, Interviewers Traineom haben sie 'n sehr speziellen Chip. Und der große Unterschied bei diesem Chip ist, dass Du mehr oder weniger, wie man früher bei Mikrochips auch gemacht hat, dass Du das komplette Programm auf diesen Chip trennst und dann den Chip für nichts mehr anderes benutzen kannst. Das heißt, Du kannst nicht irgendwie 'n Softwareupdate machen oder 'n Treiber neu installieren oder 'n komplettes Betriebssystem drauf installieren, wo Du dann andere Dinge machen kannst, sondern bei Talis hat man 'n Modell, was direkt auf den Chip gebrannt ist, was dazu führt, dass der das Modell und der Chip perfekt, sag ich mal, übereinstimmen. Und wir haben's ja ganz am Anfang gehört, das neue superschnelle Codex Modell schafft 1000 Tokens die Sekunde und Talis schafft mit ihrem ersten HC one Hardcore one Chip Lama 3 Punkt 1 8 b mit 17 beziehungsweise manchmal auch 20000 Tokens die Sekunde. Es gibt auch 'n eine Demo, die ihr testen könnt, einfach auf Chat Jimmy dot a I oder bei Google Chat Jimmy eingeben oder Tales suchen oder in den Shownotes schau. Und also für mich, der jeden Tag ja I nutzt, war das schon ein bisschen merkwürdig, wenn Du damit jattest, weil Du gibst was ein und die Antwort ist da. Also Du hast keinen Loading Spinner, keine Thinking, kein gar nichts. Das ist wie, ja, 'n Cash Look-up vorm vom Gefühl her. Und Du wusstest gar nicht, okay, jetzt frage ich was und versuch ich zu chatten und die Antwort war immer wieder da. Und vielleicht mal son paar technische Details noch dazu, weil ich für mich war's auch am Anfang so, okay, wie kann man das einfacher klären, ohne dass man zu tief in die Thematik eingeht? Und Gemini hat mir 'n relativ, sag ich mal, gute Metapher geliefert. Und zwar, man kann sich das 'n bisschen so vorstellen, normale CPUs sind wie 'n Auto. Ich kann überall hinfahren beziehungsweise ich kann jedes Modell irgendwie nutzen mit Software und wenn ich, sage ich mal, genügend Speicher hab. Und Germanine meinte, dass Talis mit ihrem neuen Chip bis hin zu wie eine Achterbahn ist. Man hat eine vordefinierte Route und man kann nicht links oder rechts fahren, aber ist perfekt dafür abgestimmt und man hat die bestmöglichste, sag ich mal, Usererfahrung für denjenigen, der dann Achterbahn fährt. Das heißt, man kann sich das 'n bisschen so vorstellen, ich kauf den Chip mit dem Model drauf und dann kann ich das nutzen für dieses Modell. Und wenn ich 'n neuen Chip oder 'n neues Modell bräuchte, müsst ich natürlich 'n neuen Chip bauen oder das drauf brennen. Sie sagen aktuell, es dauert ungefähr 3 Monate, bis man son Modellchip, Symbiose, sag ich mal, erstellt, aber erhält dann halt diese krasse Performance. Und sie haben auch 'n paar Benchmarks veröffentlicht, klar, weil okay, das eine ist Codex, das ist jetzt hier lahmat, wie kann man die irgendwie vergleichen? Aber sie haben Zahlen veröffentlicht, wo sie dasselbe Modell mit Nvidia h 200, b 200, dem Crochip, Sambanova, Sierebras und Altalis vergleichen. Und
- Dennis
- sie sind, okay,
- Philipp
- jetzt achtzigmal schneller als Nvidia H-zweihundert-Chips und ungefähr zehnmal schneller als Sierrebras. Und klar denkt man sich, hä, was will ich irgendwie mit Lama 3 Punkt 1, was jetzt irgendwie fast 2 Jahre alt ist, auf 'nem Chip, was ich nicht updaten kann. Aber ich glaub, man vergisst, dass es ganz viele Use Cases gibt, wo ich nicht irgendwie immer das letzte neueste beste Modell brauch und mit dem ich irgendwie chatten muss. Alles, was ich denke in Richtung geht oder Data Processing oder On Edge oder einfach, wo ich extrem hohe Last hab, kann man ja extrem davon profitieren. Klar, man weiß jetzt nicht, wie viel das kostet, ob schnell auch in dem Fall günstig bedeutet oder ob die Kosten halt extrem höher sind, aber ich find's superinteressant. Einfach nur, wenn man schaut, okay, wie gut sind die Modelle in der Größe in den letzten 2 Jahren geworden? Und dann einfach diese Antwort. Also ich weiß nicht, alles, was Smarthome Devices angeht oder alles, was Span, Klassifizierung, Datenprocessing oder auch im Gaming Bereich ist, könnte man damit sehr gut, sag ich mal, schon umsetzen?
- Fabi
- Ja, ich mein, natürlich ist die Frage, wo's wo das Ganze dann hingeht, ne. Das ist natürlich auch einfach eine rein ökonomische Rechnung, also so die Frage, so lohnt sich das Ganze? Also der der eine Part ist, dass Du natürlich sehr stark hinten dran bist, was die aktuellen Modelle angeht. Du hast jetzt grad gemeint irgendwie, Lama ist jetzt schon anderthalb bis 2 Jahre alt so. Sie haben jetzt was von 3 Monaten gesagt. So hab ich mein, wenn Du einfach nur mal überlegst, so keine Ahnung, dass Du neue Modelle hast, die Du irgendwie für 1000000000 trainierst so. Und dann hast Du so hast Du so Chips, die natürlich einerseits Userfacing schneller sind, aber andererseits auch effizienter und damit auch Kosten einsparen. So ist es natürlich schon einfach eine Rechnung so, lohnt sich's nicht am Ende für jeden von diesen Modellen 'n eigenen Chip zu machen, dann am Ende in den Ferien zu sparen? Weil Du musst ja diesen Training Run ja auch irgendwie wieder reinbekommen. Also ich würd sagen, so ökonomisch haben sie auf jeden Fall gezeigt, dass es bei dem Faktor auf jeden Fall Sinn macht so. Die Frage ist also, kann die Timeline aufschließen, dass wir am Ende sagen, so, die Fronty Models irgendwie 2, 3 Monate danach haben wir in 'ner sehr viel schnelleren Variante, weil's dann den Chip dafür gibt und dann möglicherweise auch sehr viel kosten effektiver dann funktioniert. Und die Frage ist halt, wie schnell wird's in den kommenden Jahren dann immer die neuen Frontje Models geben? Und wird's dann vielleicht doch immer noch das aktuellste, also das das Vormodell als schnelle Variante geben und das aktuellere immer in der Langsam Variante? Das heißt, die Use Cases passen sich dann je nachdem vielleicht immer gar nicht immer sofort an das neueste Modell an, also man sich son bisschen fragen muss, was ist der Anwendungsfall? Aber bin mal gespannt, ob wir das jetzt mehr sehen werden.
- Philipp
- Was dich auf jeden Fall interessant ist, dadurch, dass Du ja die Möglichkeit hast, das Modell nicht zu ändern, wird's halt auf einmal auch mehr interessanter, dass ich das Modell in dem Produkt schippe. Also ich mein, klar, Lama ist jetzt nicht multimodal das Erste, aber was ist, wenn ich 'n Text to Speech, Speed to Text Modell hab, was ich wirklich auf meinem Smartphone Device mit 'nem ähnlichen Chip dann plötzlich zu den Endkunden ausliefer? Weil ich weiß nicht, ich hab meine Geräte in den letzten 4 Jahren nicht ausgetauscht, so in dem Fall. Da ist es ja dann mehr oder weniger egal. Klar, kannst Du das neue Modell nicht irgendwie nutzen, aber alles, was vielleicht auch offcritt in Fabriken, in anderen Dingen laufen kann, wo Du eine gewisse Zeit garantieren musst, dass die Systeme sich nicht verändern, kann das ja 'n Riesenmehrwert liefern.
- Fabi
- Ja, das ist auf jeden Fall sehr spannend, was da was da in diesem auf Silicon, also auf Chip gebrannten Modellen in den nächsten Jahren dann noch so kommt oder in der nächsten Zeit. Mal schauen, was dieses Jahr noch so kommt dazu.
- Dennis
- Ja. Hat man irgend eine Info dazu? Gucken, ob ich internetmäßig durchkomme, dass ihr die Frage beantworten könnt. Irgendwelche Infos davon, wie viele von diesen Chips die jetzt im Einsatz haben? Also weil es gibt ja eine Webseite, wo man drauf zugreifen kann. Also ist skandit die jetzt groß oder ist das ein Chip, der das beantwortet? Oder sind das irgendwie, ist das der Farm for Chips?
- Philipp
- Ich hab leider nichts gefunden. Also man hat diesen, dieses ChatGPT Interface, wo man damit jetten kann, wo man auch die Tokens pro Sekunde sieht. Und man kann einen API Zugang anfragen. Start-up wurde 2023 gegründet, wenn ich's richtig gelesen hab. Das heißt, es ist auch noch nicht ganz so alt und es ist deren erstes Produkt und die ist noch, sag ich mal, relativ am Anfang in dem ganzen Start up Venture Capital Funding. Ich glaub, das ist eine 'n sehr, sehr gutes erstes Produkt, was Hardware vor allem angeht, weil Du's testen kannst, weil Du wirklich die Erfahrung siehst. Würd ich jetzt irgend eine Wette abgeben müssen? Würd ich sagen, dass sie wahrscheinlich sehr stark sehr große Investoren in den nächsten paar Monaten irgendwie bekommen werden und versuchen, das wahrscheinlich zu skalieren, aber nicht mit Zugang, sondern eher bessere, neuere Modelle als jetzt sagen, hey, hey, ich verkauf oder ich skalier meine Produktion für diesen Nine Chip. Also es geht wahrscheinlich noch viel ja, okay, wie schnell können wir die Entwicklung beschleunigen, bevor wir das überhaupt ganz groß verkaufen? Aber ist auf jeden Fall 1 der interessanteren Ereignisse, womit ich nicht gerechnet hätte dieses Jahr.
- Fabi
- Mhm.
- Dennis
- Ja, ja. Also testen Sie mal, wie gesagt, Link mit Sicherheit auch in den Shownotes. Einfach so, erwartet nicht jetzt die besten Antworten. Das beste Modell ist einfach 'n Modell, was älter ist, aber seid genauso überrascht über die Geschwindigkeit und was das so als Experience mit euch macht. Als Nächstes, Fabi, lass uns mal über die Gerüchte sprechen. Es sind Gerüchte oder ist es irgendwie schon was Veröffentlichtes Offizielles über den Nee, es
- Fabi
- sind auf jeden Fall Gerüchte. Also wir haben wieder mal einen Artikel von The Information, die ja wirklich supergut vernetzt sind in dem ganzen Tech- und AI Space und viele Insiderinformationen bekommen. Und dann ging's 'n bisschen darum, ich mein, dass man dass OpenAI plant Devices zu bauen und dass sie möglicherweise eher von sonem Pin, vielleicht dieser wie dieser Humain PIN und so was vielleicht ausgehen. So, wirklich gab's ja schon viele Gerüchte irgendwie drüber. Zuletzt haben wir uns da drüber unterhalten, als OpenAI Io Products gekauft hat, was ja sone Start-up ist, was Sam Altman zusammen mit Johnny If gegründet hat und OpenAI dann übernommen hat. Johnny If hatte ja, nachdem er Apple verlassen hat, also der Chefdesigner unter anderem des iPhones, hat ja dann die Firma Lawefrom gegründet, das ist sone Design Agency. Und im Grunde genommen ist es jetzt so, also IO Products wurde akquired von OpenAI. Johnny Iffe ist aber immer noch bei Lawefrom und Lawefrom ist auch von OpenAI weiterhin geheiert, auch zu machen. Jetzt irgendwie son bisschen, der Artikel geht einerseits son bisschen darum so, wie OpenAI Devices entwickeln und diese Zusammenarbeit mit Love from und andererseits darum, welche Devices denn jetzt es hier jetzt geht. Und das, was wohl vor der Tür steht, also das, was wohl das nächste Device, das erste Device, was Sie releasen werden, ist ein Smart Speaker, der, und das sind jetzt die Informationen, die's hier grade geht, so, zwischen zwei- und 300 Dollar kosten soll. Und ganz interessant ist, nicht nur ein Speaker mit Audio ist, sondern auch eine Kamera drin haben soll, das sozusagen zu kennen und darauf zu reagieren. Also dass es darauf reagieren kann, was irgendwie auf 'nem Tisch liegt, was da irgendwie, also dass man nicht damit sprechen kann, sondern im Endeffekt ja Video oder was Visuelles auch ein weiterer Input ist für das multimodale Modell in dem Fall. Und es geht auch 'n bisschen darum zum Beispiel, dass sie, weil sie natürlich direkt auch wieder bei ihrem E-Commerce Use Case sind, sodass sie Features drin haben, so was wie Face ID, damit Du auch direkt kaufen kannst von diesem Speaker aus. Und es ist wohl so, dass sie spät 2026, also irgendwann Ende des Jahres wohl erst einen Sneak Peak geben soll oder es irgendwie werden soll. Jetzt nicht ging jetzt noch kaum kein Kaufdate, aber so Insider sagen, dass es wohl dieses Jahr auf jeden Fall User facing oder Customer facing enounced werden soll. Was auf jeden Fall erst mal ganz interessant ist, so wir können's gleich mal vielleicht über diesen Smart Speaker son bisschen unterhalten, weil ich mein, wir warten ja schon die ganze Zeit darauf, dass es irgendwann den AI Speaker gibt. Wir warten ja auch, dass Apple das Ganze macht oder Amazon. Amazon ist ja auch selbst in Open AI. Alle sind ja irgendwie miteinander verstrickt, aber alle probieren auch son bisschen die ähnlichen Dinge zu bauen, obwohl's auch da ganz interessant ist in dem The Information Artikel, wo auch noch mal referenziert ist, war halt in mir vorbeigegangen, dass Apple ja auch an mehreren AI Devices arbeitet, unter anderem wohl, das, was wohl auch irgendwie an Ende diesen Jahres, Anfang nächsten Jahres werden soll, ist der ein. Also sie arbeiten auch so bisschen wie an diesem Humain soll's wohl diesen von Apple geben, was wohl 1 ihrer ersten AI Produkte wird, jetzt abgesehen vom vom Smart Speaker, was ich ganz interessant finde. Genau und also grundsätzlich arbeiten mittlerweile 200 Leute in dem in der Device Sparte von OpenAI. Loveprom macht das Design und da gibt's wohl auch son bisschen, also der Arbeitsprozess hört sich son bisschen schwerfällig an. Love from hat son bisschen diese Apple Attitüde, sodass nur bestimmte Leute überhaupt über bestimmte Projekte Bescheid wissen. Also es ist wohl sehr restricted, was jetzt die Informationspolitik angeht. Und teilweise irgendwie, wenn's Designinteration an diesen Hardware Devices geht, so die OpenAI Mitarbeiter teilweise nur einmal die Woche, wenn überhaupt irgendwie Updates von Love from bekommen und gar nicht so ganz wissen, wann jetzt hier eigentlich die nächsten Design Updates kommen. Also ich glaub so diese Zusammenarbeit, sehr interessant, obwohl OpenAI irgendwie IO Products gekauft hat, dann am Ende aber irgendwie trotzdem die Designarbeit extern von Love Fromm machen lässt, obwohl Johnny Ives auch Teilhaber von IO war, ist irgendwie sehr interessant. Aber ich mein, dieses erste Produkt mit 'nem Smart Speaker, ich mein, macht total Sinn. Ich hätt, wir hatten, glaub ich, schon haben wir uns häufig diesen Podcast unterhalten, schon sehr viel früher darauf getippt, dass wir sonen Smart Speaker mit irgend 'nem AI Modell mal drauf haben, dass OpenAI da jetzt reingeht. Interessant und sehr interessant dieser Take mit der Kamera so. Da frag ich mich, ja, es ist ja son bisschen so, da bin ich wieder 'n bisschen konservativer so, ihr könnt's irgendwie 2 mir gleich erklären, warum das alles gar kein Problem ist so, aber will ich OpenAI mit 'nem Speaker bei mir zu Hause haben? So, ich find ja schon Alexa und und die Smart Speaker von Apple mit Siri, Ach so na ja, ob ich das in meinem Haus haben will, aber dann auch noch mit Kamera und dann auf Open AI, vor allem, weil dann auch so Use Cases waren, dass es wohl, dass wo der Speaker so Nudges geben können soll. Also es gab so Beispiele wie, dass Du abends irgendwie noch spät wach bist, obwohl Du morgen eine wichtige Präsentation hast und dass sich der Speaker oder der Nudgen kann, dass er vielleicht ins Bett gehen soll. Das also so bisschen diesen so mit. Mal gucken, was da grade passiert. Kann ich irgendwo Nudges geben? Ach, Kamera, ich weiß nicht, ich weiß nicht. Was macht's mit euch, dass ihr hört, dass OpenAI einen Smart Speaker rausbringen will?
- Dennis
- Rainer, Kalorien. Wer hat sicher das erwartet, das direkt
- Fabi
- in jeden Raum?
- Dennis
- Guck mal, sogar mein mein mein uraltes, wie heißt das Ding? Echo Dot oder so, Echo irgendwas und mit sonem kleinen Display, da ist auch eine Kamera drin. Die steht in der Küche. Die ist zwar nicht on, aber zumindest in Wirklichkeit.
- Philipp
- Ich find eine Kamera an sich cool und ich muss auch sagen, irgendwie oder halt Brillen waren für mich bisher so, hey, okay, das macht Sinn, dass da eine Kamera drin ist, weil dann zieht das dasselbe, was ich seh und ja, und mir vielleicht 'n bisschen helfen, gerade wenn ich an Haushaltsaktivitäten denke wie, keine Ahnung, kochen, putzen, was reparieren, I don't know. Wenn ich da jetzt son Ding auf meinem Küchentresen hab oder ich sag mal, meine Smartspeakers sind eher wo verstaut, wo man sie nicht sieht, also auf dem Regal irgendwo unten drunter oder so was. Ich weiß jetzt nicht, wie ich damit von 'ner Kamera profitieren sollte und wie gut es dann funktionieren soll mit der mit der. Ich weiß nicht, die User Experience, dass ich da hinlaufe und irgendwie was zeige, find ich jetzt nicht so geil im Sinne von, ich steh irgendwo im Raum und rede halt darüber. Lass mich jetzt überraschen. Ich glaub, es ist immer gut, wenn wir mehr Konkurrenz haben. Also ich hab grad mal geschaut, Germany gibt's schon auf paar Homegeräten, aber auch wieder Limited Reviews, Regionen, nicht für alle. Glaub, das Gleiche ist für Alexa Plus, glaub ich, zumindest, so heißt es. Ja. Auch wieder die USA, irgendwo anders, Apple, keine Ahnung, was die da machen. Aber Gemenagsam. Wenn da reinkommt in den Markt, Metahey, wir sind verfügbar. Vielleicht ja, generieren die son bisschen, dass die anderen auch ähnlich nachziehen. Ich glaub, das größte Problem, was ich hier noch weiß bei, was Amazon mal reportet hat, ist oder auch, glaub, Apple, ist, dass die halt immer noch nicht so krass hundertprozentig sind und halt auch bisher zu langsam waren, also von von Feedback geben für Ich mein, Kommunikation ist es ja wichtig, dass Du so diese zwei-, 300 Millisekunden maximale Latency halt irgendwie hast. Und ich weiß nicht, selbst wenn ich jetzt irgendwie zu, ach so unabhängig frontales jetzt zu 'nem Modell irgendwie rede, dann hab ich ja oftmals eine Antwort, die länger als 2, 300 Millisekunden dauert. Und es ist dann 'n merkwürdiges Gefühl, wenn ich irgendwo hinspreche und dann erst mal eine Sekunde nichts kommt und dann wieder was passiert. Deswegen, ich glaub, 20 26 ist 'n gutes Jahr. Ich bin gespannt darüber, wie sie so was releasen würden, weil ich weiß nicht, Hardwaraproduktion ist ja nicht ganz einfach. Distribution ist auch nicht so ganz einfach. Deswegen, ob das son Premium Silicon Valley Apple Vision wird oder ob das jeder kaufen kann auf Amazon.
- Fabi
- Ja. Ja. Aber da ist zum Beispiel auch, Sie haben auch noch mal in diesem Information Artikel son bisschen über die Personalien hinter diesen ganzen Productsachen was erzählt so. Und einige kamen ja auch von I o, die vorher bei Apple waren, unter anderem auch Scott Cannon, der auch supply Chain Lead jetzt ist für dieses Device Management so. Und der hat es vorher auch für Apple gemacht. Da sitzen zumindest Leute, die Ahnung haben davon, wie sone Supply Chain funktioniert und wie sie so was irgendwie orchestrieren müssen, damit das dann funktioniert. Also ich denk, sie haben zumindest die richtigen Leute da irgendwie sitzen, damit sie so was umsetzen können, aber auf jeden Fall. Das ist bleibt auf jeden Fall sehr spannend, wie's dann sein wird. Also wenn wir uns mal ab Ende des Jahres dann schauen und praktisch schon fürs nächste Jahr machen, ob wir dann schon jeweils mit irgendwelchen Devices hier zumindest mal rum getestet haben, bin ich sehr gespannt. Also ob dieses Jahr das Jahr sein wird mit einem bei von uns in Deutschland erwerblichen Smart Speaker, wahrscheinlich eher 27,
- Dennis
- wenn überhaupt.
- Philipp
- Ich glaub, Du musst halt schon gute Use Cases finden. Also wenn ich irgendwie jetzt meinen Smart Speaker nehme und den bisschen intelligenter mach, wüsst ich nicht, ob das ausreichen würde, die alle zu erneuern. Vor allem, wenn ich halt irgendwie schau, was man jetzt mit Open Clay oder mit den ganzen machen kann. Also ich bräuchte 'n bisschen mehr, als das, der mir nur antwortet. Also wenn der dann Zugriff auf, keine Ahnung, irgend eine Sandbox hat und plötzlich wirklich Dinge aktiv tun kann und ich, keine Ahnung, auf meiner Coach sitze und wipe code während ich mit meinem Smarthome Speaker rede, würde schon eher interessanter sein, als wenn ich 2 Fragen gleichzeitig stellen kann und zweimal eine Antwort bekomm und das Ding nicht überfordert ist.
- Fabi
- Ja, aber ich mein, andererseits, ich mein, wenn Du guckst, ich mein, die 100000000, was haben wir jetzt mittlerweile? Wie, ja, jetzt weiß ich, hab ich grad die Zeit vergessen, ne? Sind sie grad irgendwie an der Grenze zu 900000000 aktiven Usern im Monat OpenAI? So wenn Du da überlegst, wie viele der User da wirklich Developer sind und wie viele, ich sag mal, ChatGPT auch als das Interface nutzen, alle möglichen Fragen zu stellen, dann muss ich sagen, ist nicht erst mal der erste Use Case schon von sonem Smart Speaker, wo son Modell draufläuft, einfach, dass ich grundsätzlich jegliche Fragen stellen kann und irgendwie einfach gute Antworten darauf bekommen und nicht halt, wie die Smartspeaker jetzt sind, mach meine Rollläden hoch, schreib was auf meiner Einkaufsliste und mach Musik bei Spotify an. Also wenn ich einfach nur diese Use Case übersetze, ich kann mir schon vorstellen, dass da eine Masse kommt, die erst mal in so in so Arbeitslosengeld würde.
- Philipp
- Dass das kostenlos kommt. Also ich weiß nicht, wie viel von den 900000000 Nutzer sind zahlende Kunden? Wissen wir das?
- Fabi
- Glaube ich Nee, zahlende, also weiß man bestimmt bessere Zahlen. Ja. Ich weiß es grade aus dem Kopf nicht so, dann, ja gut, ich mein, dann liest Du mir halt noch Werbung vor. Oder da, da kommt dann ja doch das Display und da ist dann die Werbung drauf.
- Philipp
- Ja. Ich glaub, Ja, aber klar. Gesagt, dass Alexa wurde ja ursprünglich gemacht, dass man eher auf Amazon shoppen kann. Und das ist komplett gefloppt, dass ganz, ganz wenige Menschen jemals über ihr Alxtagerät irgendwas dann auf Amazon bestellt haben.
- Fabi
- Schön, dass das aber jetzt der einzige Use Case ist, bei den OpenAI hier auch gemunkelt wird, sodass Du mit Face ID direkt darauf kaufen kannst. Also es hat bei Alexa nicht funktioniert, dann wird's ja auf jeden Fall jetzt bei OpenAI funktionieren, dass Sie den E-Commerce-U-Case jetzt hinbekommen.
- Dennis
- Das hab
- Fabi
- ich mir
- Dennis
- einmal sicher. Gar nicht so lange her. Ich hab's einmal gemacht. Ich hab einmal über das über Alexa 'n Produkt gekauft. Das war schon was,
- Fabi
- man gekauft, aber hast Du getestet oder wolltest, was bald 'n guter Use Case war?
- Dennis
- Nee, es war irgendwie relativ simpel, der kauft tatsächlich. Und dann dacht ich halt so, okay, ich will jetzt das Ding haben. Und dann hab ich einfach gesagt, hey, ich hatte grade irgendwie Hände voll, keine Ahnung, Küche irgendwas drüber gesprochen. Ich hab gesagt, Alexa, da kauft das Ding. Kauf
- Fabi
- 'n neuen Tesla.
- Dennis
- Und genau, dann nächsten Tag stand er vor der Tür.
- Fabi
- Ja, cool.
- Dennis
- Gut. Ach nee, gar nicht gut. Jetzt wird's ja erst noch spannend.
- Fabi
- Ja. Jetzt geht's erst los. Ja. Jetzt
- Dennis
- geht's erst noch richtig los mit der Diskussion. Ich hab den Artikel nicht gelesen, aber das ist so spannender wird's ja, eventuell, ich hab nur die die Überschrift gelesen, aber was hat Sam Ortman gesagt und wie viel wurde reininterpretiert?
- Fabi
- Ja, also ich hab mir auch das Originalzitat von Sam Ortman angeschaut. Also es gab einen eine einen Event von Indien Express in in Indien, wo Sam Ortman auf der Bühne gesprochen hat und es ging so ungefähr eine Stunde. Und Teil von diesem Interview, also es war sozusagen Set-up war, Sam Ortman wird interviewt von einem von The Indien Express. Und dann gab's sone Runde so, die ging so ungefähr 20 Minuten, wo er einfach der Interviewer Statements gesagt hat, die es sozusagen für generell zu AI, aber auch zu Open AI im Expliziten gibt. Und Sam Altman konnte darauf reagieren so. Und dann gab's sozusagen dieses eine Statement, was sich drehte Energy Consumption. Also letztes Jahr war wohl Bill Gates da. Und damals wurde mit Bill Gates wohl über die Hypothese gesprochen, dass die Inferenz von ChatGPT ungefähr so viel Energie verbraucht. Ich glaub damals irgendwie so was in die Richtung von 15 iPhone Batterien, als würde man mit einem Prompt 15 iPhone Batterien drehen. Und das war dann jetzt sozusagen, hat er gesagt, das ist ja heute das Äquivalent von anderthalb iPhone Batterien und sozusagen, was er darauf sagt, was was was sein Statement sozusagen da ist. Das war das das grundsätzliche Statement. Sam Ortman sollte darauf reagieren. Und Sam Ortman hat auf 2 Bereiche darauf reagiert und wieder son bisschen, ich mein, wir hatten ja letztens Sam Ortman schon mal in dem anderen Podcast, als er darauf reagiert hat, so wie eigentlich 'n Unternehmen, was so wenig einnehmen kann, irgendwie so viele Commitment hin zu Investments, irgendwie was was Datacenters und und irgendwie Hardware User und so was eingehen kann. Wie wie geht diese Rechnung auf, wo er in dem Podcast so superschnippisch reagiert hat in dem Podcast, wo er gesagt hat, hier, ich kann auch, wenn Du willst so, ich kann gerne deine Shares verkaufen so, wenn Du nicht an uns glaubst so in der Richtung und eigentlich echt unprofessionell irgendwie reagiert hat. Und so dann auch nicht gut darin war, auch in diesem Podcast irgendwie gut Kontext dazuzugeben. Ich hab das Gefühl, dass es wieder eine ziemlich ähnliche Situation war. Also worauf er zuerst reagiert hat, ist, also er hat geteilt Energy Consumction und Water Consumction, also wie viel Wasserverbrauch es gibt und wie viel Energieverbrauch es gibt. Und er hat den Wasserverbrauch wirklich ähnlich wie in diesem Podcast damals einfach mit soner, also das mit dem Wasserverbrauch ist ja absoluter Quatsch, hat er im Grunde genommen gesagt. Das da das stimmt ja einfach gar nicht so und hat gemeint, ja klar, früher, wo wir noch gemacht haben, also was im Grunde genommen sone Art Verbrennungskühlung ist, Verdunstungskühlung ist, wo Wasser verdunstet wird, die Luft durch dieses verdunstet Wasser durchgeführt wird und dadurch runtergekühlt wird, so oder so im Endeffekt wie so durch sone Art durch sone Art Filter, der kontinuierlich mitführt und zum Wasser irgendwie durchlaufen ist, wird die Luft durchgedrückt und damit wird allgemein das Datencenter gekühlt. Und dabei gab's natürlich die super die superhohen Wasserverbrauch so. Ich mein, zuletzt hatte er, glaub ich, die Washington Post irgendwie darüber gesprochen 2024, wo sie Vergleiche dazu aufgestellt haben, wie viel wie viel Wasser im Grunde genommen diese ganzen Datencenter verbrauchen und damit auch AI, was auf jeden Fall super-, superviel ist. Aber er hat so sozusagen hingestellt, absoluter Quatsch. So, früher haben wir das mal gemacht, jetzt ja gar nicht so. Den die neue Methode wäre ja jetzt, dass dass sie eher son Closd Loop System nehmen, also das Wasser sozusagen sich im so, so wie man's im Endeffekt 'n wassergekühlten Computer früher auch hatte. Die die coolen Kids, die irgendwie gezockt hat an wassergekühlten Computern haben 'n geschlossenes System. Einfach gesagt, kann man sich ungefähr so vorstellen, sodass im Endeffekt gar nicht mehr so viel Wasser verbraucht wird, weil das eben eher ein closed loop ist, auch wenn es initial sehr, sehr viel Wasser braucht, in diesen closed loop gefüttert zu werden, damit das überhaupt möglich ist. Aber wenn man sich trotzdem mal die Zahlen son bisschen anschaut, natürlich plant OpenAI das. Das sind jetzt ja jetzt auch schon einige neue Datencenter, die gebaut werden so, die die damit funktionieren. Aber es ist immer noch so, dass über 50 Prozent der Datencenter da draußen und auch ein Großteil von AI immer noch dieses irgendwie nutzt. Heißt irgendwie dieses dieses erst mal so hinzustellen, so, nein, das ist überhaupt gar kein Thema, ist halt wieder son Sam Oldman Statement, wo man wirklich sagen muss, also irgendwie, na ja, also er ist macht sich nicht sonderlich sympathisch mit diesen Statements. Das war erst mal zu diesem zu den Wasserteilen. Der, worum's aber eigentlich dann in dem Titel son bisschen ging, gehen dann eher die und dass er da son bisschen sich auch, ich hab mir das Gefühl, der fühlt sich so angegriffen mit diesen ganzen Statements, immer so gemeint. Es fing, glaub ich, an der Satz mit, ja, es ist aber auch ganz schön unfair, wenn man über die von AI redet, weil, und dann hat er den Vergleich genommen, man hat probiert hat probiert, die AI mit der der dem Energiebedarf von einem Menschen zu vergleichen, wo er meinte, na ja gut, ein Mensch muss ja auch erst mal 20 Jahre lang trainiert werden, bis er intelligent ist. Also er hat sozusagen gesagt, die ersten 20 Jahre des Lebens sind dafür da, wenn man's jetzt mal vergleicht Also er hat nur das gesagt, dass mein Mensch 20 Jahre trainiert werden muss und auch alles, was er in der Zeit irgendwie essen muss und verbraucht so, einen Menschen erst mal intelligent zu machen. Und dann ist natürlich auch die Frage, jede Anfrage, die an einen Menschen geht, was braucht das denn an Energie und hat auch wieder an an an Essen und so weiter. Und meinte so, wenn man son bisschen, wenn man wenn man das auf der Ebene vergleicht so, das ist im Endeffekt 20, ja und genau. Und dazu hat er noch gesagt und es hat 100000000000 Menschen gebraucht, also alle Menschen, die jemals gelebt haben, in der den Evolutionsprozess überhaupt so gestalten zu gestalten, irgendwie wie Wissenschaft so weit voranzubringen, dass Menschen überhaupt jetzt auf diesem Intelligenzstand sind. Das heißt, auch das nimmt er irgendwie mit rein, wo er sagt. Und wenn man das irgendwie zum Vergleich sieht, dann muss man sagen, so in der Richtung AI ist dann jetzt eigentlich schon energieeffizienter als Menschen das sind so.
- Philipp
- Und Ich glaub, wir sollten uns auf Plankänen fokussieren, die sind noch am kostengünstigsten oder die nur Algen fressen.
- Fabi
- Ja, das wäre zum Beispiel ein Vorschlag. Und aber ich mein, auch interessant ist, ne, er er sagt so, den Menschen hat das eine eine Evolution von 100000000000 Menschen im Äquivalent irgendwie gebraucht, jetzt auf dem Stand zu sein. Aber AI profitiert natürlich nicht von diesem Wissen, was irgendwie aus dieser Evolution herauskam. So, also im Endeffekt braucht's ja auch, im Endeffekt kannst Du ja sagen, dieser ganze Input, diese Menschen mussten generiert werden, überhaupt jetzt an dem Stand zu sein, AI zu trainieren. Das heißt ja, eigentlich müsstest Du diese diese, wenn Du's wenn Du's so betrachtest irgendwie die Energiekosten 1 Menschen ja eigentlich auch bei AI mit reinrechnen, weil wir mussten ja erst mal so intelligent werden, dann überhaupt anzufangen, ein Modell zu bauen, was jetzt grade erst mal so intelligent ist, wie's jetzt grade ist. Also es ist irgendwie Und das ist aber so interessant so, ne, dann ist er da irgendwie, hält er diese Rede und irgendwie sagt so, hier im Endeffekt, da muss man mit Menschen vergleichen und so, was die alle schon gegessen haben, bis sie 20 Jahre alt sind so und dieses Publikum da, alle nicken und so, ja, so in der Richtung. Man merkt so, ich sag, Zustimmung, ja, stimmt, ja, die ganzen Menschen, die haben ja, essen ja auch was so.
- Philipp
- Oh mein Gott. Es ist also wirklich, wenn
- Fabi
- Du das Publikum dazu noch anguckst, klar, ich mein, Du bist bisschen im Setting, dann sitzt irgendwie Sam Ortman, irgendwie sone große Firma und so und irgendwie Superbekannten im Space und so, im Space und so, dann denkst Du erst mal, er sagt schon irgendwie smarte Sachen. Aber irgendwie denk ich dann, also ich mein, sein Job ist ja jetzt ist ja jetzt ist ja so oder so die Frage, wie viel Plan hat er denn überhaupt wirklich von AI und von den Inhalten, was irgendwie AI Training und so was angeht? Er ist ja eigentlich derjenige, der das ganze Verkauf und das Geld einsammelt so, ne. Aber das heißt, das müsst ihr eigentlich wissen, wie man solche Dinge vermarktet und so. Man könnte jetzt erst mal sagen so, okay, er weiß, was er tut und das hat er extra gemacht, sozusagen bisschen dafür zu bekommen. Ich würde tippen, nein, bei sonem Rapid Fire Ding, das war halt, das wirkt jetzt nicht sonderlich geplant. Ja, es ist schon,
- Philipp
- macht ihr den Rest ist 'n schwieriges Thema, aber trotzdem ist er ja auch irgendwie noch 'n Mensch. Also mal kann man 'n schlechten Tag haben und vielleicht sich falsch ausdrücken über Themen. Ich weiß jetzt nicht, ob er danach irgendwie bisschen zurückgerudert ist oder sich anders positioniert hat, aber wenn Ich mein, der ist ja den ganzen Tag irgendwie im Rampenlicht und Leute achten explizit darauf, was er sagt und so was, dann kann auch Klar, ist das jetzt keine gute Antwort, würde ich jetzt mal behaupten. Man hätte definitiv irgendwie besser oder neutraler reagieren können, aber ich würd jetzt da den Teufel nicht an die Wand malen oder wie man's so sagt, glaub ich.
- Fabi
- Ja, aber andere muss natürlich sagen, also weißt Du, er ist 'n Profi dadrin so. Er ist halt, das ist im Endeffekt sein Job so und natürlich kann man sagen, so mal ein Ausdruck Aber ist so. Aber ich
- Dennis
- ich kenn, hab gar nicht mehr die Historie so richtig im Blick, aber war das sein sein Werdegang? Also im Sinne von, wie wie hat er Also
- Philipp
- er war vor OpenAI immer CEO bei Y-Combinator und hat viel im Start up Bereich gemacht und dann hat er ja mit OpenAI gegründet. Ich glaub schon, dass er technisch einiges versteht, weil OpenAI am Anfang ja auch sehr klein war und also würd ich ihn jetzt nicht komplett raus Wahrscheinlich ist er jetzt nicht mehr dabei, weil's einfach zu groß geworden ist. Und nicht klar, die ganze Energiethematik ist wichtig, man hätte besser reagieren können. Ich mein, wenn man's sehr objektiv betrachtet, hat man ja auch Fortschritte gemacht. Also klar, wir nutzen mehr Energie, aber Energie pro, ich weiß nicht, Matrixmultiplikation ist ja extrem gesunken. Und ich meine, jeder weiß 'n bisschen, dass Energie das größte Problem ist, in dessen wir reinrennen mit AI Scaling. Also ich glaub, es gibt auch paar Studien, dass alle Cloud Companys oder Start ups, die ihre KPEX veröffentlicht haben, wie viel sie denn in Infrastruktur investieren wollen, dass da das Stromnetz gar nicht ausreicht, nicht mehr in den USA und woanders.
- Fabi
- Ja, deswegen sieht man ja zum Beispiel jetzt in den neuen Datencenter und so was, die auch baut, ne, dass hier alle dann, weil weil diese ganzen Stromnetz, auch grad die Lokalen, da wo sie Daten sind, da bauen nicht ausreichen, stellen sie so Gasturbinen hin, Ja. Die sozusagen direkt onside Strom erzeugen und halt superviel c o 2 einfach in die in die Umwelt irgendwie blasen. So, also wo's am Ende so ist, sie die stellen einfach ihre eigenen kleinen Kraftwerke dann und sagen einfach so, ja, machen wir die Sintflut so und dann sollen sie halt kommen und mich dafür bestrafen und dann zahl ich halt die Strafe ungefähr und stellen sich da so Gasturbinen hin.
- Philipp
- Ich hoffe ja, dass es 'n gutes Outcome hat, weil ich weiß nicht, Energiewirtschaft war jetzt nicht so innovativ, objektiv betrachtet von dem, was ich mitbekommen hab. Das liegt bestimmt komplett daneben, aber vielleicht ist das 'n gutes, eine gute Möglichkeit, dass sehr viel mehr Geld in das Thema reinfließt und dann im Endeffekt vielleicht wieder alle mehr profitieren. Werden wir's sehen.
- Fabi
- Und ich mein, also wie gesagt, ich find ja auch den, also ich bin ja auch jetzt niemand, der jetzt sagt, so, okay okay, irgendwie dieser der Energiebedarf und so was davon, das ist deswegen Ausschlusskriterium für AI ganz und gar nicht so. Aber im Endeffekt sollte ja trotzdem sein Job son bisschen sein, so was differenzierter zu beantworten. So wenn er irgendwie sowas abtut mit Wasser Consumption, so in Richtung sein Statement, das das ist einfach nur Quatsch. Also da da ist sorry, das das ist für mich nicht nur so
- Dennis
- Ja, das ist richtig. Und gleichzeitig, ich kann ich kenn Philips Take irgendwie auch schon verstehen. Ich mein, Du wirst irgendwie, eigentlich willst Du irgendwie deinen
- Fabi
- Job machen und hast eine Firma und keine Ahnung was und dann dann
- Dennis
- bist Du auf einmal der eine der der in meist, also eine der Personen, auf die am meisten gehört wird so weltweit einfach und das ist superrelevant und interessant, was Du sagst. Und dann also könnte man zum einen argumentieren, okay, dann müsstest Du noch mal mehr auf solche Sachen vorbereitet sein und gerade dieses Persönliche ist ja nicht so, ja, ne, reagieren nicht irgendwie so in den in der Abwehrhaltung, dass da vielleicht auch jemand ist, der ihn coacht und irgendwie Unterstützung gibt in diesen Sachen Und andere halt so, ja, ist vielleicht auch nicht das, was er sich vorgestellt hat, was er jetzt am liebsten macht, da in einem Interview zu sitzen und und diese Fragen zu beantworten. Aber ja, ich wollt noch mal trotzdem, ich, wir haben schon mal drüber gesprochen, vielleicht müssen wir das auch bis zum nächsten Mal noch mal recherchieren, aber weil Du jetzt grade sagtest, damals vor 'nem Jahr waren's irgendwie 15 iPhone Batterien, jetzt wären's noch anderthalb iPhone Batterien, die von einem, das ist doch Quatsch, oder? Also
- Fabi
- leider hat leider zermort man diese Frage nicht richtig beantwortet, deswegen kann ich's dir nicht sagen, was
- Philipp
- Ich glaub, was man gesehen hat oder was man ja auch sagt, ist, dass die die Intelligenz gemessen an den Benchmarks ja irgendwie pro Jahr 200 x günstiger wird. Also ich weiß nicht, die Performance, die GPT-4 vor 3 Jahren hatte, kostet jetzt nur noch 'n Bruchteil da davon. Mhm. Und wenn ich das als, sage ich mal, Messwert nutze, dann kann es schon sein, dass GPT-4 damals, keine Ahnung, x Kilowattstunden gebraucht hat. Jetzt das Modell, was dieselbe Performance erreicht, y Kilowattstunden gekostet oder nur noch braucht und der sozusagen der Unterschied zwischen den iPhone Batterie ist. Ja. Weil es halt auch schwierig zu
- Dennis
- Genau, also ich mein, wir haben heute zum Job schon mal irgendwie gesagt, dass ne, dass irgendwie 80 oder 70 Jahre durch 80 Prozent Training entfallen und praktisch der der Rest nur die Inferences. Aber wenn ich
- Fabi
- Also ich geh bei Eporary ein, nur kurz da steht, dass eine 0.3 Wattstunden verbraucht. Also das ist ja im Vergleich auf jeden Fall so wie son Laptop für 5 Minuten, also nee, irgendwie irgendwie für eine Minute zu benutzen. Also das, also der Vergleich passt auf jeden Fall nicht.
- Philipp
- Genau, das meine ich nicht. Das siehst
- Dennis
- Du ja auch irgendwie an den lokalen LMMs oder so, die es nicht die Riesenmodelle sind, aber ich mein, die kannst Du halt, ne, 1000, also ewige Bronx auf deinem MacBook machen und das ist nicht leer danach. Also von daher.
- Philipp
- Das wundert mich immer schlimmer.
- Dennis
- Ja, wundert mich immer dieses diese Riesenmengen. Also, ne, nicht kleinreden so, ist 'n Riesenproblem, wird 'n Problem, aber auch von 'nem vor 'nem Jahr für einen prompt irgendwie son Vergleich mit 15 iPhone Batterien, kommt mir sehr komisch vor. Vielleicht, wenn Du alles zusammenrechnest mit, ich wir bauen das Datensätze noch dazu und keine Ahnung was, kann das für irgend
- Fabi
- Aber ich
- Philipp
- glaub, wir werden mehr über Energien 20 26 reden werden. Wahrscheinlich eher zum Ende hin, aber wird ja 'n Thema sein, weil wir sind viel zu langsam.
- Fabi
- Und ich glaube bei
- Dennis
- den Kids auf jeden Fall, dass sie viel Energie brauchen,
- Fabi
- nicht nur nicht nur essen. Ja. Aber ja, ich, wahrscheinlich geborene ich dir recht, dass dass bei dem Statement, also Sie haben von anderthalb Batterien gesprochen, dass wahrscheinlich wirklich auch das Training irgendwie mit drin war, weil ich das das, worauf auch Sam Ordman reagiert hab, wo er meinte so, dass es ja auch das Training beim Menschen braucht, sodass irgendwie darüber so viel gesprochen wird, so. Und die müssen auch 20 Jahre trainiert werden. Also weil ich denke auch, also Inferenz nur können Sie nicht meinen.
- Dennis
- Ja, okay. Und das ist halt gefährlich, ne. Also auch natürlich 'n bisschen pusy, also muss man vielleicht in soner Situation auch sein, aber son son Statement, der dann halt in sonen Kontext zu bringen, wo jetzt viele Leute, wenn sie's lesen, irgendwie denken, oh, ein prompt eineinhalb Batterien, voll krass, ey, wenn Du jetzt irgendwie noch bitte hinterherschreibst, hast 'n Atomkraftwerk gesprengt so. Ja, dass man's dann irgendwie relativieren muss, auf welche sind die Parts. Und noch mal, ich will jetzt nicht kleinreden, wir brauchen viel Energie und das muss irgendwie sauber gelöst werden.
- Fabi
- Ja. Aber es hätte ja, genau, hätte ich meine, hätte ja die Chance nutzen können. Also dann hätten wir uns vielleicht ja nicht drüber unterhalten, wenn er jetzt differenzierter beantwortet hätte. Vielleicht hat er's ja auf den 10 Stellen differenzierter beantwortet und wir haben uns jetzt vielleicht teilweise auch
- Philipp
- schon worden. Fünfundzwanzigmal in der Vergangenheit beantwortet und ich weiß nicht. Ja.
- Fabi
- Es bleibt halt trotzdem sein Job. Also ich hab mich Barbara, ich hab mich Ich find schön, dass wir sind 3 Leute, 2 am Verständnis wie ihn. Ich hab weniger Verständnis.
- Philipp
- Ja, nee, erzähl, ja. Es ist trotzdem objektiv betrachtet wahrscheinlich die falsche Antwort und war wahrscheinlich auf irgend 'ner nicht hilfreich für, die machen, aber es ist trotzdem halt noch 'n Mensch und keine KI. Die KI hätte wahrscheinlich supersachlich objektiv geantwortet und ist ja auch wieder vielleicht was Gutes dann in dem Sinne.
- Fabi
- Sehr gut. Ich mein, es ist schön, dann haben wir uns zumindest jetzt mal 'n paar aktuellere Werte. Also wir, vielleicht pack ich diesen Link mit der User. Ich hab's jetzt nur parallel irgendwie gegoogelt noch mal in die Shownotes, weil's auch son bisschen diese 0.3 Wattdauerkommen. Auch beim typischer Textlink hängt natürlich davon ab, wie hoch dein Input und so. Und wie gesagt, kann auch schnell auf 4 Prozent.
- Philipp
- Was ist das?
- Fabi
- Das ist von ein Jahr her, 2 25.
- Philipp
- Ja, das ist das ist schon superschwierig. Und dann bist Du Free User, bist Du Pro User, nutzt Du Mini, nutzt Du Fast, nutzt Du
- Fabi
- Es war für v o, es war auch Basis von v o. Okay. Also gibt's ja jetzt leider nicht mehr. Genau, aber das war auf jeden Fall noch so die der. Art. Vielleicht wir können da noch mal mitnehmen, ob wir mal fürs nächste Mal auch noch mal aktuellere Ich Werteometer zu finden.
- Dennis
- Ich weiß gar nicht, wer das, ob das noch war der letzte Woche oder ob wir Philipp kurz danach darüber gesprochen haben, weil ja auch so Pricing und wieso das nicht genauer angegeben war. Ich glaub, das war nach der Aufnahme, wo mir auch nur noch mal, ne, das ist halt auch gar nicht so einfach hier immer zu rechnen. Das ist ja nicht so, dass wenn Du einen prompt abschickst, dass die Token ja tatsächlich kosten. Das ist ja nicht, ne, das ist ja nicht diese eine Anfrage, die jetzt Energie kostet, sondern da läuft Hardware, die gebraucht wird und die Strom verbraucht wird, diese Anfragen zu beantworten. Und je besser die Hardware ausgelastet ist, desto günstiger in Anführungsstrichen ist die einzelne Anfrage. Aber das heißt irgendwie diese Vorstellung von, ne, ist einfach nur ein Text und der, dieser diese eine Token kostet jetzt genauso viel Energie, von dem muss man sich wahrscheinlich ja sowieso 'n bisschen verabschieden. Das kommt halt auf die auf die Auslastung und und die Gesamtkapazitäten son bisschen an, wenn man's wirklich realistisch betrachten will.
- Fabi
- Ja. Wahrscheinlich kann ich mir auch vorstellen, dass es halt grade auch mit den iPhone Batterien, sondern einfach, ich mein, es gibt ja auch von von OpenAI, wie viel Gigawattstunden Strom sie sozusagen im Jahr benötigen. Und so, wenn Du das halt einfach teilst durch die typische Anzahl von Anfragen, die halt OpenAI dann in einem Jahr irgendwie bekommt, dann ist das wahrscheinlich eher die Zahl, die dann auch auf sonen auf sone Konstumion irgendwie zurückzuführen ist, wo dann halt Inferenz als auch Training mit drin ist und sozusagen auch und so weiter. Ja. Ja.
- Dennis
- Ja. Judi, vielen Dank Euch. Beiden. Vielen Dank fürs Zuhören. Feedback wie immer an Podcast at Proguinear Punkt bar und habt eine schöne Woche. Bis zur nächsten News. Macht's gut. Tschau, tschau.
- Fabi
- Bis dann. Tschau. Tschau.