News AI 07/26 –

Opus 4.6 & Codex 5.3 // Gen-AI-Video-Modelle: Kling 3, Seedance 2, Grok Imagine, Runway 4.5

12.02.2026

Shownotes

In der heutigen Folge der AI News stürzen sich Dennis und Philipp mitten in das Kopf-an-Kopf-Rennen der Coding-Giganten: Anthropic und OpenAI haben fast zeitgleich ihre neuesten Spitzenmodelle Opus 4.6 und Codex 5.3 veröffentlicht. Wir analysieren, was Features wie Adaptive Thinking und Mid-Turn Steering für den Entwickler:innen-Alltag bedeuten und ob sich der extrem teure Fast Mode wirklich lohnt.

Zudem werfen wir einen Blick auf die rasante Entwicklung im Bereich Gen-AI-Video. Mit Runway 4.5, Kling 3.0, Grok Imagine und dem Newcomer Seedance 2.0 erreichen die Modelle ein neues Level an Realismus. Besonders spannend: Multi-Shot Generation, bei der KI-Modelle eigenständig verschiedene Kameraperspektiven in einem Clip schneiden. Zum Abschluss gibt es noch heiße Tipps für anstehende Entwicklungskonferenzen: die DecompileD in Dresden und DEVLAND im Europa-Park.

/transkript/programmierbar/news-ai-07-26-opus-4-6-codex-5-3-gen-ai-video-modelle-kling-3-seedance-2-grok-imagine-runway-4-5
Dennis
Hallo und herzlich willkommen zu den AI News in der Kalenderwoche 7. Wir neuen dicken Coding Modelle da draußen und geben einen kleinen Überblick über die Gen AI beziehungsweise vor allen Dingen Videotools, die's da aktuell draußen gibt. Ich bin Dennis Becker und zusammen mit mir heute im Studio ist der Philipp. Hallo. Philipp, schön, dass Du da bist. Fabi ist leider kurzfristig krank geworden, daher viele Grüße ins Krankenbett. Und mal gucken, Philipp, ob Du noch irgendwo da so was rein streust, aber sonst haben wir mal kein Google Thema auf der Agenda.
Philipp
Nö.
Dennis
Wir haben die mal eine Woche, 2 Wochen nichts released. Das ist ein bisschen traurig.
Philipp
Ja, so würd ich das nicht sagen. Es kam doch, glaub ich, in der Zeit 3 für alle AI Ultra Subscriber, aber wieder nur son VPN Thema in den USA.
Dennis
Ja. Okay, gut. Dann konzentrieren wir uns mal auf die anderen großen, denn das war zumindest mal unsere Entwickler*innen mit Sicherheit 'n Thema. Sowohl an als auch OpenAI haben neue, ihre neuen Spitzen Coding Modelle rausgebracht. Was gibt's dazu zu berichten?
Philipp
Genau, ich hab ja gehört, ich weiß ja nicht, vorgestern ist so was, wo ich die normalen News angehört hab, dass dass ihr letzten Mal schon über die neue Codex App gesprochen ihr habt.
Dennis
Mhm.
Philipp
Und interessanterweise, Dienstag letzter Woche war's, glaub ich, genau dann. Innerhalb von 20 Minuten hat Opus 4 Punkt 6 releast und Open AI Codex 5 Punkt 3. Interessanterweise gab's irgendwie an dem Montag Gerüchte, dass Antropic 5 releast. Da kam aber bei Opus 4 Punkt 6. Keine Ahnung, was da genau bei denen, sag ich mal, unterwegs war oder los war. Aber auf jeden Fall, beide haben zum selben Zeitpunkt Performance mehr oder weniger. Interessanterweise ist Opus 4 Punkt 6 im Verhältnis zu Opus 4 Punkt 5 mehr generalisiert, würd ich mal sagen. Also klar, man hat Verbesserungen in den ganzen oder SWI Bench Marx, aber der den größten Sprung haben die gemacht für alles, was so Knowledgework angeht und sehr immer noch sehr unter dem Thema sag ich mal, aber vor allem auch hat jetzt 1000000 Token Kontext, also so ähnlich wie und sehr viel besser mit oder generell einfach besser. Und 20 Minuten später hat dann Codex 5 Punkt 3 vorgestellt, auch besser im, vor allem sehr viel besser in. Auf Social Media ja, trennen sich die Wege son bisschen. 50 Prozent sagen, Opus ist besser, 50 Prozent sagen, Kodex ist besser. Auf jeden Fall beides sehr, sehr, sehr gute Modelle. Beides würd ich auch sagen, besser als die Vorgänger, wenn man sich sehr mit der Thematik beschäftigt. Also ich glaub, wenn man so normale Anfragen halt macht oder normalen Softwareentwicklungen macht, dann wird man den Unterschied wenig merken. Es geht wahrscheinlich dann wirklich in dieses, okay, wenn ich mehrere Wochen, Tage damit arbeite, wo erkenn ich die Unterschiede, wenn ich davor irgendwie Opus 4 Punkt 5 genutzt hab und jetzt irgendwie Opus 4 Punkt z 6 nutze. Was ist noch neu? Antropic hat noch neue Features vorgestellt, also Opus 4 Punkt 6 hat jetzt. Was mehr oder weniger das Modell mehr oder weniger selber entscheiden kann, wie lang es nachdenken, Codex 5 Punkt 3 hat jetzt. Also bisher war's immer so und vor allem auch in der Codex App ist es, glaub, schon verfügbar ist, dass Du, wenn Du eine Nachricht geschickt hast, mehr oder weniger gewartet hast, bis das Modell fertig ist mit und dann halt wie eine Art hattest. Und erlaubt jetzt dir, dass Du während das Modell arbeitet, eine zusätzliche User Message hinzufügen kannst, dass halt irgendwas bearbeitet oder beachtet werden soll. Also wenn Du irgendwie siehst, keine Ahnung, es nützt Java Script, anstatt typecript, kannst Du dir jetzt einfach sagen, hey, nee, nee, nee, warte mal, nützt typecript.
Dennis
Mhm.
Philipp
Opus hat noch, kam noch mit 'nem Update. Da gibt's jetzt Agenteams. Man hat ja bisher auch schon gehabt. Agents Team unterseiten sich in dem Sinne, dass der mit den Agenteams mehr oder weniger kommunizieren kann. Also man kann Nachrichten vor- und zurückschicken und man kann auch 'n Cloud Code dies dann in 'nem extrakleinen Terminalwindo aufmachen. Und ich glaub, auch dadrin dann chatten und besser sehen, wie die den Kontext nutzen. Ich hab selber jetzt noch nicht genau getestet. Opus hat oder hat als Teil ihrer API. Das heißt, man hat jetzt wie sone Art Endpunkt, wo man einfach seinen bisherigen Kontext hinschicken kann und dann fassen die das zusammen und man bekommt 'n kleineren Kontext, ist auch nativ in Codecs schon drin. Es gibt 'n scheinbar besseres System in Cloud Code, das Cloud Opus 4 Punkt 6 eher dazu neigt oder auch getriggert wird, Informationen aufs externe System zu schreiben, die wichtig sind. Ja, und generell halt Updates durch die Bank weg. Ja, also es war sehr interessant zu sehen an dem Abend, weil mein mein mein Feed ging dann immer zwischen Codex, oh mein Gott, und Opos, oh mein Gott. Und jetzt irgendwie eine Woche später ist so, ja, sind halt besser. Egal, weiter geht's.
Dennis
Ja, klar. Aber auch, weil's halt irgendwie, bei vielen ja jetzt schon irgendwie 'n Teil des Flows ist, ne. Also das halt einfach schon aktiv nutzen und dann ist es halt 'n Update und jetzt nicht, okay, das Revolutionäre, was ich jetzt grade erst anfange, zu nutzen, sondern das Tooling, was ich halt nutze, ist halt 'n bisschen besser geworden.
Philipp
Was man vielleicht noch mitteilen kann, hat noch, wie's sone Art, sag ich mal, Opus 'n kompletten Linux, Linux Linux Compiler in schreiben lassen. Also die haben mehr oder weniger 'n gestartet, der einfach zu Opus sagt, hey, hier nimm den Linuxkernel und schau, dass Du den kannst. Und das ist in geschrieben. Und der Forscher, der das gemacht hat, hat irgendwie 20000 US Dollar an Tokens gebraucht und konnte am Ende den Compiler auch, den Kern auch kompilieren. Bisschen so ähnlich wie Cursor mit ihrem Chrome Bild. Mhm. Definitiv 'n sehr, sehr interessanter, 'n cooler Benchmark, würd ich sagen. So, weil sie haben's 'n wie im Blogpost wirklich so simpel dargestellt wie von wegen her ist 'n, die immer wieder clau twrägern und claud als prompt haben, hey, erstellen den und dokumentier all deinen in dem Fall. Und in dem nächsten Loop, dann hat er einfach wieder das bekommen, selbe Anfrage, So ähnlich wie bisschen dieses Ralph Loop Ding, was wir vor 'n paar Wochen hatten und Ja. Einfach so lange mal laufen lassen, bis nicht mehr ging.
Dennis
Okay. Ja gut, wenn's sich im Endeffekt nicht so viel kostet, kann man kann man so später natürlich mal machen. Ich fand das mit den Agents irgendwie ganz coolen Ansatz bei Cloud Code, weil es halt, es nimmt dir diese Orchestrierung ein bisschen ab, so, ne. Also dass Du halt nicht mehr, ich mein, in die Richtung geht ja grade viel, ne. Sei es die Tools, die wir irgendwie auch besprochen haben mit und andere Sachen, dass man halt irgendwie mehr dieses Managen der verschiedenen Agens hasst. Und dass man da einfach so explizit sagen kann, hey, stell dir 'n kleines Agente zusammen und achte drauf, dass der eine das macht, der andere das macht und das irgendwie so vollautomatisiert dann auch einfach läuft und oculus. Find ich auch spannend. Aber sind wir im ähnlichen Punkt, wie wir's, glaub ich, das letzte Mal auch diskutiert haben, so? Ich frag mich immer son bisschen, gefühlt sind meine meine Proms oder meine Features oder wie auch immer immer noch zu klein so. Also, dass sie nicht lange genug laufen,
Philipp
das hab ich Dass sie nicht
Dennis
lang genug laufen und dass Du irgendwie nicht, dass Du nicht irgendwie, ja, dass Du nicht irgendwie 5 brauchst, die jetzt darauf loslaufen auf dieses Ding irgendwie ist.
Philipp
Ja, also ich weiß nicht, ob ihr den Podcast, also es gibt 'n sehr, sehr coolen Podcast von Pete, Peter, ja im Deutschen, der von, wo er darüber geredet hat, wie er Kodex nutzt, also oder wie auch immer, wurde ja komplett mit Kodex mehr oder weniger geschrieben. Und er war zu Gast bei 'nem Podcast, wo darüber geredet hat, er, wie wie er parallelisieren. Und er hat halt ein Agent, also wo sein Fokus darauf ist, sein Projekt. Und er meinte, er hat halt irgendwie zwischen 5 bis 7 so andere, die in anderen Site Projekten unterwegs sind. Also nicht in derselben Codebasis, sondern in den anderen Projekten. Und dort gibt er den halt einfach prompts. Und ich glaub, das ist nichts im Sinne von, hey, wenn der fertig ist, bin ich direkt wieder bei dem, dass ich so 100 Prozent Auslastung erreiche, sondern eher wahrscheinlich so, ich weiß nicht, 30, 40 Prozent. Und was ich gemerkt hab, vor allem jetzt auch mit den neuen Modellen oder jetzt über die letzten paar Wochen, es kommt ganz viel, also mein oder meine Aufgabenbeschreibungen verändern sich in der Hinweise, dass ich viel mehr auf diesen Fokus setze, also viel mehr Informationen dem hinzugebe, was das Modell erst mal sich anschauen soll, damit es sozusagen den Kontext baut. Und dann auch immer noch dieses, also im Sinne von Instruktionen hinzufügen, dass selbst wenn die Aufgabe erledigt ist, das Modell noch mal selbstständig anfängt nachzudenken, so, hey okay, ich hab das gemacht, aber stimmt das auch wirklich? Aber kann ich die Tests jetzt auch noch laufen lassen? Aber sieht es im Browser genauso aus, wie der User das beschrieben hat? Und wenn Du mehr 'n Fokus darauf setzt und nicht so wie, hey, bau hier bitte eine To do App und der spricht dir halt die To do App boys und ist dann fertig, dann kannst Du schon relativ besser dieses längere Arbeiten forcieren, was natürlich dazu führt, dass Du mehr Tokens brauchst, aber auch, dass Du nicht dieses manuelle Prompton hast von wegen, hey, bitte prüf deine Ausgaben oder hast Du Tests erstellt? Und das halt, wenn Du dieses mit in diesen in dieses, den in diesen automatisierten Loop, sag ich mal, mit reinbekommst, dann laufen die Dinge auch 'n bisschen länger. Und ich merk's vor allem, wenn man halt irgendwelche Tests hat oder Dinge ausführt, wo die Ausführung an sich schon ein, 2 Minuten dauert, dann kannst Du locker mal so 10, 20, 30 Minuten haben, wo das einfach läuft. Ja.
Dennis
Ja, da gibt's ja auch diese, Kollegen von uns hat, glaub ich, bei Cloud Code auch diese Hooks genutzt dafür.
Philipp
Genau. Ja, ist auch so, wo Du
Dennis
dann irgendwie sagen kannst, okay, wenn Du fertig bist, dann mach noch mal die Tests fürs Review oder kontrollier noch mal auf das
Philipp
und das. Ja. Ja, aber das ist, also das ist ja der der statische Weg, sag ich mal. Das wär ja, wie wenn Du eine eigene Nachricht schreibst, hey bitte,
Dennis
prüf noch mal.
Philipp
Und das andere, wo ich's halt seh, ist, dass wenn Du, die Modelle werden selber besser, wenn Du ihnen sagst, hey, überprüf das im anfänglichen Prom, dass sie das mehr oder weniger mit in dem Loop halten oder erst mal sagst, hey, schreib das bitte alles zum Pfeil. Und wenn Du durch bist, les dir das Pfeil noch mal und prüfe jeden Punkt Schritt für Schritt und schreib dann wieder dazu, ob Du das gemacht hast oder nicht. Also explizit 'n bisschen diese rauskitzeln, dass Du eventuell vielleicht 5 Prozent weniger Fehler hast, aber es halt länger autonom vor sich hinläuft. Ja.
Dennis
Ich hatte heute 'n schönen Case mit Opus 4 6, wo gefühlt das irgendwie eine Weiterentwicklung war, es hat etwas nicht funktioniert und dann hat er halt so geschrieben und keine Ahnung was. Und dann hab ich irgendwann gesagt so, ey, funktioniert richtig cool. Und dann fing er an, okay, eher cool, dass das jetzt funktioniert, jetzt lass mich mal alles aufräumen. Und das war son eigener Schritt und nicht mehr so, okay, dann legen jetzt noch 3 Testscrips, sondern er hat einfach von sich aus gesagt, okay, wenn Du fertig bist, dann lass mich bitte noch mal ganz kurz alles aufräumen. Das fand ich, fand ich ganz nett.
Philipp
Dann alles aufräumen und
Dennis
wieder nichts ging. Nee, er hat dann, hat dann noch weiter funktioniert. Und auch ganz lustig, 'n Kollege auch schrieb auch bei Slack dann, als 4 6 'n bisschen draußen war und meinte so, ist es bei euch auch, dass es teilweise viel, viel länger dauert und gefühlt gar nicht so viel mehr passiert. Und mehr oder weniger zeitgleich kam dann noch der Post, hast Du, glaub ich, eben noch nicht erwähnt, von dem, den es ja jetzt auch noch gibt bei Claude, ja, bei Opos, Opos 4 Punkt 6. Und zwar kann man den und für zusätzliche Kosten und Tokens zweieinhalbfach, haben Sie, glaub ich, gesagt, hat's Geschwindigkeit zweimal zweieinhalb Ja, bis
Philipp
zum Zehnmal teurer oder nicht? War das nicht das?
Dennis
Also es ist sehr viel teurer oder beziehungsweise ich mein, es ist halt überhaupt gar nicht in deinen User Schlimmes, glaub ich, drin, sondern es geht einfach direkt auf diese Zuversicht.
Philipp
Ich wollte unsere Zuhörer einfach mal 'n bisschen beschützen. Nee, es gibt auch API Prisis und eventuell nicht den Fast Mode aktivieren, weil ich hab Posts auf Twitter gesehen, wo dann plötzlich 1 innerhalb von 'ner halben Stunde 6000 US Dollar zusammenhatte. Okay. Und dann war ich so, okay. Und an sich ist es ja dasselbe Modell. Also sie sagen ja selber, also dasselbe Modell, nur irgendwie zweieinhalb bis dreimal schneller und sie bewerben es, sag ich mal, mit, hey, ja, nutzt es, wenn Du wirklich zeitkritische Dinge hast. Und sie nennen 'n als Beispiel. Also im Sinne von, Du hast irgendwelche und hast dann hoffentlich oder vielleicht bald 'n, der son macht. Und da ist es, kann es ja doch hilflos sein, wenn Du dreimal so schnell bist, wenn der Report irgendwie an sich 5 Minuten dauert, wenn Du das in 1 Minute machen kannst und eventuell als Mensch dann nur noch den Report anschaust und irgendeinen Button drückst, dass es vielleicht behebt, dann kannst Du ja schon sehr viele Kosten sparen, wenn durch den die mehr Kosten entstehen als für die Tokens. Aber so für den normalen Use Case würde ich das nicht machen. Und es ist neunfache Rate, also kostet neunmal so viel. Okay.
Dennis
Ja, ja. Das ist das ist richtig oder man hat einfach deutlich so viel Geld, das machen zu können. Aber es, was ich Schön darin finde daran, also ich mein, ist ja auch noch so ein Zukunftsding, ne, im Moment sind halt diese Wartezeiten, die wir einfach haben und wo irgendwie was passiert. Und ich mein, wenn man einfach sieht mit mehr Hardware, die man drauf wirft, kriegt man's einfach auch schon mal Faktor zweieinhalb Mal schneller. Das wird ja auch noch in der Zukunft ein Ding sein, wo wo dran gearbeitet wird, dass einfach die Antworten noch schneller sind, ja, was vielleicht dann auch son paar dieser Paralitätsdinge und so was löst, ne, dass Du halt so schnell irgendwie eigentlich eine Antwort hast, dass Du weitermachen kannst.
Philipp
Werden wir's sehen. Aber vielleicht für die Interessierten, also ich hab grad die Zahlen gefunden, für Inputs, die unter 200000 Token haben, es kostet die 1000000 Input Token 30 Dollar und für die 1000000 Token unter 200000 Token zahlst Du 150 Dollar. Das ist Faktor 10, Codex und. Also muss der Output auch zehnmal so gut sein. Oder 10 machst Du schnell. Ja, ist ziemlich. Dein. Also
Dennis
Ja, ja, ist richtig. Ach, bei diesem ganzen Pricing, wir sind jetzt bei Claude da aus son Teamplan und da gibt's auch ja unterschiedliche Seeds, aber das ist auch immer so beschrieben. Da steht dann, ne, der Premium Seed ist 'n bisschen oder nee, der der Team Seed ist ein bisschen mehr als der Pro Seed, der individuell ist. Aber dieses bisschen mehr, findest Du auch nicht, was denn jetzt 'n bisschen bitte heißt. Und dann gibt's halt da so die Additional, die Du dann anschalten kannst. Und das ist dann aber auch nicht einfach Token, sondern das sind auch einfach Dollar. Und ich glaube nicht, dass die halt dann die das API Pricing nutzt, also nicht ganz transparent.
Philipp
Ein, ja, das Problem ist, Du kannst es aber aktuell leider nicht ganz transparent machen, weil wir haben ja alle nur eine gewisse Kapazität. Und Du willst es ja natürlich interessant für deine Mitglieder gestalten oder für die Subscriber. Das Problem ist, wenn Du heute 10 Nutzer hast und morgen 1000, kannst Du ja, können ja die 1000, nicht die gesehen, die gleiche Nutzung haben als die die 10 Leute. Das heißt, wenn Du rechtlich gesehen genau sagen würdest, was bei den 10 Leuten in dem Plan drin sind, wie keine Ahnung, 10000000 Tokens oder irgendwie so was, dann entweder müsstest Du immer das dann anpassen direkt, könntest keine neuen Leute onboarden und Du hast ja das ganze Thema mit, die Welt ist ja auch irgendwie 'n Stück weit verteilt. Und ich glaub zum Beispiel, wir hatten's ja über Weihnachten und Neujahr, dass die Limits verzweiflung würden. Und ich glaub, das war hauptsächlich halt, weil 1 gearbeitet hat eigentlich in der Zeit und dann hatten sie ja die Kapazität zur Verfügung. Das heißt, Du kannst ja auch in dann solchen Bereichen das wieder anpassen.
Dennis
Ja, das stimmt. Ich glaub, es
Philipp
dauert irgendwie auf
Dennis
diese auf diese Zeitkomponente runter, ne, die man ja erst mal nicht denkt. Also irgendwie, wenn man so als Endnutzer Token sieht, dann ist das irgendwie eine Menge, aber am Ende die Hardware ist ja einfach eine Zeit, also die steht halt da pro Zeit sozusagen als Einheit. Ja.
Philipp
Und ich glaub, solange wir halt Arbeitsspeicher und alles Mögliche an Mangel haben, wirst Du da nie supergenaue Zahlen bekommen. Und es ändert sich ja alle 2 Wochen. Ich weiß nicht, Opus 4 Punkt 5 kam im Oktober, November. Jetzt haben wir, das kam im Februar raus. Willst Du das jedes Mal anpassen? Und und ich glaub, wenn Du dann für Enterpostst,
Dennis
Ja, ist ja auch. Ja, passt ja auch. Ich mein, wenn halt, ne, der normale USage erst mal so ist, dass man damit arbeiten kann
Philipp
Ja.
Dennis
Und man das Gefühl hat, okay, da ist 'n Mehrwert. Ist jetzt, glaub ich, im Moment nicht die Zeit, da jeden Dollar umzudrehen und ja, zu gucken, ob das 100 Prozent passt. Gut. Dann machen wir noch mal 'n bisschen 'n Ausflug in die Gen AI Modelle für Media, also vor allen Dingen Videogenerierung. Da sind jetzt kürzlich noch mal 'n paar rausgekommen und wir nehmen Nummer 1 mit, was, glaub ich, schon im Dezember kam mit, also nicht ganz aktuell, aber auch 1 der Marktführer, wenn es eben Video Videogeneration geht. Und das ist 4 Punkt 5. Soweit ich weiß, ist das Tool auch so, dass man's nur über die, über das Produkt praktisch selbst nutzen kann. Also die haben keine API, das irgendwie freizuschalten. Und vielleicht nennen wir grade erst mal ganz kurz alle und versuchen dann 'n bisschen die Unterschiede dabei raus zu arbeiten. Es gibt noch Kling als weiteren, wo jetzt die 3 0, 3 Punkt 0, wie Sie sie nennen, gekommen ist. Ich trau mich nicht, die Firma dahinter auszusprechen. Chinesisch.
Philipp
Oder ob wir Asiatisch.
Dennis
Asiatisch, asiatisch, ja, ich, klingen ist einigermaßen einfach, das das kriege ich hin. Das sind, gibt es 2 große Modelle, die da im Moment drin sind. Und Groc gibt es auch eine neue API. Die ist auch tatsächlich so vor ungefähr 2 Wochen rausgekommen, die Grock Imagine API, die eben auch vor allen Dingen, wo's Videogenerierung geht. Und dann hattest Du mir eben noch zugerufen, Genau.
Philipp
Hab ich
Dennis
mich jetzt noch nicht so
Philipp
Zitat Chef. 2 Punkt 0. Das Es ist 'n bisschen unklar, wann das kam, weil seit ein bis 3 Tagen seh ich, also Videos, die damit generiert wurden auf Social Media. Laut offiziellen AI Suchen soll das mittlerweile verfügbar sein seit Februar, den, also zehnter Februar. Es gibt auch verschiedene Anbieter schon, wo man das generieren kann. Ja, und können gerne mal über die, von a nach b durchgehen.
Dennis
Ja, Genau. Also ich, bei ist es vor allen Dingen so, dass sie so sagen, okay, wie sie wollen, ein möglichst reales Modell, also irgendwo so die die Welt ein bisschen abbilden. Wir sind ja auch schon lange irgendwie mit Nvidia in der Kooperation, so Modelle zu sagen und sagen, also vor allen Dingen ist es halt so der der Realismus in Bewegungen, der das Ganze auszeichnet und wo es dann ja, ne, für tatsächlich auch Hollywood irgendwelche Szenen mal vorzuplanen, wie denen aussehen könnten. Also mit Sicherheit sind wir noch nicht ganz bei den Hollywoodfilmen, die komplett mit r I gemacht werden. Aber zumindest, ja, in in eine sehr cinematische Richtung, die das Ganze geht. Und ja, ich weiß nicht, ob's dir einfacher fällt, aber ich finde irgendwie auch da die Benchmarks sind so, ich weiß nicht, jeder findet jeder findet irgendwie 'n Benchmark, auf dem er dann selbst ganz weit oben ist, also auch so hat, wo, keine Ahnung, ein oder der Artificial Analysis Text to Video Leaderboard, wo irgendwie 1250 der Score ist im Vergleich zu View 3 bei 1200, ne. Also ja, also gibt's immer irgendwie einen spezifischen Benchmark, wo 1 der Modelle irgendwie am besten ist. Aber genau, sagen wir mal einfach für möglichst realistische und viel Bewegung ist ist auf jeden Fall interessant. Und was da auch besonders noch dazugekommen ist, ist son bisschen, dass man sehr gut auch so, wie nennt man das, cinemastische nutzen kann, also dass halt 'n sehr gutes Verständnis da ist für Kameraführungen und all das. Also dass so Sprache, die dort genutzt wird, auch sehr gut umgesetzt wird in Videos. Hingegen Grock so, glaub ich, 'n bisschen 'n anderen Ansatz fährt, also zumindest von ihrem Marketing, es ist dort eher so, sie sind super günstig und superschnell. Das ist das ist deren Selling Point und auch, man merkt es auch, weil sie halt auch direkt so Social Media als Aspekt Ratio praktisch anbieten, dass es dafür son bisschen auch gedacht ist. Also schnell AI Video Content zu generieren, den man dann beispielsweise aus Social Media nutzen kann, was ja dann von der von der Qualität so ist, auch die Beispiele teilweise Aber es ist
Philipp
in in in Keine schlechte Qualität, muss ich sagen. Also es ist, also vor allem, wenn man die, also klar ist
Dennis
wie das Jerry pickt, sag
Philipp
ich mal 'n bisschen, aber wenn ich so drüber nachdenke, Commercial Use Cases und wenn's schnell ist, ich glaub, das ist schon interessanter Nutzen dann.
Dennis
Ja, nee, absolut. Und was da halt auch, haben auch 'n paar der andere Modelle, aber was da
Philipp
halt auch ganz cool ist, sind
Dennis
so so Videoediting Features, die man haben kann, wo man einfach Objekte ersetzen kann, wo man Personen ersetzen kann, also von irgendwie tanzenden Leuten, die dann aber ein Pandabär sind, der tanzt. Oder Szenen, wo man einfach umschalten kann, welche Jahreszeit da gerade ist, also wo man sehr, sehr gezielt die ganzen Features 1 Videos editieren kann. Ja, klingen, wie gesagt, mit dem Klingen 3 Punkt 0 auch ein ein neues Modell, wobei es da 2 Abstufungen gibt. Es gibt einmal son Omnimodell und dann das normale Video 3 Punkt 0. Ich würde sagen, was da ganz besonders ist, also auch da ist es mit Audiogenerierung und mittlerweile 5 Sprachen, die unterstützt werden. Kann man sagen, okay, hier sind noch nicht so viele, aber die halt dann in 'ner sehr guten Qualität und dass halt Lipsyncetera, da irgendwie perfekt funktioniert, sogar auch so, was andere Mutter, glaub ich, noch nicht können, 2 Sprachen praktischerweise in einem Shot. Und was, glaub ich, auch eine der großen Neuerungen da ist, sind ist sogenanntes Multisot. Das heißt, ich kann in einem prompt und mit 1 Generierung erwirken, dass ich 'n Video bekomme. Ich glaub, fuffzehn Sekunden sind das Maximum aktuell bei klingen, wo ich automatisch, wie es im Film auch wäre, unterschiedliche Kamerawinkel habe. Das heißt, ich kann irgendwie sagen, hey, machen, ne, eine Weitaufnahme von 2 Leuten, die sich unterhalten und dann einen Clos-up von der einen Person, dann 'n Clos-up, während sie das sagt und dann 'n Clos-up von der anderen Person, wer sie das sagt. Und das ist halt dann alles in den Kontext mit den Hintergründen, in dem Setting, wie's dort aussieht, dann alles für verfügbar. Und man muss halt nicht mehr, ne, selbst schneiden, gucken, dass dass die das alles übernehmen, sondern halt, ja, hat mehrere Szenen praktisch schon in einem einzigen prompt, was in den Beispielen megacool aussieht. Jetzt auch noch nicht die Möglichkeit gehabt, viel damit rumzuspielen. Aber ja, es es, sieht sehr cool aus.
Philipp
Genau. Und 2 Punkt 0 knüpft sich genau an das an, was Kling jetzt auch neu gebracht hat. Also man, Du hast auch dieses Multisot Generation, Du hast Editing. Was ich ganz interessant fand, ist, hab ich auf, ich hab's mal auch geschickt, vielleicht können wir's in die die Shownotes packen. Du hast dies sone Art zu Video. Also die haben verschiedene von 'nem 'ner Person, 'n Bild von 'ner Location und dann 'n 'n Motion Video, also eine komplett andere Person, komplett andere Location, die aber sich halt bewegt und dreht und auch wie die Kamera sich bewegt. Und dann kombiniert hast Du dann die Person von dem Bild in der Location von dem Bild mit der Motion von dem anderen Video, was sehr, sehr cool ist. Und vor allem, wodurch ich halt 2 Punkt 2 Punkt 0 gesehen hab, ist, so Copyright Material kann man damit scheinbar sehr gut generieren. Also ich hab komplette Episoden von 'nem Pokémon irgendwie gesehen, die extrem wie Anfang der Zweitausender, sag ich mal, aussehen, die im Fernseher kommen könnte von 'nem einfachen prompt. Da haben Leute 5 Bilder hochgeladen und 'n komplettes minutenlanges Video generiert, wo Schicki gegen Glumanda kämpft oder auch irgendwie vor allem in 'nem, sag ich mal, im Animebereich oder halt im animierten Bereich, was zu, hab ich gesehen. Es gab auch wie eine Art Realverfilmung zu, auf jeden Fall ja sehr interessant, aber auch mit Ton und kam heute, gestern, vorgestern und irgendwann raus. Und laut, was ich gesehen hab von den Leuten, soll es 'n bisschen besser als klingt schon wieder sein. Aber halt nur über API verfügbar. Ich glaub, alle 4 Modelle oder hat, gibt's irgendwelche, ist ist klingen oder ist definitiv nicht und ist auch nicht, also alles nur Produkt Slash API Modelle. Ja. Ja. Auf jeden Fall, wenn man sich damit begeistert und gerne mal sich selbst in einen, keine Ahnung, Folge darstellen möchte, wie man, keine Ahnung, Pikachu fängt, dann vielleicht mal reinschauen.
Dennis
Ja. Nee, das ist auch sone Sache, da hätt ich gern 'n bisschen mehr Zeit. Ich find das superspannend und halt cool, die Ergebnisse. Ich würd da gern 'n bisschen mehr rumspielen,
Philipp
aber Aber ich muss persönlich sagen, ich seh werbungstechnisch mittlerweile sehr, sehr, sehr viel KI generierten Content über Social Media hinweg verteilt. Ich schau jetzt jetzt nicht so krass wie Fernseher, aber alles, was so von Bilder oder Videos, seh ich doch sehr viel,
Dennis
KI generiert. Ja. Ja, also da sind ja auch Features dabei, die genau darauf abzielen, ne. Also was Du auch gesagt hast mit diesem, also irgendwie diese Elemente oder so was, die man da mit reinnehmen kann, ne. Wo man ganz genau sagen kann, hey, hier ist das Produkt, das soll genauso aussehen. Und das sieht dann halt auch im im NVIDIA so aus. Also da kann man kann man schon viel mit abbilden mittlerweile. Und ja, ich glaub, pricing mäßig, wie gesagt, sehr unterschiedlich, teilweise immer noch relativ teuer. Als ich mal eben reingeguckt hab, also von so 70 Cent pro Sekunde bis zu, glaub ich, am günstigsten mit 7 Cent pro Sekunde son bisschen die Range, in denen sich das aktuell noch bewegt. Judi, dann können wir noch einmal kurz Werbung machen für die Konferenz, wo ich sein werde, wo wir auch 'n Podcast aufnehmen in Dresden.
Philipp
Müssen wir jetzt hier so Werbung einblenden, weil's jetzt Videos gibt? Wahrscheinlich, ja.
Dennis
So Hashtag Hashtag Werbung. Okay. Hab ich. Genau, wo ist jetzt wo ist das Datum hier? Am zwölften März in Dresden. Und wo Jan rumspringen wird, im Europapark, Auch eine Konferenz findet am gleichen Datum statt am zwölften und dreizehnten März, sonst wären wir irgendwo zusammen hingegangen. Genau, also 2 Konferenzen, wo ihr die programmier.bar findet und gerne dazukommen könnt. Gut. Und sonst Feedback an Podcast at Programmier Punkt bar. Ich hab grade festgestellt, dass das Kontaktformular kaputt war. Moment. Ja.
Philipp
Arbeitet Courh. Hab ich, genau,
Dennis
hab ich halt auch angefangen. Das ist ja jetzt das neue, ich hab auch angefangen, 'n bisschen an der programmier.bar Webseite rumzuschrauben und unseren CMS und paar Workflows. Hast Du
Philipp
am Ende nicht gesagt? Oder hast Du das vergessen?
Dennis
Das hab ich vergessen.
Philipp
Ja, klar, klar.
Dennis
Nee, aber ich hab ja nicht so oft noch die nicht mehr die Möglichkeit, diese Hand zu machen und deswegen freut's mich grade mega, da 'n bisschen rumspielen zu können, auszuprobieren. Und genau, unter anderem jetzt auch so Mini Workflow, dass halt die E-Mails dann bald dann einfach in Slack bei uns ankommen und 'n bisschen klarer ist, wer darauf antwortet. Einfach so Mini Optimierungen, die man jetzt einfach mal parallel machen kann.
Philipp
Und dann gibt's dann at Claude, bitte antworte möglichst freundlich.
Dennis
Genau. Jo. Philipp, vielen Dank. Gerne. Ich wünsch dir 2 schöne Wochen.
Philipp
Ja, so.
Dennis
Dann sehen wir uns wieder. Bis dann. Mach's gut. Tschüs.
Feedback