programmier.bar icon
News 11/23 –

GPT-4 // Android 14 Dev Preview 2 // View Transition API // Rspack

17.03.2023

Shownotes

Neben privaten Hobbys geht es diesmal um Chrome 111, der als nettes Feature die View Transition API mitbringt.

Android 14 gibt es in der zweiten Developer Preview. Passkeys sind eine der Funktionen, die nun unterstützt werden.

Noch diese Woche soll GPT-4 released werden. Wir klären, was das Stichwort "multimodal" in diesem Kontext bedeutet. Ähnlich, allerdings über Umwege, hat Microsoft das mit Visual ChatGPT bereits veröffentlicht.

Ein neuer Bundler betritt den Ring: Rspack setzt auf Rust und soll ein Drop-In-Replacement für Webpack werden.

/transkript/programmierbar/news-11-23-gpt-4-android-14-dev-preview-2-view-transition-api-rspack
Hallo und herzlich willkommen zu einer neuen Programmier.bar News. Folge elf 23 mit dem Jojo und dem Pavian. Ich bin Dennis. Wir freuen uns heute ein paar Neuigkeiten aus der Web und App-Entwicklung euch näher zu bringen. Android 14 hat ein paar Updates, dann reden wir über RSS Pack. Was das überhaupt ist? Gibt ein bisschen was neues, was Chrom jetzt kann und natürlich darf nicht fehlen. Das gibt mal wieder ein neues Modell diese Woche über die vier. Vielleicht, wenn wir unsere Folgen veröffentlichen, sind wir schon wieder verlautet hat, weils schon live und draußen ist. Fabio? Ja. Fahrt ihr noch Skateboard? Ich nicht. Ich wenig. Aber ich will eigentlich mal vielleicht jetzt im Sommer mal wieder mit Schutzausrüstung sein. Aber hier vielleicht. Du hast seit dem gebrochenen Handgelenk nicht mehr drauf gestellt, sondern die Kinder. Nur damit du durch den Park. Aber sie stehen nicht drauf. Sie sitzen drauf oder knien drauf, aber trotzdem haben sie großen Spaß mit dem Wort. Aber ich habe es nicht sehr gut. Warum geht es bei dir los? Das. Hm Hm. Nein, mein Ding ist ja hier jetzt offen. Da muss ich oft dran denken. Das richtig gut. Hast du schon mal gemacht? Ja, Ja. Letztes Jahr. Ja. Ganz, fast. Fast zwei Mal so einen ganzen Urlaub. Und dann noch mal paar Tage auf Martinique damit verbracht. Das war immer so ein Traum von dir. Aber das ist schon gemacht. Ja, ist schon alles schon erledigt. Hat es auch direkt schon Date ausgemacht mit seinem Sidekick Carlo, die sich zum Kaiser treffen wollen? Ja, das macht es. Gibt ja jetzt auch so neue Modelle, wo du einfach nur so ein aufgeblasenes, so aufgeblasener Drache sind. Einfach nur eine Hand habe ich nur letztes Jahr auf dem Festival gesehen, die da mit so Boards dann durchs Feld gerollt. Also im Wasser heißt es im Frühling glaube ich benutz das gleichzeitig mit diesen Boards, die ja überall ist was es geht, weil du weniger Wind dafür brauchst und dann ist es einfach so ein Ding, was? Das soll körperlich deutlich anstrengender sein, aber gar nicht so schwer. Ich ich muss ganz ehrlich sagen, ich finde es sieht nicht so so mega geil aus unter diesem Ding zu hängen. Aber die Leute sagen also na, das ist ja total neues Ding und ist ein geiles Gefühl, weil es ist so schnell und du schwebt so übers Wasser. Und das ist so, wenn du einmal fährst, ist es das totale Freiheitsgefühl, was so ein, 2 Meter über dem Wasser. Sebi guckt Nerds mit coolen Hobbys, aber ich bin schon froh, wenn ein neues Format aus. Was ist denn dein cooles Hobby? Na komm, erzähl was Neues. Kann was bei Android denn los? Hm? Äh, ja. Wir können uns darüber unterhalten. Nee, nee. Was ist mit Chrome? Das ist jetzt eine Schnapszahl rausgekommen. Die 111. Oh, Schatz, Schatz. Okay, also, die Wirtschaft ist happy. Darüber wollte ich nicht erzählen. Die wurde letztes Jahr auf der auf irgendeiner Konferenz schon mal vorgestellt. Und jetzt Amsterdam. Es geht nicht um HIV, sondern um. Genau das wollte ich ausräumen. Dieses Verhalten. Juhu! Jetzt ist es richtig. Also gleich. Es spricht ja genau gleich aus. Juhu! Aber was die deutsche Übersetzung, die Einsicht in Stevie ist. Mir ist der Name dieser Konferenz nicht eingefallen. Ja, ist wohl Konferenz Google I/O Google io. Da wird es nämlich auch vorgestellt als Der Artikel, der die Beispiele dazu aufzeigt. Ist auch noch von letztem Jahr August und die letzte Revision an der Was Speck ist aber aus November. Sie sind da noch ein bisschen am Arbeiten. Um was geht es eigentlich? Also es ist eine API, die aktuell nur in Chrome implementiert ist, mit der ich Übergänge in Single Page Application s scripten kann per CSS. Das heißt, ich habe eine. Ich habe irgendwie den Zustand meiner Seite, dann kriege ich irgendwo drauf und dann baut die Sicherung um, weil dann vielleicht ne neue Seite geladen wird, so ab, ohne dass ich irgendwie auf eine neue Seite gehe. Und da ist es bisher noch ein bisschen schwierig, dass man da so schöne Übergänge hat, dass das so ein bisschen appmäßiger aussieht. Auf iOS ist das ja ganz schön gelöst, hat man meistens oder hat man oft, drückt man irgendwo drauf und dann Transitions irgendwie die Überschrift kleiner oder größer und die Inhalte kommen irgendwie reingerutscht. Und wenn ich dann wieder zurückgehe, passiert das Ganze wieder rückgängig. Also anders herum. Und bisher ist das Web immer ein bisschen unglücklich, diese Art von State Transitions zu bauen, weil man, wenn ich von einer großen Überschrift zu einer kleinen Überschrift oder von einem zum anderen oft nur ein Zwischenschritt habe, wo beide Elemente im Dom sind. Und ist dann. Dann muss das halt irgendwie ein bisschen bisschen umständlicher. Ähm, wie ich die dann positioniere und kann Probleme geben, wenn da Sachen klappen. Oder wenn diese beiden Elemente, die ich überblenden möchte, in komplett unterschiedlichen Hierarchien sind. Auf den in den beiden Zuständen heißt irgendwie ganz weit runter sortiere oder hoch sortiere. Oder die sind irgendwie gescrollt. Also es gibt viele, viele Sachen, die irgendwie also die man zwar lösen kann, aber die ziemlich kompliziert sind, zu lösen. Und da möchten die jetzt ansetzen und deren Lösung, die sie präsentieren, als dass sie ein Screenshot machen von der alten Seite und nun Screenshot von der neuen Seite und das Überblenden. So ganz ganz einfach gesprochen. Nur, dass ich jetzt diese Screenshots noch weiter aufsplitten kann. Also ich kann bestimmte Bereiche meiner Webseite Screenshots lassen und die dann per CSS überblenden lassen. So ist es erst mal nur Anmache, dann habe ich ein Crossfeld. Und wenn ich dann. Und dann kann ich in bestimmte Bereiche meiner Seite kann ich einen Namen geben. Und wenn der Name auf beiden beiden Zuständen, also im alten und im neuen Zustand, gleich ist, dann erkennt er das Logo. Das Element kann ich irgendwie überblenden und alle Elemente, denen ich einen Namen gegeben habe, die sind während der Transition auf einer Ebene, also so, dass ich ein Element, was vorher tief unten in meiner Webseite verschachtelt war, dem kann ich einen Namen geben und auf der im alten Zustand war das Top Level Element. Und diese beiden Elemente werden während der Transaktion dann auf die gleiche Ebene gelegt, sodass ich die dann hin und her schieben kann. Okay. Das heißt also, wenn du Screenshots von der ganzen Seite hast, aber schon, ja, macht Screenshots von den einzelnen benannten Elementen, die ihr dann überblenden kann. Und wann legt er diese Screenshots an? Das macht einfach so on the fly. Das ist nichts, was du vor definieren musst, sondern du hast es einfach da. Um das Ganze loszukicken gibt es nur eine JavaScript Funktion. Der. Wo ich nur. Wo ich sage jetzt fängt die Transition an. Dann erzeuge ich den neuen Zustand in dem Callback von dem Callback an der Funktion nach einem Aufruf. Und daher weiß ich jetzt die Aktion. Und ich fand die Beispiele irgendwie ganz schön. Dadurch, dass es aktuell eben nur im Chrome unterstützt wird und ich auch bisher nichts gelesen habe, wie die anderen Browser Hersteller aussehen, fand ich sowas cool irgendwie das mal zu sehen. Das ist, dass man daran arbeitet. Aber hätte da jetzt auch noch nicht irgendwie die Muße mir das genauer anzuschauen, ob es ne coole und ein cooler Zusatz zu dem, was man machen kann. Früher oder später möchten sie das dann auch für ganz normale Seiten Links anbieten, nicht nur für Single Page Application s. Ich glaub das auf jeden Fall ein cooler Anwendungsfall, aber das hast du ja schon oft im Web. Weißt du das du natürlich innerhalb von Seitenpages immer ganz gut Animationen machen kannst, aber dann letztendlich das so ein bisschen fehlt. Wenn man gefühlt dann irgendwie über eine Seite hinweg weiß, dass so ganz einfache Transitions wie das Layout oder Coveranimation, die dann irgendwie ausgeführt wird, aber genau das, was auch zum Beispiel versucht zu etablieren, zu sagen, wie kann ich Elemente innerhalb einer Page ineinander über Faden lassen, wo das ganz gute Ansätze gibt, ist natürlich etwas, was es im Web dann oder auf jeden Fall sehr schwierig ist, wenn du das haben möchtest. Und das wird natürlich durch diese API deutlich vereinfacht werden, dass man das ja wirklich nur über einen Namen definieren kann, welche Elemente gegeneinander über und werden dann überblendet. Und du hast wahrscheinlich nur die Möglichkeit, dieses Überblenden zu machen, oder es gibt da nicht alles machen was mit eins. Und es ist auch so, wenn du auf einen. Es kann ja sein, dass du einen. Sie haben in Ihrem Beispiel eine Video Galerie, wo du dann auf ein Video drückst und das Video dann groß skaliert, weil darin. Voll voll Screen Video Player sein soll. Und dann haben sie eben gesagt wie je nachdem, auf welches Element ich klicke, dann gibt man diesem Element den Namen und dann wird das im Hoch skaliert. Aber theoretisch ist man nicht eingeschränkt, was die Animationen betrifft. Bloß man kann auch für die Hintergrundfarben Hintergrundgrafiken, also zusätzliche Elemente irgendwie verwenden. Da habe ich ein Beispiel gesehen. Kennt jemand diese Batman Serie aus den 90er oder 80er oder so, wo immer dieses Batlogo zu drehen kommt? Leider nur als Screen Übergang und das heißt ich gibt der JavaScript funktion nur den Namen was animiert werden sollen. Den Rest mach ich innerhalb von CSS, wie es wie die Transition während dieser Bun sein soll oder wo definiert genau dieses? Also wo finde ich das CSS für die Transition im CSS, im CSS? Und da gibt es dann irgendwie ein Grid Elemente. Ja, Namen geben kannst du, kannst du dann den Elementen auch Namen geben? Ich meine, das heißt auch nur futuristischen Name oder zwischen Prophetie oder irgendwie sowas. Äh äh. Muss man jetzt sagen, wird Shantanu Group steht irgendwas? Was? Das. Es ist nicht nur Transition. Nein. Heißt das. Über den Namen kann ich es dann wieder finden. Und. Und hier ist es. Danke. Kann man mit rumspielen. Ansonsten mal gucken, wann die anderen Browser Hersteller das auch machen. Interessant fand ich noch der die Information, dass das theoretisch auch asynchron also dass ich immer wenn ich diese futuristischen loskicker dann kann ich theoretisch auch auf zum Beispiel das Laden von Fonts oder von Bildern warten in dem nächsten Zustand. Allerdings beginnt die Transition erst, wenn dieses Projekt läuft. Wurde also irgendwo draufdrücken, dann wird halt alles frei, zerrissen und stehen bleiben. Und erst wenn es dann geladen ist, geht's weiter. Und wir raten eigentlich davon ab. Aber theoretisch kann man es machen. Also ein bisschen wirst du es brauchen, oder dass du teilweise auf asynchrone Inhalte im Web warten muss. Wenn das Feature erst aufgebaut ist, was mit Information, die du nach Netz hast, möchte oder du musst soll auf der ich. Rein theoretisch kannst du nur Elemente, die es auf der Seite nach außen gibt, das heißt, müsst ihr eigentlich alle geben oder nicht und muss also was machen wie wenn da ein neuer Freund ist mit einem Text, dann muss der Inhalt der Seite und Spinner haben und nachladen und Kram oder? Aber genauso wenn man drauf drückt, müssen die Inhalte ja auch irgendwie geladen werden. Es ist dann wahrscheinlich nur interessant, wenn ich auf der Folgeseite erst was nachladen, wo ich hin Transitions oder so. Also das ist halt so eine Fragestellung, die oft nicht mehr flatterhaft wird oder so was macht was und was liest du schon vor? Gerade bei diesen Übergängen Muss ein paar Sachen dann schon wirklich vorhalten, damit du genau dieses Element, was vielleicht irgendwie dann überblendet werden soll, schon wirklich vollständig aufgebaut ist. Und das gerade solche Sachen, die habe ich dann nachgelagert geladen werden können halt dazu führen, dass es dann eben nicht funktioniert. Das musst du aber bedenken und dann ist das glaube ich schon echt eine Qualität. 911 Und das kam also nicht letzte Woche raus. Diese Woche ist auf jeden Fall draußen. Ich glaube erst im März, also vor zwei Wochen. Oh mein Gott, sind wir veraltet. Wer hätte gedacht, dass uns über dieses Thema länger unterhalten wir als über ganz offen? Wer hätte das gedacht? Wir haben uns extra vorher Hobby Themen überlegt, damit wir irgendwie die Folge voll bekommen. Und dann das wundert mich auch, wo wir doch hier im Kreis oder im Podcast eigentlich sind. Ja, ich hasse es echt. Ähmmm. Wie war das noch mal? Du gehst? Nein, das beantworte ich nicht. Diese Frage. Aber ich antworte. Ich gucke in die Runde und frage, was es Neues zu Android 14 gibt. Antwort 14 ist jetzt die Woche, letzte Woche, letzte Woche die zweite Developer-Life rausgehauen. Und es ist ja immer so wir haben die letztes Jahr auch ein bisschen drüber gesprochen. Es gibt ja Anfang des Jahres immer diese Pre Fugu Phase, wo dann eben noch Feedback gegeben werden kann zu den neuen Apps, die eingeführt werden. Dann ist ja eigentlich so ab Mitte März, April, dann so dieser Bitter Redis fax und wir sind jetzt gerade beim zweiten Preview und was sich dort getan hat, sind eigentlich vor allem zwei Sachen. Einmal so ein bisschen um die regionale, die regionalen Einstellungen zu erweitern, was ich mir meinen, wie ich mein Gerät adaptieren kann. Und zum anderen ist es eben auch so, dass vor allem im Bereich Security zwei neue APIs hinzugekommen sind, die sehr interessant sind. Und das erste in dem Prozess ist, dass es die neuen, einen neuen Manager gibt. Das ist eine neue Art zu Authentifizierung, die eben so als Jetpack Library angeboten wird und so einbinden kann. Da gibt es auch ein sehr gutes Tutorial auf der Android Seite, wie das zu verwenden ist. Und das ist vor allem letztendlich wirklich eine vereinheitlichte API über alle möglichen Arten, wie ich zum Beispiel, was für Unternehmen, wie kann ich machen, aber auch wie ich Partys einsetzen kann. Und das hat mir glaube ich vor einiger Zeit ja schon mal in den News. Ist ja so ein neues System der FIDO Alliance, das heißt fast identisch. Online ist die Abkürzung, wo es darum geht, dass in Zukunft Systeme geschaffen werden sollen, wo es halt komplett der Benutzer nicht mehr nutzt, nicht mehr genötigt wird, im Menü sein Name und Passwort auszuwählen, sondern alles irgendwie unter der Haube von dem Browser eigentlich ausgehandelt wird. Das ist so ein Public Private CI Verfahren, aber letztendlich wird dann auf dem Server nur der Public Viewer gespeichert. Ich habe immer mein Gerät, was ich durch biometrisches Anmeldeverfahren eben dann wie den Zugriff auf mein Pass Storage gebe und der überträgt dann eben einfach unter der Haube das entsprechende für einen Server, wo ich dann ja angemeldet werden kann und das ist eben direkt mit integriert. Da gibt es auch wirklich eine gute Beispiele, wie das integriert werden kann. Also ist jetzt wirklich auch so gefühlt, dass es wirklich da in die Umsetzung geht. Wird ja auch von allen großen Betriebssystemen zwischen unterstützt und das genau mit diesem, mit diesem Beispiel dazu kann man sich da auf jeden Fall ganz gut reinlesen und wird sehr gut erklärt, wie man mit diesen neuen APIs umgehen kann. Was eben auch im Bereich noch passiert ist, ist, dass es jetzt ein neues Recht gibt. Kann man das eigentlich nennen? Es gab es ja im April 13 kam eigentlich erst ein neuer Foto heraus, der dann die Zugriffsmöglichkeiten so ein bisschen anders gestaltet hat. Und jetzt gibt es eben ein neues Recht, so dass man letztendlich als App auch dem Benutzer sagen kann der Benutzer hat nicht nur Zugriff auf seine volle Bibliothek eigentlich freigeben, sondern man kann ihm auch dann die Option bieten, dass man nur für einige ausgewählte Bilder letztendlich dann den Zugriff gewährt. Also das ist einfach so, dass in dem Fall einfach ein entsprechender Dialog hochkommt, wo ich dann sage, wenn jemand Zugriff auf mein Foto Bibliothek haben will, will ich ihm Zugriff auf alle Fotos bieten, werde ich ihm selektiven Zugriff geben. Also das heißt, der Nutzer soll die Fotos explizit auswählen, die die App dann einlesen kann oder möchte es eben verhindern. Und da ist mir Eiweiss früher gewesen als Android. Das ist schon ein bisschen länger her und das wird auch mit einer neuen Permischen letztendlich dann abgebildet, das heißt Redmedia User selektiert und wenn ich das im anfordert, dann hat eben auch die App dann die Möglichkeit, dieses konkrete Recht eben abzufragen. Und bei der Personalisierung ist so, ich kann jetzt eben mehr meine regionalen Einstellungen anpassen. Es ist nicht mehr an feste Gebiete irgendwie gekoppelt und jetzt kann ich zum Beispiel einstellen, was meine Temperatureinheit ist, was der erste Wochentag ist oder auch die Darstellung meiner Zahlen, kann ich mir benutzerspezifisch einstellen, was es zusätzlich dazu gibt, dass es jetzt ein neues Event gibt. Das nennt sich Aktion Local Change und das wird immer dann gefeuert, wenn der Benutzer und sein Einstellung sozusagen seine lokale Einstellungen, seine Regionseinstellung geändert hat. Auf das kann ich mich dann registrieren und sprechen. Dann natürlich meine UI, dann anpassen oder man macht so wie iOS einfach immer komplett res Datenbank werden. Das ist schon nervig zum Testen lokal zu ändern. Erst recht, was sich dem zu nach getan hat. Eben auch ein bisschen die Performance optimiert für Android 14 und zum einen ist aber so wie jetzt Apps im Hintergrund haben deutlich weniger Möglichkeiten, Ressourcen längere Zeit zu halten. Das heißt, sobald ihm die App ein paar Minuten im Hintergrund ist, kann sie dann auch viele Services wie dem Bergmann nicht mehr zugreifen. Also es einfach sehr beschränkt auf dem, was wirklich so ein Background service machen darf, um einfach da so ein bisschen den Ressourcenverbrauch, den Speicher Verbrauch oder auch CPU Verbrauch zu reduzieren. Ähm genau jetzt könnt ihr inzwischen auch in Android Studio. Giraffe sagt man wahrscheinlich Giraffe. Ausprobieren. Falls ihr euch für die das System jetzt schon entwickeln wollt und könnte es einfach auf verschiedene Pixel Gerät nehmen. Schon da gibt es schon System Images für oder auch auf dem Emulator ist es dann mit Android direkt ausführbar. Sehr gut. Seit wann haben die schon immer auch so Tiernamen? Android Studio? Bin ich sicher Sie man auf jeden Fall, an die ich mich erinnern kann. Der Peter Bild ist nämlich Flamingo. Ist auch gerne auf Safari, denn es ist. Das heißt, vielleicht geht dann auch die Musik mal aus, wenn man so eine Android App hat, die oftmals eine Werbung ist, in welche Sachen das Transitions nicht richtig Rücksicht mehr. Das kommt aber im Mai oder Juni. Also der. Im Mai ist dann der Start von dem Redis und dann ist es eigentlich immer erst Anfang August September, dass wirklich der Final rauskommt. Und das ist eine relative lange Phase über fast vier Monate. Ist das ein bisschen Warten, aber für die Entwickler auf jeden Fall interessant, sich das schon mal anzuschauen, was da passiert. Endlich gibt es einen neuen Webhandler. Lange habe darauf gewartet. Der In Rust ist endlich unten. Einfach zu merken, den Namen hatte er Pack. Wahrscheinlich wegen Rust und Pack würde ich mal tippen und nicht mehr weit aus dem Fenster. Den würde mal wieder ein JavaScript ller, diesmal aus der Schmiede von Byzanz, also dem Hersteller von Tugenden China und vielen anderen Tools. Und genau die haben einen Wandel entwickelt, glaube ich letztes Jahr. Sie haben geschrieben, letztes Jahr die Entwicklung angefangen, jetzt seit März 23 auch OpenSource und. Mal wieder natürlich mit Benchmarks daherkommen, im Vergleich zu Webpack viel, viel schneller. Und ich war erst ein bisschen verwundert, weil ich die Benchmarks gesehen. Okay, wenn ihr irgendwie. Alle anderen Wandler vergleichen sich ja jetzt auch mit der gesamten Wandler, dem gesamten Wandler Ökosystem. Aber bei Respekt war nur der Vergleich mit Webpack. Aber wenn man die Idee hinterher respektiert, versteht man auch warum. Weil Respekt ist so ein bisschen bei Zeit geschrieben. Auch Waren haben es gemacht, weil sie ihre ganzen Großprojekte auf Webpack aufbauen und sie halt bei ihren großen monolithischen Applikationen echten Riesen Impact hatten. Was halt Bild Zeiten angeht, hat Macky Replacement beim Startup, wenn sie Empowerment ausgeführt haben und das ist alles einfach einen großen Applikationsmesrunning, diese Pipelines, also sie sieht die Pipeline bei Ihnen und das heißt da irgendwie Performance rauszuholen, hat einen großen Impact und Größe. Bottleneck sagen sie, ist halt die Parallelisierung von JavaScript und sehen aber trotzdem, dass so so die Lösungen wandern, die da draußen sind, nicht so wirklich ihren Anwendungsfall erschlagen. Und dass die ganzen Konfigurationsmöglichkeiten von Webpack natürlich mit den ganzen Wandlern, die es dort gibt, auch viele Möglichkeiten einfach bieten, das Panel genauso zu machen, wie man sich das Ganze vorstellt. Das heißt, was Ihr Ansatz ist, mit Respekt ist, Webpack zu nehmen und einfach performanter zu machen. Das heißt, Sie haben das Core von Webpack in Rust geschrieben. Sie haben bestimmte Bandler, die oder bestimmte Loader, die großen Performance wie zum Beispiel Babel oder oder ähnliches haben sie direkt in Rust entwickelt, sodass man bestimmte Loader, die man vorher bei Webpack gebraucht hat, dann nicht mehr braucht und bieten aber auch schon Hot Money Replacement alles an, das heißt am Ende soll es eine Job und Replacement für Webpack sein. Die Konfiguration muss minimal angepasst werden, aber man soll alle Features von Webpack haben Rust basiert deswegen schneller und die Core Wandler, die einen großen Impact auf die auf die man Geschwindigkeit haben ist direkt nativ implementiert in in Art Pack. Und ich glaube, dann versteht man auch so ein bisschen den Unterschied oder warum sie es jetzt sozusagen gemacht haben. Wenn man es dann kann man jetzt natürlich mit wie Turbopack usw. vergleichen. Ich aber am ehesten der Vergleich noch mit Turbopack, wo Sie halt sagen, dass Turbopack A komplett Redesign ist, was Architektur und Konfiguration ist. Das bringt natürlich einige Benefits mit sich, aber es hat hat er doch hohe Migrationskosten und darauf hat er auch sind sehr große Applikation. Werden die so ein Wandler mal einfach so austauschen ist jetzt eine Frage wie in unseren Projektgrößen machen das noch einfacher aber dafür ist Pack am Ende da. Du hast Webpack Webpack ist die zu langsam, willst es schneller haben und das soll das Drop und replacement dafür sein? Also wenn man es jetzt auch mal anschaut oder irgendwie der die Migration Guide da sind, ist echt relativ wenig. Was dort zu tun ist. Hat auch so Dinge wo die sagen, hier, wenn du den Babel oder an der und der Konfiguration hast, kannst du einfach rauswerfen, dann machen wir das. Wenn du hier dann noch ein paar Spezifika hast, dann musst du aktuell noch den Babel oder nehmen. Und das kommt ein bisschen zu dem Punkt. Es ist noch nicht die komplette API von Webpack ies implementiert, die sind noch dabei. Ist wie gesagt jetzt gerade ein Jahr alt. Ich glaube, sie haben geschrieben in den Projekten bei bei. Zweitens, wo Sie jetzt eingesetzt haben, haben Sie geschrieben, kommen ins Internet Projekte, die auch im Falle Totentanz, improvement, Moving from Webpack ures Pack und Sie sehen noch weitere weiteren Raum für Optimierung. Aber zum Beispiel aktuell geht noch nicht, weil der View Loader APIs nutzt, die von Auspacken noch nicht implementiert sind, aber sie sind sehr stark daran. Ich mein weiterhin, es ist ja durchaus auch bekannt für Geschwindigkeit. Es ist noch nicht mein altes Projekt und sieht schon relativ solide aus, auch von Dokumentation usw. und solide. Es wird auf jeden Fall komplett unterstützt und klingt auf jeden Fall ganz interessant und ich zumindest, wenn man sich damit beschäftigt, verständlicher Use Case und vielleicht doch noch eine Daseinsberechtigung für einen weiteren Loader in diesem, in dieser Welt, für einen weiteren Brand oder so und so? Auf welchem Band er zurzeit eigentlich ist. Das kann ich. Was? Was sind meine Alternativen? Außer Respekt. Und wie war das von Turbopack Turbopack Irgendwas? Wird verwendet zu nennen. Und der Royal Opera Club. Stimmt genau. Test-driven development. Das ist erst Bildproduktion, oder? Weiß nicht genau, das unterschreibt hier als Päckchen im Vergleich mit anderen Bannern. Schreibt weit auf. Aber klar, bei The Three Lions und schon Vorproduktion. Bild erst recht. Also nur für die Produktion. BILD Und dann können wir nur noch ein bisschen in die Glaskugel gucken, weil ich hab eine Vorstellung von Microsoft, wo sie bisschen über KI gesprochen haben und in Deutschland war das eine Veranstaltung. Genau. Ja, es war eher ein Deutschland Veranstaltung und da hat halt einer recht deutlich gesagt, dass diese Woche Cebit, die ihr rauskommen soll, also dass die neue Iteration des bekannten Sprachmodells, dass das von Open Air entwickelt wurde und ja, das was man munkelt oder was da auch noch mit einher kam, dass das Multimodale ist. Das bedeutet einfach, dass es unterschiedliche Arten von Eingangsquellen und letztendlich auch Ausgangssachen interpretieren verstehen kann. Sprich es kann mit Bildern interagieren oder mit denn Sprache und dann letztendlich und kann auch alles diese unterschiedlichen ausgeben, zumindest in der Theorie. Ob es dann von vornherein alles diese Sachen kann, ist fraglich. Aber es kann eben dann nicht nur Text verstehen und nicht nur Text ausgeben, sondern beispielsweise auf Basis von Bildern. Ja das ganze starten am da wo es diese Whisper gibt. Man kann dann direkt Audio Sprache. Kann ich mir vorstellen. Ob Sie das dann direkt machen? Ja, und dann haben wir schon ein fertiges Sorry. Neues und Gutes. Auch ein Gutes. Nicht nur, was auch Bilder generieren kann, weil es keine Antwort im Internet findet. Auf vier Minuten vier Stunden Timer läuft ja. Und was tatsächlich auch erst vor kurzem Microsoft auf ihrem GitHub Account released haben, ist etwas. Das nenne ich Visual Chat CPT. Was eigentlich? Wenn ich es recht verstehe, es jetzt schon mal so einen Vorgeschmack auf das, was da kommt, aber was jetzt schon funktioniert und zwar ist das Sie verbinden Chat, CPT und auch andere Large Language Models da draußen gibt mit anderen Foundation Models nennen sie es aber einfach Models, die andere Sachen können, wie beispielsweise Bilder generieren und deswegen kann dann Chat CPT mit Dolly reden und man hat halt nicht mehr ein Dolly Interface, wo man diesen für das Bild reinschreiben kann, sondern man kann beispielsweise schreiben Hey, mach dir mal ein Bild von der Katze, dann kriegt man ein Bild von einer Katze zurück und kann dann sagen auf der Katze. Also da ist sie, das Beispiel, da ist ein Buch, eine Katze zu sehen ersetzt man würde die Katze durch einen Hund und mach das Buch weg und dann hat man eine Möglichkeit, einfach über natürliche Sprache, Text, Sprache, diese Interaktion und die Manipulation der ganzen Bilder zu machen. Aber man muss das nicht irgendwie selbst über ein Interface dann schreiben oder darum zu machen. Also es verbindet an der Stelle schon letztendlich unterschiedlichste. A Bildgenerierung, Modelle und Konzepte. So stelle ich mir das vor. Das war's dann. Ich weiß ja gar nicht, wie der Schritt sein wird, also geb ich vorerst erstmal nur das Modell auch erst mal wieder. Also das findet man schon direkt einen Enduser nutzbares Tool, was dieses Modell nutzt. Oder ist der Release das Modell sozusagen nutzbar? Wahrscheinlich schon im Sinne von. So wie du die drei oder die 3.5, wie es heißt, weil auch nutzen kann es per API. Also ich denke es kommt auf, ob sie es direkt Konversation trainieren das ja was letztendlich mit dem Chat gibt gemacht haben es entweder drei oder drei fünf so trainiert, dass es besonders gut in Konversationen ist. Ob Sie das direkt mit dem Ihrer Modell machen oder das ein zweiter Schritt ist, habe ich da jetzt nicht rauslesen können. Wenn, dann würde ich meinen, sie haben ja nicht so lange dauern, bis es komplex ist. Aber Konversationen zu trainieren, das war ja für Sie ein bisschen der Durchbruch, wenn Sie da natürlich jetzt. Also Sie haben bestimmt selbst das, wenn Sie selbst erkannt haben, das Bestreben, es auch so zu trainieren. Das ist ja schon so die nächste Iteration Stufe eins dieser Modelle oder dieses Multimodale einfach wirklich mehrere Informationsquellen verarbeiten, die kombinieren, verstehen zu können. Ja, ich glaube, da hatten wir auch schon auch schon relativ lange her, vor einem Jahr oder so irgendwie auch schon mal drüber gesprochen, was das war, was Google damals war. Und die dieser Forschung soll das nämlich gleich können. Und eigentlich war immer so meine Erwartung, dass daraus auch das multimodale Aber jetzt haben sie schon wieder das ziemlich schnell gerissen. Aber ich glaube, ist das nicht sogar zwei Jahre her und das letzte kann zwei Jahre her sein? Ja, was? Auf jeden Fall. Ja, am Ende wird es immer so sein. Ich meine, wir haben jetzt einmal gesehen, dass es relativ disruptiv schon sein kann für viele Sachen, für andere Zwecke. Und das wird jetzt noch ein bisschen verfeinert und es wird uns weiter beschäftigen dieses Thema und weiter sehr spannend sein, als ich es mitbekommen. Oder hat mir schon gesagt, dass Google zurückgerudert hat, was Bart betrifft und ich habe es nicht mitbekommen. Aber ja, vielleicht habe ich mich dann verlesen. Das hätte irgendwie so, nachdem die Mitarbeiter irgendwie auf die Palme sind, haben sie da das irgendwie noch ein bisschen verschoben. So, nachdem die Hecke habe ich nicht auch nicht mitbekommen. Und noch eine man könnte es fast als Piece of the Day eines Kollegen nennen, der in unseren Developer News gerne gepostet hat. Eine lustige Art, den ich weiß nicht, ob es auf Codex. OpenAI Kodex basiert. Falls man zu wenig Spaghetti Code hat, dann gibt es jetzt Spaghetti für Death. Und damit kann man seinen Code in verschiedensten Varianten unschön machen. Man kann Bugs einbauen, die sehr schwer zu finden sind. Man kann Variablen umschreiben. Man kann es. Man kann sagen Ich weiß, was wir sehen. Man kann es mit Emojis dokumentieren. Einfach komplett alles. Ja, also, weil es wirklich Langeweile hat, ist das euer Tool, um sie zu nutzen? Um Code schlechter zu machen. Schön, dass du das nennst. Ja, mach ein schönes Logo. Und ich habe auch die Seite zu gehen. Bei der Vorstellung von Sympathie vor oder bei dieser Pressekonferenz war noch interessant, dass sich keiner zu Bing geäußert hatte. 15 Jahre oder so.. Ach, egal. Das haben wir vielleicht mal irgendwo geparkt. Das Thema. Meinst du, weil er so viel Quatsch am Anfang passiert ist? Ja. Sagt keiner mehr so.. Haben die das nicht schon irgendwie deutlich verbessert bekommen? Ja, die ersten Tage. Der Fabi hat's. Ich habe es nicht ausprobiert. Ja. Ich habe es dann einmal aufgemacht und seitdem nicht wieder geöffnet. Also, es braucht die Comics denn schon. Aber es war auch. Ich fand auch bei dem, bei dem es stinkt, bis ich da. Ich habe so oft nehme bekomme. Ich bin jetzt angeblich freigeschaltet bis ich irgendwann wirklich mal dieses Menü gefunden habe. Es war. Na ja, ich habe mich dann ja. Dann gehe ich. Dann gehe ich lieber OpenAI direkt und unterhalte mich damit auch nicht direkt. Ich weiß nicht. Trotzdem keine Lust auf Edge, Also hat es auch noch nichts gebracht. Zum Installieren gebraucht, vielleicht ein paar Leute hängen geblieben und haben gemerkt Edge und mit Bing ist doch besser. Sehr gut. Ich habe mich auch wieder auf eine Wette setzen lassen für den Microsoft Designer. Nennt sich ja auch ganz gut. Auch ein Tool, wo man letztendlich auch nur weiß ich nicht. Also für so Marketinggrafiken oder sowas. Man kann Titel angeben, irgendwie Bilder hochladen und einfach nur ein Thema machen. Und auch da ist es wieder so was Microsoft es ist auch da eingebunden haben werden praktisch komplette Grafiken mit Text mit usw. Werbeslogans werden komplett automatisiert erstellt. Ähm, zeigt ganz cool aus, nicht? Wenn ich da mal Zugang habe, teile ich das noch mal im Detail. Vor allem bei den Texten ist das was, was die Images nämlich, das gefehlt hat. Ja, es ist nicht so spektakulär, diese Texte da oben drauf, aber immerhin. Interessant. Ja, den Weltladen hatten wir lange nicht mehr hier im Podcast. Das stimmt. Nein, dafür wäre es was. Aber immer wieder gerne. Aber da wäre es tatsächlich, weil die haben jetzt ein neues Kassensystem eingeführt und haben die vorne so Tablets als Kunden Display wo man dann den Warenkorb und so was sieht und da auf beispielsweise so eine Aktion irgendwie 15 % auf weiß ich nicht was und Katzen da sind ja auf Katzen. Und ja da gibt es keinen der mit 60 Jahren noch irgendwie so Grafiken erstellen kann. Auch ein simples Photoshop mit einem Format, die erhoffe ich mir, wenn das so ist. Da gibt es einfach einen Satz, dass das Thema zum Ersten Bild passen. Text drüber, easy PC. Habe ich schon einen Anwendungsfall. Das ist cool. Ich musste mir vorstellen, wie. Wieso Microsoft Design? Sie saßen so zusammengelegt. Wohl. Wenigstens was. Ich stelle mir vor, so was wie der Weltladen. 60 wird es nicht mehr machen können. Ich kann selbst keine Grafiken erstellen. Kann hier einfach was eingeben. Ah! Fantastisch. Vielen Dank. Das habe ich. Danke. Feedback an Programmier.bar Kontaktformular oder an unsere E Mail Adresse. Podcast programmier.bar. Früher. Das waren noch Zeiten, da musstest du das immer aufsagen. Du musst aber noch Twitter und Instagram Kram machen. Das weiß heute niemand mehr auf Twitter. Das kommt gleich programmier.bar. Aber erst mal Kompliment an euch! Also nicht euch, die ihr sitzt, sondern unsere Hörer. Ihr schickt viel Feedback in letzter Zeit. Ist cool. Schick gerne mehr. Wieso ist Twitter nicht irgendwas mit. Add Programmier.bar. Unser Handel ja, aber Twitter ist sowieso Cannabis und bald haben wir auch unseren Mastodon programmier.bar Server schon mal. Was? Du willst das machen? Da ist doch keine Zeit. Da muss ich ja liefern. Wenn es jedoch. Wenn ihr eine sehr schöne Woche euch wird bald. Mach's gut. Ciao. Es.

Verwandte Podcasts

  • 18 Ai News

    News AI #18: Apple MM1 // Mistral // Grok // Inflection & Microsoft // Open Interpreter

  • News Asset 10

    News 10/24: PWAs & iOS 17.4 // JSR // Pingora & freenginx // WSA & Windows 11

  • 135 Not Deep Dive

    !Deep Dive

  • 08 Ai News

    News AI #8: OpenAI DevDays // State of AI // DallE3 // Zephyr // Fuyu 8B

  • 07 Ai News

    News AI #7: Cloudflare AI - Serverless Workers, AI Gateway, Vector DB // Meta AI // LeoLM // Mistral AI 7B // LocalPilo

  • 05 Ai News

    News AI #5: Falcon 180 B // SD XL 1.0 // IDEFICS // GPT Finetuning // CodeLlama // Coreweave 2.3B$ AI Kredit

  • News 30 23

    News 30/23: Valibot // Twitter wird X // Microsoft Cloud Probleme // Google Street View // GPT4 wird schlechter

  • News 28 23

    News 28/23: Tailwind 3.4 // Threads // Vercel Skew Protection // ChatGPT-4 API

  • News 26 23

    News 26/23: Svelte 4 // Langchain & Colab // Google I/O Connect Amsterdam

  • 02 Ai News

    News AI #2: Vercel AI SDK // Cohere Series C // Orca // Otter // Open Llama // The False Promise of Imitation Proprietary LLMs

Feedback
[object Object]