programmier.bar icon
News 22/23 –

Microsoft Build // Firebase Google I/O Updates // Astro 2.5

01.06.2023

Shownotes

Heute reichen wir alle Neuigkeiten zu Firebase nach, die auf der Google I/O veröffentlicht wurden.

Astro kommt in einer neuen Version 2.5 und die wichtigsten Neuigkeiten werden von Sebi zusammengefasst.

Die Microsoft Build hat stattgefunden und wir fassen für dich zusammen, was es an Neuerungen aus der KI und Nicht-KI-Welt gibt. In der heutigen Zeit ist Letzteres nicht so einfach ;)

Unsere Microsoft Build News:

/transkript/programmierbar/news-22-23-microsoft-build-firebase-google-i-o-updates-astro-2-5
Hallo und herzlich willkommen zu einer neuen programmier.bar News Folge 22 23 haben wir heute mit dem Sebi, dem Fabi und dem Jojo. Ich finde das. Wir freuen uns, dass ihr wieder dabei seid und haben heute drei Themenblöcke dabei. Einmal noch mal ein bisschen Google er Rückblick, aber diesmal auf dem Thema Firebase. Also was gab es alles rund um Firebase bei der Google SEO zusammengefasst. Dann ist die Microsoft Bild passiert. Das ist eine Konferenz von Microsoft. Ist das die jährliche Entwicklerkonferenz für die jährliche IT? Microsoft macht auch so Konferenzen. Und das ist nur so passiert. Jetzt ist nur Microsoft mit so was passiert. Eigentlich interessiert dieses Mal. Das jedenfalls ist wahrscheinlich die größte Entwicklerkonferenz der Welt. Aber es ist das erste Mal wieder in Person. Ich zitiere dich gar nicht mehr. Gut drei Jahre. Genau. Und wir splitten. Das glaube ich ein bisschen nachher. Item und nicht Tim. Nein, das ist es So oder nicht mehr. Egal. Dafür verfiele Themen. Okay, es gibt viele Themen. Mal gucken, was wir so machen. Und dann reden wir noch über ein Update von Astro. Am Anfang unserer Folgen müssen wir immer so zehn Sekunden Schweigen auf Stille aufnehmen, weil das besser ist. Dann um ein eventuelles Rauschen rauszurechnen. Danach für Call, der unsere Folgen nachproduziert. Aber jo jo, das ist ja für dich jetzt kein Problem gewesen, gerade zehn Sekunden zu schweigen. Du hast dich am Wochenende länger schweigen. Ist das. Ja, ja. Ich habe am Wochenende auch mit zwei anderen Kollegen ein Schweiger Outfit gemacht und das war eine sehr spannende Erfahrung als. Es ging darum letztendlich, dass man seine Meditationspraxis ein bisschen vertiefen kann. Und ich habe alle schon vor meditiert. Also genau, wir machen das hier eigentlich jeden Morgen zusammen und das ist eigentlich damals entstanden, dass wir halt ich und der Kollege identifiziert haben. Ich habe mich eigentlich früher als sehr viel mit verschiedenen Meditationspraxen und Praxen auseinandergesetzt und aber das war lange Zeit eingeschlafen und er hat das auch im Studium sehr viel begleitet oder begleitend gemacht. Und dass wir dann beides festgestellt haben. Beide haben ein großes Interesse daran und lass uns einfach gemeinsam meditieren. Und das haben wir jetzt seit einem Jahr eigentlich sehr regelmäßig etabliert, dass man sich morgens halt zehn Minuten zusammensetzt, ein bisschen zu sich kommt, sich sammelt und er hatte dann den Vorschlag Lass uns doch das mal ein bisschen intensivieren und eben dieses Schweigerich red rausgesucht. Und es war nicht nur so, dass man komplett geschwiegen hat diese vier Tage, sondern dass man sich auch nicht in die Augen schauen konnte. Es war eine Gruppe von acht zehn Personen, die dort vor Ort waren und man hatte so am Anfang noch so eine kurze Kennenlernphase, Runde, dann gemeinsames Abendessen. Aber danach war es eben so, dass man da komplett in sich kehren sollte, was einfach auch hilft, weil gerade wenn man halt auch wirklich nur visuell miteinander in Austausch geht und sich anguckt, ist man dann doch nicht so ganz bei sich. Und es ging wirklich darum, halt diese vier Tage komplett bei sich zu sein. Und ich hatte eigentlich gedacht, okay, es ist für mich einfach nur mal so ein war ja so ein Event, wo man so ein bisschen zu Ruhe kommen kann, bis vielleicht Stress abbauen kann. Aber es hat einem sehr viel offenbart, wie vielleicht hier noch mancher funktioniert und was man vielleicht auch manchmal in der morgigen zehn Minuten Meditation in dieser Tiefe gar nicht erreichen kann. Also dass man schon feststellt, einfach wie viele Programme einfach unterbewusst ablaufen und die, wie ich finde, ich sage Dinge einflüstern, aber einfach so solche Muster einfach dann aufbrechen, aufkommen und dich beeinflussen, ohne dass du überhaupt mitbekommst, woher das kommt und immer das Gefühl hast, Du, das sind deine eigenen Gedanken und da so wirklich verstehen konnte. Manchmal sind das eigentlich Gedanken, wo du gefühlt so daneben stehst und eigentlich nur gerade betrachtest. Wo kommt das denn gerade her und auch sehr stark in mir. Wesenszüge von dir, die sehr tief verankert sind, so manchmal sehr genau identifizieren kannst und so ein bisschen hinterfragen kannst. Ja, wie sind die entstanden und wie kann ich vielleicht in mir diese auflösen? Was hat es letztendlich getriggert und guckst nur hin, wenn ich in die Augen. Du guckst dann immer so ein bisschen auf dem Boden und du darfst die Leute schon angucken, Du darfst ihn nur nicht in die Augen gucken und du kommunizierst ja nicht miteinander, so jeder so für sich. Und es war halt so, dass verschiedene Meditationspraxis, also Methoden, eigentlich angeboten wurde. Man hat also gehen Meditation oder auch so klassische Meditation aus dem Buddhismus, dann moderne Meditation, auch geführte Meditation, sehr viel aus dem Bereich des Messer, das hier etwas von von John Qubit Bitcoin in den 70er 80er Jahren eigentlich hochgebracht wird. Was auch immer von vielen Entwicklern genutzt etwas an eine sehr etablierte Technik ist, wie man sich einfach zur Ruhe bringen kann, sich fokussieren kann. Und da waren so verschiedene Bestandteile, dies aber gleich für jeden einfach sehr zugänglich gemacht haben. Und eigentlich wäre es geiler das wenn man es alleine machen also das ist mit 18 Leuten einfach nur weil diese dann geführten oder es gibt ja Inhalte sozusagen nur noch konsumiert damit das in der Gruppe ist. Aber so vom Setting wär es eigentlich besser wenn du alleine wärst. Also es ist natürlich schon so, dass es auch hilft, dass es in der Gruppe machst, dass es gefühlt auch so ist, Das einfach so ein gemeinsames Meditieren, das einfach noch deutlich intensiver macht. Also dass man gefühlt auch immer so die Ruhe der anderen spürt, die dich selber so ein bisschen runterbringen. Ich bin nicht jemand, der das großartig esoterisch. Konzept sehen wir dahinter, vermutet aber, dass man doch merkt, dass es einen beeinflusst und auch motiviert, natürlich mit dabei zu bleiben. Ach so, wirklich, dass ich gemeinsam mit Ration Speaks am Morgen hilft? Einfach sehr stark das und Regelmäßigkeit reinzubringen. Und er hat das durchgezogen. Drei Tage lang nicht zu sagen. Manchmal sind einem so einzelne Begriffe rausgerutscht. Aber ja, ich habe es auch nicht so genau abends. Es ging eigentlich auch recht lange. Wenn es morgens um 6:50 hat es begonnen, dann warst du eigentlich bis um 22:00 dort vor Ort und dann bist eigentlich direkt ins Bett und hast eingeschlafen und Erholung geholt. Ich durfte meiner Biolehrerin für auch nicht in die Augen gucken. Bei wo hast du angeguckt? Die hat einen der dann angeschissen wenn man wenn sie was erzählt hat. Man hat in die Augen geguckt, weil sie gesagt hat, es ist wissenschaftlich bewiesen, dass wenn man Leuten in die Augen guckt, das man dann nicht zuhört. Man kann nur zuhören, wenn man der Person auf den Mund guckt und sie hat daran abgelesen. Wenn wir ihr die Augen geguckt haben, dass wir nicht zuhören, da wird man Anschiss bekommen. Oh, eigentlich geht es ja darum, dass immer dieses Dreieck zwischen Auge Mund im Sinne Fokus nimmst, was unsere positive Kommunikation irgendwie herzustellen. Ja, sie wollte keine positive Kommunikation. Wahrscheinlich genau. Nein, das war in in der Nähe von Salzburg. Also dann ist euch eine sehr schöne Kulisse. Natürlich mit den Bergen das in die Zentrum Mondsee. Also kann man jeden empfehlen, der vielleicht einmal so eine gewisse Meditationspraxis hat, das irgendwie mal vertiefen möchte, da mal reinzuschauen. Vielleicht ist das auch etwas für euch. Vielleicht kann man einfach die zehn Sekunden stehen am Anfang jetzt ab jetzt ausweiten und auch eine Minute draus machen oder sonst irgendwie genervt. Aber ich bin wirklich, dass es gemacht hat nicht ist, wenn zwei unqualifizierte Kommentare so abgewertet werden. Ich finds cool für 10.000 teilen Sie wie? Was hast du am Wochenende gemacht? Ich hab auch viel geguckt auf Deutsch, aber auf Englisch in neun auf Englisch ist das auch wieder so eine echt Verfilmung? Ja, es funktioniert jetzt mit jedem Disneyfilm. Ja, ich glaube, ihr könnt da durchaus eine Realverfilmung ist, schränkt es schon so ein bisschen die Fantasie ein. Also die hat ja auch die Revueunter dem Meer usw und alle alle sind glücklich und keine Ahnung. Im Zeichentrickfilm haben die Fische halt irgendwie Gesichter und können Instrumente spielen und so kriegst du halt mit echten Fischen nicht so gut sind sie nicht. Keine viel Weise und auch irgendwie nicht so viele Instrumente unter Wasser. Also es hat ein bisschen eingebüßt an der Fantasie und der Farben. Fröhlichkeit ist ja sonst identische Platte, also auch textlich typisches. Ich habe den Zeichentrickfilm nie fertig geguckt deswegen. Ich hab jetzt mal iserie geguckt. Es gibt eine Serie Arielle. Die Serie Es ist doch Maria gibt es doch auch als Ich glaube auch. Ja, das ist ja ne, das ist doch mit das ist doch das ein Fabian, der der über wechselt. SpongeBob Nein, wie heißt denn diese Krabbe? Diese. Ist das nicht unter dem Meer? Ja. Sebastian, Die Krabbe. Sebastian. Die Krawatte wackelt. Ich habe irgendwie so was, oder? Das Arielle gibt es auf jeden Fall sehr. Ich habe im Film geguckt. Findet Nemo. Nein, nicht in die Waschmittelwerbung. Ach so, dass Arielle, mein Freund. Zeichentrickserie, natürlich mit Paul gewaschen sind. Zeichentrick, Zeichentrickfilme, Zeichentrickserien. Wenn sie denn die Updates so Astro zwei fünf besser oder den Film hab bei den Miniaturupdates. Ich finde natürlich Astro besser. Es gab es mal ein neues was für eine Überleitung ins ontopic ähm da völlig überfordert sein. Es gab eindeutig Folgen von Ariel. Danke. In drei Staffeln von Astro gab es vielleicht schon 25 Versionen, um mal zeigen zu können. Es ist ein Framework um Webseiten zu bauen, also so was wie Nagst oder Next oder Also nicht gesehen. Craig Also wie auch immer die ganzen Sachen heißen und Astro ist, es ist das Besondere daran, dass das Frontend Framework agnostisch sein möchte oder sagen Oder ist so viel die Miniatur Einleitung dazu? Ich hoffe das richtig, aber es lässt sich gut damit arbeiten. Und Sie haben ein Konzept, das sich viel mit Mark Down sagt, doch das heißt sollte und magister down Dateien hantieren kann. Ich kann dir einen Ordner ablegen und kann dann in dieser Collection also diese Ordnung heißt bei Astro Collection kann ich typsicher auf diese Dateien zugreifen. So ein bisschen der Clou an der Sache, dass es um die typsicheres Mark down wobei das und die zusammen schon etwas besonderes ist. Und in der Version zwei fünf ist jetzt dazugekommen, dass ich auch typsicher auf Jason und auf Sammelfalls zugreifen kann in einer Collection. Und das hat zum Beispiel der Anwendungsfall. Wenn ich hier Lokalisierung machen möchte, dass ich nur an Jason Datei und Jason Fall für Deutsch, für Englisch und für meine französischen Strings habe man. Typsicher auf die einzelnen Cis zugreifen. Und wie wird da das Schema definiert? Ist das dann z. Anders Z. Z? Ja, ich habe es immer mal gehört, aber gerade jetzt Parodie. Also ich weiß nicht, ob der Titel, der beschrieben ist für Windows oder auch auch um. Um das Pasing von. Also generell Schema, Validierung oder dergleichen. Ich bin nach St. Dieses die Server seitigen also die die absoluten in kannst du das auch haben jetzt mal drüber da diese H3 da ist ja dieses WP und die nutzen auch h3 z oder sind Abwandlung davon erzeuge um Schema zu validieren. Was haben die gesellschaften und damit machen sie auch jetzt genau Validierung ja. Äh, also Validierung also nicht. Aber das kannst du mir sagen. So und so soll es aussehen. Und dann kommt in dem Feld der Typ auch hinten raus. Wahrscheinlich wird es auch validiert. Ja, das sage ich So der, ähm, der größte Aufhänger von so zwei Stunden. Und sonst haben Sie beim. Also wenn ich Astro Server verändere, kann ich bisher einzelne Routen als Static definieren. Und jetzt haben Sie es noch mal umgedreht, als wenn ich eine. Wenn ich meine komplette Seite static generiere, dann kann ich jetzt einzelne Routen auch als Server seit Jahren dort definieren. Klingt für mich jetzt nicht so einen großen Wurf, aber das mussten sie jetzt mal raus stellen. Ist auch nur experimentell und HTML Modifikation ist noch dabei am Published Rendering. Da geht's eigentlich nur darum, wenn eine Komponente beim Aus beim Ausrechnen ihres Inhaltes Daten anfragt. Hat diese eine Komponente bisher das Rendering aller anderen Komponenten, die nachkommt geblockt? Sie haben sie aufgehoben, verspricht, dass es ein bisschen schnelleres Generieren der Webseite und ein Polymorphic und ein Helfer, aber das auch ein bisschen Special case. Angenommen, ich habe nun eine eigene Komponente, die heißt Link und die kann intern entweder einen Button oder einen Artex sein. An die Funktion ist jetzt cool. Ja, das reicht. So Astro zwei fünf. Also ich finde es auf jeden Fall ein Luxus noch. Du hast doch Format, Ich habe es noch für irgendwas im Einsatz, aber vergessen für was? Ich hab den gleichen Stand, dass so gut fürs Auto zu irgendwas ich das vergessen. Was glaubt die Webseite von dem Partikelsystem? Ja, ist aber auch ob das was ist übrigens mit dem Modell? Das wollten wir Anfang des Jahres. Dennis Was ein Thema? Open Source. Ich mache eine ganz galante Überleitung, diesmal galant, wenn man damit anfängt. Die eine Grenze, ja, eine Überleitung, und zwar Astro ist auch Thema bei einem der Features, die bei CBS Hosting dazugekommen sind. Denn ihre ist Hosting kann jetzt auch die Player, also Astro feld Kit und nach Steps die plain einfach mit einem Verweis deploy Befehl und dann ist es da ein freies Hosting drin aus Resten, das heißt, der guckt sich wahrscheinlich an, was es von Typoprojekte wie gerade vor sich hat, oder? Und da wird dann entsprechend einfach die Konvention, die das Projekt braucht, um im Detail durchzuführen, dann, das heißt ja so ziemlich alles dafür, was du machst, ist eben einfach jeweils die Pflege und dann guckt er sich das an, bildet alles, guckt, ob er irgendwelche Cloud Functions braucht. Wenn ja, dann die Leute, die auch macht. Das mit der Konfiguration und das hast du gesagt, kann es Welt Astro nach St. Also solche Astro nacks sind jetzt im Preview. Also ich meine, wahrscheinlich orientieren sie sich. Der Baum ist dann besser und so, dass er das mit der auch ein bisschen machst, möglichst von clickfriendly und dass er auch so du gibt es aber GitHub Report da ist halt nicht so passiert. Ich glaube du kannst über solche auch Witze machen, aber einfach GitHub Reporting, der checkt was ist es? Und dann hat ein paar Defaultschritte um zu bauen und du kannst wahrscheinlich auch da wird es wahrscheinlich override können der config. Und wenn du halt nicht mit Npm ron build das ganze machst so ein paar STANDARD schon nach max du so und liegt dann automatisch in dem Folder das falls du ja das konfiguriert das ganze schon auch da in irgendeiner Config überschreiben. Ja und ich glaube was auch dann sehr ähnlich ist, Sie haben auch diese Dynamik Preview Channels wie Sie es nennen. Also das heißt du kannst ja was hoch also die Player und kriegst dafür eine URL, die du teilen kannst um diesen Stand der anzugucken von dem was da die Play Store das gab. Es ist jetzt neu, das gab es auch schon vorher auch schon, wahrscheinlich im Zuge des ist da auch haben zwei also Hosting Preview Channels. Zumindest. Wir haben es immer, GitHub Aktionäre drin gehabt zu haben. Du kannst ja einfach was die planen und sagen Mach als Preview unter dem Namen Gewinne. Genau das war nicht alles, was es dazu gab. Über ein paar andere Updates rund um iwas will ich noch an gehen. Natürlich gibt es auch da eine News zu. Und zwar gibt es jetzt eine Extension. Ich glaub wir haben schon mal über Feuerwehr Extensions gesprochen. Das ist letztendlich so eine Bibliothek an Code Snippets oder nicht an kurzen etwas an Funktionalität, die man einfach in Firebase über die Wii dazu bauen kann und dann ist das praktisch nicht Extension. Die, auf die man dann zugreifen kann und wo unterschiedliche Firebase Dienste einfach direkt mit interagieren könnten, da bisschen so irgendwie. Wie ist das Sprichwort mit dem Messer und dem Rücken durch ein Auge durch die Brust ins Auge? Ja, danke. Es ist ein bisschen durch die Brust ins Auge. Ähm, also es gibt jetzt da die PAM API und dann ist es aber so, dass du das einfach über ihre Store machst. Das heißt, du postest was in ihre Store rein und dann wird das Dokument geupdatet und dieses Dokument enthält dann die Antwort für deinen für dein Request. Aber so hast du dann die Möglichkeit, genau ohne jetzt noch andere APIs anzubinden und irgendwie irgendwas anderes zu machen. Einfach nur die Extension muss halt. Feierst du nicht nur einfach so eine komplizierte API an ein paar also, aber das ist ja schon drin im Application anbinden. Also ja, drin arbeiten, bisschen Update für jetzt. Leute, die wissen das wahrscheinlich nicht. Deswegen machen wir hier jetzt auf die paar habe zugreifen willst. Genau das meine ich damit genau jetzt jetzt nicht Feuerwerks runter und machst das alles. Aber wenn du das schon hast, dann ist es natürlich und da gibt es auch irgendwie, glaube ich, also die URL und diese Extensions. Ich weiß nicht, ob die Seite neu ist oder ob sie schon gab's, aber Extensions Punkt. Dev ist letztendlich an hab jetzt um all diese ganzen Extensions sich anzugucken weil die auch von Party Leuten es hat mit tat und meintet werden können. Ähm joa. Dann gab es irgendwann mal Cloud Functions in einer, oder? Nein. Gab es schon Preview? Jetzt live für alle in einer zweiten Generation. Was vor allen Dingen bedeutet, dass die 32 Gigabyte Memory haben können, um einfach größere Workloads zu abzuhandeln. Und sie können jetzt konkurrieren. Sie, das heißt in einem in einer Cloud fangen können bis zu 1000 Requests in parallel behandelt werden, was aber dazu führt, dass es weniger Kultstatus gibt und insgesamt die Kosten weniger werden. Und was auch noch neu ist, dass man Python schreiben kann, eine neue Programmiersprache, die dort in den Cloud Functions unterstützt wird und man die Dinge mit Python umsetzen kann. Hmmm, App check. Die App check. Ja, wird immer per default mäßig auch vielleicht mit installiert bei flatter zum Beispiel wenn du im W Firebase klein verwendest. Wir wollten sich haben und haben es mir mühselig gerade in PR offen, damit es nicht automatisch mit installiert wird. Auf jeden Fall besser geworden, weil es ja so einen Automatismus äh ja, was gibt es denn so an der sicherstellen soll als möglich unterbindet Fishing for Abrechnungs fraud, dass Leute sich als seine App ausgeben haben und so? Das sind einfach verschiedenste Sicherheitsmechanismen und diese sich jetzt mit solchen Ismen greifen jetzt auch für den Aufwand ication Bereich. Also auch da ist man dann abgesichert für ach wieder so unterschiedlichste Security Sachen, die ich alle nicht kenne, die jetzt dann abgefangen werden und dann nochmal. Das hast du wahrscheinlich irgendwie Flatterupdates genannt, aber das jetzt Support für Flatterweb existiert von Firewall. Also ja die Firewalls Funktionalitäten. Auch vom Theater aus angesprochen werden, sie jetzt von Flattr weitgehend ausgeschlossen wird und genau Firebase Hosting Support for Web Assembly Flatterweb. Ja, das ist das beste Hosting. Flatterobst konntest du eigentlich schon immer. Wahrscheinlich wird irgendwas integriert sein, das dann immer zentral bereitgestellt wird. Aber interessant. Hatte ich so noch nicht auf dem Schirm, also werde ich mir auch noch kommenden. Joa. Das ist nicht so interessant das. Also wo ist denn das über Scroll? Was ich noch ganz cool fand? Es gibt ja diese Crashs mal oder was früher mal Crash Lüttich war oder Vorstädte Köln heißt es immer noch recht fix. Ähm. Warum ist das hier nicht mehr den Blogpost drin? Sucht Oma wie lange es unsere Firebase iger Folge her. Du meinst die Firebase party? Palmenfeier Wels? Ah, das war die Firebase farbe. Ist die etwa auch mal die Mallorca Folge? Mallorca war 2018. Also fünf Jahre. Ich könnte sein. Party, Palmen, Feuerwehr Es könnte der wir machen hat bei 20 Folgen Die ersten 20 Folgen nehmen wir offline, nicht die, die es könnten. Könnten wir dann noch mal Revival machen. Jetzt, wo wir wieder bei den Palmen sind, in der Mainzer Mykonos, können wir mal eine Runde über Betrinken überlegen? Ja, ich glaube, kann gut sein, dass sie nicht mehr gar nicht bei anderen ist. Party, Palmen, Firebase oder die Party beim Weiber Firebase. Ja, das ist gut Publishing. Wir. Ähm. Ich habe was gefunden. Nur das es in Android Studio sogenannte Equality Insiders gibt, wo einfach die Fehler aus Crash LED fixe in den Android Studio kommen und du noch einfacher Pin up finden kannst, auf was es genau das ist You ist das ein Code und auch irgendwie die Steps zum Repetößen einfacher werden, um das nochmal hervorzurufen. Plus Es gibt neue Clustering Optionen. Also sie gruben jetzt Echos anders, wo es irgendwie immer mal immer Probleme gab, um da jetzt einfach Crashes besser zu haben. Es gibt auch jetzt Varianten von Crashes, das heißt die erkennen, wenn der der Auslöser der gleiche ist, aber eventuell steigt. Crazy sich unterscheiden und kopieren ist einfach als Abgrund da. Updates im Bereich von Crash Liedtext und die Akkorde die jenseits seiner nicht ganz cool aus das war's an an an iwas google io ab dates und dann weiß ich nicht genau wie ihr euch das aufgeteilt habt hier. Microsoft, Fabi und Jojo habe ich beide bisher angeguckt. Also was gibt es neues? Max Konferenz letzte Woche gewesen und ich weiß nicht wo was wo? Irgendwo in Amerika und Amerika. Ich weiß auch nicht was stattgefunden hat, aber das ist schon erwähnt. Ja, das ist sie mir das erste Mal wieder live seit drei Jahren war und ich würde fragen vielleicht lassen wir mal bitte nicht n Team starten, weil das war hatte die gefunden, weil eigentlich hat man uns aufgeteilt ich mal realtime und nicht eher IT Und gestern Abend um 12:00. So viele gibt es ja gar nicht. Nicht doch. Ich habe auch viele von euch seit Entscheidung. Ähm, in Seattle. Alle stimmen sehr. Das ist ja auch der Hauptsitz. Dann ist es dort ist. Ja. Es gab doch einige Themen, die so entstanden ist. Aber ja, der große Fokus war wirklich ei, was natürlich auch an Microsoft einfach ein großes Thema ist. Durch die enge Verbindung zu OpenAI. Was es außerdem noch gab, ist halt einige Neuerungen jetzt nämlich in der Cloud. Zum einen es gibt diese Echo Kosmos DB kannte ich vor noch gar nicht. Ist immer so eine multimodale Datenbank, die Email SQL und also NoSQL und dann doch SQL kann, also über beides abbilden kann, hat ein eigenes Datenformat, bietet aber nach außen hin verschiedenste Interfaces, wie man damit kommunizieren kann. Also zum einen hat das schon proprietären SQL Zugang und du kannst aber auch selber MongoDB Gramm nen Cassandra APIs nutzen um mit dem System zu kommunizieren und hat auch verschiedenste Möglichkeiten wie du halt die Konsistenz von der ganzen Datenbank im wie definieren kannst. Also kannst sagen sie es hat eventuell Assistent, aber du kannst die genauso konfigurieren dass sie eben halt strong konsistent ist also dass es sehr flexibel ist komplett letztendlich partitionierbar also über die gesamte Welt, über alle Äther, Cloudbereiche, Datenzentren verteilbar. Und da gibt es ein paar Neuerungen, dass sie ja zum einen jetzt ihm erlauben, dass man eine Berscape City an bildet, also ähnlich wie bei anderen großen Datenbanksystem, dass man sagt, man hat dann einen gewissen Support darauf hat man letztendlich sein Profiling eigentlich gemacht, also das eingerichtet und das Jetzt aber eben erlauben, dass man, wenn man diesen dedizierten Support definiert hat, das halt zu was Spitzen halt, das für die gewisse Zeit einfach überschritten werden kann, was vorher so nicht möglich war. Es gibt es hierarchische Partition Keys. Also früher gab es die Möglichkeit ein Partitionkit zu definieren, wie die Daten letztendlich auf unterschiedlichen Datenzentren oder auch in unterschiedlichen Instanzen. Container nennt sich das bei Kosmos DB dann irgendwie verteilt werden. Und jetzt gibt es eben drei baltischen KIs, die vergeben werden können, wodurch man halt eben noch eine bessere Performance eben für unterschiedliche Anfragen dann erreichen kann, weil dann eben eine Anfrage vielleicht über einen anderen Partition kommt. Führt aber natürlich dazu, dass die Daten auch mehrfach sozusagen verteilt und in einem anderen Schema dann vorgehalten werden. Halt drei. In dieser folge ich dreimal, die beiden dreimal einfach mit jedem. Jeder Eintrag wird mit jedem dieser drei Partition irgendwo hingeschrieben. Und so verstehe ich so muss es ja irgendwie funktioniert mich gerade gefragt eher so enthalten pro Anfrage welche Partitionen hier nimm du das irgendwie so ich glaube es ist schon sozusagen hat natürlich weil ich dann Unterschiede wie Datenzugriff wer antizipiert schon ich möchte auf die zwei sind jeweils auf die Daten zugreifen hab ich mehrere an um sie also hast die Möglichkeit es zu treiben anzulegen. So ist das wie es im verstanden habe also vorhin gesagt also es ist irgendwas Schema los, aber auch so kurz ist es nur. Es bezieht sich nur auf die Art, wie ich mit der Datenbank interagiere. Oder habe ich auch wirklich so was wie das Schema und Schema Es kann ich auch was in den Tabellen, also die Frage um die Schnittstelle oder geht es eher? Das ist eine Frage, die ich nicht so vollständig beantworten kann. Also gefühlt es so, dass du wirklich, auch wenn du möchtest, das halt mit dem Schema definieren kannst, wenn du es eben nicht möchtest. Du hast sozusagen beide Optionen und darunter kann irgendwie beides abgebildet werden, weil halt, weißt du auch das dann also könnte ich einfach einen Cassandra Cassandra Bibliothek zu Schnittstelle mit der Datenbank einfach nehmen, was ich kann. Das heißt insofern jetzt nicht proprietär, weil ich kann etwas sagen, bin ich dann eher wie Kosmos DB nicht mehr nutzen will, dann nehme ich Apache Cassandra. Genau darum ging es so ein bisschen, dass man sagt Weißt du, Leute, also Unternehmen haben immer bestehende Systeme, die wollen sich umziehen und möchten halt für alle diese Outcasts einfach die Möglichkeit bieten das man hat nicht die kleinen Anwendungen die verändern muss, sondern einfach die Daten immer umzieht und dann über die gleiche Anbindung letztendlich dann mit den Information ziehen kann. Also sind ja auf jeden Fall. Spannend. Dennis. Ich habe den Mund nur aufgemacht, weil es fertig bist mit der Datenbank. Nur zwei Punkte noch dazu. Zum einen gibt es eben noch Moretti, der mit Teri Live wusste, was einfach eine Abwandlung der Daten ist und man schneller auf eine bestimmte Formatierung, auf eine bestimmte Sortierung Filterung zugreifen zu können, die es unterstützt ein und es geweckt Research. Das geht natürlich wieder dahin, dass man irgendwie aus Open Air, also aus dem Open Air Service, auf die Daten Kosmos DB zugreifen kann. Also das haben Sie letztendlich geschaffen, dass Sie mit dem Vectorsearch eben erlauben, dass man aus diesem zentralen Open OpenAI Service eben die Daten dort abholen kann und mit eigenen Daten dann arbeitet. Mir nämlich noch ne Kleinigkeit eingefallen, die ich vergessen habe eben. Und in der Situation hast du dich schon bestimmt schon gefunden, Sebi, dass du in feierst so gerne den Oroperator gehabt hättest, das hat mir letztens schon mal, oder? Jetzt haben wir das haben in der Googleio. Okay, ich kann die schon den neuen Operator und er kann mich nicht einfach so vom machen und sagen sie oder doch das aber bei Arrays auch nur oder? Jetzt sind alle aus dem Konzept gebracht. Naja, ob man so etwas nicht als Search Operator auch hat. Insgesamt ist aber jetzt ein Beispiel das Beispiel da Handelsware. Filter or Hintergrund oder ne Filter weiter neue. Also man kann Beispiel jetzt das Beispiel man kann dann dazu das nicht. Okay, also man kann jetzt beispielsweise nach wenn man irgendwie eine Kollektion von Hotels hat, kann man sagen, die sollen in diesem in dieser Umgebung sein und äh und oder oder oder. Sie sollen vier Sterne haben. Das war vorher ja nicht möglich. Ich hatte es unten über in Operator, glaube ich. Okay, ich dachte, es war okay, aber ich dachte auch, wir haben beide schon angesprochen und er ein Operator. Falls er noch gerade bei dem so ist, dann wissen es unsere Hörer bestimmt auch nicht. Aber noch mal der eine Operator hatte vorher die Möglichkeit zehn da reinzupacken und der ist jetzt auf 30 werden es gestiegen. Es ist noch da, das Ohr geht. Sorry, die Seife geht weiter zu Bild. Ich geh mal ein bisschen schneller über die Themen drüber, was es jetzt gibt für den Sh Container Storage, das letztendlich einfach die Datenträger, die du halt für deine Container verwenden kannst. Dafür werden die Snapshot unterstützt und ich kann zu jedem Zeitpunkt sagen, ich möchte den ganzen Datenträger im Weg speichern, dann wiederherstellen. Das war vorhin noch nicht so möglich und das ist wohl deutlich besser In der Skalierbarkeit ist also, dass ich sie schneller in die größer skalieren kann, auch gewisse Grenzen einfach jetzt nicht mehr vorhanden sind. Es gibt jetzt ein vor die managed promises, heute promises, promises Service, die ich sehr nutzen kann für meinen Monitor. Und was jetzt eingeführt haben, sind sogenannte escher.conf identische Computing VMs. Das sind einfach vor allem sie hatten bestimmte thermische Prozesse nutzen, die auch da ein gewisses Chipset hat, wo eben dann die VMs einfach deutlich besser abgesichert sind und die man dann nutzt, zum Beispiel um sensible Workloads auszuführen, das heißt das dort verhindert. Verhindert wird das in irgendeiner Form der hyper weise, der natürlich die Instanzen auf die VM Instanzen auf dem Node letztendlich verwaltet, dann eben die auf den Speicher in die zugreifen kann. Was es jetzt auch gibt, sind Escher Deployment Environment und letztendlich ist das etwas, wo du einfach über eine Infrastruktur, Service, Templates, Sprache, unterstützende Terraformen und irgendwie Microsoft hat auch irgendwas eigenes, womit man letztendlich solche Infrastruktursysteme konkurrieren kann, dass man das jetzt eben in einem der Sport im Ich schön sehen kann. Was sind meine verschiedenen Tablets die ich habe mich in beidem ans Laufen. Diesen Templates kann zum einen natürlich genutzt, um temporär man das System dev in meinem in hochzufahren, aber auch um halt persistente Sachen zu verwalten zu können. Also da ne einfache Usability für die Entwickler geschaffen das irgendwie zu verwalten. Und ja, zwei Themen würde ich immer noch aufgreifen Einmal Death Boxes haben da ein paar Erweiterung bekommen. Der Boxes sind letztendlich solche Entwicklungssysteme oder Systeme für Entwickler, die halt recht leistungsstark sind, wo man dann halt eine komplett vorkonfigurierte Entwicklungsumgebung in der Cloud bekommt. Da gibt es dann auch die Möglichkeit, dass das halt von einem Unternehmen gepflegt wird, dass man sagen kann, okay, das sind halt bisschen Guidelines. Welche Applikationen können auf so einer Box installiert werden, welche Ressourcen können vielleicht angerufen angesprochen werden? Und ich glaube, wir hatten schon in anderen Kontexten das, was man für interessant sein kann für ein Unternehmen, zu sagen, Ich möchte nicht jedem seinen Rechner hinstellen und die müssen sicherstellen, dass dort nur halt dedizierte Software drauf läuft, sondern ich biete ihm einfach letztendlich diese Cloud Umgebung, um dann eine Arbeitsplatzumgebung zu haben. Gefühlt fühlt sich das auch an, als hätten wir schon mal gehabt das Thema, weil es glaube ich schon so viele Anbieter davon. Ja genau, es gibt einige Anbieter und das haben sie einfach jetzt weiter verbessert. Es gibt die Neustarter Images, es gibt es ein komplettes neues Portal, worüber die letztendlich dann verwaltet werden können. Da hat man auch für die Integration in diese Privatservices. Die Integration in Studio ist wohl besser, weil das natürlich so der Haupt Anwendungsfall. Ich habe einen lokalen Visual Studio, ich möchte ihm die Daten übertragen. Dort ist auch schon eigentlich Default mäßig Fotostudio installiert, da haben sie ein neues Protokoll geschaffen, hat dann Daten über. Ertragen werden von der Lokalumgebung. Ich kann selber das Ganze noch weiter konturieren, das irgendwie ablegen. Das ist deutlich ausgeweitet worden, weil letztes Jahr wurden diese der Boxers vorgestellt, haben wohl einigen Zuspruch bekommen und werden wohl sehr intensiv genutzt und haben da einfach die Integration besser gemacht. Das andere, was sie noch irgendwie erwähnt haben, was es gibt, es gibt der Form das es so eine Developkonsole die du lokal auf dem Windows Rechner installierst. Dann siehst du zum einen CPU Auslastung Memory Auslastung. Du kannst aber auch über ein weiteres Plugin dir verschiedene Repository Repository in einzelne Widgets ziehen, wo du dann solche Informationen bekommst. Welche Public Feste für mal offen? Wo habe ich irgendwelche Menschen? By ist also für dich so ein bisschen, wenn du mehr in Projekten wie organisieren kannst. Das ist meine zentrale Stelle, wo ich den Überblick habe, wo ich gerade irgendwie gefordert bin in Projekten. Windows zehn oder wahrscheinlich Windows zwei, da wahrscheinlich dieses Windows der von mir. Also genau so wie ich es verstanden habe, ist das letztendlich für Windows Betriebssystem gedacht. Sie wollen das erweitern, was da noch alles reinkommt, dachten sie okay, das kann man sich auch anders herstellen, aber ich glaube das ist so die erste Stufe, die da entsteht. Und du kannst ruhig reden. Du warst nicht mehr mir. Ich wollte das nicht für mich dran nimmt, denn es ist wie. Was für Power ist hinter so einer Devbox? Also wenn ich jetzt keine Ahnung. Ich entwickelt sonst auf meinem eins Macs MacBook und gestern und jetzt habe ich auf einmal eine Microsoft DW Box die. Außerdem ist es dann richtig geil schneller oder was für eine Performance. Ich habe das natürlich ausprobiert. Dennis als Microsoft, habe dabei auch schon drüber philosophiert. Ich glaube, das ist nicht. Wir sind der USKs, die hier alle aus dem MacBooks für fast 5.000 € hingestellt bekommen und deswegen was besseres hingestellt bekommen sollen. So, ich glaube da da reden wir von anderen Setups und das du wahrscheinlich im Verhältnis zu den Fahrstuhl Todesangst da ist er fast dafür da das sich dann auf dem Chrombook oder so entwickle zum Beispiel also deine Hardware sondern das andere sind kleine im Endeffekt dann genau darauf dann zugreift auf dieses dann weil man dann den Rechner selbst braucht nicht mehr groß ist können wir darauf umsteigen und warum hat man alles in der Cloud nicht? Du musst halt auch dein MacBook nicht da haben. Kannst du doch abends am Ende sagen, wenn du dein iPad mit einer Tastatur und Maus hast, dann kannst du genauso gut das damit wahrscheinlich machen Und was halt. Aber auf neue laufen keine Container oder es ist nur Webseite, das der Webseite Webseite. Ja, das ist ein Mittel worauf du Christoph zu. Dann ist das wie dieses andere, was ich mir neulich installiert hab von GitHub Er ist in der Stadt. Ja genau, das weiß ich auch nicht mehr. Aber das war auch immer Thema wie sie. Wie sie alle heißen, weiß ich nicht. Also ja, wie wir schon gesagt, es gibt in wie viele Anbieter dieses unterstützen und Bestehendes. Ja, genau, sie ist leistungsstark. Aber was ich unter dem Begriff leistungsstark verwenden Ja, ich hatte das gerade nur im Pricing gefunden. Acht elf CPU 32 Arbeit Memory war ja jetzt nicht so vermittelnde mittleres Ding und es gibt nur sozusagen ein Tier darunter. Jetzt noch vier, also das war jetzt das größere, darunter jetzt noch vier CPU 16 Gebert Und dann gibt es noch die Defbook Storage, wo man 200 56512 oder ein Terabyte SSD Speicher bekommt. Okay, noch ein spannendes Thema von der Microsoft Bild ist Microsoft Fabrik und ich glaube wenn man aus dem Google Umfeld bekommt man vielleicht Lucca und letztendlich ist Fabrik ein sehr ähnliches Tool, aber verschiedene Services versucht zusammenzufassen. Das soll einem einfach so eine Art zum einen Data Warehousing geben, also gerade für Firebase Analytics Services Aufgaben hat. Einfach so eine zentrale Anlaufstelle bieten. Wo hat erst mal die Daten gespeichert? Wären das auch so? Das Fundament eines dieser ganzen Fabrikate ist die Tour. Das sie dort on Lake als Datenbank, also als die Statue aus wo die Daten rein fließen eben etabliert haben. Ähm, basiert eigentlich auf dieser Data Lake Architektur, die glaube ich auch von Microsoft irgendwie hauptsächlich unterstützt. Ja okay, und das viel es halt einfach verschiedene Sachen eben zusammen. Also es gibt da eben Power bei Power habe es wirklich so etwas wie lokal, wo man einfach dann halt sich entsprechende Oberflächen dazu bauen kann zu solchen Jurys die Daten visualisieren kann. Dann Data Factory. Es gibt verschiedene, ja Konnektoren, die natürlich dann Daten aus proprietären Systemen imitieren können. Da gibt es ja auch Unterstützung für verschiedenste Technologien, wie es drei Google Cloud oder woher man Daten ziehen kann, sich aber sie haben da sehr viele Konnektoren letztendlich, wie man das eben integrieren kann und was eben auch in Fabrik vorgesehen ist, dass man auf jeder Ebene dieses dieser Daten Modellierung eigentlich diese komplette Integration hat, also an jeder Stelle einig mit Sprache er seine Workflows definieren kann und gar nicht mehr selber codiert, sondern in wie viel einem abgenommen wird und man ja wirklich so in einer in einem Dialog mit dem System einig. Diese Workflows erstellen kann. Ich will das für uns mal ganz hilfreich. Wir hatten gerade in die letzte Woche im Lucca Workshop, wo man doch gemerkt, der muss sich bisschen mit dem Interface auskennen, wo man wie draufdrücken muss, um bestimmte Filterung Sortierung zu haben. Wenn man das natürlich einfach sagen kann, ich hätte gern die Information oder jemand mal vielleicht irgendwie meine Daten. Nach einem bestimmten Befehl sind 80 null vollkommen am Werk. Aber gefühlt gehen sie da in eine sehr ähnliche Richtung zu dem, was man oder zumindest ich irgendwie aus dem Fugu Umfeld kennt. Der Name ist wieder frei geworden. Oder war das mal das frühere Credit Nx Easy going? Bevor das irgendwie Google dann immer noch hatte man das ja gerade schon das erste er Thema irgendwie angekratzt. Mexiko auch eines der großen Themen, die Sie genannt haben aufgrund der Konferenz. So super. Also den Begriff AI kamen sie nicht drum rum, aber auch interessanterweise ich weiß gar nicht, was häufiger genannt wurde AI oder Compiler Ich würde fast in den Kinos ja mehr die, die auch in den Kino zum Teil angeguckt und die Kinos vom City of Kevin Scott, wo es auch viel um Copiloten ging und also mich gleich auf zwei Themen über Nicht Sakai Themen bei der Mix of Bild beziehen das eines was das ein Cop als Steak und dann Agora Studio. Darauf würde ich gleich mal eingehen. Aber natürlich gab es auch noch ganz viele andere Themen. Also Windows, Kopilot oder Windows kommt jetzt auch mit einem eigenen Copiloten irgendwie. Bing wird jetzt wegen Integration bei ChatGPT usw und weil sie auch witzig fand. Ich habe gerade einen Screenshot gemacht von der Kino von von Kevin Scott. Da stand natürlich auch sehen Sie die Positionen, natürlich auch ihre ganzen Bestandsprodukte jetzt in Richtung einer zwei für einen Teil eine große Leitbar Windows The Best Client AI Development. Also zu glaube ich, haben im Zuge des von das Copilot dann auch gesagt Das ist also auf jeden Fall sehr witzig. Aber Sie haben mal gesagt, Sie haben jetzt sehr, sehr viel Erfahrung darin, diese Copiloten zu entdecken. Man hört es an jeder Stelle Star Windows hat jetzt Intercity, ist einen Copiloten, den machst du irgendwie zu mit einer gewissen Form mit drin war weg. So Patrick hatte den eigenen. Wir kennen GitHub Copiloten als einen Copiloten und sie haben gesagt okay, sie haben intern ein Steck definiert, was für sie eigentlich ein Copilot ist und was es braucht, um einen guten Copiloten zu bauen haben. Dieses steckt in Copilot stecken. Dann haben Sie verglichen, wie man Bestandsapplikationen baut und haben eigentlich vier grundsätzliche Layer eingeteilt. Wenn man von unten Warm up machen würde, hat man unten drunter legen die Eier ei infrastructure man was sagt okay, da ist Amazon Amazon solches schon. Da ist Microsoft mit Echo super aufgestellt, dass sie da wirklich die Power haben, dass der GPU Basis eine Infrastruktur braucht, auf denen deine Copiloten laufen können da oben drüber was für ganze diskutiert. Dann liegen Foundation und Models. Also beispielsweise wenn wir jetzt im Umfeld sind, Lage Language Models, die ich hosten muss, um so einen Copilot zu bauen, wo man sagen kann okay, du kannst entweder auf einfach gepostete Foundation Tools zugreifen, du hast die Möglichkeit an der Stelle Foundation Models wie jetzt zum Beispiel auch gibt die vier oder so was zu Feintuning auch gesagt, dass das möglich sein soll, als auch deine komplett eigenen Modelle mitzubringen. So aber also der Großteil schreiben sie auf bezieht sich schon darauf. Im Endeffekt, weil das natürlich der Part ist, wo du viel Geld reinstecken musst, um die Dinge zu trainieren. Und sagen Sie so der der Gros der Leute, was ihr Programm immer in ihren Präsentation dann zu zu Tage war okay die Welt irgendwie Foundation und Models nutzen die werden Sie vielleicht ein tun aber vielleicht auch einfach nur die Foundation Models nutzen, weil da obendrauf baut dann die zwei weiteren Layer auf unserem Copilot, die dann einerseits in Orchestration Layer auf den ich gleich noch ein bisschen mehr eingehen würde, wo jetzt jetzt auch viele Features in diesem neuen ESA Studio für gebaut haben. Und ganz oben ist es COP halt Front. Wobei man sagen muss, es Front End sagte auch da damit weniger Arbeit drin sein sollte, die du xy so ein Frontend ist halt Text Input. Glaubst du ihm wirst dazu bauen irgendwie nie wieder zu bauen, wie du mit dem interagierst, aber es nicht mehr so, dass wenn ein Applikation Baumuster irgendwie überlegen muss okay, wie baust du welchen Button wie wo positioniert sind wirklich, dass du die Business Logik, die du im Endeffekt immer an die Hand geben willst, wie. B Wie machst du denn Unix so, dass jemand genau versteht und das rauskommt? Kann das im System, was du möchtest, sondern es wird vielmehr über Sprache gehen, das heißt, der Part wird ein bisschen geringer sein, was du von den angeht und es wird mehr in Richtung dem Ort des Orchestration mehr sein. Und da bezieht sich einfach, wenn man es mal runterbricht super viel auf wie Projekte. Ich mein, wie promote ich meine Foundation und Models und sie haben es in meiner eher drei Bereich eingestellt. Das erste wäre prompt in Response. Filtering ist die erste man von oben nach und jetzt geht in lila. Ja also es geht um die Proms von der EU rein und es kommen auch Proms von dem Foundation Model wieder zurück. Das heißt an der Stelle bist du irgendeine Form von Filtering haben sozusagen ist es ist dieser Prophet okay, bitte durchgeben sozusagen an das Modell nach unten der bin ich das dem User erlauben? Als auch das Modell antwortet, will ich diese Antwort wirklich auch zurückgeben. An den User da und drunter liegt der Meta Prop, was man so ein bisschen als Kontext kennt. Also was gebe ich der meinem Modell mit, wie es interagieren soll? Der Stelle würde ich zum Beispiel sagen Keine Ahnung, okay, du bist irgendein also. Wie es interagieren soll. Bist du, Bist du ein Chat Client? Bezahlst du einen? Solltest du einen Coding Trainer sein und sich so verhalten wie ein Coding Trainer. Also das, was man eigentlich jetzt schon kennt. Mit Effekt haben sie formalisiert, wie wir jetzt darüber nachdenken, Proms zu schreiben. Die haben ja irgendwie durchs Iterative einfach benutzen von diesen und mal haben wir es mittlerweile verstanden, gibt ja viele Prinzipien, wie so ein Projekt aufbauen soll. Aber das haben sie jetzt in einen Prozess gepackt, das gesagt, okay, dann ist hier dieser mit erprobt und dann gibt es noch den Part des und der mit der Problem Part des Groundings. Also irgendwie muss ich der ja ja noch Kontext mitgeben und ihr sagen okay, was hast du schon geantwortet? Was benötigst du als Kontext, um auf eine Frage richtig zu antworten? Es könnte einerseits sein so was wie was für was er was schon in vielen anderen Kleinen so schon gesehen habe so was wie das war eine Vektordatenbank hat, wo man irgendwie bestand Informationen, die man schon von vorherigen Anfang hat abspeichert, dass man irgendwie nur einfach eine Webabi an bin sagt ich google irgendetwas oder einfach grundsätzlich irgendwelche Plug ins ausführt, die dann gut man selbst ausführen kann und dieser gesamte Orchestration Layer. Also so definieren Sie dieses Code Kopilot Text und wie baue ich ein Copiloten diesem Orchestration ler? Da wollen Sie glaube ich den Nutzern auch Tools an die Hand geben. Und ja, Studio ist ein Produkt von ihnen. Es gab jetzt es gab es vorher schon, aber jetzt mit sozusagen wirklich mit dem Fokus auf diesen Cop als Deck, wie baue ich so ein Kopilot, würde ich sagen, ausgelegt. Es war im Verständnis. Bisher ist es noch, es ist noch im Beta und es ist dann eine Plattform, wo ich einerseits die Möglichkeit habe Foundation All Models zu hosten. Sansibar glaube ich bisher vor auch schon, das heißt sie haben da angebunden Open Source Modelle als auch Hacking Fake als da hat mir die Folge mit dem wird dazu als Registry auch mit die größte also war ging PC auch relativ häufig in der Präsentation in der zu Bild referenziert, wo ich sagen kann okay, ich nehme jetzt irgendwie hier dann einen einem als Model um mehr um als Mann von Technik Model um dann um einen Chat Copiloten zu bauen und dann das ist aber glaube ich und da war die Infrastruktur. Ich kann sagen okay, ich nehme jetzt dieses Modell und so ist direkt auf der Infrastrukturinfrastruktur von Escher und packen dann oben drüber das diesen Part des Orchestration Layer sozusagen, wie man wie man den machen kann. Und da ist es so, dass sie einem eine Möglichkeit geben, wie ich das Projekt Engineering formal oder in einem Prozess über das prompt Engineering machen kann. Also dass ich die geben einem die Möglichkeit, das sozusagen Templates anlegen kann von okay, das hier ist ein Prompt, das hier soll der Meter prompt drin sein, hier wird der Input von meinem Client übergeben, hier möchte ich den Kontext einfügen. Hat eine Versionierung von diesem Prozess, kann wirklich auch die Bahn und kann sagen okay, Bug in meinem Kopf Hals Deck. Was kam bei dem prompt als Antwort zurück? Kann man sozusagen den kompletten Request Flow von sowas anschauen und kann auch das wirklich evaluieren? Weil bisher ist es ja so okay wie evaluieren prompt so Na ja, ich gebe halt irgendwas einen Code, was rauskommt, Shapes irgendwie gut geworden ist und halt mir den besten so, aber erstens je mehr Teams daran arbeiten, desto mehr formalisieren muss man das auch. Und was sie eben mitgeben ist, man kann es direkt gegen Testcase laufen lassen. Oder man kann sagen, ich habe diese beiden Proms so einen Future prompt oder einen Single. Prompt haben wir gegeneinander vergleichen möchte und dann bietet mir Schaystudio ein paar vorgefertigte Testszenarien gegen den Output evaluieren kann. Oder ich kann eigene Testszenarien definieren, wobei ich nicht ganz genau weiß, wie wie man die selbst definiert. Aber dass man wirklich sagen kann, ich habe jetzt diese Prompts und ich möchte jetzt gern mal in meinem System testen, So macht sie diese Testszenario. Sagt mir, welche Pumpe am Ende am besten funktionierten kann. So mein ganzes im Endeffekt Effekt ist nichts anderes als Pump Engineering. Was ist der beste? Prompt Wie füttere ich Kontext und wie nämlich Input von meinem User entgegen und um in das beste Ergebnis zu bekommen Also das formalisieren sie sozusagen damit. Es ist so, dass dann irgendwie das Eis du dir halt eigentlich eine qualitative Messung der Qualität meiner Workflows im MIT anbietet. Ich habe dann wie so ein Flow immer definiert und kann dann irgendwie sicherstellen, hat dann irgendwie in der Sommer über diese Tests einen Wert wie ich dann feststellen kann, wie guten Flow, wie guten vom Flow funktioniert. Aber ich kann das dann auch irgendwie bemessen. Genau. Also zum Ende dieser diese die Ergebnisse weiß gar nicht genau wieder das wie das Test Szenario läuft weiß ich nicht genau, aber du kannst im Endeffekt sagen, diese beim Prozess lasse gegeneinander laufen und so und dann werden sie wahrscheinlich dieselben, äh dieselben Inputs bekommen, werden dann gegen irgendwelche Testszenarien einfach bewertet, sozusagen. Hat es jetzt gut funktioniert? Wurde das Ergebnis erreicht? Mit wie viel Prozent wurde es erreicht und kann so einfach das ein bisschen evaluieren, Aber halt auch einfach an einem Prozess darum, was wir aktuell einfach mit Learning by doing und einfach ich weil ich habe mir prompt irgendwo ab und aber auch hat dieses so wie ich überhaupt so ein prompt zusammenbauen na ja also klar, wie machen wir es aktuell zum Beispiel also sie zu integrieren da drin. Sowas wie Length Chain gibt es zum Beispiel in Python, sozusagen mit Templates von meinen Thomson, dass man kann Tests also da innerhalb von diesem. Verschiedene Frameworks auch nutzen, um diese Prozesse zu designen. Schön ist eine Variante. Es gibt auch was von Microsoft. Oder ich kann einfach in Python schreiben, aber einfach die Möglichkeit. B Wie baue ich mir so ein Projekt? Wie baut man einen Baum zusammen, Wie teste ich ihn und wie versioniere ich ihn? Und ich kann da einfach auch schon gegen verschiedenste Datenquellen, gegen verschiedenste Länder arbeiten. Das ist alles sozusagen integriert, das ich mir einfach nur sage. Ich möchte gern hier dieses Hangface Element haben oder vielleicht hätte bitte. Und das lässt mir relativ einfach zu, dass ich diese Modelle kombiniere und darüber letztendlich diesen. Genau. Du kannst entweder im einfachsten Fall sagen, ich nehme einen der bestehenden Foundation Models und poste das einfach nur und packe es meine prompt oben drüber und kann auch die Props testen. Oder die Plattform bietet auch die Möglichkeit ein bestehendes zu nehmen und dann fein zu tun. So eine Masse an Daten z. Um dieses von dir schon mal daraufhin zu tun. Aber ich glaube im häufigsten Fall wird es schon eher so Was hast du am häufigsten so und im einfachsten Fall ist es Nimm ein bestehendes Modell und mach nur das Projekt in der Führung oben drüber und diese from den Ideen, das glaub ich da wo jetzt dieses Kopilot steckt, der Orchestration Layer, das ist das, was jetzt wirklich auf dieses fährst du dich um obendrauf packt und spannt was. Momentan lernen wir, wie wir uns generieren. Das, was wir bald gar nicht mehr selber machen, sondern da gibt es dann auch vorgefertigte Baukästen, wo es einfach dann einsetzen kann. Und dann kann ich ja tatsächlich so was machen wie Ich habe hier einen relativ simplen Prompt mit Chibity, der das Ergebnis, das aber genauso gut wie zum Beispiel chen kommt, wird beim Open Source Model so ganz cool. Also ich glaube so wie ich zuerst verstanden habe, war auf dem selben Modell basierend verschiedene Proms auszuführen. Aber ich denke mal stimmt, wenn man es jetzt weiterspinnt, dass man natürlich auch die Proms einfach mit dem anderen Foundation und Model aus testen kann, so dass man auch die die Foundation Models gegeneinander testet. Ja stimmt, das macht also so so ein Detail am Sitz. Ich bin auf Kinoebene gewesen, habe noch ein paar so entschieden Actionary Blogbeiträge für Max, wird so durchgelesen. Dabei ist das Beispiel mit nem anders Foundation und Model hat jetzt bisher noch nicht gesehen, aber nur konsequent weitergedacht. So sind vielleicht dann nächstes Jahr wahrscheinlich schneller. Das ist eigentlich genau wie gesagt aber auch so, dazu stehe ich. Probier mal im Developmentsystem hat erst mal aus dem komm zu verändern habe dann paar teste dann kann dann danke der funktioniert wirklich besser. Dem promo ich jetzt auf Produktion das du durchaus sagen kannst halt was eine Produktion das LM und das es man prompt Flow der da drin ist auf jeden Fall cool. Es macht irgendwie macht auf jeden Fall auch das wieder mal Lust, einfach das selbst ein bisschen mehr auszufüllen. Genau. Ansonsten schaut euch gerne mal an dem Microsoft Bild. Ich glaube da gibt es viele auch coole Talks, die man sich da anschauen kann. Die Kinder von Kevin Scott und ich bin wohl auch ganz cool, von dem sie die auch hatte noch Gregg Brockman von Open Air dann auf die Bühne geholt, um so ein bisschen über Entwickler von ChatGPT y gesprochen und so cool. Coole Konferenz auf Jahre, was dann vielleicht noch im Jahr oder Konferenz wir sagen können. Es gibt ja jetzt auch im neuen Bereich, im wie auf Microsoft lernen, dass er sozusagen die Entwickler Plattformentwickler Ressourcen müssen komplett neue Bereiche wie zu Carrie erstellt wurde, der auch sehr informativ ist und wo man viele Informationen findet, kann man sich auch angucken, was ich gerade in dem Blogpost geschrieben habe, wenn ich es richtig verstanden habe, was irgendwie lustig wäre. Hier steht gelesen, gelesen, gelesen und geschrieben. Sehr, ähm. Today Open Eyes gibt vor vorerst Generali Waibel nur OpenAI Service. Das heißt, es hört sich so an, als würde man darüber, also über OpenAI Service, was einfach nur ein Zugriff auf eine API, eine API Zugriff ist. Auf die Dienste könnte man jetzt schon auf ZGB vor als API zugreifen. Das kann man nämlich auch offiziell über OpenAI noch nicht. Da ist man ja auch auf einer weit List angewiesen. Aber hier sieht es nämlich so aus. Tatsächlich, dass man darüber das schon jetzt machen könnte. Und Sie haben ein Skript, das irgendwann das Modell auch dann wirklich Selbstausdruck und es gibt die Form als Modell selbst aus der API Zugang. Aber interessant, Ja, cool. Ja, das heißt, weil da wollten wir immer mal gucken, was mit unserem Beispiel auch ist, wenn wir das mal auf den Mixer abheben und nicht mehr gibt es wie konsequent weiter nutzen. Vielleicht geht es darüber jetzt schon, aber so liest es sich zumindest geil, ne? Kurz und knapp News waren knackig, kurz, knackig, kurz, einen 50 Minuten Entschuldigung. Wir wollen eigentlich unter 30 bleiben, aber wer bis hierhin gehört hat. Vielen Dank an alle Eltern. Vielen Dank fürs Zuhören. Nächste Woche schon mal! Als kleiner Teaser gibt es erstens die Apple CI am fünften Montags. Da werden wir dann einen Special direkt danach rausbringen mit unseren ungefilterten Eindrücken zur Kinot und vielleicht oder wahrscheinlich dem Virtual Reality Take von Apple, der dort gezeigt wird. Und wenn nicht, dann. Oder auch so Und bin ich mal gespannt. Ich bin ja generell gespannt, was da kommt. Ja, es wird also eh überhaupt ein Thema wird bei denen, ob das eine Konferenz wird, wo man mal nicht so streng mit AI Passwort machen kann? Ohne Ei, ei, ein Ei, ei, ei iMac Ja, ja, ja, ja, das wird sehr spannend. Auf jeden Fall könnte es mal wieder eines der. Wie nennt man das immer, wenn er so umwerfend großartig neue Ground Breaking Ground Break erwartet. Ja, das war ich hab eher das Gegenteilige gehört, dass man da nicht viel erwarten darf. Und ich glaube ja auch eher, dass es zweiteres ist. Wir schauen mal, was uns überrascht. Ich glaube, da dürfen wir nicht so viel erwarten. Aber mit dem Headset glaube ich schon meine. Das ist ein Ding, was seit vielen Jahren entwickelt wird und es wird auch heute vorgestellt, aber sehr der, dass das das ist ziemlich sicher, glaube ich. Ich glaube, Sie haben jetzt auch im ich gerade vor ein paar Tagen das Rahmenprogramm jetzt im Rausgehen was vor und gestern kam auch die Headline Code New World ist die SAP Line. Also die ist auch relativ eindeutig. Da bin ich aber da bin ich wirklich gespannt bei meinen Sie, haben Sie auf der Einleitung, auf der Einladung Einladung, Einladung? Da ist auch immer diese Techlein, die interpretiert wird. Diesmal finde ich, muss man nicht so viel interpretieren. Bei Code New World ist eigentlich schon ziemlich ziemlich klar, in welche Richtung es dort geht. Ja, dass die nächste Woche an und ich weiß nicht, ist es das schon offiziell oder ist es noch so eine Probe, die da passiert? Wir wissen ja, wir machen wahrscheinlich nächste Woche ein neues Format. N ein News, aber ja, gucken wir mal, gucken wir mal vielleicht. Vielleicht haben wir noch etwas, was nie kommt, aber wahrscheinlich sind wahrscheinlich schon. Vielen Dank. Ähm, ja, weil viele weg. Lass mal weg. So, es gibt mehr Zeit. Negatives Feedback zu Dennis gestern. Schöne Woche euch das nächste Woche macht es gut. Tschüss. Ciao.

Verwandte Podcasts

  • 18 Ai News

    News AI #18: Apple MM1 // Mistral // Grok // Inflection & Microsoft // Open Interpreter

  • 08 Ai News

    News AI #8: OpenAI DevDays // State of AI // DallE3 // Zephyr // Fuyu 8B

  • 07 Ai News

    News AI #7: Cloudflare AI - Serverless Workers, AI Gateway, Vector DB // Meta AI // LeoLM // Mistral AI 7B // LocalPilo

  • 05 Ai News

    News AI #5: Falcon 180 B // SD XL 1.0 // IDEFICS // GPT Finetuning // CodeLlama // Coreweave 2.3B$ AI Kredit

  • News 30 23

    News 30/23: Valibot // Twitter wird X // Microsoft Cloud Probleme // Google Street View // GPT4 wird schlechter

  • News 26 23

    News 26/23: Svelte 4 // Langchain & Colab // Google I/O Connect Amsterdam

  • 02 Ai News

    News AI #2: Vercel AI SDK // Cohere Series C // Orca // Otter // Open Llama // The False Promise of Imitation Proprietary LLMs

  • 126 Ig Fb Matthias Plappert

    Deep Dive 126 – OpenAI & GitHub Copilot mit Matthias Plappert

  • News 21 23

    News 21/23: Google I/O 2023 mit KI und Webentwicklung // Qrisp // Meta Rekordstrafe

  • News 20 23

    News 20/23: Google I/O 2023 // Vue 3.3 // KI-Gerüchte über Apple auf der WWDC

Feedback
[object Object]