News 21/23 –

Google I/O 2023 mit KI und Webentwicklung // Qrisp // Meta Rekordstrafe

24.05.2023

Shownotes

Wie versprochen gibt es in dieser Folge einen Rückblick auf die Google I/O 2023:

  • PaLM 2 ist die Basis für fast alle Neuerung im KI-Umfeld von Google. Das neue Large Language Model basiert auf sehr vielen Parametern und kann damit viele komplexe Problembereiche abdecken.
  • Bard ist Googles Antwort auf ChatGPT und wird von PaLM 2 betrieben – leider aktuell nur per VPN nutzbar.
  • Innerhalb von Vertex AI, Google Clouds Bereich für Machine Learning, gibt es nun zwei neue Bereiche. Der Model Garden gibt Zugriff auf verschiedenste Modelle, die nicht zwangsweise von Google sein müssen. Im Generative AI Studio hat man die Möglichkeit, die Basismodelle von Google (beispielsweise Codey für die Programmierung) mit eigenen Daten zu tunen. Außerdem lassen sich Prompts testen.
  • Unter dem Namen "Duet AI" bietet Google in unterschiedlichsten Produkten Funktionalitäten ähnlich zu dem "Copiloten" der OpenAI-/Microsoft-Welt. Im Google Workspace hilft er beim Schreiben von Dokumenten und Stylen von Präsentationen, in der Google Cloud kann er bei jeglichem Problem zu den eigenen Projekten helfen.
  • Sebi gibt eine Übersicht über alle Web-Development-Themen, die im Rahmen der Google I/O zusammengefasst wurden. Die meisten haben wir im Podcast schonmal besprochen.
  • Project Tailwind ist KI getriebenes Notizbuch, wo ich zu meinen Unterlagen Fragen stellen und mehr lernen kann.

Außerdem:

  • Neues aus dem Quantencomputing-Umfeld: Qrisp ist eine neue "Programmiersprache", die das Entwickeln von Algorithmen für Quanten-Computer vereinfachen soll.
  • Meta muss eine Rekordstrafe zahlen. Über eine Milliarde Euro für das Missachten europäischer Datenschutzgesetze. 
/transkript/programmierbar/news-21-23-google-i-o-2023-mit-ki-und-webentwicklung-qrisp-meta-rekordstrafe
Hallo und herzlich willkommen zu einer neuen Programmier.bar Folge. 21 23 haben wir heute. Ich bin der Jojo und heute? Dabei sind. Der Fabi. Und der Sebi. Und ich bin der Dennis. Aber nur das, was ich gerade gehört habe, war nicht der echte Jojo, sondern ein generierte Jojo. Dazu gleich mehr. Wir haben heute im Programm einmal versprochen, dass wir noch mal ein bisschen auf die Google IO zurückblicken, was da so für Themen war. Das heißt, das wird heute der größte Fokus sein. Einmal so ein bisschen, was aus der Entwickler Sicht irgendwie spannend sein könnte. Dann noch mal ein bisschen über die Google ei. Wir haben mit zwei Boards Workspace Projects studiert. Man kann sich ja sehr verlieren in allen möglichen Begriffen. Und was ist verfügbar, was ist nicht verfügbar, Was ist angekündigt? Versuchen wir ein bisschen Klarheit reinzubringen. Und dann haben wir noch zwei spannende Themen Einmal unser jetzt schon lange nicht mehr gesprochenes Thema, der des Quantencomputing s. Da kommt heute eine neue. Ist das eine. Programmiersprache oder. Sprachliche Programmiersprache im Quantenumfeld? Und es gibt noch ein Update zu einem Thema mit Meta fünf. Und du bist wieder da, Dennis. Oh, das freut uns am meisten. Danke sehr. Zwei, drei Wochen. Nach zwei, drei Wochen? Ja. Der ist erst mal wieder dahin. Wie alt ist denn der Nachwuchs? Der zweite. Nachwuchs. Ist. Sie sind 16 Tage und zwei, drei Wochen ungefähr. Genau. Ähm, ja. Vielleicht ganz kurz das Intro aufklären. Ich glaube, wir haben mal irgendwann drüber gesprochen. Es gibt ja alle möglichen, auch da Modelle, die aus. Stimmen. Dann sind Texte Sachen machen können. Das, was wir da eben eingespielt hatten, das ist von elf Labs, so nennt sich das. Und Sie sagen, man braucht nur eine dreiminütige Sprachaufnahme, um ein Modell zu generieren. Was tatsächlich recht beeindruckend ist. Also ich habe sehr wenig Zeit investiert und einfach nur eine Podcastaufnahme von uns genommen und einen dreiminütigen ruhigen Teil von dir und mir da reingeschnitten. Es geht aber super schnell. Also das ist nicht irgendwie ein großes Training oder so. Man lädt es hoch und eine Minute später kann man damit praktisch dann Text generieren. Und jetzt eben. Ich glaube hier die Meinung war, es ist noch verbesserungswürdig, aber es hat zumindest schon ein bisschen den Ton dieser Stimmen. Man kann, man kann, wenn man es weiß, auch einigermaßen zuordnen. Wenn man es nicht perfekt, dann kann man auch das seriös. Da ist jetzt also man hat eben schon gehört, dass es eine computergenerierte soll. Es fehlte diese Natürlichkeit, aber von der Stimmfarbe ging es zumindest schon ein bisschen in die richtige Richtung. Auf jeden Fall auch spannend zu sehen, dass man das einfach mit einem kleinen Klick so macht. Hattet ihr eine News hattet über das Apple Dinge Redet mit diesem 15 Minuten. Was lernen. 15 Minuten lang haben wir drüber diskutiert. 15 Minuten Audio Datei brauchen bzw. bis man es da anspricht. Aber es war ja auch nur so bis Ende des Jahres irgendwie kommen und war ja in erster Linie für diese BTS, also all die, die ihre Sprache dabei sind zu verlieren und das dann vielleicht dem Kurs nutzen können. Sound WWDC steht ja an, würde vielleicht mehr auch zu solchen Themen erzählen. Da habe ich mich nur gefragt So sind wir in der besonderen Situation. Also sind wir mit Sicherheit, weil wir ein Podcast aufnehmen. Aber hätte man sonst auch. Und habt ihr so der Allgemeinheit irgendeine Sprachaufnahme, also aus einem Video oder so, die man irgendwie. Ich habe so gedacht, wenn du wirklich so kurze Schnipsel brauchst von diesem Microsoft Paper, wie hieß es noch? War ich glaube ich. Vielleicht hat man ja auf irgendein Video oder so dann doch was das man aber ich das mindestens auf jedem Smartphone irgendwo Recorder App und Sprachaufnahme und wenn wir da kurz was auch aber ich meine deswegen ist ja auch. Ich meine Apple ist immer sehr sehr freundlich so und dann die Bilder direkt ist toll, dass du was einsprechen kannst was dafür benötigt wird so sind und wir sind Es ist jetzt nicht so, wir sind alle nicht so weit weg von irgendwelchen Mikros und den wir irgendwas rein sprechen können. Ich meine WhatsApp Sprachaufnahmen keine Ahnung. Also du hast schon. Man hat. Ich glaube, dass man keine Sprachaufnahmen von sich hat. Wenn du ein Smartphone hast, ist schon. Die Frage, ob ierst du es dann irgendwo sind die genau? Weil ich hatte den Blogartikel gelesen. Das ist auf jeden Fall ein Feature, das jeder nutzen sollte. So habe ich auch gedacht okay, aber ein paar Sprachaufnahmen werde ich wahrscheinlich trotzdem von mir finden. Anyway, steigen ein mit den heutigen Themen. Sebi hat eben schon so ein bisschen mit dem Kopf geschüttelt, von wegen. Auch gab es gar nichts Spannendes. Oder hast du dich schon umentschieden? Was heute erzählst? Was? Was gibt es Neues? Also ich wollte ja ein bisschen die Neuigkeiten der Google I/O. Zusammenfassen. Und das gerade passiert also noch. Also, Neuigkeiten. Haben Sie irgendwas? Haben Sie nichts? Das ist nichts Neues. Alles, was wir hier irgendwann schon mal irgendwie durchgenudelt hatten. Aber sie haben es halt noch mal irgendwie so in einen Paketchen gesteckt und gesagt So, Ja, das ist alles, was wir dieses Jahr machen werden. Also Fabi hatte ja irgendwann den News schon mal dieses Basel ein Thema angesprochen, was dann irgendwann so eine Vereinfachung oder so ein STANDARD ist, wie man ausdrücken kann, welches Feature gerade irgendwie supportet ist und Bassline bedeutet und das von den aktuellen Major Browsern und einer Version davor unterstützt. Ja, das hatten wir schon. Wir haben schon mal über CPU geredet, ich ganz grob oder so und da haben sie sich natürlich nicht nehmen lassen, das Label eifrigst. Webapps sind damit dann möglich. Der Hammer und das andere war ja Web Assembly kann jetzt auch Memory Manage. Programmiersprachen in Zukunft. Das war ganz wichtig für die. Entwicklung unserer Community. Wir halt, weil was ist hier oder dieses andere Ding impeller? Und genau dafür wird das letztendlich gebraucht, um es dann besser einfach etwas besser abbilden zu können. Also ich habe das glaube ich maßgeblich beeinflusst. Das ist. Kein Zufall. Schön. Und der Rest sind viele Web Juice Features, von denen wir einige. Also wir haben viele davon schon angesprochen, ich sag mal so ein paar Sachen, zum Beispiel Textrap, Balance. Ein großer Fan von Hertha BSC. Oh Mann, so Überschriften, Überschrift ab und dann ist das so wie drei Worte in der ersten Zeile und ein Wort in der nächsten. Ein bisschen komisch aus Text Balance macht das dann irgendwie optisch ein bisschen schöner. Die Individual Transformers sind mittlerweile Base Lines supportet, kann man jetzt sagen. Es ist besser als alles was jetzt ist ein Feature. Ich kann dazu am besten die besten CSS Testing, also viele CSS Postprozessoren bieten die Möglichkeit das ich Selektoren in Selektoren verpacken kann und die werden dann miteinander verdrahtet. Stinkes Google Chrome auf der Liste oder wird bereits seit Google Chrome 112 unterstützt. Dann Style Queries finde ich noch ganz spannend. Das Container Queries habe ich jetzt weggelassen, aber also einfach das haben wir irgendwie schon durchgenudelt. Style Queries sind so ähnlich wie Container Queries, nur dass ich sagen kann, folgende Styles sind nur aktiv, Wenn eine CSS Variable, also eine Property, einen bestimmten Wert hat. Also so mehr oder weniger kann ich jetzt kleine View Sachen CSS ausdrücken, so super cool ist. Ich glaube, damit kann man dann völlig abgedrehte Sachen bauen. Ob man das will? Andere Frage Kalamics haben wir dabei. Newcomerspaces haben Sie im Angebot. View Transitions API hatten wir auch schon mal angesprochen, haben letztes Mal länger drüber gesprochen hatten, war das alles noch sehr experimentell nicht so gemeint, sondern genau wie ist ein API? Das ist, wenn ich auf eine HTML Seite gehe und dann einen Link und der Browser wechselt auf die nächste HTML Seite. Dass er diese. Diesen Übergang kann man jetzt per CSS stylen und mit Animationen versehen. Das sieht super schön aus. Die Beispiele, die Sie so bringen und das glaube ich, wird eine coole Sache. Da funktioniert das ja technisch so, dass ein Snapshot immer wieder vor der nächsten Seite dann schon machen kann und das dann einfach überhaupt ein. Ganz neues. Feature oder auch bisher nur der Chrome überhaupt nur an denkt. Das zu machen ist so ein Feature, weil es nicht zur Bassline wird, wird noch ein bisschen auf sich warten. Aber zumindest nicht bei mir. Weil wir gefühlt erst mal nur ein Chrome Feature und dann im Browser haben es. Ja so fabriziert, dass man die Augenbraue hoch und überlegt sich noch, was er damit macht. Und ich habe jetzt in seinem Podcast oder im letzten Podcast gesagt, dass er sehr darauf wartet und sehr viel darauf aufbaut, dass er sich gar nicht mehr drum kümmern muss, wie die Übergänge sind, sondern einfach ein futuristisches nutzen kann. Es ist eine coole Sache und immer warten. Der Clou ist ja, dass sie nicht immer die komplette Seite, sondern dass du jedes Element irgendwie screen starten kannst. Das wird dann krasse Flexibilität einfach am Scroll Animations. Naja, also auch ich bin nicht so ein großer Fan davon wie ich scrolle auf der Seite runter und irgendwie alles baut sich rum und fliegt dazu. Aber man kann von der Com dann auch noch mal ein Bassline Feature haben, was ich gar nicht auf dem Schirm hatte, weil ich es nicht so wichtig finde. Aber Structured Clone Klon ist das bessere. Jason String if Jason parts oder andersherum ist fast schon String. Also wenn man ein kleines JavaScript Objekt duplizieren oder klonen möchte, das hat ja Note auch schon mittlerweile drin und das Klonen hat so ein bisschen besseres Handling für Maps und Sets und Dates und sowas. Eine Sache, die ich schon hatte. Transformstreams. Sind. Ich glaube. So vielleicht auch bei Island. Es ist schon ein bisschen älter. Die Geschichte ist dafür, wenn ich im Browser selber Streams verwenden möchte, um beispielsweise in ein Dateiformat Load zu zappen oder irgendwie sowas. Oder auch in welche Videoformate glaube ich dann zu entpacken. Ich glaube, gerade für solche Audio Video Anwendungen ist das nicht geeignet. An mir zumindest primär vorbei, weil ich damit gar nicht so viel mache. Das ist. Kein. Dann kann man jetzt schon auf den. In den Weblogs wo man drauf geht, steht ja oben immer Das Wetter ist ganz nett. Das haben wir jetzt hier. Das war nicht sehr produktiv. Ich finde, dass es besser ist unter dem Browser Kompatibilität. Sie sehen viele grüne Haken da. Warum steht das Baselland dreckig da? Sie haben auch gesagt, dass Basel wird erst noch ausgerollt im Laufe des Jahres. Okay, aber ich würde sagen, hier steht eigentlich steht überall grüne Haken dran. Transferable Propaganda und Stream Pöbel ist nicht in Safari, also nicht komplett Support wahrscheinlich. Hier. Safari steht NO bei Transferable innerhalb des Transferstreams da. Ja, wie auch immer. Ich glaube, dass es hauptsächlich für Library Menschen interessant, weil das unter der Haube eben glaube ich ganz spannend ist. Am FEZ. Das Bodyattribut oder die Response von Feeds. Kann ich mir in beide Richtungen als Stream auch geben oder wird es auch als Stream unterstützt? Whatever import maps. Kannst du das gerade noch? Ob Import Maps klein sind? Ich glaube nicht das es relativ fresh, also Import Maps in JavaScript ist, dafür dass ich meine Imports ein bisschen einfacher schreiben kann. So ähnlich. So ähnlich wie Packages von instanz OS man package name und dahinter verbirgt sich dann irgendeine URL oder sowas. Ja und das habe. Ich noch nicht ganz durchgezogen. Also import map. Der Script type steht eigentlich im Browser und irgendwie grün. Firefox 108, Chrome 89, was die aktuellste aktuellste Version. Chrome jetzt nicht auf keiner iOS 113. Okay, gut dann also da müsste eigentlich da steht das aber noch nicht da vielleicht steht es besser anders. Also wir haben als wir besprochen haben auch gesagt es kommt drauf an und es kommt auf keiner User und auf keiner User habe ich noch nie irgendwas von Base eingelesen, aber sie haben auch gesagt, was der Rollout findet und was ja auch Vorteile hat. Also gut, oder? Also das wir schon alles irgendwann mal besprochen hatten und eigentlich gut, dass wir sind. Also Autorität. Ja, aber gut, wenn man die Zusammenfassung jetzt zu haben. Ja, finde ich auch gut. Und ja, ist auf jeden Fall super beeindruckend, wenn man das nochmal so in einem Package sieht. Was sie an Features da reinpacken und raushauen ist echt cool. Sehr schön. Vielen Dank für das die Zusammenfassung, Sebi. Aber wollen wir weiter machen? Ich glaube, da überschneidet sich das ja vielleicht. Oder gucken wir das genau zusammenbringen. Denn unsere Themen. Fangen nun mal an. Genau an der Google I O wurde ja Pam II erst mal vorgestellt. Also Pam steht ja für Pas Query Language Model ist eigentlich ein Ansatz, den Google 2021 vorgestellt hat und der einfach so vom. Damals war es noch so, dass alle irgendwie Modelle eigentlich so spezialisiert waren auf einen Aufgabenbereich und letztendlich dieses Paar es dann zum Ersten Mal, wie natürlich auch CPT versucht hat einfach eher so eine allgemeine Transformer Architektur aufzubauen, wo man halt verschiedene Sachen mitmachen kann und zwei ist eben dort vorgestellt worden. Ist ja ein Bestandteil, den wir jetzt in vielen Googleprodukten letztendlich wiederfinden werden. Ist also sozusagen aktuell das größte und auch ein sehr sehr leistungsstarke. Eben von Google wird wahrscheinlich irgendwann in Zukunft dann eben durch dieses Gemini Projekt, was zwischen dem und Google gerade läuft, dann abgelöst werden. Aber aktuell wird das erst mal sozusagen als Grundlage für verschiedenste Produkte genutzt werden und was sie dort gemacht haben, Sie haben das eben sehr viel mehr mit. Also Pam wurde ja im Jahre 2022, das ist ja Anfang letzten Jahres glaube ich, vorgestellt. Das war die erste Generation und haben jetzt einfach sehr viel mehr Tokens zum einen verwendet. Also Sie sprechen jetzt davon, dass die 3,6 Trillion sind Billionen Tokens verwendet haben, um das zu trainieren, was auch nochmal doppelt von dem Faktor ist, was wir gibt, die verwendet wurde, zum Beispiel, und dass sie 100 Sprachen verwendet haben, um das gesamte System zu trainieren, also erstmal sehr breit aufgestellt sind, welche Sprachen unterstützt werden und da eben eingegangen sind. Und damit ist es immer besser möglich natürlich, dass man irgendwelche Gedichte übersetzt oder Texte übersetzen lässt von diesem Tool und dass er auch diese Sachen entsprechend interpretieren kann, was sie auch gemacht haben, dass sie sehr viele Scientific papers, also irgendwelche Wissenschaftsliteratur eingepflegt haben, Paper eingepflegt haben, Webseiten mit mathematischen Ausdrücken eben sehr stark zum Zuge kommen, sodass auch das gesamte Reasoning der Engine deutlich verbessert werden kann. Man kann wirklich den Technologiegaufgaben letztendlich stellen und er kann sie dann interpretieren und die Lösung dafür entwickeln. Also vermag es da eben schon sehr gut, letztendlich den Kontext zu verstehen und solche Sachen nachzuvollziehen und ausführen zu können und was sie eben auch gemacht haben. Und das ist ja das, was letztendlich auch im Bad jetzt schon zum Tragen kommt, dass sie eben auch sehr viel Public Source Code in die Trainingsdaten mit eingegeben haben, also dass man dort eben jetzt auch sehr gut sich Code generieren lassen kann, was vorher eben auch recht beschränkt war. Das war, glaube ich schon, dass das vor drei, vier Wochen rausgekommen ist, dass dort eben die Unterstützung deutlich besser jetzt integriert ist. Sie haben dort eben, wie so viele andere Modelle haben, eben auch vier verschiedene Größen letztendlich das Modell ist und da geht es letztendlich nur darum, wie viel Billionen Parametern eigentlich nachher in dem Weltmodell abgedeckt werden. Und die haben alle lustige Tiernamen, nämlich der Code zum Unicorn. Und vor allem ist wohl so gleichgewichtig, dass man das eben auch auf mobilen Devices betreiben kann, um in Zukunft natürlich alle möglichen Applikationen, die direkt auf dem Gerät mit vielleicht Offline Support laufen sollen, unterstützen zu können. Und da haben sie auch eine sehr gute Performance 20 Tokens pro Sekunde, die sie damit umsetzen können. Und ja, was wir eben schon gesagt hatten, es hat natürlich Auswirkungen für Bad, also Bad wurde letztendlich dann auch ist aus der offiziellen Test rausgekommen. Das heißt jeder kann jetzt im Bad offiziell nutzen und muss sich also es gibt Einschränkungen, darauf komme ich gleich noch zu sprechen ist jetzt in drei Sprachen verfügbar. Vorher war es ja nur letztendlich Englisch und jetzt unterstützen sie noch Koreanisch und Japanisch. Gott sei Dank. Gott sei Dank und in 100 verschiedenen Ländern verfügbar. Aber es ist eben so, dass einige Länder im europäischen Raum, gerade auch Deutschland, noch ausgeschlossen sind, weil wohl da noch rechtliche Fragen offen sind, die noch geklärt werden müssen, bevor das auch hier ausgerollt wird. Soll aber zeitnah passieren. Also arbeiten sie mit Hochdruck daran. Aber momentan kann man es noch nicht hier wirklich nutzen. Was passiert ist das dann? Also ich. Ich glaube das was Sie CNBC eben an ein Aussage kommen ist wie groß letztendlich das Modell ist. Und da kam eben diese Zahl, dass sie 3,6 Trillion Tokens genommen haben, dass das Modell. Jetzt 3 Millionen Trillion Billion. Billionen, ja genau, Trillion sind Billionen und dass das gesamte Modell hat es 340 Milliarden Parameter enthält. Und das sind natürlich eigentlich Informationen, die ein Unternehmen nicht gerne herausgibt. Also auch etwas, was man bei Wikipedia immer nur munkelt und das ist irgendwie geleakt worden. Also irgendwas hat letztendlich aus dieser Forschungsarbeit. Das ja sofort verlautbaren lassen. Und wo natürlich dann auch auf Twitter dann einige Entwickler, die in dem Bereich sagen, dass das halt auch schlecht ist. Natürlich ist es momentan so das höchste Gut, was diese Unternehmen haben, das halt diese Sachen momentan in diesem sehr engen Rennen zwischen den großen Anbietern eben geheim gehalten wird und dass das natürlich entsprechende Sicherheitsauflagen dann in Zukunft für die Arbeit dieser Forscher bedeuten, wenn solche Sachen dann dann doch ans Tageslicht kommen und grundsätzlich aber sehr, sehr viele Forscher natürlich dafür auch aussprechen, dass eben da eine höhere Transparenz von den großen Unternehmen zu Tage, also in Zukunft eben dann passiert, dass man einfach ein bisschen mehr mitbekommt, was dann wirklich die Daten, die wir in das Trainieren dieser Modelle eingeflossen sind. Und wie groß sind auch so gewisse Leistungsparameter, dass das einfach dann helfen würde, einfach da ein bisschen besser einschätzen, Überblick und auch eine Transparenz dann einfach zu haben. Genau das hatte ich eben schon angesprochen, was dort eben jetzt Möglichkeit gibt, so als neue Funktion. Also es ist so, dass die so ein paar Sachen angekündigt haben, die jetzt nach und nach rauskommen, dass man jetzt direkt glaube ich schon oder jetzt bald die Möglichkeit hat, inwieweit Ausgaben irgendwie direkt zu Gmail oder Google Docs zu exportieren, sodass man sich da zum Beispiel einfach ein Email betreff eine Email generieren lassen kann. Das wird dann direkt sozusagen in Gmail überführt, sodass man das dann vielleicht mit leichten Änderungen direkt abschicken kann. Was auch noch kommen wird, das ist, glaube ich schon direkt mit dem Redis auch möglich gewesen, dass sie das anders machen wie zB hier und viel stärker darauf eingehen. Was sind eigentlich die Quellen, woraus letztendlich Situations, also wenn Sie irgendwas zitieren, wirklich dann gezogen werden, das heißt, wenn man eben eine Ausgabe hat, soll man in den meisten Fällen eben recht einfach solche Zahlen sehen und kann jetzt nicht auf diese Zahlen klicken, um dann letztlich auf die Quelle zu kommen, also direkt auch letztendlich als Link zu kommen. Es ist so in meinen Test, dass es immer noch sehr viele Texte gibt, wo es keine Seite oder diese Referenzen nicht gibt. Aber grundsätzlich ist sozusagen diese Information in einem ganzen Board wahrscheinlich auch ein paar Modelle einfach besser abgedeckt. Wo war eigentlich die Quelle, aus denen ich dann letztendlich gewisse Kontexte gezogen habe? Das ist dann per VBA gemacht oder bei Tests, wenn dann. Was jetzt gerade gestern veröffentlicht wurde, dass jetzt auch Chatboard mit mit Bildern antworten kann. Also wenn man letztendlich eine Anfrage stellt oder expliziten Anfrage, kannst wir das mit dem Bild unterlegen, dass er dann auch Bilder generieren kann. Dafür nutzt er einfach dann die Google Bildersuche, um eben was passendes irgendwie zu generieren oder zu suchen. Einfach nur. Und was jetzt in nächster Zeit noch kommen wird, dass man auch eben Bilder mit in dem From geben kann, um dann interpretieren. Das heißt generiert keine Bilder, sondern erfindet einfach nur Bilder. So wie ich es verstanden habe. Genau das ist keine Generation. Da arbeiten sie wohl sehr eng mit den Produkten an und wollen das natürlich auch in Zukunft integrieren, dass man sich auch dort Bilder generieren lassen kann. Aber aktuell, das ist eine reine Bildersuche, die passiert. Und der nächste Schritt wird eben so sein, dass man auch das die Multimodalität, die das Modell eigentlich hat, auch nutzt, sodass man auch letztendlich in den Frames Bilder dann eben mit vertreten kann. Genau das war eigentlich so die krassen Punkte zu Bart und paar haben wird ja auch noch in einigen anderen Produkten von Google jetzt Einzug gehalten. 25 25 Genau. Ja. Ich glaube aber nicht, dass ich auf alle 25 eingehe, aber trotzdem versuche noch mal zwei drei Begrifflichkeiten oder mal ein bisschen einzuordnen. Ich glaube eine der Sachen, die du gerade schon gesagt hast, also ja, du kannst aus Bad glaube ich dann auch in Richtung Gmail und sonst was was rauskopieren, aber es soll auch praktisch in die ganzen Workplace Sachen, Workspace Sachen diverses Workspace nicht gleich Google Books Feeds Einzug erhalten. Sie nutzen diesen Namen Duette äh ähm, also das was Microsoft Welt alles Kopilot ist also die haben irgendwie dann Windows Copyright und da Bingo okay das ist bei Google jetzt Duett API und dieser Name wird aber auch in unterschiedlichen Kontexten benutzt also der ist dann in verschiedenen Produkten drin. Ich glaube für uns oder für den für Entwicklerinnen ist ganz interessant, dass es da dieses CDI spezifisch für die Google Cloud geben wird. Das ist eigentlich, dass die praktisch das Modell noch mal eingetütet haben, auf alles wissen, was irgendwie mit Google Cloud Technologien zu tun hat, so dass es dann ist. Und dann kannst du auf verschiedenen Ebenen darauf zugreifen. Zum einen wird das auf der Oberfläche von Google Cloud und Chat geben, wo du einfach interagieren kannst und sagen kann ich muss jetzt gerade hier das Projekt, ich muss irgendwie hochskalieren oder ich habe ein Kostenproblem oder wie kriege ich das in andere Regionen sehr spezifische. Fragen zur Google Cloud kann ich dort einfach in einem Chat Interface stellen und kriegt dann sehr spezifische Fragen, die die Antworten haben für Google Cloud inklusive auch Codes der Pizza, dass ich einfach direkt ausführen kann. Das bringen sie auch in unterschiedliche IDs. Also das waren ja unter anderem Visual Studio Code, aber es gibt auch noch einige andere noch dabei diese Unterstützung direkt hat und auch da genau solche Sachen eben direkt machen kann sagen kann hey ich will das jetzt die planen, was muss ich tun und kriegst dann die direkten Anweisungen und er kennt halt genau das was er ist und das letzte was sie in dem Rahmen noch auch gesagt haben, dass das zukünftig also die Studie ist, die das Chatinterface auch mit eigenem Code funktioniert im Sinne von Du kannst dein ganzes Projekt da rein laden und dann kannst du auch auf Chatbasis Fragen dazu stellen und optimieren lassen. Und das rein laden heißt einfach ich verknüpft das oder was ich ich copy paste also irgendeiner die. Genau ob sie das also das haben sie noch nicht so genau definiert ob das dann einfach in der Idee auch machst und sagst das jetzt frei aber ja, da kommen wir gleich noch in eine andere Möglichkeit mit der das jetzt auch schon bald geht, nur nicht in dem Chat in der Phase, sondern dann einfach als API auf ein Modell. Und zwar, dass es letztendlich also fertig sei, ist ein Bereich in der Google Cloud, den es auch vorher schon gab, wo alles zusammengefasst ist, was irgendwie mit Machine Learning zusammenhängt. Und da gibt es jetzt zwei neue Bereiche. Der eine nennt sich Model Garden und der zweite ist das generative N Studium. Das sind zwei die zwei neuen Bereiche, die es dort gibt, der Modul Garden. Soweit ich ihn verstehe, ist er so ein bisschen vielleicht, vielleicht, wie auch Hacking Fake ist. Also es sind einfach verschiedene Modelle, die dort angeboten werden, auch nicht nur Google Modelle, sondern es sollen auch externe Modelle dort eingebunden werden, die man dann nutzen kann, um Projekte zu erstellen, um verschiedene Dinge dort einfach ausprobieren und diese Modelle letztendlich in der Google Cloud laufen zu lassen und zu nutzen. Hmm. Kannst du diese Modelle dann direkt ansprechen oder ist es so, dass das einfach wie halt eine Theorie ist, die du die Sachen runterlegst? Ich glaube schon, dass du da ziemlich direkt mit interagieren kann. Du kannst dann irgendwie ähm, das öffnen und da musst du schon ein bisschen was glaube ich programmieren dann und zu nutzen. Aber das es trotzdem in dem in der Oberfläche von von Google Cloud aber es gibt es von mir es gibt ja auch Feintuning bei Models also es gibt auch welche die sind dann noch die du in tun kannst das heißt es dann das musst du selbst machen da kannst du dann ja da kannst du dann mit eigenen Daten das auch noch mal unterstützen. Das ist aber auch das also wo es jetzt noch, wo es einfach gemacht wird in diesen Generative N Studio da ist es so, dass dort diese Foundation Models von Google sind und von diesen Foundation Models sagen sie haben es im Moment drei größere, die sie dort abbilden, also dass es einmal Code war, so ein bisschen dieses Open Air Kodex repräsentiert also das ist 1/2 ein Derivat was explizit für Coding Aufgaben genutzt wird das ist eins der Fondation Models, was es gibt, dann gibt es das Imagine, was wir auch schon mal hatten. Das ist praktisch die Bild Generierung von Google. Und dann gibt es noch Tiere und dieses gab es Text to speech letztendlich als, als, als Basis. Und dann ist es so. Dass man und das finde ich eigentlich super spannend und dann auch gleichzeitig enttäuschend, weil es noch keinen Zugriff darauf gibt, dass man diese Modelle dann mit eigenen Daten fein tun kann innerhalb dieses Studios und dann beispielsweise der API darauf zugreifen kann. Das heißt, damit garantieren sie letztendlich, dass die Daten in Kapsel bleiben, also dass deine Daten nicht irgendwo anders benutzt werden. Das heißt, da kannst du sicher hochladen. Im Beispiel von dem Kode. Du kannst aber das Projekt von dir, die Code dort einchecken, Darauf wird das Modell trainiert und dann hast du ein API Endpunkt, wo du darauf basierend auf diesem Modell eben Abfragen machen kannst. Hm, Ja. Das finde ich, finde ich super spannend. Das, was wir im Moment dort nur machen können, das soll es ein bisschen verwirren in den vielen der Blogposts. Also diese Sachen sind jetzt schon möglich, aber dann guckst du in der Konsole und davon ist noch nichts möglich, dann wird es irgendein anderer Artikel und steht da usw. und dann steht da irgendwie Beta Testprogramm und es gibt sehr, sehr viele Dinge, die da gerade passieren. Und es ist nicht ganz einfach zu verstehen, wozu hat man jetzt gerade Zugriff, was dauert noch ein bisschen und was kommt bald? Aber all diese Dinge, wenn man sie jetzt noch nicht hat, sollen nicht mehr lange dauern, bis man da dann den vollen Zugriff hat. Im Moment haben wir auch, da wir jetzt noch nicht den Palm II Zugriff, sondern nur das erste Modell und können aber da beispielsweise auch schon so Feintuning machen haben, wo sie auch ein was ich eigentlich ganz cool finde sagen so du kannst einfach einen Jason Fall hochladen wo du Proms nutzt und um dann praktisch so eine Firmensprache oder wie du normalerweise auf Social Media sprichst oder so was einfach mitgeben zu können im Modell, dass einfach das Modell dann so antworten kann, wie du es eigentlich gewohnt ist. Bei uns habe ich gedacht, keine Ahnung, könnten einfach mal unsere Supportcases, die wir beispielsweise haben können, einfach mal alle anfragen und alle Antworten dann mal hochladen. Und dann haben wir ja so ein Set an, das ist eine Standardantwort, die wir geben, um zu gucken, ob wir damit einfach Supportanfragen automatisierter beantworten können, weil es eben dann in unserer Sprache, so wie wir sonst antworten, unseren Usern dann wäre Klingt alles cool. Es ist nicht ganz so einfach, da durchzublicken, was jetzt gerade verfügbar ist, was neu ist. Ja, aber einiges, was? Auf jeden Fall, worauf wir uns freuen können. Seien Sie also nicht so! Wo ich nicht besonders beeindruckt war von dieser Duett App Therapie, was die für Google Workspace machen soll, das war noch so, keine Ahnung. In Google Slides kann man sich jetzt Bilder generieren lassen. So, das ist noch finde ich relativ unbeeindruckt von wenn man die Vorstellungen gesehen hat von Microsofts Kopilot für die Slides, wo man einfach ein Dokument hat mit einer Outline und sagt generell eine Präsentation und du kriegst eine komplette Powerpoint mit Animationen und Slides und Bildern und allem irgendwie generiert. Ist schon irgendwie eine andere Hausnummer als ich baue mir jetzt ein Hintergrundbild, müsste ich es irgendwie in Google mit Integrieren Sie es jetzt um Hintergrundbilder zu generieren oder es ist jetzt auch nicht der Mega. Soll ich das unbedingt brauche so? Naja ja, aber kommt auf jeden Fall einiges spannendes. Eine Kleinigkeit, die ich auch noch spannend fand, noch kurz nennen möchte. Auch da hat man noch keinen Zugriff, weil es auch nur in den USA only ist und dann mit einer weit lässt, ist das sogenannte Projekt Talwind und da geht es letztendlich darum, ich der USGS ist, glaube ich, dass man so ein eigenes wie ein eigenes Notizbuch hat und das vor allen Dingen fürs Lernen, also für Schüler und Studenten, irgendwie interessant sein kann, weil das basiert dann auf Informationen, die man diesem Notebook zur Verfügung stellt. Das heißt es dann nicht irgendwie die ganze Welt von allem, was dieses Sprachmodell irgendwie kennt, sondern du kannst beispielsweise dann, wenn du irgendwie Unterlagen hast oder Unterlagen von der Vorlesung oder so was, kannst du die da reinpacken und kannst dann dir darauf basierend beispielsweise Circles erstellen lassen oder kannst explizite Fragen stellen. Du kannst dir was erklären lassen. Es hat dann natürlich das background Wissen von all dem, was irgendwie sonst noch da draußen da ist, aber ist eben explizit auf deinen Content, auf das, was du brauchst und und in diesem einen Buch hast das. Ja, hört sich für mich auf jeden Fall superspannend an. Für einen echten US Sketch damit zu arbeiten, dass er seine eigenen Sachen rein zu beißen und n Ei zu haben, die einem da einfach hilft, das Ganze zusammen zu fassen, zu lernen. Projekt Avent. Namen für unsere Podcast nicht ganz so gut gewählt mit unserer Tailwind CSS Liebe. Aber gut, so ist das. Ja, ich glaube. Jetzt kommt das Spannendste zum Schluss. Egal. Was soll das heißen? Ich tippe heraus, dass das nicht ganz ernst meint. Die Aussage. Ich habe nicht gesagt, man kann Liebe nicht ohne egal buchstabieren. Aber wenn man zwei Thema wählt ja. Wir können ja damit, dass das spannend zum Schluss kommt, was ja wirklich ganz spannend ist. Vor noch. Es gibt. Da brauchen wir gar nicht so viel zu erzählen. Ich fand es nur, weil wir Quantencomputing immer mal auch immer wieder als Thema hatten. Jetzt gibt es eine neue High Level Programmiersprache. Nennen Sie es zwar wohl diese Programmiersprache im heißen Ökosystem, Also eigentlich schreibe ich Python und deswegen habe ich mich vorhin zurück an die Schreiben zwar Crispy High Level Programming Language, aber am Ende schreibe ich Python und importiere Chris. Ist es als Modul, was ich installieren kann? Aber was macht es mir so, typische Aufgaben, die ich beim Quantencomputing Programmieren habe, zu abstrahieren und das mache ich nicht. Ich muss trotzdem verstehen, wie Quantencomputer funktionieren und so etwas oder grundsätzlich wie ich mit sowas arbeite. Aber ich muss mir kein Ich habe keinen Qubit Management, weil um was ich mich dann kümmern muss und Lifecycle Manage Management und kann schon. Wenn man sich die Syntax anguckt und Vergleiche sieht wie. Wie es bisher gemacht wurde, verstehe ich die Abstraktionsschicht davon. Und das ist auf jeden Fall abstrahiert wurde, dass ich damit programmieren kann, bin ich trotzdem noch weit davon entfernt, das erzählt zu müssen. Übrigens vom Fraunhofer Institut geschrieben worden, also etwas deutsch entwickeltes und. Also man muss sich mit dem Thema beschäftigen, dass diese Abstraktionsschicht jetzt etwas bringt, aber zumindestens wirkt der Einstieg dadurch ein wenig einfacher und man kann zumindest sich ein bisschen mehr auf den Algorithmus konzentrieren als auf. Wie programmiere ich einen Quantencomputer? Der schaut sich gerne an, wenn in dem Thema interessiert Seite. Ich finde es ganz interessant, dass da ein bisschen Entwicklung kam. Ihr Ziel ist damit eben, dass mehr in der in der Entwickler Szene einfach das Ziel ist, ein bisschen auch mehr Research zu bekommen, die einfach sich mit dem Thema beschäftigen können, wenn sie diese Abstraktionsschichten schaffen. Mal schauen, ob das jetzt schon tut oder ich denke, es wirkt wie ein erster Schritt in die richtige Richtung. Aber es wird noch nicht der Meilenstein sein, um jetzt die Tore viel weiter aufzumachen. Trotzdem interessant High Risk geschrieben. Genau. Ansonsten liebäugelte man. Zwar gab es eine Rekord Bußgeld für Meter müssen 1,3 Milliarden US Dollar zahlen. Ich habe mir ein bisschen Fakten von unserem Master of Legal Richard geholt. War ein Podcast zum Thema. Hatten wir schon mal. Ja, auf jeden Fall. Ist diesmal nicht selbst da, aber hat mir eine lange Zusammenfassung darüber geschrieben. Und zwar ist es so, also verfahren ist jetzt schon zehn Jahre lang ging geht um Datenschutz und es hätte bis zu 4 Milliarden € Bußgelder geben können dass jetzt aktuell 1,3 Milliarden damit hat Meter sechs der Top Ten Bußgelder von insgesamt 2,5 Milliarden $ erhalten, schreibt der Richard. Was erhalten ist auf jeden Fall nicht der Begriff bei, bei Bußgeldern und zusammen mit Google sind es 9/10. Google haben 9/10 der höchsten Bußgelder, was Datenschutz Bußgelder angeht, eingeheimst. Und die Gründe für die Entscheidung ist ein bisschen, dass die EU ja die USA als sicheres Drittland kategorisiert. Das heißt geht es ja darum, dass im Endeffekt US Gesetze den dortigen Behörden relativ viel Freiheit geben auf Daten von EU Bürgern zuzugreifen, wenn sie einmal an ein US Unternehmen übermittelt wurden. Und die und Meter hat in diesem Zug die Anforderung der DSGVO nicht ausreichend nicht ausreichend erfüllt. Und genau das müssen deswegen jetzt diese Strafe zahlen. Im Endeffekt jetzt zehn Jahre lang das dort nicht beachtet und deswegen kommt jetzt die Strafe die man natürlich auch schon direkt also was hat das für Folgen für mich jetzt schon angekündigt darauf in Berufung zu gehen? Ich glaube, sie haben bis zu sechs Monate Zeit dieses Bußgeld zu zahlen. Aber wie gesagt, gehen in Berufung und so ein bisschen die Hoffnung aktuell ist, glaube ich, oder das was, worauf ich so ein bisschen spekuliert. Es gibt ein neues Abkommen, was irgendwie ansteht. Das Transatlantic Data Privacy Framework. USA und EU arbeiten da schon länger an einer, an einem, an einem möglichen Abkommen und. Und dann ist es so, dass US Unternehmen sich zertifizieren lassen können innerhalb dieses Abkommens, dass sie sozusagen dann ein Unternehmen sind, das ein angemessenes Datenschutzniveau das dann wirklich auch erlauben würde, dass. Die Daten in die USA zu transferieren, weil sie es nicht tun, ist relativ unwahrscheinlich. Sondern sie würden eher dann auf so was pochen, dass sie dann da die Zertifizierung sich holen, weil eine andere Lösung nicht so wirklich denkbar ist. Schreibt der Richter. Auf jeden Fall in dem Fall. Es gab schon ähnliche Abkommen Safe Harbor und das EU US Privacy Shield. Die wurden aber immer aufgekündigt. Ich glaube, den Datenschützer Max Schrems ist gegen beides in Berufung gegangen. Es gibt beides nicht mehr. Mal schauen, ob dann das Transatlantic Privacy Framework einer Klage standhält. Mag schon sein, glaube ich. Erstmal gekündigt, dagegen dann wieder vorzugehen. Aber selbst wenn er dagegen vorgeht, wenn es dann erst mal in Kraft tritt, würde es eine Weile in Kraft sein, bis dann überhaupt das durchgeht. Das heißt, sie würden das wahrscheinlich probieren, in Berufung gehen und dann bzw. sich zertifizieren zu lassen, weil relativ unwahrscheinlich ist, dass innerhalb von sechs Monaten sie dann irgendetwas verändern. Sie haben nicht genau, denn sie haben die sechs Monate zu zahlen und sechs Monate Zeit, etwas daran zu ändern. Insgesamt haben sie ja zwölf Monate oder sechs Monate, bis sie irgendwie handeln müssen und dann sechs Monate auch noch mal, um den Umzug damit zu machen, besetzt sein, kein Verkehr mehr dann rausgeht. Das hatte ich nur so in Erinnerung. Aber weißt du, dass die Frage ist natürlich auch mit dieser Zertifizierung natürlich. Hier steht. Die irische Aufsichtsbehörde hat eine Frist von etwa sechs Monaten gegeben, um den Umgang mit Daten von EU Bürgern anzupassen. Etwa sechs können es auch. Das sage ich jetzt auch nicht. Ja, ich dachte, da gibt es noch eine zweite Zahl, dass es dann irgendwie nach sechs weiteren Monaten dann gar nicht mehr zulässig ist. Aber was ich nur sagen wollte Natürlich werden amerikanische Behörden immer das Interesse haben, irgendwie auf diese Daten zuzugreifen, wie auch immer sie da rankommen. Aber was diese Zertifizierung wirklich bedeutet und klar werden die sich bemühen, so was zu bekommen. Aber eigentlich weiß man wahrscheinlich trotzdem. Okay, wenn die Daten weiterhin irgendwo in Amerika liegen, gelten dort natürlich auch entsprechende Bestimmungen. Ob das dann so dann abgeschwächt wird, dass so was, was aktuell ja möglich ist, ohne richterlichen Beschluss einfach jegliche Kommunikation in die Daten von Nicht US Bürgern einsehen zu können, dann noch so standhält, das. Werden wir dann sehen. Also ich bin sehr gespannt. Und das ist natürlich auch schon lange in der Verhandlung, dass dieses Abkommen, wann es kommt. Ich glaube, es kommt ganz darauf an, was sie wie die USA. Definitiv. Ob sie es schaffen, sich dann zurückzuhalten, was das angeht. Und deswegen hat er wahrscheinlich auch gar nicht so geringe Chancen, dass Max Schrems wahrscheinlich auch da wieder mit einer Klage durchkommt. Es bleibt selbst spannend und vielleicht auch nicht das letzte Bußgeld von mir sein. Er hat, hat er Max Schrems seine Lösung? So, ich glaube, da sagt man dann einfach, die Daten sind Facebook also komplett einfach, trennen die Daten und sagen, es gibt dann ein Datencenter in den Ländern. In Europa ist ja aktuell, dass die, das ist aktuell das, was sie machen müssten. Genau das ist also eines rechtlich keine Grundlage dafür gibt, dass sie, dass sie das schaffen, dass da also dass sie wirklich die Daten von EU Bürgern schützen können. In den USA müssen sie sich trennen. So bisher haben sie es halt nicht gemacht, obwohl sie es müssten. Also müssen sie aktuell auch schon machen zeitlich. Was und das ist ja auch aussagetechnisch, wäre das möglich, weiß, dass man Daten so verteilt aber natürlich dann die und natürlich die Daten an ihn bezieht und sie dann in der Benutzer darzustellen. Aber sie müssen jetzt nicht alle in Amerika liegen, um halt bestimmte Funktionen zu erfüllen. Aber klar ist das natürlich eine technische Herausforderung, wie man so was abbilden würde. Letztendlich besteht ja auch dieser Punkt schon sehr lange und die irische Datenschutzbehörde dadurch, dass natürlich Facebook in Irland ansässig ist, hat sich natürlich sehr lange geweigert, da entsprechend gegen vorzugehen. Und jetzt gab es ja dann glaube ich eine Entscheidung von einem europäischen Gremium, was dann gesagt hat, ne, die müsste jetzt aktiv werden und das entsprechend ankreiden. Gut, knackig, knackig, das sind wir immer, das können wir gut, wenn jetzt folgen. Sehr schön, vielen Dank fürs Zuhören. Feedback an Programmier. Ne Podcast programmier.bar. News programmier.bar habe ich das letzte Mal gelernt. Zwei Wochen nicht hier gewesen, schon geht es wieder auf die Homepage und schreibt das Kontaktformular. Programmierung war sind das häufig der häufigste Kanal das Kontaktformular. Ich glaub die hat einfach mal so an die Emailadresse. Ja stimmt schon. Bis nächste Woche. Oh, in zwei Wochen ist. DC Apple keine Updates bestimmt wird. Aber das können nur die Coolen sein, die da anzeigen lassen. Da werden wir wahrscheinlich wieder eine Specialfolge rausbringen. Und sonst haben wir uns nächste Woche wieder. Bis dann. Mach's gut. Ciao. So?

Verwandte Podcasts

  • News Asset 40

    News 40/24: OpenAI Dev Day und mehr // Wordpress und Open Source // Meta Connect 2024 // Deno 2.0

  • AI News 2023 24 (2)

    News AI #30: Aleph Alpha Strategiewechsel // Virtual Try On // Claude for Enterprise

  • Lotum News Asset 34

    News 34/24: Google Pixel AI // Crowdstrike Nachlese // Alternative App Stores

  • News Asset 32

    News 32/24: Google Monopol(y) // porffor // TypeScript in Node // Imports in Deno // Stack Overflow Developer Survey

  • AI News 2023 24 (3)

    News AI #26: Kyutai Moshi // Aleph Alpha Series B Fake // OpenAI Security Whoopsie

  • News Asset 28

    News 28/24: Ladybird // Cursor // Google I/O Connect // dotenvx // window.ai

  • Ai News 2023 24 (2)

    News AI #23: OpenAI-Drama // Google AI Overview // Golden Gate Claude // Perplexity Pages // Hugging Face FineWeb

  • News Asset 16

    News 16/24: Kuto // Google Cloud Next // Coordinated Lunar Time // ECMAScript & Signals

  • 18 Ai News

    News AI #18: Apple MM1 // Mistral // Grok // Inflection & Microsoft // Open Interpreter

  • 08 Ai News

    News AI #8: OpenAI DevDays // State of AI // DallE3 // Zephyr // Fuyu 8B

Feedback