programmier.bar icon
News 48/23 –

State of Developer Ecosystem 2023 // Flutter 3.16 // JetBrains Fleet // Vite 5

29.11.2023

Shownotes

Jojo und Fabi unterhalten sich diese Woche über den State of Developer Ecosystem Report 2023 von JetBrains. JavaScript ist auf dem absteigenden Ast und viele Entwickler:innen sehen Sicherheitsrisiken bei der Nutzung von AI. Wir klären, mit welcher Programmiersprache Entwickler:innen am meisten Geld verdienen und welche die meistgenutzte Cloud-Plattform ist. Wenn ihr wissen wollt, was der Report darüber hinaus noch enthält, werdet ihr in dieser Folge nicht enttäuscht!

Flutter hat mit 3.16 ihren nächsten großen Release. Material 3 ist jetzt Default, es gibt Updates rund um den Textscaler und MatrixAnimations werden jetzt unterstützt. Auch die Impeller Engine hat für Android einen großen Schritt nach vorne gemacht. „4 Bilder 1 Wort“ wird im Announcement rund um das Flutter Casual Games Toolkit genannt.

Wie versprochen hier auch der Link zu Vite 5.0.

/transkript/programmierbar/news-48-23-state-of-developer-ecosystem-2023-flutter-3-16-jetbrains-fleet-vite-5
Hallo und herzlich willkommen zu einer weiteren Folge der Programmierbar News. Wir haben die Kalenderwoche 48, deswegen auch die Programmierbar News 48 und wir haben ein paar Themen für euch dabei. Wir unterhalten uns über Flutter, die neue Version. Wir unterhalten uns über Chatrains, die mal wieder einen neuen State of Developer Ecosystems rausgebracht haben. Und mal schauen, ob wir hier und da noch ein paar andere kleine Abbiegungen machen. Aber das sind unsere zwei großen Themen für heute. Vielleicht könnt ihr schon merken daran, dass ich gesagt habe, wir unterhalten uns über Flutter. Ich bin der Fabi und neben mir ist mal wieder dabei der Jojo. Hi Jojo. Hi, Hi. Vielleicht kleine Anmerkung am Rande. Es gibt eine neue Version von VEAD 5.0 ist draußen. Wir packen den Link mal in die Shownotes. Guckt es euch gerne an, wenn ihr wissen wollt, was es da Neues gibt. Falls ihr auf jeden Fall nicht Node. Js 18 oder 20 nutzt, dann schaut es euch auf jeden Fall mal an, weil der Rest ist deprecated. Ansonsten im Detail schaut man die Shownotes rein. Ansonsten haben wir euch den, wie gesagt, den State of Developer Ecosystem mitgebracht. Jährlich schauen wir uns den ja an von ChatBrainz eine Webpräsentation zu verschiedenen Kategorien rund Software Development, also viel rund was sind die beliebtesten Sprachen im letzten Jahr jetzt ganz neu dazugekommen, gibt es einen AI Abschnitt? Aber ansonsten auch darum, wie bringt man sich neue Sprachen bei? Machine Learning, DevOps, Testing? Ganz viele Statistiken dazu wurden viele Developer dazu befragt und gibt es jetzt mittlerweile schon sieben Jahre lang. Und mit dem wir eigentlich immer so ein bisschen einsteigen, ist was hat es denn so im Sprachenumfeld getan, wie es die Beliebtheit von verschiedenen Sprachen? Und ich glaube, das, was am meisten heraussticht, also wenn man mal auf die letzten drei Jahre guckt, hat sich eigentlich an den Top drei Rankings der beliebtesten Sprachen nicht groß viel verändert. Da sind JavaScript, Python, HTML und CSS. Aber die einzige recht starke Neuerung daran ist, dass JavaScript innerhalb der letzten drei Jahre eigentlich stetig abnimmt. Also 2020 noch bei 70%, also wenn man von beliebt spricht, was sie fragen, ist welche Programmiersprache hast du in den letzten zwölf Monaten aktiv genutzt? Von daher kann man vielleicht auch gar nicht von Beliebtheit sprechen, einfach nur von Bekanntheit oder wie viel, wie viel es genutzt wird. 2020 waren wir noch bei 70% bei JavaScript und jetzt sind wir bei 61, also 4% verloren innerhalb von 2022 auf 23, was wir bei den anderen beiden größeren Sprachen wie Python, das ein bisschen zugelegt hat mit einem Prozent jetzt bei 54% nicht mehr sieht. Deswegen mal gespannt, wie lange sich JavaScript da oben noch halten kann. Weil diesmal kann man es auch nicht erklären mit dem Move hinüber zu TypeScript, weil gerade 2021/2022, da hat JavaScript auch 4% verloren und TypeScript ist 5% gestiegen. Typescript ist aber dieses Jahr genau gleich geblieben, bleibt bei 34%, also scheint es wirklich einfach zu sein, dass andere Dinge eingesetzt werden neben JavaScript oder nicht mehr so viel im Web entwickelt wird. Wer weiß da genau. Ja, HTML/CSS hat ja auch ein bisschen abgenommen. Also jetzt über die letzten Jahre natürlich kontinuierlich von 60 jetzt auf 52 Prozent. Aber ja, könnte natürlich zu deinem Take passen, dass es insgesamt vielleicht weniger genutzt wird. Ja, genau. Und ansonsten so, wenn man so ein bisschen auf steigende Zahlen guckt, dann kann man eigentlich hier von REST auf jeden Fall noch mal sprechen, obwohl es relativ weit hinten ist mit 10 Prozent Adoption, aber zumindest stetig in den letzten sieben Jahren vor sieben Jahren 2017 war es ja noch gar nicht vertreten und jetzt bei 10 Prozent. Also ist auf jeden Fall ganz, ganz gute Anstieg. Wenn man ansonsten so auf die Sprachenlandschaft schaut, ist da nicht so viel Movement drin. Ich finde auch interessant, dass obwohl es jetzt mit dem ganzen rund ums AI Umfeld irgendwie Python gar nicht so einen starken Anstieg irgendwie noch mal mitgemacht hat. Da hätte ich irgendwie, wenn du mich vor gefragt hättest, hätte ich getippt, Python wird irgendwie mehr, wird da mehr steigen. Aber dem ist nicht so. Ansonsten Sellerie Trends, also da ist es so, dass eigentlich die, wenn man jetzt mal so ein bisschen korreliert von was wird am meisten genutzt und was wird am besten bezahlt? Dann ist die Korrelation da auf jeden Fall gegenläufig. Die Top Paid Employees, wobei sie hier sagen, dass die, die zu den Top 25 Prozent in ihrem Land gehören, was das Gehalt angeht, da sind 60 Prozent der Skala Entwickler drin, 50 Prozent Go, 40 Prozent Kottlin und dann eigentlich nur Sprachen, die wir hier so im Web und App Umfeld, okay, wenn wir mal Go rausnehmen und Kottlin nicht so sehr nutzen C++, C sind da auf jeden Fall noch mit drin. Und wenn man jetzt JavaScript schaut, sind wir dann nur noch bei 28 Prozent. Also Skala ganz, ganz weit vorne in dem Fall. Ich glaube, Skalaentwickler wären wirklich sehr händeringend gesucht. Also das glaube ich, dass viele Unternehmen mal ihre Apps von Java auf Skala umgesetzt haben, ist einfach glaube ich damals schon so. Das war unser Gefühl, wir haben eine Zeit lang ja Skala verwendet, nicht viele Ressourcen gab. Und ich glaube, dass es auch so war, dass einfach jetzt einfach da die Software da ist. Und ich glaube, dass gar nicht mehr so aktiv in der Entwicklung eigentlich genutzt wird. Also neue Projekte oftmals gar nicht so auf Skala setzen, also zumindest das, was ich so von verschiedenen Quellen gehört habe, dass eigentlich Java mit ihren Ansätzen da sehr viele der Pain Points, die man früher mit Java hatte, eigentlich eliminieren konnte. Aber gerade vielleicht für bestehende Software halt eben, die weiter gepflegt werden muss, natürlich dann immer noch Scanner Entwickler gesucht werden und die dann eventuell natürlich auch entsprechende Preise oder Gehälter verlangen können. Ja, ich habe jetzt auch gerade ich habe gerade probiert, noch mal die andere Statistik rauszusuchen. Ich komme jetzt auf die Schnelle aber nicht mehr. Da gab es eine Korrelation davon. Also war glaube ich irgendwo im demografischen Abschnitt, wo sie nach Alter und Nutzung von Sprachen irgendwie genannt haben. Und da war auf jeden Fall bei C, also Assembly und Gala, glaube ich, waren auf jeden Fall in der älteren Demografie sehr hoch vertreten im Vergleich zu anderen Sprachen. Was ich aber auch sehr interessant fand, im Alter von 20 bis 30 war die meistgenutzte Sprache Medlab, wo ich dann wirklich dachte, okay, ist vielleicht ein bisschen verzerrt, dass einfach viele Leute in dem Alter studieren und es einfach wegen ihrer Bachelor Master Thesis oder wie auch immer einfach nutzen müssen. Also ich weiß nicht, ob Medlab da so fair war, dass das irgendwie eine sehr freiwillige Wahl war. Ja, will ich auch so wahrscheinlich unterschreiben. Genau. Aber ansonsten AI habe ich ja schon genannt als zum ersten Mal dieses Jahr irgendwie mit drin, obwohl sie da auch schon einen Disclaimer gegeben haben. Also es gab wohl den Main Part dieser Befragung und als die abgeschlossen war, wurde man gefragt, ob man auch noch am AI Teil mitmachen möchte. Das ist sozusagen ganz neu, wurde ganz ans Ende gepackt und war der optionale Part davon. Und hier schreibt zumindest das7 Prozent der Entwickler ChatGPT benutzen, 46 Prozent der Entwickler Github Co-Pilot. Und dann haben sie gefragt, was würdet ihr oder was ersetzt ihr jetzt schon bzw. Würdet ihr am ehesten in der idealen Welt von AI Assistenten übernehmen lassen? Und auch da wieder, wenn wir von Korrelationen sprechen, gab es in einer anderen Abfrage so was macht ihr am liebsten? Und da waren so Dinge wie Writing Code macht man natürlich am liebsten von den ganzen Dingen. Und auch das, was sie am ungernsten an eine AI abgeben wollen und sowas wie Writing Code Comments oder Code Dokumentation, da sagen natürlich alle klar, würde ich sofort eine AI Assistenten delegieren. Aber komischerweise auch am anderen Ende der, das mache ich gerne Statistik. Also da ist es auf jeden Fall so, wenn man vom Spread guckt, auch all das, also was würde man von einem AI Assistenten machen lassen? Dann sind wir hier bei knapp mittleren 50 Prozent Bereichen, also Writing Code, würden 54 Prozent es immer noch selbst machen und 56 Prozent würden Code Dokumentation an einen AI Assistenten abgeben lassen. Also dafür, dass schon jetzt irgendwie 97 Prozent der Developer ChatGPT nutzen, sind die Werte wiederum noch ein wenig geringer. Und ansonsten so die Main Reasons oder die so Konzerns sind so, das geschrieben haben wir, IF Security Konzerns about doing AI Generation Services, also 59%, da waren auch viele Kommentare so in die Richtung, dass es halt auch alles noch Cloud basiert ist und noch nicht so wirklich on Device Alternativen gibt und dass da viele der Security Konzerns irgendwie liegen der Leute. Aber da konnten sich zumindest die meisten Leute darauf einigen, dass sie es, wenn sie es nutzen, zumindest noch Security Konzerns gerade haben. Ja, interessant. Genau. Und ansonsten vielleicht noch mal so ein bisschen in Richtung Software Testing. Da haben sie noch so ein bisschen gefragt. Okay, wie viel, wie viel testet ihr denn? Was für ein, was für Tests schreibt ihr denn? Und da ist es so, dass der Großteil der Testarten, wenn wir von automatisierten Tests reden, Unit Tests sind, also 63 Prozent der Befragten haben Unit Tests in ihren Projekten, wohingegen dann beispielsweise End to End Tests nur noch mit 34 und Performance mit 32 Prozent sind. Also ich kann hier auch noch mal unsere letzte Folge über End to End Testing empfehlen, damit die Zahl vielleicht nur ein bisschen hoch geht. Aber interessant war trotzdem, dass, wo habe ich jetzt die... Dass 80 Prozent der Leute sagen, es spielt eine integrale Rolle Testing in ihrem Software Development Lifecycle, aber irgendwie die Zahlen nicht so ganz aufeinander sich summieren, wenn man von automatisierten Tests redet. Also das ist ein Großteil dieser Befragten, die dann wirklich sagen, okay, es spielt einen wichtigen Part, dann wohl wirklich manuelles Testing hier noch meinen, also dass sie wirklich Q&A Tester da haben, die dann eben nicht automatisierte Tests schreiben, also entweder selbst sie nicht schreiben oder Q&A haben, die keine automatisierten Tests schreiben, sondern wirklich dann händische Tests damit gemeint sind. Oder es gibt wirklich so viele, die beispielsweise keinerlei Unit Tests schreiben und nur end to end, dass man irgendwie in den Zahlen, wenn man es zusammenrechnen würde, trotzdem die 80%, die sagen okay, ist ein wichtiger Bestandteil, irgendeine Form von automatisierten Tests mit drin haben. Aber fand ich auf jeden Fall schon sehr interessant. Hätte ich irgendwie nicht erwartet, dass der, dass der Spreader so hoch ist von automatisierten Tests zu händischen Tests. Ja, stimmt. Genau. Aber das war, wenn man so ein bisschen schaut, eigentlich der Großteil vom State of Development, State of Developer Ecosystem, gibt noch so ein bisschen Richtung Open Source Projekte. Also 41 Prozent der Beteiligten haben schon mal an Open Source Projekten mitgearbeitet, was ich erst mal eine coole Zahl finde, auch wenn da, also wenn 20 Prozent it more or less regulary machen. Aber trotzdem, dass wir da bei 41 Prozent sind, hätte ich wahrscheinlich auch ein bisschen geringer eingeschätzt. Und ansonsten gibt es auch noch eine Kategorie rund Remote und Collaborative Development, also wie funktioniert Remote Work so? Wo 49 Prozent grundsätzlich irgendwie in einer Remote Development Situation sind oder arbeiten zumindestens zum Teil. Und der Großteil, also welche kollaborativen Tools genutzt werden, schreiben hier einfach noch Video Call mit Screen Sharing. Das sind 67 Prozent. Danach kommt dann 28 Prozent mit irgendeinem IDE Collaboration Feature. Also der Großteil wirklich einfach Video Call und Screen Sharing. Ich weiß nicht, wie macht ihr es eigentlich bei 4Picks aktuell? Ihr habt ja zumindest immer noch ein paar Alternative, eigentlich nur alternative Lösungen für Video Call gemacht. Ja, genau. Also da sind wir eigentlich verschiedene Tools durchgegangen und sind inzwischen aber eigentlich zu Google Meet wieder zurückgekehrt, weil man gefühlt eigentlich da die beste Experience hat, weil es darum geht, dass man wirklich mal Inhalte teilt, wie die geteilt werden, wie man auch viel Fenster irgendwie resizen kann. Es gibt natürlich auch die Möglichkeit, Slack jetzt mit den Huddles, die wir eine ganze Zeit jetzt intensiver genutzt haben, aber jetzt gefühlt immer mehr abnimmt und auch Alternative Tools wie Arround, was wir mal ausprobiert haben, haben jetzt nicht so den Promise erfüllt, den wir initial hatten, dass man das Gefühl hat, also gerade bei Arround war ja so ein bisschen die Sache, man ist eigentlich ständig zusammen in einem Raum, man sieht auch die anderen und man kann natürlich das Video Bild ausmachen, aber trotzdem hat man das Gefühl, man sitzt mit seinen anderen Entwicklern letztendlich einen Raum und kann jederzeit die irgendwie anpingen. Und gefühlt war es eher so, dass man das dann irgendwie als störend empfunden hat, dass irgendwie immer die Köpfe zu sehen waren. Und wir hatten schon mal Ansätze gemacht. Das ist, glaube ich, auch so ein bisschen das Problem bei uns, dass wir unterschiedliche Entwicklungsumgebung nutzen. Das wird zum Teil der Entwickler halt eben Visual Studio Code, was ja auch letztendlich da eine Lösung bietet, die anderen eben IntelliJ und es gibt eben noch keine Lösung, die diese beiden Welten zusammenbringt. Ansonsten kann ich natürlich auch das, was eben auch gerade FLEET, glaube ich, bietet und auch IntelliJ schon empfehlen. Und ich glaube auch Visual Studio Code ist eigentlich von dem Ansatz, was wir dort haben, sehr, sehr gut, dass man das wirklich direkt in der ID macht und kollaborativ dann am Code arbeiten kann. Weil so ist es oftmals so. Aber habt ihr das mit Visual Studio Code mal irgendwie ausprobiert? Weil das würde mich mal interessieren. So arbeitet man wirklich dann zusammen am Code, schreibt zusammen daran oder ist eigentlich einer guckt über die Schulter und einer schreibt einfach das typische Szenario? Das ist. Schon das meiste in den meisten Fällen, sodass einer letztendlich da so ein bisschen die Federführung übernimmt. Das waren vor allem zwei Kollegen, die halt eben Visual Studio Code dann nutzen. Aber man hat natürlich die Möglichkeit, vielleicht einfacher dann mal irgendwie auf Textzeilen hinzuweisen, indem man vielleicht irgendwie einen Code-Teil markiert oder ähnliches, was dann vielleicht so in dem reinen Video Call immer ein bisschen schwierig ist, das direkt zu referenzieren. Aber es funktioniert eigentlich auch gut. Am meisten stellen wir natürlich schon fest, dass es auf jeden Fall deutliche Vorteile hat, wirklich vor Ort zusammenzusitzen, halt direkt über die Themen irgendwie diskutieren zu können, auch wirklich dann vielleicht mal an Whiteboard zu gehen, dort Sachen aufzeichnen zu können. Das fehlt halt dann gefühlt dann immer doch, wenn man irgendwie so kollaborativ arbeitet, dass man halt so diese einfachen Integrations-und auch Visualisierungsmöglichkeiten dann zur Hand hat. Ja, das stimmt. Obwohl ich meine, obwohl ich glaube, am Ende ist es auch eine Setup-Frage, dadurch, dass wir ja sehr Mixed unterwegs sind, ihr auch ein Team seid, was viel on site ist, geht man da vielleicht nicht so sehr aus einer Komfortzone raus, da einen guten Workflow für zu finden. Weil eigentlich mit Tools wie Miro oder ähnlichem ist man jetzt ja auch nicht... Oder keine Ahnung, wenn du wirklich super viel Remote bist, dir halt ein iPad mit Apple Pencel oder ein anderes Tablet hinzulegen, wo du zeichnen kannst und irgendwie mal was aufmalen kannst, wo du ja im Endeffekt einfach nur ein Stretchboard hast, was auch geshared ist. Ich glaube, da gibt es mittlerweile schon viele gute Möglichkeiten. Aber ich glaube, wir sind halt noch in der Luxusituation, dass man sich sehr häufig doch noch sieht und man sich da vielleicht nicht so optimieren muss und dann sagt Okay, Google Meet reicht dann an der Stelle, den Rest vertragen wir. Aber gerade die Idee natürlich, sich so ein iPad nebendran zu legen oder irgendein Tablet, dann halt Sachen ordentlich aufzeichnen zu können, einfach an dem Call dann teilzunehmen. Eine ganz gute Idee, die ich mal aufgreifen sollte, weil ich oft das Gefühl habe, eigentlich würde ich jetzt gerne mal schnell was aufzeichnen. Und das ist dann in dem Moment eben nicht ganz so einfach. Ja, das ist eigentlich alsoich mein Problem. Mein Apple Pencel liegt oft hier, mein iPad ist oft bei meinem Sohn, weil er. Netflix guckt. Das ist eigentlich meistens das Problem, dass mein iPad nicht unbedingt hier ist, aber eigentlich sollte es vielleicht auch mal wieder häufiger machen. Weil du gerade ein anderes Thema, was ich die ganze Zeit noch oder später noch ansprechen wollte, passend zu ChatBrains und du hast auch gerade gedropt. Chatbrains fliegt. Wir haben nämlich auch eine neue Version rausgebracht. 1.27 mit ein paar ganz coolen kleineren Features. Aber vielleicht noch mal so, ist mir noch mal aufgefallen. Wir haben es glaube ich schon mal irgendwann in den Google Google Meet Google News Programmierbar News gedropt, dass ChatBrainance ja ihre neue ID rausgebracht hat und die aber immer noch im Public Preview ist und daher auch bedeutet, dass sie aktuell auch noch nichts kostet, also komplett frei genutzt werden kann, selbst wenn man keine ChatBraince Lizenz hat und ich jetzt zumindestens diese Release Nummer genutzt habe, mir es auch selbst noch mal runterzuladen, weil gerade sie so ein paar ganz coole kleinere Features, wofür ich aber immer, ich mussIch muss sagen, ich benutze schon sehr lange Visual Studio Code, wofür ich immer irgendeine JEDBRENC IDE eigentlich noch heute aufmache, ist für Mergen bzw. Diffing. Weil ich finde, dass die JEDBRAINS IDE da einfach so unfassbar gut ist und ich noch kein Tool gefunden habe, was es auch nur annähernd so gut macht wie wie JED-Brainings. Und die haben jetzt so ein paar kleinere Features diesbezüglich gemacht. Man hat jetzt mittlerweile da eine kleine Action, der man sagen kann Open Blank Diff-Window, wo man einfach zwei sozusagen schon ein Diff-View offen hat und einfach irgendeinen Text reinkopieren kann oder in Files sagen kann: Compaar with Clipboard. Das heißt, man kann irgendwas in seinem Clipboard drin haben, einfach sagen, diff mal mein Clipboard gegen das aktuelle File. Was zum Beispiel, keine Ahnung, wenn du jetzt, manchmal mache ich so Dinge wie keine Ahnung, Json's vergleichen, die irgendwie vielleicht von einer API oder sowas zurückkommen, wo ich es einfach schnell vergleichen will und da das meistens in irgendwelche Files kopieren und so. Und wenn man das einfach direkt aus dem Clip raus machen kann, finde ich, ist es nochmal ein ganz nettes neues Feature. Und da lade ich dann immer, ach, eigentlich vermisse ich da ChatBrands ID, dann hat man Fleet nochmal runtergeladen. Deswegen wollte ich auch nochmal fragen, weil du gerade meintest bei euch nutzen Leute Fleet. Nutzt du es aktiv, Fleet oder nutzt es bei euch jemand? Nee, also wir haben es mal ausprobiert. Das ist aber bestimmt schon vier, fünf Monate her. Es gibt ja jetzt ja auch von ChatBrands einfach diese aktualisierte UI. Also du kannst in jeder JEDWINS UI ja sozusagen diesen eher Visual Studio Code Missing Look irgendwie einstellen. Du meinst in jeder der IDEs, weil du gesagt hast, in jeder IDE? Ja, in jeder der IDE. Und damit hast du gefühlt irgendwie so ein bisschen mehr diese aufgeräumt hat, die du bei Visual Studio Code hast. Und du hast aber trotzdem, sagen wir mal so, die komplette Funktionalität, die du aus deinen ChatBrands IDE kennst. Und das hat für mich letztendlich das schon erfüllt, diesen Zweck, den ich eigentlich damit haben wollte, dass man schon das Gefühl hatte, so standardmäßige, die alte Chatbands IDEs sind schon sehr, sind sehr viele Informationen letztendlich drin zu finden, aber auch deswegen vielleicht auch ein bisschen schwieriger zu überblicken. Und ja, das ist schon echt eine ganze Weile her, dass wir uns irgendwie FliDoc angeschautgeschaut habe oder ich mir FLEET angeschaut habe und auch aktiv nutzt das momentan keiner im Team. Wo ich mich auch da grundsätzlich frage, ob Ihr langfristiger Plan ist, dass das sie mit FLEET auch ihre ihre anderen IDEs irgendwie abschalten wollen, weil sie wirklich irgendwie von Next Generation IDE sprechen und auch irgendwie alle Programmiersprachen aufzählen, die sonst von ihren unterschiedlichen IDE supportet werden? Ja, gute Frage. Ob das eigentlich die IDE ist, die hier to say ist und der Rest eher so ein bisschen dann auf dem deprecated Pfad ist. Das klappt noch nicht. Aktuell bisher noch nicht. Es ist ja alles noch Public Preview und so, aber so die Vision? Ja, es gab mal einen Blogpost, wo sie das irgendwie verneint haben. Aber man kann natürlich nie wirklich absehen, was dann wirklich so in der Entwicklung dann noch passiert und ob das vielleicht doch im Hinterstübchen vielleicht der Plan ist. Na ja, wie auch immer. Also auf jeden Fall FLEET jetzt auch noch mal in einer neuen Version noch mal hier als kleine News nebenbei. Checkt mal aus, wenn ihr wollt, weil wie gesagt aktuell, wenn ihr keine jEDWINZ Lizenz habt, noch komplett kostenfrei. Und ich habe es mir zumindest mal wieder runtergeladen, werde mal ein bisschen via das Code und fleat hin und her switchen und mal gucken, wie es mir so gefällt. Was ich bei dem Server ja auch ganz interessant fand, einfach so ein bisschen diese Aufschlüsselung der verschiedenen Cloud, also der Cloud Plattformen. Was hättest du vorher geschätzt, was die Reihenfolge ist? Ich habe schon gesagt, dass AWS auf jeden Fall am meisten Share hat, aber dass letztendlich die Diskrepanz zu den anderen, also zu Azure und Google Cloud halt so groß ist, hätte ich nicht gedacht. Wir sind vielleicht für all die, die es nicht vor sich haben, jetzt aktuell 60% nutzen AWS, 25% Azure, 22% GCP. Und also erst mal hätte ich gedacht, dass GCP auf Platz 2 ist. Ich hätte nicht gedacht, dass Azure, wahrscheinlich einfach weil Azure im Enterprise Umfeld einfach super, super groß vertreten ist. Ich denke, das treibt die Zahl halt extrem, extrem hoch. Aber auch, dass man von AWS zu GCP so ein großer Unterschied ist, wirklich fast nur ein Drittel, hätte ich nicht gedacht. Hätte ich komplett anders eingeschätzt. Ich hätte irgendwie so gedacht, dass sowas wie ein Dreiviertel, also AWS auf Platz eins hätte ich auch gedacht, aber dann dachte ich, dass die nächsten dann schon so auf Dreiviertel sind davon. Also nicht, dass so ein großer Unterschied ist. Ich glaube, die haben einfach den großen Nachteil, dass sie halt doch deutlich später mit den Angeboten waren und natürlich auch da so die Produktpalette, die halt AWS in ihrem, also in der Cloud bietet hat, einfach enorm riesig ist. Also die haben natürlich super viele Services, die sie anbieten und waren natürlich einfach sehr stark dadurch, dass sie halt so initial sich so positionieren konnten, dass halt glaube ich GCP es nie geschafft hat, letztendlich da wirklich aufzuholen. Die haben den Move ja gemacht. Wir sind gerade dabei, den letzten Service von AWS zu GCP umzuziehen. Ist es so? Könnten wir dann bei dem Server endlich sagen, wir nutzen nur GCP und nicht AWS? Ja, wir haben natürlich noch so ein paar, also wir brauchen letztendlich noch das CDN von denen, weil wir ein paar alte Clients haben. Wir haben einfach direkt sozusagen damals, weil initial hatte Cloudfront nicht unterstützt, dass man dort eigene SSL Zertifikate hinterlegen kann. Das kam erst eine ganze Weile später, sodass die alten Clients halt wirklich direkt halt die C-Names von den Cloudfront Distributionen eingebunden haben. Und für diese alten Geräte, App Versionen müssen wir halt eigentlich das noch ein bisschen weiter betreiben, bis wir halt sehen, dass der Traffic eben so gering ist, dass wir es wirklich abschalten können. Dann passiert eigentlich nur eine Weiterleitung letztendlich zu den Google Services, aber letztendlich dieses kleine, diesen kleinen Bestandteil müssen wir noch eine Zeit lang am. Leben halten. Aber das heißt, es ist die Menge, wo wir bei dem Survey auf jeden Fall schon nicht mehr ja benutzen, es ankreuzen würden. Ja. Cool. All right, Flutter 3.16. Was gibt es da Neues? Genau, Flutter 3.16 ist so vor anderthalb Wochen rausgekommen und es ist ja so, dass irgendwie Flutter sich so auf die Agenda geschrieben haben, dass jedes Quartal einen größeren, ein größeres Release machen, wo halt viele Features reinkommen. Und das diesmal ist wieder super viel dabei. Also man merkt eigentlich, dass immer noch der Pace da sehr, sehr hoch ist und sie sehr viele in sehr vielen Bereichen einfach Neuerungen bringen. Und gerade jetzt so auch eine Aussage sehen von einigen Flutterentwicklungen, dass Flutter inzwischen halt wirklich so die Lösung ist, wenn man überlegt, Cross Platform für mobile Geräte zu entwickeln, immer interessanter auch für Web-Projekte wird und es wirklich bald so sein wird, dass es auch die First Option sein wird, Desktop-Applikationen damit zu entwickeln. Wer trifft die Aussage? Wer sagt das? Die Flutterentwickler. Also ein Produktmanager von Flutter. Aber das ist schon wohl mit Zahlen unterfüttert, was man so an Releases sieht. Also was sie jetzt in diesem Release rausgebracht haben, sind ein paar spannende Sachen auch gerade für uns dabei gewesen. Zum einen natürlich erstmal so die groben Sachen, dass sie halt Material 3 jetzt wirklich als neuen Default-Team etabliert haben. Es war ja vorher immer so in der 2013er Version, dass es halt so ein Opt-in Feature war und per Default letztendlich noch auf Material 2 zurückgegangen wurde. Aber jetzt ist eben Material 3 per Default aktiviert und man kann immer noch zurück switchen, wenn man das möchte. Und sie haben jetzt einfach die Arbeit daran verlesiert und alle Komponenten, die man halt eben so aus dem Material Guide kennt, eben umgesetzt. Da gibt es auch eine ganz schöne Website dazu. Das ist direkt als Web-Projekt auch aufrufbar, wo man sich anschauen kann, wie das neue Material Design eben aussieht. Da werde ich dann eine kurze Doppelfrage stellen? Für euch ist jetzt aber beispielsweise mit Frau Pickst der Part wahrscheinlich nicht so interessant, oder? Wir nutzen wahrscheinlich keine von diesen Materials. Das ist ja wirklich nur, wenn ich eine sehr native App bauen möchte. Also wir nutzen sozusagen, das ist ja immer das grundlegende unterste Element, was man sozusagen in einem Flutter-Witcher-Tree eigentlich aufbaut, Habe ich eine Copertyno App oder eine Material App? Dann nutzen wir Material App, halt auch so ein paar andere Sachen wie Routing zum Beispiel dann von Material nutzen zu können. Aber eigentlich ist es so, dass wir eine komplett geteamte UI haben, die halt gar nicht letztendlich auf diesem Themes-Data-Support, also auf dem Theaming eigentlich von Material basiert, sondern das eigentlich komplett überschreibt oder halt direkt in den Widgets dann setzt. Das besondere Material ist ja so ein bisschen, dass man sagt, man möchte eigentlich seinen gesamten Farbraum der UI oder die UI Elemente an eine, an eine Seed Colour anpassen, sodass ich dannich entscheiden kann, okay, ich möchte jetzt vielleicht auch aufgrund eines anderen Hintergrundbildes irgendwie jetzt meine UI, mein ja Facette, dann also meine Colour-Palette eigentlich ändern und so ein bisschen anpassen. Und da gibt es halt auch direkt die Möglichkeit zu sagen, ich nutze einfach ein Image als Basis, der holt sich dann sozusagen die meist vertretenen Farben aus diesem Bild raus und würde automatisch dann letztendlich diesen Seed generieren und die gesamte UI anpassen. Das heißt, wenn ich irgendwo im Hintergrund ein Bild auf meine App setze, kann ich das dann sozusagen als Grundlage nehmen, meine App dann irgendwie zu gestalten. Und durch Auswechslung des Bildes könnte sich auch dann die ganze UI natürlich dann anpassen. Es ist so, dass durch die Einführung von diesen Material 3 Widgets auch ein paar alte Widgets eben nicht mehr so genutzt werden können, also nicht mehr überführt werden konnten. Das heißt, da kann es sein, wenn man von Material 2 kommt zu Material 3 migriert, dass halt einige UI Elemente nicht ganz konsistent aussehen. Da muss man explizit, also es gibt sozusagen Drop-in-Replacement, andere Komponenten, die dann das Material 3 Design eben dann abbilden, die muss man an der Stelle eben dann ersetzen, wenn man das haben möchte. Aber ja, es kann an Stellen passieren, dass es eben dort dann nicht ganz konsistent aussieht. Was sie damit auch eingeführt haben, es gibt auch dort eben vom Material 3 in dem Design Guide halt solche Easing und Duration Tokens und das wird eben jetzt auch automatisch mit erzeugt, sodass man letztendlich alles, was man vom Material 3 an Easing für Animation kennt, eben direkt nutzen kann. Das nennt sich eben als Klassen Easing und Duration, weil Curves ja letztendlich von der Animation Klasse schon belegt ist. Aber damit hat man letztendlich, wenn man wirklich auf diesen Material 3 Design Style Tokens aufbauen, halt die Möglichkeit, die dann direkt auch in seinem Code zu verwenden. Was sie noch mit rein gemacht sind, so kleinere Anpassungen. Was jetzt mit Android 14 kommen wird, ist die Möglichkeit, es gibt da das Non-Linear Front Scaling Feature. Das ist dafür gedacht, dass man sagt, momentan ist ja das Skalieren gerade für Leute, die Probleme mit kleiner Schrift haben, eben so, dass eigentlich alles linear skaliert wird. Und das ist natürlich oftmals nicht optimal, wenn man vorher schon irgendwelche Überschriften hatte, die eigentlich schon sehr groß waren und leserlich waren. Die würden natürlich auch deutlich größer dann skaliert werden und vielleicht dazu führen, dass irgendwo dann Text irgendwie aus dem Bildschirm rausläuft oder komisch umgebrochen wird. Und jetzt gibt es eben die Anpassung, dass es halt nicht mehr so einen linearen Text-Scale-Faktor gibt, sondern man kann letztendlich einen eigenen Text-Scaler implementieren, der dann das dynamisch anpassen kann. Also es gibt zwar natürlich einen Basistext-Scaler, der immer noch linear läuft, der vom System so angeboten wird, aber man könnte auch einen eigenen Text-Scaler implementieren und dann letztendlich in den Bidget-Tree letztendlich in die Vererbungshierarchie reinsetzen und dann könnte man dort ein ganz eigenes Text-Scaling angeben, wie sich dann, wenn der Benutzer das irgendwie anpasst, die Textgröße anpasst, sich dann der Text verändert. Was Sie noch gemacht haben für Textselection, gibt es jetzt ein paar mehr Optionen, dass man dort eben jetzt mehr Optionen hat, Text auszuwählen. Das heißt, man kann jetzt eben Text komplett markieren. Bei einem Doppelklick und Tracking dabei kann man auch dann weitere Textblöcke markieren. Das heißt, sie haben da letztendlich die Art und Weise, wie man mit Text interagiert, für die User halt deutlich vereinfacht. Und man kann jetzt auch neue Matrix Animation ausführen. Das heißt, vorher gab es ja eigentlich schon verschiedenste Animation Widgets. Und mit diesen Matrix Animation kann man jetzt wirklich komplexere Animation ausführen. Das heißt, wenn man zum Beispiel eine Komponente irgendwie in der vertikalen Achse so drehen will, als ob man wirklich so eine 3D Transition in diesem Raum hat, dann kann man das mit so einer Matrix Transition jetzt eben erlauben. Das ist genauso wie bei anderen Transitions, dass man einfach sozusagen ein Animation Objekt übergibt, was dann letztendlich einen Wert von 0 bis 1 eben dann ausprägen kann. Und die Matrix Animation würde das dann letztendlich auf diese Matrix dann anwenden und somit letztendlich eine Animation in verschiedensten im 3D Raum eigentlich ermöglichen. Und sie haben natürlich auch im letzten Update schon in der 13er Jahre diese multidimensional scrolling Komponenten eingefügt. Das ist etwas, was sie eben gesehen haben, dass es halt sehr viele Pakete gab, die halt genau versucht haben, letztendlich dieses Feature irgendwie abzubilden und zu erfüllen. Und gesagt haben, das Problem war immer, dass diese halt nicht sehr performant waren, oftmals einfach nicht von dem Framework die Möglichkeiten bekommen haben, das wirklich optimal umzusetzen. Und da haben sie jetzt gerade beim letzten Mal schon die Grundlage dafür eingeführt, dass Flutter letztendlich in dem Foundation Modell halt eben diese Option bietet. Man muss die immer selber noch implementieren und erweitern. Und das, was sie eben gemacht haben, ist, dass sie eigentlich zusätzlich ein weiteres Package rausgebracht haben, wo jetzt momentan erst mal nur eine Komponente, eine Table View implementiert ist, die aber sozusagen dann diese Foundation für das to-d-scrolling nutzt, einfach dann in einer Table View relativ einfach dann eben in vertikaler und horizontaler Richtung scrollen zu können. Das hat mich gerade gefragt. Was wäre denn der Anwendungsfall? Also wirklich sehr breite Tabellen, wo ich nicht nur vertikaler sondern auch horizontal. Scrollen möchte. Zum Beispiel das ist auf jeden Fall natürlich so der naheliegendste Anwendungsfall, wo man so was dann mal braucht. Aber man könnte sich natürlich auch alles mögliche andere noch überlegen. Und vorher war es einfach auch gar nicht ohne diese Plugins irgendwie möglich, überhaupt in zwei Richtungen zu scrollen? Es gab immer nur scroll Container irgendwie in eine Richtung? Eigentlich nur in eine Richtung, wenn ich das richtig in Erinnerung habe. Wir scrollen immer nur in eine Richtung, aber ich glaube, sonst hat man... Man hat natürlich irgendwie scrollende Listen, wo man vielleicht dann einzelne Elemente dann noch mal in einer anderen Richtung scrollen konnte. Also wie jetzt zum Beispiel eine Homepage, wo ich dann oben noch mal so einen kleinen Pager oder so ein, was wir ja oftmals in unseren Apps auch verwenden. Aber so an sich war es wohl so, dass das eigentlich immer externe Bibliotheken waren, die man dafür. Einbunden muss. Selbst für sowas. Wenn ich irgendwie sage, ich habe einen Homescreen, der vertikal scrollbar ist und dann einfach da drin noch mal ein Element hat. Das wollte ich sagen. Das würde natürlich schon so einfach funktionieren. Das ist etwas, was man mit verschachtelten scroll-Reviews natürlich dann machen und realisieren konnte. Aber wirklich so dieses zweidimensionale scrollen war nicht direkt abgebildet. Eine große Neuerung, die für uns sehr interessant ist. Der Fokus von einem Flutter-Team liegt natürlich sehr stark auf dieser neuen Empeller Engine. Und da gibt es jetzt eben mit dem 316er jetzt die erste Preview für Android. Da haben sie aber vor allem den Support für das Vulcan Backend implementiert. Vulcan ist ja letztendlich eine neue Grafik API, die bereitgestellt definiert wird. Ich glaube, das soll auch eine allgemeine API sein, die eigentlich nicht nur speziell für Android Geräte irgendwie entwickelt wird, aber ich glaube, vorhauptsächlich dafür aktuell genutzt wird. Da gibt es ja auf der iOS Seite eigentlich das Metal Backend. Und es ist natürlich auch so, dass das etwas ist, was diese Graphics Bibliothek soll sehr viel performanter sein als jetzt OpenGL, weil sie einfach andere Instruktionen letztendlich bereitstellt. Aber eigentlich muss immer ein Hersteller letztendlich sicherstellen, dass er halt dieses Backend implementiert, dass er sozusagen diese Grafikbibliothek eben anbindet und bereitstellt. Und das ist jetzt schon, dass es immer bei mehr Android Geräten eben der Fall ist, dass unterstützt wird und dass deswegen hauptsächlich auch der Grund, weswegen sich da das Flutter Team so darauf fokussiert. Die versuchen natürlich auch und das ist etwas, was aber wohl aufwendiger ist, halt eben auch für OpenGL. Also sie werden auch dieses OpenGL Backend in Zukunft eben für Impeller unterstützen, aber etwas, was eben ein bisschen länger dauern wird. Und der Fokus liegt momentan auf dieser, auf dieser Entwicklung von der Unterstützung für das, für die Vulcan Engine, für das Vulcan Backend. Aber ist denn, also ist es, dass ich das Vulcan nutze, was optional ist, falls ich nur, falls ich diese Engine irgendwie brauche? Oder ist denn Impeler, wenn ich auf Android laufe, brauche es zwingend selbst für, einfach nur so. Also aktuell ist es eben so noch so, dass es halt, ich brauche nicht Impeller, weißt du, alles funktioniert eigentlich auch mit der alten Skier Engine. Skier hatte ja das Problem, dass wir halt da diesen Animation-Jank haben, was gerade eben auf den iOS Geräten dazu geführt, dass es halt extrem langsam ist und manchmal, gerade wenn diese Shader Caches noch nicht irgendwie aufgewärmt sind, eben noch nicht wirklich performant ist und sehr stark ruckelt. Und momentan wäre es eben so, dass wenn ich eben, also es ist ja eine Preview, dass ich eigentlich nur Android Geräte mit Vulcan Engine wirklich mit der Empeller, mit Empeller dann nutzen kann. Also für das andere würde das halt überhaupt nicht funktionieren. Die müssten auf jeden Fall Vulcan Engine supporten, das ist nicht so, dass ein Empeler ohne Vulcan Engine könnte. Also da sollte man natürlich eigentlich warten, bis halt auch, sagen wir mal, der Support für OpenGL so weit ist, dass man das eben dann auch parallel nutzen kann, sodass es eigentlich für alle Android Geräte dann funktioniert. Aber dann würde man, selbst dann würde man sagen, mit OpenGL Support, du nutzt Empeler für Android und Skia für iOS? Nein, für iOS ist es so, dass eben Impeler schon deutlich weiter fortgeschritten ist. Da war eigentlich schon so, dass mit der 313 das die Default geworden ist. Wir haben es jetzt erst mal oder vielleicht sogar mit der 310, da bin ich mir ganz unsicher, aber wir haben es jetzt erst mal auch bisher nicht nutzen können, weil halt noch einige Fidelity Features eben gefehlt haben. Bei uns war es eben so, dass halt Text-Strokes, also Umrandung von Text eben noch nicht unterstützt wurden. Und das ist jetzt etwas, was erst mit der 3.16 gekommen ist. Also für uns jetzt der Punkt, dass wir sagen, wir können iOS nutzen, genau für iOS. Das heißt, Android würden wir immer noch auf Skia nutzen. Das ist ja auch der Default. Man muss sozusagen explizit das aktivieren als Flag, als Compiler Flag, wenn man dort auf Android Empaller nutzen will. Für die iOS Seite muss man aktuell schon sozusagen dort das deaktivieren als Compiler Option, dass man weiterhin auf Ski Welt bleiben will und noch nicht die neue Empaller Engine nutzen. Ist jetzt ein Punkt, auf den wir lange gewartet haben. Wir brauchen immer noch letztendlich diese Shader Test, mit denen wir die Shader sozusagen in der Bildphase aufwärmen und dann mit in die App wandeln. Und das, was wir in Zukunft einfach nicht mehr brauchen, weil das den gesamten Release Prozess natürlich deutlich verlangsamt, dass man eigentlich für seine Hauptrouten durch die App dann visuelle Tests geschrieben hat, die dann die Shader aufwärmen. Diese Shader speichert man sich und packt sie dann mit die App mit rein. Was es aber gibt, es gibt halt dort einen Breaking Change. Es gibt nämlich auch bei Android 14 weiteres neue Feature, das nennt sich Predicative Back Navigation. Und so ein bisschen ist letztendlich der Ansatz davon, Android 14 zu sagen okay, wenn der Benutzer letztendlich auf den Black Button drückt oder letztendlich diese Backswipe Geste auf seinem Bildschirm ausführt, dann möchte er irgendwie auf seinen vorherigen Kontext einen Peak bekommen. Also irgendwie so einen visuellen Ausschnitt, ob er jetzt von dem Home Bildschirm gekommen ist oder wo er vor auch immer kommt, wo komme ich eigentlich her? Und da war es eben so, dass wir momentan eben ein ein Widget nutzen, was so ein bisschen eigentlich dann uns erlaubt, jedes Mal, wenn der Benutzer eigentlich den Rückpfahl drückt, in dem Moment zu entscheiden, wollen wir diese Rücknavigation gerade erlauben? Und das passt wohl nicht mehr mit dieser neuen Predictive Backnavigation zusammen, die in Android kommt. Deswegen gibt es da ein Breaking Change, wenn man auf 3.16 geht und dieses Will POP Scope Widget verwendet hat. Da gibt es ein neues Bild, das nennt sich POP Scope. Das hat aber eben kein Callback mehr, der einem erlaubt letztendlich dann reaktiv das zu entscheiden oder situativ zu entscheiden, sondern es ist so, dass man sozusagen schon vorher eigentlich sagen muss, ob in dem Moment letztendlich eine Backnavigation möglich ist, weil man es eben erlaubt, ob man das in dem Moment blockieren möchte. Das heißt für uns bedeutet es, wir müssen halt durch die App gehen. Und wenn wir auf die 3.16 gehen und gucken, weil wir PopSkope in sehr vielen Kontexten wirklich verwendet haben, dass wir das alles umstellen, aber damit vielleicht in Zukunft diesen besseren Support, weil da hofft sich letztendlich die Android Entwicklung halt sehr viel von, dass man halt dem Nutzer so ein bisschen einen intuitiveren Fluss und mehr Einblick letztendlich gibt. Wo kommst du eigentlich hin, wenn du auf diesen auf die Backnavigation dann klickst? Was für die Web Entwicklung ganz spannend ist, dass jetzt auch die Flutter Timeline Events halt eben mit in den Chrome Dev Tools auftauchen, also dass man genau sehen kann, welche Operationen werden ausgeführt, wie lange haben die gedauert? Das ist natürlich etwas, was eine ganze Zeit lang gefehlt hat, seine Flutter Web Applikation wirklich von der Performance her anzuschauen, dass man sich genau anguckt, welcher Funktionsaufruf hat jetzt wie lange gedauert? Welche Pain Operation hat jetzt wie viel Zeit in Anspruch genommen? Und das wird alles direkt abgebildet. Was spannend auch ist, das ist auch etwas, wovor Pix explizit erwöhnt wird. Es gab ja vor einer Zeit diese Initiative, dass das Flutter Games Toolkit releast wurde. Flutter Games Toolkit soll letztendlich Entwicklung von Spielen so ein bisschen den Einstieg erleichtern, halt Spiele mit Flutter zu ermöglichen. Und da haben jetzt einige mehr Templates bereitgestellt, also dass man dort eben dann auch verschiedene Runner oder Card Games direkt mit einem Template so einfache Kartenspiele umsetzen kann. Sie haben sehr viel mehr letztendlich dann auch externe Services in die Templates mit einbinden, dass man direkt sieht, wie nutzt man zum Beispiel Innapurchases oder auch AdMob als Werbe-Mediation-Integrator. Aber was ist das das Tugend-ist einfach nur wie so eine Art Template-Bibliothek dafür oder gibt es wirklich irgendwelche neuen APIs da oder so was, die irgendwie für Games relevant sind? Genau, es sind keine neuen APIs. Es ist eigentlich so, dass man natürlich dort halt einfach Best Practices halt eben findet und halt diese Templates, diese Spiele Templates, die hat man so als Starter für sein Projekt nutzen kann. Ja, eine andere spannende Entwicklung, die es noch gab. Man kann jetzt mit Flutter auch App Extensions for AI Systeme schreiben. App Extensions sind ja Möglichkeiten, dass man halt zum Beispiel Home Widgets eben gestalten kann. Oder auch solche Share Extensions. Das heißt, man kann direkt eben dann mit einer Share Extension aus anderen Apps letztendlich in seine Flutter App Inhalte teilen und da bestimmte Funktionen anbieten. Es werden nicht alle der Extensions, die von iOS eigentlich unterstütztunterstützt werden oder angeboten werden mit unterstützt, weil halt bestimmte Sachen wie zum Beispiel Zugriff auf Speicher dann eben nicht möglich ist. Aber es gibt schon viele, die da unterstützt werden. Also gerade für so ein Home Widget, wenn es interessant ist, kann es interessant sein oder auch natürlich eine Share Extension dann anzubieten. Das ist jetzt etwas, was irgendwie passiert ist. Und da gibt es aber auch eine sehr gute Dokumentation dazu, die auch explizit in einem Artikel, die wir auch in die Shownotes mit packen werden, wie man da vorgeben muss, so ein zusätzliches Paket, oder das ist ja eigentlich ein Target letztendlich in seinem iOS Projekt mit zu integrieren und dann bereitzustellen. Sehr cool. Flutter 16. Endlich mal wieder ein Update. 3 16. Wir. Sind immer. In der Zukunft. Aber wenn wir schon mal von Zukunfts-Kunden und von Flutter hören, nächste Woche gibt es nämlich nicht nur für die Flutter, sondern für alle, die grundsätzlich daran interessiert sind, mal wieder ein Meet-Up bei uns. Donnerstag, 7. Dezember bei uns in Baden-Neuheim, hier bei Lothum in den heiligen Hallen, gibt es einen Vortrag von dir, Jojo, zu Abendzusammen mit Lukas Joseiak. Habe ich es richtig ausgesprochen? Ich hoffe mal. Ja, ich habe es danach noch nie ausgesprochen. Aber ja. Und ihr unterhaltet Euch über Widget Book. Und ich denke, gehen wir davon aus, Lukas ist von Widget Book? Ja, Lukas ist einer der Gründer und das CTO von WidgetBook. Und wir nutzen ja WidgetBook seit einiger Zeit auch sehr intensiv und haben einfach sehr gute Erfahrungen damit gemacht. Und er wird so ein bisschen natürlich grundsätzlich die Funktionalität von dem Framework, von dem Open Source Package, von eben ihrer Cloud Lösung darstellen. Und wir werden sehr stark darstellen, wie wir Widget Book wirklich für die Entwicklung nutzen, für die Abstimmung zwischen Design und Dev Prozess, wie wir unser Design Token System irgendwie dort integriert haben, automatisch importieren und ähnliches. Also sehr stark eigentlich eher auch in die Richtung, wie kann man letztendlich ein Design System eben in Flutter abbilden und wie kann man letztendlich die Arbeit zwischen Design und Dev da eben sehr enger verzahnen? Ja, cool. Und wir probieren auch gleich ein paar neue Sachen aus für unsere Meetups. Und zwar probieren wir mal aus Lightning Talks zu halten. Unser Gabriel spricht über Fleed und in dem Fall nicht IntelliJ Fleed, sondern das Flutter Animation Framework. Wird 10 bis 15 Minuten gehen und mal gucken, ob das vielleicht noch ein cooles Format für die Meetups sein könnte. Und ansonsten natürlich auch noch neu, hier auf der Agenda, das erste Mal gibt es den Programmierbar-Punsch, passend zu Weihnachtszeit. Also wenn euch die Talks noch nicht gelockt haben, dann vielleicht die Pinzer und der Punsch, die es 18 Uhr gibt. Schaut auf jeden Fall vorbei, meldet euch gerne an auf witter. Com oder schaut vorbei auf unserer Website. Genau, dann sehen wir uns hoffentlich nächste Woche. Ansonsten hören wir uns auch davor noch mal bei den News nächste Woche, den AI News und gebt uns wie immer gerne Feedback. Podcast@programmier. Bar schreibt uns in unserem Kontaktformular oder nutzt die Spotify Funktion. Bis dann. Jojo, vielen Dank, dass du dabei warst. Vielen Dank fürs Zuhören und bis nächste Woche. Ciao. Ciao.
Feedback
[object Object]