programmier.bar icon
Spezialfolge 127 –

Apple WWDC23 mit Apple Vision Pro

05.06.2023

Shownotes

Unsere Zusammenfassung zur WWDC23 Keynote von Apple. Frisch aufgenommen und veröffentlicht direkt nach dem Stream:

Hauptthema ist Apples Vordringen in die Welt des "Spacial Computings" - so nennt Apple die Technologie rund um die VR-AR-Brille Apple Vision Pro. Bei der Brille handelt es sich um ein technisches Meisterwerk, 5.000 Patente in der Entwicklung geben einen Eindruck was alles kombiniert werden musste: Unzählige Kameras und Sensoren ermöglichen dem Nutzer in neue Welten abzutauchen.

Hardware gab es auch noch weitere:

Fehlt noch das Roundup zu den Betriebssystemen iOS 17, iPadOS 17, watchOS 10 und macOS Sanoma.

/transkript/programmierbar/spezialfolge-127-apple-wwdc23-mit-apple-vision-pro
Hallo und herzlich willkommen zu einem kleinen Special. Wir haben es ja schon angekündigt. Heute war die WWDC 23 Keynote, Apples Präsentation, Developer Präsentation. Wir sitzen hier mit einem Apropos Spritz und einem Charity und haben die letzten zwei Stunden uns reingezogen, was es alles Neues gibt. Wer ist dabei? Der Siebi, Hi. Und der Fabi, Hi. Ich bin Dennis und wir versuchen es heute mal flott und schnell zu machen. Wie immer also. Wie immer eigentlich. Wie ist... Einfach eine gute Zeit. So dass wir eine 2 Stunden Präsentation nicht in zwei Stunden zusammenfassen, sondern in. Kürzerer Zeit. In vier. Gut. In vier. Ich glaube, alle... Also die Getränke... Habt ihr das gehört? Das hat sich gelohnt. Das sind Eiswürfel. Genau, da wird es gelohnt. Aber das istJa, vielleicht programmierbar. Alles okay. Okay, heute mit Eiswürfeln. Okay, heute mit Eiswürfeln. Okay, du musst ja mit leben. All right. Das, was ja in den Gerüchten schon kam, Sibi, Fabi, wie heißt das neue Ding? Apple Vision Pro. Apple Vision Pro. Ein revolutionar neues Produkt war so noch nicht gab. Und es war ein One more thing. Das war schön. Ich würde sagen, wir starten heute mal da. Ja, lass uns mit den Highlights anfangen und dann arbeiten wir zurück, so lange wie wir Lust haben und dann eine halbe Stunde. Voll ist. Ich finde, wir können jetzt ganz kurz noch erzählen, als wir so was halb durch die Präsentation waren, haben wir gesagt, wenn sie es nicht präsentieren, dann machen wir keine Aufnahmen. Und jetzt so, na gut. Fangen wir halt damit an. Dann fangen wirdamit an. Ja, genau. Sie haben eine Virtual Reality Brille vorgestellt. Ja, was erwarten wir? Vorher wurde vor immer geleakt vom neuen Betriebssystem. Reality OS hieß es glaube ich, irgendwie in Code. Jetzt kennen wir das Produkt Vision Pro mit dem passenden Vision OS als Betriebssystem. Und es sieht aus. Wie eine Skibrille. Wie. Eine Skibrille. Wie eine moderne, schicke Skibrille. Zusammen mit den Airpods Max. Heißen die Airpods Max, die Over-Ear-Dinger? Wie heißen die? Ja, also wenn die geheiratet hätten, so ungefähr sieht es aus, oder? Wenn man die nach hinten sich in. Den Kopf gezogen hätte. Ja, genau. Du ziehst die Airpods Max nach hinten und ziehst vorne eine Skibrille auf. So ungefähr sieht es aus, oder? Ja. Finde ich. Ja, das. Erklärt es eigentlich schon. Ja, da haben wir alles. Ich glaube, was schwierig ist, also in einer 2D Präsentation halt das rüberzubringen, das Erlebnis, was man dann haben soll, wenn man so eine Brille aufsetzt. Das ist natürlich immer sehr schwer. Das irgendwie muss man, glaube ich, erleben, es wirklich spüren zu können. Aber vielleicht weiß ich gar nicht, wie macht man das jetzt aus anhand von anderen Geräten oder was es schon gibt oder was jetzt revolutionär neu ist? Oder wie würdet ihr beschreiben, was ist. Jetzt neu? Ist immer die Frage, hat man schon mal so eine Brille auf gehabt? Ich meine, wir sind ja alle, muss man sagen, ihr hört ja jetztKontakt mit der Zusammenfassung von Usern, die bisher nicht so sehr in der Virtual Reality Welt unterwegs waren. Ich weiß nicht, habt ihr schon mal irgendeine Brille auf gehabt? Ich habe auf einer Facebook Konferenz mal die Occholus Pro auf gehabt, aber und ansonsten auch mal irgendeine Occholus mal irgendwas drauf gezockt. Aber ich habe bisher noch nicht viel Kontakt damit gehabt. Für mich gefühlt, als ich es gehört habe, das erste ist natürlich immer, was irgendwie auffällt, ist das schicke Design. Auf jeden Fall kann man schon sagen, für so eine Brille sieht es gut aus, obwohl man sich erst verwundert war, da hängt irgendwie ein Kabel runter und das haben sie später gezeigt, dass man ein Batterie Pack in seiner Hose hat, es möglichst leicht zu machen und die Batterien nicht oben im Gerät ist. Und was ich zumindest als herausstrebend fand, ist die Steuerung auf jeden Fall des Gerätes, also dass man eigentlich alles, also sie haben gesagt, sie haben drei Inputs, darüber haben sie auch gesprochen, irgendwie was, irgendwie iPad hat das, wurde mit dem Drehrad revolutioniert, irgendwie der Mac mit der Maus und das iPhone mit Multitouch. Und da haben sie gesagt, dass man es mit Augen, Sprache und Gesten steuert. Und Gesten fand ich interessant, dass sie dann direkt gezeigt haben, so die Situation. Man sitzt auf einer Couch und kann seine Hand überall haben und muss nur durch kleine, zeigen sie immer wieder, die Gesten haben sie immer wieder in der Präsentation die ganze Zeit gemacht, mit kleinsten Gesten, einfach so Fingerspitzen zusammen, irgendwie so leicht nach oben ziehen, dass das die Gesten sind, mit denen man mit der Brille interagiert oder mit den Elementen, die sich in der Brille befinden. Ich glaube darauf können wir gleich noch mal eingehen, wie es ungefähr aussieht. Aber das fand ich die Gestensteuerung fand ich auf jeden Fall... Und vielleicht Augensteuerung kann man noch hervorheben, weil ich habe noch nicht gesehen, dass das so geht. Also da sind so Sensoren drin, die so genau sind, dass sie auf einem auf dem Display, wenn man sich ein Menü anguckt und da sind zehn Buttons nebeneinander, können sie halt genau sehen, auf welchen Button man guckt und den auch Highlighten. Das heißt, man kann praktisch mit dem Kopf Dinge auswählen und mit der Hand dann jeweils den Klick bestätigen. Also mit den Augen. Dinge auswählen. Mit den Augen ist letztendlich die Maus Bewegung und die Handgeste ist letztendlich der Klick, der Maus Button, der geklickt wird. Weil du Kopf gesagt hast, das hört sich so. Kopf, sorry, Augen, richtig. Ja, ansonsten war es ein bisschen so, wie man es halt auch von den anderen Virtual Reality Brillen die Vorstellung vorschreibt. Und das im Endeffekt, also Betriebssystem sah ziemlich ähnlich aus dann zu, wenn man es aufsetzt wie iOS, so nur von den Icons her alles im runden Design gehalten, dass sie halt irgendwo im Raum schweben. Man sieht seine Umwelt aufgenommen und man sieht nämlich gerade hier vorhin drüber unterhalten. Ich glaube, es gab, nachdem hier in der Firma die Präsentation geschaut wurde, unterschiedliche Wahrnehmung. Ist das jetzt eine virtuelle oder Augmented Reality Brille? Aber es ist auf jeden Fall virtuell insofern, dass man das auf jeden Fall alles mit Kameras aufgenommen wird, man jetzt nicht durch die Brille durch guckt, so haben wir es zumindest verstanden. Und in den Raum werden die verschiedenen, wie haben sie es meistens genannt? Nennen sie es Screens oder so? Also zumindest sprechen sie davon, man braucht ja keine Monitore mehr, Screens mehr. Man hat direkt mehrere 4K Screens direkt zur Verfügung, kann die App dort starten, parallel mehrere Apps starten und spricht dann immer wieder so im Privaten von einem Kinoerlebnis, wo man irgendwie die Screens so groß machen kann, wie man möchte und irgendwie die Welt, in der sich die Screens befinden, auch frei. Entscheiden kann. Genau das finde ich, ist glaube ich auch noch ein grundsätzliches Konzept. Also es gibt oben so eine kleine Dreh… Also man kennt schon Apple Watch, die Digital Cron. Sie sieht sehr ähnlich aus, ist wahrscheinlich ein bisschen größer. Hat man oben, kann daran drehen. Und letztendlich habe ich es so verstanden, dass das ein bisschen die Intensität, in der du in der virtuellen Welt bist, beeinflusst. Das heißt, du kannst das praktisch ganz ausdrehen, dann hast du nur deine Fenster, mit denen du interagierst. Und wenn du daran drehst, dann kannst du letztendlich die virtuelle Welt, also einen Hintergrund, der auch noch da ist, eine virtuelle Szenerie, ein Video von irgendeiner Landschaft oder so was, kannst du langsam dich komplett rumdrehen, dann komplett auszusonen und raus zu sein aus der echten Welt. Und da ist letztendlich das der Rährad, was das beeinflusst, wie stark du noch deine echte Umgebung wahrnimmst und wie weit du weg bist. Ich glaube, Wahrnehmung von der Umgebung, da scheint es auch, dass sie da mehrmals in der Präsentation, ich meine, man wird es ausprobieren müssen, aber in der Präsentation darauf eingegangen sind, dass sie da viel Fokus darauf gelegt hat, dass man eben Teil seiner Umgebung ist. Also es ist einerseits, dass Dinge, wenn ich die Brille auf habe, ich meine Umgebung mitbekomme, also immer wieder irgendwie in ihren Produktvideos dann Szenen gezeigt, wo man irgendwie mit seiner Familie was macht, man irgendwie angesprochen wird, dass dann die Leute wirklich auch zwischen den Screens auftauchen, nicht einfach immer verdeckt sind von Dingen und man mit den Leuten interagieren kann. Das heißt, wie Leute, die außerhalb von der Brille mit einem interagieren, weil dann in dem Zug immer sehr wichtig sind, wenn man sich in diesen virtuellen Welten befindet. Und ich glaube, das andere ist, wie die Außenwelt mit einem interagiert, während man diese. Brille auf hat. Vielleicht noch ganz kurz, also auch tatsächlich auch so Szenen, wo irgendwie ein Fußball entgegen geschossen wird und kannst ihn aufnehmen. Also wirklich, dass man ein solches räumliches, das ist nichts anderes. Also du hast die Brille vor dir und obwohl es über Kameras aufgenommen wird, kannst du alles anfassen, alles so bedienen, kannst in der Geschwindigkeit einen Ball entgegennehmen, der kommt, dass es sich nicht unterscheidet. Jetzt kommt so gleich der Kreep Faktor, oder? Ja. Der ist extrem crepig. Also die. Brille hat. Letztendlich von außen auch eine Art Display und da werden deine Augen rein projiziert. Im Endeffekt der Gesichtsausschnitt, der abgedeckt verdeckt ist von dieser. Brille. Sodass Leute deine Augen sehen können. Aber sie haben schon, ich glaube, wenn man sie anguckt hat, das ist etwas, was aussieht wie deine Augen. Das sieht man schon direkt alles so. Kann man auch vom Tiefen Verhältnis. Irgendwie wirkt so, als wären die Augen so weiter, als hättest du so eine Brille mit so keine Ahnung 10 Dioptrien an und würde irgendwie deine Augen viel kleiner machen, so in deinen Kopf reingehen lassen. So, also das ist irgendwie. Die Idee ist cool. Die Umsetzung wirkte selbst in diesen Produktvideos unfassbar creepy und ich meine, die kriegen es sehr gut hin, solche Dinge zu polishen. So in Wirklichkeit wird es sehr crepig aussehen. Und dazu legt sich oben drüber haben sie sich ja man. Ich glaube, wenn man nicht, wenn man jetzt noch nicht erlebt hat, weiß man nicht genau was, was da was heißt. Aber irgendwie wabern darüber verschieden farbige Wolken irgendwie so gefühlt, die immer so ein bisschen anzeigen, was man gerade macht. So ein bisschen, also einerseits die Leute erkennen, was tust du gerade so und kannst du gerade Umgebung wahrnehmen? Dann sieht man, oder wenn du in der virtuellen Welt dich befindest, dann sieht man deine Augen gar nicht mehr bzw. Man sieht glaube ich auch, man kann ja damit Videos aufnehmen und Fotos aufnehmen und auch das wird in der Brille angezeigt. Sobald du in so einem Videoaufnahme-Modus bist, dann sind deine Augen verschleiert mit irgendwelchen wabernen Wolken und so. Also da irgendwie zumindestDer Modus, in dem du dich befindest, wird auch dargestellt auf dieser Brille. Und ändert sich glaube ich, auch genauso wie mit der Digital Chrome, je mehr du dich weg drehst und, also drehst im Sinne von an der Krone drehst und mehr in die virtuelle Welt gehst, desto verschleierter und unsichtbarer sind deine Augen, damit deine Leute dich herum das auch sehen. Das ist eigentlich ein netter Gedanke, erst mal, gell? Ja, ja. Ja, ja, ja, ja, auch ich meine, das mit den Augen ist ja auch erst mal ein netter, netter Gedanke. Es hat noch, ich meine, wird bestimmt besser werden, aber es ist auf jeden Fall, es sieht wie gesagt schon sehr creepy aus. Und ich meine, auch da will ich, ich finde weiterhin, also ich hatte einmal die, was ich interessant fand, deswegen habe ich gerade noch mal kurz danach gegoogled, aber ich habe es nicht rausgefunden. Ich hatte einmal diese Nokia Pro oder QESP Pro oder wie sie jetzt eigentlich am Ende heißt, einmal auf und ich meine, da war es noch so, dass ich unter der Brille durchgucken konnte. Ich konnte entweder durchgucken oder leicht schräg und wenn ich zu weit geguckt habe, unten drunter durchgucken. Und die ist ja wirklich schon, die schließt ja komplett die Vision Pro komplett mit deinem Gesicht ab. Und es ist ja auch irgendwie so, dass, als ich es richtig verstanden hast, dass man auch noch, je nachdem ob man eine Brille trägt oder nicht dafür auch noch Objektive kaufen kann, oder wie nennt man denn Linsen. Kaufen kann? Linsen. Ja, das habe ich auch so verstanden, was natürlich wahnsinnig aufwendig ist, aber okay, aber dass man für alle möglichen Augenkorrekturen kann man explizite Linsen kaufen, die dann mit so einem Magnetsystem in die Brille einklicken. Aber damit machen sie dann wahrscheinlich überhaupt möglich, dass du halt nicht als Brillenträger das Ding aufsetzen kannst, sondern dass es wirklich eng anliegt und diese Schärfe ermöglicht. Das ist halt schon was, wenn man das sieht in den Videos und du kannst Dokumente schreiben und lesen und Textwebseiten brauchen, das ist alles so scharf, dass zum Beispiel ich glaube, das war die Quest 2, die ich mal aufhatte, und das so auf sein Gesicht zu bekommen, dass du einigermaßen happy damit warst, jetzt in einem Spiel, war schon nicht ganz einfach. Und wenn ich mir jetzt vorstelle, dass das so von der Optik sein soll, dass du halt gestochen scharf Text lesen kannst in der Umgebung, in der du gerade bist und so, da glaube ich, muss viel passieren, dass das genau auf deine Augen ausgerichtet ist. Aber das sah ja auch so aus, dass es praktisch in der Brille so ein mechanisches System gab, die Linsen auch zu zentrieren und das wahrscheinlich alles automatisiert, weil deine Augen ja aufgenommen werden. Das heißt, dass sie sich automatisch anpassen kann an genau dein Bild und es wahrscheinlich dadurch sehr scharf stellen kann. Dann möchte ich daran anknüpfen und Optik-ID – hier mal ans Rennen werfen, was ich ganz cool fand – ist ein Iris Scanner zur Identifikation. Wir haben ja viele Biometrie Sachen, angefangen mit Touch ID, dann Face ID und jetzt Optik ID. Fand ich ganz cool. Vor allem, dass es auch für Apple Pay geht. Weißt du, du schaust dir nur die Rechnung an und schon ist sie bezahlt. Ja, so gedacht eigentlich. Ich meine, da muss man sich wahrscheinlich nicht so häufig verifizieren. Wenn du einmal das Ding auf hast, dann. Bist du drin. Ja, ich habe mich gerade gefragt. Wahrscheinlich musst du ja trotzdem wie diese Geste geben, so zweimal Klick an der Seite beim Face ID Scan und so, also irgendeine Geste irgendwie alle Finger einmal antippen sozusagen oder so, damit du dann sagst, du willst jetzt kaufen. Ansonsten müsste der Scan ja ziemlich schnell gehen. Ja, ich meine, technisch sind glaube ich gar nicht so ins Detail gegangen, was da alles drin war. Also viele Kameras, viele Sensoren, die da verbaut sind. Sie haben den M2 Prozessor. Eingebaut. Das heißt viel Power, die sie drin haben und einen komplett neuen Chip. Der nennt sich R1 und ist letztendlich dafür da, all diese ganzen Sensordaten so mit praktisch keiner Latenz zu verarbeiten. Und ich glaube, am interessantesten ist wirklich der Part mit den Kameras. Einerseits haben sie diesen Use Case aufgemacht, dass man ja jetzt zum ersten Mal die Möglichkeit hat 3D Videos damit zu erzeugen. Haben Sie ein gutes Beispiel? Da haben sie ja das Beispiel, da kann man am Geburtstag seiner Kinder die Brille aufsetzen, ganz im Moment zu sein und ein 3D-Video vom Geburtstag zu machen, damit man sich später das 3D-Video auch wieder komplett immersiv anschauen kann. Was auf jeden Fall in der Post bestimmt sehr interessant ist, wenn der Geburtstag mal vorbei ist, während des Geburtstags bestimmt ein bisschen weard die Brille aufzuhaben. Ich glaube, das haben wir uns kurz danach ja mal so ein bisschen gleich nach der Präsentation unterhalten, so dieses, die Vorstellung, dass man diese Brille immer aufhat und sie in all ihren Szenarien auch zeigen, wie man durchs Büro läuft, wie man irgendwie zu Hause irgendwie am Küchenblock mit dieser Brille steht und so. Das wirkt auf jeden Fall immer noch so ein bisschen utopisch. Aber genau deswegen aber auch mit der Kamera ist ja auch der andere Part. Sie haben ja das Beispiel gemacht, Facetime Calls, dass sie so cool wären, wo sie dann erst mal so man, sie haben das erste Mal das Beispiel nur gezeigt, wo sie einfach nur gezeigt haben, okay, dann ploppen alle Leute da im Virtual Space irgendwie rein und man sieht alle gleichzeitig ein super cooles Feeling und so, man sich direkt fragt, aber was sehen denn eigentlich die anderen dann, während man da die Brille auf hat? Da benutzen die auch wieder die Kamera der Brille. Nämlich am Anfang macht man eine Art Setup, dreht die Kamera sozusagen lässt sie das Gesicht von einem anschauen. Und mit diesen ganzen Sensoren und Kameras wird das Gesicht gescannt und es wird ein Avatar von einem erstellt. Und dieser Avatar spricht dann immer in den Calls. Und sie haben davon gesprochen, dass wenn das natürlich ein anderer auch hat, man geht mit zwei Brillen in Calls, dann ist es super immersiv, falls irgendwie mit 3D-Depth und sowas man irgendwie die Tiefe wirklich wahrnehmen kann. Aber diese 2D Darstellung, die wir jetzt auf dem Screen wahrgenommen haben, war natürlich für die Leute, die mit einem selbst am Call teilnehmen, am Video Call, ist das Erlebnis dafür schlechter. Sagen wir es mal so. Aber auf jeden Fall besser als was Meta dann in ihrem Metaverse hat. Das auch. Ja, genau. Und irgendwie geht es ja so einen Setup Prozess. Genau dafür nutzen sie die Kamera. Man dreht es und sie scannen so. Das war der andere Part der Kameras. Ja, was vielleicht noch zu sagen ist, weil die Quest ist ja zumindest so frei auf deinem Kopf. Man braucht ein Stromkabel. Hast du das am Anfang schon gesagt? Nein. Ja, doch. Liegt es. Also es ist in der Hosentasche, damit es nicht so schwer ist. Deswegen hatten wir es. Ja gesagt. Genau. Und die Rosentasche Batterie hält zwei Stunden. Und in Apple Marketing spricht man so gut. All they use when plugged in. Also wenn du sie einstoppst in die Steckdose, den ganzen Tag sie, den ganzen Tag. Aber was ich aber auch glaube, halt für den Use Case, weil das so ein bisschen, wenn ihr es jetzt, wenn ihr jetzt die Präsentation gesehen habt, so ihr denkt okay, vielleicht kurz nach dem Preis droppen, so ihr habt das nötige Kleingeld von 3499 Dollar, was auch immer das inklusive Text bei uns dann mal sein wird. Wann die kommen, können wir gleich darüber sprechen. Was sind denn die? Aber. Starting Ad? Was sind denn die. Use Cases? Bitte? Starting Ad war das auch. Starting Ad, ja wahrscheinlich, wenn die Linse dann noch mal und dann noch mal anders. Du wirst auch dieses Batterie Pack haben. 500 extra. Ich bin auch mal gespannt, wo man am Ende landet. Was wären denn eure Use Cases, also worauf, als ihr das jetzt gesehen habt, so was, was, was glaubt ihr, wofür ihr es nutzen würdet? Filme gucken. Also. Ich bin bei Filme gucken schon wieder raus, weil ich halt tendenziell mit Leuten Filme gucke. Das habe ich auch gefragt, so wie es ist. Share Play. Ja, okay. Und darüber haben sie ja nichts erzählt. Aber gut, wer leistet sich schon. Zwei Brillen? Share Play, weil dann sitzt du zusammen und ja, da kann der eine das ein bisschen kleiner machen, der andere bisschen größer. Du meinst, ihr sitzt im. Gleichen Raum dann? Ich glaube, ihr sitzt im gleichen Raum und habt auch den gleichen Bildschirm da. Ach so, und man sieht auch das. Ja, man sieht sich gegenseitig so. Wie sitzt du denn? Ja, du siehst ja nicht einen Avatar, wenn der neben dir sitzt, brauchst du ja nicht einen Avatar. Du brauchst ja nur einen Avatar, wenn die Person in einem anderen Raum ist. Die Person sitzt ja. So neben dir. Ja, aber ich will ja vielleicht in einem ganz anderen... Ich will ja am See sitzen. Ja, dann kann die Person ja trotzdem neben dir sitzen. Ja, die muss irgendwie ausgeschnitten werden dann. Okay, also du bist nicht so der Filme-Gucker, Dennis? Was würdest du hast? Was würdestdu damit machen? Ich glaube, am ehesten kann ich es mir irgendwie aktuell noch für die Arbeitsumgebung vorstellen, also dass man irgendwie, ja, dass er da sitzt oder stehst und hast dann verschiedene Fenster auf und das ist alles so riesig und du kannst zwischen Sachen switchen und dich hin und. Her drehen. Und trotzdem hat er keine Hardware mehr im Bildschirm und so. Das kann ich mir irgendwie ganz cool vorstellen. Sie hatten mal, das haben Sie gar nicht so gesagt, sie hatten ab und zu eine Präsentation so ein virtuelles Keyboard im 3D Space, aber das haben Sie... Man hat es immer nur gesehen. In der Präsentation haben sie es nicht benutzt. Man kann auch Hardware Peripherie auf jeden Fall anschließen, also Trackpad und die Tastatur und so. Aber ja, es hat mich auch gefragt, wie es dann funktioniert, aber haben sie nichts darüber gesagt. Aber ich finde auch dieser Arbeitskontext und da habe ich aber nämlich mal ein paar Youtube-Videos, wo es Leute gemacht haben mit der… Die haben dann auch QESP Pro gemacht, die es dann auch teilweise im Flugzeug probiert haben und so. Und da gab es halt immer wieder so Effekte, dass sie es dann irgendwie doch gar nicht gut hinbekommen. Da sind auf einmal die Bildschirme weggeflogen, auf einmal waren sie irgendwo im Raum so und man war so richtig dann… Also es war noch nicht so, dass man es so wirklich produktiv als kompletten Ersatzeinsetzen kann. Aber von der Theorie her, du hast das Ding in der Tasche und kannst wirklich über überall auch so remote irgendwie arbeiten, da ist immer dein komplettes Setup dabei und auch so was wie kannst dein Mac anschließen, wirkt dann wirklich wie Mac mit blank. Der Mac Bildschirm kommt in deine Vision Pro und kannst auch komplett in einem Private Space sozusagen dann arbeiten und so egal wo du bist, kann ich mir schon cool vorstellen. Aber es ist halt die Frage, ob es das denn preiswert macht. Und dann, wenn ich mal allein einen Film gucke, finde ich es auf jeden Fall auch cool. Ja, fürs Flugzeug kann ich mir auch tatsächlich, also das war so ein Use Case, den ich gezeigt habe, mit dem Flugzeug das Ding aufsetzen und einfach weg sein. Mit neues Kennzahlen und dann schön in so einen anderen …. Neues Kennzahlen und dann einfach komplett weg. So, ja, das ist ganz gut. Obwohl, er müsste es auch automatisch irgendwie das Tür zumTür lassen erkennen, damit er die so einblendet. Sonst bist du ja weg, wenn das Essen kommt. Dafür werden die Lösungen finden. Ja, ich denke auch. Ja, ich finde, es hat auf jeden Fall Lust gemacht, es mal auszuprobieren, wenn man das nötige Kleingeld hat. Aber was so ein bisschen... Also das ist so ein Kämpfer jetzt, war immer so dieses One more thing Ding. Sie haben gesagt, wann es kommt. Early next year, Early Next year in US Apple Stores und so. Also haben Sie damit auch gemeint wirklich, ich habe nicht ganz verstanden, ob Sie nur meinen US Apple Stores und aber global bestellbar, also dass sie einfach nicht die Hardware überall hinstellen, oder? Es heißt schon so nur in den USA. Das heißt irgendwie so Deutschland, naja, nichts ist... Heute in einem Jahr haben wir vielleicht das Glück, dass wir es irgendwann mal bestellen dürfen. Ich finde, das ist so was Apple angeht halt schon ein Dämpfer alles, was sie irgendwie releasen mit dann im nächsten Jahr. Ja, ich meine, sie müssen wahrscheinlich oder sie wollen wahrscheinlich die Developer jetzt hypen, dass sie anfangen, irgendwie dafür was zu entwickeln, dass halt ab Anfang möglichst viele coole Experiences da sind. Aber die Developer müssen ja auch irgendwie dran kommen. Ja. Mit dem, was? Reality Composer. Blub, ist das, irgendwie so ein Development Tool. Ich finde es spannend, was die, also die Hardware Entwicklung geht ja weiter. Das heißt, wir kaufen ja dann nächstes Jahr – ist ja de facto in den nächsten Jahren – ein Ding mit Hardware, die ja jetzt schon veraltet ist. Also M2 ist jetzt auch mit M2ultra, haben sie ja heute vorgestellt. Der M3 ist in den Startlöchern nächstes Jahr dann alles so Hardware von anderthalb Jahren. Dafür eine kleine Brille, die du auf dem Kopf trägst. Und dann die Brille. Und ja, ich meine die Anforderungen oder zumindest das Promise, was sie gegeben haben. So ich kann meine 3D Apps alle nebeneinander laufen lassen, die Screens großziehen, wie ich möchte. Das kommt ja nicht alles for free. Das sind ja alles Anwendungen, die für sich genommen Prozessorleistung brauchen. Und das ganze Ding braucht Prozessorleistung. Ich könnte mir schon vorstellen, dass wenn man es wirklich benutzen möchte, dass man dann schnell merkt, so mache ich jetzt noch eine dritte App auf und dann zieht irgendwie, wenn ich meinen Kopf bewege, die ganze Umgebung eine höhere Latenz oder mache ich vielleicht bei zwei Apps? Ich glaube, das müssen das... Aber wenn das. Wenn das viel nicht. Funktioniert, dann kannst du die Brille auch gleich vergessen. Wenn du anfängst mit Lags und sowas, muss ich ja, damit das Feeling funktioniert, musst du es ja so, also da darfst du ja keinen Latenc spüren. Ansonsten kann das ganze Ding ja überhaupt nicht funktionieren. Klar, auch mit dem Video Feed, den du hast. Haben Sie auch gesagt. Es ist die Latenc. Ich habe die Millisekunden total vergessen, aber sie war unter einem Augenblinzeln. 12 Millisekunden. Und so Apple Zahlen ist auch immer schön, aber finde ich schon auch sehr beeindruckend. In der Entwicklung dieses Headsets haben sie 5.000 Patente angemeldet. Only Apple can do. Only Apple can do. Ja, auf jeden Fall interessant. Also ich glaube, rundum ganz wie man dafür Developer und so, da haben das State of the Union auch gesagt, dass Sie da ganz viel darüber erzählen werden. Irgendwie Sie haben jetzt schon angesprochen, Reality Composer Pro irgendwie, Dinge im virtuellen Raum zu platzieren und ansonsten aber Apps dafür entwickeln, haben Sie weiter gemeint, X-Code, SWift UI und irgendwie ihre ganzen Reality. Sachen. Die es eh schon gibt. Von daher nichts Großneues außer dieser Reality Composer. Ja, ich bin mal gespannt, weil man es das erste Mal in der Hand hat. Aber der Preis und die Use Cases werden es auf jeden Fall kein Master Adaption. Produkt machen. Genau das ist halt auch so, das ist noch so ein bisschen das, was du eben auch meintest mit dem Monoa Think Moment, der so ein bisschen verzögert auf jeden Fall, was jetzt kommt. Also irgendwann nächstes Jahr ist es in den USA verfügbar. Es kostet dreieinhalbtausend Dollar. Das heißt, es wird nicht so sein, dass wir irgendwie in drei Jahren alle mit so einem Ding auf dem Kopf rumrennen. Ja, und ich meine zum Beispiel Meta hat es ja mit der QESP Pro ja ganz klar gesagt, wir machen hier eine Brille, die ist erst mal nur für Developer. Wir wissen, dass sie sehr teuer ist und wir wissen, dass wir von der Hardware da noch hinkommen müssen. Und Apple verkauft halt als ein One more thing so kommt in einem Jahr und ist dann schweineteuer. Also ich bin mal gespannt auf jeden Fall. Ich habe auf jeden Fall, also wenn mir jemand eine sponsert, ich würde eine ausprobieren, sowas nicht. Habt ihr noch was Wichtiges dazu? Nein, ich glaube zu der Brille nicht. Gut, 23 Minuten auf die Brille verwendet. Dann machen wir. Schnell durch. Sag noch kurz, was die Hardware Neues ist. Was gibt es? Was gibt es für neue Hardware Produkte? Das möchtest du sagen hier. Ich 15 Zoll MacBook Air. Ja. Habe ich jetzt gesagt. Ja. Okay. Mac Studio, das ist dieser Metall Kasten, der kleiner, der letztes Jahr vorgestellt wurde. Mac Pro, das ist der große Metall Kasten, der vor, wann erstmals vorgestellt wurde, irgendwie? Zwei Jahre her wahrscheinlich oder? Ist der Mac Pro, ja okay, unter dem Namen Mac Pro, aber diese Produktkategorie gibt es ja schon ewig. Ich glaube die fingen mit dem G7 oder so, weiß ich auch nicht mehr. Aber das ist wieder ein Tauer wurde sozusagen. Mac Pro war ja zwischenzeitlich dieses runde Ding, oder? Das hieß auch Mac Pro? Das runde Ding war nur, dass es passiert einfach so. Aber das war eigentlich immer… Also das war schon ein Tower, ein großer, die waren unterschiedlich farbig, aber … Also es geht ja das High-End-Hardware-Produkt für wirklich Pros. Und da geht es auch darum, dass man das eben erweitern kann, wo man es an seine Anforderungen anzupassen, mit BCIs etc. Und das war jetzt das letzte, die letzte Mac Hardware, die noch mit Intel Prozessoren verkauft wurde, wobei in den Rumores eigentlich war, so ja, da wird noch mal ordentlich Prozessor draufgeworfen, damit es wirklich Pro ist. Und überraschenderweise ist es jetzt so passiert, dass der Mac Pro nur den M2ultra bekommt und ich meine den M1ultra, den hatte damals auch der Studio Mac bekommen, oder? Und M2ultra bekommt jetzt der Mac Pro ist also genauso schnell wie der Studio Mac mit dem Unterschied, dass da eben BCI-Karten reinkommen. Und M2ultra ist einfach zweifacher M2 Max, zwei Chips zusammen, 106 Gigabyte Memory. Ich glaube mehr wissen wir gar nicht in die Spex gehen. 15 Zoll MacBook Air vielleicht noch, 1300 oder 1400? 1.300 Dollar? 1.200 Dollar. Ja, es ist eigentlich schick. Super leicht, supergroß in Apple Manier. Also alle super relativen. Dünnstes 15 Zoll Notebook, das es gibt, ist schneller als jedes andere 15 Zoll Laptop, was es da draußen gibt. Ja, schönes Display, schöner Formfaktor, vier Farben, 15 Zoll M2 nicht zu teuer. Ist glaube ich ein gutes Produkt. Bumm, fertig. Ios 17. Ios 17, ja fertig. Next. Mein Highlight ist lustigerweise das, was sie auch zeigen. Die... Das ist ja unser komischer Stand. Also ich kann das jetzt. Auch irgendwo hinstellen. Ja, aber... Okay, erzähl das mal, was das ist. Ich fand das cool. Also ich kann mein iPhone, wenn es jetzt irgendwo liegt oder in so einem kleinen Ständerchen ist oder so und mich anguckt, dann muss ich nicht immer so schräg auf mein Home Screen gucken, sondern da gibt es jetzt so was wie bei der Apple Watch, Nightstand heißt das ja da, dass ich einen extra Screen habe, der auch im Landscaped Mode mir irgendwelche Widges anzeigt. Ja, der muss am Strom sein. Ich muss mein Handy in den Landscaped machen, dann geht er in diesen Modus. Das ist die Art, wie ich es trigger. Cool. Nee, fand ich. Irgendwie lustig. Aber da brauche ich auf jeden Fall einen Ständer dafür. Ja, so, dann haben sie auch da gezeigt. Und dann sagen sie ja, das ist dann diese, also ab halt, was ist das aktuelle iPhone 14? Das kann ja dieses. Always on. Display so und dann aber ich meine, also always on finde ich einfach viel zu hell, dass ich es überhaupt nicht, aber es war das erste Feature, was ich ausgeschrieben habe, nie wieder benutzt habe. Aber zumindest haben sie ja gesagt, sobald er er erkennt, dass es dunkel ist im Raum, gibt es dann irgend so einen Lowlight Modus, der eigentlich nur noch mit roten Farben dann irgendwie arbeitet, bin ich mal gespannt, ob der wirklich so lowlight ist, dass man es anlässt. Weil in einem dunklen Schlafzimmer wollte ich dieses always on Display auf jeden Fall nicht haben. Da kann ich mir auch gleich eine Lampe anmachen. Ja, weil beim Schlafen willst du auchDann würde ich natürlich durch den Kalender scrollen und die nächsten Termine kennen. Vielleicht am nächsten Morgen. Ja. Ich weiß nicht. Ich finde also ein ganz süßes Feature. Tatsächlich sind diese offiziellen Namen vergessen. Call, Profiles, Call irgendwas? Das ist ja ein Poster-Feature. Ja, Call-Poster. Genau. Also grundsätzlich ist es so... Das geht es ja nicht nur zum Call. Ja, dass man selbst ein Hintergrund oder ein Hintergrund Bild inklusive Namen kreieren kann, ähnlich so wie man den Log Screen aktuell Customized. Und das Ding wird dann automatisch geteilt über Apple Geräte und andere Leute. Das heißt, wenn ich jetzt einen Anruf bekomme vom schönen Sebi in der Zukunft, dann habe ich ein Full Screen Bild von Sebi und da steht dann irgendwie Semi Kini obendrüber und der lacht mich an und ich weiß genau, wer mich anruft. Das ist auch die Karte, das ist ein bisschen Visitenkarten-mäßig, was man jetzt irgendwie über Airdrop gibt, irgendwie neues Feature, dass man einfach nur die Handys, die iPhones aneinanderhalten muss und dann kann geaardropt werden, unter anderem auch wenn man sich nicht kennt, einfach diese Card, weil die dann auch in den Kontakten lebt und dass man immer eine Unified Experience von einem selbst auf verschiedenen Devices hat und immer genau weiß, wie man aussieht auf dem anderen Handy. Namen Drop. Namen Drop. So heißt es. Namen Drop. Ansonsten fand ich noch ein paar ganz nette, so was wie on device AI Features. Ich finde Voice Mail Transkript, wenn mich jemand anruft, kann ich an die Voice Mail schicke, wird es automatisch transkribiert und ich sehe auf dem Screen, was gerade auf die Voice Mail gesprochen wird per Text. Finde ich ein cool, finde ich wirklich ein cooles Feature. Ich glaube, das werde ich ab und zu mal nutzen. Oder auch Audio Message Transkript kriegst du eine Audio Message in die Message geschickt und kriegst direkt transkribiert. Finde ich cool sowas. Das sind schon ein paar. Ich finde, die haben ein paar coole, also auch alles. Ich bin gespannt, alles, was sie über Autocornect erzählen. Ach genau, was hat Sebi gerade die Geste gemacht? Wie war das? Das war... Jetzt sind wir bei MacOder ist. Es Facetime? Bei allen Facetime. Also in Vision-OS überall. Also irgendwie Facetime-Updates, wo sie einerseits Präsentationen hinter sich einfach, wenn man irgendwas präsentiert, irgendwie kannst du... Das haben sie bei Mac vorgestellt. Man wird direkt über die Präsentation gelegt, aber generell kann man sich selbst ausschneiden und im virtuellen Raum Dinge hinter sich darstellen, vor sich darstellen, unter anderem Gesten. Semi hat gerade einfach seine zwei Daumen nach oben gemacht. Man kann sie per Geste steuern, wie haben sie das genannt? Sticker? Ne, einfach Animationen zu starten, die Animationen. Und dann war es irgendwie so hinter und vor einem Konfett und alles fliegt irgendwie rum und crazy Kram. Einfach grafische Netz-Effekte. Reaktives. Ja, ich glaube ein paar ganz cool, so kleinere ML. Ich fand dieses Ganze, was sie über Auto correct gesprochen haben, ich glaube der Auto correct Flow klingt ganz interessant, auch dass sie direkt nicht ein Auto hat, man sieht immer nur eine Tastatur. Wenn man jetzt tippt, dann wird es direkt Ge-in-Line-Suggested, so wie, keine Ahnung, was wäre ein Beispiel? Google Docs. Google Docs, ja Google Docs, das macht man einfach nur mit Leertaste, die Korrektur annimmt und so und irgendwie ein bisschen smarter lernt jetzt, weißIch. Glaube, wir haben uns ja vorher gefragt, wie viel AI wird heute bei Apple in der Präsentation sein? Und sie haben zumindest bei diesen Sachen irgendwie immer über ein Dutch Language Model gesprochen. Oder on-dev Machine Learning. Genau, on-dev Machine Learning, so ein bisschen diese Buzzwords abzufangen. Ich glaube, da müssen wir noch ein bisschen nachholen, was da grundsätzlich kommt. Aber das ist auf jeden Fall ganz cool, wenn die Autos sind sehr-. Aber ich glaube, sie haben ganz smarte so on-device Dinge gemacht. Also ich glaube, in vielen Städten haben sie gesagt, dass es on-device-Learning ist. Und ich glaube, es sind schon keine verkehrten Dinger, die sie da jetzt irgendwie machen. Ja. Ich glaube, den Rest können wir schnell durchjuckeln, oder? Ipad OS kann jetzt mehrere Timer gleichzeitig. Da fand ich immerhin süß, wie sie das, wie sie sich selbst auf die Schippe. Genommen haben. Weißt du noch, wann sie es das letzte Mal gemacht hatten? Nee. Da hatten sie es, als er erzählt hat, dass man die Spotlight Suche jetzt auch mit der Maus woanders hinziehen kann. Da hat er auch gesagt. Da hat er gesagt so that's technologie. Und das war jetzt das, was er so ja da hat es selbst das Bild genommen, dass er einfach, dass man fünf Wecker gleichzeitig machen kann und. Das ist in welchen tollen Zeiten wir heute leben. Genau das war der Wort. Ja, weil lasst uns mal, also iPad OS. Wir haben heute keinen Sound Engineer, der das hier nachbearbeitet. Wenn du mit deinem Papier noch ein bisschen mehr rumknisterst. Warte, Ruhe gerade knistert, dann trinke ich kurz. Ipos, lass mal skippen, oder? Also irgendwie PDFs, Annotierten in Nodes und so ein Kram. Ja, schaut es euch an, wenn es dich interessiert. Okay. Mac OS wahrscheinlich. Das einzige ist der Name vom Mac OS oder was wir noch droppen müssen. So normal ist ein schöner Name. Ja, Sonoma, die Weinregion irgendwo. Ist das eine amerikanische Weinregion? Mit. Sicherheit. Stimmt. Ist ja eigentlich immer irgendwas Amerikanisches. Ja. Sonoma. Was ist das Killer-Feature? Diese Facetime-Präsentation finde. Ich schon cool. Alles rundum, was wir über Facetime gesagt haben, fand ich auch interessant, was auch in den bestehenden … Gut, wir sind Google Meet User, die Web sind. Deswegen geht es wahrscheinlich nicht. Aber alle, die eine native Mac App haben wie Zoom, WebEx, was gibt es noch? Teams oder sowas, die können diese Features dann nutzen. Wir scheinbar nicht. Also Google Meet wird nicht genannt. Vielleicht haben sie es auch einfach nur ausgespart. Aber es wirkte wie alles Clients, die eben native Apps haben. Kann ich diesen Porträhmodus und sowas im Moment, das weißt du auch... Ich kann auch oben steuern, wenn ich bei Meet in der Kamera bin? Ich meine, das können wir ja jetzt direkt. Warte mal ganz kurz. Was ist denn der Porträhmodus? Weiß ich nicht. Wenn ich jetzt hier meine Kamera benutze... Ach so, das ist ja der Ausschnitt. Genau zum Beispiel. Kann Google Meet ja automatisch. Und dann gehe ich hier oben in das Control Center und dann habe ich Videoeffekte. Genau da kann ich jetzt kurz drehen. Ja, funktioniert. Toll. Also ich gehe davon aus, dass das auch in Google Meet nutzbar ist, wollte ich damit sagen. So. Fantastisch. Ja. Ja, also dann vielleicht auch doch. Ja. Und sonst fand ich Safari Updates, also wenn, die haben jetzt endlich Profiles eingeführt. Wenn sie das hätten, hätte ich vielleicht niemals zum ARK gewechselt. Also dass ich einfach zwischen Web-Profil, Privat-Profil, also einfach Profile in meinem Browser habe. Was sagt ihr zu der Aussage? Schnellste Browser der Welt? In irgendeinem Benchmark bestimmt. Ja, du musst nur den richtigen Benchmarker finden. Genau. Und wo. Fabi auf dem Klo war, weil sie nie interessiert, WatchOS? Ja, Gott. Wollt ihr darüber echt reden? Ich habe überhaupt nichts aufgeschrieben. Dann mache ich kurz Pause. Dann geht er kurz noch mal raus. Watchos 10. Verhältnismäßig viele Interface-Änderungen. Ah ja, doch Snoopie. Ich habe es schon gedropt. Ihr wisst es. Okay, wir können es abhaken. Ja, kriegt Snoopi. Ja, es gibt ein neues Snoopi Watchface. Aber tatsächlich ist letztendlich die Interaktion, wie erklärt man es am einfachsten? Es gibt so ein Widget System jetzt auch. Das heißt jedes Mal vom Home Screen aus mit der Digital Crowd nach oben wischend, kommt so ein Smart Stake an unterschiedlichen Widgets. Das heißt, da kriege ich irgendwie das Wetter, wenn ich morgens da rein scrolle oder mein Aktienkurs nachmittags, wenn ich in der Regel trade. Und genaudie Kommunikation, die wir mit unseren Apps machen, kann man auch mit Musik abspielen. Das heißt, das ist einfach die Interaktion mit unterschiedlichen Apps und Informationen passiert da anders. Und dann ist es so, dass die Komplikationen in unterschiedlichen Apps gibt es so Positionierung, wo noch mehr Informationen sind. Also es gibt so in den Ecken weitere Button Elemente. Also hat sich einiges getan im Interface. Bin mal gespannt, wie sich das dann anfühlt. Und Name Drop geht auch. Mit der Uhr. Name Drop. Ob wir uns dann einfach nur unsere Uhren aneinander halten können, unseren Name zu droppen mit unserem Porträt Card Profile Poster, wie auch immer das Ding heißt. Das wird großartig. Das wird fantastisch. Ach, und. Jetzt fällt mir gerade ein … Ja. Irgendwas hatten Sie… Ach ne, das hat Fabi schon erzählt, weil als Sie erzählt haben, Sie haben die Call App neu gemacht, aber da ging es nur diese Transkript Kram. Ich dachte erst so Wunder, was kann das Telefon jetzt? Das war fast so ein historischer App im Moment. Da haben sie nämlich einen großen Slite gehabt, wo das App von der Telefonie App, was war das nächste? Messages. Messages, Nachrichten und Facetime irgendwie zusammen waren und dachten jetzt so aus dreien wird jetzt eine. Aber das haben sie leider weggelassen. Leider nicht. Na ja, Play war noch irgendwas. Ich glaube, dass man mit Apple TV jetzt auch Facetime Calls machen kann. Fand ich ganz Sweet. Auch da brauchst du wieder irgendwie einen iPhone Ständer. Brauchst du alles. Überall in der Wohnung braucht man so einen komischen iPhone Ständer. Das Beste ist. Einfach, wenn du dir alle Devices kaufst und alle Ständer und alle Geräte. Nur dann hast du die komplette Experience. Ja, ich fand noch ganz nettes Feature bei Health, was sie gesagt haben. Das ist jetzt einmal das creepy Feature, dass man bei seinen Kids tracken kann, wie viel Daylights sie abbekommen, ob sie genug Daylight am Tag bekommen. Das ist gut. Aber da musst du zumindest noch den Hintergrund erklären. Da geht es Sehschwächen, die sich entwickeln können. Um Kontrolle. Wenn man nicht genug Tageslicht bekommt in der Kindheit und die Apple Watch kann das tracken, dann zukünftig. Und dann kann man das für die Kinder nachgucken. 2020 hat diese Sehschwäche fünf Milliarden Menschen, haben sie gesagt. 2050? Ja. Du hast. Glaube ich 20 gesagt. Ja, ne, stimmt schon. Aber kennt ihr das? Wisst ihr, wie das auf Deutsch heißt? Nein, war das Mytopia? Die Krankheit? Ist es eine Krankheit oder einfach nur eine Sehschwäche? Das wollte ich dich auch noch fragen. Ja, die ist... Ich tu. Nur Makular. Mytopia oder ist es nicht? Das ist das. Ja, da kann ich das... So viel zu Auto correct Feature, weil ich habe das hier vorne dann aufgeschrieben. Es kann auch sein, dass Autocornect Mitochopia daraus gemacht hat. Und bei dem neuen Autocornect kann man jetzt draufklicken und sehen, was man bei diesem Autocornect Vorschlag eigentlich eingegeben hatte. Fand ich nämlich auch gut, weil ich finde es immer nervig, wenn man den Autocornect Vorschlag nicht annehmen will, finde ich immer ein super nerviger Flow und der merkt sich jetzt bei einem Autocornect ein Ding, was du vorher eingetippt hast. Das kannst du nur als Wort tippen und dann sagt er dir, das hattest du eigentlich eingetippt. Das. Wäre jetzt ein. Tolles Feature. Das ist einfach nur Kurzsichtigkeit. Kurzsichtigkeit kommt von zu wenig Sonnenlicht. Das sind die Null wahrscheinlich. Aber wird anscheinend dadurch verstärkt. Aber nearsideness or myopia? Myopia heißt das. Also Vision Conditional in which people can see closed object gierly, But Objects far the way, the per blurth. Also als Kind habe ich zu viel im Keller gesessen, zu wenig Sonnenlicht bekommen. Deswegen muss ich das weglasern lassen. Deswegen hast du jetzt einen tollen Tech-Beruf. Also hast du Augenlicht gegen diesen tollen Moment, dass du mit uns hier einen Podcast aufnimmst. Das ist auch schön. Und man kann jetzt iPad Screen Distance, gut für mich, der Karl guckt viele iPads und immer viel zu nah und iPad kann merken, wenn es zu nah am Gesicht dran ist. Geh mal weiter weg das iPad, dann muss ich es nicht mehr sagen. Das finde ich toll. Bestes Feature der BWDC. Ach ja. Was sagt die Uhr? Es sind schon ein paar coole. Sachen dabei gewesen. Extra schnell geredet. Also ein. Paar Quality of. Life Sachen. Nichts ist Brown Breaking, aber ich glaube, das. Ist ganz rund. Früher war man ja immer noch in dieser Entscheidung, installiere ich jetzt die Betas sofort? Weil das will ich unbedingt haben und das hatte ich jetzt schon lange nicht mehr. Hell No. Wir werden noch älter, aber die Features werden auch subtiler. Ich glaube, die Public Beta, das mache ich schon irgendwann. Das traue ich mich. Ein Kumpel von mir hat ein paar Leben mit mir geschrieben, der hat erst zu spät eingeschrieben, meinte, gab es irgendwas Gutes? Und er meinte, also nichts einzelnes, was ich mir jetzt dafür hätte geschrieben, ich meine, schon gemeint, so waren ein paar coole Dinge dabei, aber nichts explizites, was ich jetzt nennen kann. So, und das Gefühl habe ich schon auch. Aber wie gesagt, ich finde aber so Kleinigkeiten wie dieses Autocrack Ding und so, glaube ich, macht den Flo einfach. Ich finde Transkripts, Voice Mail finde ich cool. Ich finde es immer so ein bisschen interessant. Sneaker, keine Ahnung, weil es ist ja eine Developer Konferenz wie Apple. So Developer kilt einfach, indem sie zum Beispiel sagen, wir machen jetzt eine Journal App, die liefern wir jetzt einfach kostenlos mit. Ihr Developer hat da draußen, die Journal-Apps machen: „Ha ha ha ha ha ha, fuck you. Und das nächste dann, ja, und wir machen jetzt auch einen Fahrrad-Ergometer mit allen Stuts, den du direkt auf deinem Bike montieren kannst, liefern wir jetzt einfach mit. „ha. Ha, alle Apps. Da draußen. Google Maps, jetzt Offline-Karten gibt es ja auch für die Backpacking. Da draußen gibt's auch einige von diesen, ich bin in Australien und lade mir alle Karten runter Apps. Das stimmt. Wobei mit dem Journal hätte man tatsächlich noch erwähnen können. Das ist eine neue App, die dazu aufruft, ein Tagebuch zu schreiben und automatisch aber auch da schon Fotos und Musik und Events, die passiert sind. Und auch schon eine Summary davon schreibt, für die du zusammenfasst. Wo sie auch. Irgendwelche Models auf jeden Fall haben müssen. Wo auch A. A. L. Dabei ist, wo sie dir schon vorschreiben. Dann ist eigentlich ganz nett, dein Tagebucheintrag vorschreiben. Da musst du kein Tagebuch mehr. Selbst schreiben. Genau so war es. So war es. So ist richtig. Aber auch eben unter dem Aspekt von Mental Health. Da war es eigentlich aufgehängt, dass es gut ist, das zu tun, immer wieder über den Tag zu reflektieren und die positiven Dinge zu sehen. Und das ist nämlich auch eine andere App noch, eine Addition to Health, dass man da häufiger eintragen kann, wie es einem geht, dann eine Prognose oder eine Warnung zu bekommen, ob man eventuell gefährdet ist und unter Depressionen zu leiden. Ja, ein bisschen traurig tatsächlich, dass Vision Pro jetzt erst mal kein Thema sein wird für die nächsten Monate. Undund dann gucken wir mal, was noch rauskommt in den nächsten Tagen. Achso, ich wollte, jetzt fällt mir wieder ein, was ich sagen wollte. Was ich ça fand, interessant wird, dass Custom Workouts jetzt möglich sind. Damit macht Apple die Workouts App ja auf für Third Party das erste Mal. Und ich glaube, das ist ein, das glaube ich, wird interessant, was daraus. Passiert, für Leute, die Sport machen. Ja, gut. Und damit schließen wir. Was hat denn die Zeit? 41 Minuten. Ja, das ist ja eine halbe Stunde. Das ist in unserer Zeit. Und ihr spart euch immerhin eine Stunde 20? Eine Stunde 20. Eine Stunde 20. Immer gerne. Ja, bis zum nächsten Jahr. Oh. Ich sollte darauf hinweisen. Ich weiß nicht, ob das hier der richtige Ort ist, aber am 15. Juni nächste Woche ist Fabian Hiller bei uns. Mit welchem Thema, Fabi? Quick & Solid Jazz. Quick & Solid Jazz, Meetup, Bad Nornheim kommt alle vorbei. Machen wir ein bisschen Werbung an dieser Stelle. Und diese Woche, letzte Mal schon gefragt, ob es offiziell ist. Entscheidet ihr das nach der Aufnahme oder jetzt schon? Wir entscheiden es noch mal nach der Aufnahme, kannst du ja sagen, ansonsten repetieren wir es wieder. Okay, also diese Woche eine... Vielleicht Neuanfang einer parallelen News, die wir haben, wo es besonders die AI Themen geht, die wir ja sowieso viel in den News hatten. Diese Woche explizit mit Philipp Schmidt, den ihr auch schon bei uns gehört habt. Und... Wie könnt ihr das am Mittwoch? Vielleicht 14 tägig, abwechselt mit unseren normalen News erstmals diesen Mittwoch. Bis in zwei Tagen. Zumindest Fabi ist dann da dabei. Für mich also eigentlich morgen früh schon direkt wieder. Für euch in zwei Tagen. Vielen Dank fürs Zuhören. Schreibt uns gerne in die Spotify Kommentare oder an unsere E Mail Adresse, was ihr von dem Ganzen haltet, ob ihr Hype seid, ob ihr es doof findet. Und schönen Abend. Guten Morgen. Tschüss. Tschüss. Ciao.

Verwandte Podcasts

  • 18 Ai News

    News AI #18: Apple MM1 // Mistral // Grok // Inflection & Microsoft // Open Interpreter

  • News Asset 10

    News 10/24: PWAs & iOS 17.4 // JSR // Pingora & freenginx // WSA & Windows 11

  • News Asset 8

    News 08/24: Apple Pkl // iOS vs. PWAs // React 19 // Flutter 3.19 & Dart 3.3 mit AI

  • News Asset 6

    News 06/24: iOS App Marketplaces // Browser Interop // jQuery // JetBrains

  • News Asset 4

    News 04/24: State of Game Industry & Mobile // iOS 17.3 // Bun Shell

  • News Asset 2

    News 02/24: Apple Vision Pro // Rabbit r1 // JS Rising Stars // Vue 3.4 // Figma Adobe Deal

  • 138 Fb Ig Xmas

    Rückblick auf 2023

  • News Asset50

    News 50/23: Epic vs. Google // iOS 17.2 // Cloudflare "Year in Review" // App Store 2023 // JetBrains AI Assistent

  • News Asset44

    News 44/23: Apple Scary Fast Event // Next.js 14 // Global Day of Coderetreat

  • News 20 23

    News 20/23: Google I/O 2023 // Vue 3.3 // KI-Gerüchte über Apple auf der WWDC

Feedback
[object Object]