VR Development mit Sebastian Schuchmann & Robin Bittlinger
- // Podcast
- // Deep Dive 167
Shownotes
Als Spieleentwickler sind wir auf vielen Plattformen unterwegs. Eine Plattform ist aber auch für uns besonders neu und spannend: Virtual Reality!
Sebastian „Seppi“ Schuchmann und Robin Bittlinger vom Studio Ditached sind schon länger in virtuellen Welten unterwegs. Die beiden waren bereits bei einem Event unserer Design-Community about.design zu Gast und haben dort über ihre Arbeit gesprochen.
Nun sprechen wir auch im Podcast mit ihnen und erfahren, wie es ist, ganz vorne mit dabei zu sein und mit Apple gemeinsam auf den Launch der Vision Pro hinzuarbeiten.
Wir sprechen mit Robin und Seppi über die einzigartigen Herausforderungen beim Designen, Entwickeln und Debuggen von Spielen und Anwendungen im virtuellen Raum. Dabei diskutieren wir auch die Reife der unterschiedlichen Plattformen von Apple und Meta und den Stand des Ökosystems allgemein. Außerdem blicken wir auf zukünftige Entwicklungen und definieren, was neue Hardware leisten kann und muss.
- Jan
- Hallo und herzlich willkommen zu einer neuen Folge bei einem Programmierbad DeepDive, heute wie immer aus der Saline in Bad Nauheim und gegenüber mir im Tonstudio sitzt der
- Dave
- Dave, hi, es es freut mich sehr hier zu sein.
- Jan
- Super. Mein Dave, als ich heute Morgen hier reingekommen bin, hast Du unten bei uns in der Alm im Meetingraum gesessen und wilde Tai Chi Übungen gemacht. Was hast Du da getan?
- Dave
- Tai Chi Übungen tatsächlich. Das ist mein Morgenritual und dann habe ich aber auch noch natürlich die Apple Vision Pro aufgesetzt und 'n bisschen Tiny Finn gespielt. Ah, okay.
- Jan
- So einen Zufall aber auch, wir haben nämlich heute die Macher von Tiny Finns gesehen. Ach was,
- Dave
- ja, ist verrückt.
- Jan
- Wirklich, So Zufall. Wo sind sie? Wo sind sie? Sitzen dir genau gegenüber. Hallo Robin, hallo Sebi. Hi. Hi. Ihr seid das Studio Detached aus Offenbach, richtig? Wunderbar. Also nicht Offenbach, aber wunderbar, dass ihr da seid?
- Sebastian "Seppi" Schuchmann
- Ja, ja, ja.
- Dave
- Oh, direkt am Anfang der Hate, ja.
- Jan
- Ja, also ich hab ja in Frankfurt studiert und mein Statistikprofessor hat so gefühlt jede Vorlesung damit angefangen mit, was ist das Schönste an. Offen macht der Blick nach Frankfurt und
- Robin Bittlinger
- so, ja.
- Dave
- Ja, aber das ist
- Sebastian "Seppi" Schuchmann
- ja Klassiker
- Jan
- macht sich. Klassiker. Offen macht sich.
- Sebastian "Seppi" Schuchmann
- Ja, da
- Jan
- können wir vielleicht auch gleich noch mal, also finde ich wirklich von der Start up Szene können wir vielleicht auch noch mal drüber sprechen. Aber schön, dass ihr auf alle Fälle hier seid. Wir wollten nämlich heute mal ein bisschen über Game Development sprechen. Wir kommen ja auch aus dem Game Development und wir fanden das mal besonders interessant über VR Development im Speziellen zu sprechen und ihr wart ja schon mal bei uns auf einem About Design Event und habt da Tiny Fins vorgestellt. Und weil das so cool war, dachten wir, das ist bestimmt auch für alle Leute da draußen interessant, die leider nicht zu uns kommen konnten und den Talk hören konnten und deshalb sprechen wir hier noch mal darüber. Vielleicht bevor wir da ins Detail sprechen, wie seid ihr überhaupt in den VR Zaubertrank gefallen? Was hat euch da inspiriert, mit eurem ganzen Studio im Prinzip in diese Richtung zu gehen und wo kommt ihr eigentlich her?
- Sebastian "Seppi" Schuchmann
- Ja, gut. Also generell wie a, ich würd's eigentlich größer fassen, eher so dieser Bereich Augmented Reality, Mixed Reality, weil also Virtual Reality würden wir jetzt klassischerweise als das bezeichnen, dann sagen wir, Du hast die Vision Pro auf und Du siehst wirklich gar nichts mehr von der Umgebung, Du bist komplett in der virtuellen Welt. Jetzt bei unserem Spiel Tiny Fins, wo man einfach so Fische durch den Raum steuern kann, siehst Du ja noch die echte Welt, also das wär dann eher so Mixed Reality. Wir haben schon vor, als wir angefangen haben, vor fünf Jahren, also als wir DITEC gegründet haben, da hatten wir mit Augmented Reality losgelegt und das war lustigerweise auch von Anfang an hatten wir so geträumt, oh mein Gott, wenn Apple die Brille raus bringt, das wird der Moment, dann wird a a groß. Ich weiß jetzt noch nicht, ob a a wirklich groß jetzt ist, aber das war son bisschen der Startpunkt, wirklich halt a a auf dem Handy. Und es war schon immer für mich, ich glaub die Magie ist für mich in über die Jahre völlig son kleines bisschen flöten gegangen, aber einfach dieser Moment zu zeigen, hey, ich hab hier 'n Modell, das steht jetzt auf meinem Tisch. Auf einmal ist diese Brücke zwischen digitaler Welt und der echten Welt auf einmal geschlossen. Du zeigst es Leuten, die sind begeistert und dieser Moment ist halt einfach richtig cool und den, ja, versucht man auch noch mit der Vision Pro halt immer noch wieder zu capturen, so ungefähr.
- Robin Bittlinger
- Also grundsätzlich ist es auch so, also man hat ja dann diese ganzen Sci Fi Filme im Kopf, Du hast dann irgendwie Iron Man, der mit seinem Javis Interface irgendwelche Hologramme in die Luft steigen lässt und alles Mögliche. Du kannst quasi, AR ist, glaube ich, das, was was an Technik am ehesten, an an Magie oder so was rankommt, wie Du dich wie Du dir selbst quasi Superkräfte verleihen kannst. Und lustigerweise, wir haben damals aber richtig low gestartet, also als wir mit detecht angefangen haben, da sind wir erst mal ins Face Filter Business eingestiegen. Also wir haben sie quasi für Instagram Snapchat. Snapchat. Genau und hatten dann aber auch tatsächlich so unseren ersten bisschen größeren Kunden, da haben wir dann Facefilter für Gustavo Gusto gemacht, also die Pizza Marke, ich weiß nicht. Ja. Und genau ja, so so haben wir dann quasi, so sind wir dann in das ganze AR Thema eingestiegen. Eigentlich kommen wir ja aus dem interaktiven Medienbereich, also wir haben Interaktiv Media Design studiert in Dieburg und grundsätzlich Das ist so
- Jan
- in der Nähe von Darmstadt, für alle, die da draußen jetzt vielleicht nicht die Burg kennen.
- Dave
- Ich kann das auch nicht. Ich hab's auch vermutlich irgendwo in Hessen.
- Robin Bittlinger
- Ja. Genau irgendwo in Hessen, genau und Mixed Reality grundsätzlich oder interaktive Anwendungen, das muss gar nicht auch unbedingt mit 'ner Brille oder mit 'nem Handy zu tun haben. Also das kann zum Beispiel auch, wer noch die alten Playstation Games kennt, wo Du vor 'ner Kamera stehst und irgendwelche Scheiben putzt
- Dave
- oder I Toy, ja. I Toy, oh grandios.
- Robin Bittlinger
- Genau, das fällt da auch voll rein. Also es ist quasi nicht gar nicht mal nur unbedingt Smartphone oder Brillen bezogen. Mhm.
- Jan
- Okay, so seid ihr also zu VR gekommen. Wie kommt VR zu euch? Also jetzt seid ihr ja eine Agentur und seid ihr auch auf irgendwie Auftragsarbeiten wahrscheinlich angewiesen so. Wie wie interessieren sich die Leute da draußen dafür?
- Sebastian "Seppi" Schuchmann
- Also, ich mein, das meiste, was wir machen, wirklich dann so was Auftragsarbeiten angeht und dann VRMR ist einfach wirklich so Messekontext meistens. Also, die Sache halt immer noch heutzutage ist ja, wer hat eine VR Brille? Also ich mein, ihr kennt wahrscheinlich Leute, hier und da gibt's Leute, aber die meisten haben keine. True. So. Und das heißt, also und die meisten Leuten, wenn man denen eine VR Brille aufsetzt, ist es immer noch ihr erstes Mal, also auch auch heute noch. Das heißt für so Kontexte wie eine Messe, wo Du einfach, wo Besucher hinkommen können und dann eine Brille aufbekommen und dann sozusagen die Hardware schon gegeben ist, ist der perfekte Kontext und das holt die Leute natürlich auf 'nem anderen Level noch mal ab. Also, wenn man das jetzt zum Beispiel vergleicht mit 'ner Powerpoint Präsentation, also Du hast zwei D, Du hast einfach 'n paar Slides, hast 'n Perfects, das Ding zum Beispiel, das Auto, in drei D vor dir zu sehen, ist natürlich 'n ganz anderes Level.
- Jan
- Mhm. Ja. Ist das was, wo ihr so aus UX Sicht son bisschen darauf achten müsstet, weil wenn ich mir jetzt son Produkt von euch wie Tinyfans angucke, ja, was ja für Leute gemacht ist, die zu Hause 'n eigenes Headset haben, Marke jetzt erst mal egal so, ja, aber die die kennen sich son bisschen in dem Space vielleicht schon aus und und wenn Du das auf der Messe das erste Mal aufbekommst, dann weißt Du ja wahrscheinlich so gar nichts darüber. Also Ja. Die Leute wissen, ich muss da 'n Controller benutzen, hab ich da eine Maus in der Hand, mach ich das mit Händen und und wenn ja, wie? Da musst Du ja wahrscheinlich eine eine sehr viel andere Anwendung gestalten, wenn Du's jetzt für den in Anführungszeichen Heimbedarf machst. Einhundert Prozent.
- Sebastian "Seppi" Schuchmann
- Also es ist dann halt wirklich so, dass man versucht vielleicht auch Interaktionen son bisschen zu vermeiden fast schon oder die wirklich extrem primitiv zu halten und auch, dass man einfach guckt, dass es gleich losgeht. Also Tiny Fince startet ja zum Beispiel mit 'nem Tutorial, Du kriegst erst mal 'n Spiel beigebracht. Du willst einfach diesen Step willst Du vermeiden, Du ziehst die Brille auf und mehr oder weniger los geht's und Du bist einfach nur Zuschauer. Also bei einer Anwendung zum Beispiel, da haben wir halt auch 'n Moderator dabei, also es wär dann son Multiplayer sozusagen. Es laufen mehrere Leute drum rum und der Moderator führt die Leute dann da durch und die können dann hier und da mal was machen, aber halt nicht die ganze Zeit und vor allem auch nichts Komplexes, was jetzt irgendwie krasse Gesten erfordert oder sowas.
- Dave
- War das dieses Partyspiel oder welches Spiel war das? Wie
- Sebastian "Seppi" Schuchmann
- meinst Du?
- Dave
- Ihr habt ja so son Partyspiel, glaube ich, hab ich auf eurer Webseite gesehen. War das das mit dem Moderator oder ist das was anderes?
- Robin Bittlinger
- Nicht direkt, also also es AR Party war war quasi einen Showcase, den wir ganz am Anfang mal gestartet hatten. Da hatten wir unseren ersten fetten Auftrag, da hatten wir quasi lustigerweise, das war was für Honda, da haben wir auch gar nichts in Richtung AR gemacht, sondern es war es war es ging nur Prototyping und dann haben wir danach gesagt, komm, dann machen wir jetzt noch mal 'n geiles eigenes Ding, wir machen jetzt AR Party als Multiplayer, son bisschen Mario Party like
- Dave
- Ja, man.
- Robin Bittlinger
- Und haben dann aber da vier Monate reingesteckt und waren dann an 'nem Punkt, wo wir gesagt haben, dass das kostet uns jetzt noch mal mindestens vier Monate, das Release ready zu machen. Wir starten jetzt 'n Kickstarter und der ist leider 'n bisschen gefloppt und deswegen ist AR Party einen sehr geiler Showcase, der uns mitunter 'n paar richtig coole Kunden eingetragen hat und auch die Apple Vision Pro, da kommen wir vielleicht später noch mal zu
- Jan
- und genau ja. Also ich muss sagen, es hat mich 'n bisschen betroffen gemacht, so. Ich hab nämlich in der Recherche für die Folgen natürlich auch so eure Webseite durchforstet und hab auch eher Party gefunden, stand da so, ah, Kickstarter, direkt auf Kickstarter, ja, da werfen wir 'n bisschen Geld hinterher, das sieht irgendwie ganz cool aus. Und dann hab ich's nicht mehr gefunden.
- Robin Bittlinger
- No. Ja, das war vor vier Jahren oder so.
- Dave
- Ja, ja.
- Sebastian "Seppi" Schuchmann
- Also wir wollten fünfundzwanzigtausend, wir haben irgendwie tausendfünfhundert bekommen oder so. Ja, aber es war auch auch Mist. Es war auch wirklich nicht so 'n oh mein Gott, das ist jetzt unser Lebensprojekt, es war eher so, sollen wir weitermachen oder nicht, wir lassen Kickstarter entscheiden. Ja. So und am Ende war das Projekt trotzdem einfach so wertvoll.
- Jan
- Okay, jetzt hat das mit dem Kickstarter vielleicht nicht gut funktioniert, aber ihr habt ja trotzdem dann mit Tiny Fins ein eigenes Produkt gemacht. Richtig, richtig. So, was war da anders? Das ist, also warum habt ihr das bei tinyfins so durchgezogen? Wieso hat es da funktioniert und wieso bei AR Party nicht?
- Sebastian "Seppi" Schuchmann
- Gut, wir haben's bei tinyfins durchgezogen, weil wir das Dev Kit von der Vision Pro hatten.
- Jan
- Ist ein legitimer Grund, ja, kann man ja sagen.
- Robin Bittlinger
- Und der Scope natürlich. Also lustigerweise haben wir quasi, wir hatten erst vor AR Party zu machen für die Vision Pro.
- Dave
- Stimmt.
- Robin Bittlinger
- Und haben dann angefangen, Minigames zu prototypen für für AR Party, also quasi, Du hast immer eine Spielrunde würfeln und dann kommt Minispiel alle gegeneinander und dann geht's weiter und da haben wir halt, wir wollten halt nicht einfach die Minispiele recyceln, die wir schon hatten fürs Handy. Das war dann irgendwie uns 'n bisschen zu wack und deswegen haben wir dann gesagt, wir wollen was, was halt geil auf der Vision funktioniert mit Gestensteuerung und mit mit voll Immersive vielleicht auch und dann haben wir halt einfach angefangen wild zu prototypen und soll ich's noch mal herleiten, wie wir von AR Party quasi zu Tiny Fins gekommen sind, genau?
- Jan
- Ja, warum nicht?
- Robin Bittlinger
- Wir haben dann quasi how den Lukas geprototyped sozusagen und hatten dann quasi einfach 'n virtuellen Hammer an der Hand und haben halt dich rum sind Nägel im Raum erschienen, die Du in den Boden hauen konntest und uns ist aufgefallen, dass das einfach keinen Spaß macht, dass das nicht befriedigend ist, weil der Hammer hat keinen Widerstand und das Hand Tracking ist zwar sau gut, aber nicht so gut, dass der Hammer wirklich flüssig an deiner Hand klebt. Das heißt, wenn Du 'n schnellen Schlag gemacht hast, dann war der Hammer schon so also quasi ist sie son bisschen in der Luft hängen geblieben und dann nachgezogen und dann ist ist Seppi auf die geile Idee gekommen das Ganze son bisschen zu isen, sodass der Hammer hinter deiner Hand her schwebt quasi, also dass der interpoliert zwischen den zwischen den Punkten und das gab direkt son der Hammer schwebt so der Hand hinterher Gefühl und das war schon das war schon echt fett. Da haben
- Jan
- sie son bisschen wie Thor gefühlt willst Du sagen.
- Robin Bittlinger
- Ja, nee, eigentlich fast eher wie, wen nehm ich als Beispiel, wie Katara von Legend The Last Air Bänder. Oh. Quasi, es hatte son bisschen son wasserbändigen Vibe, genau, wo wir bei Tai Chi Tai Chi haben wir auch.
- Jan
- Ja, definitiv. Bei Tai infiziert man das wieder. Ja, ja, auf jeden Fall. Ich bin
- Dave
- nicht sehr unfähig dabei gefühlt beim Wasserbändigen, aber es hat sich
- Robin Bittlinger
- da da dran angefühlt. Genau und dann haben wir gesagt, gut, was ist, wenn das jetzt kein Hammer ist, sondern was macht denn irgendwie Sinn? Was schwimmt denn irgendwie so in der Luft rum? Ja, 'n Fischschwarm wär vielleicht ganz cool und so ist dann quasi Tiny Finns entstanden. Und wir konnten es dann durchziehen, weil's einfach 'n viel kleineren Scoup hat als AR Party. Also es ist wirklich, weiß ich nicht, 'n Zwanzigstel.
- Sebastian "Seppi" Schuchmann
- Aber wir hatten am Anfang auch wirklich debattiert, wird jetzt Tiny Fins, das hieß dann ja noch Tiny Fins nicht, wird es jetzt 'n Minispiel von AR Party oder machen wir 'n eigenes Ding draus? Und dann wars irgendwann so, ey, wir haben bis Ende Januar Zeit, da wird 'n eigenes Ding draus und das war die richtige Entscheidung.
- Jan
- Ja. Spielt da auch sone Überlegung mit rein, dass natürlich Multiplayer Titel auf sone VR Plattform generell noch mal schwieriger sind? Also es ist ja schwierig genug, eine Person zu finden, die eine Brille hat und noch viel schwieriger zwei Personen zu finden, noch viel schwieriger zwei Personen, die im Zweifelsfall im selben Raum sind oder oder wie auch immer.
- Dave
- Unmöglich. Na ja, also Aus auf Konferenzen. Wie viel
- Jan
- VR Multiplayer hast Du denn schon gespielt, Dave? Und Du hast eine Brille?
- Dave
- Null, aber ich leide auch super an Motion Sickness. Das ist so richtig problematisch. Mhm. Okay. Aber sieht immer lustig aus, wenn Leute das spielen.
- Sebastian "Seppi" Schuchmann
- Ja, aber das ist auf jeden Fall mit reingeflossen in den Gedankengang. Und grade beim Release war's dann natürlich klar, dass der Release erst mal klein sein wird. War, würd ich sagen, aber nicht der Hauptgrund am Ende des Tages. Also, wir wollten halt auch einfach 'n geilen Showcase wieder draus machen oder irgendwas, was einfach an sich geil ist. Und ich find dann auch immer son bisschen, gut, das wär dann vielleicht für weniger Leute, aber für die, also es wär dann wahrscheinlich der einzige Multiplayer Titel gewesen beim Launch. Also es wär auch wieder anders interessant. Ja,
- Jan
- ja, ja.
- Sebastian "Seppi" Schuchmann
- Wobei wir gemerkt haben, wir waren zumindest beim Launch gab's praktisch, es gab superwenige andere Games und praktisch keine, die halt auch irgendwie die Brille ausgenutzt hatten. Also wirklich so dieses Ganze mit der Raumerkennung, wie die Hand getrackt wird, das alles. Also deswegen, wir hatten schon genug eigentlich Alleinstellungsmerkmale dann am Ende des Tages.
- Robin Bittlinger
- Das war fast schon lächerlich. Also wir haben dann nach Release mal dreißig Apps runtergeladen, zu gucken, was macht die Konkurrenz und das wir waren wirklich, das war wirklich traurig teilweise. Also das ist inzwischen ganz anders, also inzwischen sind die gut nachgezogen, aber ganz am Anfang gab's echt fast keine guten Apps für die Vision Pro Und für uns gab's auch noch so einen magischen Moment. Wir waren dann nämlich, also Apple hat 'n Entwicklerstudio in München. Mhm. Da kann man sich anmelden, da kann man hinkommen und da sind auch da sind auch Geräte vor Ort. Und da haben wir dann quasi mal verschiedene Prototypen mitgenommen. Also wir hatten zum Beispiel gerade, wir hatten son paar Sachen auch für die für AR Party ge Prototyped, also Slinkshot zum Beispiel, also Du hast son eine Schnur spannt sich zwischen deinem Zeigefinger und Daumen und Du kannst quasi mit mit dem anderen Finger 'n Korken verschießen auf kleine Monster, die auf dich zufliegen und halt einfach nur diesen Prototypen, wo Du son Haufen fliegender kleiner Fische, die einfach deiner Hand gefolgt sind. Und das kam dann bei den Leuten von Apple so extrem gut an, dass wir dann ziemlich schnell die Leute mit dem Fish Game waren. Und das da wurden dann Kollegen hergeholt und ey guckt euch das mal an und keine Ahnung und das war für uns dann so ah okay, ich glaub wir haben da was was ganz Cooles.
- Dave
- War das eigentlich quasi auch eure Eintrittskarte, warum ihr dieses Dev Kit bekommen habt oder hattet ihr das schon vorher? Also wie war eigentlich son bisschen son Schritt zurück? Wie kam's überhaupt zu dieser Kooperation mit Apple und dass ihr quasi auch die Apple Vision Pro vorher hattet?
- Sebastian "Seppi" Schuchmann
- Also man konnte sich da drauf bewerben, einfach online, hat da praktisch son Formular ausgefüllt, aber was wir da dann vorgestellt hatten, war eher Party sozusagen.
- Dave
- Okay, ja.
- Sebastian "Seppi" Schuchmann
- Und ich vermute, also beziehungsweise wir haben dann ja auch mit den Leuten geredet so am Ende des Tages, gab son paar Gründe, warum das geklappt hat, würde ich sagen. Also der eine ist, ich glaub, es war in dem Fall gut, im Game zu sein, weil also die Apple Vision Pro hat sich schon verkauft und auch immer noch ist son, ja, es ist son Businesstools, son Homeoffice Ding. Und ich glaub, viele, die sich da beworben haben, waren eben dann einfach irgendwelche Apps und so weiter. Ja. Und das hat dann natürlich geholfen, die wollten eine Palette abdecken, die wollen einfach wie 'n Computer, das sollte es soll Entertainment, Gaming, da soll alles dabei sein, deswegen war das 'n Vorteil. Mhm. Das andere war, glaube ich, wirklich einfach, wer aufmerksam die Keynote geguckt hat, hat festgestellt, was will denn Apple promoten, was ist denen wichtig an diesem Gerät? Und das haben wir halt einfach hervorgehoben und gezeigt so, wir verstehen, was eure Vision davon ist und ja, ich glaub, das hat auch noch geholfen.
- Jan
- Mhm. Okay, wenn wir vielleicht mal zwei, drei Schritte zurück machen davon, wir haben ja eingangs gesagt, wir machen ja auch Spiele, aber wir machen sehr viel andere Spiele. So, unsere Spiele sind, ich wollt grad sagen flach, aber das klingt so bisschen abwertend, unsere Spiele sind zweidimensional. Ja, ja, ja. So kann man's, glaube ich, sagen, ja. Und ich hätte jetzt, ich hab auch nicht den technischen Hintergrund dafür, aber wenn mir jetzt jemand sagen würde, Jan, mach doch mal son Prototyp für sone VR App. Ich hätte keine Ahnung, wo ich anfangen muss. Ja. So, wo fange ich denn an?
- Sebastian "Seppi" Schuchmann
- Also man sollte wahrscheinlich, wenn man keine Ahnung hat, in 'ner Game Engine starten, so generell. Weil eine Game Engine bietet einem praktisch direkt 'n Platz, wo Du irgendwie, Du kannst Objekte reinziehen, zum Beispiel 'n Würfel und der wird irgendwie dargestellt. Und da ist am Ende des Tages bei den meisten Plattformen dann fast sogar son bisschen egal, ob das jetzt einfach auf deinem Screen ist oder in VR, weil ja die drei-d-Informationen schon da ist. Ja, wir machen die meiste Arbeit mit Unity. Ich würd sagen, im Game Engine Bereich gibt's drei große Player, Unreal, Godot, Unreal. Unreal ist der, da gehst Du hin, wenn Du High End Grafik willst, PS5, Xbox, krasse PCs, die haben das beste Lightning und so weiter. Unit ist vor allem eigentlich so im Mobile Game Bereich ziemlich groß und diese ganze Schiene auch a a wie a und Gedo ist halt jetzt grad noch son bisschen so dieser Indie Game Player Open Source, also eigentlich auch superspannend. Ich hoffe, da da wird noch mehr draus, weil eigentlich Open Source halt eigentlich supercool ist. Mhm. Aber bis jetzt, wenn man guckt, was da rausgekommen ist, vor allem viele, ja, viel 2D Kram, viele Computerspieltitel, nicht so, nicht viel auf anderen Plattformen. Mhm.
- Jan
- Und ist es dann wirklich so, dass wenn ich jetzt, okay, ich starte in, dass es sich von klassischem, ne, Development für so normale Screens dann kaum unterscheidet, weil er der einzige Unterschied in Anführungszeichen das Kameraplacement ist, was Du vielleicht, ne, bei 'nem klassischen Titel son bisschen starrer hast und jetzt bist Du die
- Sebastian "Seppi" Schuchmann
- Kamera? Nee, würde ich nicht sagen. Also die Engine, in der Du arbeitest, bestimmt halt schon viel wie der komplette Workflow auch ist. Also wenn, typischerweise finde ich, wenn Du jetzt 'n Webprojekt hast zum Beispiel, dann hast Du einfach deinen Coedeitor, dann machst Du irgendwie MPM run build oder irgendwas und dann geht's los, dann dann öffnet sich was. Inunity ist so, Du könntest komplette Games bauen, ohne 'n Coedeitor überhaupt aufzuhaben, theoretisch. Also die bieten auch, also allein durch Animationen, die Du machen kannst. Du kannst Timelines bauen, das ist dann praktisch wie in sonem Videoschnittprogramm. Du kannst auch Visual Scripting machen. Die der Unit Editor bietet schon oder ist einfach sone Riesenplattform für sich. Also wir machen natürlich viel mit Skripte, also man kann sich vorstellen, man hat da eine Szene und in diesen Szenen sind game Objekts. Also klassischerweise wär das zum Beispiel der Player, der läuft rum, dann gibt's irgendwelche Gegner, die laufen rum. Es gibt zum Beispiel Kisten, die können zerschlagen werden. Das sind alles einzelne Objekts und auf denen sind dann Skripte drauf, die dann das Verhalten bestimmen.
- Jan
- Und wie wichtig ist da die Plattform selbst tatsächlich? Weil wenn ich jetzt klassisches Game Development mach, ja, und ich zieh jetzt auf Smartphones zum Beispiel ab, dann ist er für mich in der Entwicklung in Anführungszeichen relativ egal, Dave kann da gerne reinspringen, wenn ich was Falsches sag, relativ egal, ob das am Ende auf 'nem iOS oder auf 'nem Android Gerät läuft, so, ja. Oder wenn ich jetzt auf 'nem für 'n Desktop Rechner irgendwie konzeptioniere, dann ist es am Ende auch egal, ob das irgendwie 'n Rechner von von diesem Jahr oder vom letzten Jahr, ne, sagen es nicht so super anspruchsvoll ist irgendwie von von Titel her, aber jetzt sind ja, gerade weil diese Plattformen vielleicht auch noch so relativ jung sind, sind sie auch noch son bisschen sehr unterschiedlich, ja? Ich guck mir eine Meta Quest zwei an, da gibt's nur ganz schlechtes, ja. Ich guck mir eine Apple Vision Pro an, die hat keine Controller, die macht man irgendwie nur mit Händen. Ich versuch dann mit Händen irgendwie an der Meta Quest drei was zu machen, das irgendwie nicht ganz so geil, ja. Wie wie sehr limitiert das einen so im Entwicklungsalltag oder wie sehr muss man sich dieser Plattformunterschiede bewusst sein?
- Sebastian "Seppi" Schuchmann
- Genau, also es ist, würde ich schon sagen, sehr unterschiedlich, weil jetzt zum Beispiel, wenn Du einfach 'n klassisches Game machst, sagen wir mal kurz, nicht VR oder so was und Du dann kannst Du's deployen aufm Computer, aufm Mac, aufm Handy und es wird wahrscheinlich laufen. Also dann musst Du natürlich den Input irgendwie anpassen, bei dem einen hast Du Touchscreen, bei dem anderen vielleicht Controller, bei dem anderen Maustaste, aber das wird mehr oder weniger laufen. Was man dann natürlich gucken muss, ist gerade bei Games, irgendwann bei großen Games wird man optimieren müssen und da hat natürlich 'n Handy eine ganz andere Anforderung wie eine Konsole. Wenn wir jetzt auf VR gehen, also jetzt zum Beispiel normales Computerspiel auf VR supporten, ist es noch mal 'n Level krasser einfach. Also da wird wahrscheinlich auch, Du kannst einfach die VR Kamera schon, also die VR Brille als Kamera betrachten, die dann da durchgeht, das funktioniert schon. Aber jetzt zum Beispiel die Metaquest bringt son ganz anderes Bündel an mit als jetzt die Vision pro. Aber jetzt so ganz konkret, wir haben von der Vision pro, wir haben's nur für die Vision pro entwickelt, auf die Metaquest geportet innerhalb von drei Tagen. Also Okay. Es ist schon, es geht schon auch gut. Also man kann achtzig, neunzig Prozent behalten. Also da ist, das ist für mich eine der absoluten Hauptstärken von Unity halt wirklich, Du entwickelst in dieser einen Plattform und kannst es mehr oder weniger auf fast alles, was es gibt deployen, also sogar auch Web Web G l. Mhm. Also
- Dave
- Korrigier mich, wenn ich da falschlieg, aber also ich hatte meine meine Masterarbeit auch in diesem Themenbereich damals gemacht, war sone Mixed Reality Anwendung auf der Hololens. Und da hatte ich irgendwie im Kopf, es gab diese Plug ins, die glaube ich hatte Open XR oder so war das. Ja. Also irgendwie so diese AR Foundation, die irgendwie so ganz viele Sachen schon mit sich mitbringen, Also irgendwie Tracking von deinem Device, was für Gestensteuerung und Du so hast, Voice Commands. Das hilft euch wahrscheinlich dabei massiv auch aus, oder das dann verschiedene Schnittstellen quasi zu bedienen auf unterschiedlichen Genau, genau.
- Sebastian "Seppi" Schuchmann
- Ja, also jetzt ganz konkret zum Beispiel, wenn wir jetzt im Mobile Bereich sind, also Mobile AR, es gibt diese AR Foundation, wie Du gesagt hast.
- Jan
- Mhm.
- Sebastian "Seppi" Schuchmann
- Und das wird dann, es gibt auf Google gibt's AR Core, auf Apple gibt's AR Kit und dieses AR Foundation ist der Rapper halt sozusagen drum rum. Genau. Man merkt dann aber halt schon trotzdem konkret die Unterschiede. Also ein Ding, wo wir immer wieder reinlaufen, was uns auch echt krass frustriert ist auf Apple, das Image Tracking. Das ist, ich, das ist bewusst von denen limitiert, so dass es furchtbar ist. Also, man kann sich vorstellen, wenn ich jetzt hier 'n Marke, also es kann irgendein Bild sein aufm Tisch und ich möchte mit meinem Smartphone tracken, das wird es nur einmal pro Sekunde aktualisieren auf iOS jetzt. Das ist einfach so eingestellt. Wiederum ist so das das Plaintracking, also ich will einfach irgend 'n Objekte im Raum platzieren, unabhängig von 'nem Marker, ist auf iOS besser. Mhm. Und das sind dann schon so Sachen, also das verändert jetzt nicht konkret sozusagen, wie Du damit entwickelst. Du behandelst iOS und Android dann meistens gleich, aber das Ergebnis kann schon drastisch unterschiedlich sein, ja.
- Robin Bittlinger
- Und grade, was Du machen willst, also es ist schon eine Designentscheidung von Apple, weil das würde, also technisch wär das total easy. Also Du willst ja eigentlich, wenn Du 'n Image Marker hast, dann willst Du eigentlich den rumwedeln und Du willst, dass das drei-d-Objekt an diese Marker klebt. Das ist ja dieser magische Effekt quasi und wenn Du aber quasi immer die Hand bewegst und das Ding ruckelt dann so hinterher, das ist dann, ich weiß nicht genau, warum das jetzt so gemacht wird, aber genau. Das ist
- Jan
- vielleicht einfach da auch teilweise eine Designentscheidung von der Plattform, weil man halt sagen wird, okay, dieses dieses Cluster, was so, ich sag mal, ganz frühes a a ja schon war, ja, das wollen wir vielleicht einfach gar nicht und wir quasi diesen Use Case, indem wir ihn gar nicht performant ermöglichen?
- Sebastian "Seppi" Schuchmann
- Ich glaub genau, das ist es. Ja. Ja.
- Jan
- Leider. Nicht, dass die Leute hier mit QR Codes in der Gegend rumwedeln und dann irgendwie Sachen damit platzieren, das wollen wir nicht, sondern wir wollen das halt noch viel mehr immersive sozusagen haben und überlegt euch halt was cooles Neues dafür.
- Sebastian "Seppi" Schuchmann
- Ja. Ja. Mhm. Wobei wir einfach festgestellt haben, das ist irgendwie so dieses lustige. Also Du hast komplett recht, so dieses AR Marker basiert ist halt in dem Sinne Old School, aber das ist oft halt viel magischer trotzdem noch. Also stell dir vor dieser klassic Use Case, der irgendwann existieren wird, Du hast halt irgendwie dein Handy oder deine deine Brille und bist im Supermarkt und jede Verpackung kann ihr eigenes Portal sein, wo irgendwas drin passiert oder Du kriegst Infos da.
- Jan
- Viel zu spießig, stell dir doch mal vor, Du spielst so Magic oder Pokémon oder so Trading Card. Ja, ich bin im Supermarkt.
- Dave
- Ich bin
- Jan
- im Supermarkt. Du hast diesen Fisch vor dir und auf einmal stehen da halt deine Viecher so rum. Ja. Und wenn Du so eine Karte spielst, betteln
- Dave
- die sich
- Jan
- halt auch wirklich. Ja, Jogio,
- Sebastian "Seppi" Schuchmann
- ist klasse.
- Dave
- Hat hattet ihr das aber nicht sogar mit mit mit dieser Supermarktidee? Irgendwas diese Milchverpackung hatte ich im Kopf von eurer Website, oder? Wo Du dann die Milch irgendwie angeschaut hast und dann hast Du die Zusammensetzung irgendwie ballaststoffreich, Protein bla bla
- Sebastian "Seppi" Schuchmann
- bla und
- Jan
- so was.
- Sebastian "Seppi" Schuchmann
- Wir haben denen das gepitcht. Wir haben's am Ende nicht gemacht, es war 'n Prototyp, aber ja, genau.
- Dave
- Und den Prototyp fanden die auch nicht gut.
- Robin Bittlinger
- Doch, den fanden die gut, aber irgendwie hatten da war, das war für Fly damals und das ist, also es war so der nächste Step in unserer AR Entwicklung, könnte man sagen, also Face Filter und dann haben wir gedacht, na gut, was ist denn ein praktischer Use Case, den den auch Companys geil finden, ah okay, AR Marketing. Mhm. Genau und da haben wir dann angefangen, allen möglichen Marken, die wir interessant fanden, Ideen zu pitchen und das war eine davon an Fly damals, die sind da noch gerade frisch aufm Markt gewesen und hatten echt gar kein Budget. Ja. Genau.
- Jan
- Und dazu kommt natürlich auch, dass im Einzelhandel Package Design halt auch nicht alle zwei Wochen angepasst und neu gemacht wird.
- Dave
- True. True, True, True.
- Sebastian "Seppi" Schuchmann
- Also ich glaub, da war wirklich, und das ist auch immer noch so die größte Hürde, ist einfach dieses, wie kommst Du denn bis zu dem Schritt, wo die AR Experience eigentlich losgeht? Weil die Sache wär dann, okay, ich hab jetzt mein Handy, gut, das hat jeder dabei, das ist schon mal 'n guter Schritt, aber dann, ich hol's raus, öffne die Kamera, scan QR Code, lande dann in auf der Webseite oder in Instagram oder so was und halte es dann auf die Verpackung. Das sind so viele Steps.
- Dave
- Nicht komplett. Ja.
- Sebastian "Seppi" Schuchmann
- Genau, das ist dann eher so, die Idee funktioniert dann, wenn wir alle AR Brillen aufhaben.
- Jan
- Aber das war's vielleicht 'n guter Hook, mal über Web XR zu sprechen. Mhm. Weil das ist, ist das nicht genau das Versprechen dahinter zu sagen, Du kannst so diese AR oder VR Experience auch in deinem Browser laufen lassen und brauchst keine spezielle App oder irgendwas zu installieren, sondern das geht halt einfach los, so wie heutzutage halt auch 'n Video einfach losgehen kann auf deiner Webseite.
- Sebastian "Seppi" Schuchmann
- Ja, ja, nee, das ist auf jeden Fall richtig. Wir haben kein richtiges Web AR Projekt jemals gemacht, aber jedes Mal, also wir sind schon ganz oft davor, weil es jedes Mal so ist, das löst ja genau dieses Problem. So, hey, man kann einfach loslegen. Und dann dann beginnt's jedes Mal von neuem, okay, dann recherchieren wir mal, was aktuell da so geht. Und dann kommt man immer wieder zum Punkt, ah, es gibt dieses Framework, das nennt sie die Aith Wall, das wurd von Lyantic auch gekauft, also die, die Pokémon Go gemacht haben und das ist the way to go. Das ist wirklich das Beste, das heißt, damit hast Du supergutes Tracking und so weiter und dann guckst Du auf den Preis und dann ist es irgendwie, boah, ich will nichts falsches sagen, dreitausend Euro im Monat oder so was. Absolut. Und dann ist halt so, ja, dann ist die Option wieder raus. Ja. Und viele von den anderen Frameworks sind wirklich dann so, das Tracking ist schlecht, die Performance ist schlecht, also so so richtig so Fehler oder Probleme, wo Du merkst, ah, das steckt einfach noch in den Kinderschuhen. Aber das
- Jan
- heißt, das sind so Sachen, die man sich tatsächlich selber noch angucken muss. Ich hätte jetzt erwartet, aber ich hab ja keine Ahnung, ne, ich würde ganz naiv rangehen, sagen okay, wenn ich dieses WebXR benutze, dann sind das ja genau die Sachen, die für mich gelöst sind, so dieses Tracking und Verhalten im Raum und sowas, aber das muss ich alles noch
- Sebastian "Seppi" Schuchmann
- Ich glaube, es ist gelöst für VR. Also das beobachte ich aber nur so von der Seitenlinie, das haben wir nicht selbst entwickelt, aber es gibt VR Web Apps, die funktionieren gut.
- Jan
- Okay.
- Sebastian "Seppi" Schuchmann
- So, ich glaub auch, weil das son bisschen einfacher ist, also dieses ganze Tracking hinzukriegen, performant im Browser, also ist dann son Slam Algorithmus, der ja erkennen muss, wie Du Du dein Handy in der Umgebung bewegst, ist superschwierig und wird am Ende nur gescheit funktionieren, wenn halt die Hardware Hersteller, wenn Apple, wenn Google das wirklich da da unterstützt und die, ja, kochen eigentlich son bisschen ihre eigene Suppe. Also eigene Möglichkeit, die son bisschen mehr am kommen, ist App Clips. Also wenn euch das was sagt, ist praktisch, man kann eine App im App Store releasen, aber wer will eine komplette App runterladen? Das ist immer relativ groß und so weiter. App Clips sind sozusagen, die kannst Du, da klickst Du aufn Link im Browser und es öffnet eine kleine Version der App direkt sozusagen. Mhm. Du kannst dann noch die volle Version runterladen später, aber es ist relativ sieben, das ist klick, klick, Du bist in 'ner richtigen App, hast native Performance und so weiter und das ist son bisschen, ich würd sagen, aktuell der interessanteste Approach, wenn man versucht, also es ist nicht wirklich Web a a dann, aber es das ist the way, ja.
- Jan
- Okay, vielleicht noch mal zurückzukommen zu der Entwicklung. Da hast Du ja gesagt, okay, ihr macht da vier Millionenity und dementsprechend ähnlich ist es vielleicht auch zu Clusterer Entwicklungsarbeit, ja? Ja. Aber wie unterscheidet es sich denn so später im Zyklus, wenn ich jetzt an sowas wie QA und Debugging und sowas denke, ja? Also als ich das erste Mal Division Pro aufhatte, habe ich ganz viel Zeit in zum Beispiel den den Immersive Videos von Apple verbracht, ja, und hab so festgestellt, die kannst Du eigentlich beliebig oft gucken, weil Du immer was Neues entdeckst, weil dadurch, dass es halt son großes Sichtfeld hat und Du mal hier irgendwas gucken kannst und mal da was gucken kannst, kriegst Du halt nicht alles beim ersten Durchlauf sozusagen mit, ja? Ja. Und ich würde mir vorstellen, dass es bei Spielen oder Anwendungen ja auch ähnlich sein kann, ja, wenn Tiny Fins jetzt rund dich herum entsteht, Ja. Dann ist es ja auch wahrscheinlich 'n bisschen aufwendiger, schwieriger, also im internen Testing alles auch mal anzugucken oder dann nach drei Durchläufe zu sagen, ah, da hinten diese Koralle, die steht irgendwie aufm Kopf, das ist mir gar nicht aufgefallen, weil ich hab die ganze Zeit in die andere Richtung geguckt, so, ja. Wie, was gibt's da noch so für Unterschiede oder was macht das vielleicht schwieriger oder anspruchsvoller? Also,
- Sebastian "Seppi" Schuchmann
- ja, es ist schlimm. Also, es ist teilweise wirklich so, also man hat so diese neuen Ein Gefühl fürs Einschalten, das war die Ja, ja, ja. Also, das ist so, man denkt so, das hat alles magisch, das wird der Spaß des Lebens, aber dann ist halt eigentlich so, Du merkst es genau eigentlich, wie Du sagst und dann das Ding ist halt, ah, okay, Du hast die dann auf, Du entdeckst den Fehler, dann fix Du den Fehler und dann ist es halt wieder, okay, bilden, auf die Brille spielen, das ist 'n Prozess von zwei, drei Minuten. Mhm. Das ist halt so ätzend jedes Mal. Also, wir versuchen natürlich das meiste im Editor sozusagen zu testen, aber das geht natürlich auch nur bis zum gewissen Grad. Also ich kann jetzt, ich kann schlecht im Editor testen wie wenn ich Fische durch meinen Raum schwimmen lasse, so weit kann der Editor das dann halt nicht simulieren. Also, wir hatten's dann so, dass man, wir haben in im Editor eine drei-d-Szene, wo wir 'n Raum hatten, wo wir dann eine eine drei-d-Ku hatten, wo der die den Fischen gefolgt ist sozusagen, nee, die Fische sind in der Kugel gefolgt. Und das hilft natürlich, so ganz offensichtliche Bugs zu fixen, aber ja, Du musstest dann doch immer wieder diesen Zyklus machen und das wird ätzend.
- Robin Bittlinger
- Also was dabei hilft auf jeden Fall so Sachen, also klar, Du entdeckst unendlich neue Sachen dich rum und so könntest Du, glaube ich, auch unendlich neue Bugs finden oder Fehler. Was was dabei krass hilft, sind Prefabs, also quasi, dass Du in wie so wie so einzelne Pakete, so Vorlagen quasi vorbereitest und die dann auch immer gezielt bearbeitest. Also ist quasi, Du Du hast alles vorher mal durchgeguckt bevor Sport und dann geht's eigentlich nur dadurch drum noch, also Du hast natürlich dann 'n ganzen Raum, der erfasst wird und dann geht's noch darum halt, was heißt nur noch, aber auch darum einfach zu gucken, dass die Prefabs nicht ineinander spawnen, also nicht ineinander erscheinen und dass da alles schön verteilt ist und sowas, aber dass dann noch selbst Fehler in den drei D Modellen oder in diesen kleinen Unterteilen sind, die die sind dann schnell gefunden.
- Jan
- Aber ich stell es mir auch schwierig vor, Edge Cases abzudecken, so, ja, also als jetzt, ich glaub, als ich Fruide Ninja gespielt hab das erste Mal so drei D, die machen das
- Sebastian "Seppi" Schuchmann
- ja auch
- Jan
- super cool, also sie machen son richtig schönes Plain Mapping von von dem Space dich rum und wenn Du dann so Obst zerhackst und da irgendwie die Spritzer fliegen, dann bleibt das wirklich so an der Stelle im Raum kleben, wo da im echten Raum auch irgendwie was ist. Und das hat stellenweise sehr gut funktioniert und stellenweise sehr schlecht.
- Sebastian "Seppi" Schuchmann
- Mhm.
- Jan
- So, und das stelle ich mir natürlich auch zu Debacken Hölle vor, weil Du musst ja für unterschiedliche Use Cases auch einfach unterschiedliche Räume haben, ne. Du musst, wenn Du es testen willst, Du brauchst mal 'n Tisch oder 'n Sofa, also unterschiedliche Formen und Gegebenheiten auch einfach in deinem physischen Raum, das irgendwie alles zu testen oder bei bei Tiny Fans, weiß nicht, wenn ihr verhindern wollt, dass die Fische durch die halbe Möbellandschaft irgendwie schwimmen, ja, dann müssen ja Möbel da sein zum Testen, so salopp gesagt, ja.
- Sebastian "Seppi" Schuchmann
- Genau, ja, das stimmt schon, aber ich finde, zum gewissen Grad ist man dann auch einfach irgendwann so halt, verlassen uns auf die Plattform, so. Wenn die Plattform halbwegs den Raum richtig erkennt, dann versucht man auch das Problem simpler zu machen. Also in Tiny find's zum Beispiel, die Brille ja, die kann Möbel erkennen, die kann sozusagen deinen ganzen Raum zu 'nem Mesh machen, aber wir betrachten eigentlich einfach nur die Bodenplänen Und dann das Problem ist dann viel leichteres und das wird dann wahrscheinlich überall irgendwie funktionieren.
- Robin Bittlinger
- Wir haben auch tatsächlich, also wir haben festgestellt, 'n Office eignet sich ganz gut dazu, VR oder mRNA Experience zu zu testen, weil Du hast da eigentlich alles. Also wir haben wir einen großen Tisch im Office stehen, wir haben die wir haben die Stühle, wir haben höhenverstellbare Tische, wir haben verschiedene Arten von Wänden, Dachbalken, da ist eigentlich da ist eigentlich das meiste, was Du in 'nem Wohnzimmer auch hast, son bisschen abgedeckt und wir haben dann aber auch einfach, also wir haben 'n paar Sachen gemacht, also es ging ja auch am Anfang son bisschen darum, so Accessibility und Leute, die noch nie eine Brille auf hatten. Wir haben zum Beispiel, Division Pro macht viel mit Eye Tracking, weil die hat keine Controller. Und Du kannst dann quasi das Interface einfach angucken und dann tappen mit deinen Fingern, ums auszuwählen. Und wir haben uns bewusst dafür entschieden, dass Du für Tiny Finns kein Eye Tracking brauchst, also dass man quasi die Brille einfach aufziehen kann und es geht los, man muss es nicht einstellen. Und so war auch 'n Learning bei uns im Office. Wir haben am Anfang alles erkannt, weil es ist natürlich schon magisch, da steht 'n Stuhl und prallen die Fische von dem Stuhl ab, das ist natürlich schon geil. Oder vom Dachbalken. Aber wenn Du quasi, also es geht ja darum, die Fische vor 'nem Hai zu beschützen mitunter und wenn Du das zehnte Mal an diesem Dachbalken hängen geblieben bist, während Du vor diesem Hai wegrennst, entscheidest Du dich dann dafür einfach zu sagen, wir tracken nur noch die horizontalen Flächen, dass Du nicht mehr durch den Boden schwimmen kannst, aber auch son bisschen, wenn Du die Wände ignorierst, ist es auch egal, wie groß der Raum von, also dann können auch Leute in 'nem kleinen Raum spielen und haben quasi son bisschen mehr mehr mehr mehr zur Verfügung, ja.
- Dave
- Ist natürlich dann auch sone son bisschen Abwägen ne von wie immer sie viel zu machen und wie soll's vom Gamedesign halt sein, dass es auch irgendwie weiterhin noch Spaß macht. Ja, genau. Das war ich immer sehr spannend. Was was ich interessant wollte, weil das habt ihr jetzt paar Mal gesagt, natürlich haben ja diese verschiedenen Headmounterd Displays, ne, sei es jetzt die Apple Vision Pro, die Metaquest, potenziell auch so was wie die Playstation VR Brille. Die haben ja unterschiedliche Steuerung, ne. Die Apple Vision Pro, wie ihr gesagt habt, hat zum Beispiel kein haptisches Feedback, die hatte ja gar keine Controller, muss aber ohne da auskommen. Wie sehr konzentriert ihr euch in Entwicklung, alle Plattformen gleichzeitig? Macht ihr erst mal auf eine eine Plattform und adaptiert das dann in Zukunft für die anderen oder habt ihr direkt irgendwie alles im Blick, was man da machen könnte?
- Sebastian "Seppi" Schuchmann
- Na ja, also wenn's jetzt VR geht, haben wir's bis jetzt immer so gemacht, dass es dann für eine Plattform war. Aber das liegt auch einfach daran, bei tinyfin ja gut, klar, das war 'n Vision Pro Projekt und jetzt, wenn's kundenseitig irgendwas ist, dann bestimmst Du ja die Hardware und dann nimmst Du das, was Du denkst, funktioniert am besten. Vielleicht will der Kunde es dann später adaptieren, aber ja. Mhm. Ich Ich glaube, das ist aber jetzt in dem Sinne nicht klassisch. Also wenn Du jetzt wirklich einfach son Game Studio bist, okay, wir wollen jetzt 'n neuen VR Titel rausbringen, dann überlegst Du natürlich, dass Du es irgendwie auf möglichst vielen Plattformen machen kannst.
- Robin Bittlinger
- Genau, aber zum Beispiel jetzt mal, zum Beispiel wir haben für PE 'n Ding gemacht, das war auch eine Messe und die wollen da AR darstellen, die haben die wir machen so Lasercutter und so was und das ist zu gefährlich, das physisch darzustellen und deswegen haben wir mit Image Trackern quasi holografisch die Laserkutter und den Laser und so dargestellt und da ist dann auch so, ja okay, 'n Smartphone ist 'n bisschen zu klein für die Messe, die Brillen waren damals noch nicht draußen oder zumindest noch nicht auf dem Level Und dann nehmen wir einfach 'n Tablet natürlich, wir nehmen 'nem größeren Display. Was ist das Tablet, was aktuell das beste AR macht? Das ist das iPad Pro, also schlagen wir 'n iPad Pro vor logischerweise. So ungefähr ist dann der Gedankengang.
- Jan
- Ja. Mhm. Jetzt hast Du gesagt oder oder Dave hast Du heute gesagt, wenn Du 'n Spiel machst, willst Du ja irgendwie alle Plattformen abdecken. Und ich guck so diesen diesen Markt an, ohne da viel Einsicht reinzuhaben und ich frag mich so, ist das wirklich so? Weil dadurch, dass ja, also weder die Vision Pro noch die Meta Quest jetzt irgendwie eine riesige Install Base haben, ja, stell ich mal die ketzerische Frage, ob sich vielleicht nicht mehr lohnt, irgendwie mit einer von diesen Plattformen sonen Exklusivity Deal zu machen und dafür auf die andere vielleicht erst mal zu verzichten, weil das Add on von der zweiten oder dritten Plattform halt so inkrementell klein ist, dass sich vielleicht der andere Deal mehr lohnen kann, ja.
- Sebastian "Seppi" Schuchmann
- Also ich glaube, wenn Du jetzt einfach 'n VR Game rausbringen willst, dann geh auf die Meta Quest und ignorier erst mal die Apple Vision Pro.
- Jan
- Okay.
- Sebastian "Seppi" Schuchmann
- So, das und das machen Weil die
- Jan
- Weil die geilste ist?
- Sebastian "Seppi" Schuchmann
- Ja. Okay. Richtig. Und auch die Zielgruppe. Also das ist halt wirklich, die Meta Quest kaufen Leute, die wollen spielen.
- Jan
- Ja, hab ich auch so gemacht.
- Sebastian "Seppi" Schuchmann
- Genau, that's it und die Apple Vision Pro wird von Leuten gekauft, die finden's auch spannend, hey, ich will diesen Virtual Display von meinem Mac haben und ich will damit arbeiten und ja.
- Robin Bittlinger
- Aber ist lustig, dass Du es ansprichst, weil wir haben tatsächlich, also es gibt von Apple Apple Arcade, das ist quasi die machen die machen die Games über die Apps und das gibt's natürlich auch für die Vision Pro und wir haben auch schon gemerkt, also wir haben versucht mit Tiny Fins da irgendwie reinzukommen und es hat genau, es hat nicht geklappt, aber es macht natürlich Sinn son exklusiv Deal zu machen, wenn man die Möglichkeit hat. Ja.
- Jan
- Okay. Habt ihr das Gefühl, dass dieses VR Ökosystem für Spiele son gesünderen Price Point hat? Mein Eindruck ist nämlich, wenn ich gerade so die Mobile Gaming Landschaft angucke, also Smartphon Mobile Gaming, so wie wir herkommen, dass da natürlich schon son gewisses Race to the Bottom irgendwie stattgefunden hat. Das ist schon vorbei, ja, da ist auch viel mit Werbefinanzierung und sowas gelaufen und wenn man sich so im Metaquest Store umguckt oder auf der Vision Pro irgendwie umguckt, dann findest Du halt Spiele, die bepreist sind für fünf, zehn, fünfzehn, zwanzig teilweise auch im Metaquest irgendwie dreißig, vierzig Euro Bereich ja so unterwegs, was eigentlich viel gesünder klingt erst mal so, ja, auch für Publisher. Oder erwartet ihr dann, dass wenn diese Plattformen irgendwie größer werden, dass diese Preise auch genauso hart nach unten korrigieren, wie das damals bei Smartphones stattgefunden hat. Weil wer sich erinnert, als son iPhone mal neu war und der App Store neu war, da haben Spieler auch am Anfang mal zehn Euro gekostet und so, ne?
- Sebastian "Seppi" Schuchmann
- Genau, aber man muss sagen ja, ich find's sehr vergleichbar mit PC. Also auf bei VR Brillen, also die Games sind, genau, die haben meistens 'n Preis, die haben selten bis wenige Inderpurchices und ich glaub, ich hab noch nie Werbung jetzt in 'nem VR Game direkt gesehen. Und wenn Du jetzt bei PC, bei Steam guckst, würde ich sagen, ist das ähnlich. Also ja, Du hast hier und da Inderpurchices und Du also Expansions Add ons und so was, aber ich würd das mal noch so als sehr gesunde Sachen bezeichnen. Also ist jetzt nicht irgendwie toxisch in irgend 'nem Sinne. Noch. Noch, ja. Ich frag mich son bisschen, ich weiß nicht, woran's liegt, aber so, ich könnte mir vorstellen, dass dass es durch die durch die Einstiegshürde kommt. Also 'n Smartphone hat einfach inzwischen jeder, so, das gehört zum Grundrepertoire. Eine VR Brille ist einfach immer noch son son Premium, bei dem vielleicht dann auch sone gewisse Erwartungshaltung ist, dass ich da jetzt auch, ich bin bereit, jetzt auch zu investieren. Dann, ich kauf mir eine Meta Quest für fünfhundert Euro, ja klar kaufe ich dann auch 'n Spiel für zehn, zwanzig. Beim Smartphone ist es vielleicht eher, ja, ich hab Smartphone und, aber ich weiß nicht genau, woher dieses gekommen ist.
- Robin Bittlinger
- Also Ich meine, es ist, glaube ich, auch son bisschen dem Medium geschuldet. Also bei 'nem Smartphone hast Du eine Internet Connection und Du hast quasi dem Browser nur ein ein Klickway sozusagen und da dann quasi mal schnell in PayPal reinzugehen oder irgendwas zu verknüpfen und dann in App Purchase zu machen, ist quasi, das ist quasi schon der Flow ist natürlich in Smartphone integriert und bei 'ner VR Brille ist das, würde ich sagen, noch nicht so. Also da ist es schon auch teilweise, also klar, Du willst dich irgendwie, also es ist schon mega umständlich, dich überhaupt mit dem WLAN zu verbinden und irgendwie die VR Tastatur, aber klar Du bist dann früher oder später verbunden, aber es ist der der Flow ist ist einfach nicht so geil wie aufm Smartphone für sowas. Gut, aber
- Dave
- da können sich das ja noch hinentwickeln. Also iris Check oder so, der mit deinem Konto verbunden ist, zack wird's direkt bestätigt. Ja. Ist ja alles denkbar.
- Jan
- Ehrlicherweise, genauso ist es ja auf der Vision Pro.
- Dave
- Ist es auf der Vision Pro.
- Jan
- Ja, wenn Du was einkaufst oder hast, wie heißt das Vision Optic ID aktiviert sowie Face- oder Touch ID aufm Smartphone, dann grinst Du kurz in deine Brille und dann ist dein Kauf bestätigt.
- Sebastian "Seppi" Schuchmann
- Hab ich das gerade gekauft,
- Dave
- ich hab nämlich grad Tinyfans gekauft. Aber Du musst
- Jan
- das, Du musst das halt einmalig einrichten, so wie Touch ID und sowas halt.
- Dave
- Okay, stimmt, ich glaub ich hab mal 'n Passwort eingegeben. Ich weiß das gar nicht mehr, ich bin so vergesslich. Krass, ich hab ich glaub mein Passwort eingegeben. Schön. Ich ich würd gern noch mal über eine eine sehr wichtige Sache sprechen für mich. Okay. Weil weil ich ja auch dieses Thema VR, AR und so generell sehr mag. Und das habt ihr auch schon häufiger erwähnt jetzt während der Aufnahme. Und zwar habt ihr von sonem magischen Effekt gesprochen oder ich hab mir auch die auch noch von anbau designen Design angeschaut, da stand auf 'ner Folie irgendwo Hype Magie. Mhm. Und und es es muss sich einfach gut anfühlen. Und ich find, das sind so zwei Begriffe, die man auf jeden Fall nennen muss, Immersion und diesen von,
- Jan
- oh. Das musst Du jetzt aber auch erst mal erklären, was das für alle da draußen, die jetzt
- Dave
- Aber ist
- Sebastian "Seppi" Schuchmann
- jetzt den Namen von dem Mihai. Ja.
- Dave
- Oder so.
- Jan
- Ja, ja.
- Robin Bittlinger
- Ja, genau, genau.
- Dave
- Also genau. Das das können die Gäste ja übernehmen. Also dass dass wir vielleicht diese Begriffe, Immersion, Flow State vielleicht mal einordnen und grad auch so Sachen, über die ihr auch gesprochen habt, wie Accessibility, vielleicht auch Optimierung bei der Entwicklung. Wie wichtig ist es halt für euch insgesamt? Wie sehr denkt ihr ganze Zeit dran? Was sind so eure Marker dafür, dass das alles umgesetzt wird, damit am Ende halt genau dieses Feeling entsteht?
- Robin Bittlinger
- Also grundsätzlich Immersion ist ja son bisschen, also je nachdem, ob wir jetzt im VR oder im AR Bereich sind, aber jetzt zum Beispiel im AR Bereich ist es son bisschen, wie echt fühlt sich das Ganze an? Also wie sehr ist dieses drei D Objekt, fühlt sich das real für dich an, was Du jetzt vor dir im Raum hast und da drin ist die Vision zum Beispiel sehr stark, einfach weil die quasi das Lighting generiert aus der Umgebung und auch sehr gut mit den Schatten ist. Und da sind wir auch bei 'nem guten Punkt, also Schatten zum Beispiel und Ambient Oclusion, also Ambient Oclusion für die, die es nicht wissen, ist son bisschen so was wie 'n Kontaktschatten, also wenn zwei Flächen aufeinandertreffen, dann wird son son Ticken dunkler zur Kante hin. Das ist was, was das Gehirn automatisch macht, das lässt sich physisch nicht wirklich, also es ist jetzt nicht, dass das irgendwie von von von von der Lichtquelle abhängig ist, sondern das ist einfach da. Und quasi, wenn man diese zwei Schatten drin hat und die halbwegs gut sind, dann ist das schon sehr wichtig für die Immersion grundsätzlich im Raum und grade auch, wie das drei D Objekt im im Raum verankert ist. Was war der andere Begriff?
- Dave
- Flow State.
- Robin Bittlinger
- Aber genau. Oder bist Du noch?
- Sebastian "Seppi" Schuchmann
- Flow State? Ich hätte jetzt nicht, mir würde jetzt nicht direkt was einfallen, was dann irgendwie damit zu VR Development gehört. Also Flow State ist für mich einfach wirklich das, was beim Gaming auftritt. Also ich kenn's noch einfach so, man hatte immer, man versucht diese Balance herzustellen, dass etwas nicht zu schwer ist, weil dann überfordert's einen, aber auch nicht zu leicht ist, weil dann hat man Langeweile. Wenn Du in diesem Modus bist, ich mein, als Programmierer kennt man's hoffentlich, dass man irgendwann einfach in diesem Tunnel ist, das wär jetzt der Flow State. Mit 'nem guten Game kann man das erreichen, ist für mich aber unabhängig das Konzept von VR AR, das kann man auch damit erreichen, aber
- Robin Bittlinger
- ja. Genau, also Flow ist ja quasi, man ist ja gut in dem Flow State drin, wenn man einfach eine Schwierigkeit wählt, die die dich fordert, aber nicht überfordert, aber schon eigentlich fast schon so an der Grenze ist und dich auch so langsam reinführt, also dass Du quasi, also man kann ja quasi in Steps in diesen Flow reingeführt werden und das ist wahrscheinlich einfach gutes Gamedesign, das hat glaube ich jetzt nicht direkt mit VR was zu tun.
- Jan
- Aber ist das nicht so, These, ich hab keine Ahnung, ich hab da nicht meine Abschlussarbeit drüber geschrieben, dass in 'nem VR und AR Space Performance viel wichtiger ist, son State zu erhalten, weil wenn ich jetzt an meinem Rechner sitz und ich spiel hier, weiß nicht, mal meinen Shooter oder sowas und da droppt ab und zu mal son Frame, dann ist das halt irgendwie ärgerlich, aber das stört mich nicht weiter, aber wenn ich gerade in 'nem Area- oder via Space unterwegs bin und das droppt eins oder zwei Frames, dann bricht so meine Realität mich rum. So und das ist, glaube ich, viel mehr disruptive in dem Moment, ja, wenn ich jetzt im beim beim Bizepsspielen irgendwie hart dabei bin so, ja, und auf einmal hüpfen so alle Klötzen, mich rum, anstatt sich irgendwie flüssig zu bewegen oder so, da ist direkt dieser State halt kaputt so, weil ich weiß auch, okay, hier hat irgendwie gerade meine, also son Glitch in der Matrix hab ich rum aufgetreten, ja, und meine Realität war kurz kaputt und das das glaube ich, das was Du meinst, Dave, ne, dass dass man so dieses Performance dann irgendwie machen muss, weil das halt auf einmal sehr viel wichtiger wird, als es vorher vielleicht war.
- Sebastian "Seppi" Schuchmann
- Das stimmt, ja nee, ist 'n guter Punkt. Also ich würd generell sagen, also ich find so irgendwie auf allen Plattformen Performance wichtig, so, das sollte man einfach dann einhalten, deswegen, aber ja, es ist bei VR bestimmt noch mal wichtiger. Es ist auch in dem Sinne bei VR dieses mit dem Optimierung noch mal wichtiger, weil man halt überlegen muss, also bei der Vision Pro zum Beispiel, klar, die hat 'n starken Chip, ich glaub, das ist der m2, also wie wie eine Macbook Air, aber da sind zwei vier k Displays drin, so. Das heißt, diese Brille muss wirklich drei D Objekte im Raum erkennen, die muss den ganzen Kram machen, wir haben da Sachen rumfliegen und das mit sonem Mobile Chip am Ende des Tages, der ja mit 'ner Batterie gepowert wird. Man stößt schnell an Stellen, wenn man nicht optimiert, wo es halt einfach kritisch wird. Also das muss man, ja, das haben wir die ganze Zeit beim Development im Kopf behalten müssen und da vor allem am Anfang war es halt spannend, weil da gab's einfach noch keine Guidelines dafür. Also da teilweise haben wir dann auch Sachen gefunden, die dann sozusagen bei dem Community Framework noch kaputt waren, ne, die die optimieren mussten und so weiter. Das ist natürlich immer der Struggle, wenn man früh dabei ist sozusagen.
- Robin Bittlinger
- Aber es ist auch interessant das Thema in dem Sinne, weil es ist glaube ich für VR ist es unfassbar wichtig, dass es gut optimized ist, weil Du Du willst keine sechzig FPS, also Du willst eher neunzig FPS oder hundertzwanzig FPS, weil Du wirklich, Du willst wirklich, also da sind wir wieder im Begriff immersiv, also Du bist dann schon eher in dieser Anwendung drin und ich hab auch das Gefühl, dass Motion Sickness weniger auftritt, wenn Du eine höhere Framerate hast. Also gerade wenn dann es anfängt zu ruckeln beim Testen und so, das sind dann schon eher die Momente, wo einem mal son bisschen schlecht wird. Und also gerade bei einem, also zum Beispiel es gab einen Biatsaber Klon für die Vision Pro, der der rausgekommen ist und der war nicht so komplett flüssig und jedem, also also ich zum Beispiel bin jemand, der kein Problem mit Motion Stickness hat auf auf VR Brillen und mir war auch nach einer Minute kurz übel, als wir das gespielt haben. Also es war auf jeden Fall, also optimieren. Und das Verrückte ist, jetzt gerade als Division rausgekommen ist, also da sind teilweise muss man an Sachen denken, die aus dem typischen Game Development jetzt nicht unbedingt son Ding sind. Also wie viele, also klar ist das schon auch 'n Ding, aber zum Beispiel drauf wir gekommen sind, sind Draw Calls. Mhm. Also es ist nicht nur wichtig, wie ist der, wie hoch aufgelöst sind die drei D Modelle und wie viele, sondern auch wie viele Materialien werden verwendet und wie viele Gameobjekts gibt's generell. Also was man zum Beispiel gerne mal macht, 'n bisschen Zeit zu sparen, ist zum Beispiel, man macht einen leeres Gameobjekt, einen drei-d-Modell drum rum, zum Beispiel son gewissen Offset zu haben. Also dass Du quasi das Gameobjekt selbst ist bei null null null, wenn wir jetzt die die Spielwelt nehmen, also quasi genau in der Mitte, aber Du willst quasi, dass das drei D Objekt immer drei Meter von der Mitte entfernt ist und kannst dann quasi, wenn Du's mit Code ansteuerst, halt quasi immer mit null null null rechnen, obwohl das also son bisschen und das ist sone Denke, die man sich son, die ich mir zum Beispiel son bisschen so angewöhnt hatte und die dann aber einfach Performance gekostet hat auf der Vision am Anfang, weil die dann quasi dieses drei D Objekt noch mal als dieses leere Objekt noch mal als Extraobjekt mit berechnet hat und das dann und so weiter. Ja, genau.
- Jan
- Lass uns vielleicht noch mal über Performance sprechen, weil da sind ja die beiden großen Plattformen, die Quest und die Vision Pro gerade sehr unterschiedlich aufgestellt. So und auch ja bewusst sehr unterschiedlich aufstellt, ne, also Vision Pro, mehr Kameras, irgendwie mehr Displays. Du hast grade die die ganzen Lightning Berechnungen irgendwie angesprochen, die da schon so für dich erledigt werden und Apple versucht da ja so im Prinzip möglichst authentisch, möglichst performant was zu bieten, so. Und gefühlt, ich bin kein Profi, aber gefühlt geht Meta mit mit der Questzone sehr andere Route, so. Alles 'n bisschen kleiner, alles 'n bisschen lowkey. Sie haben gefühlt auch gar nicht den Anspruch, so viel authentizierter reinzubringen, ja, aber ermöglichen halt dadurch einfach eine andere Art oder überhaupt erst mal Games, die es ja vorher so gar nicht gab, ja. Und ich hab da neulich mit meinem Bruder drüber gesprochen, weil der auch da so in dem Space 'n bisschen unterwegs ist. Und die Frage ist ja, ist das 'n Problem, was sich über Zeit einfach löst, weil irgendwann wird Performance billig und möglich genug, dass man das auch in kleineren billigeren Headsets unterbringt oder ist das wie im PC Gaming halt auch, dass es trotzdem, also auch wenn gute Performance immer erschwinglicher wird, die noch viel bessere Performance ja auch immer noch da sein wird, so, ja? Also 'n Headset, was dreimal so viel kostet, wird immer noch mal mehr Performance irgendwie bringen können, ja? Und wo seht ihr da so den den Gaming Markt, dass er so wirklich auf dieses Triple-a-Level hinzielt und fotorealistisch dir irgendwelche Welten bieten will oder eher in so Spielen wie jetzt bei bei Tiny Finns, bei Beatsaver, bei Pistol Wippie halt mit 'nem mit 'nem ganz anderen Ansatz da eigentlich fahren, ja?
- Sebastian "Seppi" Schuchmann
- Also ich glaube auf jeden Fall son bisschen dieses, also hast Du so zwei Aspekte angesprochen. Also das eine ist auf jeden Fall immer, ja, die Brillen werden immer stärker, aber natürlich erstens heißt es dann auch zum Beispiel mehr Pixel, also das heißt, die Performance wird dann irgendwo auch verbraucht und die Ansprüche werden auch immer höher, also das heißt, da muss man dann doch wieder optimieren. Das andere finde ich halt super spannend, dieses mit dem geht's so in Richtung Fotorealismus, weil das ist sone Bewegung, die mich persönlich teilweise son bisschen abfuckt, weil man dann immer dieses hat, oh, wir wollen's jetzt noch realistischer, wollen's immer wieder realistischer. Aber meine persönliche Wahrnehmung ist gerade im VR Bereich, also man dachte, finde ich, am Anfang immer so, ah, damit's immersiv ist, muss es fotorealistisch sein, weil dann sieht's ja aus wie die echte Welt, aber das stimmt einfach gar nicht. Also die andere Aspekte machen es immersiv und das kann auch komplett stylized sein. Das macht's oft sogar noch mehr immersiv.
- Jan
- Aber sorry, wenn ich da kurz unterbrechen, weil also ich, in der Beobachtung würde ich hier voll zustimmen, ja, so, wenn ich Bit selber spiele, fühle ich mich voll drin, weil also, ne, egal ob's jetzt high poly ist oder nicht, aber dadurch das halt gut funktioniert und akkurat ist, fühlt es sich echt an. Genau. Aber die Frage ist, ist es nicht einfach nur so low poly, weil es nicht anders geht Und ist die Erwartungshaltung nicht eigentlich doch eine andere, aber man kann halt einfach nicht?
- Sebastian "Seppi" Schuchmann
- Ich glaube nicht. Also, meine Meinung dazu ist genauso, also hier Inside out zum Beispiel, Disney Pixar Filme, die sind nicht, also, die wären jetzt nicht besser dadurch, wenn es echte Schauspieler wären, meiner Meinung nach. Also diese Charaktere sind Stylyzed, die können Emotionen, also wie 'n guter Comic noch mal auf 'nem anderen Level vermitteln und da hat's einfach seinen seinen Platz. Also jetzt zum Beispiel Disney und Pixar, die haben ja praktisch kein Performance Limit. Also die haben da riesige Renderfarmen, deren Lightning und die Berechnung, die die anstellen, sind Wahnsinn, aber die Charaktere sind trotzdem in dem Sinne simpel. Also die haben wahrscheinlich Millionen von Polygone und so, aber wenn man die sich anguckt, ist ja ganz klar, das ist kein echter Mensch, so.
- Robin Bittlinger
- Ja. Ich glaub, wo man auch aufpassen muss, ist, die Technik ist auf jeden Fall noch nicht da, dass Du in VR Fotorealismus wirklich geil darstellen kannst. Und sobald Du versuchst, realistisch zu sein, landest Du schnell in der Uncanny Valley. Also Du bist dann, grade wenn's jetzt Menschen oder so was geht, das ist, ich kenn kein Computerspiel, was auf dem Level ist, dass Du denkst, wow, das ist das sieht grade fotorealistisch aus in Realtime. Das geht bei Produktpräsentationen, also wenn Du zum Beispiel im AR Bereich sagst, ey, wir schauen uns jetzt den neuen Föhn von Dyson in drei d an und zeigen das 'n paar Leuten, dann natürlich schon. Und gerade bei metallischen oder sagen wir glänzenden Sachen geht das auch schon relativ gut. Aber gerade wenn's auch organische Sachen geht, Pflanzen, Menschen, Tiere, da ist Fotorealismus ist noch nicht so weit.
- Dave
- Ja, ich glaube ich bin da aber insgesamt auch 'n bisschen mal Seppi so, Was Du auch gesagt hast, so man man macht so sein eigenes Artwork und so, seinen eigenen Style. Ich find 'n ganz großes Beispiel dafür ist ja auch Nintendo. Ja. Die haben jetzt überhaupt keine krasse Hardware schon seit Jahrzehnten nicht. Aber die Spiele sehen ja trotzdem irgendwie schön aus, ne. Wenn man jetzt so Mario oder auch The Legend of Zelda anschaut, die haben son eigenes Artwork. Man man findet's trotzdem schön und ansprechend so, ist aber natürlich nicht super hochauflösend. Und ich glaub, da versucht man, glaub ich, auch in VR oder AR auch gar nicht hinzugehen, sondern eher so wirklich, wir machen unseren eigenen Art Style und das versuchen wir gut rüberzubringen.
- Sebastian "Seppi" Schuchmann
- Genau, ja. Das wird son bisschen, glaube ich, halt durch die Performance Limitierung wird's erzwungen und deswegen gehen die Leute in die Richtung. Ich glaube, viele würden versuchen, Fotorealismus zu gehen und es wird auch sicherlich kommen. Und ich glaube auch, das ist ja immer dieses Ding, dieser Fotorealismus Punkt ist beeindruckend, solange es das Beste ist. Also wenn wir jetzt zehn Jahre zurückgehen, ich glaub, man erinnert sich immer so, zum Beispiel die PS3 kam raus, das Spiel, was dann da rauskam, war für einen, oh mein Gott, das sieht jetzt aus wie echt. Man guckt fünf Jahre später wieder drauf, dann so, nee, nee, nee, das war nicht gut.
- Dave
- War das damals wirklich, ja, crazy. Haben alle gesagt, okay, realistischer geht's nicht mehr.
- Sebastian "Seppi" Schuchmann
- Ja, und ich glaub, diese Momente werden in VR auch kommen und wahrscheinlich noch mal krasser sein, so, oh mein Gott, das sieht jetzt wirklich echt aus. Und das, ich glaub, das ist cool und ich find's geil, wenn es dann irgendwann geht, aber das heißt nicht, dass dann Styylzed und und halt 'n simplerer Look nicht trotzdem Platz hat.
- Jan
- Das ist richtig. Ich hatte übrigens son Erlebnis, als ich Final Fantasy damals im Kino geguckt hab, das war ja auch 3D gerendert, aber halt so mit echten Menschen.
- Dave
- Final Fantasy hat son Kinofilm?
- Jan
- Ja. Ja, Dave, das war vor deiner Zeit.
- Dave
- Alter, da ist krass.
- Jan
- Und als ich den gesehen hab, damals sagt er auch so, okay krass, jetzt sind alle Schauspieler arbeitslos und wir werden nur noch so 3D gerenderte Menschen haben. Wenn Du ihn dir heute anguckst,
- Robin Bittlinger
- so kannst
- Jan
- Du mal einen Trailer nachher schauen, dann denkst Du auch so, da ist der ja mit Tomaten im Augen ins Kino gegangen. Ja okay, aber dann lass uns doch mal son bisschen in die Zukunft vielleicht schauen, wie sich dieses denn Oh,
- Dave
- ich hatte vorhin noch mal eine Frage Okay,
- Jan
- lass uns doch nicht in die Zukunft schauen.
- Dave
- Es ist natürlich, man man spricht nicht so übers Geld, aber ich würd trotzdem bisschen über das Finanzielle son bisschen sprechen. Und zwar fand ich das interessant, weil ihr vorhin angeschnitten habt, so ihr hattet bisher keine Web AR Anwendung gemacht Mhm. Und genau. Ich ich hab ja immer so geschaut, zum Beispiel jetzt, was die Apple Vision Pro angeht und es gibt keine genauen Angaben, wie viel davon jetzt verkauft worden sind. Ja. Aber wir haben ja so trotzdem generell festgestellt, die sowohl dieser VR als auch Mixed Reality als auch AR Markt relativ klein, ne. Und dann natürlich, wenn man dann halt auch eine Anwendung für macht, die verkauft und so, sind potenziell nicht sehr viele Kunden. Und da ist son bisschen die Frage, diese dieser gesamte Bereich Web AR, der ist ja viel zugänglicher, weil jeder hat ja quasi 'n Smartphone und dass man daraus potenziell also 'n viel größeren Markt bedient. Ist das auch was, was für euch spannend ist, wo ihr dann auch grade Überlegung macht, vielleicht eher in die Richtung zu gehen? Oder sagt ihr, momentan fahrt ihr mit der Größe eures Teams und so insgesamt damit gut, so wie es grade ist?
- Robin Bittlinger
- Ist eine gute Frage. Also bei uns ist es natürlich immer son bisschen, es ist sone Mischung aus, wir haben Bock uns da drauf zu stürzen und was sind die Anfragen, die wir bekommen oder wenn wir quasi, wenn wir auf, natürlich sind wir hin und wieder auch auf Networking Events unterwegs, was ist da so der Vibe, worauf stehen die Leute gerade? Und genau, bis jetzt ist, glaube ich, also ich glaub das, was uns hauptsächlich von von Web AR abgehalten hat, ist wirklich, wie Seppi schon gesagt hat, es gibt eigentlich nur einen, der das richtig gut macht, was wir was auf dem Qualitätslevel ist, was wir Kunden anbieten wollen und die sind viel zu teuer. Mhm. Ja.
- Sebastian "Seppi" Schuchmann
- Ja. Also sonst wüsste ich jetzt auch nicht direkt, was mir noch dazu einfällt. Also grad wenn man jetzt den Mobile Market anspricht, dann so was wie, Pokémon Go hat's ja in dem Sinne vorgemacht, kannst Du ja auch mit 'ner App riesengroß sein. Mhm. Also
- Robin Bittlinger
- Genau, also wir wenn 'n neues Medium rauskommt wie die Vision Pro zum Beispiel, dann stürzen wir uns da drauf, haben dann quasi mal geguckt, was geht auf dem Markt und wir haben festgestellt, dass damit lässt sich jetzt nicht das große Geld machen. Also das Spiel bringt uns, hat uns vielleicht, weiß ich nicht,
- Sebastian "Seppi" Schuchmann
- fünftausend Euro