AI-Recht mit Dr. Peggy Müller
- // Podcast
- // Deep Dive 196
Shownotes
„KI ist gekommen, um zu bleiben”, sagt Dr. Peggy Müller. Die Anwältin unterstützt Unternehmen dabei, KI-Tools und Produkte der künstlichen Intelligenz rechtskonform einzuführen und zu nutzen.
Gemeinsam mit Peggy und unserem wiederkehrenden Gast Richard Hartmann spricht Jan über die rechtlichen Fragen und Hürden, die bei der Integration von KI-Systemen immer wieder aufkommen. Dabei geht es um die interne Nutzung von KI-Tools, Urheberrechte an AI-generierten Inhalten und ihre Folgen sowie einen berühmten Schopfmakaken, der für ein Grundsatzurteil sorgte.
Außerdem erläutert Peggy, welche Anforderungen beim Bereitstellen von KI-gestützten Produkten und Dienstleistungen wie Chatbots gelten, worauf man beim Training oder Fine-Tuning eigener Modelle achten muss. Erfahrt in dieser Folge, welche Anwendungsfälle der AI Act künftig besonders streng regelt – von Deepfakes bis zu Hochrisiko-Systemen.
Dieser Podcast ist keine Rechtsberatung.
- Jan
- Hallo und herzlich willkommen zu 1 neuen Deep Dive Folge hier in der programmier.bar, für euch im Studio wie immer hier der Jan am Start und ich bin nicht alleine. Ich hab nämlich hier doch den Richard zu Gast.
- Richard
- Hallo Richard.
- Jan
- Hallo. Richard, die Leute kennen dich schon aus Podcastfolgenummer.
- Richard
- Schieß mich tot.
- Jan
- Nein, das ist knapp daneben, es war die 160, ich hab aber nachgeholt.
- Richard
- Ah, sehr gut.
- Jan
- Ich hab mir das auch nicht auswendig gewusst. Gewusst. Wir haben mit dir damals über Datenschutz, DSGVO und so was gesprochen, weil ich sage, wir, meine ich Dennis. Mhm. Ja. Und die vertrauten Hörerinnen da draußen ahnen schon, wenn Richard wieder dabei ist, geht's wieder ein rechtliches Thema. Richard, über was wollen wir heute sprechen?
- Richard
- Heute geht's über KI. Das ja.
- Jan
- Ist das 'n rechtliches Thema?
- Richard
- Ja, leider ja.
- Jan
- Ah, okay. Ja, und damit wir nicht damit alleine auf weiter Flur sind, haben wir uns noch einen Gast eingeladen. Wir haben heute zu Gast im Studio Peggy Müller. Hallo Peggy, schön, dass Du da bist und Zeit für uns hast.
- Peggy
- Hallo, freu mich sehr über die Einladung. Vielen Dank.
- Jan
- Wir freuen uns, dass Du die Einladung angenommen hast. Du bist Anwältin bei Advant BYTON und über die Firma sozusagen zu uns gekommen, Richard, nicht wahr?
- Richard
- Über Lotrum, genau.
- Jan
- Wunderbar. Peggy, was machst Du, wenn Du nicht im Podcaststudio sitzt den ganzen Tag?
- Peggy
- Dann sitz ich in meinem tollen Büro in der Frankfurter Innenstadt und beschäftige mich hauptsächlich mit Fragen des gewerblichen Rechtsschutzes oder besser gesagt IP Recht. Das beinhaltet Urheberrechte, Markenrechte auch mal Designrechte und auch KI Lösungen, KI Fragen und inzwischen auch 'n Großteil IT Sicherheit, Fragen zu NIS 2, falls euch das was sagt und ähnliche Abkürzungen, ja.
- Jan
- Ich hab mir vor dieser Folge mal den Spaß gemacht, auf LinkedIn zu schauen, wer von den ganzen Leuten, die damals mit mir Rechtswissenschaft studiert haben, was die so alles machen mittlerweile und da war eine ganz große Bandbreite dabei von Immobilien, Arbeitsrecht, Umwelt, Presse, internationales Handelsrecht, maritiimes Recht war auch dabei, fand ich auch irgendwie superspannend. So, also Leute sind sehr breit aufgestellt. Was hat dich dazu gebracht, genau diesen Bereich auszusuchen, wenn es offensichtlich son riesen weites Feld ist, aus dem man wählen kann?
- Peggy
- Also im Studium hatt ich tatsächlich keine Berührungspunkte damit. Ich hab mir aber direkt nach dem ersten Staatsexamen die Frage gestellt oder ich wollte promovieren und dann hab ich mir son bisschen die Professoren bei uns an der Uni angeschaut und hab da einfach, ich werd mal ich werd mal vorstellig bei dem Professor Fehlsser seiner Zeit und da bin ich hin, hatte mir 'n Thema ausgesucht und prompt bin ich da gelandet und so bin ich dann auch diesem Thema, was mich dann so reingezogen hat, auch treu geblieben, ja? Das ist 'n überschaubarer Bereich, ja? Also ich hab tatsächlich eine Ausbildung bei der Steuerberater gemacht und Steuerrecht war immer so 'n Thema, wo ich dachte, oh Gott, das sind so viele Fallstricke, da kann man einfach so viel daneben tappen und falsch machen. Dann bin ich soeben tatsächlich beim gewerblichen Rechtsschutz gelandet, hab dann ja auch im Referendariat mit dem treu geblieben und hab dann in so 'ner kleinen IP Boutique angefangen und dann ganz lange bei Nintendo gearbeitet.
- Jan
- Was macht man da bei Nintendo?
- Peggy
- In der Rechtsabteilung, unter anderem die ja also wir haben Nintendo hat relativ viele Rechtsstreitigkeiten geführt in dem Bereich, also ja, alles vertraulich, aber unter anderem Designstreitigkeiten, auch Patentstreitigkeiten und die betreut die Rechtsabteilung intern, eben zu schauen, was gibt's für Auswirkungen für den Fall des Urteile eben zulasten des Unternehmens ausgehen? Was muss da im Vorfeld eventuell implementiert werden? Und genau, da gucken wir und was natürlich auch viel gemacht wird, ist im Vorfeld die die Spiele, neue Designs, das läuft ganz viel durch die Rechtsabteilung, ja? Wenn's da Fragen gibt zu, beispielsweise darf man in 'nem Mario Kart Spiel zum Beispiel über den Luffel drüberfahren und Ähnliches, ja? Also das sind so Fragen, die dann auf dem Schreibtisch
- Richard
- Spannend. Ich würd da hätten
- Jan
- wir auch noch Folge drüber machen können, was Aber wir wollen ja eigentlich Text. Immer gerne. Aber wir wollen ja heute eigentlich über AI reden und deshalb meine Einstiegsfrage zum Thema AI an euch beide und Peggy darf anfangen. Hat AI dein Leben leichter oder schwerer gemacht?
- Peggy
- Puh, was für eine Einstiegsfrage. Also privat erleichtert mein Leben definitiv. Ich nutze es wirklich sehr viel für viele Anfragen, für viele Themen, wo ich mir 'n ersten Überblick verschaffen will, wo ich nicht so mitbewandert bin, ja, also einfach schnell 'n Überblick zu bekommen, ja, bei Reisebuchungen, mir da eine Reiserote raussuchen, ähnliches, also wirklich top. In unserem Kanzleialltag ist es natürlich 'n bisschen schwieriger, weil wir da noch aktuell in der Testphase sind bei vielen bei vielen Modellen und uns das noch genauer anschauen, was wir denn tatsächlich da implementieren. Also ich geh davon aus, dass wir da auch bald bald Tools in der Anwendung haben, die unser Leben auch da sehr erleichtern werden.
- Jan
- Danke. Richard, wie sieht's in deinem Leben aus?
- Richard
- Überwiegend leichter. Also Neugier zu stillen, immer jederzeit noch schneller auf Informationen, die so formatiert sind, ne, wie man's sammle zu kommen, mega. Und auch die Befähigung, die man hat. Also man kann so viel mehr machen. Ich als Nichtentwickler kann einfacher entwickeln, obwohl ich weiß, mein Code ist dann halt vielleicht Wegwerfcode. Aber ich kann halt ausprobieren und schauen oder, ne, mir das erklären lassen. Das find ich großartig, aber es kommt natürlich mit Herausforderungen. Also Frustmomente gibt es sehr. Ich hadere auch noch ganz viel mit mit Stimme, dass das immer mit alles klar antwortet und dann der Rest kommt und dass das immer so freundschaftliche Vibes ausstattet, obwohl ich vielleicht einfach nur einen Rezept oder eine Checkliste haben will. Ja, das stört mich persönlich dann auch. Aber ey, das sind Luxusthemen. Ich bin, ich finde, sehr viel einfacher.
- Jan
- Und rein beruflich, durch die ganzen Themen, die Du jetzt damit aufm Schreibtisch hast, einfacher oder schwerer?
- Richard
- Also rein beruflich, wenn ich jetzt gesamtheitlich betrachte, was die Chancen betrifft, immer noch sehr viel einfacher, aber ja, es kommt mit Herausforderungen.
- Jan
- Zum Beispiel?
- Richard
- Zum Beispiel, das die große Frage, die ich mir heute mitgebracht hab, ist so Transparenzpflichten. Wann ist etwas ein Deep Fake? Wann muss man es irgendwie kenntlich machen? Welche Ausnahmen gibt es da und so was in diese Richtung? Finde ich sehr spannend, weil ja, wir werden alle mit Channel arbeiten, ob's mit Bilderstellung, Texterstellung, ob man eine E-Mail schreibt, ob man, ne, irgendwelche Assets generiert oder ob man 'n Code damit schreibt. Was darf ich eigentlich damit und wann darf ich das? Sind sehr spannende Fragestellungen.
- Jan
- Wir wollten uns ja diesem Thema widmen, weil das tatsächlich auch was ist, wofür wir immer mal wieder Zuschriften, Meldungen aus der Community und so weiter erhalten. Und das, was Du grade so als selbstverständlich im Prinzip schon so wieder geben hast, ja, wir arbeiten hier alle mit General und wir generieren hier Grafiken und Texte und da, das ist ja längst nicht in jeder Firma da draußen so oder in jedem Betrieb da draußen so. Was glaubst Du, macht das uns besonders einfach oder wieso können wir einfach so diese Tools nutzen? Oder sollten wir diese Tools vielleicht einfach so nutzen oder vielleicht auch nicht? Was sind so die Abwägungen, die man da treffen muss aus deiner Sicht?
- Richard
- Also ich seh da 2 große Elemente. Erst mal, es ist eine Veränderung. Mit Veränderungen klarzukommen dauert Zeit. Also ich guck jetzt erst mal aufs Menschliche. Wenn ich etwas immer in einem in einem Weg gegangen bin, warum sollte ich's jetzt anders machen, wenn's doch schon gut funktioniert? Und dann seh ich da erst mal keine Potenziale, sondern nur natürlich nur Anpassungen und das wird Fehler auslösen und so weiter. Und das ist unbequem. Und das Zweite ist auch, je nachdem, in welcher Branche man ist, ist man vielleicht risikoaverser oder risikoaffiner oder hat mehr Risiken oder hat halt weniger Risiken. Also ich würd nicht jedem empfehlen, sofort alles mit KI zu machen, nur weil's KI ist, aber ich seh das schon als einen technologischen Fortschritt, den niemand aufhalten kann und es wird alles viel mehr in diese Richtung gehen und diese Potenziale werden genutzt werden. Ja, und jetzt müssen wir aber irgendwie herausfinden, wann darf ich denn überhaupt was nutzen und was muss ich dabei beachten?
- Jan
- Auf rausfinden. Peggy, wie sehr glüht bei euch das Telefon, weil die Leute anrufen und fragen, meine Mitarbeiter wollen hier dieses und jenes nutzen und dürfen die das überhaupt und muss ich mir jetzt Sorgen machen und womit kommen die Leute so zu euch?
- Peggy
- Also wir haben tatsächlich eine ganze Reihe an KI Anfragen. Überwiegend geht's den Einsatz von Chatbots auf Webseiten. Also das würd ich sagen, das ist so der Haupt 1 der Hauptanwendungsfälle, gibt aber auch tatsächlich, also wirklich die ganze Bandbreite, ne. Schulungen für Mitarbeiter bis hin zu KI Richtlinien über auch Transaktionen in dem Bereich, die Frage, welche Datensätze darf ich denn wie nutzen? Und also wirklich das ganze Bandbreite.
- Jan
- Und muss ich mir das so vorstellen, dass die Leute wirklich proaktiv zurecht kommen und dann schon so fragen? Also hier, meine Mitarbeiter würden gerne, weiß nicht, benutzen und wir würden gerne mal abklären, wie das läuft. Oder kommen die meistens erst, wenn das Kind in den Brunnen gefallen ist und jetzt noch zu klären ist, wie schlimm ist der Schaden?
- Peggy
- Wir haben unsere Mandanten, glaub ich, ganz gut erzogen. Erzogen. Genauso. Die die meisten Mandanten, die wir haben, sind ja tatsächlich Unternehmen, ja, sodass wir natürlich 'n Großteil mit Rechtsabteilungen zusammenarbeiten oder ich sag mal so Geschäftsführerebene Und die wissen die Problematiken und die kommen in der Regel frühzeitig. Möglicherweise auch aus den Erfahrungen, die man so mit der DSGVO gemacht hat, ja, wo alle sich eigentlich, glaub ich, 'n bisschen zu spät drum gekümmert haben und dann die Panik groß war. Deshalb haben wir überwiegend wenig aus dem Brunnen zu holen, sondern sind mehr an der präventiven Front unterwegs.
- Jan
- Und wenn ihr mit euren Mandanten darüber sprecht, wie KI einzuführen ist und wir das begleiten könnt, ist da dein Eindruck oder hast Du da Einsicht von, ob das mehr so ein top down oder son Bottom up Prozess ist? Also ist das was, wo die Geschäftsführung ankommt und sagt, okay, wir wir wollen uns jetzt, wir machen jetzt auch KI. So, alle da draußen machen KI, wir machen jetzt auch KI oder ist das mehr so aus einzelnen Abteilungen oder von Mitarbeitern getrieben?
- Peggy
- Es gibt beides. Ich würde schon sagen, dass die Geschäftsleitung sich natürlich möglicherweise auch aufgrund der eigenen Nutzung der KI Tools darüber in der Gefahr ist, dass man's eben nicht vermeiden kann. Viele sind ja auch proaktiv unterwegs und unterstützen das und fragen sich dann eben, was muss ich genau tun, das eben rechtssicher zu einzusetzen?
- Jan
- Und gibt es da so die Standard 1, 2, 3 Fallstricke, über die die meisten stolpern oder den den Standardrat, den ihr den allermeisten da schon mitgeben könnt an der Stelle?
- Peggy
- Der Standardrat würde ich sagen, frühzeitig damit beschäftigen und auch die Mitarbeiter frühzeitig schulen und nicht nicht zu lange warten, sondern es als ein Fakt ansehen. Ich hab irgendwo mal gehört, KI ist gekommen, zu bleiben und das seh ich genauso. Das wird nicht weggehen, nur weil man sich jetzt wegduckt und als Unternehmen sich nicht darum kümmert, sondern es ist sicherer aus unserer Perspektive zu sagen, gut, wir müssen uns dem stellen und wir gucken, was sind die Maßnahmen, die eben dafür erforderlich sind?
- Jan
- Und mit welchen, ich weiß nicht, ob Sorgen das das richtige Wort ist, das klingt ja schon so negativ, aber aus welcher Perspektive vielleicht kommen die meisten eurer Mandanten dann auf euch zu? Ist das eher so, ich sag mal, Anbieter facing Datenschutz mit, oh, diese ganzen KI Anbieter, die sitzen ja in den USA und dann gehen da meine Daten hin und was muss da irgendwie beachten? Oder sind das eher so Fragen des Urheberrechts, weil meine Mitarbeiter erzeugen jetzt unsere ganzen Katalogbilder nur noch mit ChatGPT und können und dürfen wir das überhaupt? Oder sind das eher Fragen, weil sie vielleicht selber KI Modelle betreiben, trainieren, feintunen, wie auch immer wollen und dann fragen, woher kommen wir an die Daten und was dürfen wir damit machen und so? Also, was ist da so die der Winkel da drauf?
- Peggy
- Also eine meiner ersten KI Anfragen war tatsächlich von Richard und zwar zum
- Jan
- Der Lotung wieder ganz vorne mit dabei, muss man jetzt einfach
- Peggy
- Ganz vorne.
- Richard
- Was hab ich denn gefunden?
- Peggy
- Ganz vorne mit dabei. Ihr habt damals gefragt, inwieweit das möglich ist, eben Rätsel auch mithilfe von KI zu generieren und die Antworten und wie weit man das prüfen muss und wo da die Fallstricke sind und ob man gegebenenfalls in die Haftung kommt und so weiter, ja.
- Richard
- Ja, wieder Fragen oder Bilderwetzelt oder was war das? Keine Ahnung von Reden.
- Peggy
- Fragen, Kindergarten. Nee, redtexturra.
- Richard
- Es ging
- Peggy
- nicht Bilder.
- Richard
- Nee, es
- Peggy
- ging nicht Bilder, sondern es ging tatsächlich Fragen und die entsprechenden Antworten und wie weit man das prüfen muss, ob ob die Antworten richtig sind, was denn passiert, wenn die Antworten eventuell falsch sind und und und.
- Jan
- Das ist ja ein guter, ich jetzt kann's Richard fragen, wo wir damals aufgepasst hat. Richard, wie ist es denn, wenn Du jetzt so Fragen generieren lassen?
- Richard
- Ich glaube, es ging, wenn ich mich richtig erinnere, jetzt kommt's wieder, danke, User generated content, also Spieler*innen sollten in der Lage sein, Thema anzugeben und zu ihrem Thema sollten dann Fragen generiert werden.
- Jan
- Ich erinner mich.
- Richard
- Aber das Problem sind natürlich Halluzinationen. Was, wenn's nicht korrekt ist? Was, wenn da anderes Zeug rauskommt, was man nicht haben will? Muss man das kennzeichnen? Wie kann man das kennzeichnen? Also all diese Fragen, glaub ich, waren so die ersten.
- Jan
- Okay, aber dann lass uns doch bei dem Beispiel bleiben. Also wir haben jetzt hier eine nicht Quizplanet genannte generische Quiz App, sagen wir mal, die wir bauen wollen würden. Und ich will mir jetzt 1000 Fragen dafür generieren lassen, weil ich zu faul bin, sie selber zu schreiben und ich würd das gerne automatisieren. Erst mal, darf ich das? So, ich ich frag so als als ganz einfache Laie so, kann ich mir mit AI Content generieren lassen und dann dafür Geld verlangen, auch wenn ich da gar nicht selber Arbeit reingesteckt hab? Kann kann ich da trotzdem mitmachen, was ich will?
- Richard
- Mir fällt nichts Entgegensprechendes für diesen Use Case ein. Es gibt natürlich andere Problemfelder, die grundsätzlich untersagt sind, mit KI zu machen. Also wenn's Fragen geht, glaub ich, ist weniger ein Problem. Wenn's irgendwie Emotionserkennung, Gesichtserkennung, mir fällt jetzt nicht alle alles, was man da fragt.
- Jan
- Ja, ich meine tatsächlich so jetzt auf reiner Content eben, ne, weil immerhin ist da jetzt, weiß ich nicht, ChatGPT hat mir 1000 Quizfragen erstellt und jetzt könnte er morgen OpenAI bei mir anklopfen und sagen so, sind ja meine Quizfragen, die hat ja meinen ChanningPity für mich erstellt. Gib mir mal bitte hier deinen deinen Gewinn von deiner App irgendwie ab.
- Richard
- Ich glaube, das kann nicht passieren. Das das ist, also der erste Schritt ist natürlich die Vereinbarung, was ist Teil der Leistung mit dem Anbieter, mit 'nem KI Anbieter, ne. Und da wär vielleicht im Vornherein wichtig, man nimmt nicht das kostenlose persönliche, den persönlichen Zugang. Also ich will für Allgemeine jetzt nicht nur auf einen Anbieter, weil da oft andere Konditionen drin sind, ne. Also wenn man den bezahlten Dienst macht, da muss man natürlich in die Details gucken, das kann man jetzt pauschal nicht beantworten, dann hat man da eine Sicherheit, dass nichts mit den eigenen Daten trainiert wird, was für viele wichtig ist, wenn man da doch irgendwelche Unternehmen eine Geheimnisse oder so was preisgeben will. Das wär schon in 'ner ersten Stelle sehr wichtig, ohne dass wir überhaupt in Datenschutz, KI Verordnung, Urheberrecht IP insgesamt irgendwie reinrutschen. Und auf jeden Fall ein sehr wichtiger Tipp, wenn man das in egal welcher Form machen will.
- Jan
- Ist vielleicht generell 'n guter Tipp. So AGBs lesen von den Diensten, die man irgendwie nutzt.
- Peggy
- Ja. Wird oft nicht gemacht.
- Richard
- Wird oft nicht gemacht.
- Peggy
- Also schadet nicht, das zu wiederholen, diesen Tipp.
- Jan
- Das ist richtig. Okay, jetzt hab ich also meine 1000 Fragen und jetzt, weil KI natürlich nicht perfekt ist, sind von den 1000 Fragen 200 falsch. Bin ich da, Peggy, irgendwie haftbar zu machen, wenn meine Quiz App jetzt da draußen in der Welt ist und behauptet, der Zweite Weltkrieg hat in den Siebzigerjahren stattgefunden?
- Peggy
- Also Du könntest in dem Fall deinen App, deinen Käufern, wenn's bezahlter Content ist, ja, könntest Du gegenüber haftbar sein aufgrund der vertraglichen Pflichtverletzungen, ja,
- Jan
- weil
- Peggy
- Du lieferst eine App, die einfach nur Mist erzählt, ja, oder falsche Antworten gibt, ja, dann ist die Frage, ne, Du willst ja eine App haben, die funktioniert und die dich auch inhaltlich weiterbringt oder die, die dir zumindest dich zum Denken anregt und und Du dann auch am Ergebnis die richtige Antwort zu, dass ich mir da vorstellen könnte, dass man tatsächlich hier das als mangelhaftes Produkt ansehen würde, wo Du unter Umständen die Möglichkeit hast, den Kaufpreis so es den einen gibt, zurückzuverlangen, ja.
- Jan
- Und ich kann mich als App Macher an der Stelle nicht darauf berufen, dass er mein, also mein AI Anbieter ja auch eine Fürsorgepflicht hat, dafür zu sorgen, dass das alles richtig ist und ich mich einfach blind auf den verlassen hab, sondern ich muss da selber schon auch noch mal eine gewisse, Sind wir wieder bei den AGBs, die man lesen muss.
- Richard
- Ja. Auf die eigenen AGBs, die man schreiben muss.
- Peggy
- Genau, die kommen auch noch dazu. Weiß dich ja auch drauf hin, dass eben Fehler passieren können, ja, und dass Du doch bitte selbst noch mal die Überprüfung vornimmst, ob dieser Content denn zutrifft oder nicht, ja, sodass die Verantwortung da tatsächlich bei dir liegt. Also dass Du, man kann natürlich mal drüber nachdenken, ob's dann irgendwelche Ansprüche dir gegenüber dem dem Anbieter des, nehmen wir Open AI oder 'n anderes Large Language Models geben könnte. Ja, kommt dann eben auch wieder auf den Vertrag drauf an, den Du mit denen geschlossen hast, ne. Also kritisch wird's aus meiner Sicht am ehesten dann, wenn wenn wir jetzt Beispiel nehmen, was Richard grade erwähnte, dass Du dass Du sagst, ich möchte ausschließen, dass Daten, beispielsweise Daten der Nutzer zum Training benutzt werden, uns passiert dann doch, dann bist Du als datenschutzrechtlich Verantwortlicher ja gegenüber deinen Nutzern verantwortlich. Hast aber dann hast aber dann eben die Problematik, ne, es ist trainiert. Also sprich, es gibt dann irgendwo 'n Löschungsanspruch und da müsste man sich mal überlegen, ob man das weiterreichen könnte.
- Richard
- Ich hätt da noch was zu ergänzen. Also eben ganz wichtig, was verspricht man selber den Usern? Was steht in den Eigendefinitionen der Leistung, die man erbringen wird? Also auch da wieder AGB oder halt im im Programm, in der Software selber nicht mal das, wenn man von sich gibt, bei uns gibt es 100 Prozent richtige Quizfragen, alle geprüft, dann ist man natürlich, hat man 'n Problem. Aber wenn man offen tut, hey, wir haben hier eine tolle Sache, Du kannst deine eigenen Quizfragen generieren lassen mit 1 KI, Achtung, es ist eine KI, es kann natürlich Ungenauigkeiten beinhalten, aber Du kannst trotzdem mehr mit Spaß haben und meistens ist richtig, das muss man nicht dazuschreiben, aber dann ist es ja okay. Ja, da hat man dieses Risiko mitigiert.
- Jan
- Mhm. Mhm. Aber also, das sind ja 2 unterschiedliche Fälle, die Du gerade beschrieben hast. Ne, das eine ist, ich nutze KI selber, mein Produkt zu entwickeln, aufzufüllen, weiterzubauen, wie auch immer. Und das andere ist ja, ich biete selber irgend eine Art von KI Feature meinen eigenen Usern an, wo ich ja dann quasi der der Anbieter auch auch werde, ja. Und jetzt ist natürlich dieser dieser Punkt, wo Du gedacht hast, ne, also Du generierst ja eigene Quizzes oder keine Ahnung, ich ich biete so einen KI Bildgenerator an oder 'n Chatbot für andere, den sie auf ihrer Webseite dann anbinden können. Das macht es mir ja eigentlich unmöglich zu kontrollieren, was meine KI, die ich hier anbiete, den ganzen Tag so fabriziert. Weil es kann ja keiner von mir erwarten, dass ich von meinem KI Chatbot jedes Protokoll mitlese, jedes Bild angucke, was da generiert wird, jedes Quiz angucke, was da da generiert wird und kann man sich dann wirklich so einfach frei machen davon, indem man sagt, ja, ist ja KI und müsste ja wissen, dass es im Zweifelsfall irgendwie Murks ist, ist ja eure Verantwortung, lieber User, da mal drauf zu schauen und zu gucken, ob alles rechtens ist. Viel Spaß damit. Kann ich das so verkürzen oder muss ich nicht auch am Ende, wenn mein, ich sag mal ganz übertrieben, wenn mein Chatbot irgendwie eskaliert und die die Kunden mit Profanitäten beleidigt oder so was, ja, bin ich nicht trotzdem dafür verantwortlich, was der da so tut, weil der ist ja mein Produkt. Ja, es gibt ja diese ganzen Fälle, ne, man hat das ja so manchmal online mitgekriegt, irgendwie son son son Chatbot fängt halt an, Kunden wüst zu beschimpfen oder so was, ja. Wenn ich jetzt hier, weiß ich nicht, Salesforce bin und biete meinen Customer Support Bot an für Lotum, so, und jetzt ist der auf der Lotum Webseite und die Kunden fragen da, hey, ich komm hier bei 4 Bilder ein Wort nicht weiter, kannst Du mir bitte helfen, bla? Und dann fängt der Chatbot an zu sagen, ja, Du bist aber blöd, ist doch nicht unser Problem, ja, so. Und dann fühlt sich da son Kunde irgendwie angegriffen und beleidigt.
- Richard
- Ja, ich weiß nicht, ob da jetzt 'n Schaden aus Anspruch, Klaus.
- Jan
- Ja, das ist jetzt son sehr son sehr kleiner Fall, ja, aber man kann es ja beliebig schlimm sich ausdenken eigentlich, ja. Und das war so meine Frage son bisschen, ne. Wenn wenn wenn ich setze da son Produkt in die Welt rein und ich muss ja irgendwie dafür verantwortlich sein, was es so tut.
- Richard
- Mhm. Ja, ich glaube, der der Tipp ist das nicht zu versprechen, dass wenn man eine KI einsetzt, alles geprüft und richtig ist. Das ist der einzige Weg, wie man damit verantwortlich umgehen kann, denk ich. Also alles zu prüfen ist keine Möglichkeiten, es nicht zu prüfen und sich blind darauf zu verlassen und zu Qualitätsversprechend abzugeben, ist natürlich auch nicht clever. Ja, also bleibt eigentlich nur noch, dass dass man eben die dieses Versprechen nicht abgibt, dass alles perfekt ist.
- Peggy
- Und was auch aus meiner Sicht immer wichtig ist, ist eine menschliche Kontrolle, ne, dass Du einfach sagst, wenn eben so Fälle auftreten, dass beispielsweise der Chatbot aus dem Ruder läuft, ja und dass man dann eben son wie auch immer geartete Überwachung hat, dass man das relativ schnell merkt und dann eben auch eingreifen kann und sich dann eben auch mit dem entsprechenden Chatbot Anbieter in Verbindung setzt und schaut, dass das möglichst zeitnah dann auch geregelt wird oder eben der vorübergehend abgeschaltet wird. Aber diese Verhältnis ist dann ja eher auf Vertragsebene zwischen dem Anbieter des Chatbots und die als Unternehmen, also nicht mit den Kunden. Sind 2 verschiedene.
- Jan
- Mhm. Mhm. Es gab ja relativ früh in dieser KI Welle diesen Fall, über den, glaub ich, viel berichtet wurde, irgend 'n Chatbot hat auf der Webseite 1 Autohändlers dem Kunden 'n Auto für einen Dollar verkauft, weil der Kunde den Chatbot quasi so lange bearbeitet hat, bis der Chatbot irgendwann gesagt hat, ja, klingt nach 'nem fairen Deal und können wir so machen. Und hat dann am Ende auch seinen Anspruch da durchgesetzt und dieses Auto für 'n Euro bekommen. Das hat, glaube ich, viele erst mal so verschreckt, weil am Ende sie quasi in die Haftung genommen werden für das, was die KI da Kunden gegenüber verspricht. Ist das auch sone Sorge, die bei euch aufkommt und die Leute dann sagen, na ja, wenn ich jetzt hier KI in mein Produkt bringe, ja, ja, wie wie kann ich da, wie kann ich da sone Glaubhaftigkeit irgendwie auch erzeugen? Also
- Richard
- Oder das Gegenteil.
- Jan
- Oder das Gegenteil, ja.
- Richard
- Ja, das Gegenteil, ganz klar. Also wenn ich jetzt überlege, wir wollen Support cases einfacher von von der KI bearbeiten lassen, zum Teil, nicht komplett, ne, nur in bestimmten Fällen und so was, dann muss klar sein, egal was die KI da ausgibt, das ist von der KI geschrieben. Also es muss die Möglichkeit geben, das irgendwie an Menschen zu eskalieren. Es muss die Möglichkeit geben. Das ist auch purer purer Eigeninteresse. Also wir wollen niemandem dahinters Licht führen oder so. Wir wollen ja nur, dass die Fälle schneller und einfacher bearbeitet werden, vielleicht schneller irgendwo 'n Look-up in in den oder so was, ne. Also das ist definitiv die Empfehlung. Und das hilft einem natürlich dann auch, falls es doch irgendwie 'n Auto für einen Euro verkauft, zu sagen, na ja, da sagen, na ja, da ist ganz klar drauf hingewiesen worden. Da verbindet jederzeit mit 'nem Mensch, das eine KI, die Antwort, die Aussagen können, Ungenauigkeiten oder Falschaussagen beinhalten. Aber in der Regel helfen sie und deswegen bieten wir das ja an.
- Jan
- Also maximale Transparenzoffensive an der Stelle?
- Peggy
- Definitiv.
- Richard
- Okay.
- Jan
- Jetzt haben wir ganz lange darüber gesprochen, wie das mir und meinen Kunden gegenüber quasi so ergehen kann. Wie ist das denn in der internen Nutzung, wir hatten da ganz am Anfang son bisschen drüber gesprochen, diese diese Quizfragen, ja. Wir haben ja jetzt auch hier mit 4 Bilder ein Wort, ein ein ein Produkt, was super bildlastig, Bildergenerierung geht ja auch mittlerweile sehr, sehr gut. Was ich mich da immer frag ist, wem gehören denn diese ganzen oder wer hätte denn das Urheberrecht an diesen KI erzeugten Bildern, weil das ja, gerade wenn sie Teile von unseren Spielen sind, ja schon auch irgendwie relevant sein kann, oder? Ich mein, ich ich kann das auch gestehen, ja, wir haben auch von den Programmierballogos
- Peggy
- auch in
- Jan
- den Assets sind auch son paar KI generiert, ja. Pst, das hat keiner gehört. Und ich frag mich dann immer so, ja, also wir machen das, alle anderen machen das irgendwie auch, aber sind das wirklich meine Bilder am Ende? Oder wessen Bilder sind das, die jetzt auf dieser programmier.bar Webseite sind?
- Peggy
- Nicht deine jedenfalls oder also nicht. Das Problem ist, das Urheberrecht kommt zur Anwendung und das Urheberrecht, das gibt's ja schon seit geraumer Zeit. Und da steht eben drin, dass die geschützten Werke müssen persönlich geistige Schöpfungen sein, ja? Und persönliche geistige Schöpfungen sind nur solche, die von Menschen generiert werden, ja? Also da gab's in, was nicht, 20 15, 16 gab's son Fall, wo 'n Affe, vielleicht kennt ihr das, 'n Affe, naruto, hat son 'nem Kameramann die Kamera aus der Hand genommen und son Selfie gemacht. Und da wurde dann auch 'n Verfahren in den USA zwar, aber geführt, ob eben es Urheberrechtsschutz gibt an diesem L Selfie, was dieses die diese Affe generiert hat. Und da haben die Gerichte gesagt, nein. Und das ist per heute Standard, also weder tierisches noch maschinengenerierter Output, wie wir's nennen, ist urheberrechtsschutzfähig.
- Jan
- Okay, da da hätt ich eine Folgefrage dazu. Klar. Wenn ich mich jetzt vor Adobe Illustrator setze oder so was und ein Bild damit male, ich bin Urheber dieses Bildes, oder? Auch wenn ich's am Computer gemalt hab, aber ich hab's ja trotzdem gemacht.
- Peggy
- Ja.
- Jan
- Wenn ich jetzt bei ChatGPT, Google, wo auch immer, meinen Prompt eingebe, bin ich ja auch Schöpfer dieses Prompts. Also ich sag ja der Maschine, was sie tun soll, genauso wie ich in Illustrator sage, mach hier einen roten Punkt, mach da eine blaue Linie, mach dieses und jenes. So ist ja das prompt auch nur eine andere Art von Anweisungen, die quasi die Maschine umzusetzen hat. Wo ist da der Unterschied?
- Peggy
- Der Unterschied ist, dass Du durch den prompt nur eine zufällige Herausgabe, Also Du bekommst nur 'n zufälliges Ergebnis. Das hast Du nicht wirklich in der Hand, ja, weil wenn Du den gleichen Prompt eingibst, einmal heute und einmal morgen, dann kommt jedes Mal 'n unterschiedliches Ergebnis raus. Und das ist der Unterschied, dass Du sagst, Du kannst es eben nicht beeinflussen, sondern die der Output stammt einfach von der Maschine. Je nachdem, wie die eben trainiert wurde, kannst Du eben ganz unterschiedlichen Output herausbekommen. Also das ist Also
- Richard
- ich bin voll bei dir, dass das herrschende Meinung ist und dass das so Aber ich bin auch Verfechter 1 anderen Meinung. Ich glaub nämlich auch, also die die schöpferische Prägung muss ja von 'nem Individuum kommen, ne. Das heißt, die die Entscheidungen, die persönlichen Entscheidungen, wie das Werk am Ende sein soll, soll von einem Menschen kommen.
- Jan
- Und da
- Richard
- kann ich verstehen, wenn auch wenn's da mit dem Foto 'n Selfie von sich macht, dass das eben nicht urheberrechtlich geschützt ist. Ist. Aber ich seh KI in vielen Fällen wie ein Werkzeug. Also wenn ich jetzt 'n Fenster aufmachen würde und meine Staffel leider irgendwie in den Garten werfe und dann regnet's zufällig drauf und dann werbe ich das an die Wand und sag, voila, Kunst. Dann dann werden doch, dann würden ja alle sagen, wow, genial, Kunst. Aber es war eigentlich zufällig, ob jetzt 'n Vogel grad vorbeigefahren ist oder jetzt geregnet hat oder wie auch immer das dann aussieht. Und ich hab die Entscheidung nur getroffen, da eine Staffel 3 rauszuwerfen. Und trotzdem wär das, glaub ich, urheber richtig geschützt, würden zumindest viele sagen. Bei 'ner KI, glaub ich, kommt's drauf an, wenn ich nur reinschreibe, schönes Haus, dann wär's natürlich zu wenig. Aber wenn ich den Zusammenhang zwischen dem, was ich getan hab, also dem prompt oder ne, einzelne, also mittlerweile ist ja nicht nur 'n prompt, man kann ja auch mehr Verarbeitungsschritte da haben und dem, was man dann am Ende sieht,
- Jan
- Mhm.
- Richard
- Wenn man diesen Zusammenhang herstellen kann, dann verstehe ich noch nicht, dass man sagt, dass man pauschal sagt, KI ist überhaupt nicht schutzwähig. Weil ich, also man man ist ja schon soweit ganz klar, dass man sagt, ja, der Text, der prompt, ne, den kann man schützen, das ist ja, glaube ich, logisch. Man hat sich diesen Text ja erdacht, aber den den Schritt von dem prompt, also der Anleitung, den Entscheidungen, die man macht für das Kunstwerk zum Kunstwerk und diesen Zusammenhang, wenn der stark genug ist, dann wär ich schon der Meinung, dass man das vielleicht würdigen kann, oder?
- Peggy
- Könnte man meinen. Es gibt allerdings in den USA schon entgegengesetzte, nicht also es gibt eine Entscheidung vom US Copyright Office. Und zwar gab's einen Künstler, der hat ein KI generiertes Bild erstellt und hat das dann noch mal mit 600 Proms oder über 600 Proms noch mal nachbearbeitet und hat das dann eingereicht. Und selbst da war das Copyright Office der Meinung, also nein, auch das reicht nicht aus. Und das Bild sieht, so wie's ursprünglich war, zu dem, wie's dann mit diesen 600 Prom verändert wurde, schon tatsächlich deutlich anders aus. Aber auch das hat nicht gereicht. Und das schon sone hohe Hürde, dass man aktuell sagen kann, wohl eher schwierig, das schützen zu lassen. Letzten Endes, es gibt noch nicht viele Gerichtsentscheidungen, ne, also kann sich auch irgendwann anders rauskristallisieren, aber per heute scheint sich das so überall so durchzusetzen, dass man sagt, nee, einen Schutz gibt's dann
- Jan
- Und das heißt aber, dass diese ganzen Bilder, die damit jetzt generiert worden sind, die gehören eigentlich niemandem.
- Peggy
- Richtig.
- Jan
- Und das heißt, wenn ich jetzt auf, weiß ich nicht, ich finde auf Amazon ein Buch, von dem ich erfahre, dass der Autor das eigentlich nur mit k I geschrieben hat, weil er gedacht hat, der kann so als unabhängiger Autor reich werden, Kann ich mir dieses Buch dann beliebig kopieren, ohne eine Urheberrechtsverletzung zu begehen? Weil ja kein schützenswerter Inhalt drin ist.
- Peggy
- Die Frage ist natürlich, die sich stellt, kannst Du, also wenn Du gesichertes Wissen hast, dass dieses Buch rein KI generiert ist, ja, und keinerlei sonstiger großer menschlicher Input dazu ist, dann würd ich sagen, ja, kannst Du dir kannst Du dir sozusagen zu eigenen Aber wie gesagt, am Ende wird es wird's dazu Gerichtsentscheidungen geben müssen, ja. Aber per heute würd ich sagen, ja.
- Jan
- Richard, Du wolltest grade noch was fragen.
- Richard
- Ja, zum Thema Zufall. Eine KI funktioniert ja erst mal komplett deterministisch. Also wenn man auf 0
- Jan
- Ohne Temperatur, das war das wär jetzt auch meine andere Frage, ne.
- Richard
- Ohne Temperatur, ne, dann ist es so, dass alles, was man als Input gibt, ja, also also immer wenn man denselben Input gibt, gibt's denselben Output, 100 Prozent. Wenn man, das ist bei manchen, also bei manchen Umgebungen kann man das einstellen und auf 0 setzen, das keinerlei Zufall und dann ist es immer gleich. Gut, das beantwortet natürlich nicht die schöpferische Leistung, die dahintersteckt im eigenen Prompt, aber zumindest kann man dann sagen, es gibt keinerlei Zufall, dass der Computer da großartig mitwirkt, sondern ich nutze es als reines Werkzeug. Also genauso wie die Pixel, die ich mit 'ner digitalen Spraydose mache, ist ja auch Zufall, aber es ist 'n Mittel, was ich bewusst einsetzen kann, mein Bild zu erzeugen. Und damit kann ich rumspielen, damit kann ich was schau, ne, machen, damit ich genau das Bild rausbekomme, was ich will. So so wär zumindest meine Herangehensweise, aber ich hoffe auch, dass vielleicht der ein oder andere Richter sich davon überzeugen lässt in Zukunft, weil es wär natürlich schade, wenn so was gar nicht schützenswert ist.
- Peggy
- Werden wir sehen. Na, gab's
- Jan
- so was in der Geschichte schon mal, dass es ein ein ein Medium, ein Werkzeug gab, wo man erst davon ausgegangen ist, es kann keinen Urheberrechtsschutz genießen und im Nachgang dann durch Weiterentwicklung oder durch, wie Richard grade beschrieben hat, sone bessere Nachvollziehbarkeit von dem, was da passiert ist, wo sich dann so was doch eingestellt hat?
- Peggy
- Müssten wir mal ChatGPT fragen.
- Jan
- Jetzt sag keine Idee. Ich, nee,
- Peggy
- das weiß ich nicht.
- Jan
- Ich hab grad überlegt, weißt Du, so die ersten elektronischen Musikinstrumente oder irgendwie so was, ne, wo ja auch, ne, weil weil also
- Peggy
- Es wär nichts bekannt dazu.
- Richard
- Also Urheberrecht funktioniert ja so, dass man sagt, 'n Mensch muss irgendwie eine schöpferische Tätigkeit leisten und so weiter. Aber für Fotoaufnahmen gibt's ja noch mal getrennt davon eine Norm. Ist das nicht was Vergleichbares, also es geht eine andere Richtung, aber dass man für ein bestimmtes für ein bestimmtes Werkzeug eine Sonderregel schafft und sagt, Fotos sind immer schützenswert, egal ob Du die Kameraeinstellung beherrscht oder nicht. Oder ist das nicht so?
- Peggy
- Das stimmt. Also Lichtbildwerke werden anders geschützt. Also Lichtbilder, Lichtbildwerke, ist jetzt sehr juristisch ehrlich gesagt, ja. Lichtbilder haben einen kürzeren Schutz, ja, sind aber per se immer geschützt. Ich glaub, es gibt 'n paar Ausnahmen. Aber natürlich, es gibt auch so gewollte Regelungen, die der Urheber, der Gesetzgeber ins Urhebergesetz aufgenommen hat, ja. Also zum Beispiel Presseverleger und so was, ja. Also da gibt's durchaus einige Regelungen, die man so als bewusst, wo man gemerkt hat, hier fehlt son bisschen der Schutz nach dem, wie man's halt vor 100 Jahren irgendwann mal zusammengeschrieben hat. Computerprogramme zum Beispiel, ne, ist auch sone Sache, wo man eben im Nachhinein gemerkt hat, da braucht man noch 'n paar Sonderregelungen und dann hat man das einfach aufgenommen. Genau. Also kann sich durchaus entwickeln. Per heute versucht man natürlich immer noch mit dem gegebenem Gesetzeswerk, das das neue Medium KI drunter zu schaufeln und muss eben gucken, wo's rauskommt. Aber klar, wenn man da merkt, dass es da eine Regelungslücke gibt, dann ist durchaus denkbar, dass sich der Gesetzgeber da noch mal bewegt.
- Jan
- Jetzt haben wir darüber gesprochen, was ich beachten muss, wenn ich KI meinen Kunden gegenüber nutze. Wir haben darüber gesprochen, was ich beachten muss, wenn ich KI sehr benutze. Der letzte große Fall, wahrscheinlich der seltenste, aber der Interessanteste ist ja, was muss ich beachten, wenn ich selber eigene KI Modelle bauen, trainieren, feintunen möchte, so. Weil das ja auch nicht so ganz ohne ist. So am Ende stehen und fallen diese Modelle mit den Daten, mit denen sie quasi trainiert und gefüttert werden und an die muss ja auch erst mal rankommen. So, da wär jetzt meine erste Frage, ganz laienhaft so, was darf ich denn dafür überhaupt nehmen? Alles, was ich im Internet finde, Fragezeichen?
- Peggy
- Also am einfachsten ist, Du nimmst nur deine eigenen Datensätze, ja, die Du bei dir eigenes Wissen, was Du bei dir so in der Firma vorhanden hast. Das ist am einfachsten, weil da hast Du die Rechte dran und da kann im Regelfall nichts passieren. Das ist der leichteste Fall. Dann schwieriger wird's schon, wenn Du Daten, also Du kannst dir natürlich Datensätze einlizenzieren von Dritten, ja, sei es, wenn Du sagst, Du willst jetzt Videos erstellen, Shutterstock oder Ähnlichen, ne. Das geht. Da muss man eben dann genau drauf achten, wie sind die Lizenzbedingungen? Wofür darf ich sie benutzen? Darf ich sie eben, darf ich sie kommerziell benutzen? Darf ich sie zum Training benutzen? Also da gibt's eine ganze Reihe unterschiedliche, auch unterschiedlich teurer Modelle dann oder Lizenzmodelle natürlich. Genau. Und komplizierter wird's im Bereich personenbezogene Daten, aber
- Jan
- Okay, bevor wir da dazu kommen, vielleicht eine Frage zu dem, ich muss die Sachen lizenzieren, die ich dafür nutzen will. Weil ich verstehe, dass ich, wenn ich hier Bilder irgendwie nutzen will, ne, kauf ich mir eine Lizenz, dann kann ich die in meinen Spielen, in meinen Printartikeln, keine Ahnung, überall benutzen. Weil ich ja quasi dieses Bild auch 1 zu 1 wiedergebe, so. Wenn ich jetzt aber ja nur mein LLM damit trainiere, an mit 'nem Bild oder mit 'nem Text, wie auch immer, dann findet sich ja dieses Ding später nicht mehr in dem LLM und es ist auch nur sehr schwer bis unmöglich, daraus wieder abzuleiten, ne. Wieso muss ich das denn dann lizenzieren, wenn ich es ja gar nicht vervielfältige sozusagen? Es ist ja nicht so, dass ich jetzt irgendwie Kopien von dem Bild verkaufen möchte, sondern ich nutz es ja nur einmal für mich intern. Niemand da draußen sieht es. Wieso muss ich da trotzdem für zahlen? So mal ganz ketzerisch gefragt.
- Peggy
- Also es gibt natürlich noch die, es gibt noch sone Schrankenregelung, ja, im im Urheberrecht, jetzt wird's 'n bisschen technisch. Danach darf man, das das ist das sogenannte Text and Data Mining, ja, dazu dürfen Daten zum Training von KI benutzt werden, es sei denn, der Rechteinhaber hat 'n Vorbehalt erklärt. Und mittlerweile ist es tatsächlich so, dass natürlich sämtliche großen Datensatzinhaber diesen Vorbehalt erklärt haben, ja. Also sei es alle großen Zeitungen, Zeitschriften, ja, also sämtliche Bilddatenbanken, die erklären eben diesen
- Jan
- der eigentlich die Recht innehber, hat es mir verboten sozusagen. Und mich aus diesem Verbot freizukaufen, muss ich dann quasi Lizenz erwerben.
- Richard
- Ich hab so verstanden, dass im Urhebergesetz eine Ausnahme gibt, also das Text im Data Mining Ausnahme. Und in dem Rahmen, was der ist, kann ich nicht genau sagen, aber in dem Rahmen darf man das, außer Das man hat widersprochen. Nee, außer man hat selber widersprochen, dass man's für die, also dass jemand das mit den eigenen Daten darf.
- Jan
- Okay. Dann hatt ich dich grad unterbrochen, als wir zu den Benutzerdaten gekommen waren. Wenn ich mein Modell auf Daten trainieren will, die von anderen Benutzern, anderen Dritten
- Peggy
- Da hatt ich eigentlich den Blick schon Richtung Richard gewendet, weil da hat Richard, Tommy more. Richards Lieblingsbericht.
- Richard
- Ich würd noch gern ergänzen, wie kann man überhaupt sich davor schützen? Also wie kann man selber son Opt out machen? Ich möchte nicht, dass die Webseite der programmier.bar von der KI gescrept wird, ne. Kann ja auch 'n häufiger sein. Ja. Und da gibt's die Möglichkeiten, im robot txt das zu schreiben. Also da gibt findet man auch viele Vorlagen irgendwie im Internet und so was. Oder auch andere, ex robot Tags Tags, no AI Tags. Da bist Du wahrscheinlich versierter als ich, wie man das genau macht. Oder ganz hart einfach nur die bekannten AI Skraper und Crawler irgendwie blocken.
- Jan
- Aber das ist eine interessante Frage, weil Du auch grade gesagt hast, Peggy, das sind manche Zeitungen und Verlage das ja quasi pauschal schon schon ablehnen. Wenn Du mir das jetzt nicht gesagt hattest, hätt ich das natürlich a nicht gewusst, aber das ist ja meine eigene Schuld. Aber steht ja auch jetzt nicht ganz groß oben auf der Zeitung drauf, ne. Also wenn ich hier die Frankfurter Rundschau aufschlage, steht ja nicht, Banner oben auf Seite 1, bitte nicht in dein AI Model schmeißen. Wo woran kann ich denn überhaupt erkennen oder wie sehr muss ich da nachforschen, nachfragen et cetera, ob das erlaubt ist oder nicht? Oder wie sehr ist da der der Inhaltsersteller in der Pflicht, das möglichst markant zu machen, dass er das nicht möchte?
- Peggy
- Also sämtliche großen Zeitschriften beispielsweise, die haben diese Text zum Data Mining, diesen Ausschluss alle auf ihrer Webseite erklärt und das müsstest Du auch einhalten. Da bist Du schon auch selber in der Pflicht, wenn Du die trotzdem benutzt, ist es dann eben unter Umständen Urheberrechtsverletzung, weil Du deren ausdrückliche ausdrücklichen, wie sagt man, Vorbehalt eben nicht respektierst.
- Jan
- Das Teil ihrer AGBs einfach
- Peggy
- Genau. Ja, okay. Ja. Also die meisten haben's eben, wie Richard sagte, in dieser Robo txt Datei drin, aber oft wird's eben auch noch wirklich in den AGBs erklärt oder als extra lesbarer Vorbehalt, sodass Du auch als Mensch es eben gut finden kannst.
- Richard
- Also Maschinen- und menschenlesbar, ich glaub, da kann man nicht zu viel machen. Problem ist dann immer noch, woher willst Du wissen, ob das funktioniert hat? Also Du kannst es ja schlicht nachweisen.
- Jan
- Das ist 'n guter Punkt. Wer ist denn da am Ende in der Pflicht und in der Verantwortung eigentlich? Also wenn ich jetzt zu Open AI, ohne Ihnen was zu unterstellen zu wollen, aber weil's einfach so der Größe da draußen ist, wenn ich jetzt zu Open AI gehe und sag, ihr habt aber euer GPT an meinen programmier.baren Folgen hier trainiert und ich finde das böse und gemein und will mein Geld zurück, Wie wie läuft das? Also es
- Peggy
- gibt ja mittlerweile schon eine ganze Reihe an Prozessen, ja, sowohl in den USA, aber auch tatsächlich in Deutschland an den diversen Gerichten. Und da wird eben dann, also in der Regel sind's die Gerichte schon so, dass das Vervielfältigungen sind, also urheberrechtliche Handlungen. Und dann ist eben die Frage, ne, durfte man's, durfte man's nicht? Gibt's Vorbehalte, die erklärt wurden, die wirksam erklärt wurden? Wie sieht das aus? Zum Beispiel ein Gerichtsfall am Landgericht Hamburg, da geht's eben auch diese dieses Graping. Da ging's aber darum, dass diese Daten gescraped worden von 'nem Verein, der das zu wissenschaftlichen Zwecken gemacht hat. Und dafür gibt's wieder eine besondere Ausnahme, ja. Und da haben sich die Richter aber auch tatsächlich son bisschen bisschen schon geäußert zu dieser zu dieser Frage des Vorbehalts, ja, und ihre Lösung da son bisschen proklamiert. Und dann gibt's beispielsweise auch 'n anderen Fall, der ist jetzt beim EuGH gelandet, also am höchsten europäischen Gericht. Der kommt aus Ungarn und da war's tatsächlich so, dass ein Zeitschriftenverleger nachweisen konnte, dass bei Gemini 'n gewisser Text eben 1 zu 1 wiedergegeben war, sodass die Verletzung relativ klar war, da ist jetzt eben die Frage, wie ist das juristisch zu bewerten? Und weil das Gericht in Budapest gesagt hat, das ist alles Europarecht, das können wir so nicht beurteilen, ohne uns da direkt in in vom höchsten Gericht einfach mal die die Fragen beantworten zu lassen, haben die das direkt da zum EuGH geschickt. Also das ist tatsächlich alles momentan noch im Fluss und ja, wird man sehen, wie
- Jan
- Jetzt ist das ja der sehr einfache Fall, ne. Ich fang an, weiß nicht, die ersten 2 Sätze von meinem Werk irgendwie in son LLM zu füttern und das spuckt mir den Rest aus, dann ist offensichtlich klar, scheinbar war mein Text hier im Trainingsdatensatz. Aber das eigentliche Training ist ja quasi das Geschäfts, Betriebsgeheimnis von diesen ganzen Firmen und es ist ja superintransparent, was da passiert, was die überhaupt zum Trainieren verwenden, wie sie die Daten vielleicht vorher noch aufbereiten, verkürzen, keine Ahnung, was alles, hab ich da, also also für mich als Laie seh ich da ja eigentlich überhaupt gar keine Möglichkeit, wenn wir jetzt bei unserem Beispiel bleiben, überhaupt auch nur zu verstehen, ob die programmier.baren Folgen jemals bei OpenAI gelandet sind oder nicht, weil sie ja eigentlich nicht offenlegen müssen, was sie da benutzen, oder?
- Peggy
- Per heute müssen sie noch nicht offenlegen, aber nach dem AI Actwitz eine Verpflichtung geben, dass offengelegt werden muss, welche Trainingsdaten benutzt wurden. Aber auch da ist momentan nicht klar, in welcher Granulat das erfolgen muss, ja. Ob dann wirklich steht, wenn ich's richtig im Kopf habe, ist es tatsächlich mehr sone allgemeine Verpflichtung. Also das Gesetz kommt ja auch erst im nächsten Jahr zur Anwendung, sodass sich da dann auch im Nachhinein erst noch rausbilden muss, wie die Praxis das handhabt, ja. Also das ist aktuell noch nicht klar.
- Jan
- Und AI Act klingt ja erst mal so sehr europäisch.
- Peggy
- Ja. Oder
- Richard
- ist es auch, ja.
- Jan
- Das heißt, muss sich ein Google, ein Open AI, ein Apple überhaupt daran stören? Ja. Warum? Sie sind ja nicht in Europa.
- Richard
- Die bieten's aber hier an. Ah. Also können Sie ja auch ganz Europa ausschließen, wie Sie schon mit DSGVO vorhatten, weil wie Sie so nerven, aber tun Sie nicht. Okay. Und für uns gilt das übrigens, egal ob wir's für Europa anbieten oder nicht, nur weil wir hier sitzen schon. Ich wollt
- Jan
- grad sagen, wir wohnen ja aber auch hier, das das versteht. Ja, ja, okay. Mhm. Okay, wunderbar. Bei dem Datenschutz dabei zu bleiben, wenn meine User Daten auf meiner Plattform generieren, darf ich die dann einfach so benutzen?
- Richard
- Müssen wir jetzt erst mal fragen, sind das personenbezogene Daten?
- Jan
- Macht das einen Unterschied?
- Richard
- Ja. So haben wir gar kein Datenschutzthema, wenn's keine personenbezogenen Daten sind. Also es kommt wirklich drauf an, die
- Jan
- Okay. Wir verweisen noch mal auf die Folge 160, zu lernen Die
- Richard
- Munition von so der Daten.
- Jan
- Personenbezogene Daten unterscheidet davon. Vielleicht, also der einfache Fall ist offensichtlich, es sind keine personenbezogene Daten, ja, dann geht das wohl.
- Richard
- Es ist es kommt wirklich drauf an. Also wenn aus den Daten, die generiert werden, also jemand tippt irgendwo was ein, ne, dann ist natürlich erst mal Personenbezug ganz klar da, weil irgend eine Art von ID IP Adresse oder irgendwas
- Jan
- kann ich ja alles weg anonymisieren.
- Richard
- Genau, dafür brauchst Du dann, das ist auch eine Verarbeitung selbst, brauchst eine Rechtsgrundlage, aber wenn's dann anonym ist und legitim anonymisiert wurde, ist man dann eigentlich aus dem Datenschutz raus. Solang der Inhalt natürlich nicht selbst irgendwie 'n Personenbezugsdatum ist. Das heißt, wenn Du irgendwie meinen schreibst, hi, ich bin der Jan und ich wohne innen, dann hast Du da auch schon was drin. Oder halt 'n, ne, es ist, alles hängt und steht und fällt mit Anonymisierung möglich oder nicht, glaub ich.
- Jan
- Und muss ich meinen Nutzerinnen grundsätzlich eine Option geben, da rauszuobten aus diesem Prozess? Oder ist das quasi meine Geschäftsentscheidung, ob ich das anbieten will oder nicht? Wenn ich jetzt, weiß nicht, bin eine Fitness App, so, ja. Und ich guck mir hier alle aufgezeichneten Joggingstrecken an, 'n Modell zu trainieren mit wann laufen Leute, wie gut und wie schnell und bla. Da interessiert mich ja nicht, ob das Hans Müller war oder der Richard oder keine Ahnung was, sondern das kann ich ja gut anonymisieren. So, und dann trainiere ich jetzt damit meinen Fitnesscoach Modell, so, ja. Muss ich dann dabei meinen Nutzern, deren Daten ich ja verwende, eine Option geben zu sagen, ich möchte, dass ihr meine Daten nicht zum Training verwendet oder kann ich das anbieten, wenn ich möchte, bin aber nicht dazu gezwungen?
- Richard
- Also mir ist, wenn wir davon ausgehen, es sind keine personenbezogenen Daten, ist mir keine Norm bekannt, dass man das anbieten muss. Aber wir würden andere Glocken klingeln. Ich würde erst mal sagen, okay, warum, wofür machen wir diese Verarbeitung? Geht's sind irgendwie Gesundheitsdatenrichtungen? Dann haben wir da Riesenproblem
- Jan
- Ja, das ist, was war das alles allgemeine Datenschutz wahrgenommen.
- Richard
- Oder auch KI Fragen. Da gibt's auch eine lange Liste an Themen, die man nicht anfassen darf mit KI.
- Jan
- Warum? Welche?
- Richard
- Ein Blick ins Gesetz erspart viel Geschwätz. Die kann ich nicht alle auswendig. Ist zum Glück auch nicht unser Ding.
- Jan
- Und die darf ich mit KI nicht anfassen im Sinne von, ich darf sie mit KI nicht verarbeiten oder ich darf sie nicht nutzen, meine KI zu trainieren?
- Richard
- Es gibt verbotene Praktiken im KI Bereich, die sind in Artikel 5.
- Jan
- Das klingt schon ominös.
- Richard
- Ja. Und Da steht da so drin und jetzt
- Jan
- musst Du auch vorlesen. Ist,
- Richard
- vorlesen geht nicht, sonst wären wir heut nicht mehr fertig. Das sind wir sehr lang. Und dann gibt's noch Hochrisiko KI Systeme und da auch noch eine Liste an Themen und Arten der Verarbeitung, die man nicht mache sollte oder nur unter über so Hochrisiko KI Systeme darf man aber nur, wenn man lange Liste an Anforderungen einhält, die ich wirklich nicht kann und jedem raten würde, macht das nur, wenn das wirklich euer Hauptgeschäftszweck ist, weil es ist sehr viel Arbeit.
- Jan
- Peggy, hast Du da die Executive Summary, warum es Sachen gibt, die ich mit meiner KI nicht machen können, darf?
- Peggy
- Also die Thematik ist so, bisschen die gerät man eben durch die durch diese gesundheitsbezogenen Daten eventuell in dem Bereich Medizinprodukt, was in diesen Hochrisiko KI Bereich fällt. Das ist, glaub ich, in die Richtung, in die in die Du gehst, ne. Und wenn man Hochrisiko KI ist, dann gelten eben deutlich strengere Anforderungen an den Anbieter dieser dieser dieser App oder dieser dieser KI. Genau, also zum Beispiel, was bestimmt die, was was bestimmt sie unter anderem? Man muss man muss das in der EU Datenballe registrieren, beispielsweise das Medizinprodukt und ganze Reihe an anderen Compliance Regeln, die man einhalten muss. Also Konformitätsbewertung und ja, also wirklich eine ganze Litanei.
- Jan
- Ist da ein Kriterium auch von son bisschen versuchen, Diskriminierung im Modell zu verhindern? Ich hab da vor Kurzem mal 'n spannenden Vortrag zugehört, was so, ne, Baiers, der schon im Datensatz drin ist, wird ja dann multipliziert potenziell von meinem Modell, ja. Und wenn dann natürlich das Modell dafür verantwortlich ist, weiß nicht, im medizinischen Bereich, im Sicherheitsbereich, irgendwo Entscheidungen zu treffen, na, geht's dann so was, dass ich quasi als Anbieter mehr darauf achten muss, keinen Bias in meinen Datensätzen zu haben, keinen Bias in meinem Produkt zu haben, als das jetzt vielleicht bei, weiß nicht, nur mal einem Chat GPT oder so der Fall wär. Ist das so der der Hintergedanke oder geht's einfach nur darum, wir wollen einfach nur wissen, also geht es dem Gesetzgeber wirklich eine eine spürbare Verbesserung der Sicherheit da drin Oder geht's in erster Linie darum, na, wir wollen überhaupt erst mal erfassen, wo das in diesem Hochsicherheitsbereich, in diesem kritischen Bereich überhaupt verwendet wird und Hauptsache, es wird erst mal registriert und dann schauen wir mal, wie wir weitermachen.
- Peggy
- Nee, dem Gesetzgeber geht's, glaube ich, darum, einfach die KI so in unterschiedlich Risikoklassen einzuclustern, ja. Also man hat halt gesagt, es gibt verbotene KI Systeme, ja, die sind schon seit Februar 25 dürfen die in der EU nicht mehr angeboten werden. Und dann hat er halt diese Hochrisiko KI Systeme und die eben besonderen Anforderungen unterliegen, eben sicherzustellen, dass diese Produktsicherheit gegeben ist, wenn Du so willst, ja? Und dadrunter sagt man, na ja, dann gibt's halt so die Chatbots und und so ganz einfach strukturierte KI KIs, die diesen Anforderungen eben nicht genügen müssen, sondern die nur Transparenzpflichten unterliegen, ja. Also sprich, Du musst eben den den Nutzern dieser KI mitteilen, dass sie mit 'ner KI interagieren. Das ist so für diese niedrigste Stufe und für die anderen versucht man eben, die so sicher wie möglich auf dem europäischen Markt anbieten zu können. Und das hat man halt versucht, so zu verallgemeinern, ne. Ich meine, Du kannst dir vorstellen, da fallen Flugzeuge drunter, da fallen aber eben auch Medizinprodukte drunter, ja, also was ja 'n wirklich ganz großes Konglomerat ist. Und das macht's nicht leicht, das dann so zu verallgemeinern. Und diese diese Registrierungspflicht ist nur eine der Pflichten. Also das ist anderes eben insbesondere Dokumentationspflichten und Ähnliches.
- Jan
- Jetzt habt ihr mich aber trotzdem neugierig gemacht. Was sind denn diese verbotenen Fälle? Also wenn selbst bei Flugzeugen und Medizinprodukten in Anführungszeichen nur genauer hin, also ne, noch nicht das verboten ist, was gibt's denn da noch oben drüber?
- Richard
- Ich komm gleich mit der Liste.
- Jan
- Ist sie so lang?
- Peggy
- Also Social Scoring ist beispielsweise ein Fall, ja, dann eine ganze Reihe von Anwendungen im Bereich der biometrischen, sorry, Fernidentifizierung. Hast Du's?
- Richard
- Okay, ich hab jetzt hier, also so was wie unterschwellig, absichtlich manipulative oder täuschende Techniken, ne. Ausnutzung von Schutzbedürftigkeit wegen Alterbehinderung, besondere soziale ökonomischer Lage, soziale Bewertung, also Social Scoring. Präventive Strafbarkeits- oder Risikobewertung in dem Bereich. Aufbauerweiter kein Minority Report. Ja, so was. Aufbau von Erweiterung von gesund Gesichtterkennungsdatenbanken durch ungezieltes Graping von Gesichtern, Emotionsableitung in Arbeit und Bildung, außer wenn der Einsatz aus medizinischer Sicherheitsgründen erfolgt. Biometrische Kategorisierung, Echtzeitfernerkennung, biometrischer Merkmal in öffentlich zugänglichen Räumen, so was. Also Sachen, wo man sagt, okay, da kann wirklich Unsinn gemacht werden, was gegen unsere Grundrechte und ne, weitergeleitet halt verstößt. Und das ist dann einfach von vornherein verboten.
- Jan
- Aber es es klingt erst mal so nach alles eher Themen, die gesellschaftlich problematisch sind Ja. Und nicht unbedingt technisch 'n Problem werden.
- Richard
- Genau, das sind alles Sachen, die auch hoffentlich niemand von sich aus machen wollte.
- Jan
- Also ich weiß nicht, dieses Social Scoring, da kannst Du ja in China gut punkten mit.
- Richard
- Okay, niemand, der jetzt hier zuhört und daheim sich überlegt, wie kann ich denn die KI sinnvoll und zulässig nutzen.
- Jan
- Okay. Cool. Aber weil Du gerade einen dieser verbotenen Punkte angesprochen hast, wie war das? Manipulieren, bewusst manipulieren,
- Richard
- unterschwellig absichtlich manipulative oder täuschende Techniken, die das Verhalten wesentlich verzerren und dadurch voraussichtlich erheblichen Schaden verursachen. Also
- Jan
- das schreit ja so nach Deep Fake?
- Richard
- Das schreit nach Deep Fake unter anderem, ja,
- Jan
- so.
- Peggy
- Und Ist es aber nicht.
- Jan
- Ist es aber nicht?
- Peggy
- Mhm. Deep Fake ist
- Jan
- Also ist was anderes.
- Richard
- Deep Fake, aber Deep Fake kann das sein, so, oder?
- Peggy
- Deep Fake ist was anderes. Deep Fake steht auch im AI, Ja. Aber das ist nicht verboten.
- Richard
- Nee, genau, ist das nicht verboten.
- Peggy
- Nicht ganz so verboten wie
- Jan
- Also, wie wie ich das als Laie grade so gehört hab, ja, klingt das für mich nach, ich nutz jetzt hier son Bilder- oder Videogenerator, irgendwie, weiß ich nicht, Bildmaterial von potenziellen Menschenrechtsverletzungen zu generieren, dann irgendwie damit Stimmungen zu machen oder so was, ja. Also bewusst falsches Material, damit irgendwie Leute zu manipulieren. Das ist aber nicht das, was
- Richard
- Du meinst? Nee, das, also bewusst falsch, in den Verboten geht's das in Verkehr bringen, die in den Inbetriebnahme, die Verwendung von KI Systemen insgesamt. Und bei Deep Fakes ist der Begriff sehr viel weiter definiert. Also im Gesetz gibt's Definitionen, meine ich fast immer, die für dieses Gesetz dann so gelten. Und in Artikel 3 sind die alle schön aufgelistet, da unter anderem gibt's da. Vielleicht wollen wir das einmal
- Jan
- Okay. Ja, bevor wir da aber da hinkommen. Das, was ich aber eben beschrieben habe, ja, also ich ich fälsch dir meine Bilder, irgendwie Stimmung zu machen, das ja schon, unabhängig davon, ob das jetzt Siefeg nennen oder nicht, das ist aber schon das, was damit gemeint ist, oder? Weil worauf ich hinauswill, ist eigentlich der Punkt, das lässt sich ja heute schon bewerkstelligen mit Ja. Relativ einfachen Mitteln, ne, also Bildergenerierung und so was alles. Das lässt sich ja relativ schwer kontrollieren, wofür dann Bildergenerierung genutzt wird. Ja. Ja. Ich mach jetzt hier 'n Bild von meinem verhungernden Kind und ob ich jetzt behaupte, dass es irgendwo gerade im Sudan passiert oder ob ich behaupte, ich brauch das für Bebilderungen von meinem Fantasy Roman, ja, das ist ja son sehr schmaler Grat, so technisch dazwischen, aber was ich damit mach, ist ja dann quasi eine ganz andere Geschichte. Richtig. Und das drängt ja dann jetzt schon die Frage auf, sind wir wieder bei dem Anbieter, ja, inwieweit der sich darum kümmern muss, dass diese Sachen, die bei ihm alles generiert werden, eben nicht für diesen verbotenen Use Case, den Richard grade so schön vorgelesen hat, beschrieben werden, sondern eben nur für in Anführungszeichen legitime Zwecke benutzt wird, ja. Und wenn das jetzt ja doch da dieses Verbot gibt, dann stell ich mir schon die Frage, ich jetzt als, weiß ich nicht, Nano Banana Google Dingsbums muss jetzt gucken, dass die Bilder, die ich ausspucke, idealerweise gar nicht dazu geeignet werden, diesen diesen Fall abzudecken, ja.
- Richard
- Deswegen ist der Text so lang, ums abzukürzen.
- Jan
- Wie immer bei diesen Gesetzen.
- Richard
- Im Text steht nämlich mit dem Ziel oder der Wirkung, ne, also wenn Du ein System entwickelst und anbietest oder benutzt mit dem klaren Ziel, das zu tun, wenn dein allgemeines KI System ist, auch realistische Bilder darzustellen, ist das vielleicht nicht die Zielwirkung?
- Jan
- Also ich darf keine Fake News Plattform bauen, die nur am laufenden Band Fake News produziert und auf Facebook postet.
- Richard
- Genau.
- Jan
- Aber ich darf benutzen, mir für meine Verschwörungstheorien die geeigneten Bilder zu generieren.
- Richard
- Ja. Keine Ahnung, ja.
- Jan
- Okay. Ja. Traurig aber war. Okay.
- Richard
- Ja. Gut. Sollen wir zu Deep Facts springen?
- Jan
- Wir haben Ich hab aber nicht schon Deep Facts, ja. Das ist großartig. Also offensichtlich ist Deep Fake nicht das, was ich grade gedacht hab, was es ist, sondern was ist es denn dann?
- Richard
- Deep Fake ist so viel mehr, leider, weil das geht mir auch aus dem Wort, ich selber verbinde mit dem Wort eigentlich auch Deep Fake ist, wenn ich dadurch negativ beeinflusst werde und es von vornherein mich irgendwie eine in eine Richtung stimmt, die die also mich manipuliert.
- Jan
- Echt? Hätte ich jetzt gar nicht, ne? Nee. Für mich wär Deep Fake tatsächlich einfach nur Technik, die benutzt wird, im Prinzip fotorealistische Täuschungen
- Richard
- zu machen.
- Jan
- Also es gab ja mal, ich weiß nicht, ob Du das gesehen hast, vor 'n paar Monaten schon, als noch Wahlkampf war, diese von von der Bild sone Kampagne, wo sie sone Olaf Scholz Rede nachgemacht haben und der halt im Prinzip erzählt so, wie ärgerlich doch das mit der Bild ist, weil die ja so tollen Journalismus betreiben und das den Politikern so schwer machen als abgesehen davon, dass das inhaltlich eine schwierige Aussage ist. Ist das das, was ich was ich meine? Ja, Du siehst Aber das ist ja
- Richard
- auch eine Beeinflussung, eine ganz klarer.
- Jan
- Ja, aber das liegt ja, aber ich das ich würde das nicht unbedingt mit dem Deep Fake konnieren, sondern das Deep Fake ist für mich einfach nur so, da hat halt jemand 'n Video von dem Olaf Scholz gemacht und ihm Worte in den Mund gelegt, so. Ob das jetzt gut ist oder schlecht oder böse gemeint oder nicht, ist mir vollkommen egal. Da ist da ist ein Produkt entstanden, ein eine Aufnahme, ein Dokument, was er quasi nie so selber von sich gegeben hat. So und das wäre jetzt so meine Definition davon. Ja, dann Das Schöne ist, es gibt ja eine Definition. Genau. AI Act, AI
- Peggy
- Act, ja.
- Richard
- Die sagt ziemlich genau das.
- Peggy
- Die sagt
- Jan
- ziemlich genau was?
- Richard
- Das, was Du gesagt hast. Du sollst Bücher machen. Ja. Wunderbar. Also Deep Fake ist ein durch KI erzeugtes oder manipuliertes Bild, Ton oder Videoinhalt der wirklichen Personengegenständen, Orden, Einrichtigen oder Ereignissen ähnelt und in 1 Person fälschlicherweise als echt- oder wahrheitsgemäß erscheinen würde. Heißt, wenn ich jetzt mit meinem Hund G, 'n Foto mache und ihm irgendwas Lustiges anziehe,
- Jan
- ist das 'n Diebweg.
- Richard
- Ist das schon ein Diebweg? Ja. Ja. Und dann müssen wir gucken, was
- Jan
- Und das ist jetzt per se verboten? Nein. Ach so. Nicht mehr verboten.
- Richard
- Da geht's dann eher drum, okay, wir sind 'n Deep Fake und dann, was darf man dann damit machen oder was muss man machen? Und zwar Transparenzpflichten.
- Jan
- Aber okay, also darf ich, Du darfst wahrscheinlich von deinem Hund 'n Dieb Fake machen, weil ist ja auch nur 'n Hund, so. Du darfst wahrscheinlich auch von dir selbst 'n Dieb Fake machen, weil bist Du ja selbst und Du hast ja dein, ist ja dein eigenes Bild, kannst damit machen, was Du willst. Wenn ich jetzt von dir 'n Deepfake mach, darf ich das machen?
- Richard
- Das machen oder was damit machen?
- Jan
- Darf ich's erst mal für mich nur machen? Ich guck's alleine an. Ich mach 'n Foto von dir im Sombrero am Arbeitsplatz und häng und guck mir das nur selber für mich an, weil ich lustig find.
- Peggy
- Das darfst Du.
- Richard
- Ja.
- Peggy
- Ja. Schwieriger Witz, wenn's Du dann deinen Kollegen, deinen Freunden und möglicherweise irgendwo noch auf deinem Instagram Account veröffentlichst.
- Jan
- Okay. Also dieses Sombreo Beispiel war ja noch relativ milde. Ja. Aber da gibt's ja schon problematischere Fälle.
- Peggy
- Absolut.
- Jan
- Und auch das dürft ich machen, solang ich's nur für mich mache? Ja. Wow. Okay. Ja, okay. Okay. Und dann darf ich aber quasi, egal wie harmlos oder nicht harmlos mein Deep Fake jetzt ist, das erst mal mit niemand anderem teilen. Außer Richard hat wahrscheinlich zugestimmt. Mhm. Nee.
- Peggy
- Das Wenn Du zustimmst, dann
- Richard
- Aber das Teil
- Peggy
- das
- Richard
- das steht ja nichts über wo und wie Du teilen darfst. Es steht eher darum, es geht Transparenzpflichten. Musst Du sagen, dass es ein Deepfake ist oder nicht, weil man's ja nicht erkennen kann?
- Jan
- Also selbst wenn ich dich nicht vorher frage, aber wenn ich jetzt jedem das Bild zeige und sag, übrigens, das ist ein Deepfake, aber sieht der Richard nicht lustig aus mit seinem dann ist das auch okay.
- Richard
- Ich würde mich jetzt beschränken auf den AI Act und nicht auf etwaige Persönlichkeitsrechte und Datenschutz, dann machen wir alles durcheinander, aber rein von AI Act her, wenn ich meine Einwilligung für die Aufnahme gegeben habe und die und für die Öffentlichkeit auf Social Media und so weiter, wär das kein Problem, solang Du klar machst, das Bild wurde bearbeitet.
- Jan
- Und Das
- Peggy
- heißt, dir droht kein Bußgeld, sodass der Richard das eventuell trotzdem nicht gut findet und aus zivilrechtlichen Unterlassungen und Ähnliches fordert, das kann dir natürlich trotzdem passieren.
- Jan
- Und jetzt spannen wir vielleicht den Bogen zurück zu, was ist quasi handgemacht und was ist er Ärger gemacht?
- Richard
- Wobei, vielleicht vielleicht vielleicht sollte ich mal eine Aussage visieren. Es kommt darauf an, Du musst es nicht immer kennzeichnen.
- Jan
- Genau. Meine Frage wär nämlich gewesen, ich kann ja mit AI relativ viel an sonem Bild verändern, ja. Es gibt ja heutzutage, also es es fängt ja schon damit an, dass wenn ich mit meinem iPhone irgendwie 'n Foto mach, da ja automatisch schon AI irgendwie mit am Start ist, 'n bisschen Belichtung und 'n bisschen HDR und den Bildausschnitt vielleicht dynamisch zu wählen und keine Ahnung. Und das ist ja quasi auch schon mit AI entstanden, dieses Bild hätte ohne AI quasi so gar nicht existieren können, ja. Und da da wär jetzt meine Frage, wie viel muss da denn verfälscht sein, es quasi als Deep Fake deklarieren zu müssen?
- Richard
- Aus Sicht 1 durchschnittlichen Verbrauchers. Also durch sich durchschnittlichen, der 1 durchsichtigen Verbrauchers, der sehr transparent ist. Ja. Das ist schwer zu beantworten. Das muss man im Einzelfall eben gucken. Also es kommt, ich glaube, es kommt sehr viel, das steht leider nicht so da, aber es kommt sehr viel auf diese Täuschungswirkung an. Wie, in welche Richtung kannst Du, würdest Du jemanden damit täuschen? Da das macht das natürlich alles scharf, aber rein von der Definition her ist es 'n Deepfake und dann muss man's eigentlich kennzeichnen, außer es gibt 2 Ausnahmen. Man ist macht das Ganze zur Aufdeckung, Verhütung, Ermittlung, Verfolgung von Straftaten. Natürlich. Und die Ausnahme Nummer 2 find ich auch sehr, bräuchten wir noch 'n bisschen mehr Text. Es geht, wenn Noch
- Jan
- mehr Text.
- Richard
- Ja, noch mehr Text leider. Wenn der Inhalt Teil 1 offensichtlich künstlichen, kreativen, satirischen oder fiktionalen Werks oder Programms ist, dann muss man's nicht ganz offen kennzeichnen, sondern es genügt ein angemessener Hinweis, der die Darstellung den Genuss nicht beeinträchtigt. Also man muss es trotzdem hinweisen, aber halt nicht so, dass man das Werk nicht ordentlich konsumieren kann. Also es kommt ja auch an 'n paar sehen.
- Jan
- Fotoalbum mach mit 100 lustigen Richard Bildern. Reicht das, wenn ich am Anfang oder am Ende einmal sag, das ist übrigens mein Richard AI Fotoalbum und dann muss es nicht auf jedes Bild draufkleben.
- Richard
- Ich vermute ja.
- Peggy
- Ja, das würde reichen.
- Richard
- Okay. Okay. Oder Du übertreibst die Darstellung immer so, dass es ganz klar ist, das ist gar nicht echt.
- Jan
- Oh, das, also ja, ich versteh, was Du meinst, weil dann muss jedem klar sein, das kann nur mit AI entstanden sein. Aber da, also da zweifel ich zu sehr an den Menschen, mir irgendwie vorzustellen, was was wär allen sofort klar, ja? Mhm.
- Peggy
- Oder Sicherheit auf dem Mond beispielsweise würde dir wahrscheinlich jetzt niemand so wirklich abnehmen.
- Richard
- Du mich 20, 30 Jahre älter warst, wer weiß. Aber noch witzige Sache ist, das gilt ja nur für KI. Wenn Du das mit Photoshop machst, gilt die KI Verordnung gar nicht mehr. Das heißt, Du könntest mir sonen Breos anziehen, wie Du willst. Diese Transparenzpflicht gilt nur für mit KI modifizierten Bilder.
- Jan
- Und im Zweifelsfall müsstest Du mir nachweisen, dass ich das mit KI gemacht hab und nicht mit Photoshop dir selber aufn Kopf gesetzt hab.
- Richard
- Wenn ich das über diesen Gehweg gehen wollte und nicht über Persönlichkeitsrechte, ja. Ja.
- Peggy
- Aber Du würdest ja tatsächlich eher aus Persönlichkeitsrechten oder aber sogar, je nach der Schärfe, auch aus strafrechtlichen Vorschriften vorgehen, ne. Verletzung der Ehre oder was? Verletzung der Ehre. Dann gibt's auch im Kunst Urhebergesetz gibt's auch noch eine Strafvorschrift. Ich glaube, also ne, wenn's 'n Bildnis ist. Richtig. Also da gibt's diverse Möglichkeiten. Müssten die Strafverfolgungsbehörden dann natürlich entsprechend tätig werden, aber per se gibt's durchaus da mehrere Möglichkeiten.
- Richard
- Interessant zu Deep Fake fand ich auch noch, Texte sind ja nicht in der Auflistung gewesen, Bild, Ton oder Video stand drin. Texte können kein Deep Fake sein. Also mit Texten kann ich theoretisch generieren lassen, ne, 'n Brief, als ob jemand was geschrieben hat oder so.
- Jan
- Ja, aber wahrscheinlich, weil ich das vorher auch schon könnte und KI da überhaupt keinen Unterschied macht. Also wenn ich jetzt in mein Dokument schreib, Richard hat gesagt, Jan ist doof, ob ich das von Hand schreib oder mit der KI mach, das macht's mir weder einfacher noch unscheinbarer. Also da ist einfach überhaupt kein Unterschied zu vorher ersichtlich. Wobei es ja
- Peggy
- auch eine Vorschrift gibt für Textmanipulation zu. Genau.
- Richard
- Ja, ach, okay.
- Jan
- Ja, genau. Aber
- Richard
- Aber es ist zwar kein Deepfake. Es ist kein Deepfake, das heißt, dies alles, was wir mit Ausnahmen und Kennzeichen so gesprochen haben, das ist nicht der Fall, weil bei Deepfake geht's ja darum, ist es möglichst realistisch, dass man's glauben kann, wenn man das sieht? Bei Text fällt einem das natürlich schwer, die Authentizität von bestimmten Wortnutzungen oder so. Nee, das natürlich nicht. Also haben sie was anderes geschrieben und gesagt, wenn der Zweck des Textes, ne, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren ist, dann muss man das kennzeichnen. Also es geht in eine ganz andere Richtung. Und ich find das schon ziemlich relevant, a, wie kann Presse jetzt mit KI arbeiten oder wie ordnungsgemäß gehen sie damit Wie viel ist ihnen die Qualität dann auch wichtig? Und Texte wär auch son Thema für Social Media Bots oder Phishingangriffe oder, okay, die werden sich an gar nix halten. Aber Social Media Bots, ist das zulässig, wenn ich mir, wie viel 1000 Follower willst Du für programmier.bar haben? Also ja, dann, ja.
- Jan
- Okay, spannende Diskussion zu Deep Facts. Ich hab noch am Ende immer eine letzte Frage für Peggy. Welche Frage haben wir dir nicht gestellt? Auf welches Thema hast Du dich vorbereitet und hast gesagt, das wär superspannend und da müssen wir unbedingt drüber reden. Und jetzt hat der Jan mich gar nicht gefragt. Ich wollte unbedingt noch über Thema x y sprechen. Gibt's was, was wir vergessen haben?
- Peggy
- Ich würde sagen, wir haben in dieser kurz Kürze der Zeit eigentlich 'n ganz guten Ritt durch die durch die aktuellen Problemen- und Minenfelder getan. Ich wüsste jetzt nicht, ja, aus meiner Sicht fehlt nix.
- Richard
- Ich hab noch eine wichtige Frage. Ja? Ich als User von KI hör jetzt alles in dieser blöden Podcastfolge, was ich nicht mehr darf oder worauf ich achten muss. Ab wann gilt das Ganze denn für mich? Mhm.
- Peggy
- Die also die Deep Fake Regelungen, die gelten erst ab 20 26 und alle urheberrechtlichen Bestimmungen und was wir vorher noch hatten, Persönlichkeitsrechte und so weiter, das sind natürlich bestehende Regelungen, die auch heute schon angewendet werden können. Aber diese kennen, was wir gar nicht bisher erwähnt hatten, vielleicht noch einen Punkt, ist, dass auch die Anbieter von von KI Systemen zukünftig diese Deepfakes markieren müssen, ja, also in welcher Form das geschehen wird. Ah, das ist Weißt
- Jan
- man aktuell, wenn man da immer dieser Google Germany Kristall da mit drin ist?
- Richard
- Jein. Sie müssen's nicht so visuell machen wie Du als User, sondern sie müssen das auch digital machen. Die haben eine Cindh ID heißt das, hast Du ja schon gehört. Ja, ja. Ja. Das ist in jedem Werk enthalten, dass man's einfach nachvollziehen kann.
- Jan
- Okay.
- Peggy
- Genau, also kann auch in den Metadaten passieren, ne, aber einfach, es muss ab 20 26 gekennzeichnet werden,
- Jan
- ohnehin durch die Anbieter der KI Systeme. Also sprich, dann wird man auch sehen, wenn
- Peggy
- man Systeme. Also sprich, dann wird man auch sehen, wie sich das dann in der Praxis darstellt.
- Richard
- Für für
- Jan
- Bilder und Videos oder für alles?
- Richard
- Ich hab verstanden für alles und ich hab mich echt gefragt, wie soll
- Jan
- der Text? Ja. Das wär jetzt nämlich auch meine Frage gewesen.
- Richard
- Ich weiß.
- Jan
- Der Text hat keine Metadaten. Aber okay, müssen wir mal das nächste Mal, wenn wir mit 'nem Anbieter von KI Systemen reden, dann noch
- Peggy
- mal nachfragen. Genau. So wie bei DeepL, wo man dann, wenn man was automatisch übersetzt, ja, dann kriegt man ja auch unten immer diesen kleinen Hinweis übersetzt mit DeepL, ja. Ja, das ist Und den löscht man dann raus und dann
- Jan
- Genau, also es gibt ja Leute, die sich 'n Geschäftsmodell daraus gemacht haben, ne, KI generierte Texte zu erkennen und so was alles, Plakatsoftware an Unis und
- Richard
- Die werd's einfach haben, ne.
- Jan
- Gesehen. Ja, ja, das ist die Frage, ob die's dann wirklich so einfach haben oder nicht. Aber wie gesagt, das ist dann 'n Thema für eine andere Folge. Irgendwann in 20 26, wenn das da ist und wir das uns angucken können. Okay, bevor wir uns aber hier alle verabschieden, haben wir noch und ich hab von Richard gehört, dass er auf jeden Fall was am Start hat. Deswegen darf Richard anfangen.
- Richard
- Pick of the day. Ja, bei mir kam gestern was ganz Tolles an und ich konnte es leider nicht mal aufschlagen und zwar das Sonderheft der Make 20 25 mit Ikea Hacks über Möbeltuning und wie man Sachen smart und toll macht und noch besser und viel Spaß dabei hat. Das wär mein, ohne zu wissen, was drinsteht, aber ich bin sehr gehypt.
- Jan
- Blanko Pick of the day. Den
- Richard
- Blanko Pick of the day, ja, viel Spaß.
- Jan
- Musst Du auf jeden Fall mal mitbringen. Ich hab ja auch das ein oder andere IKEA Möbelstück zu Hause stehen und vielleicht kann ich da noch
- Richard
- Die Möbel passe alle in meinem Opel Adam rein, das wird kein Problem.
- Jan
- Nein, ich mein, das ist nicht unbedingt von den Möbeln, ich dachte, kannst Du einfach den Make mitbringen und das zeigen. Das nicht dein Hausstand durch die Gegend fahren, Richard. Wunderbar. Dann von Richard einmal die Make. Peggy, hast Du was für uns dabei?
- Peggy
- Ihr überfahrt mich 'n bisschen mit dieser Frage, aber mein wäre etwas zum Lesen, und zwar ein Buch, ein wunderbares Buch, was ich grade gelesen hab von Christoph Heim, das Narrenschiff. Und zwar erzählt es die Geschichte der DDR aus der Perspektive der politisch, Gründung bis bis Mauerfall, sehr spannendes Buch und für mich insbesondere, weil ich ja da auch gebürtig bin. Deshalb klare Leseempfehlung.
- Jan
- Ist das so, ich glaub, das ist son relativ neues Genre, ne, so im Prinzip. Also ist das eine eine reelle Biografie oder ist das ein Roman? Ist 'n Roman. Okay.
- Peggy
- Bei alternativ denke ich immer direkt an alternative Fakten, ja. Also ich, es ist, glaube ich, tatsächlich sehr faktenbasiert, aber natürlich in Romanform eingebunden.
- Jan
- Ja, also das ist vielleicht doch genau das, was ich meine, das ist son Genre, was ich vor 'n paar Jahren so für mich entdeckt hab. Ich hab da schon so superviele Bücher gelesen, so. 1 der letzten, was ich gelesen hab, war so die die Mondlandung aus Perspektive 1 NASA Ingenieurs, der den's halt nie gab oder so, ja, aber alles, was halt so ihn herum passiert, halt 100 Prozent real und das hätte im Prinzip alles so passieren können, das ist einfach, ich sag mal, 'n etwas unterhaltsamerer Weg, reale Geschichte irgendwie einfach darzustellen, ne. Das liest sich immer ganz bequem. Und ich weiß nicht, wer auf Apple TV, oh Gott, wie heißt das? Raumfahrtserie Apple TV Richard.
- Richard
- The Expanse.
- Jan
- Nein, die andere. Die
- Richard
- finde ich aber gut.
- Jan
- Ja, die ist auch gut, aber ich meinte die andere. Beyond, nein, heißt sie und die fangen ja auch an so mit, ne, wie war das Wettrennen zum Mond und so. Und das läuft einfach so ein, 2 Sachen anders als eine Möglichkeit, aber ist halt alles sehr so groundingd in History irgendwie. Ja. Oder andersrum, ich nehm das jetzt einfach als Pick. So, das ist jetzt voll bekannt. Und Peggy hat mich darauf gemacht, Apple TV, abgefahrene Serie, das, wie gesagt, startet mit dem Rennen zum Mond und in der ersten Folge, das so viel kann man, glaube ich, spoilern, schaffen es, schafft die Sowjetunion es quasi als Erstes auf dem Mond und der Rest der Staffel geht dann eigentlich nur darum so, wie hat sich das Mondprogramm der NASA anders entwickelt aufgrund von, eine Sache ist halt irgendwie anders gelaufen, als sie wirklich gelaufen ist, und das bringt dann son Stein ins Rollen. Es ist alles nicht abgefahren, ist Science Fiction, es ist alles, hätte so passieren können, aber ist einfach nur son interessanter Take von, was, wenn ein, 2 Sachen in der Geschichte anders gelaufen wären und was hätte das für Einflüsse alles haben können, so. Ganz interessant, kann man sich mal antun auf Apple TV, for All Men. Kein, mittlerweile, glaub ich, schon, weiß nicht, 5 oder 6 Staffeln oder so richtig gut. Wunderbar. Dann sind wir durch mit unserer Folge zu AI und Rechten. Erst mal danke Richard, dass Du wieder mit am Start warst.
- Richard
- Dankeschön.
- Jan
- Und natürlich danke Peggy, dass Du dir die Zeit genommen hast für uns hier, Rede und Antwort zu stehen über Deep Fakes, über KI Modelle, über Rechte und Pflichten von Anbietern und Kunden. Und wir hoffen, das hat euch da draußen mindestens genauso viel Spaß gemacht wie uns hier und euch im Idealfall noch viel weitergebracht und vielleicht ein, 2 Schritte weiter und näher zu eurem KI Produkt, an dem ihr grade grade arbeitet oder über das ihr grade nachdenkt. Falls ihr Fragen, Anregungen, Kritik, Feedback habt, dann könnt ihr gerne euch auf unserem Discord Server melden. Ihr könnt uns auf Social Media erreichen. Ihr könnt uns Kommentare schreiben auf LinkedIn, Instagram, Twitter gibt's nicht mehr, aber Blues Guy und Masolon gibt's noch. Ihr könnt es gerne schreiben oder ihr schreibt uns die E-Mail an Podcast at Programmier Punkt bar und damit verabschieden wir uns und hören uns in 2 Wochen wieder. Bis dann. Ciao, tschau. Tschüs.