Sora, Chatkontrolle & der Blick in die Zukunft

Shownotes

Eva haut mit einem Hammer auf einen Zug ein, Sam Altman springt aus ihrem Laptop und hält sie vom Schreiben ab. Was klingt wie ein abgedrehter Film, hat OpenAIs neues Modell Sora 2 für Eva komponiert. Inklusive Stimmen, Gesichtern und Musik. Für viele ein kreatives Werkzeug, für andere der Beginn einer neuen Überflutung durch künstliche Inhalte.

Svea und Eva sprechen in dieser Folge darüber, wie Sora unseren Blick auf die Realität verändern könnte und was es bedeutet, wenn künftig nicht mehr Menschen, sondern Modelle den Takt im Netz bestimmen.

Und danach: kommt die Chatkontrolle? Die EU will Messenger wie WhatsApp oder Signal verpflichten, private Chats vor dem Absenden zu scannen, das soll Kinder schützen - zugleich droht damit das Ende vertraulicher Kommunikation.

Jiska Classen, Sicherheitsforscherin am HPI, erklärt, warum solche Systeme technisch kaum sicher umsetzbar sind, welche Hintertüren sie öffnen und warum Deutschland dabei eine Schlüsselrolle spielt.

🎙️ Hosts: Svea Eckert & Eva Wolfangel

🎧 Musik und Produktion: Marko Pauli

Shownotes: Das Thema bei Heise: https://www.heise.de/news/Datenschutz-unter-Beschuss-Messengerdienste-reagieren-auf-EU-Chatkontrolle-10715694.html

Weitere Hintergründe: https://openai.com/index/sora-is-here/

https://www.404media.co/ai-generated-boring-history-videos-are-flooding-youtube-and-drowning-out-real-history/

Weitere Recherchen dazu https://www.zeit.de/digital/datenschutz/2022-08/kindesmissbrauch-ki-google-bilder-verdacht-eltern https://www.deutschlandfunkkultur.de/chatkontrolle-lobby-wirtschafltiche-interessen-statt-kinderschutz-dlf-kultur-df1dc85f-100.html

Zu Jiska Classen: https://hpi.de/en/classen/

Italian Brainrot https://www.youtube.com/watch?v=nxSbhVnwdFw

Transkript anzeigen

00:00:17: Hallo

00:00:17: und herzlich willkommen zu The Talk Tech Einzité Podcast.

00:00:20: Ich bin Svea Eckert,

00:00:22: Tech Journalistin.

00:00:23: Und ich bin Eva Wolf-Angel, ebenfalls Tech Journalistin.

00:00:26: Ja, zumindest das ist gleich geblieben.

00:00:29: Ja Eva, man kann dich ja seit Neuestem sozusagen überall sehen, in echt und in unecht.

00:00:35: Auf jeden Fall habe ich dich gesehen auf LinkedIn und da ist Sam Altmann so Ghostbassermäßig aus seinem Computer rausgesprungen und du hast mit Sora II experimentiert.

00:00:46: Ja, ich habe Sam Ordman eingeladen, mit mir doch mal ein lustiges Video zu machen.

00:00:51: Wir haben viele lustige Videos gemacht und alles ausdiskutiert über AGI und vor allem aber auch über die Zukunft unserer Branche.

00:00:57: Da hat er besonders viel zu sagen gehabt und auch seine Video KI.

00:01:00: Genau, er ist aus meinem Computer gesprungen, als ich brav versucht habe, einen Artikel zu schreiben und wollte mich davon abhalten.

00:01:06: Mit dem Argument AGI ist Coming und die wird überhaupt keine Zeitung lesen und du bist In späteren Videos habe ich dann nicht gepostet, hat aber auch noch gesagt, dass ich wirklich überflüssig sei.

00:01:15: Nein,

00:01:16: okay.

00:01:17: Da tauchen wir gleich tiefer ein.

00:01:19: Wir sprechen also heute über Sora und das ganze Thema AI-Slot für uns und für die Zukunft bedeutet.

00:01:26: Und im zweiten Teil haben wir einen wunderbaren Gast, eine wunderbare Gäste, nämlich Jiska Klassen, wird uns besuchen.

00:01:34: Sie ist IT-Security-Expertin, ich würde sagen die Top-Mobile-Frau.

00:01:40: Und wir sprechen über das sehr heikle Thema und dringende Thema Chat-Kontrolle.

00:01:44: Genau, da gibt es nämlich auch einen aktuellen Stand, über den wir dann berichten.

00:01:52: Ja, aber jetzt erst mal zu dir und Sam.

00:01:55: Wie ist es dazu gekommen?

00:01:56: Er hat nachgegeben, an deinem Flehen drängen.

00:02:00: Ja, so lange sage ich schon, Sam, wir müssen sprechen.

00:02:05: Ja, so könnte man meinen, also in Wirklichkeit sind das Deepfakes.

00:02:09: Ich bin nämlich inzwischen auch nicht nur echte, sondern auch unechte Tech-Journalistin.

00:02:12: Mich gibt es jetzt als richtig gutes Deepfake.

00:02:15: Ich habe Zugriff auf Sora to bekommen, diese neue, sehr gehypte Video-Generierungs-App von OpenAI und habe ein bisschen rumgespielt.

00:02:24: Im Prinzip aus Sicherheitskunden eigentlich nur Videos über sich selbst.

00:02:29: Man kann sie selbst deepfaken.

00:02:30: Dafür muss man ein paar Sekunden Video aufnehmen.

00:02:32: Wirklich wenig, wo man Zahlen vorliest vom Bildschirm oder den Kopf mal dreht, sodass die KI ein bisschen Material hat.

00:02:38: Und das

00:02:39: ist ja das erste bemerkenswerte, oder?

00:02:42: Wahnsinn.

00:02:43: Es waren vielleicht vier, fünf Sekunden, die ich aufgenommen habe über mich selbst.

00:02:47: Und wirklich um drei Zahlen vorgelesen, Kopf gedreht.

00:02:49: Wow.

00:02:49: Und das ist alles.

00:02:51: Und dann kann man eben mit sich selbst die Fakes machen.

00:02:53: Da muss man sich quasi selbst Menschen mit gegenüber Sonnenzeigen zeigen, etwa Wolfanger, die dies und das macht.

00:02:59: Und man kann das aber auch öffentlich verfügbar machen.

00:03:00: Also man kann auch sagen ... Jeder darf mit Eva Rolf Angel was machen, was natürlich bescheuert wäre.

00:03:07: Da kann ja wirklich alle Welt quasi echt und das sind wirklich gute Deep Facts mit mir machen.

00:03:13: Also habe ich das natürlich auf Privat gestellt, so wie die Allermeisten.

00:03:17: Eine Person, die das von Anfang an öffentlich gemacht hat, ist Sam Ordman, mit dem erfolgt das ist natürlich ... erst recht viele Deepfakes von ihm gibt.

00:03:23: Andererseits wissen das jetzt auch alles, sodass wahrscheinlich auch niemand mit der künftig gar nichts mehr sagen kann.

00:03:27: Wir können alle gleich sagen, das ist er ja gar nicht.

00:03:29: Wer weiß, ob dem überhaupt irgendetwas noch irgendetwas glaubt.

00:03:32: Aber da er auch das öffentlich gemacht hat, kann man quasi Videos mit uns, also kann ich Videos mit uns beiden machen.

00:03:38: Und da ich ja so ein bisschen überlegt war, probiere ich denn mal aus.

00:03:40: Und dann habe ich viel mit ihm über AGI diskutiert.

00:03:44: In späteren Versionen, wie gesagt, hat er auch noch gesagt, ich sei eh überflüssig, weil AGI kommt.

00:03:51: Wie bitte?

00:03:52: Bist du gerade aus meinem Computer geklettert?

00:03:59: Und das sind dann so kleine Clips.

00:04:01: die du da erstellen kannst von der ganz bestimmten Länge.

00:04:05: Genau,

00:04:05: die sind maximal neun oder zehn Sekunden lang.

00:04:08: Unterwitzigerweise sind sie verschieden mal neun mal zehn.

00:04:11: Wahrscheinlich ist das einfach eine Zeitrechnungsfrage.

00:04:13: Aber genau, länger geht's nicht.

00:04:14: Und ich hab bisher wirklich relativ kurze Prompts verwendet.

00:04:17: Auf Social Media sieht man ja wieder, wie immer, wenn so ein Hype kommt, jede Menge Anleitungen, angebliche Anleitungen, wie man ganz exakte Prompts erstellen kann.

00:04:25: Und dann wirklich genau das bekommt, was man haben möchte.

00:04:28: bin ich mir nicht sicher, ob das stimmt.

00:04:30: Ich glaube, da ist auch vieles davon fake und frisiert.

00:04:32: Ich selbst dachte, das ist spannend, als ich von OpenAI oder von Sam Orton selbst.

00:04:38: Die haben ein kleines Video auch veröffentlicht auf Social Media, wie sie eben Sora-Tour launchen.

00:04:42: Und in diesem Video rennt unter anderem Sam Ordmann gegen die Wände, auf der Suche nach einem Portal, um zu dem Lounge zu kommen.

00:04:48: Also, es ist einfach ein weirdes, aber auch, finde ich, lust ... Also, ich tatsächlich, mein Humor hat es getroffen, muss ich zugeben, Video, dass sie halt mit Sora erstellt haben.

00:04:56: Und dann dachte ich, okay, krass, wenn das funktioniert, probieren.

00:04:59: Und natürlich real kann man eben so ein langes Video nicht machen.

00:05:01: Und ich würde auch behaupten, so wie halt mit KI immer, man kann nicht so genau vorhersagen ... was passiert.

00:05:07: Also ich hab natürlich viel rumprobiert mit Sam Ordman und mir.

00:05:11: Und oft kommt auch Unsinn raus.

00:05:13: Einmal zum Beispiel hat dann auf einmal Sam Ordman gesagt, AGI ist gefährlich.

00:05:17: Und ich hab gesagt, wir können die Innovation nicht stoppen.

00:05:20: Ich frag, was ist jetzt schief gelaufen?

00:05:21: In meinem Prompt war das nicht.

00:05:24: Da haben wir wie so ein bisschen vertauschte Rollen gehabt.

00:05:26: Also nur einmal für alle sozusagen, wenn ihr selbst euch das anschauen wollt, also man kann doch tatsächlich darauf zugreifen, weil das spannende ist.

00:05:36: Es wurde sozusagen nicht nur diese Videofunktionen gelauncht, sondern es sieht so ein bisschen aus wie wie ein Tiktok für KI kann man sich vorstellen.

00:05:43: Also man kann es sich... Wir können die URL hier auch in die Show Notes posten, aber die findet ihr auch.

00:05:47: Also man kann sich auf OpenAI Sora kann man sich im Prinzip wie so ein Endlosen stream das anschauen.

00:05:53: Und jetzt ist es ja so.

00:05:56: Sora eins gibt es ja schon länger.

00:05:58: Also es gibt es ja seit Februar, zwanzig, fünfundzwanzig seit Februar diesen Jahres und.

00:06:04: Da gab es aber im Prinzip keinen öffentlichen Zugang, sondern es waren solche Testclips, die habe ich auch da.

00:06:12: Ich erinnere mich noch an so einen chinesischen Drachen, der irgendwie durch die Straße flog oder auch an so Szenerien aus der Natur.

00:06:20: Ich habe die immer gerne benutzt, um Leute zu testen, sozusagen, was ist echt, was ist Fake, weil die ... waren ja schon ziemlich gut.

00:06:28: Und jetzt Ende September wurde eben dann SORA II als neue Version veröffentlicht mit diesen deutlich verbesserten Fähigkeiten.

00:06:38: Aber vielleicht kannst du das noch mal so ein bisschen erklären oder erzählen.

00:06:41: Das taucht ja nicht auf in meinem normalen Chat-GPT, sondern man muss, man braucht jetzt im Moment, braucht man tatsächlich noch einen Invite, also so ein Coach, um sich da einzuloggen.

00:06:53: Und hier in Deutschland gibt es das ja noch gar nicht.

00:06:56: Genau, das gibt es eigentlich nur im US App Store.

00:06:58: Man kann sich eine US-Apple-ID erstellen.

00:07:03: Das habe ich dafür gemacht, und man braucht einen VPN in die USA.

00:07:07: Das ist jetzt die billige Art und Weise zu tun, als wenn man selbst in den USA sitzt.

00:07:12: Man merkt deutlich, dass die Dienste nicht wahnsinnig wichtig ist, das zu beschränken.

00:07:15: Es ist nicht so schwer, daran zu kommen.

00:07:17: Dann braucht man noch einen Invite-Code.

00:07:19: Man kann auch sagen, ich habe am Anfang viel gehabt, und jetzt habe ich noch mal viel bekommen.

00:07:22: Ich habe auch noch ein, zwei übrig, falls jemand noch einen braucht, schreibt mir gerne.

00:07:25: Auf

00:07:25: Mastodon, ne?

00:07:27: Genau, auf Mastodon am besten, genau, da sehe ich es am schnellsten.

00:07:30: Genau, man braucht so ein Code und dann muss man die App runterladen und mit der kann man dann eben diese Videos machen.

00:07:38: Und ja, wie gesagt, ich finde, es funktioniert verrückt gut.

00:07:41: Und auch in der App.

00:07:41: ist es so, dass die ganz schnell so ein Feed angeboten wird, also ganz algorithmisch kuratiert, ne?

00:07:46: Neu ist es oder für dich oder wem du folgst, also so ganz bekannt aus anderen sozialen Medien.

00:07:52: Das heißt, die wollen, so ein bisschen Social Media auch sein.

00:07:56: Ich persönlich muss sagen, klar, ich hab da so ein bisschen durchgesrollt.

00:07:58: Zwei, drei KollegInnen gesehen, die auch Dinge machen und da mal geschaut.

00:08:03: Ich persönlich find das meist gar nicht so wahnsinnig interessant.

00:08:06: Was ich wirklich spannend finde, ist halt die Frage, wie realistisch kann man Menschen darstellen?

00:08:10: Und natürlich die andere Frage ist Copyright.

00:08:12: Also, wie ist das eigentlich?

00:08:14: Ich hab zum Beispiel ziemlich schnell auch Alice in Wonderland Videos gemacht mit mir in so einem ... ja, Wonderland.

00:08:21: Wo man sich schon fragt, ist ... Wieso geht es einfach so?

00:08:24: Also sind da keine Urheberrechte drauf?

00:08:27: Wie gesagt, diese Dinge weiß ich nicht.

00:08:28: Jetzt kam ja raus, dass es durchaus Urheberrechte-Inhaberinnen gibt, die damit nicht so glücklich sind.

00:08:34: Und Open Air hat gesagt, ja, wir kümmern uns drum, dass man das ein bisschen feingranulare einstellen kann.

00:08:39: Ich hab das gesehen,

00:08:39: ich hab das gesehen mit Michael Jackson irgendwie.

00:08:41: Dachte ich auch, ne?

00:08:43: Also, hat der da seine Einverständnisse gegeben?

00:08:46: Sicher nicht, weil der lebt ja nicht mehr.

00:08:49: Also das ist auf jeden Fall

00:08:50: die Frage.

00:08:50: Ich hab natürlich mit Metallica experimentiert und mit Queen.

00:08:55: Ich wollte natürlich gerne mit Freddie Mercury auf der Bühne stehen.

00:08:58: Aber Queen hat da offenbar... Du

00:09:00: bist echt dennoch gefallen, sagt.

00:09:01: Wie viele Tage hast du dazugebracht?

00:09:04: Also ich bin mehrmals an die Grenze gestoßen von hundert Videos in den vergangenen vierundzwanzig Stunden.

00:09:08: Dann sagtest du, du musst jetzt Pause machen, du hast hundert Videos erstellt in den vergangenen vierundzwanzig Stunden.

00:09:13: Durchaus intensiv hab ich das ausprobiert.

00:09:16: Ich muss allerdings zu meiner Verteilung sagen, ich hab einen ganz langen Text fertig geschrieben.

00:09:20: Danach muss man sowieso immer erst mal procrastinieren.

00:09:22: Da war Sora II quasi die optimale Einladung.

00:09:25: Wahrscheinlich wäre das Prokrastinieren anders kürzer gewesen.

00:09:29: Jetzt so langsam muss ich da wieder raustauchen.

00:09:32: Das ist

00:09:32: auch der ...

00:09:33: Könnte auch genau der Grund sein, warum es diese App zur Zeit in Deutschland nicht gibt.

00:09:39: Also neben dem ganzen Thema, das ist schon gesagt, Urheberrecht.

00:09:43: Aber eben auch mögliche Missbrauchtiebwegs, Identitätsverletzungsgedanke, wo wir in der EU ja eh strenger sind.

00:09:53: Also wir haben ja hier GDPA, AI-Act ist ja sozusagen in der ... Umsetzung, also das ist so ein bisschen das eine.

00:10:02: Und das andere ist natürlich auch, wenn man so an die ganze Infrastruktur denkt und an die Skalierung, weil ich mir vorstellen kann, dass diese Videogeneration auch große Ressourcen einfach braucht.

00:10:12: Speicherahnen, Netzwerkkapazitäten.

00:10:14: Also wenn Millionen

00:10:16: Nutzerinnen

00:10:16: und Nutzer gleichzeitig Inhalte generieren wollen, dann glüht die Erde.

00:10:20: Also braucht man robustes Server, Cashbandbreite, Lastverteilung und deswegen sehen wir das ja sehr oft bei solchen Launches, dass wir so ein Schrittweises ausrollen haben, um dann so ein System sukzessive zu testen und Fehler zu beheben.

00:10:37: Und mit diesem In-Wide-Code ist ja auch so, generiert ja immer auch so ein bisschen Hype und künstliche Verknappung.

00:10:42: Ich denke,

00:10:42: das ist eher das.

00:10:43: Ich glaube, es ist eher der Hype.

00:10:44: Weil am Ende muss man sagen, das wächst ja, wenn jeder Neue sofort, du kriegst sofort vier In-Wide-Codes.

00:10:50: Das heißt, ich gebe einen weiter, du kannst vier einladen, die vier laden wieder vier ein.

00:10:54: Also das explodiert ja, ne?

00:10:55: Also das ist nicht wirklich langsam ausrollen, würde ich sagen.

00:10:58: Das ist glaube ich wirklich eher so ein bisschen, wir machen es mal cool und so.

00:11:02: Und dann ist man doch, freut man sich noch mehr.

00:11:04: Eva, ich habe eine Idee.

00:11:05: Wir machen es einfach so.

00:11:06: Wenn jemand von dir einen Invite-Code bekommt, dann kann er ja bei dir auf Mastodon und den Antworten schreiben, dass er noch weitere Invites hat.

00:11:18: Dann machen wir ein eigenes Schneeballsystem.

00:11:20: Genau,

00:11:21: wir machen ein Schneeballsystem für Invite-Codes für Sora II.

00:11:27: Wenn ihr von Eva ein Invite-Code bekommt, dann antwortet auf LinkedIn oder auf Mastodown mit eurem Namen.

00:11:34: Dann können euch wieder andere schreiben, ob sie auch ein Invite-Code haben.

00:11:37: Zumindest unsere Bubble ist dann schnell abgedeckt.

00:11:40: Allerdings muss ich euch warnen, es frisst wirklich viel Zeit.

00:11:43: Und das andere, was du sagst, ist auch absolut richtig, ist verbraucht.

00:11:46: sind nicht viel Energie.

00:11:48: Und was man sieht bei jetzt in dem Fall, dass die App, also ich hab das nie erlebt, dass die in die Knie ging.

00:11:52: Also es geht eigentlich immer.

00:11:53: Klar, es braucht immer so eine Minute oder zwei bis so ein Video erstellt.

00:11:56: Vielleicht machen sie es auch, verlangsamen sie das quasi künstlich, damit es so ein bisschen, dass es nicht ganz so schnell, ganz so viel Anfragen gibt.

00:12:04: Aber die scheinen da schon sehr, sehr viel Geld und Kapazitäten reingesteckt zu haben, damit es rund läuft.

00:12:10: Also das ist schon verrückt.

00:12:13: Ja, und dann das andere, was ich sagen muss, nachdem ich jetzt zweimal an die Grenze gekommen bin von hundert Videos in vierundzwanzig Stunden, hat's auch schon wieder so ein bisschen seinen Reiz verloren, weil man ... ja, es ist halt doch KI, ne?

00:12:24: Man merkt halt doch ... Es macht halt nicht genau das, was ich sage oder was ich mir vorstelle.

00:12:28: Ich hab viel probiert mit meinem Hashtag, Eva Train Destroyer.

00:12:32: Also zeige einen Tag, Eva Wolf-Angel als Eva Train Destroyer.

00:12:36: Das ist natürlich so ganz platt, dann kommt da so alte Züge und ich mit einem riesigen Vorschlagkammer, die da draufhemmert und die Züge ist ja klopft.

00:12:43: Oh,

00:12:43: das will ich unbedingt sehen.

00:12:45: Das blenden wir ein.

00:12:48: Auf Handschuhe an.

00:12:49: Es gibt keinen zurück.

00:12:50: Ich geb alles, pass auf.

00:12:51: Ha, das Ding muss weg.

00:12:53: Und noch mal,

00:12:54: ja.

00:12:55: So macht man das.

00:12:56: Zug erledigt.

00:12:58: Und dann hab ich gesagt, nein, Eva Train Destroyer macht die nur kaputt mit ihrem schlechten Karma oder nur mit ihren Gedanken.

00:13:05: Und dann kommt halt immer so eine total miskelaunte Eva-Holf-Angel.

00:13:10: Dann sehe ich halt immer so aus, als wenn ich die ganze Zeit schlechte Laune hab.

00:13:12: Dann hab ich geschrieben, nein, sie freut sich, sie ist immer gut drauf.

00:13:15: Und dann ist es halt, ja, es funktioniert.

00:13:18: Man bastelt und bastelt und bastelt.

00:13:19: Es kommt natürlich immer nicht das raus, was man so denkt.

00:13:21: Und eigentlich immer auch was raus, was einfach deutlich daneben liegt.

00:13:24: Und ab und zu ist was, was richtig lustig ist.

00:13:27: Dann fallen einem, ich springe dann als Superwoman, Eva Train Destroyer, ich mach so ein Loch mit meinem Laser-Blick, laser ich die Scheibe auf und fliege da raus und denkst, jetzt ein cooler Abgang, weil Eva Train Destroyer nicht im Zug bleiben darf.

00:13:42: und dann fällt mir ein Fuß ab.

00:13:44: Dann sag ich, lass den Fuß dran und dann kommt dann irgendwas, wo der Fuß ganz besonders betont ist.

00:13:50: Es ist halt KI und ist am Ende doch auch wieder enttäuschend.

00:13:53: Deswegen bin ich mir nicht sicher.

00:13:56: Also wie echt diese Sachen sind, die man gerade auf Social Media sieht von Menschen, die sagen, Wahnsinn, wir sind alle verloren.

00:14:03: Diese Branche wird völlig aussterben, zum Beispiel Werbefilme zu machen oder so was.

00:14:07: Klar, es funktioniert leidlich gut und wahrscheinlich kann man, wenn man viel dran rumpromptet oder eben sich ein eigenes Modell baut, kann man sicher noch was machen.

00:14:15: Aber ich bin mir nicht sicher, wie ... Wie schnell der Untergang bevorsteht für gewisse Branchen.

00:14:22: Ich bin gerade eher besorgt wegen dieser Deepfake-Komponente, weil das wirklich allen zeigt, dass Deepfakes wirklich funktionieren.

00:14:29: Ich würde sagen, bei manchen der Videos, meine Mimics sieht wirklich einfach aus wie ich.

00:14:33: Meine Freundin, ich hab's ein paar Freundinnen geschickt, die haben gesagt, hey, warum trägst du jetzt einen Ehring?

00:14:36: Und da hab ich gesagt, nein, das bin ja gar nicht ich.

00:14:40: Wow.

00:14:41: Die waren so, ach so, okay.

00:14:43: Wow, wow, wow.

00:14:45: Das unterscheidet aber dann doch Sora II.

00:14:48: oder zumindest sind es diese Anwendungen von den Diensten, die es sonst um Netz gibt, mit denen ich ja dich schon gediebt faked habe oder mit denen ich ja viel umprobiert habe, wo es ja eigentlich in Anfangszeichen nur darum geht, einen Avatar zu erstellen.

00:15:01: Und diesen Avatar kann ich dann ganz gezielt sagen lassen, was ich eben möchte.

00:15:07: Da ist dann sozusagen jetzt bei Sora II noch ein Stückchen mehr generatives Momentum dabei, was ich find das ganz interessant, weil das scheint so ein bisschen als haben man bei Open AI sich eben so überlegt, wir wollen jetzt mal was machen, was Spaß macht.

00:15:21: Also was, ich mein, das ist ja Unterhaltung pur, ne?

00:15:24: Und einfach was ist nicht so ein, gleich so ein.

00:15:28: okay, damit kann ich besser coden oder damit kann ich irgendwie schneller besser Texte oder was weiß ich, ich mein sonst was auf das nächste.

00:15:37: Effizienzlevel heben, sondern es geht ja tatsächlich irgendwie um Spaß und wahrscheinlich auch so ein bisschen in der Hoffnung, dass es dann viral geht.

00:15:44: Ich muss gerade so dran denken an das Italian Brain Rod.

00:15:47: Ich weiß nicht, ob du das kennst.

00:15:48: Eva, wie viel TikTok.

00:15:50: Italian Brain Rod?

00:15:51: Nein.

00:15:51: Du hast doch

00:15:52: doch nichts

00:15:52: gehört.

00:15:53: Okay, da

00:15:54: sind vielleicht nicht auf TikTok.

00:15:56: Jede Woche Podcast, damit du die Waben mehr, die Mädchen denken, wenn du es lernst.

00:16:02: Ja, wir sind so

00:16:05: surreal, KI-generierte Bilder und Videos von so verrückten Kreaturen mit pseudo-italienischen Namen.

00:16:13: Und Brainrod deswegen das Gehirnfeule, weil es so als super flacher Content gilt.

00:16:31: Es ist im

00:16:40: Prinzip das erste KI-Meme, was es gibt, was es gab.

00:16:44: Also, gegen so Anfang, zwanzig, zwanzig, viral, und hat sich also ... Einfach immer ist ein totales Phänomen, also diese Figuren, die daraus entstanden sind, also die hatten irgendwie der ersten Jahreshälfte, fünf, fünfzig Millionen Views, also gerade so JenZ, JenAlpha, hat da einen riesen Spaß dran.

00:17:06: Und genau, aber daran musste ich einfach so denken, weil bei Italien-Brainroad hat das noch ein bisschen vorgemacht, wie solche Trends dann viral gehen können und dann so eine große ... Ja, so einen großen Zuspruch irgendwie in einer Masse finden, wo mir das ganze Thema jetzt begegnet ist und worüber ich mir schon Gedanken mache, jetzt mal abgesehen von irgendwie sowas wie Unterhaltung, was sich jetzt, was hat das, unsere Gehirne verrotten, eigentlich, was ich jetzt überhaupt nicht

00:17:37: ... Kann durchaus passieren, nicht so abwägig.

00:17:39: Was

00:17:39: ich jetzt gar nicht so schlimm finde, ist auch eher das, was du gesagt hast, nämlich dieses ... Inwiefern verändert es, wie wir Wirklichkeit wahrnehmen?

00:17:48: Also ich hatte kürzlich bei For Offer Media einen super spannenden Bericht gelesen und auch gehört im Podcast, die berichtet haben, wie unheimlich gut KI generierte History-Videos funktionieren.

00:18:03: Und wie massiv solche Geschichtsvideos auf YouTube wachsen.

00:18:08: Und da ist dann nichts mehr echt.

00:18:10: Also das heißt, die Bilder sind KI generiert.

00:18:14: Die Geschichte ist KI generiert.

00:18:16: Die Stimme ist KI generiert.

00:18:18: Und die Videos recyceln einfach vorhandene Informationen aus dem Netz.

00:18:23: und sind so eine Art vereinfachte Version der Vergangenheit.

00:18:27: Und die bekommen Views, und die bekommen Clicks, und die Leute gucken das, und das Problem ist halt einfach, so wird auf eine Art Geschichte neu geschrieben.

00:18:38: Und ich finde halt, wenn wir am Ende die Geschichte, also sozusagen uns einfach neu erzählen, anfangen, Dinge wegzulassen, sagen, ja, weiß ich nicht, Hexenverfolgung, war scheiße, lassen wir einfach weg.

00:18:53: Oder Dinge,

00:18:53: die man nicht so genau weiß, werden mit irgendwas gefüllt.

00:18:56: Die KI-Geschichte gibt es einfach Sachen, und man weiß das am Ende nicht genau.

00:19:00: Es gibt widersprüchliche Aufzeichnungen, man weiß es nicht.

00:19:03: Und KI ist ja gut darin, oder macht es ja quasi bei default, solche Lücken einfach zu füllen mit irgendwas.

00:19:09: Man muss, glaube ich, gar nicht böse oder naiv sein und sagen, wir lassen die Sachen weg, die uns nicht gefallen, sondern es reicht, die Dinge zu nutzen und dann wird Geschichte.

00:19:20: umgeschrieben.

00:19:22: Und ich finde, das merkt man ja auch an so Kleinigkeiten, wie dass die KI zum Beispiel mir einen Ehring an den Finger macht, dass sie halt extrem normiert auch auf eine Art.

00:19:29: Also da werden wahrscheinlich die großen Ereignisse werden größer, die kleinen werden kleiner, Minderheiten werden dann erst recht vergessen.

00:19:36: Also ich glaube tatsächlich, dass es Echt eine große Gefahr.

00:19:38: Ich weiß, ich habe im Studium in einer KZ-Gedenkstätte geforscht und habe auch meine Abschlussarbeit darüber geschrieben.

00:19:45: Und da war auch so eine große Frage, weil viele Dinge nicht mehr existieren in KZ-Gedenkstätten.

00:19:49: Das war in Ravensbrück, zum Beispiel, da gab es früher ganz viele Barakken und die wurden aber nach dem Krieg direkt wieder abgebaut, weil halt viele Menschen echt krasse Wohnungsnoten hatten.

00:19:57: und dann haben die halt gesagt, da stehen die Barakken rum, geht euch holen, holt euch einfach das Material und die konnte man dann da abbauen und woanders wieder aufbauen.

00:20:03: Und meine Arbeit bestand darin, sie zu suchen, ob es noch welche gibt, die stehen.

00:20:06: die Frage aufgetaucht, wenn es keinen mehr gibt, wäre es sinnvoll, die Nacht zu bauen.

00:20:12: Und da gab es eine große Diskussion und da wurde immer gesagt, nee, das ist der Anfang der Disgnisierung der Geschichte, dass wir Dinge nachbauen, die nicht wirklich existiert haben.

00:20:20: Und damals dachte ich, das ist vielleicht ein bisschen streng, aber jetzt, vielleicht haben die sowas kommen sehen, wenn man einmal anfängt, damit Dinge nachzugenerieren, die man nicht mehr hat oder von dem man nicht genau weiß, wie sie waren, rennt man natürlich genau.

00:20:36: in so einen Teufelskreis rein.

00:20:38: Und wie gesagt, mit KI, mit allem, was über Bayes und Verzerrungen und so weiter wissen, weiß man ja eigentlich, kann man ganz klar sagen, dass das in keine gute Richtung geht.

00:20:48: Und gleichzeitig sehe ich das auch, das große Interesse von Menschen, eben Dinge zu sehen, die man nicht mehr sehen kann.

00:20:52: So wie eben diese Diskussion über KZ-Berakten eben auch aufkam.

00:20:56: Es wäre doch gut für die jungen Menschen, wenn die sehen könnten, wie es hier ausgesehen hat.

00:21:00: Und wenn es eben nicht nur ein großer Lehrerplatz war, wäre es eben jetzt in Ravensbrück.

00:21:04: Ja, super spannendes und ja, ein schlimmes Thema auch.

00:21:10: Ja,

00:21:10: und ich denke, was noch so dazu kommt, ist, je mehr KI-Inhalte konsumiert und geleigt werden, dass du ... stärker werden dann unter Umständen auch menschlich generierte Inhalte weiter an den Rand gedrängt.

00:21:24: Und jetzt im Beispiel dieser Geschichtsvideos ist es so, es gibt so ein richtiges History-YouTube, gibt ja auf YouTube für alles irgendwie so ein Rabbit Hole, aber es gibt sehr erfolgreiche Geschichts-YouTubers, die sich mit unheimlicher Mühe diese Videos dann teilweise über Jahre Bücher lesen, recherchieren, dahin fahren an die Orte der Schlachten und so weiter.

00:21:47: Und wenn dann KI in Zukunft mit so einfachen Mitteln, die Stimme, und die Stimme klingt super, ne?

00:21:53: Die Geschichte, die dann davor gelesen wird, es ist einfach sanft und sah ich, sag ich mal.

00:22:00: Die Bilder, die da verwendet werden, das sind immer so Fotos, die wie in so einer ewigen Slideshow einfach dann dazugeneriert werden sind, ne?

00:22:09: Und ich denke, das ist schon ein Problem, wenn auch journalistische Produkte, Recherchen, Podcast einfach untergehen in einem See an ... in einem See an Videos, an KI-generierten Videos.

00:22:23: Und ... Die

00:22:24: halten natürlich oft dann auch bunter und lebendiger sind, ne?

00:22:27: Weil sie halt nicht die Not haben, dass sie sich an authentisches Material halten müssen.

00:22:32: Und dann ist es viel einfacher, ein Engaging unterhaltsames Video zu machen.

00:22:36: Und die Gefahr ist groß, dass es auch eine Zielgruppe gibt dafür, womöglich zu wechseln, dass sich Seegewohnheiten ändern und so weiter.

00:22:42: Ja, von daher kann man schon ... sehr kritisch sehen, wie schnell das alles schieffühlt.

00:22:47: Ich bin gespannt, wie sich das entwickelt.

00:22:49: Ich finde es interessant, was du eben gesagt hast, wie sich möglicherweise Sehgewohnheiten ändern, weil es kann natürlich auch einen umgekehrten Effekt geben.

00:22:58: Mir wurde bei dem Gucken von dem Zora-Feed irgendwann doch irgendwie so voll langweilig, ne?

00:23:03: Also, weil das war irgendwie dann am ... Man findet es erst witzig, und dann ist es so, erst nichts überrascht dich mehr, irgendwie ... Keins im Oldman, der mehr aus einem Laptop raussteigt.

00:23:12: Alles ist einfach nur ...

00:23:13: Okay, okay.

00:23:13: Du sagst, mein Video hatte ich nicht überrascht.

00:23:15: Doch, das hat

00:23:15: mich überrascht, weil ich nicht die Erste was gegeben habe.

00:23:16: Ich fand es

00:23:17: eigentlich eine gute Idee von mir.

00:23:18: Ich hoffe auch, dass es nicht so war, dass es schon ganz viele Ähnliches gab.

00:23:22: Nein, aber weißt du, was ich meine, man sieht dann immer mehr und mehr ... und dann ist nichts mehr überraschend, weil alles ist verrückt irgendwie.

00:23:31: Und das ist so ein bisschen das, was ich schon, also Feststelle auf jeden Fall bei so PowerPoint-Präsentationen oder so, wenn du das Gefühl hast, es ist jedes Bild nur noch KI generiert und hast du einfach das Gefühl, das ist alles eine... weiß ich nicht, cyberpankige Soße.

00:23:49: Deswegen würde ich jetzt gar nicht sagen, es gibt nur diesen einen Trend und diese eine Richtung.

00:23:52: Wir werden uns alle in einem AR-Slot verlieren.

00:23:55: Das kann auch sein, dass es gerade für die Inhalte, die eben nativ sind und die noch überraschenden, ja, dass die halt gerade funktionieren.

00:24:06: Ja, ich denke, es wird am Ende für alles... für alles eine Zielgruppe geben.

00:24:10: Und so wie bei allem kann es auch sehr gut sein, dass es so eine Rückwägung gibt, dass Leute sagen, okay, es ist so so wichtig, nur authentisches Material zu bekommen, dass es da wieder einen eigenen Markt auch dafür gibt.

00:24:22: Aber die Gefahr ist halt, dass das ein Nischenmarkt ist.

00:24:24: Dass auch unser Job irgendwie am Ende in eine Nische kommt, weil Menschen sich damit zufrieden geben, dass Dinge halt so nachgeneriert sind, wie sie gewesen sein könnten und nicht, wie sie gewesen sind.

00:24:37: Ja, eigentlich bin ich optimistisch, dass gerade News oder gerade dieses, was ist real, was passiert wirklich in meiner Umwelt, dass das was Menschen auch wissen wollen, dass es sich eben nicht damit zufrieden geben zu sagen, es hätte so gewesen sein können.

00:24:49: Die statistische Wahrscheinlichkeit ist groß, dass es keine Ahnung, dass in Indien gerade ein Kind das und das tut, sondern dass die gerne wissen wollen, gibt es dieses Kind wirklich?

00:24:56: und eben Recherchen sehen wollen von Menschen, die mit ihrer Stimme dafür stehen, mit ihrem Beruf dafür stehen, dass es real ist.

00:25:03: Ja, aber es hat mich, also es stimmt schon, Zora II lädt dazu ein, solche Sachen weiterzudenken.

00:25:11: Und so ein bisschen hoff ich, dass die Menschen diese Gefahren auch sehen.

00:25:16: Und dass wir als Gesellschaft das soweit eingehickt bekommen, dass nur die sinnvollen Anwendungsfälle sich durchsetzen, soweit es die überhaupt gibt.

00:25:29: Damit würde ich sagen genug zu weit voraus geschaut.

00:25:32: Jetzt schauen wir nicht ganz so weit voraus.

00:25:34: Es steht eine ganz wichtige und präsente Entscheidung an, wo viele derzeit Alarm schlagen allen voran.

00:25:41: Die Chefin von Signal, dem Super Messenger, den Eva und ich auch total gerne benutzen.

00:25:47: Falls ihr ihn nicht habt, installiert ihn euch.

00:25:49: Die sagen... Es besteht die Möglichkeit, dass hier die Verschlüsselung ausgehebelt wird und dass wir uns sogar aus Deutschland und der EU zurückziehen.

00:25:57: Und darüber sprechen wir gleich.

00:26:10: Ja, herzlich willkommen, Jiska.

00:26:11: Schön, dass du wieder bei uns bist, unsere Top-Mobile-Security-Super-Experten.

00:26:19: Danke, dass du da bist.

00:26:20: Danke für eure Einladung.

00:26:22: Welcome back, sagt man, so schön.

00:26:24: Schön, dass du wieder da bist.

00:26:26: Jessica, das Thema drängt ja.

00:26:28: Die EU steht ja kurz vor einer Entscheidung zur Chat-Kontrolle.

00:26:33: Nur einmal ganz kurz nochmal zur Wiederholung.

00:26:35: Da geht es um die Frage, ob Messenger wie WhatsApp-Signal oder Telegram verpflichtet werden könnten, private Chats.

00:26:46: vor dem Schreiben zu scannen oder beim Schreiben.

00:26:49: Man hat geschrieben, dann gescannt, aber das klären wir gleich.

00:26:52: Begründet wird das Ganze mit einem notwendigen Schritt gegen die Verbreitung von missbräuchlichen Fotografien von Kindern.

00:27:01: Für andere ist es ein riesiges Überwachungsrisiko.

00:27:05: Ich habe am meisten Lust, dass wir erstmal echt ganz technisch anfangen.

00:27:11: Was genau soll der überhaupt gemacht werden?

00:27:14: Ich kann mir das gar nicht vorstellen.

00:27:16: Ich sehe immer nur so einen blauen Strich, der über mein Telefon von oben nach unten war.

00:27:20: Wie wie wie wie wie wie wie wie wie wie wie wie als würde ich gescannt, aber vielleicht einmal von vorne.

00:27:26: Was will man da überhaupt einbauen?

00:27:29: Also die grundlegende Diskussion, die wir da haben, ist an welcher Stelle darf man schauen, was in der Nachricht verschickt wird.

00:27:38: Es wurde irgendwie mal festgelegt, es ist vielleicht schlecht, wenn man kein Briefgeheimnis mehr hat, also darf man ein Brief nicht einfach öffnen.

00:27:46: Und das ist sehr analog auch in der Chatkontrolle.

00:27:48: Also wir haben beschlossen, es ist nicht gut, wenn Leute in alle Chatnachrichten während die verschickt werden reinschauen können.

00:27:56: Und jetzt schauen wir eben analog dazu.

00:28:01: Naja, kann man vielleicht in ein Brief reinschauen?

00:28:05: Werden man ihn schreibt, werden man ihn eintütet, werden man ihn frankiert?

00:28:08: Also, wir sind so ein bisschen in dieser technischen Diskussion.

00:28:12: Kann man vielleicht vorher schon reinschauen oder kann man vielleicht reinschauen, wenn der Brief dann beim Adressaten wieder ausgepackt wird und geschaut wird, was ist drinne?

00:28:22: Es kommt deswegen zu dieser Diskussion, weil man versucht, Verschlüsselung doch noch so ein bisschen zu retten, sozusagen, oder?

00:28:29: Weil die Idee ist, dass die Nachrichten auf dem Weg zumindest nicht ... angreifbar gemacht werden soll.

00:28:37: Also technisch gerettet wird daran gar nichts.

00:28:40: Ich glaube, das ist eine rein rechtliche Diskussion.

00:28:43: Aber es ist völlig egal, also das können wir uns selber ja auch sehr einfach vorstellen.

00:28:48: Es ist völlig egal, ob jemand reinschaut, bevor es verschickt wird oder während es im Transit ist, macht keinen Unterschied.

00:28:57: Aber es wird eben Irgendwie so hingebogen und so argumentiert als Seisenunterschied.

00:29:01: Genau, es wird doch behauptet, dass sei sicherer, weil es eben die Verschlüsselung nicht so sehr gefährde, wie wenn man sie ganz knackt, sodass man sie an jedem Zeitpunkt schließen

00:29:12: kann.

00:29:12: Wir reden um den heißen Brei rum.

00:29:14: Hier ist gar

00:29:15: kein Brief

00:29:16: aufmachen.

00:29:17: Blauer Strich, der vom Telefon von oben nach unten.

00:29:20: Faded nach der Schreibung.

00:29:22: Oder der Typ im Kopf,

00:29:23: der während dem Schreiben schon merkt, dass du gerade was Böses aufschreiben möchtest und dich

00:29:27: stoppt.

00:29:27: Ja, genau.

00:29:27: Das wäre natürlich das Beste für die Strafverfolgung, wenn man das so vorhätte.

00:29:32: Wie soll das technisch funktionieren?

00:29:35: Die Idee ist, dass man eben schon auf dem Handy selbst schaut.

00:29:40: Das heißt, dass sich irgendwelche Bilder oder irgendwelche Texte bzw.

00:29:44: reden inzwischen nur von URLs und Bildern.

00:29:46: Also sprich, URL ist so ein Link, den ich verschicke.

00:29:49: dass man nur die abgleicht, weil bei Texten ist es noch deutlich schwieriger, das in Kontext zu setzen, bestimmte Wörter in Kontext zu setzen.

00:29:55: Das heißt, inzwischen ist man schon dabei, dass man sagt, na ja, wir schauen nur nach bestimmten Bilder und nach bestimmten Links und gleichen die ab.

00:30:04: Jetzt ist es so, dass es natürlich schwierig wäre zu sagen, um das abzugleichen, laden wir das auf die Handys, diese missbräuchlichen Links und Bilder, weil dann hätten wir ja dieses Material.

00:30:18: schon auf den Handys.

00:30:19: Das heißt, stattdessen schickt man da so Hashes davon hin.

00:30:23: Also ein Hash kann man sich ein bisschen vorstellen wie eine Abkürzung, nur dass es eben eine sehr eindeutige Abkürzung ist.

00:30:31: Idealerweise eine sehr eindeutige Abkürzung, auch das ist wieder hoch schwierig.

00:30:35: Und das heißt, dass auf dem Handy eben gescannt wird nach diesen Hashes, während ich die Nachricht schreibe oder halt bevor ich sie dann verschlüsselte.

00:30:47: Das heißt aber auch, selbst wenn ich jetzt als Sicherheitsforscherin da reinschauen würde in so ein Handy und versuchen würde rauszufinden, wonach wird da gescannt, haben die Hashes ein Problem.

00:31:00: Die sind nicht umkehrbar.

00:31:01: Ich meine, das ist auch Absicht.

00:31:02: Ich möchte ja nicht diese Bilder wiederherstellen können mit so einem Hash.

00:31:07: Gleichzeitig heißt es aber auch, dass technisch gar nicht möglich ist, zu sagen, wonach da gescannt wird.

00:31:16: Und es gibt auch keine Möglichkeit, diese Technologie einzuschränken, nachdem was da gescannt wird.

00:31:20: Also wir können jetzt sagen, wir machen das gegen Kindesmissbrauch, aber vielleicht wird da nächstes Jahr auch meine politische Gesinnung oder sowas überprüft in den Nachrichten, die ich schreibe.

00:31:32: Und es gibt einfach keine Unterscheidungsmöglichkeit.

00:31:34: Also niemand kann kontrollieren.

00:31:37: wo nachgescannt wird.

00:31:38: Lass uns unbedingt noch einmal bei der Technik bleiben, weil das habe ich noch nicht ganz verstanden.

00:31:44: Also was ich verstanden habe ist... Es gibt eine Datenbank bei einer Organisation und die haben ganz viele Hashes von missbräuchlichen Darstellungen.

00:31:53: Also da sind sozusagen, da werden diese Fotos gesammelt, irgendjemand hat die sich angeschaut und dann werden daraus diese Hashes, diese verschlüsselte Zahlen und wo man, da wird also diese Hasche erzeugt, diese ganz lange Zahlen und vielleicht Buchstabenkombination.

00:32:10: Und die, die ist eindeutig, wie so ein Art Fingerabdruck, oder soll eindeutig sein.

00:32:15: Und das wird dann abgeglichen, mit dem, ob ich auf meinem Telefon so ein Foto, was eben nachweislich eine missbräuchliche Darstellung ist, ob ich so ein Foto auf meinem Handy habe.

00:32:27: Aber sag mal, wird dann in dem Moment, baut mein Telefon dann immer eine Verbindung zu dieser Datenbank auf, also sozusagen ... Also, funkt mein Telefon ohne, dass ich das weiß, dann hinten rum mit irgendeiner Organisation, die dann Sachen abgleicht.

00:32:44: Wie funktioniert das technisch?

00:32:46: Ist es sozusagen im Messenger eingebaut?

00:32:49: Ist es auf der Filmware?

00:32:50: Ist es im Handy eingebaut?

00:32:52: Also, was passiert auf meinem Handy im Hintergrund?

00:32:55: Also wir reden gerade davon, dass es in die Messenger eingebaut wird.

00:32:59: Wir hatten schon mal von der Weile eine Diskussion, ob man das nicht direkt in die Software auf dem Telefon, sprich iOS oder Android einbauen kann, weil da liegen ja auch meine ganzen Bilder.

00:33:09: Also das ist eine Diskussion, die wir von der Weile mal hatten, kann man nicht alle Bilder auf meinem Telefon vorsorglich scanen.

00:33:17: Und da gab es ein ganz großes Nein.

00:33:19: Und jetzt reden wir über die Frage.

00:33:21: okay, aber wenn ich sie dann mit einem Messenger versende.

00:33:25: kann man sie dann scanen.

00:33:27: Das ist auch wieder, also ich glaube von der technischen Auswirkung her ist es ungefähr das gleiche.

00:33:34: Aber am Ende wird immer ein Art Tunnel aufgemacht sozusagen und es wird immer so ein Art geheimer Kanal geöffnet.

00:33:41: oder weil wir müssen jetzt so ein bisschen drauf kommen, weil du hast es ja schon angedeutet, dass es ein großes Problem ist.

00:33:49: Genau, also ich glaube für diese Datenbank, die muss halt regelmäßig abgeglichen werden.

00:33:54: Ich weiß nicht, ob das da dauerhaft ein Link bestehen muss.

00:33:57: Man könnte theoretisch auch diese Hashes als Datenbank sich runterladen, wenn sie nicht zu groß ist.

00:34:02: Dann müsste man nicht diese permanente Verbindung haben.

00:34:06: Aber man muss auf jeden Fall eine Verbindung aufbauen, um was zu melden.

00:34:10: Dadurch wird es dann aber auch, also wenn man die Verbindung nur bei Bedarf aufbaut, wird es dann auch beobachtbar, bei welchen.

00:34:18: Bildern, was gefunden wurde.

00:34:20: Insofern ist es vermutlich die technische Lösung.

00:34:23: Alle Hashes einfach direkt zu melden, aber das weiß ich nicht genau, wie das technisch dann umgesetzt werden wird.

00:34:29: Da gibt es verschiedene Möglichkeiten.

00:34:33: Und jetzt sagst du, weil das Hashes sind und irgendeine Stelle quasi die Hoheit hat, zu entscheiden, welche Hashes, welche Websites, welche Bilder das Problem sind, besteht die Gefahr, dass zum Beispiel in Diktaturen, dass die einfach ganz andere Dinge ins Problematisch definieren.

00:34:49: Und niemand kann überprüfen, wonach die suchen, weil man die Hashes nicht rückrechnen kann.

00:34:53: Ja, genau.

00:34:56: Und ein weiteres Problem.

00:34:58: So verstehe ich auch zum Beispiel die Signal-Foundation, also der Messenger-Signal, die jetzt angekündigt haben, dass sie sich eventuell aus der EU zurückziehen würden als Messenger.

00:35:09: Die verstehe ich so, dass dadurch, dass dieser Kanal sozusagen geöffnet werden muss, wird ja dann vorgeschrieben per Gesetz.

00:35:16: Ihr müsst es jetzt machen.

00:35:18: Dadurch eigentlich die gesamte Kryptografie, also die gesamte Verschlüsselung.

00:35:22: Der Messenger, was der Signal so auszeichnet als Dienst, deswegen ist ein Grund, warum ich das Signal so wahnsinnig gerne benutze, weil man da auf jeden Fall immer verschlüsselt kommuniziert.

00:35:31: Ein Antraggrund ist natürlich, dass nicht Meter dahinter steckt, also dass eben Stiftung dahinter steckt, kein kommerzieller Anbieter.

00:35:39: Aber zurück, die sagen, in dem Moment, wo wir so eine Art Hintertür einbauen, ist unser Messenger im Prinzip kaputt und wir erfüllen nicht mehr das Versprechen, dass wir unseren Benutzerinnen geben.

00:35:51: Ja, das stimmt tatsächlich.

00:35:54: Vielleicht noch dazu Signal und WhatsApp benutzen sogar die gleiche Verschlüsselung.

00:35:58: Also, die sind, was die Verschlüsselung angeht, gleich sicher.

00:36:01: Und wir reden jetzt bei beiden davon, ob man das aufbricht und auch bei weiteren Messengers.

00:36:05: Also gibt inzwischen ein Haufen Messengers diese wirklich sichere Ende-zu-Ende-Verschlüsselung implementieren.

00:36:12: Und was noch ein sehr großes Problem ist, sagen wir Signal, würde jetzt dem europäischen Markt nachgeben und nur für die die europäischen Apps das irgendwie einbauen.

00:36:23: Also irgendwie darüber, über welchen App Store, in welchem Land man das runter lädt oder so das filtern.

00:36:28: Dann ist das Problem, in dem Moment, wo eine Person in den USA mit einer Person in Europa schreibt, wird dann ja auch kleinzeitig gescannt, auch bei den empfangenen Personen.

00:36:41: Und das führt dann zu den gleichen Problemen.

00:36:44: Also in dem Moment, wo man an einem Ende der Kommunikation jemanden hat, der oder die gescannt wird, bricht die Sicherheit von dem Chat eben auf.

00:36:55: Weil dann meine Nachricht auf der anderen Seite auch entschlüsselt werden oder halt gesehen werden.

00:37:01: Und deswegen ist es konsequent zu sagen, dann gehen wir aus dem EU-Markt lieber raus.

00:37:07: bedeutet das, so wie Meredith Whitaker sagt von der Signal Foundation, dass dadurch dann die gesamte Verschlüsselung geschwächt wird, welche möglichen neuen Angriffsflächen entstehen denn dadurch?

00:37:20: Also welche weiteren Probleme?

00:37:22: Wir haben jetzt schon gesprochen über das Thema ja, dann wird dann vielleicht morgen nach anderen Inhalten gescannt.

00:37:28: Okay, da kann man ja sagen, das wird uns in Deutschland nie passieren.

00:37:31: Also was natürlich... Eine vielleicht naive und schöne Vorstellung ist von unserem Land und unserer Demokratie.

00:37:38: Aber es ist ja eigentlich noch mehr, wenn die gesamte Verschlüsselung geschwächt wird.

00:37:42: Also ich denke da an auch an Kriminelle, an vielleicht andere Staaten.

00:37:46: Was bedeutet das denn für die gesamte, nenn's mal Sicherheitsarchitektur von so einem Messenger?

00:37:53: Also es ist so, dass ein Problem ist eben, dass andere Helges hochgeladen werden könnten.

00:37:59: Aber das andere große Problem ist, dass eben wir eine weitere Verbindung haben, die da aufgebaut wird zu irgendeinem Server.

00:38:08: Da könnte man sogenannte Machine-in-the-Mittel-Angriffe auch fahren.

00:38:11: Also, man könnte probieren, in diese zusätzliche Verbindung irgendwie reinzukommen, die aufzubrechen, dahin ist es hochzuladen.

00:38:18: Und wir haben damit auch eine Funktionalität, die eben in dem Messenger eingebaut ist.

00:38:24: Und ja, wenn man in diesen Gesamtsystem was angreifen könnte, könnte man es vielleicht schaffen.

00:38:30: dass jemand fälschlicherweise was vorgeworfen wird.

00:38:34: Also sagen wir jemand, das Handy wird irgendwie eingebrochen, irgendwie kontrolliert.

00:38:41: Dann wäre es ja auch möglich, da dran was zu machen, um eine Person gezielt zu melden, obwohl die gar nichts falsch gemacht hat.

00:38:48: Und dadurch, dass es diese Hesches sind, wird es auch sehr schwierig zu sagen, ich hab doch nichts gemacht, weil man weiß ja gar nicht, welches Foto, welcher Link das ausgelöst hat.

00:38:57: Also ich denke, da ist ein Haufen.

00:38:59: Potenzial sowohl Angriffsoberfläche in diesem Mechanismus selbst, also in dem wie das technisch implementiert ist, als auch darin, Leuten was unterzuschieben.

00:39:11: Du hast vorhin gesagt, das hat auch Auswirkungen für dich, für euch als SicherheitsforscherInnen.

00:39:16: Was hast du damit gemeint?

00:39:19: Also, ein Trend, den ich da drin gerade sehe, ist, dass man eben sagt, ja, ihr dürft Handys weiter sicher machen, ihr dürft ... Kommunikation weiter verschlüsseln, aber wir hätten gerne eine Hintertür.

00:39:31: Und das ist ein ziemlich gefährlicher Trend.

00:39:33: Also zu sagen, ihr dürft es weiterhin sicher machen, aber bitte lasst uns noch rein.

00:39:38: Ja, ihr dürft eure Haustür weiter abschließen, aber bitte gibt uns zwei Schlüssel.

00:39:46: So wie ich das verstehe, ist da Sicherheit auch ein Stück weit vielleicht ultimativ, dass man sagt, in dem Moment, wo ich eine Tür einbaue, ist halt eine Tür drin, Leute.

00:39:57: Und das ist vielleicht gar nicht nur mit einem Schlüssel und einem Schloss, sondern vielleicht, dass es diese Tür überhaupt gibt, ist ein Problem, weil dadurch, dass es die Tür gibt, ist einfach ein neuer Angriffsvektor, eine neue Angriffsfläche überhaupt da.

00:40:12: Also, das ist ja ein Stück weit auch ein Widerspruch in sich und vielleicht eine Folgefrage daraus, warum haben wir überhaupt so eine Hintertür?

00:40:20: Also, ich meine, dass man Telefone hacken kann, das wissen wir seit dem Staatstrojaner.

00:40:25: Ja, wobei es so ist, dass Handys auch immer sicherer werden und gleichzeitig unsere Leben immer digitaler werden.

00:40:31: Also früher, wenn man jemanden überwachen musste, dann war es halt ein, okay, man richtet einen Laserpointer auf das Fensterglas und guckt die Reflektionen an oder man kommt als Hausmeister in die Wohnung und bringt ein Mikrofon an.

00:40:43: Also das war das, wie man es früher gemacht hat.

00:40:46: Vermutlich macht man das ab und zu heute noch so.

00:40:48: Aber es ist halt schon sehr verlockend.

00:40:50: Jeder hat die ganze Zeit so eine Kamera und so ein Mikrofon in der Tasche.

00:40:56: Und da ist natürlich auch die Verlockung groß zu sagen, okay, warum müssen wir überhaupt noch irgendwo hingehen und ein Mikrofon anbringen?

00:41:04: Wir können eigentlich alle Kriminelle doch permanent auch so überwachen.

00:41:09: Als ersten Gedankenstritt und das verstehe ich auch.

00:41:12: Also das ist ein sehr sehr logisches Ding zu sagen warum machen wir es uns nicht einfach, weil ja fast alle immer ein Mikrofon dabei haben.

00:41:21: Gleichzeitig ist es natürlich auch so, dass die Cyberkriminalität sehr zugenommen hat.

00:41:26: Also Leute versuchen nicht nur ein Mikrofon abzuhören, sondern ich mache mein Online Banking mit dem Handy und kann da auf mein ganzes Geld zu greifen.

00:41:35: Ich mache meine Arztesuche mit dem Handy habe da meine elektronische Patientenakte den Zugriff da drauf.

00:41:41: Also ganz viele wirklich private Daten habe ich auch alle auf dem Handy.

00:41:46: Und deswegen ist es ein Ziel geworden, die Handy so sicher zu machen, dass wir das machen können.

00:41:51: Also, dass wir wirklich sagen können, ja, es ist sicher, dass du deinen Banking drauf hast, dass du deine Gesundheitsdaten drauf hast, dass du vielleicht sogar ... einen elektronischen Personalausweis oder Reisepaster drauf hast, einen elektronischen Führerschein.

00:42:04: Das ist das Sicherheitslevel, was wir auf den Geräten erreichen wollen.

00:42:08: Das heißt aber auch, dass so einen Starztrojaner nicht unmöglich geworden ist, aber sehr viel teurer geworden ist.

00:42:16: Denn dann Starztrojaner heißt ja, ich brauche Lücken in so einem mobilen Betriebssystem, die ich ausnutzen kann.

00:42:23: Und dann ist halt die Frage, wie teuer ist es, wie sehr skaliert es.

00:42:28: Man kann das sicher für einzelne Personen machen.

00:42:30: Das Problem mit einem Stabstrianer ist, in dem Moment, wo jemand merkt, ich habe den auf dem Handy, kann man eine Analyse machen und kann feststellen, welche Sicherheitslücken der ausgenutzt hat.

00:42:42: Und in dem Moment muss man neue Sicherheitslücken finden.

00:42:44: Und das ist eben ein hoher Kostenfaktor und ein hoher Skalierungsfaktor.

00:42:50: Sprich, wenn man Menschen großflächig überwachen möchte.

00:42:56: dann muss man eben mit so was wie Chat-Kontrolle kommen.

00:42:59: Genau, weil der Ansatz ist ja auch, kommt ja auch von der anderen Seite so ein bisschen, ne?

00:43:02: Du willst nicht ... Also, bei Stastrojan hast du ja, der wird ja, na ja, mittelmäßig gezielt, aber schon noch sehr gezielt eingesetzt.

00:43:10: Ich hab neulich einen Text darüber geschrieben, und klar wurde, dass der teilweise auch bei Kleinkriminalität eingesetzt wird, was eigentlich nicht wofür er nicht gedacht ist.

00:43:19: Aber er wird trotzdem eingesetzt gegen Menschen, tendenziell, wenn man schon einen Verdacht hat.

00:43:23: Und die Chat-Kontrolle soll ja auch Menschen finden, die sonst quasi gar nicht auffallen würden, weil sie halt Tets verschicken, Verschlüsselte.

00:43:34: Das andere, was ja dann noch eine Rolle spielt, wenn man so großflächig überwachen will oder sehen will, was Menschen tun, aber halt auch nicht sehen, das ist ja so ein bisschen, dieses Versprechen ist ja, wir schauen nicht rein, das macht eine KI, da schaut kein Mensch, in der Regel erst mal kein Mensch drauf.

00:43:47: Die KI guckt erst mal, ist da irgendwie was Ähnliches.

00:43:51: vorhanden.

00:43:52: Du hast gesagt, dass die Lösung ist, das mit diesen Hashes zu machen.

00:43:55: Ich hatte von der ganzen Zeit mal geschrieben über einen Vater aus den USA, der von Google Probleme bekommen hat, weil Google Cloud dieses mit KI-Scanne nach Nacktarstellungen von Kindern.

00:44:09: eben schon freiwillig gemacht hat.

00:44:10: Da sind ja einige der Konzerne, sind ja vorher schon freiwillig aufgesprungen, um die Regulierung zu entgehen.

00:44:16: Und Fotos gefunden haben von seinem nackten Sohn.

00:44:19: Und der Hintergrund war der, dass der Entzündung hatte und der Vater hat ein Foto gemacht und hat es an die Kindererstin geschickt.

00:44:25: Das war so eigentlich so.

00:44:25: was, was man, also ich würde sagen Eltern kennen das Thema, dass man Fotos von verschiedensten Körperteilen von Kindern macht, um es der Kindererstin zu schicken.

00:44:32: Gerade in der Pandemie, wo man dann so Videosprechstunden hatte und eben nicht mehr so auf persönlich hin ist.

00:44:36: Und der dachte dann, als der Google sein E-Mail-Account gesperrt, dachte der, das kann man ja einfach aufklären.

00:44:43: Ich zeig denen die Fotos, erkläre denen die Geschichte, die Kinder als auch bestätigt, ungut ist.

00:44:48: Aber nee, war nicht so, weil Google hat gesagt ... Es ist uns ganz egal, was da war.

00:44:53: Unsere KI hat hier entdeckt.

00:44:54: Du hast hier Kinderpornografie auf deinem Handy oder deinem E-Mail-Account, auf deiner Cloud.

00:45:00: Du kriegst dein Account nicht wieder.

00:45:01: Und der hat ja halt, so wie das in den USA, viele machen einfach alles auf seinem Google-Account, die Fotos.

00:45:06: Alle E-Mails, also alles, der hat quasi richtig viel verloren.

00:45:10: Und hat dann, obwohl es ein Kind ein Gerichtsprozess gab und der Richter hat gesagt, ja, ich sehe ja hier, also ich hab's jetzt ja verstanden, was der Hintergrund ist, das ist nicht in Ordnung, das blieb einfach dabei.

00:45:19: Also Google hat sich dann einfach totgestellt und gesagt, wir rühren da nichts mehr an.

00:45:23: Ist das, ist so was denn gelöst?

00:45:25: jetzt, wenn man sagt, es geht nur um ganz konkrete Bilder und Hashes und Links, die mit Hashes hinterlegt werden?

00:45:32: Ja, ich glaube, die Idee zu sagen, man sucht nur nach wirklich ganz bestimmten Bildern kommt daher.

00:45:40: Also, dass man eben nicht aus Versehen andere Darstellungen auch irgendwie matcht.

00:45:45: Aber natürlich skaliert es nicht so sehr.

00:45:48: Die KI skaliert viel besser, weil die eben viel generischer solche Bilder erkennen kann.

00:45:53: Aber die KI kann eben auch den Kontext nicht unterscheiden.

00:45:58: Also, genau das ist ein Foto für den Kinderarzt oder ... Ist das ein Foto, was ich verbreiten möchte im Rahmen von Kindesmissbrauch?

00:46:08: Kann ja selbst ein Mensch erst mal nicht unterscheiden.

00:46:12: Genau, man muss den Einzelfall dann anhören letztlich.

00:46:15: Das skaliert gar nicht.

00:46:18: Ich meine, ein Mensch könnte vermutlich schon unterscheiden.

00:46:22: Da ist ein Kind, das hat einen Hautauschlag, das ist hoffentlich ein anderer Kontext.

00:46:25: Da ist die KI vielleicht nicht ganz so gut drin.

00:46:27: Aber dennoch, es passieren einfach Fehler.

00:46:30: Und ich finde es schwierig zu sagen, da nutzen wir keine KI, dann passieren keine Fehler.

00:46:35: Ich glaube, so einfach ist es nicht.

00:46:37: Fehler passieren immer in solchen Systemen.

00:46:41: Und es wurde auch schon gezeigt, dass so was angegriffen werden kann.

00:46:44: Auch bei Hashes gibt es sogenannte Hash-Kollektionen, nachdem welches Verfahren benutzt wird.

00:46:49: kann man es vielleicht schaffen, irgendwie ein Katzenvideo oder sowas zu machen, was eben auch darauf matcht und was Leute dann vielleicht weiter teilen, die dann auch, dass sich alle gemeldet werden.

00:47:02: Also es ist nicht so, dass es diese hundertprozentige Sicherheit gibt, dass wirklich jede Person, die da identifiziert wird, jetzt auch wirklich was Missbräuchliches getan hat.

00:47:13: Ich finde, am Ende ist es ja eine große Güterabwägung sozusagen, also nach dem Motto, okay, was wiegt schwerer.

00:47:21: Und ich glaube, das haben wir jetzt noch nicht so intensiv gemacht.

00:47:25: Aber ich denke, auf der anderen Seite steht natürlich auch nach dem Motto, was bringt das überhaupt?

00:47:30: Also wenn man jetzt sagt, okay, wir beschädigen sozusagen unsere... Verschlüsselung, wir beschädigen die Messenger, wir gehen das Risiko ein, dass, wenn es eben doch einen autoritären Staat gibt, wir gehen das Risiko ein.

00:47:44: Also wir machen das alles, muss man natürlich auf der anderen Seite sehen, okay, was bringt das überhaupt?

00:47:50: Eine Frage dazu noch, ist es dann nicht möglich, weil es ist ja... finde ich mit Kriminellen immer so ein Katz- und Maus-Spiel.

00:47:56: Also du implementierst irgendwas, eine Art von Sicherheitsfeature und die finden wieder einen Weg, um außen rumzugehen.

00:48:03: So kann ich mir das zumindest auch vorstellen.

00:48:06: Ist das nicht einfach so das missbräuchliche Darstellung, dann vielleicht über zwei Pixel oder so verändert werden?

00:48:11: Dann wird der Hash anders und zack, ist man raus aus der ganzen Nummer?

00:48:16: Also das Einfachste, was du machen kannst, ja, ist egal ob du ein Android-Phone oder ein iPhone hast, du kannst auch immer Apps installieren, die eben nicht aus dem Google Play Store oder aus dem Apple App Store kommen, sondern du kannst auch immer dir die Apps selber bauen und installieren.

00:48:33: Das heißt, Kriminelle können nach wie vor sich den Messenger bauen, das Signal ist ja Open Source, ja?

00:48:40: Also sie können nach wie vor diese App bauen, die Technologie ist da und ... Genauso weitermachen wie bisher und haben dann einfach den Messenger, der eben nicht die Chatkontrolle

00:48:51: hat.

00:48:51: Sehr nett, wie du sagst, das kann man sich einfach so bauen.

00:48:54: Ich wollte gerade

00:48:54: sagen, machst du das für uns auch,

00:48:57: bitte?

00:48:58: Na ja, ich meine, wir sprechen da ja schon auch von großen Ringen von Menschen, die diese Bilder austauschen.

00:49:04: Und da wird schon eine Person dabei sein, die das so bauen kann, ja.

00:49:09: Ja oder die suchen sich eben andere Wege.

00:49:11: Wenn klar ist, Chats werden überwacht, dann teilt man die Bilder eben anders.

00:49:16: Also beispielsweise über verschlüsselte Cloud-Plattformen, die in keinem, keine Ahnung, EU-Land sind oder nicht in den USA.

00:49:23: Also ich vermute auch, dass es da genug andere Auswege gibt.

00:49:29: Ich hab jetzt öfter mal mit Ermittlerinnen darüber gesprochen, die da sehr emotional sind und die sagen, es ist einfach ... Also, grade in dem Bereich Kinderpornografie sagen, es ist ganz furchtbar, was sie eben für schlimme Sachen sehen und wie schwer es ist, den Tätern auf die Spur zu kommen.

00:49:47: Und die sagen immer, ja, Deutschland ist so furchtbar.

00:49:49: Wir werden immer in unsere Arbeit gehindert.

00:49:50: Immer wenn wir einen Ermittlungserfolg haben, dann nur, weil wir Tipps aus den USA bekommen oder aus anderen Ländern.

00:49:56: Ich hab denen dann schon auch immer gesagt, aber glaubt ihr nicht auch, dass die Chat-Kontrolle da dran vorbeigeht, ist das wirklich wert?

00:50:02: Aber ich hab mich gefragt, was könnte man denen sagen?

00:50:05: Also, was gibt es eine bessere, sichere Methode, deren Arbeit zu erleichtern?

00:50:11: Also, ich verstehe, dass es aus der Sicht der Ermittlerin schwierig ist.

00:50:16: Also, eine Sache, die wir wissen jetzt in diesem konkreten Fall, wenn wir nicht nur über Kriminelle generell sprechen, sondern über Kindesmissbrauch, ist das statistisch gesehen, dass meistens in der eigenen Familie passiert.

00:50:29: Und das heißt, wir kennen eigentlich sogar schon zumindest, na ja, das Täterprofil.

00:50:35: Und man könnte eben auch andere Dinge machen.

00:50:38: Man könnte es irgendwie Kindern leichter machen, sich da irgendwo zu melden.

00:50:44: Das Problem ist, glaube ich, auch sehr stark so ein gesellschaftliches Kind.

00:50:48: Hänge ich ja massiv von meinen Eltern ab und möchte nicht gegen die aussagen.

00:50:54: Und wenn man da eben Angebote schaffen würde, die so was einfacher machen, das wäre, denke ich, auch ein Weg.

00:51:00: Also wir brauchen nicht nur einfach im digitalen Raum was, um das alles zu finden, sondern wir brauchen auch eine soziale Lösung an der Stelle.

00:51:08: Wie so oft, ist Technik löst nicht alles.

00:51:11: Ja, ein guter Punkt.

00:51:14: Jetzt weiß ich zum Beispiel von einem Kollegen von mir, Daniel Mosburger, der da seit Jahren ... daran recherchiert, zusammen mit weiteren NDR-Kollegen, dass es auch an ganz anderer Stelle Möglichkeiten gibt, gäbe, was zu tun, aber dann doch strukturelle Defizite bei den Behörden vorhanden sind.

00:51:32: Also zum Beispiel, wozu die sehr viel recherchieren, ist so die großflächige Abschaltung von Foren.

00:51:40: Von großen Servern, auf denen diese Bilder liegen und getauscht und geteilt werden, also gar nicht so sehr der Einzelne schickt ein Foto irgendwo hin, sondern wirklich massenhaft Bilder drauf liegen.

00:51:53: Und die haben immer wieder Recherchen dazu gemacht und haben dann teilweise selbst den Hostern Bescheid gesagt und gesagt, hey, da liegen missbräuchliche Darstellungen, sodass die Hoster dann reagiert haben und konnten so nachweisen, dass das eigentlich ein Weg ist.

00:52:09: den die Ermittlungsbehörden eben nicht gegangen sind.

00:52:11: Also das heißt, stellt sich natürlich wirklich die Frage, gibt es eben noch ganz viele andere Wege, die man gehen kann, um das einzudämmen und um das zu verhindern.

00:52:23: Das ist ja so ein bisschen auch das, was du sagst, Jessica.

00:52:26: ist, denke ich, auch so das Argument in der EU, wenn man jetzt noch mal ein bisschen auch auf die politische, also mal so ein bisschen guckt, wie sind denn so die Mehrheiten, dann ist es tatsächlich so, dass die Staaten, die im Moment sich noch gegen eine Chat-Kontrolle aussprechen, sich auf keinen Fall dafür aussprechen, dass missbräuchliche Darstellungen von Kindern weiterverbreitet werden dürfen, ganz im Gegenteil, die sagen, ja, wir müssen das bekämpfen, aber eben nicht mit diesem Mittel.

00:52:52: Ich hoffe, dass Deutschland ... dass weiterhin auch so sieht.

00:52:56: Die deutsche Position gilt nach wie vor als unsicher.

00:53:00: Sie hat Signal ja gesagt, sie ziehen sich zurück.

00:53:03: Ich glaub, Trima hat auch immer wieder zumindest auch in der Schweiz damit gedroht, weil in der Schweiz ähnliche Pläne verhandelt werden.

00:53:13: WhatsApp hingegen ist dann einfach, die würden bleiben, oder?

00:53:16: Also gibt's Reaktionen von anderen Messengers, die irgendeine Lösung gefunden haben oder ... Weißt du da was?

00:53:25: Also ... Die haben nicht unbedingt eine Lösung gefunden, die haben sich nur noch nicht ausgesprochen.

00:53:30: Also wir wissen nicht, wie die reagieren, wie der Markt reagiert.

00:53:33: Was wir zum Beispiel gesehen haben, war, es gab auch eine große Diskussion um Verschlüsselung von Daten in der Cloud.

00:53:41: Und Apple hat da so eine Advanced Data Protection.

00:53:45: Und da wollte Großbritannien eben, dass das nicht gemacht wird.

00:53:49: Und dann hat Apple gesagt, gut, dann machen wir halt die ganze Verschlüsselung aus, aber für alle bei euch.

00:53:54: Aber nur in Großbritannien, das heißt, alle Leute können in eure Daten reinschauen.

00:54:00: Weil Großbritannien hätte gerne gehabt, dass es überall abgeschaltet wird, dass jeder bei jedem reinschauen kann und hat gesagt, wir machen das jetzt nur für eure Bürger, nur für euch, wenn ihr das so wollt.

00:54:10: Und das ist halt so was, man kann nicht wirklich absehen, wie die Firmen reagieren, auf sie dann sagen, okay, dann machen wir halt keine Verflüsselung mehr, nur in eurem Land, dann wird es halt richtig unsicher.

00:54:22: Oder ob Sie sagen, dann machen wir halt kein Messaging mehr in eurem Land?

00:54:28: Klingt, beides klingt alles nicht so gut.

00:54:29: Das heißt, wir hoffen vielleicht einfach, dass es sich doch noch verhindern lässt.

00:54:34: Ihr als Forschende, ihr habt ja so einen großen, offenen Brief geschrieben mit ganz vielen Unterzeichnerinnen und Unterzeichnern.

00:54:40: Da steht dein Name auch drauf.

00:54:42: Also ich hoffe oder wir hoffen sehr, dass das was bringt.

00:54:46: Gibt es denn irgendwas, was der Einzelne oder die Einzelne tun kann?

00:54:48: Gibt es irgendwie so eine Petition oder sowas?

00:54:51: Petition nicht, aber man kann natürlich auch Abgeordneten Briefe schreiben, sie kontaktieren, für Merksamkeit sorgen.

00:54:59: Also wenn man irgendwie sein Briefkasten öffnet oder sein E-Mail postfach und da sind ganz viele Nachrichten drin.

00:55:05: Vielleicht auch Demos.

00:55:06: Also ich finde es krass, wie wenig Aufmerksamkeit das Thema kriegt im Verhältnis dafür, wie weitreichend es ist.

00:55:14: Und ich glaube, da ist so eine... gewisse Ermütungen auch drin.

00:55:18: Denn dieser Prozess zieht sich ja jetzt schon mehrere Jahre, dass Chatkontrolle vorgeschlagen wird.

00:55:22: Es wurde schon mehrfach gesagt, nein, das ist keine gute Idee, das zu machen.

00:55:26: Und anstatt dass man eben sagt, okay, der Gesetzesvorschlag wurde jetzt schon mehrfach abgelehnt, sagt man, naja, okay, dann ja später, wir bringen ihn wieder ein.

00:55:34: Ja, ich glaube, da ist auch so eine Müdigkeit einfach vorhanden, weil man dieses Thema immer immer wieder hört.

00:55:40: Auf eine Briefe gab es jetzt auch schon ein paar, also so.

00:55:43: Das ist so zermürbend.

00:55:44: Und dadurch habe ich das Gefühl, Leute sagen jetzt auch nicht schon wieder, kommen wir nicht wieder damit.

00:55:48: Und womöglich fällt es das auf die Füße.

00:55:51: Ja, und sehr abstrakt.

00:55:52: Und man denkt sich ja, wieso ich verschick ja keine missbräuchlichen Fotos, was kümmert sich?

00:55:59: Und eigentlich diese weitreichenden Folgen, die das haben kann, die werden... Ja, also, Leute, es ist richtig spannend.

00:56:07: Im Prinzip in einer Woche am vierzehnten Oktober ist die finale Abstimmung.

00:56:13: Hoffen, dass Deutschland bei seiner ablehnenden Haltung bleibt.

00:56:18: Und wir haben es auf jeden Fall sehr gespannt, wie sich das weiterentwickelt.

00:56:21: Ja, vielen Dank, dass du da warst, CSK, für deine Einschätzung und Erklärung.

00:56:25: Das war sehr cool.

00:56:26: Ja, vielen Dank.

00:56:27: Ja, danke euch.

00:56:28: Super interessant.

00:56:29: Danke für eure ganzen Fragen.

00:56:32: Dann bis zum nächsten Mal.

00:56:33: Bis bald und dann mit eigenem Messenger, womöglich.

00:56:37: Mach's gut.

00:56:38: Tschüss.

00:56:39: Tschüss.

00:56:48: Das war The Talk Tech, ein CT-Podcast von Svia Eckert und Eva Wolfange.

00:56:53: Schön, dass ihr wieder eingeschaltet habt.

00:56:55: Das war eine große Freude.

00:56:56: Macht uns noch mehr eine Freude, bewertet uns oder liked uns.

00:57:00: Schreibt uns gerne einen Kommentar in euren Podcastplayer.

00:57:03: Wir lesen die.

00:57:04: Wir freuen uns

00:57:04: darüber.

00:57:05: Oder meldet euch mit absoluten Regen auf Mastodon oder LinkedIn.

00:57:09: Oder ich bin auf Instagram unterwegs.

00:57:12: Und ja, das war's für heute.

00:57:15: Musik und Produktion Marco Paoli.

00:57:18: Bis nächste Woche, macht's gut, ciao.

00:57:21: Und zum Abschluss noch ein Hörtipp, Darknet Diaries auf Deutsch.

00:57:25: Jack Resider ist auf Englisch schon der Beste, aber auf Deutsch versteht man auch alles.

00:57:30: Da ist jetzt gerade wieder eine Folge online gegangen, hört unbedingt

00:57:34: rein.

00:57:35: Das können wir euch sehr ans Herz legen.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.