Chatkontrolle, Alterscheck, Überwachungsstaat? Mit Khaleesi vom CCC
Shownotes
Alle wollen Kinder schützen. Aber was, wenn die Lösung das Problem verschlimmert? Elina Eichstätt, bekannt als Khaleesi, Sprecherin des Chaos Computer Clubs und Informatikerin, erklärt, warum die EU-Chatkontrolle aus technischer wie rechtlicher Sicht scheitert und hoffentlich nie beschlossen wird. Denn der nächste Trilog naht und die freiwillige Ausnahmeregelung läuft im April 2026 aus. Und plötzlich steht die Frage wieder auf dem Tisch: Soll verschlüsselte Kommunikation für alle gebrochen werden, um eine winzige Menge illegales Material aufzuspüren? Und: CDU und SPD wollen Social Media für unter 14- oder 16-Jährige sperren und träumen von einer Altersverifikation per EU-ID-Wallet. Khaleesi erklärt, was es technisch und gesellschaftlich zu bedenken gibt.
Von Svea Eckert und Eva Wolfangel Musik und Produktion: Marko Pauli
Shownotes: Das Thema bei Heise im Detail erklärt: https://www.heise.de/hintergrund/Chatkontrolle-Sicherheitsrisiken-beim-Client-Side-Scanning-11169484.html
Elina Eichstätt (Khaleesi) auf Mastodon: chaos.social/@khaleesi Podcast „Dicke Bretter" mit Konstanze Kurz und Elisa Lindinger: https://chaosradio.de/category/podcast/dicke-bretter Chatkontrolle – Was ist das? Erklärung des EU-Gesetzgebungsverfahrens und der beteiligten Institutionen (Kommission, Rat, Parlament): https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-fighting-child-sexual-abuse Digital Services Act (DSA) – das schärfste Regulierungsinstrument für Plattformen: https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_de EU-ID-Wallet – Was ist das? https://digital-strategy.ec.europa.eu/de/policies/eudi-wallet
Transkript anzeigen
00:00:02:
00:00:16: Hallo und herzlich willkommen zu They Talk Tech, ein CT-Podcast mit Sphere Eckhardt, Tech Journalistin.
00:00:22: Und
00:00:23: Eva Wolfanger?
00:00:24: Das bin ich
00:00:24: auch, Tech-Journalistin!
00:00:26: Und...
00:00:27: Ja, ganz besonderen
00:00:29: für euch da!
00:00:29: Kalesi ist da die Königin der Drache.
00:00:31: Nein, das ist Elina Eichstedt mit bürgerlichem Namen.
00:00:35: Ich würde etwas sagen unter Kalesik kennen dich vielleicht ... mehr Leute, unsere Blase.
00:00:40: Elina Eichsel sprechen in das Chaos Computer Club.
00:00:43: außerdem Informatikerin, Hackerin... Was haben wir noch?
00:00:48: Was machst du noch Studenten?
00:00:50: Du studierst Informatik, das weiß ich.
00:00:52: Du machst ein Podcast mit Konstantin Kurz und Elisa Lindinger, Dicke Bretter!
00:00:56: Und man kennt dich vor allem aus der ganzen Chat-Kontrolle-Debatte, die du tatsächlich ganz eng verfolgst und über die wir heute auch sprechen wollen.
00:01:05: Deswegen jetzt erst mal herzlich willkommen.
00:01:07: Kalli, es ist schön, dass du da bist!
00:01:09: Hallo, vielen Dank für die Einladung.
00:01:10: Ich glaube, man kennt mich
00:01:11: v.a.,
00:01:11: weil ich Politiker in das Internet erkläre.
00:01:13: Das ist vielleicht eine ganz gute Zusammenfassung...
00:01:17: Also hier ist der Untertitel von dir.
00:01:18: Leute in verschiedenen Rollen, die Internet-Erklärerin ... Die Eckerin!
00:01:23: Diejenige, die Chatkontrolle stoppen möchte.
00:01:26: und da ihr echt auch schon viel erreicht habt.
00:01:33: Genau das Timing ist perfekt dass du bei uns bist.
00:01:36: wir haben schon drüber gesprochen in einer anderen Folge Eva und ich über dem Big Tobacco Moment in den USA.
00:01:44: Da geht es eben auch um das Thema Kinder und Jugendschutz und Social Media.
00:01:48: Gleichzeitig haben wir hier in Deutschland den CDU-Parteitag, der eine Altersgrenze beschlossen hat.
00:01:54: Die SPD will auch Social Media verbieten für Kinder, für Jugendliche also.
00:02:01: da ist möglicherweise das Thema Regulierung was da kommen wird im Herbst alles noch ohne konkretes Gesetz.
00:02:08: aber das ist sozusagen im Schwange.
00:02:10: und daneben tut sich gerade richtig nochmal wieder etwas bei der Chat-Kontrolle, die freiwillige Ausnahmeregelung läuft im April zwanzig sechsundzwanzig aus.
00:02:19: Da steht der Trilog an und eben auch wieder ... Ich sage mal, Chat-Controller ist The Walking Dead ja?
00:02:25: Also es steht einfach immer wieder auf.
00:02:27: also wird verschüstete Kommunikation aufgebrochen und du begleitest die Debatte jetzt schon wie lange
00:02:34: Seit April, zwanzig-zweiundzwanzig also fast vier Jahre jetzt.
00:02:39: Und das Thema Altersverifikation ist tatsächlich auch Teil von der Chat-Kontrolle.
00:02:42: da hab ich irgendwie auch mal in zwanzich-zweinzwanzigt drüber geschrieben und dann ist es so unter den Tisch gefallen weil das Thema verschiedene Kommunikationen doch ein bisschen größer war.
00:02:51: aber je nachdem wie der Trilog von der, ich sag mal, Chatkontrolle zwei Punkt Null ausgeht könnten da auch verpflichtende Alters Verifikationsmechanismen drinstehen.
00:03:01: Magst
00:03:01: du einmal noch für alle, die es nicht kennen und die nicht so tief drin sind.
00:03:05: Einmal sagen was ist Chat-Kontrolle?
00:03:08: Keine Ahnung in ein bis drei Sätzen.
00:03:11: Ja also die Chatkontrolle ist im Prinzip der Spitzname eine Regulierungsvorschlags der EU Kommissionen Und der lange Name ist ich kann ihn leider nicht mehr auswendig Schutz von Kindern und Jugendlichen online vor sexuellem Missbrauch Und so weiter, also diese Namen sind immer sehr lang.
00:03:29: Deswegen die Abkürzung, die Englische ist CSAR-File.
00:03:34: Das Ziel ist sozusagen mehr Schutz von Kindern und Jugendlichen vor Kindesmissbrauchsdarstellung und auch Kindesmisbrauchs im Allgemeinen.
00:03:40: Die Vorschlag der Kommission ist aber das Scan von allen interpersonellen Kommunikationsmöglichkeiten.
00:03:47: Das heißt E-Mail, Chats soziale Plattformen, Direct Messages usw.
00:03:54: Also alles was man irgendwie so an menschlicher Interaktion hat soll gescannt werden auf Kindesmissbraustarstellung sowohl Bilder als auch Video als auch Text als auch gegebenenfalls Audio.
00:04:06: das ist immer ein bisschen unklar.
00:04:08: und dass ganze mithilfe von AI Tools da halt solche Klassifizierungsprobleme natürlich nicht anders losbar sind.
00:04:16: und Das soll aber nicht nur passieren auf sozusagen frei verfügbaren Nachrichten, also wenn man irgendwo einen Kommentar schreibt in den Forum oder auf seinem öffentlichen Profil ein Bild postet.
00:04:28: Sondern eben auch im Ende zu Ende verschüßter Kommunikation.
00:04:31: Das heißt was da passieren müsste wäre sozusagen ein Aufbrechen von Ende zu ende für Schüssel der Kommunikations.
00:04:38: Und jetzt steht der Trilog an.
00:04:39: Das haben wir gerade am Anfang schon gesagt, der Triloge ist immer... Muss man vielleicht auch einmal erklären was es ist?
00:04:45: Aber auf jeden Fall steht das jetzt wieder an im April.
00:04:48: Was kann da jetzt passieren?
00:04:50: Ich dachte mal Chat-Kontrolle ist vom Eis!
00:04:52: Also es stehen zwei Sachen an.
00:04:54: Es stehen zwei Triloge an.
00:04:56: Ist ein bisschen verwirrend.
00:04:58: Denn der Grund warum dieses Gesetz Chat- Kontrolle überhaupt gibt, ist dass es momentan eine Freiwillige Ausnahmeregung der E-Privacy Directive gibt es unter der große Plattform interpersonelle Kommunikation, die nicht Ende zu Ende verschlüsselt ist freiwillig scannen dürfen.
00:05:15: Und das läuft aus!
00:05:16: Das wird schon einmal verlängert und das soll jetzt nochmal verlängern werden weil es im April ausläuft.
00:05:22: Der Trilog ist in Prinzip einer der letzten Schritte im EU-Gesetzgebungsprozess.
00:05:26: Das heißt Rat, Parlament und die Kommission setzen sich zusammen Und haben jeweils eine Position und handeln dann den finalen Gesetzestext im Prinzip aus.
00:05:36: Der muss zwar noch mal durchs Parlament am Ende, aber das ist sozusagen der finale Schritt.
00:05:40: Das auch der intransparenzte Schritt von diesem ganzen Gesetzgebungsprozess ganz generell.
00:05:47: Warum das jetzt wichtig ist?
00:05:50: Wir nennen sie liebevoll Chat-Kontrolle eins Punkt Null Verlängerung.
00:05:54: Und der Trilog, der jetzt sogar Ende Februar Anfang März schon angepeilt wird.
00:05:57: Weil sie natürlich fertig werden wollen damit Sie die Verlängerung machen können wenn die andere Ausnahmeregelungen ausläuft ist deswegen wichtig weil in der Parlamentsposition zur richtigen Chat-Kontrolle ganz bestimmte Dinge drinstehen die sozusagen wenn sie in der Chatkontrolle eins Punkt Null anders drin stehen wurden Verhandlungspositionen schwächen würden.
00:06:21: Das ist die Problematik, die wir da haben.
00:06:25: So muss man wissen, dass das Parlament sich relativ klar gegen die Chat-Kontrolle positioniert hat und der Rat war so teilweise dafür oder dagegen?
00:06:35: Und die Kommissionen, die pusht das Ganze eigentlich mehr oder weniger seit dem Jahr.
00:06:38: In unterschiedlichen Besetzungen muss man ja immer wissen.
00:06:42: Genau!
00:06:43: Vielleicht ganz kurz zu den Positionen, damit man das gut verstehen kann... Die Kommission macht ... Das Vorschlagsrecht sozusagen.
00:06:49: D.h.,
00:06:50: die haben diesen Gesetzestext vorgeschlagen und in diesem Gesetzestex drin ist das, was ich vorhin schon geschrieben habe.
00:06:55: Da bräuchte es sozusagen ein Brechen von Ende zu Ende für Schüßelter Kommunikationen.
00:06:58: Und das ist halt das große Problem an dieser gesamten Regulierung.
00:07:02: Der Rat hat sehr lange gebraucht um sich zu einigen bis jetzt Ende letzten Jahres.
00:07:08: Es gibt immer alle sechs Monaten hat jemand anderes Land den Vorsitz?
00:07:11: Wir haben glaube ich mittlerweile acht Ratspräsidentschaften geschafft, bis sie jetzt zu einer Einigung gekommen sind.
00:07:20: Wow!
00:07:20: Und die Positionierung verbraten ist auch so ein bisschen überraschend weil sie im Prinzip diese Ausnahmeregelung permanent machen würde also freiwillige Scannen in unverschlüsselter Kommunikation sozusagen das was gerade aktuell auch schon passiert.
00:07:36: Das Parlament ist da sehr viel Strenge hervorgegangen.
00:07:40: Das EU-Parlament hat gesagt, das muss gezielt erfolgen.
00:07:44: Es darf keine anlasslose Überwachung von interpersoneller Kommunikationssein sein.
00:07:49: Ende zu Ende muss dediziert geschützt werden und wenn man scannt dann wirklich nur mit Richtervorbehalt.
00:07:57: die Eingriffstiefe muss besonders festgelegt werden.
00:08:01: Also diese drei Positionen.
00:08:04: Dementsprechend passt eine ... ohne sozusagen die weiter zu verändernde Ausnahmeregelung mit einem anlasslosen Scan von aller, nicht zu Ende der interpersonellen Kommunikation.
00:08:16: Nicht zu der Position, die das Parlament im Hinblick auf die Chat-Kontrolle zwei Punkt Null sozusagen eigene Norm
00:08:23: hat.".
00:08:24: Das heißt es sind echt ganz gute Nachrichten oder sieht eigentlich jetzt gerade ganz gut aus?
00:08:28: Oder kommen da noch Überraschungen?
00:08:31: Erwartest du eine Überraschnung
00:08:34: in ... Es gibt ja immer eine Berichterstatterin, also die Person aus einer Partei, die dafür verantwortlich ist diese ganze Organisation zu machen und dann auch so einen Bericht vorlegt über den das Parlament abstimmt.
00:08:46: Und wo sich die Position sozusagen daran organisiert.
00:08:49: Die Berichterstatterin ist Birgit Zipfel für diese freiwillige Ausnahmeregelung.
00:08:55: Sie hat ihren Bericht von zwei Wochen vorgestellt und er ist halt leider nicht ganz so eng gezogen wie ... die Parlamentsposition zur Chefkontrolle eins, Punkt Null.
00:09:05: Das heißt wir warten jetzt ab.
00:09:07: also wenn man ... Wenn dieser Bericht vorgestellt würde dann dürfen alle anderen Fraktionen nochmal sozusagen Änderungsvorschläge machen und dann kommt es danach zu einer finalen Einigung im Parlament.
00:09:16: Und das ist sozusagen der Punkt an dem wir gerade sind wo wir sagen okay Wir müssen auch hier dafür sorgen selbst wenn ihr diese Ausnahmeregelung verlängert.
00:09:23: Also aus Grundrechtsperspektive geht das natürlich gar nicht.
00:09:28: Deswegen muss das halt so Ja, targetet wie möglich sein.
00:09:36: Sonst widersprecht ihr auch eurer eigenen Position einfach.
00:09:40: Du hast mal im Bundestag gesagt, dass die Chat-Kontrolle eine krasse Überschätzung von Fähigkeiten von Technologie sei?
00:09:50: Kannst du da noch einmal sagen in Bezug auf die Chatkontrolle was genau hast du da gemeint?
00:09:55: Also ... Das Ziel ist ja, Kinder und Jugendliche besser zu schützen.
00:09:59: Und dann ist natürlich die Frage wo passiert eigentlich Kindesmissbrauch so?
00:10:05: Die Studienlage ist relativ einwörtig.
00:10:06: das passiert sehr viel auch einfach im persönlichen Nahbereich.
00:10:10: Wir wissen dass es eine große Versorgungslücke gibt wenn es um Sozialarbeit und sonstige Kinder- und Jugendarbeit geht.
00:10:20: anstatt sozusagen zu sagen hey wir schauen jetzt an dieser Stelle ansetzen und auch vor einigen mehr Stellen schaffen für Institutionen, die total unterfinanziert sind.
00:10:29: Das ist ja die Realität.
00:10:31: Schmeißen wir jetzt sozusagen Geld auf die Tech-Branche sag ich mal so, die ohnehin ja schon finanziell gut dasteht damit sie diese Direktionstechnologien entwickeln können.
00:10:44: Und was noch dazu kommt ist wenn man zum Beispiel zu dieser freiwilligen Chatkontrolle sich mal anguckt, was der Report sagt.
00:10:50: Wie viel Material denn erkannt wurde?
00:10:53: Das ist eine ganz spannende Zahl habe ich heute morgen gerade wieder gelesen.
00:11:06: gescannten Inhalte in den bereitgestellten Daten, stellen tatsächlich illegales Material vor.
00:11:13: Das muss man sich mal vorstellen.
00:11:14: Das
00:11:14: heißt sind ganz viele false positives sozusagen?
00:11:16: Das heißt da werden ganz ganz viele Bilder gepflagt die am Ende harmlos sind oder...
00:11:24: Naja es wird ja alles gescannt!
00:11:26: Also, es wird ja alles gescannt.
00:11:27: Was allen
00:11:28: diesen ganzen
00:11:30: Milliarden hohen Haufen, sag ich mal so an Content der jeden Tag durchs Netz läuft ... ist das eine Gerinneprozentzahl, die dann tatsächlich aufgedeckt wurde?
00:11:40: Wenn wir von einer Milliarde nachrichten, sind's dreihundert.
00:11:43: Ja, so.
00:11:44: Aber wir reden ja wahrscheinlich von, weiß ich nicht, zehn, hundert ... Ich weiß nicht,
00:11:50: wieviel
00:11:51: Milliarden-Billionen Nachrichten wir da sprechen.
00:11:55: Und aus technischer Perspektive, um auf deine Frage zu kommen gibt es natürlich mehrere Probleme.
00:11:59: Weil du ja gesagt nach den Volkspositives fragst, ne?
00:12:03: Also das sind hier alles.
00:12:04: also zumindest für das unbekannte Material wird ja irgendeine Form von KI-Klassefire verwendet.
00:12:11: und da ist dann immer die Frage wie man denen sozusagen, wie man das Feintuning macht.
00:12:15: Man kann natürlich den besonders empfindlich einstellen und dann schlägt er besonders häufig an, viele false positives, die dann von den Strafverfolgungsbehörden gesichtet werden oder man stellt ihn halt relativ niedrig ein.
00:12:29: Dann geht er natürlich irgendwie viel durch die Lappen aber man wird nie bei hundert Prozent ankommen weil man immer diese wechselwirkung von diesen beiden thresholds sagt man im technischen häufig hat
00:12:44: Erinnert mich so ein bisschen auch an das ganze Thema Videoüberwachung, also wenn es um Gesichterkennung geht.
00:12:50: Da hat mir ganz lange diesen Versuch am Berliner Ostbahnhof war.
00:12:55: Das erinnere ich mich noch daran.
00:12:57: Ich habe das damals da gedreht und da kam das irgendwann dann auch raus wie viele Vollspositives die haben.
00:13:03: Und dass war auch ein Grund, warum man dann gesagt hat, das macht eigentlich keinen Sinn.
00:13:09: Also, ob sich die Gesichterkennung hat sich ja deutlich verbessert.
00:13:13: Trotzdem bleibt das eben dieses Problem darüber am.
00:13:15: Eva und ich auch schon mal gesprochen über einen Fahrt.
00:13:18: Es gibt so ein ganz bekannten Fall aus den USA, dessen ganzen Accounts und alles gesperrt wurden bis heute glaube ich sogar gesperrt sind weil er ein Foto an einen Kinderarzt
00:13:28: geschickt
00:13:28: hat.
00:13:29: Der Google hat es direkt gelöscht und gesagt wir können ihn gar nicht zurückgeben.
00:13:33: Das Verfahren wurde eingestellt, weil Klaver das war false positive.
00:13:36: Er hat sein eigenes Kind fotografiert und zwar, weil es eine Entzündung hatte und der Kinder erst den gefragt hat, kann ich bitte ein Foto bekommen?
00:13:44: Und er hat am Ende die Ermittlungsbehörden gefragt ob sie ... Weil die hatten noch ne Kopie von allem!
00:13:49: Ob Sie ihm seine Fotos zurückgeben können, weil er halt von seinem Kind dann überhaupt keine mehr hatte.
00:13:55: Ja also was du gerade gesagt hast, das klingt ja schon so.
00:13:57: man kann dieses System so oder so einstellen.
00:13:59: entweder übersieht dann wahrscheinlich zentrale Fälle Wahrscheinlich ist er der andere Fall.
00:14:04: Dass nämlich Ermittlungsbehörden geflutet werden mit Bildern, von denen ein ganz kleiner Teil relevant ist.
00:14:10: oder wie siehst du das?
00:14:13: Na ja also erst mal würde ich sagen ... Was erstmal technisch passiert ist, dass alle unsere Bilder gescannt werden.
00:14:18: Ich glaube es ist so schon so.
00:14:21: Selbst das ist keine Ahnung selbst.
00:14:25: Das haben wir jetzt schon als Problemen.
00:14:27: Ein Großteil dieser Fälle sind Teenager die sich konsentuell nacktbilder.
00:14:33: gegenseitig schicken.
00:14:36: Also die Kontextualisierung fehlt der Technologie ja komplett, das heißt sie werden nicht nur geflutet sondern noch viel schlimmer Sie verwenden Ermittlungsressourcen auf eine Sache wo es eigentlich gar nichts ich sage mal in Anführungsstrichen zu ermitteln gibt anstatt sozusagen ich sag mal gute Ermittlungsarbeit um bestimmte Sachen aufzudecken, die natürlich Zeit und Ressourcen kostet.
00:15:02: Aber wenn ich halt ... Zwei Hundert Bilder habe, sag ich mal so, wo ich den Ursprung finden will versus Ich hab zwanzig oder es wurde mir gemeldet?
00:15:14: Oder das Jugendamt stellt fest ist gibt Kindeswohl Gefährdung Und dann in diesem Rahmen wird dann noch was festgestellt.
00:15:21: Also da gibt's ja ganz viele Konstellationen Die dann auf solche Fälle hindeuten.
00:15:28: Du hast eben auch schon gesagt, das Problem ist einfach dass alle Nachrichten dann gescannt werden.
00:15:34: Mir ist es technisch immer nicht so ganz klar gewesen wahrscheinlich weil es auch noch gar nicht ... Du wirst es uns vielleicht erklären, weil es vielleicht auch noch das technische Konzept gibt.
00:15:44: Weil ich hab das immer so gelernt oder gelesen, dass es dann Fotos gibt die werden als Hash verschlüsselt.
00:15:50: dieser Hash also diese kryptografische Zahl, die wird an eine Datenbank geschickt und wenn dann die gleich ist mit einem Hash von einem bekannten Missbrausbild von einer Datenbank Dann gibts sozusagen einen Alarm.
00:16:04: ja So habe ich das technisch bisher immer verstanden mich natürlich Da haben wir noch eine Tausend Fragen gefragt.
00:16:11: Geht es nur in Bilder, die schon gibt?
00:16:14: Dann wissen wir, dass das mit den Häschen nicht immer einbahnfrei funktioniert und Fehler auftreten können.
00:16:20: Was ist denn das technische Konzept hinter dem?
00:16:22: da werden alle unsere Nachrichten gescannt?
00:16:25: Wie soll das funktionieren, technisch?
00:16:28: Ich erkläre das gerne so in zwei unterschiedliche Teile.
00:16:33: Erst mal müssen wir uns die Frage stellen ... diese Bilder zu scannen, brauchen wir ja erstmal Zugriff auf die Kommunikation.
00:16:40: Das ist sozusagen das erste technische Problem was wir lösen müssen.
00:16:44: und wenn wir jetzt von Ende-zu-Ende Verschüttelungen ausgehen also sowohl WhatsApp als auch Signal als auch Threema alles Ende-zuernd verschützte Plattformen dann ist das Konzept von diesem Plattform wirklich.
00:16:59: Sie sicherstellen, dass nur wenn ich jetzt hier es wäre ein Bildschicke von meinem Hund.
00:17:05: Dass auch dann wirklich nur du dieses Bild bekommst und das ist für niemand anderen ersichtlich is'.
00:17:11: Also... Du musst dem Server nicht vertrauen!
00:17:13: Du musst im Netzwerk nicht vertrauen!
00:17:14: Du kannst dir sicher sein, dass die Kryptografie also die Algorithme, die darauf angewendet werden so gut sind, dass da niemand irgendwas mitlesen kann.
00:17:25: So Damit das funktioniert, musst du zum einen deinem Gerät vertrauen können.
00:17:30: Es muss integer sein und sichergestellt sein, dass es keine Hintertüren gibt über die Daten abweichen.
00:17:37: Dieser Algorithmus muss halt sicher sein und nicht attackierbar.
00:17:43: Wenn wir sagen, okay, wir brauchen jetzt aber Zugriff um uns anschauen zu können was für ein Bild ich dir da geschickt habe heißt das ja Wir müssen irgendwas in dieser Kette kaputt machen Und die Variante, die am häufigsten diskutiert wird – das habt ihr vielleicht auch schon mal gehört – ist dieses sogenannte Kleinzeitscanning.
00:18:04: Oder so als Wunderlösung präsentiert?
00:18:07: Wir haben jetzt was gefunden, wo man die Verschlußungen nicht kaputt machen muss, weil wir schauen einfach auf deinem eigenen Gerät nach und ... Ja, angeblich ist dann alles weiterhin integer.
00:18:18: Aber das stimmt nicht oder?
00:18:20: Genau, das stimmt ja gar nicht!
00:18:21: Wenn ich gerade gesagt habe so dass dein Gerät muss integer sein wenn dein gerät nicht integer ist Dann hilft ihr auch kein... Also dann ist dieses Konzept Ende zu Ende Verschlüsselung gebrochen.
00:18:31: Zwar kann man immer theoretisch argumentieren dass man vor der verschlüsselungen eingegriffen hat und deswegen nichts mit der Verschlüsselung gemacht hat.
00:18:37: aber das konzept Ende zur Ende Verschüsselung ist dann halt kaputt.
00:18:42: So.
00:18:42: Und dann ist ja auch die frage Wie mache ich das?
00:18:46: Also die erste Frage ist, ist die Sicherheit für wenn ich das Bild ausleite zum Beispiel also an Strafverfolgungsbehörden weiter leide oder einfach nur je nachdem wie die Implementierung ist.
00:18:57: An einen Server schicke damit er überprüfen kann ob das Kindesmissbruchs Material ist oder nicht.
00:19:03: Ist diese Weiterleitung genauso sicher wie die Kommunikation zwischen Zwer und mir?
00:19:09: Kann man relativ leicht beantworten wahrscheinlich nicht so.
00:19:13: Und dann hat man sozusagen schon so ein kleines Loch, so eine Backdoor in seinem Messenger-Declient.
00:19:20: Wo halt Daten einfach abfließen können?
00:19:22: So das ist einfach ein Fakt.
00:19:24: und dann haben wir noch gar nicht darüber gesprochen.
00:19:28: Macht man es als Hash oder macht man das als Bild?
00:19:30: Oder wie macht
00:19:31: man's?
00:19:31: Okay,
00:19:31: verstehe ich.
00:19:32: Also
00:19:32: das ist schon mal sozusagen der aus Security Perspektive so der wichtigste Standpunkt.
00:19:36: Ich habe eine Backdor in irgendeiner Form in meinem Messenger Service.
00:19:42: Also da gibt es auch unterschiedliche Sachen, ne?
00:19:44: Man kann das natürlich auf einbauen in den Messenger selber.
00:19:48: Es gibt dann natürlich auch Leute sagen ja wir machen das einfach auf dem Operating System Level.
00:19:52: also dass ist dann noch viel schlimmer weil noch viel tiefgreifend aus einer technischen Perspektive wird, weil ich glaube ein SPD-Politiker hat neulich gefordert dass wir keine Handys mehr haben dürfen die dazu in der Lage sind Kindesmissbraus Darstellungen zu speichern.
00:20:09: So, das war ganz wilder Take.
00:20:13: Wenn man sich das wünschen würde dann müsste man natürlich auf dem Handy selbst eine Software einbauen die in alle Applikationen reingucken kann um zu gucken dass das nicht passiert.
00:20:24: und man kann sich das Sicherheitsmodell von so einem Smartphone so ein bisschen vorstellen wie ein Zoo.
00:20:30: Es ist total wichtig dass jedes Tier einen eigenen Käfig hat aus dem es nicht rauskommt Und eine Person sozusagen Kontrolle darüber hat, welche Rechte dieses Tier dann hat.
00:20:45: Genau das ist ja total wichtig!
00:20:47: Nur so kann man sich erschützen vor jederlei Angriffen und alle möglichen Apps die versuchen auf das Telefon zuzugreifen.
00:20:57: Das würde das halt komplett außer Kraft setzen.
00:21:00: Jetzt haben wir schon mal dies Frage geklärt mit der Hashing-Frage dieses Thema Hashing.
00:21:07: Die Kommission möchte gern scannen nach bekannten Material, unbekannten material und nach grooming also Annäherungsversuche von Erwachsenen nach Kindern.
00:21:17: das heißt es wäre sozusagen ich sage mal so Bildabgleiche in Anführungsstrichen dann irgendeine Form von KI-Klassefire der sagt dass ist Kindesmaß... eine Bekindnismaßbrauchsdarstellung.
00:21:27: das ist keine Kindesmissbrauchsdarstellung und irgendein Form von AI Klassefire die Texte einordnet sozusagen So.
00:21:36: Unterschiedlich kompliziert.
00:21:38: und bei den Hashes ist es halt auch so, dass wenn man einen Hash normalerweise benutzt das ist ja einfach eine Funktion die man über ein Bild laufen lasst und dann ist das ne feste Länge an Zeichen die sozusagen eindeutig das Bild identifiziert.
00:21:52: Das geht aber nur wenn dieses Bild wirklich gar nicht verändert wird.
00:21:57: Aber wenn ich jetzt zum Beispiel über Signal dir nen Bildschall schicke Dann wird das Bild ja kleiner gerechnet Und dann würde da ein komplett anderer Hasch rauskommen.
00:22:04: Okay, oder einen Screenshot machen?
00:22:06: Oder irgendwie sowas... Genau!
00:22:07: Oder einen Punkt drauf malen.
00:22:09: Also
00:22:10: es
00:22:10: wäre diverse Möglichkeiten und dann würde das schon nicht mehr funktionieren.
00:22:13: Das heißt ... und das verstehen ganz viele Menschen nicht.
00:22:17: die denken halt so ah ja das ist einfach nur dieser Hash-Upgleich und das ist alles fein.
00:22:21: Da kommt auch schon KI zum Einsatz.
00:22:25: Und zwar wird dann sozusagen werden die Eigenschaften von dem Bild extrahiert Und dann wird sozusagen die Distanz ausgerechnet.
00:22:33: Man nennt das Vektoren, wo man diese Eigenschaften reinpackt mathematisch und dann schaust du wie unterschiedlich ein Vektor voneinander ist.
00:22:41: Dann trainierst du einen Modell darauf für möglichst gleiche Vektore den gleichen Hash zu produzieren, damit man dieses Problem halt nicht mehr hat.
00:22:50: Aber da ist ja auch Security.
00:22:54: ein Thema für euch beide es.
00:22:56: KI-Modelle sind immer entweder angreifbar oder ich kann das halt reversen und rausfinden, wie ich das extrahieren muss.
00:23:05: Und dann kann halt das Foto von deinem Hund zu dem gleichen Hash führen, weil ich das Modell so manipuliert hab als das Fote, was Kindesbrustvorstellungen ist.
00:23:15: Also da ist eine Angreifbarkeit gegeben die nicht so leicht auszuräumen
00:23:21: ist.".
00:23:29: Wir wollen ja mit dir gleich noch über das Thema Altersverifikation sprechen und Jugendschutz, aber einmal um das auch abzuschließen.
00:23:37: Noch mal mit Blick jetzt auf den Anstehen Trilog oder die Trilogie.
00:23:42: Was ist denn so dein Worst Case-Szenario?
00:23:44: Und was wäre dein Bestcase-Scenario?
00:23:47: Wie soll es ausgehen?
00:23:48: Also mein Best case-Senario wäre natürlich dass wir alle Form von Scannen komplett raus bekommen
00:23:54: Weil du sagst ganz eindeutig, die negativen Folgen sind viel schwerwiegender als die wenigen Ermittlungserfolge, die da rauskommen.
00:24:03: Aus Grundrechtsperspektive und auch aus EU-Rechtsperspective ist es einfach anlasslose Massenüberwachung, die europarechtswidrig ist.
00:24:11: Da gibt's gar keine zwei Meinungen.
00:24:14: Das ist nicht nur ein Gefühl der Datenschutzbubble, sondern das ist tatsächlich rechtswidrig.
00:24:22: Und aus technischer Perspektive im Hinblick auf verschissene Kommunikation.
00:24:26: Solte Fun hat's gezeigt ... Ende zu Ende für Schüsselung ist das Einzige, was wir haben um unsere vertrauliche Kommunikation abzusichern.
00:24:34: Und es ist nicht in unserem Interesse, das zu schwächen.
00:24:37: Sortai Foon ganz schnell.
00:24:39: chinesische Hecker- staatliche Heckergruppe hat ... Was haben die gezeigt?
00:24:43: Ordnest bitte kurz für uns ein!
00:24:45: Genau also es ist rausgekommen dass eine chinesischer Hecker Gruppe es geschafft hat eine Telekommunikationsüberwachungsschnittstelle von amerikanischen Strefferfolgungsverhörden auszunutzen sämtliche Telekommunikationsdaten amerikanischer Bürgerinnen und Bürger abzugreifen.
00:25:03: im Prinzip ganz verkürzt.
00:25:05: Und das andere Thema, was ich schon auch finde, was damit reinspielt wenn wir es gerade schon bei Chinans sind oder Missbrauch von solchen Technologien ist natürlich die Befürchtung, die berechtigte dass wenn man sowas entwickelt wie so ein Kleidsight Scanning also eine KI die irgendwie schafft direkt auf deinem Handy zu gucken was du so machst natürlich auch interessantes für Diktatur an aller Art und eben missbraucht werden kann, sodass man nicht mehr nur nach Kindesmissbrauchsschuldung schaut.
00:25:30: Sondern vielleicht auch nach Leuten oppositionellen Regime-Kritikern
00:25:34: usw.,
00:25:34: das fand ich wirklich ein gewichtiges Argument in der ganzen Debatte.
00:25:38: Ja!
00:25:39: Und beim Worst Case-Szenario ums
00:25:41: Haus zu schießen
00:25:43: wäre natürlich, wenn Scannen zur Ende Verschlüsselung am Ende dabei rauskommen würde?
00:25:48: Gut, wir wollen ja mit dir noch sprechen über Altersverifikation und Jugendschutz.
00:25:53: Wir haben es eingangs schon gesagt CDU und SPD gehen so in die Richtung Social Media für unter vierzehnjährige verbieten.
00:26:01: Die SPD will die Alters Verifikation über die EU-DI oder DI Wallet machen.
00:26:10: Für dich als Datenschützerin wie siehst du das Albtraum?
00:26:15: Oder nicht Albtraum!
00:26:17: Also ich stelle mal die Grundrechtsperspektive vorweg und dann können wir gerne mal auf die technischen Details eingehen.
00:26:23: Also aus der Grundrechtsperspektive gibt es natürlich so zwei Aspekte, erstmal Ausschluss von Partizipation online.
00:26:29: also wir wissen einfach zu viel politische Organisationen von Kindern und Jugendlichen online passiert gerade so.
00:26:35: Beispiel wie Fray's for Future zeigen das natürlich und den Ausschluss ist natürlich auch im Rahmen der UN-Menschenrechtskonvention problematisch.
00:26:42: Aber das zweite Aspekt und ich glaube, der ist noch viel wichtiger.
00:26:45: Wenn wir uns anschauen wie Meinungsbildung ganz generell funktioniert dann basiert die auch ganz viel darauf dass sich mich sozusagen unbeobachtet informieren kann und diskutieren kann bevor ich mir überhaupt eine Meinung zu einem Thema bilde.
00:26:59: also diese sogenannten Chilling Effekts Also wenn ich weiß es überwacht werde bin weniger frei darin wie Ich mich informiere stehen natürlich im Raum weil Ein Social Media-Verbot immer bedeuten würde, dass wir sozusagen eine Form von Altersnachweisinfrastruktur, sag ich mal so an einführen werden müssten.
00:27:18: Und die würde dann auch alle betreffen!
00:27:20: Es ist ja nicht nur das Kinder und Jugendliche dann ihr Alter nachweisen müssen sondern es müssen ALLE überall im Internet ihr Alter Nachweisen.
00:27:29: Das kommt mit Problemen.
00:27:31: Darauf würde ich total gerne eingehen.
00:27:33: Also welche technischen Möglichkeiten, Vorschläge stehen da im Raum?
00:27:38: Also eine Möglichkeit die ich aus den USA kenne, die da diskutiert wird ist zum Beispiel du kannst ja auf dem Handy so ein Art Kinderprofil machen einen Jugendprofil einrichten und dann würde sozusagen einfach die Plattform Das Abfragen ist es ein Kinder- oder Jugendprofil auf dem Handy.
00:27:57: Aha!
00:27:58: Und dann wüsste die Plattform, da ist jetzt jemand mit einem Browser unterwegs zum Beispiel oder mit nem Handy unterwegs was halt ein Kinder oder Jugendprofil ist.
00:28:06: Da müsste jetzt kein Kind irgendwie in Perso oder so eins kennen oder keinen Elternteil müsste da irgendwie sein den Kinderpass eins kennen Genau, aber was gibt es noch?
00:28:15: Und was für Probleme gibt's vor allem mit dieser Idee über das EU die Eierwolle zu machen.
00:28:23: Das müssten wir auf jeden Fall auch noch mal klären, was das genau ist, weil es gibt es ja noch gar nicht!
00:28:27: Aber vielleicht noch mal ganz kurz zurück zu dem Argument, dass du gerade angefangen hast.
00:28:30: Entschuldigt aber!
00:28:31: Du hast ja gesagt wenn man beobachtet ist dann ist man automatisch zensiert sich eigentlich selbst je nachdem was man gerade macht und das führt dazu, dass letztlich politische Meinungsbildung torpediert wird.
00:28:43: am Ende dadurch und du sagst weil wir denn diese Alterskontrollen haben sind wir automatisch quasi kann niemand mehr anonym im Internet sein?
00:28:52: Ist das das Argument
00:28:53: oder?!
00:28:55: Ja, vielleicht gehen wir erst mal auf die technischen Details ein und dann können wir da auf diese Frage nochmal zurückkommen.
00:28:59: Wobei man ja sagen muss das die SPD auch eine Identifizierung also im Sinne von Identifisierung dass man einen Mensch ist gegenüber der Plattform fordert.
00:29:08: Also sie fordern nicht nur Altersverifikationen sondern sie fordern auch, dass deine Identität mit deinem Profi gelingt ist Auch wenn es nicht publicly visible ist Es ist halt sozusagen visible für die Plattform.
00:29:21: Aber davon mal ganz ab.
00:29:22: und was du ja gerade genannt hast, sind ja so Parental Controls.
00:29:25: Und das gibt es auch schon als Age Signals also im App Store zum Beispiel wenn man einen Apple oder ein Android Device hat dann uns einem Kind ein Kinderprofil anlegt, kann das zum Beispiel Apps die für sechzehnjährige freigegeben sind gar nicht erst runterladen.
00:29:40: aber da reden wir ja sozusagen um eine über eine freiwillige Maßnahme.
00:29:44: Ob blieb mir als Elternteil, ob ich meinem Kind so ein Kinderprofil einrichte.
00:29:48: und dann kann ich auch sagen hey du musst mich vorher fragen bevor du dir irgendwas runterlegst whatever.
00:29:55: So
00:29:56: das ist ja erstmal die Eingriffstiefel sehr gering an dieser Stelle.
00:30:02: Das gibt es schon, das wird nicht so viel genutzt sehen die Politikerinnen als Problem, weil sie möchten gerne eine Lösung.
00:30:09: Also ich glaube so ein bisschen immer das Szenario was Sie sich vorstellen ist dass Kind was sozusagen überhaupt keine Aufmerksamkeit von seinen Eltern bekommt und einfach mit seinem Gerät allein gelassen wird Und das gilt es zu schützen.
00:30:23: Das ist sozusagen das Ziel und das ist wichtig zu verstehen.
00:30:27: davon abhängig sind natürlich dann die Nachweise.
00:30:30: Oder die Eltern, die sozusagen technisch da einfach nicht durchblicken?
00:30:34: Also das würde ich fast als ein bisschen wahrscheinlich einschätzen.
00:30:37: mit meiner dezenten Erfahrung als Mutter.
00:30:40: Zumindest in meiner Bubble würde ich jetzt sagen es ist nicht so viele Eltern, ihre Kinder verwahrlosen sondern da gibt's viele Eltern die technisch die das selber nicht unbedingt so durchsteigen oder durchschauen.
00:30:51: Da müssen wir einen Volkshochschulkurs machen, bevor wir da durchsteigern.
00:30:55: Aber sagen wir mal, ist also das Bild?
00:30:58: Oder das Problem ... Was hat es jetzt mit diesem Wallet auf sich?
00:31:03: Also... Die Annahme von der SPD ist, dass wir diese digitalen Identitäten bekommen.
00:31:09: Diese EID-Wallet auch genannt.
00:31:13: EID Wallet ist ein bisschen gängiger, weil das dann Jedes Mitgliedsland muss diese EUID-Wallet selber implementieren.
00:31:21: Es gibt schon mal so viele Implementierungen von der EUID Wallet wie es Mitgliedstaaten gibt, also es gibt zwar einen technischen Standard aber und die Idee sozusagen hinter dieser EID Wallets ist dass man sein Personalausweis auf seinem Handy hat.
00:31:36: Und ein bisschen kann man sich das vorstellen.
00:31:39: ich weiß nicht wer von euch schonmal die Bund ID benutzt hat.
00:31:45: Also Im Prinzip ist die Vorstellung, dass man seinen Personalausweis digital hat und bestimmte Identitätsnachweise online bringen kann.
00:31:54: Dadurch in der Lage ist viel Verwaltungsleistung zum Beispiel online wahrzunehmen.
00:32:01: Und nicht mehr zu einem Bürgerbüro gehen muss, wo es keine Termine gibt?
00:32:04: Genau!
00:32:05: Und da wäre dann sozusagen die Idee, die Plattform ... Die muss ja meinen Namen gar nicht kennen.
00:32:11: Sondern die muss im Prinzip nur die Information von der EUID-Wallard bekommen.
00:32:15: Da ist jemand?
00:32:17: Der ist über achtzehn oder er ist über sechzehnt oder über vierzehn und was auch immer.
00:32:21: Also das ist so zu sagen die Idee.
00:32:23: Das heißt also, dass sozusagen auch nicht das Geburtstatum rausgegeben wird sondern einfach nur ein Ja oder Nein.
00:32:29: Genau, und das kommt natürlich mit ganz vielen lustigen Problemen.
00:32:33: Also die häufigst gestellte Frage ist ja immer so.
00:32:36: Die Annahme ist, dass man ... die EID-Wollet dann nicht umgehen kann.
00:32:40: Weil das ist an das Gerät gebunden und es ist alles gar kein Problem.
00:32:45: So, jetzt kommt die Frage.
00:32:47: Wie überprüfe ich denn, dass jemand seine EID Wallet benutzt hat, um dreißig Social Media Accounts zu erstellen?
00:32:54: Und sie dann zu verkaufen?
00:32:56: Gar nicht oder?
00:32:57: Genau!
00:33:00: Das kommt halt mit diesem Anonymitätsfaktor, ne?
00:33:03: Also wenn ich ...
00:33:05: Kann man ja heute auch nicht prüfen.
00:33:07: Genau!
00:33:08: Ich mein gut irgendwann, weil man zu viele zusammenmacht mit der gleichen Telefonnummer.
00:33:13: Ja,
00:33:14: das wird bei dir wohl nicht der Fall sein.
00:33:16: Weil die versprechen und deswegen finden die Politikerinnen das ja alle.
00:33:20: so toll ist ja dass nichts über mich bekannt gegeben wird.
00:33:25: es sagt nur ja Diese Person ist über achtzehn.
00:33:28: Es wird kein Identifier übergeben, es wird nicht getaggt, das wird gar nichts
00:33:33: gemacht.".
00:33:35: Das heißt ich kann einfach vielleicht über die IP-Adresse könnte man's noch machen.
00:33:40: aber ansonsten kann ich nicht nachweisen dass eine Person ein oder zweihundert Social Media Accounts erstellt hat weil die Idee wenn sie dann technisch fertig ist also das ist nochmal ne ganz andere Geschichte ist, dass es wirklich sozusagen nur ein binäres Fleck gibt.
00:33:57: Was sagt ja Person ist über achtzehn oder nein, Person ist nicht über acht Zehn.
00:34:02: And that's it!
00:34:03: Das heißt das Argument ist weniger...das ist ein Datentausproblem als vielmehr das ist eine Lösung die gar nicht löst was sie verspricht?
00:34:14: Naja also aus dem aktuellen Diskurs um Altersverifikation wissen wir halt Es wird halt nicht reichen, nur Verifikationen über die EID anzubieten.
00:34:24: Wie viele Leute kennt ihr, die die Digitalfunktion von Ihrem Personalausweis benutzt?
00:34:29: Null!
00:34:32: Also damit fängt's schon an... Ja
00:34:34: ich glaube aber dann würden es die Leute machen.
00:34:36: also wenn sie sich da mit bei Instagram oder TikTok anmählen das würde auf jeden Fall nicht... Da kriegst
00:34:40: du es halt irgendwie raus ja.
00:34:42: Naja, aber
00:34:44: nicht jeder hat ein europäisches Ausweistokument.
00:34:49: Also das wäre dann so die Kritik, dass es im Zweifel Leute ausschließt von Social Media.
00:34:56: Weil diese EU-ID Wallet nicht ...
00:35:00: Es geht noch weiter.
00:35:02: bei der EID Wallets ist auch noch ungeklärt.
00:35:05: also die baut auf.
00:35:08: Also erst mal ist es eine Zentralisierung.
00:35:10: Wenn ich kein Ausweisdokument habe, hab' ich keinen Zugang zur Plattform.
00:35:13: Die baut aber auch auf dem kryptografischen Protokoll was kriptografische Beweise rechnet die sozusagen auf der Hardware ins eigene Smartphones bei den älteren also bei nicht den High-End super neuen Geräten gar nicht funktioniert.
00:35:28: das heißt dieses Hardware Security Modell muss halt in der Cloud gerechnet werden.
00:35:32: Das heißt ich muss dann auch... Ich hab dann trotzdem immer noch irgendeine Verbindung.
00:35:35: Es ist jetzt nicht so dass wirklich, wirklich nur auf meinem Gerät gerechnet wird.
00:35:41: Weil das hardwaretechnisch aktuell gerade gar nicht möglich ist.
00:35:45: also da gibt es ganz viele Feinheiten in der Implementierung die noch so ein bisschen ungeklärt sind.
00:35:50: und was ist eigentlich wenn ich einen Fairfond habe?
00:35:52: Was ist wenn ich ein alternatives Betriebssystem hab?
00:35:53: funktioniert das denn überhaupt?
00:35:55: Unklar!
00:35:56: Also das kann auch schon sein dass Leute ausgeschlossen werden weil sie einfach nicht das neues Smartphone haben oder das Protokoll noch nicht weit genug entwickelt ist.
00:36:04: Aber
00:36:04: auf den Wüter
00:36:05: würde's auch funktionieren.
00:36:06: Die
00:36:08: ID-Wallet ist erst mal nur auf deinem Handy.
00:36:11: Also, wenn du kein Smartphone hast, hast du auch keine ID-wallet?
00:36:15: Keine Instagram.
00:36:16: Aber das geht ja eh nicht auf den Knochen.
00:36:18: Genau!
00:36:20: Es geht gar nicht.
00:36:21: Das ist dann so ein Henne-Eil-Problem wahrscheinlich ... aber so sieht es halt einfach aus.
00:36:27: Der CCC ist traditionell skeptisch bei Verboten und so ist es jetzt auch bei dem... Was ist denn der Gegenvorschlag?
00:36:36: Naja wir haben ja die letzten fast vier Jahre daran gearbeitet, ein Gesetz zu schreiben auf EU-Ebene.
00:36:41: Was den EU-Markt harmonisieren soll das genau an der Stelle ansatz die wir auch kritisieren nämlich die toxischen Geschäftsmodelle von Plattformen.
00:36:51: so Das Problem ist ja nicht dass Kinder Zugang zur Social Media haben sondern das Problem ist Social media und dieser Wildwuchs an süchtig machenden toxischen Algorithmen Die auch ganz bestimmte Kommentare und Inhalte einfach vorzugen.
00:37:09: Und wir haben dieses wunderschöne Framework mit ganz, ganz vielen Auflagen und Sachen die durchgesetzt werden müssen.
00:37:17: also es passiert ja langsam jetzt auch so mit dieser ersten Genau, Untersuchung der Kommission.
00:37:23: Also vielleicht noch mal für die Hörerinnen, die das diese Abkürzung noch nicht kennen?
00:37:28: Es gibt auf EU-Ebene ein Gesetz, das ist der sogenannte Digital Services Act und die Idee von dem Digital Services act ist eben Plattformregulierung.
00:37:35: also es gibt dieses Gesetz und das ist sozusagen auch das schärfste Sperrt was wir haben um nachhaltig mit den Problemen von Social Media Plattform sagen umzugehen bzw sie zu regulieren.
00:37:50: Ich warst so noch eine Frage, weil ich habe nur noch ne letzte gemeine Frage.
00:37:54: Aber du sagst du sonst?
00:37:56: Das heißt aber, du gehst davon aus dass die Mittel, die der DSA bereit stellt nicht genutzt werden und die würden aber, sagst Du eigentlich das Problem lösen.
00:38:05: wenn man diese süchtig machenden Geschäftsmodelle also Addictive Design ist ja die davon ist die Reden in den USA Die quasi unterbinden würde dann wäre das Problem gelöste.
00:38:16: Man bräuchte Diese Alterskontrolle gar nicht, ist das das Argument?
00:38:20: Viel schlimmer.
00:38:21: Ich glaube wenn wir in der Alterssphäre Kontrolle einführen dann entsteht ein falsches Sicherheitsgefühl.
00:38:28: Dann sagen wir nämlich
00:38:30: cool
00:38:31: Die unter sechzehnjährigen sind safe.
00:38:34: die Motivation jetzt noch wirklich was an diesen Geschäftsmodellen zu regulieren Ist viel geringer als wenn wir sagen okay wir haben hier diese Notwendigkeit wirklich nachhaltig etwas zu verändern.
00:38:46: So ist da ein super
00:38:47: wichtiges Argument.
00:38:49: Ich weiß
00:38:49: nicht, ich finde man müsste bei das machen.
00:38:51: Das stimmt aber da findet ja nicht
00:38:53: das was passiert weil
00:38:55: EU
00:38:56: die gerade Handelskrieg spielt mit den USA.
00:39:00: Diverse Organisationen die sich für Digital Service Act Durchsetzung einsetzen sind auf Boardschlisten gelandet viele werden auch Überwacht und also es gibt wirklich üble Kampagnen gegen NGOs, die sich darum kümmern.
00:39:13: Und das ist natürlich ein Easy Win für die EU-Kommission zu sagen, wisst ihr was?
00:39:17: Wir führen einfach Altersverifikationen ein, dann sind die Eltern beruhigt in Anführungsstrichen und wir müssen nicht weiter mit euch Handelskrieg über den Digital Services Act spielen.
00:39:26: Also jetzt so sehr überspitzt gesagtlich.
00:39:27: Ich glaube, dass darf man nicht unterschätzen, dass da wirklich gerade viel passiert.
00:39:32: Und diese Dynamiken kannst du natürlich gut einschätzen Politik.
00:39:39: Ja, krass!
00:39:40: Ich finde es wirklich ein wichtiges Argument und dass das dazu führen kann, dass wir eigentlich unsere eigene Verhandlungsposition schwächen... Und am Ende uns dadurch doppelt schaden ja?
00:39:51: Weil also erstens wie du ja auch schon angedeutert hast für diese Altersverifikation wird nicht funktionieren.
00:39:56: Also das wird nur dazu führen, dass die Leute andere Wege finden sich Accounts zu kaufen oder
00:40:03: in die UZO umgehen oder
00:40:05: noch schlimmer genau Und die Plattformen können machen, was sie wollen.
00:40:09: Dieses Adjektiv-Design wird überhaupt nicht in Frage gestellt und das schadet ja tatsächlich auch allen anderen.
00:40:14: Das schadete ja nicht nur bis sechzehn sondern auch danach noch.
00:40:18: Zviya, was ist deine gemeine Frage?
00:40:20: Meine letzte, genau, das heißt gemeine, aber hypothetisch du hättest eine dreizehnjährige Tochter oder ein Sohn.
00:40:29: dürfte er oder Sie TikTok nutzen?
00:40:31: Ich glaube, es ist immer eine schwierige Frage an Menschen mit sehr viel Medienkompetenz.
00:40:35: Weil ich glaube die können natürlich ihre Kinder anders an die Hand nehmen und auch das vielleicht anders vorleben.
00:40:40: also ich bin häufig auch so unterwegs auf so Elternabenden um mit Eltern über den Umgang von Kindern und Jugendlichen mit dem Internet zu sprechen.
00:40:47: was sie am meisten sagen is ja ich bin ja selber total abhängig ich weiß gar nicht wie ich meinem Kind aufzeigen soll Wie es richtig mit seinem Gerät umgeht?
00:40:56: Und auf der anderen Seite wenn man dann mit Kindern und jugendlichen redet zumindest welche die so ein bisschen ich sag mal, reflektierter sind.
00:41:02: Dann ist häufig die Antwort, na ja ... Ich hab meine Bildschirmszeit für TikTok auf dreißig Minuten gestellt und wenn die aus ist, dann ist halt vorbei.
00:41:10: Für mich ist viel wichtiger zum Kommunizieren z.B.
00:41:13: Snapchat, weil ich da mit meinen ganzen Freundinnen verbunden bin und wir die ganze Zeit uns austauschen.
00:41:19: Also das ist natürlich auch eine Lebensrealität.
00:41:23: Das ist aber natürlich immer so der Edge Case.
00:41:26: Deswegen jetzt meine hypothetische Frage doch mal!
00:41:29: Wie würdest du's machen?
00:41:33: Ich glaube, es ist ... So.
00:41:34: Same-same!
00:41:35: Ich hab selber kein Instagram und ich benutze mein Handy auch relativ wenig.
00:41:39: Ähm... Ich glaub', ich würde irgendwie immer für einen reflektierten Umgang damit plädieren und sagen so hey ne sei dir darüber bewusst das sind sozusagen die Konsequenzen ähm.. Ich glaube' es ist ja auch total wichtig dass man also ich meine es ist für uns Erwachsene auch so Dass man lernt wie man damit umgeht.
00:42:00: Ich scroll da keine Ahnung, vier Stunden am Tag.
00:42:03: Vielleicht möchte ich doch lieber ein Buch lesen oder ... Sport machen oder irgendeine Alternative.
00:42:11: Und deswegen ziehe ich jetzt eine Konsequenz, ne?
00:42:13: Also ich werde da immer so für einen sehr begleitenden Umgang und ich glaube es kommt auch total auf das Kind drauf an.
00:42:21: also wenn ich zum Beispiel weiß dass mein kind sowieso total süchtig nach solchen Schlumpfbären spielen ist dann weiß ich ja okay das da ist irgendwas.
00:42:32: dem würde ich jetzt vielleicht nicht erlauben TikTok sich runterzuladen.
00:42:35: Aber wenn ich weiß, mein Kind möchte gerne der Tagesschau und der Tatts oder so auf Instagram folgen weil es die Tagesshow App nicht mag und das ist sein Main-Ding mit Social Media Politikerinnen folgen und Nachrichtenmedien folgen dann finde ich das eine total valide Sache.
00:42:55: also es gibt ja auch immer sozusagen unterschiedliche Nutzungswege von solchen Medien.
00:43:02: Und damit sind wir total rund, weil du hast am Anfang gesagt oder hast wieder so gesagt, Technik kann nicht alles lösen.
00:43:06: Technik wird total überschätzt und eigentlich haben wir das jetzt die ganze Zeit belegt bis zum Schluss.
00:43:13: auch das Thema des Addictive Designs können wir nicht nur technisch lösen sondern tatsächlich müssen wir selbst hinkriegen.
00:43:20: Das als IT Security Expertin als Informatikerin und jemand der sich den ganzen Tag nur um Technologie bewegt.
00:43:29: Ja vielen Dank!
00:43:30: für die Insights.
00:43:32: Elina Eichstedt, Kalisi
00:43:35: von
00:43:36: CCC.
00:43:37: Ja vielen Dank!
00:43:39: Wir
00:43:39: freuen uns natürlich über euer Feedback.
00:43:41: dir da draußen danke euch auch fürs Zuhören.
00:43:43: meldet euch gerne mit euren Kommentaren Fragen Vorschlägen zu dem Thema.
00:43:48: wir sind gut auf Mastodon zu erreichen.
00:43:51: du auch Kalisi?
00:43:52: oder wo erreicht man dich am besten mit Feedback?
00:43:55: Genau am Besten über Mastudon.
00:43:58: Und wenn ihr wissen wollt, was ich technisch mache könnt ihr mich auch auf GitHub finden.
00:44:02: Aber ...
00:44:02: Github und Masse dann!
00:44:03: Das sind doch zwei schöne Klartformen für unseren weiteren Austausch.
00:44:08: Gut!
00:44:09: Vielen vielen Dank!
00:44:10: Dann alles Gute
00:44:11: und
00:44:12: bis zum nächsten
00:44:25: Mal.
Neuer Kommentar