🚨 Prompt Injections, geheime Hacks und: Hat Meta beim Jugendschutz vertuscht?

Shownotes

Svea Eckert und Eva Wolfangel sprechen darüber, warum KI-Chatbots und Agenten wahrscheinlich nie wirklich sicher sein werden – und wie leicht sie sich manipulieren lassen, um geheime Daten preiszugeben. Außerdem: ein Whistleblower packt aus, wie Meta mit Fällen von sexuellem Missbrauch in Virtual-Reality-Welten umgeht – und warum der Konzern offenbar lieber schweigt, statt zu handeln. 👉 Eine Folge über Technik, Verantwortung – und die Frage, wie viel Risiko wir akzeptieren, wenn KI-Agenten Teil unseres Alltags werden. 🎙️ Hosts: Svea Eckert & Eva Wolfangel 🎵 Musik & Produktion: Marko Pauli

Shownotes: Prompt Injections bei Heise: https://www.heise.de/news/Grammatikfehler-machen-Prompt-Injections-wahrscheinlicher-10622885.html

Hat Meta beim Jugendschutz vertuscht? https://www.tagesschau.de/investigativ/ndr/meta-whistleblower-missbrauch-kinder-usa-100.html

Whistleblower Hearing: https://www.judiciary.senate.gov/committee-activity/hearings/hidden-harms-examining-whistleblower-allegations-that-meta-buried-child-safety-research

Transkript anzeigen

00:00:17: Hallo

00:00:17: und herzlich willkommen bei They Talk Tech.

00:00:21: Ich bin C.Eckard, Tech-Journalistin.

00:00:23: Ich

00:00:24: weiß meinen Vornamen

00:00:26: eben.

00:00:28: Genau, ich weiß meinen Namen aus, wenn ich es wert, ihren aufgeschrieben.

00:00:31: Aber ich bin Eva Wolf-Angeltech-Schollalistin.

00:00:34: Und ich freue mich sehr, dass ihr da seid.

00:00:36: Und zwar, dass du da bist.

00:00:37: Schön, dich zu sehen.

00:00:38: Ich

00:00:38: auch, was für ein... Jedes Mal ein Lichtblick

00:00:40: in meinen Namen.

00:00:42: Mit Eva hier zu Podcasten.

00:00:44: Diesmal auch wieder ganz besonders.

00:00:45: In Eva, du hast ein tolles Thema mitgebracht, mit dem du dich gerade beschäftigst mit Prompt Injection.

00:00:52: Nice!

00:00:53: Ja, damit beschäftigt mir schon lange.

00:00:55: Und ich hab jetzt noch mal aus aktuellem Anlass alles zusammengetragen, was ich bisher recherchiert hab.

00:01:00: Und ganz, ganz viele neue Beispiele recherchiert.

00:01:03: Und ja, mir ist echt einiges klar geworden.

00:01:06: Das erzähl ich euch und dir gleich.

00:01:08: Und du hast auch was mitgebracht.

00:01:10: Du hast dich mit, du hast neue Vorhüfe gegen Meter, oder dich mit neuen Vorhüfen gegen Meter beschäftigt.

00:01:14: Du hast ein Whistleblower-Interview.

00:01:17: Ja, ganz genau.

00:01:18: Also es gibt Vorwürfe, dass der Konzern beim Kinder- und Jugendschutz vertuscht haben soll.

00:01:24: Also Konzern, eigene Studien, nicht so, ja, ich sag mal da, nicht so ganz transparent war nach außen und

00:01:32: im Haus.

00:01:33: Darüber reden wir auch gleich.

00:01:38: Eva, ich liebe ja Prompt Injection, weil es ein bisschen anders ist und speziell ist.

00:01:46: Und du hast zu mir gesagt, du glaubst, Prompt Injections sind der Grund, warum KI-Anwendungen für immer hackbar bleiben und die besten Freundinnen von Cyberkriminellen und Spionern.

00:01:59: Genau, und zwar.

00:02:00: Ich habe im Vortrag gehalten, die Woche, und zwar beim Unternehmen ganz viele ... technisch versierte Menschen, Cybersecurity interessierte Menschen dabei waren.

00:02:10: Und das hat mir so die Gelegenheit gegeben nochmal richtig technisch tief einzutauchen.

00:02:13: Und ich habe selbst ein bisschen was gemacht.

00:02:16: Deswegen mag ich das auch total gerne.

00:02:18: Also Prompt Injection oder so Social Engineering von Chatbots ist was, was ich selbst sehr gerne mache.

00:02:23: Ich habe das ja ein paar Mal geschafft.

00:02:26: dass Chatbots mir Dinge verraten, haben die sie nicht verraten sollten.

00:02:29: Unter anderem ich will ein Reichels-E-Mail-Adresse, da hab ich ja schon mal davon erzählt.

00:02:32: Wer das noch mal wissen möchte, da hab ich beim CCC-Kongress einen Vortrag dazu gehalten, der ist ganz gut zu finden im Netz.

00:02:38: Kürzlich haben wir den Chatbot von Mercedes-Benz, der in den Autos mit den FahrerInnen spricht, dazu gebracht, uns was zu verraten, was zumindest nah am System prompt ist.

00:02:50: Mercedes-Benz hat das nicht bestätigen wollen.

00:02:53: Aber zumindest hat er uns verraten, dass er nicht über den Klimawandel sprechen darf, sondern nur über positive Dinge reden darf.

00:02:57: Also so habe ich auch meine eigenen Erfahrungen gemacht und ich habe mich noch ein bisschen, bisschen mich reingeknied in Beispiele.

00:03:04: Bevor es losgeht, Eva, lass uns einmal ganz kurz Basic sagen.

00:03:07: Was ist ein Pump-Injection-Angriff?

00:03:10: Das ist soweit ich weiß immer dann.

00:03:12: wenn man sozusagen böswillige Eingaben als Legitimen prompt tarnen kann und damit sozusagen die KI manipuliert.

00:03:20: Ich kenne das, weil mal Forscher sowas gemacht haben auf einer Webseite, wo ein Chatbot gelaufen ist und dass sie dann sozusagen so den Sachen gesagt haben oder den Sachen gefragt haben, sodass er quasi geheime Informationen über andere Nutzer oder über sich selbst ausgespuckt hat.

00:03:38: Sowas ist das.

00:03:39: Genau, das war mein erster Artikel dazu.

00:03:40: Und zwar kurz nachdem die... dass die Öffentlichkeit erstmals Zugriff auf so einen Chatbot wie ChatGPT hatte, haben mir das Forscher und Forscherinnen schon demonstriert.

00:03:48: Und auch ist aber richtig, ich habe es gerade ein bisschen vermengt.

00:03:49: Also es gibt so ein bisschen zwei Eigenschaften, die Chatbots interessant machen für Manipulation mit auch bösem Hintergrund.

00:03:57: Das eine ist, man kann sie so wie Menschen eben auch... Social Engineer, das heißt, man kann sie manipulieren, man kann sie letztlich ist es überreden, Dinge zu tun, die sie nicht tun sollen, also Sachen verraten.

00:04:09: Und das andere ist, man kann sie dazu benutzen, auch auf anderer Menschen Geräte Dinge zu tun, die sie nicht tun dürfen, weil ja Chatbots und das ist das, was jetzt gerade so spannend ist, immer mehr Zugriff haben auch auf Computersysteme von Unternehmen und Firmen oder auch Einzelpersonen, weil man ja diese ganz wunderbare, agente Zukunft, die wir gesehen haben, auch ihre Probleme hat, aber man die ja nur nutzen kann, also auch noch andere Probleme hat, außer dass da ziemlich viel Unsinn daraus kommt.

00:04:40: Den großen Vorteil hat man ja nur, wenn man den Systemen-Zugriff gibt, erstens auf eigene Daten, aufs eigene System zumindest bis zum gewissen Grad und eben aufs Internet, weil natürlich die Dinge recherchieren müssen für einen oder dieses berühmte E-Mails zusammenfassen, eben die eigenen E-Mails lesen und damit dann auch schon Zugriff haben, manchmal sogar auf den Posteingang, ohne dass da noch eine Aktion von dem Nutzer der Nutzerin von Nöten ist.

00:05:09: Und ich habe jetzt eben für diesen Vortrag ganz, ganz viele Beispiele zusammengetragen, in denen beides gezeigt worden ist.

00:05:15: Eines war mit ohne Interaktion des Nutzerens der Nutzerin.

00:05:18: Aber ganz, ganz groß im Kommen sind eben auch so Dinge, wo man Social Engineering von Menschen und Maschine sozusagen kombiniert.

00:05:25: Also, wo der Agent unter dem Vorwand, zum Beispiel, ich hab deine E-Mails zusammengefasst, ich hab deine...

00:05:30: Wer gerade nämlich genau meine nächste Frage gewissend gibt, mal ein Beispiel.

00:05:35: Also ein Beispiel, das, was ich auch schon von der ganzen Zeit recherchiert hab, ist, da haben Menschen so ASCII-Zeichen genutzt.

00:05:43: um eine URL teilweise unsichtbar werden zu lassen.

00:05:48: Also es gibt sogenanntes ASCII-Smuggling.

00:05:50: Da werden Unicode Text benutzt, die dann quasi in einer URL vorhanden sind, aber für Menschen nicht zu sehen sind.

00:05:57: Also dieser Code, die URL sieht viel kürzer aus für Menschen, als sie real ist.

00:06:02: Sollen wir einmal ASCII erklären?

00:06:03: Ich weiß, das ist das kleine Informatiker, innen einmal eins, aber es hören uns ja auch andere Menschen zu.

00:06:09: Also ASCII-Coach steht für American Standard Code.

00:06:13: Information Interchange und das ist ein Zeichensatz der jedem Zeichen, also eben Buchstaben eine eindeutige Nummer zuweist, so dass der Computer sie dann auch verstehen und verarbeiten kann.

00:06:25: Und dementsprechend kann man sich sozusagen auch wieder dann vorwärts und rückwärts vorstellen, dass man sozusagen ein ASCII Code eingibt und Dann kommt Unicode, es sind dann die Buchstaben raus und umgekehrt.

00:06:36: Genau, und es gibt ganz jede Menge Tools da draußen, mit denen man das in beide Richtungen machen kann.

00:06:41: Ich habe eines gesehen, das heißt ASCII Smuggler.

00:06:44: Damit kann man eben in beide Richtungen entweder eine, also man kann mit Copy-Paste einfach eine URL oder ein anderes Stück Text reinkopieren und dann eben sehen, ob da auch unsichtbare Zeichen vorhanden sind und man kann unsichtbare Zeichen verstecken lassen, dass Menschen die nicht mehr sehen.

00:06:56: Der eine Angriff war eben so Co-Pilot und das war ein Angriff, also ein Demo auf das schon aktive Co-Pilot.

00:07:03: System allerdings ist schon, glaube ich, knapp zwei Jahre her, wurde natürlich inzwischen geschlossen, die Lücke.

00:07:08: Das ging so, der User instruiert Co-Pilot, bitte fasst mir eine E-Mail zusammen.

00:07:14: In der E-Mail ist, das ist eine bösartige E-Mail, da sind versteckte Anleitungen dazu, dass der Co-Pilot durch Alle anderen E-Mails einmal durchschauen soll und gucken soll, ob irgendwo zum Beispiel das Beispiel war Verkaufszahlen für einen bestimmten Ort drin sind, also Informationen dienen Spion, vielleicht interessieren würde eine Spionin oder das andere Beispiel war so ein One-Time Password, also so eine Art zweiter Faktor, der per E-Mail kommt, schickt ja, schicken ja Unternehmen wie PayPal zum Beispiel auf, wenn sie sich nicht sicher sind, wenn irgendwas auffällt, ob die Person ... wirklich die Person ist, die Formrechner sitzt dann schicken die ja manchmal noch so ein One-Time-Code per E-Mail oder SMS.

00:07:52: Und diese zwei Dinge haben eben die Forscherinnen und Forscher den Chatbot Co-Pilot gebeten, in E-Mails zu suchen in Form von unsichtbarem Text in der E-Mail.

00:08:01: Aber LLM sehen natürlich, also sehen den Text ja nicht wie wir, die haben ja keine Augen, sondern die klicken natürlich alle Informationen mit, die da irgendwie drin sind, ganz klassisch ist.

00:08:10: zum Beispiel weiß auf weiße Buchstaben oder schwarz auf schwarze Buchstaben.

00:08:14: Schon ist der Text für uns nicht sichtbar und für Chatbots ist gar nichts anders als sonst.

00:08:19: Die sehen den Texte einfach.

00:08:22: Und dann hat eben, der zweite Schritt war dann eben, dass der Chatbot einen Link erstellen sollte.

00:08:27: Und dann kann man beliebig zum Beispiel dem User sagen, hier ist der Link mit weiteren Informationen, der dann eben ganz, ganz harmlos aussah, weil er eben mit Ascii Smuggling ergänzt war.

00:08:37: Und in diesem Link war dann eben die die der Angreiferin gesucht hat.

00:08:42: Also zum Beispiel die Verkaufszahlen oder eben dieses One-Time-Password wurde dann quasi in den Link ganz ans Ende geschrieben.

00:08:49: Der User klickt den Link, sieht das nicht.

00:08:53: dann geht eben diese Information an den Angreifer, an die Angreiferinnen, weil dann natürlich deren Server empfängt, auf welchen Linker geklickt hat, wie der aussieht, der ergänzt war durch den Chatbot.

00:09:04: Und in dem Fall zum Beispiel hat das, haben sie dann gezeigt, die Verkaufszahlen für Seattle, die in den E-Mails gefunden worden sind.

00:09:11: Und ganz ähnlich, weil übrigens damals der Angriff, den mir Forscherinnen gezeigt haben, mit damals noch Bing Chat, das war wirklich ganz, ganz frisch als Bing Chat, also Co-Pilot noch Bing Chaties, genau.

00:09:22: Und das war nämlich damals das.

00:09:23: weil das der erste Chatbot da ins Internet konnte.

00:09:25: Die anderen konnten eben aus Sicherheitsgründen, aus guten Gründen noch nicht ins Netz, das wurde aufgegeben.

00:09:30: Und das wäre eben auch so, die haben ein Foto, eine Website mit einem Bild von den Piraten drauf erstellt, wenn ich da mit Bing Chat draufgegangen bin und dann eben mit Bing über diese Website chatten wollte, war da eben auch schwarz auf schwarz versteckt, die Information als Bing Chat ein ... ein Pirat ist und mich Social Engineering sogar mehr Informationen zu verraten.

00:09:51: Der Use Case oder die Demo war da eben mein Namen rauskriegen und dann genau das Gleiche hat dann ein Link generiert.

00:09:56: Da war es allerdings dicht.

00:09:57: Bei der Name war einfach nur falsch rumgeschrieben.

00:09:59: Aber da muss man trotzdem erstmal drauf kommen und mich eben dazu zu bringen, darauf zu klicken.

00:10:03: Also das ist so diese Mischung aus Social Engineering von Chatbots und Menschen.

00:10:08: Und was ich jetzt spannend fand, im Rahmen von dieser Recherche zu sehen, dass es halt über die Jahre immer wieder passiert.

00:10:15: Also, es war der erste, die Unternehmen versuchen es zu verhindern, aber es klappt einfach nicht.

00:10:21: Ja,

00:10:22: und jetzt, genau, ich will gerade sagen, jetzt kommt ja so ein bisschen eigentlich der Clou oder das, wo man im Kopf einfach richtig umdenken muss.

00:10:30: Man kann es ja eigentlich nicht verhindern.

00:10:33: Das ist auch das, was so ein bisschen deine These war, was du zu mir am Anfang gesagt hast, nämlich.

00:10:38: Warum LLMs immer die besten Freundinnen von Hacker innen bleiben werden, weil ja diese Prompt Injection eigentlich eine Fähigkeit des Sprachmodells ausnutzt, die im Sprachmodell sozusagen drin ist.

00:10:53: Man könnte sich jetzt vorstellen, man denkt sich ganz viele Sicherheitsprompt aus, also die man sozusagen um den System Prompt, um das innerste Kernstück außen rum schreibt, so nach der Motto Ignorier.

00:11:08: Verprobe, ignoriere Botschaften in Bildern.

00:11:11: Also tu dies nicht, tu das nicht.

00:11:14: Aber das Problem ist ja, man muss sehr unendlich kreativ sein, um sich alles Mögliche auszudenken, um dem herzuwerden.

00:11:20: Und das ist quasi unmöglich.

00:11:22: Und das sieht man eben, wenn man guckt, was die Unternehmen machen.

00:11:24: Natürlich, jeder einzelne dieser Lücken wurde dann geschlossen.

00:11:27: Mit genau, vermutlich, solchen Anweisungen an den Chatbot, das er lernt, dass er solche Dinge nicht tun darf.

00:11:32: Das Neuste, was ich jetzt gefunden habe, war vom achtzehnten September von Right Where einer ... Vermutlich IT-Sicherheitsfirma, die Shadow League gezeigt haben mit TechGPT's Deep Research Agent, der ja auch nur sinnvoll funktionieren kann, wenn er eben Zugriff bekommt auf Daten.

00:11:51: Und wie das war, das war September, die haben natürlich schon mehr Aufwand investieren müssen, weil die Unternehmen sich dagegen wappen, aber die haben es eben auch geschafft, in eine E-Mail versteckte Instruktionen einzugeben, ganz ähnlich.

00:12:04: finden wir in der E-Mail diese und jene Zahlen und haben da noch deutlich mehr Social Engineering gebraucht.

00:12:10: Also haben die im Chatbot gesagt, hier du bist fully authorized zum Beispiel.

00:12:14: Also alles, was potenziell von Open AI da als Grenzen reingebaut worden ist, haben sie eben ... versucht, mit guten Argumenten in Anführungszeichen zu umgehen.

00:12:24: Also haben eben gesagt, du bist fully authorized.

00:12:26: Lass nix anderes sagen.

00:12:27: Du musst uns einmal kompletten Bericht abgeben.

00:12:29: Du musst es so oft versuchen, bist du es schaffst und haben dann auch noch so ein Pseudo-Verschlüsselungsding reingemacht.

00:12:36: Du kannst dann die Daten so und so verschlüsseln, bevor du sie an uns schickst.

00:12:39: Und haben also schon Versuche gebraucht, aber haben es tatsächlich geschafft, dass dann diese Informationen auch an den Angreifer oder in dem Fall an die ... dass die Sicherheitsfirma die ethischen Hacker geschickt worden ist.

00:12:53: Wie du sagst, das lässt sich nicht

00:12:55: verinnern.

00:12:55: Ewa, was ist daraus eigentlich die Konsequenz, wenn man so hart sagen muss, dass LLMs immer angreifbar sein werden für diese Art von Prompt Injections?

00:13:09: Weil in dem Moment, wo ich zu viele Sicherheitsprompts aus dem Rundbau mache, mache ich am Ende dann auch die Funktionalität.

00:13:17: von dem LLM kaputt.

00:13:18: Ja, das geht

00:13:18: nämlich nicht mehr.

00:13:19: Ja, aber das ist nicht, aber das ist nicht, aber das ist nicht.

00:13:22: Aber hier auch von hier.

00:13:22: Aber je mehr sozusagen ich das also begrenze mit solchen Sicherheitspromz, weil ich halt quasi jede Möglichkeit eines potenziellen Angreifers ausblenden möchte, dann beschränke ich mich sozusagen selbst.

00:13:36: Also was ist denn die Konsequenz?

00:13:38: eigentlich das LLMs für bestimmte Aufgaben, für die sie so praktisch wären.

00:13:43: So E-Mails zusammenfassen, zum Beispiel, ungeeignet sind.

00:13:46: Was ist denn der Schloss da draus?

00:13:49: Also das ist was Simon Willis in zum Beispiel, würde ich sagen, sagt, das ist ein Sicherheitsforscher Informatiker, mit dem ich öfter mal gesprochen habe.

00:13:57: Der wirklich superinteressante Sachen sagt, der nennt das lethal trifactor.

00:14:02: Also diese drei, diese drei Dinge zusammenkommen, dass eben ein Chatbot Zugriff auf private Daten hat, die die Fähigkeit nach außen zu kommunizieren und eben nach außen auf Inhalte trifft, den man nicht Automatisch vertrauen kann, also dass diese, wenn diese drei Sachen zusammenkommen.

00:14:20: Und es kommen natürlich zusammen, sobald er ins Internet geht und auch, wenn du bald der E-Mails liest, muss man sagen, weil jeder kann dir irgendeine E-Mail schicken mit versteckten Botschaften drin.

00:14:28: Gibt es eigentlich keine Lösung und du musst dich, also ich glaube, was eine, was daraus folgt, ist, dass man sich eben dessen bewusst sein muss.

00:14:36: Ein bisschen hat man gesehen.

00:14:37: einige der Angriffe brauchen jetzt doch wieder Userinteraktion, also indem du zum Beispiel dann auf den Link klickst.

00:14:44: Das ist aber, glaube ich, tatsächlich immer schwieriger zu unterscheiden für Userinnen und User, die mit solchen Agenten arbeiten.

00:14:51: Weil natürlich dann, also ein Beispiel war dieser Browser, Agentic Browser von Perplexity, Comet Browser, den habe ich nicht ausprobiert.

00:14:59: Der soll aber richtig gut sein, der einem Websites zusammenfasst und so weiter.

00:15:02: Und da war eben auch einfach so ein Beispiel, der hat dann ... mit versteckten Anweisungen.

00:15:09: Und dann sagt er, hier ist die Zusammenfassung und der Link sieht total harmlos aus.

00:15:12: Und dann klickst du drauf, dann ist es schon passiert.

00:15:15: Also, das braucht.

00:15:17: auch oft Userinteraktion.

00:15:19: Weil natürlich, also das erste Trick ist, dass du sagst, kein Agent darf automatisch irgendwelche Sachen aus meinem System rausschicken.

00:15:27: Das ist ja was genau.

00:15:28: So kann man natürlich recht viel verhindern.

00:15:30: Aber dann natürlich, dann kommen natürlich die ganzen Tricks mit Social Engineering auch wieder in Bezug auf die Userinnen und User.

00:15:35: Und die Beispiele, die ich gesehen habe, ja, ich glaube, die sind wirklich schwer definitiv zu verhindern.

00:15:41: Deswegen glaube ich schon, muss man sich einfach sehr, sehr gut überlegen.

00:15:46: welche Freigaben man so einem Agenten, so einem KI-Agenten gibt.

00:15:50: Und jetzt gab es ja auch viele Berichte darüber, dass diese ganzen agentischen Use-Cases auch zu ziemlich viel Unsinn führen.

00:15:57: Also dass die nur, teilweise nur vordergründig uns die Arbeit abnehmen.

00:16:01: Das ist vielleicht auch teilweise eine Marketing-Behauptung ist.

00:16:04: Also auch vor dem Hintergrund kann man, glaube ich, überlegen, ob man so was einfach doch weniger einsetzt, als es ... Als es lockt.

00:16:12: Also jetzt nur noch mal als Beispiel, also würde das zum Beispiel bedeuten, wenn ich jetzt so ein Art E-Mail-Agenten habe, der mir selbstständig E-Mails beantworten soll.

00:16:23: Ja, oder eine bestimmte Art von Mail, so sage ich ja, bei Terminanfragen.

00:16:28: Schau in meinen Terminkalender und wenn ich da Zeit habe, dann schicke eine freundliche Zusage.

00:16:34: Und wenn ich keine Zeit habe, schicke eine freundliche Absage.

00:16:37: So könnte sowas ja theoretisch.

00:16:39: aussehen.

00:16:39: Und dann wäre natürlich die Gefahr bei einer Prompt Injection, dass ich eine E-Mail erhalte.

00:16:44: Die sieht für mich als Mensch ganz easy-peasy normal aus.

00:16:47: Da ist gar nichts drin.

00:16:49: Aber die enthält die verbotene Anweisung irgendwelche geheimen Sachen aus meinem Postfach rauszusuchen und die zurückzuschicken.

00:16:57: Und das würde dann funktionieren, weil der KI-Agent damit dann überlisted werden könnte.

00:17:03: Und selbst wenn du dann quasi die Hürde einbaust und sagst, jede E-Mail lese ich selbst noch mal durch, hast du ja das Problem auch, dass da versteckte Sachen drin sein können.

00:17:10: Das heißt, der Aufwand, diese E-Mails zu kontrollieren, wird unglaublich hoch.

00:17:14: Du musst dir auf versteckten Code versteckte Aske zeichnen.

00:17:17: Ich weiß auf weiß, schwarz auf schwarz.

00:17:18: Sonst was untersuchen.

00:17:20: Und die Angreiferinnen werden ja auch immer besser darin, solche Sachen zu verstecken.

00:17:23: Und deswegen hast du dann am Ende nichts davon.

00:17:25: Das würde in der Konsequenz bedeuten, dass ich so einen KI-Agenten gar nicht dafür benutzen kann.

00:17:31: wie E-Mails vorzuformulieren.

00:17:33: Ich würde es jetzt aktuell tatsächlich nicht machen, weil mein Eindruck ist, das was du an Arbeit hast, das alles zu überprüfen, ist eigentlich... Viel mehr Arbeit als es dir spart am Ende.

00:17:44: Solche Dinge wie automatische Absagen oder Automationen kann man ja ganz gut mit Regelbasiert lösen.

00:17:51: Oder einfach mit einer Autoreply, wenn mir eine E-Mail schreibt, kriegt die zum Beispiel mit einigen Anweisungen.

00:17:56: Das ist einfach eine E-Mail.

00:17:57: Das mache

00:17:57: ich immer, wenn ich einsam bin.

00:17:58: Ich

00:17:59: schreibe mir eine E-Mail, dann

00:17:59: komme ich

00:18:00: ganz lange zurück.

00:18:01: Ich schreibe immer eine E-Mail und dann macht es bei mir immer ein Ding.

00:18:05: Und dann kommt, ich lese meine Mails nicht oder ähnlich.

00:18:09: Viel mehr

00:18:10: Text, viel mehr Text.

00:18:11: Man kann auch dann, kommt auch ein Link zum drauf klicken, der ist übrigens ein netter Link, also der ist auch nicht bürsteltisch.

00:18:16: Denke

00:18:16: ich dann immer, der denkt immer, okay, keiner schreibt mehr, aber Eva schreibt mehr.

00:18:21: Das ist ja gut.

00:18:21: Also wer das brauche so will, schreibt mir nie mehr.

00:18:24: Also genau, ich inzwischen denke ich, dass man viele Dinge doch mit regelbasierten Systemen besser lösen kann.

00:18:29: Auch so Chatbot-Geschichten, die Unternehmen fragen mich dann, ja, ist es denn sicher, ein Chatbot auf meiner Website zu haben?

00:18:33: Und das ist ja das andere, dass dieser Chatbot wird ja auch mit, wird im Zweifel auch Antworten geben, die du vielleicht nicht... nicht gern hast, nicht gern hast, also auch das, und das haben wir bei der Mercedes-Benz-Recherche eben gezeigt, natürlich wollten die nicht, dass der Chatbot uns verrät, dass er nicht über den Klimawandel sprechen darf, sondern dass er halt einfach solche Fragen, solche Themen geschickt umschrift, aber wenn man ihr halt auf eine bestimmte Art und Weise fragt oder lang genug ja rumsocial engineer, dann verrät er eben solche Dinge.

00:19:01: Und man hat es nicht in der Hand, also man kann es nicht verhindern, was der Chatbot antwortet.

00:19:05: Und deswegen habe ich so Unternehmen, die fragen, da können wir nicht in Chatbot, der wenigstens so was sagt, wie wenn du das untersuchst, ist es da und da auf der Website haben.

00:19:12: und ich habe gesagt, ich würde vorschlagen, sowas regelbar zu machen und nicht mit einem Chatbot oder mit einem LLM.

00:19:17: was dann eben, ja, weil du halt es nicht in der Hand hast, was die Systeme am Ende schreiben.

00:19:22: Es gab diesen bekannten Fall von einer Fluggesellschaft, die ein Chatbot hatte, der hat dann einen Passagier versprochen, er bekommt sein Geld zurück, weil er seinen Flug verpasst hat.

00:19:30: Das stimmt aber, also der war selber schuld.

00:19:32: Rein rechtlich gesehen hätte der kein Geld zurückbekommen müssen.

00:19:35: Aber ein Gericht hat dann gesagt, na gut, aber hier wurde ihm ja von der Fluggesellschaft das zugesichert.

00:19:39: Dann haben die es bezahlen müssen.

00:19:40: Also das ist zum Beispiel, man sieht, dass es ... Am Ende, ja, durchaus heikel ist einfach ein großes Sprachmodell in die eigene Website einzubinden.

00:19:47: Ja, so schade es ist.

00:19:48: Es gibt schöne Use-Cases für large-language-Models, aber nicht alle sind...

00:19:53: Der ist es nicht.

00:19:54: ... sinnvoll.

00:19:54: Ja.

00:19:55: Also,

00:19:55: schöne neue Welt mit kleinen, grauen, schwarzen Stellen.

00:20:00: Die haben wir jetzt aber schön ausgeleuchtet.

00:20:02: Ja,

00:20:02: genau.

00:20:13: Erzähl von deiner Recherche.

00:20:14: Du hast einen Whistleblower von... Meta gesprochen.

00:20:19: Und er hat rausgefunden, dass Meta versucht Vorfälle in dem vergießenen VR-Headset und sexuellen Missbrauch an Kindern und Jugendlichen zu verheimlichen.

00:20:30: Erzähl mal, was war der denn?

00:20:32: Genau, also das war tatsächlich so, dass der Whistleblower beziehungsweise über seine Anwaltskanzlei, die ihn vertritt, das ist WhistleblowerAid in den USA, dass die sich auch nochmal an uns gewendet haben, weil ich ja vor einigen Jahren Francis Haugen interviewt habe.

00:20:48: Francis Haugen war die Produktmanagerin von Meta, die so, würde ich sagen, die erste wirklich große Whistleblowerin war, die auch mit Namen rausgegangen ist, ganz viele Konzerneigene Unterlagen.

00:21:00: quasi öffentlich gemacht hat.

00:21:02: Und die haben sich an mich und auch noch an Kollegen von der Süddeutschen Zeitung gewendet und gesagt, hier, guck mal, es gibt wieder Whistleblower bei Meta.

00:21:12: Und es geht hier auch um einen Fall, der sich in Deutschland abgespielt hat.

00:21:17: Wollt ihr euch nicht diesen Fall einmal genauer anschauen und auch die Möglichkeit nutzen, mit Jason Zettison aus den USA zu sprechen.

00:21:24: Und das haben wir dann auch gemacht.

00:21:26: Wir haben uns die Unterlagen angeschaut.

00:21:28: Und der hatte tatsächlich gemeinsam mit einer weiteren Whistleblowerin bereits vor dem US-Senat ausgesagt, sodass also die Aussagen aus dem Interview auch sich natürlich auf diese Gesamtaussage, genau.

00:21:42: Es gibt so ein ganz großes Testimony, war eine Anhörung, die ging fast drei Stunden bezogen

00:21:46: hat.

00:21:47: Aber die war nicht öffentlich, diese Anhörung?

00:21:49: Doch, die ist öffentlich.

00:21:51: Die drei Stunden, die kann ich euch auch verlinken.

00:21:54: sehr, sehr ausführlich und wir hatten dann die Möglichkeit, ihn nochmal so ein bisschen hintergründiger zu befragen.

00:21:59: Vor allem interessant für uns natürlich der Fall, der sich in Deutschland abgespielt haben soll.

00:22:04: Was war denn jetzt immer?

00:22:05: Das kann man sich wahrscheinlich sehr gut vorstellen.

00:22:08: Meter macht auch zu Produkten soartig jetzt mal hauseigene Marktforschung oder so hauseigene Produktforschung.

00:22:15: wo sie dann so qualitative Interviews und Recherchen machen.

00:22:20: Und in dem Fall war es tatsächlich so, der ist Neurowissenschaftler von Haus aus.

00:22:25: Zwischen seit sechs Jahren bei Meta gearbeitet und hat also unter anderem für diesen VR Bereich Virtual Reality für die Oculus Rift oder für die Quest dann genau diese Studien gemacht.

00:22:37: Und dann war es also so, dass er zusammen noch mit einer weiteren Erwissenschaftlerin nach Deutschland geflogen ist und die waren dann hier auch über mehrere Wochen.

00:22:46: Und hier haben dann an drei Standorten in Deutschland die Nutzerinnen und Nutzer von der meteigenen VA-Brille-Interview, um herauszufinden, wie benutzt denn die Deutschen

00:22:58: ihre Brillen?

00:23:00: Weißt du, wie sie die gefunden haben?

00:23:01: Also wir haben sie ihre Interviewpartner in den rekrutiert.

00:23:04: Also das ist da ein ganz standardisiertes Verfahren.

00:23:07: Das läuft über tatsächlich deutsche Partnermarktforschungsinstitute und die haben immer so Panel.

00:23:12: Und die machen dann im Prinzip eine Abfrage und sagen, hey, wer hat eine Brille und wer hat Lust?

00:23:17: Ich vermute, dass es da auch ein bisschen Geld dafür gibt.

00:23:19: Wer hat Lust, bekommen zwei Researcher aus den USA von Meter.

00:23:22: Wer hat Lust, denen ein Interview dazu zu geben und so.

00:23:25: Also relativ unspektakulär.

00:23:28: Und dann kommen die da tatsächlich hingefahren.

00:23:31: Die kennen meistens die Leute im Prinzip nicht.

00:23:33: Die wissen auch die Adressen nicht in dem Sinne.

00:23:36: Also die werden dann begleitet von diesem Marktforschungsinstitut.

00:23:39: Und saßen also dann da in einem Wohnzimmer im Rohrgebiet mit einer Frau, einer Mutter und deren älteren Sohn.

00:23:48: Und dann führten die also dieses Interviews ganze, wurde auch quasi live in die USA gestreamt und alles wurde aufgezeichnet, weil sollte natürlich alles ganz transparent und nachvollziehbar sein.

00:23:59: Und dann passierte es, dass also der ältere Sohn anfing, also zu erzählen.

00:24:05: dass der jüngere Bruder, der damals noch unter dreizehn Jahre war, auch das Headset nutzt, das VA-Headset.

00:24:12: Und dass der eben so Erfahrung gemacht hat, dass er dort im Prinzip sexuelle Übergriffe erlebt hat in verschiedenen VA-Welten.

00:24:21: Und also angesprochen wurde, wie alt er ist, ob er schon mal sexuelle Erfahrungen hatte, ob er Nacktfotos teilen könnte und so weiter.

00:24:29: Oh wow.

00:24:30: Okay.

00:24:31: Ja.

00:24:31: Das war total unvermittelt, also der Researcher dachte sich, okay, also das ist ja interessant, wollte auch weiter fragen.

00:24:39: Aber das Interview, das ja quasi live recorded wurde, also der und auch es wurde übersetzt, also wurde auf Deutsch geführt, das musste dann abgebrochen werden, also gab dann Nachricht aus dem USA, so das Interview muss abgebrochen werden, alle Daten, die bisher erhoben wurden, müssen gelöscht werden.

00:24:56: Es ist alles zu Ende vorbei, so.

00:24:59: So hat er uns das berichtet.

00:25:02: Und er war dann sehr, so dachte er sich so, was ist jetzt los?

00:25:06: Und hat dann später erfahren, dass Meta gesagt hat, aus datenschutzrechtlichen Gründen musste dieses Interview gelöscht werden, weil es ging ja um jemand, der unter dreizehn Jahre alt war.

00:25:16: Und darum geht es auch so ein bisschen.

00:25:18: In diesem ganzen großen Verfahren, den ich mal, also Meta hat uns ja dann auch auf Anfrage geantwortet, die sagen halt, ja, immer wenn es um Kinder und Jugendliche geht, Da dürfen wir gar keine Daten erheben.

00:25:32: Und der Researcher oder die Whistleblower sagen halt, nee, anonymisiert hätten wir schon Daten erheben

00:25:39: dürfen.

00:25:39: Vor allem, weil die Mutter dabei war, das ist ja total unintuitiv.

00:25:42: Genau.

00:25:42: Also wozu?

00:25:43: Mit Einverständnis der Mutter, die saß ja daneben, die fand das auch interessant.

00:25:48: Wir hätten das ja erheben können, diese Daten.

00:25:50: Und die werfen Meter vor und sagen, okay, ihr ... Wolltet diese Daten im Prinzip nie erheben?

00:25:56: Er wollte einfach gar nicht wissen, was da los ist in diesen virtuellen Räumen.

00:25:59: Ich erinnere mich Eva, dass du ja da auch schon mal so eine Grenzerfahrung gemacht hast.

00:26:04: Ja, habe ich gerade dran gedacht, genau, und zwar, das ist echt schon richtig lange her, ich glaube, im Jahr zwei Tausendsechzehn, so als man das erste Mal mit einem Hatset, würde ich behaupten, sinnvoll sich in sozialen virtuellen Räumen bewegen konnte.

00:26:20: Eines der ersten Dinge, die mir passiert sind.

00:26:21: Man setzt das Headset auf, gehen so einen Raum.

00:26:24: Das war damals Old Space VR, bis es mir später von anderen Feuerräumen passiert.

00:26:29: Ja, und ich glaube, inzwischen, dass man schon, man fällt auf.

00:26:32: Ich war damals noch eine neue Nutzerin.

00:26:34: Ich kannte das Ganze nicht.

00:26:35: Aber es ist erst mal ein bisschen unsicher, bewegt sich vielleicht anders.

00:26:37: Man sieht das ja alles in Feuer.

00:26:39: Man sieht, ja, man sieht so ein bisschen, wie sich jemand bewegt.

00:26:42: Und ich vermute, bei den Jungen haben die Leute halt sofort gesehen.

00:26:45: Ist eine kleine Person, man sieht ja die Höhe von dem.

00:26:47: Das wird angepasst, individuellen Welten, wie groß du real bist.

00:26:51: Zumindest in manchen.

00:26:52: Man sieht quasi, da ist jemand klein, hat vielleicht auch noch eine Kinderstimme.

00:26:57: In meinem Fall, glaube ich, bin ich dadurch aufgefallen.

00:27:00: Dann war klar, es ist eine Frau.

00:27:01: Ich hatte einen weiblichen Avatar damals.

00:27:03: Es waren noch so Comic-Avartare, die waren gar nicht komisch.

00:27:06: Es waren sowieso Roboter-Sahen, die waren gar nicht groß ausgestaltet.

00:27:09: Aber es war ein weiblicher Körper.

00:27:11: Dann kam jemand direkt auf mich zu und ich stand.

00:27:14: an so einer Treppe, also hinter mir ging eine Treppe runter.

00:27:16: in der virtuellen Welt, real stand ich einfach in einem Zimmer mit schlachem Boden, aber in deinem Kopf bist es ja so, dass du wirklich vor Ort bist.

00:27:22: Ja, du kannst, also der kam auf mich zu, dieser Typ, der war ganz, ich weiß noch, der war ein rote Avatar, ganz groß, ganz breitschuldrig und kam sofort viel zu nahe, also hat er auch nicht gestoppt, wo man denkt jetzt, Worte mal, jetzt ist doch eine richtige Abstandung zu stoppen, sondern ist so ganz, ganz nahe gekommen.

00:27:34: Ich hab dann auch so seine Stimme ganz nah gehört.

00:27:37: Man hört ja, es ist ja alles so immersiv.

00:27:39: Das ist ja das Coole auch an VR-Welt, dass es so immersiv ist wie im echten Leben.

00:27:42: Also ich hab dann gehört, der kommt mir näher.

00:27:46: Sein Mund war ganz nah an meinem Ohr und hat halt, ich weiß gar nicht, hat einfach gestöhnt.

00:27:50: Er hat einfach nur gestöhnt.

00:27:52: Und dann hat er mir an die Brust gefasst.

00:27:53: Und das sieht man eben auch.

00:27:55: Du siehst ja aus diesem Avatar raus, in der ich ... Perspektive, du siehst dann diesen, klar, Avatar-Körper, aber ich hab an mir runtergeschaut, dann hab ich gesehen, da fassten wir an die Brust, da hat mir so fies gelacht.

00:28:05: Ich stand an der Treppe, ich kann nicht rückwärts ausweichen, ich falle ja die Treppe runter.

00:28:09: Und genau, dann hab ich das Headset abgenommen.

00:28:12: Irgendwann reagiert was im Gehirn und sagt, du bist ja gar nicht in der Situation.

00:28:15: Aber es braucht halt.

00:28:16: Und es fühlt sich echt scheiße an.

00:28:19: Natürlich ist es körperlich was anderes, weil dein Körper ist und bleibt in deiner physischen Umgebung.

00:28:25: Aber du steckst eben, ich hab damals gesagt, mit dem Bewusstsein in dem Avatar drin, das Bewusstsein ist eben nicht mehr in meinem geschützten Raum, sondern das ist eben in diesem ... anderen Raum, wo dieser Angreifer ist, der mir an die Brust fasst und mir ins Ohr stöhnt.

00:28:38: Und das ist schon, also das ist wirklich, ja, das ist krass.

00:28:42: Und ich finde es, also ich finde es schlimm zu hören, dass es einem zehnjährigen Passiert ist.

00:28:47: Ich habe dazu auch ein Wissenschaftler-Interview, der sich genau damit beschäftigt, also mit diesen eben mit so drei D-Räumen, drei D-Erfahrungen, der hat mir auch erzählt, dass es tatsächlich auch messbar ist.

00:28:59: Es gibt Studien dazu, eben wie immersiv, dass dieses Fachwort, also wie Wie sehr uns das sozusagen mitnimmt, diese Erfahrungen.

00:29:08: Da gesagt, es gibt Studien dazu, da misst man der Herzschlag, der sich beschleunigt.

00:29:14: Du misst also, dass die Leute anfangen zu schwitzen.

00:29:17: Also, dass der Atem schneller geht.

00:29:19: Also, man kann diese körperliche Reaktion, die man auf diese eigentlich geistige oder psychische Erfahrung macht, kann man richtig messen.

00:29:28: Und er hat auch gesagt, du kannst Trauma.

00:29:32: erleben, also dass man dadurch traumatisiert werden kann.

00:29:35: Und deswegen ist es auch gerade so, dass eben Virtual Reality, dass es auch da so wichtig ist, dass es da halt auch ein Kinder- und Jugendschutz gibt.

00:29:43: Und es gibt es nämlich in der Art gar nicht.

00:29:45: Denn es gibt so eine Art, es gibt eine USK, ne?

00:29:49: Also so eine Altersbegrenzung, Altersempfehlung, die gilt für Computerspiele und die gilt genauso auch für VR-Computerspiele, ja?

00:29:57: Also das ist halt da gesagt wird, okay, wie alt man sein darf.

00:29:59: Aber Hier geht es ja um so virtuelle Welten, also so wie Horizon oder so.

00:30:05: Also Welten, wo du dich quasi einfach erst mal nur triffst, dich vielleicht unterhältst oder so.

00:30:10: Genau, es ist nicht gleich ein Spiel, sondern das ist erstmal einfach nur ein anderer Raum, der physische Raum.

00:30:17: Genau.

00:30:17: Wie ein Chatraum oder so.

00:30:19: Und dafür gibt es halt keine Altersbegrenzung und Meter.

00:30:23: Erlaubt die Nutzung von so einem Headset ab zehn Jahren, also mit so eine Art, mit einem Elternaccount, mit einer älterlichen Kontrolle.

00:30:30: Also es ist schon irgendwie reglementiert, aber eigentlich auch nicht.

00:30:35: Und genau das finde ich jetzt so ein bisschen der eine Aspekt.

00:30:37: Also das geht so ganz stark in diese Richtung, wie viel Jugendschutz braucht, wie viel auch gesetzgeberische Kontrolle sollte da sein.

00:30:45: Also sollte es sowas geben, wie Zum Beispiel Altersverifikation.

00:30:50: Also, dass du, wenn du sowas einrichtest, dein Alter angehen musst, das gibt es.

00:30:55: Aber was ist, wenn dann der jüngere Bruder das hätte

00:30:58: benutzt?

00:30:58: Ja, das funktioniert ja nicht, oder?

00:31:01: Ja,

00:31:01: doch, theoretisch.

00:31:02: Bei VR könntest du es sogar machen, weil ich meine, die Brille hat innen Kameras.

00:31:05: Ja,

00:31:05: das stimmt mir.

00:31:08: Technisch ist da noch ein bisschen mehr möglich als jetzt bei einem Handy-Display, also wo es schwieriger ist.

00:31:14: Aber technisch oder du könntest auch schon so was machen wie natürlich, wobei das gibt es auch eine Pinnenvergabe.

00:31:21: Also du kannst sowas machen, dass du nur mit Fingerabdruck irgendwo also.

00:31:27: Ich kenne mich ein bisschen da aus, denn ich habe auch zwei kleine Hecker zu Hause.

00:31:31: Ja,

00:31:31: ich erinnere mich gerade, ich habe kurz nach dir oder was auch schon vor, weil es nicht vier, fünf Jahren mal meinen Kindern, die war eben noch körperlich klein waren, klar wollen die das Headset auch mal aufsetzen.

00:31:39: Und es gibt auch ganz cool, es gibt wirklich richtig coole Spiele auch für Kinder und Jugendliche, finde ich.

00:31:44: Die sind dann auch in Outspace gegangen, diesen Social VR-Treffpunkt.

00:31:48: Und dann ist mein Account sofort gesperrt worden.

00:31:51: Weil damals, bei denen eben die Regel war, ich weiß nicht, wie die Altersgrenze war, aber jedenfalls war klar, Kinder dürfen da nicht rein.

00:31:57: Und das war gar nicht so einfach, den Account wieder entsperrt zu bekommen, weil die halt wirklich sofort festgestellt haben.

00:32:02: Wegen der Höhe von dem Person und vermutlich der Stimme, ich weiß es gar nicht, wie sie es gemerkt haben, aber jedenfalls, du hast schon recht technisch nicht so schwierig, gibt's ja genug Sensoren und Überwachungsmöglichkeiten.

00:32:12: Man muss

00:32:12: es nur wollen.

00:32:14: Und das ist jetzt auch wieder so das, was die Whistleblower dem Konzern vorwerfen.

00:32:19: Und das ist auch wieder so was, das ist ein altes Lied.

00:32:24: Nämlich das Engagement und also Wachstumengagement im Sinne von User, von Nutzer, Nutzerinnen, Interaktionen von Nutzer, Nutzerinnen, Zahlen, die man haben will auf der Plattform.

00:32:34: Das ist eben, dass das über den Sicherheitsmaßnahmen steht.

00:32:37: Und das ist auch das, was er auch in einem Interview mit uns noch mal gesagt hat.

00:32:42: Er hat dann auch nachgefangen, Und das hieß immer, ja, also dieses Engagement, diese Nutzer, Nutzerenzahlen, das ist das Wichtigste.

00:32:50: Und das Alter wurde tatsächlich, zwei, drei, zwanzig, auch noch mal gesenkt, also eben auf die zehn Jahre, wenn man gesagt hat, ja, dann können wir eben noch mehr Nutzer und Nutzer da auf die Plattform bringen.

00:32:59: Ja, und natürlich, mit Kindern ist das ja am einfachsten, weil die halt auch, die sie ja noch viel schlechter schützen können, als Erwachsene vor diesem Aufmerksamkeits-Grabbing, was eben die Plattformen machen.

00:33:14: Ja, ich find's richtig gruselig, auch problematisch, auch was so aus der Wissenschaft, was man so weiß, ist also wirklich diese VR-Hatsets, also setzt die nicht euren, auch in zehnjährigen auf, vielleicht höchstens mal zum einmal ausprobieren oder so, aber die sollten das nicht benutzen, also auch von den Augenabständen her, also von ganz vielen Dingen sind bei Kindern und Jugendlichen noch nicht so entwickelt, zum Beispiel auch.

00:33:39: Das hat mir auch der Wissenschaftler gesagt, gibt es so was, das nennt sich so Kontextualisierungs, genau das, was du vorhin angesprochen hast, dass ich quasi weiß, ich bin nicht in diesem Raum.

00:33:50: Also ich bin in einem Spiel.

00:33:53: Und das ist eben so.

00:33:54: dieses Wissen, um wo bin ich, wer bin ich, ist bei Kindern noch nicht so ausgeprägt und Jugendlichen klar, die können sich viel mehr, wissen wir ja, ein Spiel reinversenken als erwachsen.

00:34:06: in solche Fantasie und auch in solche virtuellen Welten reingehen und erleben, deswegen solche Sachen auch viel intensiver.

00:34:14: Ja, da ist wirklich Vorsicht angebracht.

00:34:15: Ich bin jetzt mal gespannt.

00:34:17: In dieser Woche tagt ja zum ersten Mal so ein Bundesfamilienministerium eingesetzter Fach- und Expertinnenkommission.

00:34:25: Naja, also bin mal gespannt, ob die was zu Tage bringen.

00:34:29: Bei ja gerade das Thema Kinder- und Jugendschutz in digitalen Umfeldern geht es natürlich auch im Social Media.

00:34:36: Ist ja echt gerade in aller Munde.

00:34:37: Und der andere Weg wäre natürlich, die Täterinnen ... Konsequenter zu verfolgen.

00:34:43: Das ist nämlich auch nicht so schwierig, die auszusperren aus solchen Plattformen.

00:34:46: Da wird ja oft gesagt, dann kommen die mit einem neuen Account.

00:34:48: Aber so einfach ist es nicht.

00:34:50: Man gibt Fingerprinting-Methoden, es gibt Möglichkeiten.

00:34:53: IP-Adressen und so weiter.

00:34:55: Es ist nicht total schwierig, Userinnen zu erkennen.

00:34:58: Das machen die Unternehmen ja auch.

00:35:00: Wenn es um Werbung geht, ja, das nutzen die ja durchaus, die wieder zu erkennen.

00:35:04: Und das ist ja das andere, was Meta vermutlich nicht konsequent machtet.

00:35:06: Zumindest weiß man das ja von Facebook und anderen Plattformen.

00:35:10: Aus dem gleichen Grund vermutlich weiß er natürlich auch, dass Engagement reduziert, wenn sie Leute rausschmeißen.

00:35:14: Aber das wäre ja die andere Option.

00:35:15: Und von daher denke ich schon, eure Schlussfolgerung, dass Meta an dem allem kein so großes Interesse hat und das am liebsten auch gar nicht öffentlich diskutieren möchte.

00:35:24: Die ist durchaus plausibel.

00:35:26: Hat der Meter eigentlich reagiert?

00:35:28: Ja, also jetzt in den USA.

00:35:30: Klar, das ist jetzt ein richtiger Prozess oder ein richtiges Verfahren, was jetzt angestoßen wurde um diesen Fall.

00:35:37: Jetzt uns gegenüber, wir haben natürlich eine lange Anfrage gemacht und bei uns gegenüber haben sie natürlich betont, welche Sicherheitsvorkehrungen, welche Sicherheitsmaßnahmen sie auf der Plattform haben.

00:35:47: Das sind auch welche, also gibt es auch gerade so dieses Stichwort älterliche Aufsicht.

00:35:52: Ich bin ja immer so ein bisschen hin und hergerissen mit dieser älterlichen Aufsicht.

00:35:56: Einerseits, finde ich, ist es natürlich total richtig zu sagen, man muss die Eltern mit einbeziehen, man muss Eltern kompetent machen, ein ganzes Smartphone, Handy, Nutzung, umfasst ja noch viel mehr.

00:36:08: Auf der anderen Seite weiß ja auch jeder, der Kinder hat, wie die Realität eigentlich aussieht, nämlich dass Eltern ganz viel arbeiten, ja, mit anderen Dingen beschäftigt, sind irgendwie, weiß ich nicht, die Wäsche zu waschen, den Einkauf zu machen.

00:36:21: und manchmal sind Eltern auch selber gar nicht so kompetent mit den Helis und dem ganzen neuen modischen Kran.

00:36:28: Und die Kinder lernen dann doch schneller diese, diese Dinge.

00:36:32: und dann finde ich, ist es zu einfach zu sagen, ja, die Eltern müssen sich kümmern, ja.

00:36:36: Und da finde ich, sind dann eben doch wieder die Tech-Unternehmen in der Verantwortung.

00:36:41: Und die sind aber eben getrieben durch ... durch Börsenkurse, durch Gewinnstreben, so dass ich halt schon der Meinung bin.

00:36:50: Man kann das auch sozusagen nicht den Konzernen allein überlassen, deswegen bin ich doch tatsächlich ein Fan auch von Regulierungen in dem Bereich.

00:36:58: Dass man sagt, okay, wir müssen vom Gesetzgeber her das Vorgeben, das bestimmte Anwendung für Kinder und Jugendliche nicht erlaubt sind, genauso wie man halt auch erst mal im gewissen Alter Alkohol kaufen kann, Autofahren kann.

00:37:09: Und wenn wir halt wissen, um die Gefahren, in bestimmten digitalen Räumen, dann muss das halt reguliert werden, dann geht's nicht anders.

00:37:16: Aber

00:37:16: wie gesagt, ich denke, man darf Facebook oder Meta nicht damit davon kommen lassen zu sagen, dann kommen da keine Kinder mehr rein.

00:37:21: Ich finde, genau so muss man fordern, dass solch Verhalten strenger verfolgt wird.

00:37:30: So, das war's von uns.

00:37:33: Für heute von Daytalk Tech.

00:37:35: Wenn ihr Lust habt, dann schreibt uns doch auf Mastodon oder auf LinkedIn oder auch auf Instagram.

00:37:41: Wir freuen uns immer über eure Kommentare und euer Feedback.

00:37:44: Folgt uns, leigt uns, teilt uns und ansonsten schaltet uns wieder ein.

00:37:48: Nächste Woche Mittwoch.

00:37:49: Lasst von euch hören.

00:37:51: Eine gute Woche euch.

00:37:52: Macht's gut.

00:37:52: Tschüss.

00:37:53: Bis bald.

00:37:54: Tschüss.

00:37:55: Das war Day Talk Tech, ein CT-Podcast von Svia Eckert und Eva Wolf-Angel, Musik und Produktion Marco Pauli.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.