Deepfakes im Heute-Journal, Zuckerbergs Big-Tobacco-Moment und die fiese Kleinanzeigen-Masche
Shownotes
Ein KI-generiertes Sora-Video im ZDF-Heute-Journal, ungekennzeichnet. Am Ende wird eine Korrespondentin abberufen. Svea und Eva analysieren den Fall: Was lief schief, warum versagten Kontrollmechanismen und welche Tools helfen beim Erkennen von Deepfakes? Dann ein Blick in die USA: Mark Zuckerberg sagt im Prozess gegen Meta aus und behauptet, es gehe gar nicht darum, die Bildschirmzeit zu maximieren. Interne E-Mails sagen etwas anderes. Eva berichtet, warum Fachleute jetzt vom Big-Tobacco-Moment der Branche sprechen und was das für die Debatte um ein Jugend-Verbot in Deutschland bedeutet. Und zum Schluss: Sveas persönliche Kleinanzeigen-Story. Wie eine simple PayPal-Frage zur Falle wird, die mit tausenden Euro Verlust enden kann. Von Svea Eckert und Eva Wolfangel Musik und Produktion: Marko Pauli
Shownotes
Das Thema bei Heise: https://www.heise.de/news/ZDF-Beitrag-mit-gefaelschtem-KI-Video-im-heute-journal-11179788.html
Der im Podcast erwähnte Mastodon-Nutzer und seinProjekt, Fake-Videos von Überwachungskameras zu enttarnen: https://blog.le-gurk.de/2026/02/19/skeptisch-sein-so-wichtig/
Eva zum Zuckerberg-Prozess: https://www.zeit.de/digital/internet/2026-02/meta-facebook-instagram-klage-usa-mark-zuckerberg
Expertenkommission der Bundesregierung: https://www.bmbfsfj.bund.de/bmbfsfj/aktuelles/pressemitteilungen/kinder-und-jugendschutz-in-der-digitalen-welt-bundesregierung-beruft-expertenkommission-ein-269660
Transkript anzeigen
00:00:16: Hallo
00:00:17: und herzlich willkommen zu They Talk Tech, ein City-Podcast mit Svea Eckart.
00:00:21: Tech Journalistin!
00:00:22: Und Eva Wolf, ebenfalls Tech Journalisten.
00:00:25: Schön, dass ihr da seid!
00:00:26: Wir haben heute echt starke Themen für euch mitgebracht.
00:00:29: also es ist ja gerade auch wieder richtig viel los.
00:00:32: Also wir wollen mit euch heute sprechen über den ich nenn's mal ZDFKI Fail Der tatsächlich mit der Abberufung einer Korrespondentin aus Washington endete, da haben wir natürlich was zu sagen.
00:00:44: Dann geht es weiter mit Social Media und Jugendschutz ein Streitthema, also dem wir auch etwas zu sagen haben.
00:00:49: Da gibt's ja einige aktuelle Entwicklungen in der Zuckerberg-Prozess in den USA und hier viele Forderungen eines Social Media Verbots.
00:00:56: Und ganz im Schuss habe ich noch für euch meine persönliche Kleinanzeigenstory oder vor was ihr aktuell wenn ihr früher Spots macht zu Hause auf der Hut sein müsst.
00:01:11: Und damit eigentlich direkt rein zu dem Thema der Woche, der Tage.
00:01:17: Der ZDFKI-Fail.
00:01:19: Eva lasst uns einmal ganz kurz bevor wir tiefer einsteigen in Deepfakes und wie kann man die erkennen?
00:01:25: Und so einmal einsteigend.
00:01:26: was ist überhaupt passiert?
00:01:28: Genau es gab einen Beitrag im ZDFC der offenbar KI generierte Bilder oder mindestens ein KI generiertes Bild beinhaltet und zwar nicht gekennzeichnet.
00:01:40: Es gab zudem noch ein Bild, was deutlich älter war und gar nichts mit dem aktuellen Thema zu tun hatte.
00:01:46: Also Thema waren die Ratzchen in den USA gegen Migrantinnen und Migranten ... Und die Angst, die auch in den Kreisen wächst.
00:01:53: Das war im Prinzip das Thema des Beitrags.
00:01:56: Genau!
00:01:56: Und gelaufen ist der Beitrag im Heute-Journal, also im Primetime News.
00:02:00: Nunia Hayali hat den anmoderiert und sie hat auch eine Anmoderation gesagt So was sinngemäß, manchmal weiß man auch gar nicht ob diese Bilder echt sind.
00:02:10: Und dann lief eben dieser Beitrag der aber überwiegend ja aus echt gedrehten Bildern bestand.
00:02:16: und dann gab es eben diese ganz kurze Sequenz wo ein Sora Video aufgetaucht ist.
00:02:21: da war das Sora Label auch drin.
00:02:23: also Sora dass die Bildgenerierungsmaschine nenn ich sie mal von Google und eben einen aus dem Ein anderes Video, wo ein Kind abgeführt wurde von ... Ich glaub, in den Jahren ist es einfach aus einem komplett anderen Kontext.
00:02:37: Also ein ziemlicher Lapsus, wenn so was passiert in den Hauptnews, also einen ziemlichen Fehler.
00:02:44: und aber was dann passiert ist eigentlich der zweite Teil der Geschichte?
00:02:49: Also klar, wurde natürlich total ausgeschlachtet von allen rechten Medien.
00:02:52: News, Apollo News, ÖR-Blog und wie sie alle heißen haben das bis zum Abwinken ausgenutzt und ausgelutscht.
00:03:01: Und natürlich hergezogen über die etablierten Medien, auch den Rundfunkbeitrag usw.
00:03:07: Der Vorwurf ist total absurd, dass die etablierten Medien bewusst agitieren wollen gegen die USA, diese Eistruppen und versuchen wollen, die Situation schlimmer darzustellen als sie ist.
00:03:23: Was wirklich albern ist, weil es gibt ja mehr als genug ... Echte Szene, echte Filmszene.
00:03:29: Da passieren gerade einfach haarsträubende ganz schlimme Dinge in den USA.
00:03:32: also es gäbe überhaupt keinen Grund da irgendwas zusammen zu suchen was nicht wirklich passiert ist.
00:03:38: Bislang ist ja noch gar nicht so richtig bekannt was eigentlich intern vorgefallen ist.
00:03:43: Also das ZDF hat sich dann natürlich entschuldigt als es ist aufgefallen und dann ist es groß geworden.
00:03:48: dann hat das zdf sich... sehr schnell entschuldigt dafür und hat auch noch mal herausgegeben.
00:03:53: Und deutlich gemacht, dass also gerade im nachrichtlichen Kontext überhaupt keine KI-generierten Bilder eingesetzt werden sollen.
00:04:00: Ich denke immer in Klammer die Ausnahme ist es geht direkt um KI.
00:04:05: dann muss man natürlich sagen okay so und so sehen diese Bilder aus wenn die KI generiert sind.
00:04:10: Das finde ich schon eine Frage.
00:04:12: Also nachdem ich den Beitrag gesehen habe und eben die Anmoderation von Dunja Hayali die er sagt Manche Bilder sind auch gar nicht echt oder sinngemäß so was.
00:04:20: Habe ich mich schon gefragt, ob es nicht einfach ursprünglich mal die Planung war darauf hinzuweisen dass eben auch viele unechte Bilder in den sozialen Medien gibt.
00:04:28: weil dieses Sora-Logel ist ja schon etwas das man auch nicht so einfach übersieht und wo ich mich auf frage schaut ja nicht nur eine Person auf so einen.
00:04:39: Also hoffe ich jetzt mal oder würde ich vermuten, wenn ich aus unserer Praxis als verantwortungsbewusste JournalistInnen und Medien erzähle ist es schon so das eigentlich jeder Beitrag oder bei uns auch jeder Artikel von mindestens einer anderen Person eigentlich sogar meistens zwei oder drei nochmal gelesen und geprüft wird.
00:04:59: so was durchrutscht, dass ein Sorra-Logo auf einem Video vorkommt.
00:05:04: Das wird mich wundern.
00:05:04: von daher war meine Vermutung oder einen Grund könnte sein das der Plan ursprünglich war darauf hinzuweisen die es in Social Media hochkocht und das ist auch gefälschte Videos gibt.
00:05:13: aber das wissen wir natürlich nicht.
00:05:14: Wir wissen gar nichts weiter mehr ist daraus nicht rausgedrungen meines Wissens.
00:05:19: Mir ist es tatsächlich schleiherhaft.
00:05:22: Und ich weiß es auch nicht, also hier war auch keine Verbindung zum ZDF so dass sich das hätte jetzt rausfinden können.
00:05:27: Ich denke die werden, dass sie wollen das auch nochmal aufklären und aufarbeiten.
00:05:33: Ich kann nur ein bisschen erzählen aus meiner Praxis als Fernsehautorin aber auch als ... Also ich war ja zur Vertretung auch schon in unseren Auslandsstudios auch in Washington allerdings nicht beim ZDf sondern bei der ARD Und du sitzt ja erst mal mit einem Cutter oder einer Kutterin im Schnitt.
00:05:53: Also das heißt, du bist ja gar nicht allein und schnippelst da irgendwas zusammen?
00:05:57: Dann ist es so dass du in diesen Auslandsstudios in der Regel unterstützt wirst von Produceren oder Producern – das sind zum Teil langjährige, hochprofessionelle Kolleginnen und Kollegen die dort zuständig sind das ganze Material zu sichten.
00:06:12: Das zu archivieren, das vorzubereiten damit so ein Auslandsstudio überhaupt diesen hohen Output liefern kann auch teilweise ja in sehr sehr kurzer Zeit.
00:06:22: Teilweise haben wir auch noch Zeitverschiebungen sind dann vielleicht müde oder nicht richtig wach.
00:06:27: also das heißt solche Studios die arbeiten sehr professionell trotz hohem Zeitdruck.
00:06:35: Und auch, wie du schon gesagt hast Eva das heißt also die sitzen, die gucken da mindestens mit vier wenn ich sechs Augen in dem Studio drauf dann wird der Beitrag überspielt an die abnehmende Redaktion und dort gibt es normalerweise sogar noch mal ein Vier-Augen Prinzip das heißt er schaut dann der direkte Bearbeiter auf den Film mit der Korrespondentin in Kontakt stand, der das Thema mit betreut hat.
00:07:01: Und in der Regel dann der Chef die Chefin vom Dienst, die sozusagen die gesamte Sendung verantwortet schaut auch nochmal drauf.
00:07:08: Also es ist jetzt sage ich mal aus meiner Erfahrung dass es da doch ein sehr Sicherheitsnetz gibt.
00:07:14: Das heißt also wir müssen dann einfach mehrere Mechanismen versagen, dass sowas überhaupt passieren kann und ich denke so ist es ja bei vielen Fehlern, die passieren.
00:07:24: Dass da nicht einer ein Fehler macht, sondern dass eben auf mehreren Ebenen Fehler passieren und es zu der Erfahrt jetzt zunächst gesagt ja, da ging bei der Überspielung irgendwie so Informationen verloren, dass das KI generiert sei?
00:07:39: Das ist mir ehrlich gesagt alles!
00:07:41: sehr rätselhaft.
00:07:42: Also was damit gemeint sein soll, weil bei so Überspielung ... da wird ja Filmmaterial überspielt und entweder ist etwas in dem Film Material enthalten wie so ein Sora-Icon das war ja auf dem einen Material drauf oder es ist nicht enthalten und dann wird das ganz normal mit einem Workdokument im Text mitgeschickt die Info von der Sekunde bis der Sekundekai oder von der sekunder bis der sekunde Quelle XY also User Netzwerk oder Agentur, wo auch immer man das dann her hat.
00:08:13: von daher.
00:08:16: Ist es mir nicht so richtig klar wie denen das passiert ist.
00:08:20: aber ich finde was man wirklich an dem Fall gesehen hat ist also welche Sprengkraft diese KI generierten Bilder haben und teilweise auch Wie echt die aussehen?
00:08:31: Gut, das sieht man tatsächlich einen Tag aus auch auf Social Media.
00:08:36: Wenn es so ein SORA-Logo noch drin ist, ist ja eher ein Fehler von denjenigen, die das Bild versuchen zu verbreiten.
00:08:43: Weil es gibt inzwischen ganz viele Tools, die eben genau dieses Logo versuchen oder dieses Logos entfernen.
00:08:49: Es gibt speziell für SORA.
00:08:52: Nach dem SORA auf dem Markt war es das Erste was ich vor allem gesehen habe auf Social media als Leute, die gesagt haben und hiermit könnt ihr übrigens dieses logo entfernen, dass eure Bilder wirklich oder eure Videos echt aussehen.
00:09:01: Also genau, natürlich dass man das nicht unterscheiden kann oder schwer unterscheidet ist ein Problem.
00:09:07: was noch dazu kommt.
00:09:08: Aber wie gesagt in dem Fall glaube ich war es nicht das Problem weil das SORA Logo war ja noch drauf und auch diese andere Szene mit dem Jungen die drei Jahre alt waren oder vier Jahre und einen ganz anderen Zusammenhang aufgenommen worden ist muss ja.
00:09:22: also wenn ein Mensch das zusammen gesammelt hat als Bilder, die diesen Beitrag illustrieren muss das ja dabei gemerkt haben.
00:09:29: Also das ist glaube ich in dem Fall nur die halbe Geschichte.
00:09:32: Ja also wie du sagst viele andere Leute haben da auch offenbar nicht hingeschaut irgendwas übersehen oder was rausgenommen was vielleicht gerade wichtig war?
00:09:43: Ich habe selber schon mehrere Beiträge gemacht zum Thema Fake News, Deepfakes auf Social Media.
00:09:50: Umgang mit diesen Bildern.
00:09:51: Das ist auch mein täglichen Brot, mich damit zu beschäftigen und ich finde es dann eigentlich so man macht einen Bericht nur über dieses Thema.
00:10:01: Und dann ist klar jetzt werden nicht zehn verschiedene Bilder miteinander vermischt sondern wir machen jetzt ein Bericht und da geht das eben darum dass viele Deepfake unterwegs sind und das glaube ich schon an sich überhaupt ein Problem das zu versuchen zu vermischen, weil dann genau dieses Problem entsteht.
00:10:18: und was jetzt da noch dazu kommt ist halt diese ganze Thema Kennzeichnung.
00:10:22: Also das heißt inwiefern wird es eben nach außen dann kändlich gemacht?
00:10:27: Jetzt ist so ein ähnlicher Fall.
00:10:29: Vor kurzem schon mal passiert, der ist aber nicht ganz so hochgekocht.
00:10:33: Ich vermute ehrlich gesagt weil es nicht so prominent im ZDF passiert ist sondern Funkemedien und dann die ganze Maschinerie nicht in der Art und Weise angelaufen ist vielleicht auch weil das Thema nicht so ein Thema war wie jetzt Eis.
00:10:46: und zwar war das Anfang Januar als Manduro festgenommen wurde.
00:10:52: Da gab es unmittelbar nach der Festnahme, gab es ja nur sehr wenige Details und auch keine offiziellen Bilder von Mandoro.
00:11:01: Und dann sind also auf X auch unheimlich schnell solche gefälschten Bilder und auch Videos kursiert – eins davon hat tatsächlich über vierzehn Millionen Aufrufe erreicht!
00:11:13: Das ist an eine Fotoagentur gelangt dieses Bild eine Foto-Agentur und die hat dann das Bild ausgeliefert unter anderem an Funke.
00:11:24: Und auch nicht dazu geschrieben oder nicht gewusst, dass es KI generiert ist?
00:11:28: Ja genau und also Funker hat das dann übernommen, ZDF hat es übernommt, es gibt ein Bericht dazu.
00:11:34: bei Übermedien können wir gerne auch in den Schaunuts nochmal verlinken so und diese also diese Fotoagenturen Funke um das vorweg zu nehmen haben sich dann später entschuldigt.
00:11:44: ja Was ich damit sagen will, ist einfach dass wir inzwischen in dieser Welt leben wo diese Bilder einfach massenhaft im Umlauf sind.
00:11:53: und was für mich dieser Fall und auch jetzt die aktuelle Fall eigentlich zeigt.
00:11:58: Ist nicht wie schlecht und wie böse die Journalistinnen und Journalisten sind oder wie tendenzieu ist das finde ich auch die total falsche Interpretation sondern Wie schwierig es ist zu unterscheiden?
00:12:09: Und was für ein Riesenproblem wir eigentlich an der Stelle haben.
00:12:13: Ja
00:12:14: Also ich denke, das ist das größere Thema daran.
00:12:17: Und natürlich ... Das wüssten wir auch, da haben wir oft drüber gesprochen, es ist gar nicht so einfach mit Sicherheit zu unterscheiden was KI-Generit und was is echt?
00:12:26: Klar ein Punkt ist immer das kritische Denken einzuschalten und sich zu fragen kann das sein wenn sie auf dem Bild sehen?
00:12:32: aber wie ich das mit Manduro jetzt verstehe hättest du auch plausibel sein können.
00:12:36: also war das in diesem Fall auch nicht nicht so leichtes zu überprüfen wenn's noch dazu kaum echte Bilder oder gar keine Echten Bildern zu dem Zeitpunkt gab.
00:12:46: Genau, Wired und auch andere Fakten-Checkteams haben dann mit Google SynthID.
00:12:52: Das ist so ein Tool, so ein Werkzeug was eben unsichtbare Wasserzeichen in KI generierten Bildern erkennt.
00:12:59: Die konnten dann diese Fotos sozusagen dekonstruieren und das herausfinden.
00:13:04: Das würde man wahrscheinlich auch wenn man jetzt dieses Sora Video da rein schmeißt, dann würde man das auch mit Synth ID ausfinden können.
00:13:11: Lass uns da noch mal ein bisschen drauf eingehen.
00:13:14: Du hast gerade angesprochen, gesunder Menschenverstand.
00:13:16: Ich hab jetzt hier schon so mit einem Tool um mich geworfen... Was kann man denn tun?
00:13:20: Also wie kann man dann gediebtfängte Fotos und Videos erkennen?
00:13:25: Ich habe da immer so ein Lieblingsvideos pack ich euch auch gerne in die Show Notes vom australischen Fernsehen, die so einen wahnsinnig genialen Test gemacht haben mit jungen Menschen Studentinnen, Studenten ...und den Videos vorgespielt haben, immer gefragt haben Ist es dieb weg oder nicht?
00:13:44: Und das ist einfach so krass, du guckst denen dazu wie die Rätseln, wie die Krübeln und du hörst sie ganze Zeit mit.
00:13:52: Und man legt selber einen Feller falsch.
00:13:57: Das finde ich immer total eindrücklich wenn man eben selbst mal versucht so mit dem bloßen Auge solche Videos zu erkennen.
00:14:03: Eva genau was kann man tun?
00:14:06: Also, witzigerweise hat mich vor ein paar Tagen jemand angeschrieben auf Masterton und genau diese Frage gestellt.
00:14:12: Weil es gibt ja auch ganz viel in anfänglichen harmlose Videos, wo du dich trotzdem vielleicht fragst als Userin was ist dran?
00:14:17: Der hatte mir einen Video geschickt von einem angeblichem Einbrecher und hat gesagt das gibt immer mehr Videos auf Social Media die so scheinbar von Überwachungskameras gefilmt sind, so schwarz-weiß nachts auf den Einbrechern zu sehen ist.
00:14:29: Und er hat gesagt der hat das Gefühl dass das eventuell KI generierte Bilder sind was ich empfehlen würde, wie man so etwas überprüfen kann.
00:14:37: Da hab' ich im Prinzip auch so ein bisschen meinen Sermon gesagt naja es ist am Ende total schwierig das einfach an dem Material an sich zu überprüchen wenn jetzt so einen KI-Detektor nicht anspringt.
00:14:46: Was man natürlich machen kann ist aber da muss man erstmal schon skeptisch sein erst mal die Idee bekommen dass vielleicht was nicht stimmt.
00:14:53: kann man bei solchen Bildern da waren Häuser drauf zu sehen versuchen irgendwie rauszubekommen in bestimmten Landmarks die zu sehen bestimmte auffälligere Gebäude versuchen herauszukriegen in welcher Gegend das ist, versuchen dieses Haus zu finden.
00:15:05: Ob es das wirklich gibt und natürlich im Extremfall kann man sogar die Bewohnerinnen fragen wurde hier eingebrochen so?
00:15:11: aber es hat durch unendlich aufwendig und als Normal-User auch nicht total praktikabel.
00:15:16: also von daher glaube ich wenn es darum geht dass Medienbilder verbreiten ist Aufwand auf jeden Fall nötig und gerechtfertigt weil am Ende sind wir diejenigen Ja, das ist ja so ein bisschen unser Unique Selling Point.
00:15:30: Dass wir sowas nicht reinfahren, dass man sich auf uns verlassen kann.
00:15:33: und der nächste Tipp, den ich oft gebe wenn du irgendwas in Social Media siehst was irgendwie ungeheuerlich aussieht und es ist ein Video dabei, was wirkt als wenn's einfach echt ist weil alle Menschen echt aussehen und alles.
00:15:44: Und für viele Nutzerinnenutze ist ja noch gar nicht klar, dass KI-generierte Videos inzwischen so gut sind, dass du es eben nicht mit nur hingucken unterscheiden kannst oder indem du Finger nachzählst oder irgendetwas dann empfehle ich auch der nächste Schritt was größeres ist, wo du denkst, krass, dass so etwas passieren kann.
00:16:00: Dann geh in seriöse Medien und schau nach ob darüber berichtet wird.
00:16:04: Das wäre der nächste Schritt.
00:16:05: aber dann wieder die Verantwortung bei uns!
00:16:08: Und wie gesagt, ja du hast SynthID schon genannt.
00:16:12: Da hat Hank van Esst der Datenjournalist aus, ich glaub die Niederlanden mal einen ganz spannenden Versuch gemacht als diese vielen gefälschten Appsteam-Videos verbreitet worden sind oder Fotos.
00:16:24: genau da war eins was ganz viele Likes bekommen hat auf Social Media wo Leute sagen hier Appstean lebt noch der ist Ich glaube eine hat gesagt in Israel und hat noch anders gesehen hat halt ein Foto gepostet auf dem offenbar ein gealteter Appstien zu sehen war.
00:16:38: Und da haben diverse KI-Tools, auch gegenüber Hank van Esk gesagt ja klar das ist Appstiend erkennt man daran und ZündID.
00:16:46: also hat es richtig erkannt was er interessanterweise auch zu Google gehört und das absurde daran war dass aber Gemina ja so Googles anderes KI-tool das offenbar nicht nutzt sondern Gemina hat gesagt ja klart das ist Appsdiend.
00:16:58: Also das fand ich auch interessant dass man nach diesem Tool offenbar gezielt suchen muss und nicht davon ausgehen kann, dass Google einem das einfach so präsentiert.
00:17:07: Also wie willst du einmal nochmal zusammenfassen?
00:17:10: Das eine was du genannt hast ist im Prinzip diese gesunde Menschenverstand Prüfung der Quelle, Prüfungen des Kontextes.
00:17:18: Dann hast du gesagt, vergleich mit offiziellen Aufnahmen.
00:17:22: Mit anderen Aufnahmen?
00:17:23: Das ist so was Faktenchecker, Faktoncheckerinnen oft machen eben mit Landmarks Zeichen in der Landschaft zu arbeiten oder mit anderen Fotos Videoaufnahmen von der Personen.
00:17:35: Dann gibt es noch so visuelle Artefakte.
00:17:38: Das haben wir immer seltener leider.
00:17:40: Früher war ja immer so Ja zähl halt die Finger.
00:17:44: Genau.
00:17:44: Aber wenn jemand sechs Finger hat, ist das ein starker Innenweis darauf?
00:17:47: Das ist eine Maßlichkeit generiert.
00:17:50: Oder verschwommende Finger, ne?
00:17:51: Also es nach wie vor oder so zu symmetrische Gesichter ist finde ich auch... wird
00:17:57: oft gesagt aber sieht man das als mit bloßem Auge.
00:18:00: also ehrlich gesagt...
00:18:03: Schwierig!
00:18:03: Vor allem bei Videos war es schwierig wo alles super schnell geht.
00:18:07: und dann eben diese technischen Möglichkeiten Ich würde jetzt hier nicht so sagen Erwerbung machen für Synth-ID.
00:18:15: Es gibt natürlich noch zahlreiche andere Möglichkeiten, was ich jetzt ganz interessant oder auch bemerkenswert fand war die Polizei Rheinland-Pfalz da wir eine Pressemitteilung bekommen hat Anfang Februar einen eigenen DeepFact Detector vorgestellt der auf ihrer internen Infrastruktur läuft.
00:18:34: also die starten jetzt ab März so ein Pilotbetrieb in einem Polizeipräsidium wo eben große Bildmengen automatisiert analysiert werden und das Ganze wurde gemeinsam mit dem LKA entwickelt.
00:18:48: Das fand ich ganz spannend, dann gibt es noch ein deutsches Start-up, die Tessia heißen.
00:18:53: Die, also die haben auch beim Maduro Fall erhebliche Beweise geliefert für die KI Generierung.
00:19:01: Dann gibt es We Verify, das ist so ein EU Forschungsprojekt, die analysieren Videos framewise und berechnen dann Deepfake Wahrscheinlichkeiten pro Aufnahme da muss sich zugeben... Teilweise auch diese Tools schon getestet, Diepfigs reingeschmissen.
00:19:16: Die haben mir dann manchmal ausgegeben mit so viel Wahrscheinlichkeit ist es kein Deepfake und ich wusste das ist aber eine.
00:19:23: Und andersrum auch ne?
00:19:24: Du klust nächstes Foto-Video rein und es wird als deepfake erkannt.
00:19:28: Das ist glaube ich das alte Dilemma dass es da keine perfekte Lösung gibt.
00:19:33: Wenn man Fachleute fragt, was ist in die Lösung?
00:19:35: Wenn man so ein gesamtgesellschaftliches Zukunfts-Szenario denkt, ist eigentlich die einzige Sache, die funktionieren kann oder plausibel funktionieren können, ist das eben Fotos mit einer bestimmten Signatur versehen werden irgendeinem kryptografischen Merkmal, das quasi Institutionen, die Fotos rausgeben, diese quasi kryptographisch signieren können sodass bewiesen ist, dass dieses Foto kommt tatsächlich von mir.
00:19:58: und dann kann man Signatur oder so ein Merkmal fehlt.
00:20:03: Zumindest weiß man dann, es ist nicht belegt von der Institution.
00:20:06: und klar das Problem wird jetzt schon darin klar wie ich das hier vortrage dass natürlich nicht jeder und jede sich irgendwie sowas leisten kann oder sowas aufbauen kann gerade wenn man denkt an Stellen auf der Welt wo eben da nicht sofort jemand vom ARD ZDF oder irgendeinem seriösen Medium ist weil niemand ist sondern wo man sich verlassen muss darauf dass Leute Von vor Ort Fotos schicken.
00:20:24: Und natürlich haben die in aller Regel nicht die beste technische Ausstattung, das sind eben auch die Grenzen von diesem Ansatz und da gibt es keine richtig gute Lösung dafür sondern nur Puzzlestücke, die wir zusammengetragen haben.
00:20:38: Ja ich denke wir stehen immer noch am Anfang einer Entwicklung, die wahnsinnig viel Umwälzung bringen wird.
00:20:48: Also wir haben einmal dieses ganze Thema Deep Fake Manipulation, die damit einhergehen ist.
00:20:54: Dann haben wir das, dass die sozialen Netzwerke damit geflutet werden?
00:20:57: Die Frage ist irgendwann wer guckt sich das Zeug überhaupt noch an?
00:21:01: dann ist es in ganz großes thema.
00:21:03: was da mit drin schwingt ist so diese ganze bereich vertrauen wem vertrauen wir noch?
00:21:08: wem können wir noch vertrauen?
00:21:09: und also ich glaube das wird uns als Journalisten, Journalistinnen aber auch als gesellschaft noch viel beschäftigen, weil es da eben keine einfache Lösung dafür gibt.
00:21:21: Ja absolut, das denke ich auch!
00:21:22: Ich finde jedenfalls meine persönliche Meinung... was ich falsch finde ist die Kollegin aus Washington abzuberufen.
00:21:32: Auf jeden Fall ich fand das seltsam, weil ich dachte okay, dass war ein schwerer Fehler der da passiert ist und man weiß auf jeden fall zu wenig darüber was so die wirklichen Gründe möglicherweise sind, ob es da noch mehr Sachen gab.
00:21:48: Aber so wie sich jetzt darstellt ... Weil man da ein KI-Bild eingebaut hat das nicht richtig gekennzeichnet wurde jemanden komplett abzuberufen.
00:21:58: Das finde ich falsch weil ich finde dass probleme Sind diese massen am bilder.
00:22:03: das problem sind die strukturen die noch nicht möglicherweise noch nicht da sind also das heißt Prozesse die sowas verhindern den sicherheitsnetz Aufspannen, wo dann Kolleginnen und Kollegen noch mal drauf schon Fragen stellen.
00:22:18: Welche Bilder sind da drin?
00:22:20: Sind die KI generiert?
00:22:21: Sind sie gekennzeichnet oder auch ... Ich denke, wenn wir irgendwann hinkommen, dass wir in die Schnittprogramme eingebaut solche Erkennungswerkzeuge haben wahrscheinlich.
00:22:30: Also das dann ... ein bekannter Schnittprogramm ist zum Beispiel Premiere, ne?
00:22:34: Dass du im Prinzip am Schnitt sitzt und noch mal so einen KI-Checker drüber laufen lässt am Schluss.
00:22:40: Und über so eine Welt leben wir ja nicht.
00:22:42: Deswegen meiner Meinung war das hier die falsche Entscheidung.
00:22:47: Ja, und wenn das ZDF tatsächlich sagt dass es passiert weil diese eine Frau ein Fehler gemacht hat dann also das spricht ja gegen das zdf.
00:22:55: Weil das heißt der gleichzeitig wir haben keinerlei andere Kontrollmechanismen.
00:22:58: jeder kann hier KI generierte Bilder veröffentlicht und niemand merkt es.
00:23:01: Also das finde ich ist wirklich auch ein schlechter move und stellt auch des ZDL für den schlechtes Licht dar.
00:23:07: und das ja.
00:23:08: von daher denke ich da hat nicht nur eine frauenfehler gemacht Und dann eine frau dafür zu entlassen und sonst einfach nichts weiterzumachen ist also das genau das kann Das kann nicht sein.
00:23:17: Ich denke auch, diese Frau hat man damit offensichtlich alle eingelassen und das ist das große Problem.
00:23:23: Also eher strukturelle Lösungen an denen jetzt gearbeitet werden muss?
00:23:27: Ich bin aber ganz sicher daran wird gearbeitet weil das hat die Fasche auf jeden Fall ziemlich durchgeschüttelt.
00:23:33: dieser Fall!
00:23:46: zu unserem nächsten Thema, das auch die Branche oder beziehungsweise uns eigentlich so ein bisschen durchschüttelt und dass nicht erst seit gestern sondern tatsächlich schon seit einigen Tagen nämlich des Themas Social Media und Jugendschutz.
00:23:58: Und Eva ich muss es jetzt einmal so ehrlich sagen mich regt's auf!
00:24:07: verstehe ich gut.
00:24:08: Ich kann nur mutmaßen, was dich daran aufregt und es gibt verschiedene Blickwinke, auf denen man sich aufregen kann.
00:24:14: Einer ist so ein bisschen die Frage, wieso sollen Jugendliche jetzt ausgesperrt werden?
00:24:18: Aus den sozialen Medien?
00:24:19: oder wie dürfen die Techfirmen einfach so weitermachen?
00:24:23: Also mein Eindruck ist, die Diskussion, die wir hier in Deutschland gerade haben, Social Media-Verbot für Jugendliche lenkt eigentlich ab vom größeren Problem vor allem von den Verursachern, von dem größeren Problem.
00:24:35: Nämlich eben den Social Media Unternehmen die ja nichts anderes tun weil es ihr Geschäftsinteresse ist als diese Plattformen so zu designen dass sie zu Suchtes ein umstrittener Begriff aber zudem verhalten führen was viele Leute mit sucht assoziere nämlich das man einfach nicht mehr weg kommt davon.
00:24:54: Eva, du hast ja recherchiert.
00:24:55: zu dem Verfahren in den USA.
00:24:58: Ich finde das ganz wichtig weil ich auch gefragt worden bin warum kommt denn das jetzt so auf?
00:25:02: und ich finde dass hat sich schon eine Weile angedeutet also nicht nur mit der Entscheidung in Australien einen Social Media-Band für untersehnteinjährige einzuführen sondern eben auch Ausgehen von dem Prozess in den USA.
00:25:15: Magst du da einmal kurz schildern, wie da der Stand ist
00:25:18: bzw.,
00:25:18: was deine Recherchen sind?
00:25:20: Genau das sind ja Meta und Google sind angeklagt.
00:25:22: uns waren auch noch angeklackt TikTok und Snapchat oder Snap die Firma hinter Snapchat.
00:25:27: Die haben sich auf einen Vergleich geeinigt.
00:25:29: Das heißt sie haben offensichtlich schon vor dem Verfahren gewissermaßen ein Schuldeingeständnis geliefert oder zumindest gesagt, okay wir bezahlen was.
00:25:38: Man weiß nicht genau was und wie.
00:25:39: aber jedenfalls haben die offenbar anerkannt dass sie da sich zumindest keine guten Chancen ausrechnen in diesem Verfahren.
00:25:46: Und Google und Meta ziehen es also durch oder verteidigen sich vor Gericht.
00:25:50: Klegerin ist eine heute zwanzigjährige, die Instagram schon seit Nutzzeit sie neun Jahre alt ist und YouTube in dem ähnlichen Maß.
00:25:59: Und die teilweise – und das zeigen ja auch wohl Auswertungen ihres Handys – teilweise fünfzehn Stunden am Tag auf Instagram verbracht hat als Kind und Jugendlicher.
00:26:07: Und die sagt, ja, Schuld ist das Design von diesen Addictive-Design wie den USA sagen.
00:26:14: Also dieses süchtig machende Design von diesem Plattformen, dass sie eben dann nicht mehr weg haben.
00:26:19: Sie sagt, seit der Depression in Selbstmordgedanken geht ihr nicht gut.
00:26:23: Genau und jetzt müssen muss eben Mark Zuckerberg also Meta und Google versuchen zu beweisen, dass sich eben dieses Design gar nicht zu verantworten oder gar nicht machen.
00:26:33: Und Zuckerberg hat letzte Woche ausgesagt und hat tatsächlich behauptet, dass das gar nicht das Ziel sei.
00:26:40: Die Zeit zu maximieren in der Nutzer-Nutzerinnen auf den Plattformen verbringen, obwohl es wohl auch interne E-Mails gab ... Nein!
00:26:48: Was sonst?
00:26:48: Nein, er möchte Menschen verbinden.
00:26:51: Ja also das ist heuchlerisch bis sonst so hin irgendwie... Es ist ja klar und es wurden eben auch mehrere E-mails vorgelegt, in denen interne Emails klar gemacht wurde, es geht nur darum die Nutzungsdauer von den Nutzerinnen und Nutzern zu erhöhen auf Instagram zum Beispiel und das ist ja logisch, weil damit finden die Geld.
00:27:10: Es ist ja auch total plausibel.
00:27:12: Genau darum geht dieses Verfahren.
00:27:13: und was mir so klar geworden ist als ich damit dazu recherchiert habe... Ich hab' auch geschaut, was gab's denn bisher für vergleichbare Diskussionenfälle in den USA?
00:27:22: Und es gab einmal Zuckerberg-Muster schon vor dem Parlament aussagen.
00:27:27: Und da waren eben auch Eltern, und jetzt auch bei den Prozessen waren eben Eltern gekommen von Kindern die zum Beispiel Selbstmord begangen haben aufgrund von Depressionen,
00:27:36: die sagen
00:27:36: die Eltern aus Social Media haben oder auch die gestorben sind weil sie so Challenges, so TikTok-Challenges mitgemacht haben.
00:27:43: Gibt er so
00:27:43: ganz traurige Bilder wo die Fotos ihrer
00:27:46: Kinder in die Kamera halten?
00:27:47: Genau, die kommen dann mit großen Fotos von ihren Kindern und machen eben Zuckerberg und Co dafür verantwortlich.
00:27:52: Natürlich weiß man es in jedem einzelnen Fall gar nicht.
00:27:55: Aber trotzdem ist es eine große Diskussion da.
00:27:59: Und da hatte ich so das Gefühl bei diesem Prozess, der jetzt eben in Los Angeles ist, dass natürlich ist es total emotional, wenn man solche Eltern sieht, deren Kinder tot sind und die Fotos mitbringen von ihren toten Kindern...
00:28:12: Experte sagen ja, das sei jetzt der Big Tobacco Moment des Social Media Branche?
00:28:17: Genau!
00:28:17: Das war also ein bisschen mein Schluss auch, sodass ich das Gefühl habe ... Jetzt dreht sich gerade die Wahrnehmung in der Öffentlichkeit.
00:28:23: Und so war es eben genau mit der Tabakindustrie auch, dass sie eben auch anfangs gesagt haben das ist doch einfach ein Userinnen und User oder Raucherinnen und Raucher können doch selbst entscheiden.
00:28:32: Menschen können selbst entscheiden.
00:28:33: Wir sind noch nicht schuld daran!
00:28:35: So ehrlich ist argumentierter Zuckerberg jetzt auch und auch seine andere Manager von Meta sagen Die Menschen sind doch selbst verantwortlich dafür, was sie tun.
00:28:43: Die können doch einfach ausschalten.
00:28:45: und damals eben hat sich bei der Tabakindustrie das öffentliche Bewusstsein gedreht in die Richtung naja die tun aber auch alles dafür ne?
00:28:50: Damals auch mit dir haben wir auch krasse Werbung gehabt ja für wie cool es ist wenn man raucht usw.
00:28:56: Die tun hier alles dafür Leute dazu zu natschen das zu tun und dass ist ja letztlich das was die Social Media Konzerne auch tun.
00:29:04: Und ich finde wo's noch eine Parallele gibt über die letzten Jahre, wenn ich sogar Jahrzehnte ja ganz viele hausinterne eigene Studien gemacht habe.
00:29:16: Auch zum Thema Kinder und Jugendliche.
00:29:19: Und das war ja das was Francis Haugen vor einigen Jahren so groß aufgedeckt hat.
00:29:25: Ich hab in diesen Falls viel recherchiert.
00:29:27: Hab mir viele dieser internen Präsentation durchgelesen angeschaut bin da mich da durchgearbeitet tatsächlich Tagewochen lagen mit Francis Haugen mehrere Interviews dazu geführt.
00:29:38: Da sieht man halt erst sich dort innerhalb von Meter auch zahlreiche Hausinterne, Forscherinnen und Forscher damit beschäftigt haben.
00:29:45: Und genau das rausgefunden haben in kleinen Gruppen.
00:29:49: In qualitativen Erheben muss man immer sagen die machen eher so Feldstudien mit einer kleineren Anzahl von Nutzerinnen und Nutzern wenn sie sowas machen.
00:29:57: Ich erinnere mich sehr gut an eine Studie zum Thema Körperbilder auf Instagram, wo es eben konkret darum ging, dass dann Hausintern auch rauskam.
00:30:05: Aha!
00:30:06: Dass Jugendliche sich davon beeinflussen lassen von diesen ja teilweise sehr dünn dargestellten Körpern
00:30:14: Genau.
00:30:14: Eigentlich gibt es inzwischen einiges an Evidenz.
00:30:17: tatsächlich und auch zu der Frage, wer ist eigentlich verantwortlich dafür?
00:30:19: Weil Meta natürlich auch versucht zu sagen ja die Eltern müssen sich halt kümmern man kann's ja dann Kind auch nicht immer einfach vor deinen Tablets setzen so ein bisschen Und sagt ihr auch wir haben doch ganz viele tolle Tools Die da helfen sollen.
00:30:29: Eltern können überwachen und dies und das und dass eben auch in dem aktuellen Verfahren eine Studie bekannt geworden die auch mit Beteiligung von Meta erstellt worden ist aber nicht veröffentlicht worden ist In der eben auch raus kam, dass diese Tools überhaupt nicht helfen also dass Eltern machtlos sind gegen dieses von Social Media, dass die Kinder und Jugendlichen natürlich ihre Wege drumherum finden.
00:30:47: Und ja, diese älterlichen Aufsichtstools eben ... Dass sie nicht funktionieren und dass man auch den Eltern nicht die Verantwortung hinschieben kann, wenn man gleichzeitig alles dafür tut, die Aufmerksamkeit der Kinder zu sich schnappen.
00:31:00: Die Eltern eigentlich, also einen Anhalt gesagt hat, die Mutter von der Klägerin ist ausgesperrt gewesen.
00:31:06: Sobald das Mädchen quasi in der Maschine eingesperrt war, ist die Mutter ausgespert.
00:31:11: Die Eltern kommen dann nicht mehr ran an die Kinder.
00:31:14: Also sollte und sollte die Jury zugunsten der Klägerin entscheiden, dann könnte das ein Präzedenzfall sein?
00:31:22: Deswegen ist es so wichtig, deswegen sprechen wir auch hier drüber weil dann ein Social Media Unternehmen für schädliche Designentscheidungen haftbar gemacht werden würde.
00:31:33: Es wäre eben nicht so dieses Einzelfall-Ding, sondern der würde wirklich geguckt werden.
00:31:38: Okay gibt es diese Designentscheidung, Dopaminausschüttungen und unendliche Scrollen.
00:31:44: also gibt ja zum Beispiel diesen Effekt, diesen Slotmaschineffekt also dass man im Prinzip immer wenn man runter swipet und oben dreht sich dann das Rätchen ne?
00:31:52: Dass es eine kurze Dopamin Ausschütte gibt in der Erwartung, in der Hoffnung jetzt wieder das neue Video zu sehen.
00:32:00: Und dazu gibt's übrigens auch richtig viel Forschung.
00:32:02: also jetzt gesehen so aus und der Psychologie, die eben genau solche Sachen nachweisen.
00:32:08: Also das ist tatsächlich dieses Design funktioniert!
00:32:12: Und was es mit dem Gehirn macht?
00:32:14: Ich hab's glaube ich letzte Woche erzählt, ich habe über Dating-Apps recherchiert und die haben erlässlich den gleichen Ziel Nutzerinnen möglichst lang auf der Plattform zu halten.
00:32:21: und da hat mir ein ehemaliger CEO von so einer Dating App auch gesagt wir trainieren das Gehirnhernutzer und genau das ist das, was eben Meta auch versucht.
00:32:30: Die trainieren die Nutzerin dazu dass sie immer wieder die Apps öffnen und lange bleiben.
00:32:36: Also von daher ist
00:32:37: es spannend!
00:32:38: Lass uns aber noch den Sprung machen nach Deutschland, wo stehen wir eigentlich?
00:32:41: Jetzt war ja am Wochenende der CDU-Parteitag in Stuttgart bei dir um die Ecke...
00:32:49: Ich war nicht da!
00:32:51: Du hattest das Wort dahinten
00:32:53: ne?!
00:32:53: Ich hatte frei!
00:32:53: Und die CDU hat auf ihrem Parteitag eine gesetzliche Altersgrenze von vierzehn Jahren für Social Media Accounts beschlossen, also und wer jünger ist soll eben keinen eigenen Account mehr betreiben dürfen gleichzeitig strengere Regeln für private Smartphone Nutzung.
00:33:12: an Schulen, dann gibt es einen SPD-Impulspapier.
00:33:16: Das kam so kurz vorher raus.
00:33:17: Da hat man das Gefühl die Parteien wollten sich gegenseitig links und rechts überholen.
00:33:23: Die fordern in einem Impulspapier für unter vierzehnjährige ein vollständiges Verbot von Nutzung von Social Media Plattformen eine verpflichtende Jugendversion der Plattform ohne diese Funktion wie zum Beispiel Endlos-Collin, Autoplay oder andere Anreizsysteme.
00:33:42: Genau also da ist auf jeden Fall einiges an Musik drin und ich bin tatsächlich eingeladen jetzt im März eine schriftliche Eingabe zu machen für eine Experten-Expertinnen-Kommission.
00:33:52: Du sprichst als Expertin zur Frage... Was für ne Frage genau?
00:33:56: Erzähl mal!
00:33:59: Tatsächlich parallel jetzt zu diesen ganzen Parteiproletischen Bewegungen gibt es eine Experten-Kommission eingesetzt von Karin Preen und die beschäftigt sich mit dem Thema Kinder und Jugendschutz in der digitalen Welt.
00:34:13: Und die Idee ist, dass sie also im Laufe der nächsten Wochen ganz viele Stimmen einholen aus Wissenschaft aus Praxis, auch von den Plattformen selbst.
00:34:27: Von Vereinen und Verbänden in sogenannten Hearings.
00:34:30: also da sind sechs hearings angesetzt.
00:34:33: das erste war schon Und das letzte ist dann im Mai als.
00:34:36: das ganze geht auch doch durchaus über eine Zeit und in diesen hearings werden dann verschiedene Sachverständige oder Experten eingeladen, Umstellung zu nehmen.
00:34:46: Und tatsächlich bin ich auch eingeladene für März in so ein Hearing wo es um Praxisperspektiven geht.
00:34:52: also weil ich ja sehr viel zu dem Thema recherchiert habe und sowohl ich habe eine große Recherche gemacht da ging es eben um das Thema Essstörungen und Instagram ganz konkret aber auch andere Social Media Plattformen was dort Jugendliche erleben, erlebt haben.
00:35:11: Dann hab ich mich ja mit diesen Francis Haukenfalls ganz intensiv beschäftigt.
00:35:15: Kennt viel interne Forschung und weitere whistleblower ... Meta-Whistleblower getroffen in den USA.
00:35:21: Und habe auch eine lange Recherche gemacht so zum Thema Radikalisierung nenn ich's mal während der Corona-Pandemie also wie uns auch solche Ansichten und da aber auch wirklich immer mit den Leuten gesprochen ist betrifft.
00:35:34: und das werde ich noch nichts geschrieben Weil ich bin tatsächlich nicht, an dem Tag kann ich nicht.
00:35:39: Aber ich kann das aufschreiben und werde dafür suchen einen guten Import oder einen guten Impuls zu geben aus dem was, was ich wirklich erlebt habe.
00:35:48: Ja, weil jetzt kommt mir zu einem Punkt, dass mich so aufregt... Das war jetzt
00:35:53: einmal ein langer Stretch.
00:35:55: Was regt dich eigentlich so auf?
00:35:58: Was mich so Aufregte ist, dass ich aktuell wirklich das Gefühl hab, dass so viele Leute etwas dazu sagen die eigentlich gar keine echte Insight haben
00:36:07: Ja, super interessant.
00:36:08: Die einfach meiner Ansicht nach weit weg sind eigentlich von dem Thema und die weder Kinder haben noch mit Kindern oder Jugendlichen oder Lehrern oder Eltern sprechen oder gesprochen haben.
00:36:20: Und dann finde ich das auch dass die ganze Debatte meine ansicht nach ist es zu undifferenziert weil oft gar nicht besprochen wird um was geht's denn bei Social Media überhaupt?
00:36:30: über was reden wir denn ganz konkret?
00:36:33: Weil wenn man das nämlich tut dann sieht man auch, dass es gar nicht darum geht Kindern und Jugendlichen jegliche Art von Kontaktmöglichkeiten zu nehmen.
00:36:41: Und die irgendwo einzusperren sondern das ist wirklich um Plattformen geht wie TikTok Instagram und vielleicht noch Snapchat.
00:36:48: also da mir erst die Debatte
00:36:50: zu polarisierte sozusagen
00:36:52: polarisiert oder zu undeferenziert aber Eva deswegen werden wir das auch heute gar nicht abschließen besprechen sondern uns nochmal jemanden einladen.
00:37:01: was haben wir auf jeden Fall fest geplant?
00:37:04: Genau, also das finde ich die Frage ist schon offen.
00:37:05: Zielt dieses...die Debatte?
00:37:07: wir jetzt haben eigentlich am Thema vorbei?
00:37:09: und genau es ist wirklich mit Regulierung der Plattformen.
00:37:12: Also ist das nicht vielleicht der Weg, der naheliegend da eigentlich ist?
00:37:16: Ich habe das Gefühl hier ist oft so ein bisschen der Eindruck Wir können dir zu nichts zwingeln.
00:37:21: Die sind ja, die machen eh sowieso was sie wollen.
00:37:23: aber wie gesagt wenn wir den Big Tabakau Moment jetzt gerade haben dann ist das auch ein Momentum dass wir ausnutzen sollten und genau wie du sagst eben nicht nur die einfachen Platten Lösungen sich anzuschauen, sondern eben auch zu gucken.
00:37:35: Wo kann es noch hingehen?
00:37:37: Oder
00:37:37: es muss mehrere Lösungen geben als ich denke da... Es gibt nicht die eine oder die andere Lösung.
00:37:42: oder was mich hier auch total aufregt ist diese... Ich nähe das immer die technische Argumentationen.
00:37:48: Oh mein Gott!
00:37:49: Dann brauchen wir Klarnamenpflicht wo ich mir denke so heh nein oder Das ist doch technisch gar nicht lösbar.
00:37:56: und dann musst du Instagram unsere Personalausweise irgendwie verwalten Wo ich mir auch immer so denke, nein.
00:38:03: Nächstes großes Thema und da haben wir tatsächlich bald eine Gästin mit großer Expräzise zu der Frage ist das die Lösung?
00:38:10: Dass wir alle unsere Ausweise einscannen oder anderweitig unsere Daten abgeben?
00:38:16: ja.
00:38:17: Das Thema beschäftigt uns sehr.
00:38:19: deswegen heute erstmal so einen kleinen Impuls von uns beiden dazu.
00:38:23: aber wir werden da dran bleiben und euch noch mehr Gedanken und Futter liefern.
00:38:28: diskutiert doch mit wenn ihr möchtet mit uns.
00:38:30: Ja,
00:38:30: bitte!
00:38:31: Auf Masse dann oder auf LinkedIn?
00:38:33: Genau, Masse ist am interaktivsten immer bei mir jedenfalls.
00:38:36: Aber
00:38:36: wir sind überall anders.
00:38:38: Fast überall anders auch zu finden.
00:38:40: Und dann diskutiert auf jeden Fall mit.
00:38:43: Wir sind gespannt auf das, was ihr denkt und eure Erfahrungen von denen ich ausgehe viele tatsächlich sicher auch einen echten Praxisbezug haben, denn vielleicht seid ihr Eltern oder Lehrer und Lehrerin?
00:38:56: Oder Kinder Jugendliche.
00:38:58: Dann berichtet uns gerne davon.
00:39:00: wir werden das Thema hier wieder aufgreifen.
00:39:03: Und apropos aufgreifen, da war ja noch ein Stretch vom Anfangs-WR.
00:39:08: Was hat passiert?
00:39:09: Erzähl!
00:39:10: Bist du
00:39:13: Skammer-Story?
00:39:17: unbedingt euch noch erzählen, weil ich dachte vielleicht seid ihr ja auch gerade so im Frühjahrs-Putz waren wie ich.
00:39:22: Tatsächlich interessanterweise habe ich gestern angefangen hier auszumisten?
00:39:26: Ja!
00:39:27: Wie geht das immer dann ganz schnell?
00:39:30: Dann werden dann Haufen Sachen fotografiert und zack, zack wird das alles bei Kleinanzeigen oder bei Winterdreien gestellt.
00:39:37: und das Ganze hab' ich jetzt tatsächlich gemacht und zwar mit einem Skihelm den ich verkaufe möchte und ich aktiviere dann auch dieses.
00:39:47: direkt kaufen, direkt bezahlen, verschicken ist jetzt bei einem Skihelm gar kein Problem.
00:39:51: Und dann kommt also wirklich super schnell eine Nachricht.
00:39:57: Guten Abend!
00:39:58: Ist die Kinder Skihelmen noch zu haben?
00:40:00: Okay, denke ich mir.
00:40:01: erst mal gut Artikel verwechselt.
00:40:03: Groß- und Kleinschreibung kann ja mal passieren.
00:40:06: Dann schreibe ich Ja ist noch da.
00:40:09: Dann kommt, können sie DHL oder Hermes senden?
00:40:12: Ich wohne in und dann gleich.
00:40:15: Adresse mein Name ist super deutscher Name älterer Name Und dann PayPal möglich fragt Zeichen viele Grüße.
00:40:24: so smiley face fand ich.
00:40:26: irgendwie Lass ich so ein bisschen wie Copy-Paste, weil dann alles richtig geschrieben ist.
00:40:32: Dann habe ich mir das Profil angeschaut und dann steht er aktiv seit einem Tag vorher, also bevor ich die Anzeige erstellt habe und keine eigenen Produkte, keine Bewertung.
00:40:43: Naja, ich hab dann zurückgeschrieben.
00:40:44: irgendwie bist du ein Scammer?
00:40:46: Leider kam dann kein Antwort mehr drauf!
00:40:48: Ich wollte aber erzählen, wie dieser Scam weitergeht... Achso Du weißt
00:40:54: es dass es ein Scamm ist sozusagen auch.
00:40:56: Trotz der Nicht-Autung, der Scammerin.
00:40:59: Obwohl die Scamberin nicht zurückgeschrieben hat, ja wollte ich gerade reinliegen!
00:41:03: Nein weil es ist jemanden passiert oder ich kenne einen Fall sehr nah dem das passiert ist und deswegen wollte ich das euch hier gerne erzählen damit ihr euch dafür schützen könnt wenn euch bei Kleinen dann zeigen jemand nach eurer Paypal Adresse fragt denn denkt ihr ja erst mal im ersten Moment ist doch kein Problem.
00:41:21: Paypal
00:41:22: Käuferschutz Schickt mir Geld Okay.
00:41:25: Und bei den meisten ist ja der PayPal-Name die E-Mail Adresse, also Mail Add E-mail Adresse weggeschickt.
00:41:33: Dann geht die Masche so... Der Verkäufer hört dann erst mal gar nichts mehr und bekommt auch kein Geld und denkt dann okay das hat sich wahrscheinlich erledigt.
00:41:44: Also die Person hat vielleicht keine Interesse mehr oder so?
00:41:48: Dann kommt irgendwie ein Tag oder zwei Tage später, am liebsten irgendwie spät abends oder früh morgens wenn man eh noch nicht so richtig beieinander ist.
00:41:55: Kommt dann eine E-Mail so vorsicht vorgeblich von klein anzeigen Dein Artikel wurde mit direkt kaufen gekauft.
00:42:05: Du hast die PayPal Nummer schon längst vergessen.
00:42:08: Denkst ihr ach cool jetzt ist dieser Skihelm ist ja direkt gekauft worden.
00:42:13: wie praktisch Hier link anklicken Fehler hier link anklicken, um Geld abzuholen.
00:42:20: Und das ist jetzt wirklich der Punkt weil man öfter über Kleinern zeigen was verkauft, was ich mache.
00:42:24: dann weiß man dass man da gar nichts machen muss und dass das Geld dann automatisch ausgezahlt wird.
00:42:29: Wenn man es vorher aber noch nie gemacht hat denkt man okay so muss sich hier an klicken und dann kommt ja bitte gib irgendwie Kontodaten ein damit wir dir das Geld aus zahlen können und dann wirst du da in so eine Schleife geschickt Abs und Bannern, jetzt und schnell.
00:42:46: Und Teilmann und Kauntern.
00:42:48: Dann musst du ganz schnell ... Das Schlimme ist dann tatsächlich, dass das Menschen wirklich passiert, weil sie so unter Druck oder unter Stress geraten, dass sie tatsächlich ihre PIN eingeben für ihre Onlinebank.
00:43:03: Ah!
00:43:04: Okay.
00:43:05: Jetzt bekommen Sie eine Tanze geschickt?
00:43:07: Die müssen Sie jetzt verifizieren.
00:43:08: Das ist
00:43:08: der zweite oder dritte Faktor sozusagen.
00:43:11: Ja, okay.
00:43:12: bekommt man dieser Tanz zugeschickt und dann überweisen sich die Betrüger von deinem Konto per direkt Überweisung mit deinen Tanz so viel Geld wie geht.
00:43:23: Ja,
00:43:24: ja und das ist einfach so!
00:43:28: Die Banken waren auch vor der Masche.
00:43:31: Aber
00:43:31: meine Bank warnt sogar, wenn ich mir selbst von meinem Geschäftskonto auf mein Privatkonto Geld überweise ... diese Warnungen kann man sich so hinstecken!
00:43:38: Das ärgert mich so, dass die können doch dann warnen, wenn sie einen begründeten Verdacht haben und nicht einfach bei Default ... Achtung, du kannst grad auf einen Scammer reinfallen.
00:43:46: Hallo liebe Bank?
00:43:47: Du weißt doch das ich bin.
00:43:49: So was ärgerte mich schon?
00:43:51: ja...
00:43:52: Ja und für die Betroffenen kennen einige Betroffene von solchen oder anderen.
00:43:57: Das ist ja auch zu meiner Berichterstattung gehört und ganz schlimm für die Betroffenen.
00:44:02: Das Geld ist futsch,
00:44:04: und die Schaben
00:44:05: sind einfach riesengroß.
00:44:07: Und Polizei kannst du vergessen bei einem Schaden von was sind das höchstens ein paar Tausend Euro vielleicht?
00:44:14: Die Bankzeit auch nicht zurück, wenn Du selbst eine Ursacht hast.
00:44:17: Ich habe neulich so einen Frage gehabt, dass bei mir wurde einfach Geld abgebucht, bei irgendeinem Imbiss in Bratislava oder so dreimal ... Ich hab echt lange überlegt, war ich in Bratislava nicht vergessen?
00:44:27: Nein.
00:44:28: Kann man bei diesem Bratislava-Imbiss vielleicht auch anderswo was bestellen und ich habe einfach vergessen, dass es so war.
00:44:32: aber das war einfach nicht so ja... Und dann hab' ich halt meine Bank, da muss man mit... Man muss schon viele Klicks machen, aber man kriegt das Geld zurück, aber da musste ich tatsächlich also angeben.
00:44:40: Meine Kreditkarte habe ich nicht verloren, nein die ist bei mir!
00:44:43: Die haben halt gecheckt.
00:44:44: kann es gibt's irgendeinen Grund, dass wir sagen können du bist selbst schuld, aber dann war klar nie.
00:44:48: Also die Kredit-Karte ist bei meh.
00:44:49: ich war nie in Bratsislava weil es nicht beträge zwischen fünfzehn und zwanzig Euro.
00:44:55: Da hätte ich wahrscheinlich nicht mehr richtig viel Stress gemacht, wenn sie's nicht zurückgeschickt hätten.
00:44:59: aber tatsächlich hab' ich gesehen die Banken gucken und das weiß ja auch aus anderen Recherchen gucken natürlich sehr genau.
00:45:03: Können Sie dir irgendeinen Fehler belegen?
00:45:05: Dann hast du keine Chance!
00:45:06: Und ja die Polizei auch nicht, das gelt es ja weg her.
00:45:10: Ja also Leute passt auf Wenn ihr im Netz unterwegs seid.
00:45:14: vor allem lasst euch überhaupt nicht unter Druck setzen sowieso nicht.
00:45:19: Also auch im echten Leben nicht immer.
00:45:22: Das muss ich mir einmal überlegen.
00:45:24: Da muss ich nachdenken, das gilt auch für alle möglichen anderen Entscheidungen?
00:45:28: Es ist immer gut, zu viel als zu wenig nachzudenken.
00:45:32: Damit fahre ich sehr gut im Alltag, um zu sagen ... Ja, ich überlege mir, dass ich melde mich.
00:45:37: Auch bei solchen Sachen!
00:45:41: Und damit schicken wir euch in die nächste Woche.
00:45:44: Kein Dresel-Gutfuhr aus Purz würde ich sagen, genau.
00:45:47: Genau.
00:45:48: Macht's
00:45:49: gut.
00:45:49: Bis bald.
00:45:50: Tschüss.
00:45:52: Das war ein Podcast von Svea Eckert und Eva Wolf-Angel Musik und Produktion Marco Pauli.
Neuer Kommentar