KI, KZ-Bilder, Kontrollverlust: Eva ist wütend
Shownotes
Eva ist wütend. Und das zu Recht. In dieser Folge sprechen Svea Eckert und Eva Wolfangel über eine neue, gefährliche Welle von KI-Fälschungen: massenhaft generierte Bilder angeblicher KZ-Szenen – millionenfach geklickt, die Meta trotz Meldung wieder freigeschaltet hat. Was bedeutet das für digitale Erinnerungskultur, für Vertrauen, für Demokratie?
Dazu ein Blick auf die Rekordstrafe der EU gegen X: Warum der Digital Services Act jetzt zur Machtprobe zwischen Europa und den USA wird und wieso Forschungssperren, undurchsichtige Werbebibliotheken und das blaue Häkchen mehr sind als nur Plattformdetails.
Außerdem berichtet Eva frisch zurück von der Weltkonferenz des Wissenschaftsjournalismus in Südafrika: über KI, ökologische Kosten, digitalen Kolonialismus – und darüber, wie Fake-Studien und manipulierte Daten die Wissenschaftslandschaft bedrohen.
They Talk Tech ist ein c’t Podcast von Svea Eckert und Eva Wolfangel
Musik und Produktion: Marko Pauli
Shownotes
Das Thema bei Heise: https://www.heise.de/news/Millionenstrafe-gegen-X-Musk-fordert-Abschaffung-der-EU-Account-wird-gesperrt-11105798.html
Svea’s Recherche zu vermeintlichen wissenschaftlich geprüften Studien: https://www.ndr.de/nachrichten/investigation/Dossier-Das-Geschaeft-mit-der-Wissenschaft,fakesciencedossier100.html
Transkript anzeigen
00:00:02: Spielen sowohl die dahinter liegenden Empfehlungs-Eigungen eine Rolle
00:00:17: an.
00:00:17: Und herzlich willkommen zu TheyTalk Tech Einzité-Podcast.
00:00:21: Ich bin Svea Eckert und bei mir ist eine verwutsch-naumende Eva.
00:00:25: Ich
00:00:25: bin so wütend.
00:00:27: Das ist passiert.
00:00:28: Die Blätzchen nicht geschmecken.
00:00:30: Das kommt immer verbrannt.
00:00:31: Nein.
00:00:33: Ich riech mich auf über Meter.
00:00:35: Ja, ich weiß gar nicht, wo ich anfangen soll.
00:00:38: Er akzeptiert KI-generierte Fotos aus KZ auf seinen, also auf Facebook.
00:00:43: Ich reg mich auf.
00:00:45: Ich erzähle es dir gleich im Detail.
00:00:47: Sehr gut, sehr gut.
00:00:48: Also, darum geht es heute.
00:00:50: Und wir sprechen auch über die Millionenstrafe, die die EU gegen ex verhängt hat aufgrund von Verletzungen gegen den DSA.
00:00:58: Darüber sprechen wir.
00:00:59: Das war so eine Big Tech News Ende letzter Woche.
00:01:03: Und zu guter Letzt Eva, du warst in Südafrika auf einer großen Konferenz für WissenschaftsjournalistInnen.
00:01:10: Genau, die Weltkonferenz, der Wissenschafts-Teilistin.
00:01:12: Da bin ich auch
00:01:13: neugierig, was du da erlebt hast.
00:01:17: Big news first.
00:01:19: Okay, was genauerische schierst du gerade?
00:01:22: Ich habe gesehen, dass es auf Facebook und zwar in großem Stil KI-generierte Fotos aus KZ gibt.
00:01:29: Ja, also man sieht das, finde ich, eindeutig.
00:01:31: Es sind zwar auf altgemachte schwarz-weiß Bilder, aber natürlich sind die viel zu scharf, viel zu gut.
00:01:35: und man weiß ja auch, es gibt nicht viele Fotos.
00:01:38: aus KZ aus dem Zweiten Weltkrieg.
00:01:41: Und es sind halt so herzterreißende Geschichten.
00:01:43: Ein so ein Violonist spielt auf der Violine, während seine Mitgefangen in die Gehastkammern marschieren und dann eben so ein herzterreißender Text.
00:01:52: Und davon gibt's Massen, Massen, Massen.
00:01:54: Okay.
00:01:54: Warum?
00:01:56: Auf was für Accounts finden die sich?
00:01:58: Also, sind das Geschichts-Accounts?
00:02:00: Die versuchen,
00:02:01: Geschichts-Accounts zu erzählen?
00:02:03: Genau, manche tun so, als wenn sie einfach historisch Accounts sind und so Geschichte zum Leben erwecken wollen und interessant machen wollen, dachte auch erst, vielleicht ist es tatsächlich so was, dass die halt nicht so sensibel sind und ein bisschen drüber rausgehen.
00:02:17: Aber ich hab dann in der Recherche gesehen, dass es halt einfach viele davon gibt.
00:02:20: Systematisch die Posten fünf oder zehnmal oder öfter am Tag eben diese Geschichten.
00:02:25: Inzwischen gibt es sogar so kleine Videos aus dem KZ World Class.
00:02:27: Das kann überhaupt nicht sein.
00:02:29: Das erste reißende Geschichten gehen halt voll auf Emotionen.
00:02:33: Und ja, kriegen dafür... Teilweise richtig viele Klicks, weil halt Menschen mitgehen.
00:02:37: Das wollte ich mir gerade
00:02:38: fragen.
00:02:39: Was steckt dahinter?
00:02:41: Normalerweise passiert so was ja aus Monetarisierungsgründen.
00:02:45: Also irgendwo gibt es Geld zu verdienen und ich weiß, bei TikTok ist das so ein großes Ding.
00:02:50: Weil TikTok ja dieses Content Creator Programm hat.
00:02:53: Also bei TikTok gibt es tatsächlich für Views Geld.
00:02:56: Also für ein paar Millionen Views kann man da schon auch mal so zwei, dreitausend Euro bekommen.
00:03:01: Und das ist natürlich total interessant für Leute.
00:03:04: Die einen lustigen Hund haben oder eine witzige Katze und die setzen dann eine rote Mütze auf und produzieren und können sich im Prinzip so ein Einkommen verdienen.
00:03:16: Aber ich meine jetzt mal so für Leute, die sonst keine Ahnung in vielleicht in der Bäckerei arbeiten, sagen, hey, zwei, drei Tausend Euro ist für mich richtig viel und das kann ich mit meiner Katze verdienen.
00:03:25: Aber sowas wird halt auch mit einem Haufen Schindl oder verdient.
00:03:29: gerade wieder eine Content-Creatorin gehabt, die gesagt hat, hey, meine Inhalte werden einfach so, wie sie sind, einfach nochmal reuploadet und dann werden die monetarisiert.
00:03:39: Und das frage ich mich.
00:03:41: Bei Facebook kenne ich dieses Programm nicht.
00:03:43: Aber da gibt es
00:03:44: auch so ein Programm, genau.
00:03:45: Es gibt es auch.
00:03:46: Ich habe inzwischen viele E-Mails hin und her geschrieben mit der Presse Stelle von Meta.
00:03:52: viele ausweichende Antworten bekommen.
00:03:53: Auch dazu, sie sagen nicht im Detail, wie man genau ausgewählt werden kann für dieses Programm.
00:03:59: Aber ich würde vermuten, und das vermuten auch die Gedenkstätten, mit denen ich inzwischen gesprochen habe, dass es darum geht, dass man einfach Geld damit macht.
00:04:05: Meine zweite Vermutung ist aus Erfahrung, es würde auch sein kann, dass Leute dieses Accounts aufbauen.
00:04:10: Also mir fällt da immer zuerst, mir leidet der russische Geheimdienst ein, der eben solche Strategien systematisch macht, Accounts aufbauen, Follower sammeln.
00:04:17: Und dann irgendwann die Inhalte posten, um die es wirklich geht.
00:04:21: Und es kann sogar natürlich sein, dass die ... genau das Ziel verfolgen, was nämlich diese Accounts schon erreichen, dass sie nämlich die Gedenkstätten unglaubwürdig machen.
00:04:30: Der Ausschusssprecher hat mir gesagt, es geht eben jetzt schon los, dass auch unter ihren eigenen Posts Leute schreiben, ja, ist das überhaupt echt?
00:04:36: Das ist doch alles KI generiert.
00:04:37: Also, dass dieses Vertrauen angreifen in Institutionen, und das habe ich ja, als ich in Moldau war auf Recherche, haben mir das die Leute dort so klar gesagt, das ist eben die Strategie dort von Russland, einfach dieses Gefühl zu hinterlassen.
00:04:50: Man weiß doch gar nicht, was man noch glauben kann.
00:04:53: Und das erreicht natürlich sowas auch.
00:04:56: Also diese drei Dinge könnte ich mir vorstellen.
00:04:58: Und jetzt verstehe
00:04:59: ich deine Wut auch umso mehr.
00:05:01: Also weil wir alle wissen, was das bedeutet.
00:05:04: Also in der deutschen Geschichte und für uns alle ist ja dieses Gedenken, dieses Erinnern an das, was damals passiert ist.
00:05:12: Das ist ja, würde ich schon sagen, ganz wichtiger Teil auch von unserer eigenen Identität.
00:05:16: Und wenn das durch sowas verwässert wird, ausgelöscht wird, verstehe ich auch, dass es dich so aufregt.
00:05:23: Und pass auf, jetzt kannst du dich noch mehr aufregen.
00:05:25: Ich hab mehrmals der Facebook-Pressestelle geschrieben, hab ihn auch links geschickt zu diesen Accounts, die eindeutig Spam sind.
00:05:33: Also dieses mehrmals zehnmal einen Tag KI-Generativeszeug posten und so.
00:05:37: Dann kam immer zurück, ja, immer so verwässert das.
00:05:40: Natürlich, wir wollen das auch nicht.
00:05:42: Wir haben Richtlinien gegen Spam und inauthentische Accounts.
00:05:46: Man hat das Gefühl so ... Alles, was die schreiben, übrigens dazu kam immer so, ich kann Ihnen folgende Hintergrund-Infos geben.
00:05:53: Sie dürfen daraus nicht zitieren.
00:05:54: Ich frag, okay, dann hab ich gesagt, ich brauch irgendwas zum Zitieren.
00:05:57: Nein, ich krieg nur Hintergrund-Infos.
00:05:59: Meta lässt sich gar nicht zitieren, damit es auch so ... Ja, also, was soll das?
00:06:03: Diese richtigen entstehen ja auch irgendwo.
00:06:06: Naja, jedenfalls ... Und dann kamen wir, ja, wir haben diese Accounts geprüft, die Sie uns da gemeld haben, und wir haben sie gesperrt, weil, klar, Spam und so.
00:06:13: Und dann dachte ich, okay, ich war so kurz, dachte ich, okay.
00:06:16: scheinbar kann man was machen, auch wenn ich nicht glaub, dass wir da hinterherkommen.
00:06:19: Weil es geht ja viel schneller, so ein Account anzufangen und KI-generierten Scheiß draufzustellen, als die zu melden.
00:06:24: Aber ich hatte das Gefühl, okay, immerhin, Meta sieht, dass das nicht richtig ist.
00:06:28: Dann war ich jetzt eben auf der Weltkonferenz, hab diese Recherche liegen lassen.
00:06:32: Steige heute wieder ein, schau mal auf die Accounts, einfach ein bisschen zu beschreiben, was die so machen, und seh, dass die alle drei wieder posten.
00:06:39: Also, Meta hat die denen zurückgegeben.
00:06:41: Und ich fühl mich so ... Ehrlich gesagt, ich fühle mich halt verarscht.
00:06:44: Also mein Eindruck ist so, die Pressestelle, der Meter sagt, oh, da ist ne Recherche.
00:06:51: Aber einmal langsam, langsam, lass uns noch mal das ein bisschen abschichten, weil mich das schon interessiert, sozusagen nochmal genau darüber nachzudenken, was genau ist das Problem oder was ist der Verstoß.
00:07:02: Weil man könnte ja sagen, mithilfe von KI erhalten wir Erinnerung aufrecht.
00:07:09: Und erhalten die Grausamkeiten, die damals geschehen sind, aufrecht.
00:07:13: Jetzt könnte man sagen ... Na gut, also ob der jetzt wirklich ein Geiger da so und so gespielt hat, na ja, wer will denn so genau sein?
00:07:22: Ich mein, am Ende geht es ja darum, es war eine ganz schreckliche Sache und wir illustrieren das, dass es so schrecklich war.
00:07:28: Es ist ja keine Verherrlichung von Nazi-Symbolen, es sind ja keine schlimmen Begriffe verwendet, es geht nicht um Körperbilder, was weiß ich, also wir haben ja alles Mögliche, wo die Richtlinien auch greifen.
00:07:40: Deswegen könnte ich mir vorstellen, Kann das sein, dass es schwierig ist, die Richtlinien da sauber umzusetzen?
00:07:47: Also was ist ja nicht Hass, was ist ja nicht Hetze?
00:07:50: Also kann das sein, dass es da... Also
00:07:51: zwei Dinge habe ich in diesen Antworten, aus denen ich nicht zitieren darf, gefunden.
00:07:57: Also das eine ist...
00:07:58: Sagt sie den Ofen, Eva.
00:07:59: Ist das nicht so?
00:08:00: Ich sage
00:08:00: es jetzt ganz indirekt.
00:08:02: Also angenommen, Meta würde sagen, nee, ich vermute, das steht auch irgendwo.
00:08:07: Also ich zitiere da jetzt... Sagen wir indirekt raus.
00:08:11: Sie würden keine Inhalte zulassen, die Nutzer täuschen, Irre führen oder überwältigen sollen, um die Anzahl der Aufrufe künstlich zu steigern.
00:08:18: Das tun die wirklich eindeutig.
00:08:20: Automatisch übermäßig häufige Inhalte posten.
00:08:23: Auch das tun die.
00:08:25: Das ist
00:08:25: dieses N-Auffältig-Beheber.
00:08:28: Genau.
00:08:29: Und außerdem, Sie arbeiten seit den Anfangstagen intensiv daran, Fake- und Spam-Accounts automatisch zu erkennen.
00:08:37: Das sind Fake-Accounts, die haben ein Impressum in Deutschland.
00:08:40: Ich hab die Telefonnummer angerufen, hab den E-Mails geschrieben, dieses Impressum ist erfunden.
00:08:44: Die werden gehostet, also einen davon hab ich nachverfolgt in Vietnam.
00:08:48: Das ist kein authentischer Account, das ist überhaupt nicht schwierig rauszukriegen.
00:08:54: Meta wusste das, weil ich ihn mitgeteilt hab, die haben sich das angeschaut und die gesperrt.
00:08:58: Die Account sind genauso mit diesem gleichen Fake-Impressum online gegangen.
00:09:03: Also das ist ... nicht nur automatisch geprüft, es ist händisch geprüft, dass das Fake-Accounts sind.
00:09:09: Diese zwei Dinge mindestens stehen hier in den Richtlinien.
00:09:11: Ich verstehe schon, dass man vorsichtig sein muss, dass man nicht voreilig fordern darf, Dinge zu löschen oder zu sperren.
00:09:18: Aber ich finde, in dem Fall ist es so eindeutig, selbst mit den Richtlinien, die jetzt irgendwie unpolitisch sind, aber einfach diese gegen Fake- und Spam-Geschichten, ist es so eindeutig.
00:09:29: Meta hat es ja selbst auch gesagt.
00:09:31: Sie haben mir geschrieben, wir haben zumindest den einen.
00:09:33: Gesperrt wegen Spam.
00:09:35: Die anderen beiden haben sie gesagt, die prüfen wir noch.
00:09:37: Aber auch der, den sie laut Aussage gesperrt hatten wegen Spam, haben sie jetzt wieder reaktiviert.
00:09:44: Sag mal, du hast eben gesagt, einen Kontostrück verfolgen nach Wittnamn.
00:09:49: hast du eine Idee, wer oder was dahinter steckt?
00:09:52: Weil das finde ich ist ja immer so schwierig für uns als Recherchierende von außen zu sehen, wer dahinter steckt, weil eigentlich hat ja Meta die ganzen Daten.
00:10:00: Also die können ja ins Backend, die können ja nach hinten reingucken und sagen, okay, welche SIM-Karte liegt dahinter?
00:10:05: Welche Telefonnummer?
00:10:06: Welche Mykia auch zwar fake, aber welche E-Mail-Adressen, welcher Provider wird benutzt und so weiter und wo loggen die sich ein?
00:10:12: Also von hinten aus dem Backend kann man sowas verfolgen.
00:10:15: Für uns von außen fällt es sehr schwer.
00:10:18: Aber ich meine jetzt auch mal so rein von der Macher her, kann man davon ausgehen, dass du es oder dass du es da mit einem ganzen Netz zu tun hast?
00:10:27: Nicht drei Accounts, sondern drei
00:10:28: tausend.
00:10:29: Das sind natürlich viel mehr.
00:10:30: Das sind die drei, die ich jetzt halt mir händisch angeschaut habe.
00:10:32: Genau.
00:10:33: Ich denke, wenn man ein bisschen schaut, findet man noch viele, viele mehr.
00:10:38: Könnte mir vorstellen, dass es wie so ein Netzwerk ist, mit Content Farm sozusagen.
00:10:43: Ob die Personen tatsächlich in Vietnam sitzen weiß ich natürlich nicht, das ist die Website dort gehostet, auf die man dann irgendwann kommt, immer ein bisschen sucht.
00:10:50: Aber wo die Menschen sitzen im Detail ist klar, wie du sagst, für uns von außen nicht rauszukriegen.
00:10:57: Ja genau, Meter hingegen könntest du schon einfach mal überprüfen, wer ist es denn in Wirklichkeit, aber offensichtlich.
00:11:02: Zumindest drängt sich mir der Eindruck auf, wird das nicht getan.
00:11:04: Also
00:11:04: ich habe ja in dieser langen Recherche, die ich mal zum Meter gemacht habe, habe ich ja mit einigen Whistleblowerinnen gesprochen.
00:11:11: Also Menschen, die bei Meter gearbeitet haben, dort inzwischen nicht mehr arbeiten und die genau für sowas zuständig waren.
00:11:17: Also zum Beispiel mit Sophie Chang habe ich gesprochen.
00:11:21: eine Frau, die dort gearbeitet hat und die auf genau solche Fake-Accounts aufmerksam gemacht hat, die benutzt wurden, um mit dem Versuch Wahlen zu manipulieren, also wo dann politische Gegner zum Beispiel massiv angegriffen wurden, einfach um zu polarisieren, um Meinungsbilder zu verzerren.
00:11:38: Und die hatte damals das Problem, dass sie intern immer wieder darauf aufmerksam gemacht hat.
00:11:44: aber dass sie nicht ernst genommen wurde, dass es nicht weitergetragen wurde.
00:11:48: Also, dass die Struktur so groß war durch Barrieren, durch die sie durch musste, vorgesetzt, Leute, die dann gesagt haben, ach, recherchiere du noch mal, ach, guck doch noch mal, dass sie damit nicht durchgedrungen ist.
00:11:59: Und da drängt sich natürlich von außen schon der Verdacht auf auch, dass man ... dann am Ende doch Klicks und Engagement, weil diese Accounts sorgen ja für viel Interaktion.
00:12:10: Und das ist ja immer noch die Währung für Meta, nämlich dieses Matthew Active Users, also monatlich aktive Nutzerinnen.
00:12:17: Und das sind diese Fake-Accounts halt auch, dass man die einfach nicht so gerne löscht.
00:12:22: Ja, also ich denke, das wird sein.
00:12:24: Also dieses Ganze, was Sie behaupten in den Dingen, auf denen Sie zitieren darf, dass Ihnen Demokratie wichtig sei und blah, blah, blah, irgendwie.
00:12:32: Dass Sie da durchaus Ihre Verantwortung sehen, das ist halt Quatsch.
00:12:34: Also das finde ich schon die Lehre daraus.
00:12:37: Natürlich, das machen diese Accounts, die sorgen schön für Interaktion.
00:12:41: Aber ja, damit entlarvt sich halt auch, das ist ja auch eigentlich nicht ... Wirklich verwunderlich.
00:12:48: Damit entlarvt sich halt auch, dass es eben auch ums Geld geht und nicht um Demokratie, Diskussion, Information, was auch immer.
00:12:59: Mir ist es noch nie so krass passiert, dass ich das Gefühl habe, so ... Die haben vielleicht nicht damit gerechnet, dass ich weiter recherchiere.
00:13:05: Ich dachte, die erste Anfrage war schon vor zwei Wochen.
00:13:08: Dann hatte ich eben die Recherche unterbrochen, weil ich auf Konferenzen war.
00:13:12: Die haben nicht damit gerechnet, dass ich noch mal schaue.
00:13:13: Und jetzt sind die wieder online.
00:13:14: So kommt es mir vor.
00:13:15: Klar kann natürlich.
00:13:16: Ihr habt uns auch geschrieben.
00:13:17: Wenn man es anders erklären kann, bitte erklären Sie mir, wie man sich das erklären kann.
00:13:22: Aber ich komme mir schon echt verarscht vor.
00:13:24: Lohnt sich, weiter dran zu bleiben.
00:13:26: Wir gucken da sicherlich nochmal hin, Eva, vor allem, wenn du dann auch veröffentlicht hast und passt auch ganz gut zu dem nächsten Thema, was wir für euch mitgebracht haben, nämlich die Millionenstrafe gegen Ex.
00:13:47: Das ist jetzt gerade in der letzten Woche bekannt geworden.
00:13:50: dass die EU Ex mit einer Strafe von hundertzwanzig Millionen Euro belegt hat.
00:13:55: Und das ist die erste Nicht-Einhaltungsentscheidung überhaupt unter dem Digital Services Act.
00:14:02: Und das Spannende daran ist, es ist auch wegen blockierter Forschung.
00:14:09: Im DSA gibt es einen Passus, der besagt, dass man Forschenden die Möglichkeit geben muss, um genau solche Analysen zu machen, einen Zugang geben muss zu öffentlichen Daten, zu APIs, dass man genau schauen kann, wie viele Accounts hängen noch zum Beispiel in einem Netzwerk drin.
00:14:26: Und genau das war auch ein Grund.
00:14:29: dazu, dass eben genau diese Strafe fällig wurde.
00:14:32: Ja, und Musk hat sie ja dementsprechend auch schon geäußert.
00:14:35: Ich habe nur unqualifizierte Kommentare von ihm gesehen, wollte ich sagen.
00:14:38: Achso, und die Zerschlauung der EU.
00:14:40: Stimmt.
00:14:42: Genau, also irgendwie er hat tatsächlich die Abschaffung der EU gefordert, also natürlich auf X, aber... was dann da dran hängt.
00:14:51: Und das ist ja wieder das, wo man dann denkt, oh no, ist dann auch wieder Vertreter der US-Regierung, also wie zum Beispiel JD Vance, die dann auch die Entscheidung kritisieren und sagen ja Angriff auf amerikanische Techfirmen und S-Bürger.
00:15:06: Und das, finde ich, da wird es ja dann auch wieder... politisch spannend.
00:15:10: Das heißt also, wir haben hier einen US-Tech-Konzern, gegen den eine hohe Strafe verhängt wird, und so reicht einem Datenzugang für Forschende, wegen diesem irreführenden blauen Häkchen, wegen mangelnder Transparenz dieser Werbe- und Anzeigenbibliothek.
00:15:25: Also das ist auch so für uns eigentlich ein ganz spannendes Tool, wo man eben schauen kann, welche Anzeigen werden eigentlich von wem geschaltet.
00:15:32: Und aus diesen drei großen Kritikpunkten setzt sich diese hohe Geldstaffe zusammen.
00:15:39: Und dann wird das insofern halt politisch als, dass dann die US-Regierung da mit Kommentaren mit reingeht.
00:15:46: Und ja, das ist natürlich immer, wenn wir auch in sowas sind, wie Sozollverhandlungen, dann ja, dann ist das natürlich schon so ein Bargenink-Chip.
00:15:56: Ich fand es ganz spannend, weil ja oft gesagt wurde, diese Strafe ist eigentlich zu niedrig, weil wohl es gab wohl Gerüchte, dass die irgendwie deutlich höher ausfallen würde und für Axis natürlich eigentlich so ein Klacks.
00:16:10: Gleichzeitig finde ich es ganz spannend, weil es ist ja auch, also da ist auch was Symboles dabei, ne?
00:16:15: Weil ja kurz vorher war der US-Handelsminister Howard Lattnick in Europa, hat mit der EU verhandelt und hat gesagt, sie wären bereit, ihre ... Strafzölle für Aluminium und Stahl abzumildern, wenn die EU im Gegenzug ihre Digitalgesetze abschwächen würde.
00:16:30: Und ich muss sagen, in dem Zusammenhang finde ich es tatsächlich richtig interessant, weil das ja schon auch, es ist wahrscheinlich nicht eine Antwort.
00:16:38: Ich denke, wir wissen ja, das Verfahren lief seit, ich glaube sogar zwei Jahren gegen X, aber diese Entscheidung gesagt natürlich auch, wir lassen uns nicht erpressen als EU.
00:16:46: Und das natürlich ... Treibt die jetzt auf die Barrikaden?
00:16:49: Also Elon Musk hat ja wie so ein Kind auch reagiert.
00:16:53: Der riegt sich ja auf und sagt, das kann ja überhaupt nicht sein.
00:16:55: Und was fällt denen ein?
00:16:56: Und lasst die die EU zerschlagen?
00:16:58: Weil natürlich er das nicht glauben kann, dass er da jetzt nicht durchkommt.
00:17:03: Dass die da einfach nicht mitspielen bei dem Spiel, was sie vorgeschlagen haben.
00:17:07: Und von daher, in dem Rahmen finde ich schon, selbst wenn man sagt, es ist jetzt keine besonders hohe Strafe, in dem Rahmen finde ich es wirklich interessant.
00:17:14: Und auch, ich glaube, ein anderer Punkt ist, du hast gesagt, das Anzeigenarchiv klingt so ein bisschen technisch, aber es ist tatsächlich ein wichtiges Ding, weil man eben genau in diesem Archiv theoretisch nachschauen können sollte, wer hat Anzeigen, wer steckt hinter welchen Anzeigen, welche Anzeigen wurden von dem geschalten, was wichtig ist von der demokratischen Kontrolle oder für eine... aufgeklärte Öffentlichkeit um zu wissen, wer tut ja eigentlich was?
00:17:33: Wer versucht uns irgendwie hier wie zu beeinflussen?
00:17:35: Genau, mein Gedanke, den ich dazu noch hatte heute Morgen, war, dass ich mich schon gefragt habe, wozu brauchen wir Ex eigentlich noch?
00:17:43: Also wäre jetzt auch nicht schlimm, wenn es weg wäre.
00:17:45: Also das, also wie ich ... noch mal so einen Schritt zurückgegangen von dieser gesamten Entscheidung, die ich richtig finde und auch wichtig finde, weil ja schon die Debatte um den DSA auch immer ist, ist es nur ein Papiertieger.
00:17:58: Was hilft uns der DSA, wenn es dann so was gibt wie Zollverhandlungen, wo dann Druck gemacht wird?
00:18:03: und dann sagen wir so, Anne, der DSA gilt nicht mehr.
00:18:06: Also so läuft es ja nicht.
00:18:07: Und das ist genau das, was auch diese verengte Strafe jetzt zeigt, die zeigt.
00:18:12: Auch wenn es politisch an einer ganz anderen Front heiß hergeht.
00:18:16: Auch wenn es sowas gibt wie Zerle gegen Aluminium und Stahl.
00:18:19: Unsere Digitalgesetze sind unsere Digitalgesetze.
00:18:22: Und das finde ich ein gutes Zeichen und das zeigt auch diese Strafe.
00:18:24: Das ist eben, das ist funktioniert, dass wir uns da auf der Seite sozusagen nicht bestechen lassen.
00:18:31: Andererseits dachte ich natürlich auch irgendwie so, dieses Ex, dieser Downfall ist natürlich nochmal, das ist eigentlich Stoffen für eine ganz eigene Folge.
00:18:41: dass diese Plattform einfach so einen krassen Niedergang erlebt hat und einfach eigentlich total irrelevant geworden ist zu dem, was sie halt vorher war.
00:18:51: Ja, das ist tragisch.
00:18:53: Ja, das stimmt.
00:18:53: Und diese Diskussion, natürlich brauchen wir Ex noch.
00:18:55: Oder sollten wir da noch sein?
00:18:58: Es wird schon immer klarer, dass wir da nicht mehr sein sollten.
00:19:03: Die EU-Kommission hat ja noch ein Account, der wurde übrigens dann kurzfristig gesperrt.
00:19:08: Außer, es ist so Kindergarten, was Ekstra macht.
00:19:12: Mit dem Argument, sie hätten ihren Account seit vielen Jahren nicht mehr genutzt.
00:19:17: Und dann jetzt den genutzt, um diese Strafe zu verkünden auf eine Art und Weise, die undurchsichtig wäre, weil sie so tun würden, als würde die Anzeige ein Video enthalten, der Post ein Video enthalten.
00:19:27: Dabei hat der ein Video enthalten, sie haben nicht so getan.
00:19:30: Das war so ein bisschen völlig irre Begründung.
00:19:32: Und ich hab jetzt mal kurz damit es ein bisschen runtergescrollt.
00:19:34: Mir scheint nicht so, als wenn der Account Ewigkeiten nicht benutzt worden ist.
00:19:38: Aber von daher, ja, man sieht eben, die Willkür schlägt da voll durch, irgendwie Elon Musk und seine Firma können sperren, wen immer sie wollen.
00:19:46: Und sie können natürlich algorithmisch dafür sorgen, dass die EU-Kommission einfach unsichtbar ist auf Exteps, wenn sie da noch ist.
00:19:52: Also das alles ist natürlich ein total klares Zeichen dafür, dass das ein Ort ist, dem man verlassen sollte und an dem keine ... eine demokratische Diskussion stattfinden kann.
00:20:03: Ganz im Gegenteil.
00:20:04: Genau.
00:20:05: Ich denke, an der Stelle bleibt diese Strafe auch ein Stück weit zurück.
00:20:10: Weil was ja nicht angegriffen wurde, ist die Struktur der Plattform, also der Algorithmus, die Moderationspolitik.
00:20:18: Das Geschäftsmodell, das bleibt ja ein zentraler Faktor.
00:20:21: Das heißt, die EU hat da einen sichtbaren Symptom angegriffen, wie jetzt an diesem blauen Checkmark, wo man sagen kann, na ja, wer Geld zahlt, kriegt das halt, egal, ob er authentisch ist oder nicht.
00:20:32: Aber an der USA ... Da haben sie nichts gemacht, wahrscheinlich, weil es sich nicht so gut belegen ließ, wahrscheinlich, weil es nicht so hart und fest zu machen ist, gerade wenn man eben diesen Forschungszugang nicht hat.
00:20:44: Und man hat jetzt hier erst mal an diesen sichtbaren Faktoren angegriffen.
00:20:48: Exkann diese Strafe anfechten vor dem Europäischen Gerichtshof.
00:20:52: Auch da werden wir weiter für euch draufschauen.
00:20:55: Und Eva, du bist ... und aus Südafrika gerade wiedergekommen, da will ich unbedingt noch kurz hin.
00:21:02: Aber ging es da auch eigentlich auch um die großen Plattformen?
00:21:04: Oder habt ihr da was ganz anderes gesprochen?
00:21:07: Am Rande ein bisschen, also es ist ja die Weltkonferenz des Wissenschafts.
00:21:10: Das sind ganz, ganz viele Themen, mit denen ich nicht so viel zu tun habe.
00:21:14: Also eben alles, was es wozu es Wissenschaft gibt.
00:21:17: Ich habe ein Panel, war Speakerin auf einem Panel zu KI, AI Friend or Foe.
00:21:24: Ich habe das, genau das gleiche Panel habe ich schon mal.
00:21:25: gepitscht vor sechs Jahren, auf der Weltkonferenz in Lausanne.
00:21:30: Und ich hab genau, ich hab diesmal gedacht, jetzt ist eigentlich der Zeitpunkt, wo wir auch im Wissenschaftsstall das muss noch mal drüber reden müssen.
00:21:36: Was kann KI und was ist die Gefahr?
00:21:38: Weil im Gegensatz zu zwei tausend neunzehn, natürlich jetzt deutlich.
00:21:42: größere Probleme auch mit auf dem Tablett sind.
00:21:45: Und da ging es, und das fand ich ganz spannend, natürlich hab ich so ein bisschen erzählt, was ich denke, was das Problem ist.
00:21:49: Ein generativer Kainz, besondere, das wiederhole ich es nicht, das hab ich die letzten Male hinlänglich ausgebreitet, bisschen gezeigt, was man stattdessen damit machen kann und ein bisschen Social Engineering von großen Sprachmodellen und so Zeug.
00:22:02: Und dann geht es aber auch viel eben um die ökologischen Kosten, um Datacenter und diese ganzen Sachen.
00:22:08: Das hat man schon gemerkt, dass es noch mal ein größeres Thema ist, weil es natürlich auch die Ungleichheit verschärft, weil diese Datacenter an Orten gebaut werden, wo Platz ist, wo die Menschen wenig, lässt sich keine Lobby haben, um sich zu verteidigen.
00:22:23: Dazu
00:22:23: kommen ja auch noch die Click-Worker, also die Menschen, die diese Anotationen machen, deswegen ja auch ganz spannend.
00:22:29: Die Konferenz fand in Südafrika statt und viele dieser Click-Worker sitzen ja, also nicht unbedingt in Südafrika da auch.
00:22:36: Überhaupt auf
00:22:38: einer afrikanischen Kontinent.
00:22:41: Man sieht es ganz klar, diese Technologie verschärft Ungleichheit im besonderen Maß.
00:22:46: Man spricht
00:22:46: ja auch gerne von digitalen Kolonien-Dasmus, dass man sagt, okay, das war früher vielleicht mit Kaffee oder Rohstoffen.
00:22:56: passiert ist, wo man gesagt hat, okay, wir lassen in armen Ländern, werden die Rohstoffe abgebaut, wir verarbeiten das Zeug, verkaufen sie ihnen wieder teuer.
00:23:04: Ich meine, es gibt es bis heute.
00:23:06: Und genau das Gleiche passiert jetzt an der Stelle ein Stück weit wieder.
00:23:10: Genau.
00:23:10: Und von daher fand ich es schon auch spannend, das mal in dem Rahmen zu diskutieren.
00:23:14: Und natürlich, Wissenschafts-Journalistinnen sind jetzt nicht per se Tech-Journalistinnen, also da fand ich es auch noch mal wichtig.
00:23:19: einfach klarzumachen.
00:23:20: Hier Machine Learning, KI, das sind auch Wissenschaftsthemen und da passiert gerade sehr, sehr viel und auch viel Schindluder.
00:23:28: Und genau, apropos Schindluder, was anderes, was ich echt gemerkt habe, was, also das sind ja so ein bisschen meine Wurzeln, ja, der Wissenschaftsjournalismus.
00:23:34: Ich war früher Ganz viel auf solchen Konferenzen.
00:23:37: Und ich hab gemerkt, dass mir das teilweise auch fehlt, diese Diskussion.
00:23:40: Weil ein Panel fand ich ganz besonders inspirierend über Fraud in der Wissenschaft, also über, sagen wir mal, Bedruck, also genau, gefälschte Paper.
00:23:51: Das nimmt erst recht das noch mal zu mit KI.
00:23:53: Aber es gibt's auch schon immer, das explodiert.
00:23:56: Das wird, glaub ich, auch noch mal eine Aufgabe für uns, solche Sachen rauszufinden und zu verifizieren.
00:23:59: Aber auch Paper, die quasi echt von Hand geschrieben sind, haben natürlich teilweise ... Forscherinnen und Forscher, die richtig kriminelle Energie darin, ihre Zahlen schönzurechnen, was zu behaupten, was nicht so ist.
00:24:13: Ein Sprecher, Lonnie Besson-Saun, der ist in Schweden an der Uni, hat da ganz viel dazu gemacht, er hat in der Pandemie angefangen und hat eben da einige Studien zerlegt.
00:24:22: Also der arbeitet mit Daten.
00:24:24: Datenvisualisierer eigentlich, aber weiß eben natürlich dadurch auch, wie man Daten überprüft.
00:24:29: hat einige Studien quasi wie so nachgerechnet und hat einfach gezeigt, dass da Schlüsse getroffen wurden, die falsch sind, die wirklich und wahrscheinlich teilweise aktiv falsch, weil die sich die Forscherinnen und Forscher damit halt Reichweite und Aufmerksamkeit erhofft haben.
00:24:45: Da gab es in der Pandemie einiges.
00:24:47: Und das fand ich ... Solche Sachen finde ich super interessant, weil man ... weil es jetzt so sehr das kritische Denkenschult.
00:24:53: Man sieht so, das sehe ich eben oft, außerhalb von meiner ... von meiner Wissenschaftsjournalismus-Babel.
00:24:58: Das war sie schon im Restjournalismus in Anführungszeichen.
00:25:01: Studien und Professoren oft unhinterfragt so hingenommen werden.
00:25:05: Der Professor sagt das und das.
00:25:06: Und hier gibt es doch eine Studie.
00:25:08: Dass es halt total wichtig ist, die Studie noch anzuschauen und zu gucken, kann das alles sein?
00:25:12: Haben die die richtigen Schlüsse drausgezogen?
00:25:14: Oder haben die sich vielleicht aufgehend ... Also, oft fallen auch Forscherinnen und Forschereien auf Korrelationen, die aber nicht kausal zusammenhängen und die wirken dann nur so.
00:25:22: Aber sie ziehen, also eben das passiert ... durchaus immer wieder falsche Schlussfolgerungen.
00:25:28: Und da braucht es eben einen kritischen Donalismus, der da drauf schaut.
00:25:31: Und das ist in dem Panel noch mal so klar geworden.
00:25:33: Plus eben Studien, die ganze Versuche erfunden haben.
00:25:36: Da kann man natürlich auch mit so lässlich Wahrscheinlichkeiten hinterher schauen, wenn ein Professor immer die gleiche Anzahl an Probanden hat oder einer hatte in allen Versuchsreihen, immer eine gerade Anzahl an Probanden.
00:25:46: Also, sozusagen, da kann man natürlich auch noch mal ... Ich glaub, da kann man wahrscheinlich auch mit KI, mit klassischen Machine Learning, könnte man da ganz coole Tools bauen, die uns so bei ... um solche Dinge aufzudecken.
00:25:57: Weil diese Studien teilweise in die ganz schöne Reichweite hatten.
00:25:59: Weil sie eben so, ja, wie Social Media Posts, sie polarisieren.
00:26:03: Weil sie halt polarisieren und scheinbar was Krasses aufdecken.
00:26:06: Und da ist es super wichtig, dass wir hinterher sind und vor allem auch schnell hinterher sind.
00:26:09: Weil das Problem ist oft auch, die werden dann gecovert, da wird drüber geschrieben.
00:26:13: Und dann kann es sein, dass die irgendwann zurückgezogen werden müssen, wenn man dann belegt hat, dem Verlag gegenüber, dass es eine Fälschung war oder falsche Schlüsse sind.
00:26:22: Diese Berichtigung wird dann ganz oft gar nicht mehr berichtet.
00:26:24: Und das fand ich einfach noch mal so ein interessantes Demonstrat, die stimmt.
00:26:28: Dann muss man öfter mal... Ich hab
00:26:28: ja zu achtzehnmal eine riesen Recherche dazu gemacht, da zusammen mit der Süddeutschen.
00:26:33: Wo wir, da waren wir sogar auf solchen Konferenzen, so Fake-Konferenzen und haben diese Paper ... Habt
00:26:38: ihr was eingeneicht?
00:26:40: Ja, mehrfach.
00:26:41: Professor Errwunden war da ein ganz großer Kollege von mir von der MSZ-Magazin damals.
00:26:47: Ich war Isabella Schreibaum auf einer Universität Himmelpforten, sogar mit falscher Brille aufgetreten.
00:26:53: Einen Mist erzählt und kann mich nie mehr halten, Verlachne.
00:26:57: Lang lang ist her, aber das Problem ... ist größer denn je.
00:27:00: Ja, also auf jeden Fall.
00:27:01: Ich bekomme gerade
00:27:02: übrigens ständig, ich bekomme täglich zwei, drei E-Mails von solchen Journals, die mir anbieten, dass ich meine Forschung bei ihnen veröffentlichen kann.
00:27:07: Ja, also das Problem ist, ja, scheinbar nicht kleiner, sondern größer geworden.
00:27:11: Ja.
00:27:12: Deswegen wirklich der, ja, dieses kritische Hinterfragen und Nachtdäberdenken umso wichtiger in diesen Zeiten.
00:27:19: Und damit entlassen wir euch heute.
00:27:22: Habt eine gute Woche
00:27:24: und wir hören uns wieder.
00:27:26: Eine gute Zeit euch.
00:27:27: Und wir hören uns wieder nächste Woche Mittwoch bei TheyTalk Tech ein CT Podcast.
00:27:32: Schön, dass ihr uns zugehört habt, wenn ihr uns einen Riesen gefallen tut wollt.
00:27:36: Dann liked unseren Podcast und teilt ihn.
00:27:39: Das hilft uns, damit wir weitermachen.
00:27:41: Und
00:27:41: hinterlasst Feedback, diskutiert mit uns.
00:27:43: Wie gesagt, ich sehe gerne auf Mastodon, aber auch auf anderen Plattformen.
00:27:47: LinkedIn, du bist viel auf Instagram.
00:27:48: Also er findet uns.
00:27:50: Hinter das Feedback gibt uns Tipps für Themen, die euch interessieren, die wir mal besprechen sollten.
00:27:55: Und ja, lasst euch
00:27:55: gut gehen.
00:27:56: Bis bald.
00:27:57: Tschüss.
00:27:57: Vielen Dank auch an Marco Pauli, der hier Musik und Produktion macht.
00:28:01: Vielen Dank.
00:28:01: Ciao.
Neuer Kommentar