Milliarden für Rechenzentren und: Lenken Algorithmen unsere Demokratie?

Shownotes

Sie sortieren unsere Feeds, beeinflussen was wir sehen und vielleicht auch, was wir wählen: Algorithmen. Eine neue Studie der Bertelsmann-Stiftung zeigt, wie Plattformen wie TikTok oder Instagram politische Inhalte verzerren. Parteien am Rand tauchen häufiger auf, die politische Mitte verschwindet.

Gleichzeitig investieren Konzerne wie Google, Nvidia und die Telekom Milliarden in neue Rechenzentren in Deutschland. München soll zur KI-Hochburg werden, auch Google baut seine Cloud-Standorte massiv aus.

Doch was bedeutet das, wenn immer mehr Rechenleistung und algorithmische Macht in privaten Händen liegen?

Eine Folge über Macht im Maschinenraum der Demokratie.

Von Svea Eckert und Eva Wolfangel

Musik und Produktion: Marko Pauli

Zum Thema Digitale Souveränität bei Heise: https://www.heise.de/hintergrund/In-acht-Schritten-zur-digitalen-Souveraenitaet-10862064.html

Bertelsmann Studie: https://www.bertelsmann-stiftung.de/de/unsere-projekte/engagement-junger-menschen-fuer-demokratie/projektnachrichten/algorithmen-im-wahlkampf

Investments Google und Telekom/NVIDIA: https://www.deutschlandfunk.de/bericht-google-plant-bis-dato-groesste-investition-in-deutschland-100.html

https://www.zeit.de/digital/2025-11/ki-rechenzentrum-muenchen-nvidia-telekom-chips-gigafabrik

Transkript anzeigen

00:00:02:

00:00:17: Hallo und herzlich willkommen zu Daytalk Tech Einzity Podcast mit mir, Svea Eckert,

00:00:23: Tech Journalistin und Eva Wolf Angel.

00:00:25: Das bin ich auch Tech Journalistin.

00:00:28: Ja,

00:00:29: wir sprechen wieder über alles.

00:00:31: Was wichtig ist in der Tech-Welt, da stehen einige Dinge voraus oder da laufen auch einige Dinge.

00:00:37: Als erstes spreche ich mir ganz kurz nochmal, machen wir einen kleinen Recap zu dem Kommentar, den ich in den Tagesthemen gemacht habe.

00:00:43: Der ging es um das Thema, inwiefern Linke und rechte Parteien von Algorithmen bevorzugt bzw.

00:00:51: häufiger angezeigt

00:00:52: werden.

00:00:54: Und dann haben wir zum großen Thema digitale Souveränität recherchiert und zwar steckt Google Milliarden in digitale Infrastruktur und Rechenkapazitäten in Deutschland.

00:01:03: Und das passt auch ganz gut zu einer großen, zum großen Announcement der Telekom, die zusammen mit Nvidia Gerade eine Milliarde in einen Rechenzentrum in München investiert.

00:01:12: und natürlich stellt sich so die Frage Google, Nvidia, bei das große US-Unternehmen.

00:01:18: Wie passt es eigentlich genau zu digitale Souveränität?

00:01:20: Und dann haben wir noch einen Schmanker für euch.

00:01:23: Haha, wir haben uns eine neue Kategorie überlegt.

00:01:25: Dies und das, ja, wir dachten, wir müssen auch mal so, einfach mal so über dies und das reden.

00:01:30: Und diesmal, ich hätte ja am liebsten gesagt, lasst euch überraschen, aber Eva meinte, lass uns schon vorher verraten.

00:01:36: Als

00:01:36: du cool ist.

00:01:38: Genau, wir beschäftigen uns diesmal mit dem Vorabprogramm des neununddreißig C drei, also das Kongress, das Chaos-Computer-Club, der in Dezember in Hamburg stattfindet und da kam gerade, die kam raus, welche Talks dort zu hören sind und wir haben natürlich reingeschaut und teilen unsere Favoriten.

00:02:01: Ja, dann lass uns gleich mal eintauchen.

00:02:04: Als erstes schauen wir... nochmal auf die Studie von der Universität Potsdam zusammen mit der Bertelsmann Stiftung.

00:02:11: Die haben sich angeschaut, wie Empfehlungsalgorithmen auf TikTok, Instagram, X und YouTube funktionieren und zwar über ein Zeitraum von vier Wochen, das muss man vielleicht auch einordnend dazu sagen, also es ging nicht um ein Jahr oder fünf Jahre, sondern wirklich um vier Wochen, wie die Inhalte offizieller Partei-Accounts an junge NutzerInnen, so nächste Einschränkungen, einundzwanzig bis fünfundzwanzig Jahre ausgespielt werden.

00:02:37: Und da kam ein spannendes Ergebnis raus, nämlich Parteien am politischen Rand sind in den Vietz von diesen jungen NutzerInnen.

00:02:47: überproportional vertreten als solche, die in der Mitte sind.

00:02:50: Und das hat für jede Menge Aufregung gesorgt.

00:02:53: Ich finde es ganz cool, bei der auf der Website der Studie so eine Visualisierung sozusagen zu sehen, die Verteilung der von den Parteien hochgeladenen Videos, also einfach wie viele Videos haben die jeweils hochgeladen.

00:03:06: Da sieht man zum Beispiel, dass die SPD eigentlich sehr aktiv war und die AfD, die führen das so ein bisschen an.

00:03:11: Und dann eben auf der anderen Seite im Feed aufgetretenen Videos, also da kann man quasi direkt den Verlauf sehen von wie viele haben die hochgeladen, also die proportionell wurde, wurde ähnlich viel ausgespielt.

00:03:22: Und da sieht man genau so, was du gerade gesagt hast, ne?

00:03:24: Dass die AfD hat zum Beispiel in dem Fall einundzwanzigkommar fünf Prozent aller Videos von allen untersuchten Parteien hochgeladen.

00:03:32: Aber der Anteil in den Veeds beträgt siebenunddreißigkommar vier Prozent.

00:03:36: Ich glaube, die AfD hat da den größten Zuwachs.

00:03:40: Die SPD hingegen läuft es genau andersrum.

00:03:41: Die hat vierundzwanzigkommar eins Prozent der Videos produziert.

00:03:44: Aber ausgespielt oder Anteil an den ausgespielten Videos in diesen Veeds, der dieser jungen Menschen.

00:03:49: nur noch vierzehn Komma Eins Prozent.

00:03:52: Ja, was da schon ein bisschen hart ist auch.

00:03:54: Also du machst ja irgendwie Mühe, produzierst Content, aber er wird da nicht ausgespielt und angeguckt sozusagen.

00:04:01: Also das heißt, du bekommst im Prinzip nicht die Sichtbarkeit, die du dir wünschst.

00:04:05: Du brüllst im Prinzip ins Leere rein.

00:04:08: Die Frage ist natürlich, woran das liegt.

00:04:09: Also klar, das eine ist, dass man das ganz gerne den Social Media Plattformen vorwirft oder in dem Fall TikTok vorwirft und sagt, ihr wollt ja nur polarisieren.

00:04:19: Der andere Punkt ist, wenn man jetzt guckt, wer ist denn groß geworden?

00:04:22: Die AfD ist gewachsen, auch die Linke.

00:04:24: Neun Prozent der hochgeladenen Videos kommen von der Linken, aber aus im Feed aufgetreten sind.

00:04:29: siebenundzwanzig, sechs Prozent sind auch ziemlich gewachsen.

00:04:32: Ja, vor allem die sind eigentlich am meisten gewachsen.

00:04:35: Die haben am Prinzip am wenigsten eingegeben in das Tektok-Universum als Beispiel und haben aber am meisten sozusagen rausbekommen.

00:04:47: Ich erinnere mich, dass es eine Diskussion gab, also wie plakativ man solche Videos macht oder wie sehr man sich eben einlässt auf die Dynamiken auf Social Media, weil wir wissen ja, dazu habe ich tatsächlich über die Jahre immer wieder recherchiert, was teilt sich besonders gut auf Social Media, sind eben so provokative polarisierende Inhalte.

00:05:07: Das heißt, je mehr man versucht, andere zu produzieren, platt gesagt, umso erfolgreicher ist man auf Social Media, weil natürlich ... Menschen sich darüber empören und Empörung ist ja so die Energie, die am meisten Sichtbarkeit schafft auf Social Media, weil dann Menschen das kommentieren, selbst wenn sie nicht einverstanden sind, aber sie kommentieren es dann eben aus ihrer Perspektive.

00:05:28: Aber diese ganzen Interaktionen sind ja Merkmale für den Algorithmus, der im Hintergrund, da habe ich ganz aktuell gerade übrigens einen Vortrag darüber gehalten, deswegen habe ich das so präsent im Kopf, der Algorithmus, der im Hintergrund letztlich die Ansage hat, ein Anführungszeichen, Sorge für mehr Engagement, also alles, was dafür sorgt, dass Menschen länger und mehr auf Social Media bleiben, ist gut ein Einführungszeichen für die Unternehmen dahinter.

00:05:49: Und so gesehen sind die Algorithmen darauf optimiert, dass die einfach jene Posts verstärken, die das Potenzial haben, am Ende zu Empören und zu polarisieren.

00:06:00: Das ist ja so der ganze Mechanismus.

00:06:02: Es gab dazu sogar mal ein Slide von Mark Zuckerberg, das hört schon ein bisschen her, wo gezeigt wurde, dass im Prinzip Die Post, die so am nächsten an die Ränder gehen von dem, was erlaubt ist.

00:06:15: Also jeder Plattform hat ja so ein Nutzungsbedingungen, wo gesagt wird, okay, wir wollen keinen Hass, wir wollen Gleichberechtigung und so weiter.

00:06:25: Also die haben ja diese Nutzungsbedingungen, wo sie auch klar sagen eigentlich, was nicht erlaubt ist, was sie dann löschen.

00:06:31: Und da gibt es tatsächlich so eine Grafik.

00:06:33: Mal schauen, ob ich die finde.

00:06:34: Dann pack ich die auch noch in die Show.

00:06:37: wo es meine Präsentation gab, an der Interne, wo es hieß, je näher die Beiträge im Prinzip an diese Ränder drangehen, also immer sozusagen kurz bevor sie verboten werden, sind sie am erfolgreichsten.

00:06:48: Was diesen Mechanismus zeigt, dass eben genau solche Eckfälle, die also gerade nicht verboten werden, dass das eigentlich die sind, die so die meiste Chance haben auf viel Reichweite.

00:07:02: Ich hätte auch vor einigen Jahren über eine Studie vom MIT berichtet, die sich gefragt haben, warum sich Unwahrheiten so gut verbreiten auf Social Media.

00:07:12: Und letztlich haben die eben ganz oft auch dieses Merkmal, dass sie polarisieren, weil sie halt ein Stück zu weit gedreht sind, also Dinge, die einfach schon falsch sind.

00:07:21: Und die haben aber noch ein paar User gefragt, die diese Unwahrheiten, also auch Falschmeldungen, geteilt haben und haben gefragt, wieso hast du eigentlich das geteilt?

00:07:30: Und dann eine Antwort, die da oft vorkam war, ja, ist doch mir egal, ob das wahr ist oder nicht, aber es bringt mir halt Klicks.

00:07:37: Und da sieht man ihm auch, wie eigentlich unerwünschtes Verhalten zumindest im Sinne der Gesellschaft belohnt wird von diesen Algorithmen.

00:07:44: Weil viele Menschen eben Aufmerksamkeit und Klicks auf Social Media das ist, was sie erreichen wollen.

00:07:49: Und wenn das mit Falschmeldungen geht, ist es offensichtlich bei vielen so, dass sie sagen, ja gut, dann ist es halt so.

00:07:55: Hauptsache, ich habe die Aufmerksamkeit.

00:07:57: Ja, und was finde ich noch dazu kommt?

00:07:59: Ich habe jetzt gerade, weil wir hatten jetzt in Hamburg die Woche der Pressefreiheit.

00:08:03: Da war ich bei einer Gruppe unterwegs, die machen so Analyse von Social Media, vor allem von Ex unter anderem, wo sie eben auswerten, also maschinell auswerten, okay, inwiefern stecken da mutmaßlich auch gesteuerte Kampagnen dahinter.

00:08:22: Und die haben mir das auch nochmal an verschiedenen Kampagnen, Postings gezeigt aus dem Bundestagswahlkampf, wo man also sehen kann, das ist auch diese Einflussnahme von außen, dass es das halt wirklich gibt.

00:08:35: Ich war dazu, hast du ja auch viel recherchiert, erinnere ich mich.

00:08:38: dass man das auch nicht inzwischen gar nicht mehr vernachlässigen darf und kann ja sagen, naja, das ist so wenig, das macht im Gesamt, sagen wir mal, am Gesamtmaß dann doch nichts aus, weil das halt inzwischen probates Mittel ist.

00:08:50: Unter anderem von Russland, da weiß man es auch, weil die Unterlagen dazu.

00:08:54: genau auch bestimmte Parteien sozusagen hochzuklicken oder hochzuwoten.

00:09:00: Die haben das beobachtet interessanterweise für rechts, aber auch für linkspopulistische oder linksextreme Accounts.

00:09:09: Das heißt also, man kann nicht sagen, okay, Russland hat irgendwie ein Interesse, die AfD zu pushen oder so, sondern die haben durchaus auch ein Interesse, beide.

00:09:19: extreme zu pushen, um halt möglichst so ein Art gespaltenes Bild zu erzeugen.

00:09:24: Und da kommen wir vielleicht auch gleich auf das, welche möglichen Folgen das hat.

00:09:28: Weil ja schon die Frage ist, besteht da die Gefahr, dass Wahlkämpfe zumindest digital verzerrt werden.

00:09:34: Also wenn mittige Parteien strukturell seltener sichtbar sind.

00:09:38: Genau.

00:09:38: Und was man schon sieht, wie du auch schon gesagt hast, dass unter anderem Russland da viel investiert.

00:09:45: Es gab ja auch diese Doppelgänger-Kampagne vor der Wahl, wo man tatsächlich, da gab es ein größeres League, wo man quasi Unterlagen vom Russischen Geheimdienst an auch zu sehen bekommen hat und eben mit intensive der Anleitung, wie man eben Social Media missbraucht oder wie man Social Media so nutzt, dass man möglichst eine hohe Reichweite bekommt.

00:10:00: Und da standen eben so Sätze drin, wie moral und ethics sind, egal, Hauptsache Destabilisierung ist von mir parafrasiert.

00:10:07: Aber das stand da erstaunlich deutlich drin, dass es eben darum geht zu destabilisieren.

00:10:10: Und das natürlich geht am besten, wenn man extrem Deme Kräfte stärkt und die Mitte versucht zu schwächen.

00:10:16: Es wird oft gesagt, nur weil Russland es probiert, ist es ja nicht immer erfolgreich.

00:10:20: Und es stimmt, ganz viele von diesen Versuchen, von diesen Posts, vom Russischen Geheimdienst sind auch einfach ein bisschen ins Leere gelaufen, haben nicht viel Reichweite bekommen, aber immer mal wieder schafft es eben einer.

00:10:31: Und dann kann man schön sehen, wie der dann eben irgendwann auch von Influencerinnen oder Menschen eben zumindest mit einer großen Reichweite geteilt wird.

00:10:38: Und dann geht es halt ganz schnell, weil die eben darauf angelegt sind.

00:10:42: zu empören auch, dann geht es ganz schnell, dass die sich ganz, ganz groß verbreiten.

00:10:46: Und ja, ich denke schon, dass es eine Gefahr ist.

00:10:51: Ich bin ja immer so ein bisschen, also was jetzt so die Auswirkungen angeht, bin ich immer hin und her und nicht ganz entschieden, weil ich hatte mich auch gerade im Zug der Wahl ja viel mit dem Thema Medienwirkung nochmal beschäftigt, weil das eine ist ja, wenn auf Social Media was verzerrt wird, das andere ist oder die Frage ist natürlich, wie viel kommt.

00:11:09: davon dann auch in der Realität an.

00:11:11: Also kann es wirklich so was wie eine Wahlentscheidung von Menschen beeinflussen.

00:11:17: Reicht es aus, wenn wir so nach dem Motto, wenn ich auf TikTok ein Video sehe, das sagt ja nichts darüber aus, wie ich mich an einer Wahl entscheide.

00:11:24: Aber... Das ist super schwierig.

00:11:26: A. Es ist total schwierig, das richtig zu untersuchen und zu messen.

00:11:29: Weil wie willst du das wirklich messen?

00:11:31: Weil am Ende ist ja Forschung auch angewiesen auf sowas wie zum Beispiel Fragebogen, Interviews oder so.

00:11:37: Und da müssen Leute natürlich auch ehrlich antworten, sich genau kennen.

00:11:42: Also es ist total schwer sowas wie Medienwirkung auch gut zu und valide zu untersuchen.

00:11:48: Und dann geht man tatsächlich davon aus, dass sowas wie Wahlentscheidungen eben noch von so vielen anderen Faktoren abhängig ist.

00:11:55: Also hast du einen Job oder nicht?

00:11:58: Wie geht es deinem Umfeld?

00:11:59: Wie geht es deiner Familie?

00:12:01: Welche Erfahrungen hast du in der Vergangenheit mit Parteien gemacht?

00:12:04: Wie hast du die eingeordnet?

00:12:05: Teilweise sogar wo bist du zur Schule gegangen?

00:12:08: Also das gesagt wird okay, so nur Social Media kann eben eine Wahlentscheidung nicht beeinflussen.

00:12:14: Aber das sagt die Forschung auch, wenn das knapp wird oder wenn Wahlentscheidungen auf der Kippe stehen, dann kann es eben schon dich in eine Richtung pushen.

00:12:25: Und insofern lohnt es sich halt auch, da zu investieren.

00:12:30: Ein Ergebnis noch der Bertelsmann, die sehe ich gerade, die haben auch neue Accounts angelegt.

00:12:34: und da haben sie gesagt, Wenn Sie ein neues Nutzerprofil erstellt haben auf TikTok wurde innerhalb von durchschnittlich elf bis zwölf Minuten Videos mit einem AfD Hashtag angezeigt und erst nach siebzig Minuten eins zum Beispiel der SPD.

00:12:48: Das ist natürlich auch noch mal ein Effekt, wo man noch mal gucken muss, was die Plattform dann vielleicht doch dazu beitragen.

00:12:53: Und das hat man ja immer, immer wieder, also über die Jahre gehört, bei verschiedenen Untersuchungen, dass neue Accounts auf verschiedenen Social Media-Plattformen total schnell mit extremistischen Inhalten konfrontiert werden.

00:13:06: Also da könnte man vielleicht schon nochmal schauen oder auch nochmal gucken, wer hat eigentlich hier die Verantwortung?

00:13:11: Neue Nutzerinnen, die vielleicht in dem Fall, weiß ich es nicht, aber bei anderen Schulen war es so, die haben dann auch gar nicht aktiv gesucht, zum Beispiel nach politischen Inhalten.

00:13:18: Inhalten, sondern die haben das einfach oder Verschwörungstheorien gibt es ganz viel, sondern haben das einfach sofort präsentiert bekommen.

00:13:24: und das natürlich schon bedenklich.

00:13:26: Und man denkt, dass ja viele wirklich auch sehr junge Menschen, Jugendliche, neu auf Social Media sind und dann sich auch in dem Alter sich eben auch eine eigene Meinung bildet.

00:13:36: Absolut.

00:13:37: Also ich glaube, da kommen wir auch schon so hin zu den Handlungsempfehlungen, weil ich meine, am Ende ist es ja immer schön, wenn man irgendwie schlauer geworden ist durch so eine Studie, aber die Frage ist ja schon tatsächlich, Was kann man irgendwie tun?

00:13:50: Und da ist natürlich Transparenz ein ganz wichtiges Stichwort, weil das Problem, sehe ich eigentlich, was so ein bisschen auch dahinter noch liegt, ist, also keiner hat TikTok gewählt, keiner hat YouTube gewählt.

00:14:02: Also das heißt, das sind ja Instanzen.

00:14:04: Die sind für uns komplett intransparent, auch unkontrollierbar, sitzen auch so ein Unternehmen, die sitzen im Ausland.

00:14:12: Ich sag mal, das ist jetzt keine Zeitung oder keine Rundfunkmedienanstalt, wo es eine Art von Kontrolle gibt, wo es vielleicht einen Rundfunkrat gibt, wo es Verbände gibt.

00:14:22: Und da ist natürlich die... Forderung zu mehr Transparenz über den Empfehlungsmechanismen.

00:14:27: Und das steht natürlich komplett im Widerspruch zu dem, was die Plattformen wollen, die ja gerade diese Empfehlungsmechanismen hüten wie ihre Augeipfel und sagen, okay, das ist das ultimative Geheimrezeptur.

00:14:40: Ja.

00:14:41: Ja, und das ist natürlich ein Problem.

00:14:43: Man sieht es ja ein bisschen auf Twitter oder X, wie sich das verändert hat.

00:14:47: Also ja, was für eine Macht da auch dahinter steckt, wenn auf einmal jemand beschließt, hier werden jetzt rechte Inhalte gestärkt und Verschwörungstheorien, und das funktioniert.

00:14:56: eins a. Ich würde schon behaupten, ich beobachte, wie schnell solche Inhalte groß werden auf X und wie viele Menschen dann auch gar nicht mehr ... Ja, wie sagt man, genau dahinter schauen.

00:15:09: Also das nicht mehr Fakten prüfen, nicht mehr nachdenken, sondern so dieses Boah Empörung total krass und das einfach verbreiten.

00:15:16: Bist

00:15:16: du eigentlich noch auf Axe aktiv?

00:15:18: Ich bin da wirklich nicht mehr.

00:15:19: Also

00:15:20: aktiv ist vielleicht zu viel gesagt, aber ich bin schon da und schaust mir ab und zu an, weil ich wirklich wichtig finde, dass man sowas auch im Auge behält.

00:15:26: Und dass man sieht, Also sonst, glaube ich, ist eben die Gefahr, dass wir so was so ein bisschen ausblenden.

00:15:31: Ja, und es ist nicht meine Welt.

00:15:33: Ich gehe zurück in meine Filterblase.

00:15:35: Ich finde es schon wichtig, diese Mechanismen im Auge zu behalten.

00:15:38: Ja, also von daher... Sind

00:15:39: ja noch Menschen.

00:15:41: Da sind

00:15:44: schon auch Menschen leider tatsächlich vor allem Rechte, die da wahnsinnig breite große Aufmerksamkeit bekommen.

00:15:51: Klar, und natürlich ganz, ganz viel ist jetzt auch KI generiert.

00:15:54: Man bei ganz vielen Posts weiß man es gar nicht, viele sind halt so beliebige, seltsame Videos von Menschen oder Tieren, die Dinge machen, die schaue ich nicht mehr an, weil das ja inzwischen klar ist, dass das meiste da von KI generiert ist.

00:16:05: Und dann finde ich, weil das völlig, völlig sein Reiz.

00:16:09: früher habe ich das als Fitter noch normal, weil in den Anfangszeichen habe ich solche Videos manchmal angeschaut, so ein bisschen prokrastinierend.

00:16:14: Verrückte Dinge, die Menschen machen, aber inzwischen ist ja klar, das sind inzwischen keine Menschen mehr in den Videos, sondern ein bisschen KI generiert.

00:16:21: Ja, und ich denke also neben dem ganzen Thema Transparenz, ich weiß, dass die EU sich dem auch angenommen hat und da auch hinterher ist unter anderem mit dem Digital Services Act, der ja an sich sowas fordert oder vorsieht, also ein Zugang zum Beispiel für Forschende, also für ausgewählte Institutionen, dass man so Algorithmen eben von außen überprüfen kann, weil muss ich jetzt auch mal überlegen, wie haben die Universität Potsdam, wie haben die das gemacht?

00:16:48: Die haben sich... Manuell Accounts angelegt und wahrscheinlich haben die dann, weiß ich nicht, ob die Zwei-Nach-Sechsen-Fünfzig-Händis hatten.

00:16:55: Ich meine, so viele waren es ungefähr, also so viele Accounts waren es.

00:16:59: Wahrscheinlich nicht, denke ich.

00:17:00: Die hat wahrscheinlich mit einem Telefon mehrere Accounts.

00:17:04: Und dann hast du da im Hintergrund wahrscheinlich ein Scraper laufen.

00:17:08: Also heißt du, ziehst dir alle Inhalte runter, speicherst die in der Excel-Tabbella und dann musst du die auswerten.

00:17:14: Also das ist dann doch eine sehr manuelle Geschichte.

00:17:17: Und wenn du mehrere Accounts betreibst mit einer SIM-Karte, dann fliegst du da auch dann irgendwann raus.

00:17:23: Also das kann man schon machen, aber halt der Regel... Nicht

00:17:26: zu lange her oder?

00:17:27: Nicht zu lange, nicht zu viele.

00:17:29: Also ich habe das schon ein paar Mal gemacht, solche Experimente und das ist einfach total mühsam und anstrengend, weil die Plattform eben keinen AP-Zugang bieten, auch nicht für Forschende, wo du sagen kannst, gut, ich stecke meinen Stecker hinten rein und kann dann unterschiedliche Themen Die

00:17:49: erschweren das ja zusätzlich.

00:17:50: Also nicht nur, dass sie keine Infos rausgeben über ihren Ranking-Algorithmus, sondern sie erschweren auch die Auswertung von großen Datenmengen.

00:17:58: So dass das halt dritte Parteien sowas kontrollieren können.

00:18:01: Und ich meine, Hintergrund dieser ganzen Geschichte ist ja damals Cambridge Analytica gewesen.

00:18:06: Also man konnte ja mal leichter Daten auswerten.

00:18:09: Das ist schon lange, lange her.

00:18:11: Und dann hat man aber gesagt, nee, da wird dann doch zu viel Schindluder mitgetrieben, was ich auch verstehen kann.

00:18:16: Aber es hat dann jetzt viele Institutionen, glaubhafte Forschungsinstitutionen schon lange damit, dass sie diesen Forschungszugang brauchen, um halt genau solche Studien durchzuführen.

00:18:28: Ja.

00:18:29: Und dann gibt es natürlich noch sowas wie digitale Bildungsstärken.

00:18:32: Also wirklich dieses Verstehen, wie funktionieren Algorithmen, mehr Kontrolle über das Feed.

00:18:38: dass du bestimmte Dinge ausknipsen kannst.

00:18:41: Das ist schon auch so ein bisschen meine Hoffnung, dass wir da, also ich meine, das ist einfach unsere einzige Chance, ehrlich gesagt, da anzusetzen.

00:18:50: Lässt dich Aufklärung, Sensibilisierung, den Menschen klarmachen, gerade den Jugendlichen, wie relativ diese Wahrheiten Anführungszeichen ist, die Social Media eben abbildet oder wie verzerrt die eigentlich ist.

00:19:02: da hoffe ich eigentlich auch so ein bisschen, dass KI uns letztlich hilft, den Anfangszeichen, weil natürlich das jetzt auch anderen, also vermutlich allen klar wird, dass viel davon einfach gar nicht mehr echt ist.

00:19:12: Und ja, ich hoffe schon, dass das auch dazu führt, dass es einfach an Attraktivität verliert.

00:19:18: Gibt ja auch erste Zahlen, die zeigen, dass Social Media eigentlich am Verlieren ist an NutzerInnen.

00:19:24: Und das ist vielleicht gar nicht so schlecht.

00:19:35: Wir haben euch noch ein anderes großes Thema mitgebracht, was diese Woche Schlagzeilen gemacht hat, immer noch Schlagzeilen macht, wahrscheinlich.

00:19:44: Das ist Google, die eine Milliardeninvestition in deutsche Rechenzentren planen, also in Neubauten von Infrastruktur, Erweiterung an Standorten wie München, Frankfurt.

00:19:57: Und Berlin.

00:19:58: Ja, das ist auf jeden Fall ein großes Thema.

00:20:01: Und Eva, du hast dir angeschaut, Telekom und Nvidia investieren eine Milliarde in einen KI-Rechenzentrum in München.

00:20:08: Genau, da war ich.

00:20:09: Ich habe mir die Pressekonferenz angeschaut, vergangene Woche.

00:20:13: Und das war ehrlich gesagt, das war wirklich eine schlimme, eine schlimme Show.

00:20:17: Oh,

00:20:18: nein.

00:20:20: Also so.

00:20:21: Die

00:20:21: Gaftsänzerin hat auf

00:20:22: jeden Fall nicht so schlimm gewesen.

00:20:24: Nee, genau.

00:20:24: Es waren eigentlich nur Großteilens Männer auf der Bühne, CEOs von Unternehmen, unter anderem von der Telekom, von SAP und NVIDIA und vielen anderen.

00:20:33: Und deswegen ist viel damit anders die Selfies gemacht haben.

00:20:36: Bevor die Pressekonferenz losging, mussten die alle erst mal Selfies machen.

00:20:40: Carsten Wildberger mitten drinnen, Dorothee Bär war da, also auch zwei Minister, innen.

00:20:45: Ja, und dann, es wurde wie so eine Show.

00:20:49: wie so ein US-Talk angefangen mit Musik und Licht und ja, großem Tumtum.

00:20:57: Und dann haben eben die Telekom zusammen mit NVIDIA in so einem Pseudo-Dialog auf der Bühne quasi ausgearbeitet, dass sie also jetzt dieses große Rechenzentrum bauen, eine Milliarde Investition, Zehntausend NVIDIA-Chips kommen da rein, eben diese modernen Blackboard-Chips, mit denen man KI trainieren kann.

00:21:14: Und ja, klar, das Ganze wird groß verkauft, als.

00:21:17: wir machen jetzt digitale Souveränität.

00:21:19: Unternehmen können jetzt in Deutschland ihre KI-Projekte rechnen und speichern und so weiter und sie schwören.

00:21:25: Da ist kein einziges chinesisches Bauteil dabei, was ein bisschen lustig ist, weil ja die Telekom mehrere Rechenzentren anbietet.

00:21:32: Auch mit diesem wir sind souverän Ding, aber halt Huawei Bauteile verbaut hat.

00:21:37: Da gab es in den vergangenen Jahren immer wieder Kritik und eben auch die Frage, wie souverän kann man sein mit Huawei Bauteilen.

00:21:42: Kann man ausschließen, dass China da irgendwie spioniert oder Sachen abzieht.

00:21:46: Ja und jetzt natürlich was klar.

00:21:48: geworden ist jetzt auch in dieser Ankündigung, dass man eben immer von jemandem abhängig ist, in dem Fall eben von Nvidia, was ja ein US-Unternehmen ist, mit doch auch sehr guten Kontakten zu Donald Trump.

00:21:59: Und klar, da geht es darum, dass die Chips von Nvidia eingebaut werden.

00:22:03: Und da kommt man irgendwie auch nicht drumherum, weil in der KI-Welt es es gibt, das hatten wir ja bei der Folge zu TSMC, als ich in Taiwan berichtet, haben ja auch in der Chip-Welt gibt es eine ganz, ganz krasse Monopolisierung, also so wie TSMC irgendwie, fertig.

00:22:22: So hat eben Nvidia, da weiß ich den Anteil nicht, aber eben auch das sehr, sehr großen Anteil des Designs von diesen Chips und verkauft die dann ja am Ende auch.

00:22:30: Die lassen auch fertigen bei TSMC.

00:22:32: Aber Nvidia verkauft die dann eben zum Beispiel in Form von diesen Backwell Chips, die jetzt in München eingebaut werden.

00:22:38: Und da fragt man sich schon, klar geht es nicht anders.

00:22:41: Es gibt einfach keinen deutschen Anbieter, der hochmoderne KI Rechenchips baut.

00:22:46: Aber Wie souverän das dann am Ende ist, wenn man eben doch dann wieder abhängig ist von so einem Unternehmen, ist schon die Frage, finde ich.

00:22:54: Und das wurde dort natürlich nicht thematisiert.

00:22:57: Dort wurde immer nur gesagt, wie toll souverän wir sind.

00:23:00: Und das hat irgendwie, ich hatte das Gefühl, als ich dort war, dass das auch alle, alle die, oder ich habe den Livestream gesehen, aber alle, die dort vor Ort waren, so, sich haben so davon anstecken lassen.

00:23:08: Dann hat Carsten Wildberger hat auch eine Rede gehalten und hat einen Satz gesagt, den habe ich wirklich mitgeschrieben.

00:23:14: Er hat nämlich gesagt, Es werden also wie so ein neues Zeitalter jetzt, KI ist die nächste Stufe der Digitalisierung.

00:23:20: Dann hat er Zitat gesagt, zum ersten Mal übertreffen Maschinen den Menschen in dem, was uns bisher einzigartig machte, unsere Intelligenz.

00:23:27: Und ich dachte noch, der hat sich ja wohl ein bisschen zu sehr mitreißen lassen.

00:23:31: Also ja total absurd.

00:23:33: Also soweit sind wir wirklich nicht.

00:23:34: Und es ist ja auch sehr am Stritten, ob sie soweit kommt, dass Maschinen die menschliche Intelligenz übertreffen.

00:23:39: Das ist diese Diskussion, die Superintelligenz.

00:23:41: Und dann dachte ich, wahrscheinlich hat er sich halt vertalhaft noch überlegt.

00:23:44: in unseren Newsletter geschrieben von Zeit Online, aber habe mich, dachte eigentlich die ganze Zeit, naja gut, ich habe ihn halt erwischt bei einem Versprecher und jetzt gab es eine Pressemitteilung, die sie ja selbst zu öffentlich haben, wo dieser Satz immer noch drin steht.

00:23:56: und ich frage mich schon, wie, also wie kommt man darauf, als Digitalminister sowas zu behaupten?

00:24:02: Also wie, ja, da hat diese ganze Diskussion über Superintelligenz, die seit Jahren geführt wird und gerade ja besonders engagiert geführt wird, ist die an ihm vorbeigegangen.

00:24:17: Das finde ich schon... Vielleicht

00:24:19: ist ja auch eine KI oder so was.

00:24:22: An Tänne gesehen.

00:24:25: Keine Ahnung, ja.

00:24:26: Die KI hat übernommen.

00:24:28: Die KI hat übernommen.

00:24:29: Okay, also das war kein Versprecher.

00:24:32: Also

00:24:32: jedenfalls haben sie es so selbst veröffentlicht.

00:24:34: Sie hätten ja im Nachhinein schlecht merken können, das ist doch nicht ganz stimmt und das zumindest nicht auch noch... Selbst zu raushauen, aber nee.

00:24:42: Was man ja finde ich schon sagen muss und deswegen fand ich es jetzt auch für unseren Podcast heute so ein bisschen berichtenswert, weil ich schon das Gefühl habe, es gibt ja eine Trendwende, es ist vielleicht zu viel gesagt, aber es gibt auf jeden Fall... Man hat das Gefühl, der kommt irgendwie was in Gang und in Bewegung.

00:25:02: Wir hatten ja Schwarz-Digits, die sehr, die zusammen auch noch mit Unternehmen sehr viel Geld in die Hand genommen haben, schon vor einer Weile.

00:25:09: Jetzt Google mit Milliarden Investitionen.

00:25:15: Ich denke schon, ich habe mit einigen Unternehmen gesprochen, KI-Stardubs, aber auch mit Mittelständern, auch mit großen Unternehmen, die eben hier in Hamburg sitzen und die das sehr begrüßen diese Investitionen, weil digitale Souveränität hin oder her.

00:25:29: Ich meine, klar ist es richtig, zu sagen, so richtig hundert Prozent Souverän sind wir ja nicht.

00:25:36: Aber man muss natürlich schon sagen, dass die Unternehmen hängen an diesen Rechenzentren, die hängen daran mit ihren Projekten, auch mit ihren Investitionen.

00:25:46: Und da muss man natürlich sagen, es geht nicht ohne die großen US-Cyber Scalar.

00:25:52: Das wäre vermessen zu sagen, ja, wir können ja mal ganz eben schnell auf europäische oder deutsche Rechenzentrum umswitchen, weil viele Unternehmen arbeiten.

00:26:03: Also du hast halt eben alles von Microsoft oder du nutzt halt eben alles von Google und bist dann da in der Welt und das funktioniert halt super seamless und das funktioniert einfach ja und hat für die Unternehmen viele, viele Vorteile.

00:26:17: Was sich schon so hinter vorgehaltener Hand höre ist.

00:26:21: Wir finden es ja selber nicht toll, so abhängig zu sein, auch weil die dann gerne mal ankommen und sagen, so Preise werden jetzt erhöht.

00:26:28: Also, weil man auch das Gefühl hat, man ist so gefangen in der Infrastruktur.

00:26:32: Aber gleichzeitig sagt man halt, es gibt halt für uns keine wirklich gute Alternative, wo so reibungslos im Prinzip alles funktioniert, wo ich mir so beliebig alles zusammenstecken kann, wenn man Beispiel nochmal machen mit diesen Rechenzentren.

00:26:47: Wenn ich von Google eine Infrastruktur nutze, dann kann ich die in Deutschland nutzen, ich kann den USA benutzen, ich kann die in Taiwan benutzen.

00:26:54: Also wenn ich mir selber so was aufbauer, dann muss ich mich hier was anbieten, mieten dort was anbieten, dort was anbieten.

00:27:01: Wenn ich dann das eine nicht mehr brauche, muss ich das irgendwie mühsam kündigen oder muss ich das stilllegen.

00:27:05: Wenn ich von so einem Hyperscaler was benutze.

00:27:08: dann habe ich diese ganze Disklik, ich mir im Prinzip alles zusammen.

00:27:12: Und von daher denke ich, ja, sind diese Investitionen, die da jetzt getätigt werden, an sich eine gute Sache, wobei natürlich auch der wirtschaftliche Erfolg erst mal ungewiss ist, weil ja schon die Frage ist, also jetzt so Stichwort Arbeitsplätze oder so, da haben jetzt so Rechenzentren, ich meine, da arbeiten jetzt nicht so viele Leute.

00:27:35: per se erst mal nicht so einen direkten Impact.

00:27:37: und die Frage ist halt, kann das wirklich wirken auf Start-ups und auf Unternehmen, also wenn es jetzt größere Rechenzentren gibt hier in Deutschland?

00:27:49: Genau und das muss man natürlich auch sehen.

00:27:51: Die Telekom hat damit eine Entscheidung getroffen auch der Prioritäten.

00:27:55: Ich habe von Leuten im Hintergrund gehört, die beide Telekom arbeiten.

00:27:58: Das dafür natürlich aus anderen Projekten Gelder.

00:28:01: gekürzt wurden.

00:28:02: Also das jetzt eine Milliarde, ich habe mal geschaut, ist von dem, was die Telekom in Deutschland investiert hat, ist ungefähr ein Fünftel.

00:28:09: Also das ist schon für die Telekom, ist das nicht wenig Geld und man kann sich vorstellen, dass natürlich anderswo in anderen Projekten gespart und gestrichen wird.

00:28:19: Und klar, du hast natürlich recht, es geht in dem Fall jetzt auch darum, dass die deutsche Industrie ihre Daten, also einfach auch relativ sicher vor Spionage hat.

00:28:29: Das ist Intellectual Property.

00:28:30: Das ist im Prinzip darauf beruht, ja, unser Wohlstand, ja, der Wohlstand der Unternehmen.

00:28:34: Und natürlich ist es von daher wichtig, dass man auch anfängt, damit unabhängig zu werden von, ja, keine Ahnung, Amazon, Google Cloud und diesen ganzen Hyperscalern.

00:28:45: Gleichzeitig gibt es natürlich schon auch viele Warnungen gerade vor einer KI-Blase und dass man vielleicht vorsichtig sein sollte, mit Investitionen.

00:28:53: Wobei, wie doch um anderes als, muss man sagen, im Vergleich zu dem, was in den USA passiert, ist das halt ein mini, mini kleines Ding.

00:28:59: Also, das ist mir auch so klar geworden.

00:29:01: Also, ich verglichen habe, was es für die Telekom heißt, eine Milliarde.

00:29:03: Und was es für Nvidia heißt.

00:29:05: Und für die Telekom ist es ein Riesending.

00:29:06: Für Nvidia ist es so ein ganz kleines Projekt von vielen.

00:29:09: Also, die investieren ja gerade wahnsinnig viel in den USA gemeinsam mit Open AI eben auch in so KI-Rechenzentren.

00:29:14: Also, von daher ja.

00:29:17: ist alles relativ, aber die Frage ist schon, welche Prioritäten sind hier die Richtigen?

00:29:23: Und die Frage ist gar nicht so einfach zu beantworten, finde ich, wenn man alle Randfaktoren mit betrachtet.

00:29:36: Wir bleiben für euch da dran.

00:29:37: Das bleibt auf jeden Fall spannend und haben für euch zum Schluss noch ein kleines Schmanker aus der Kategorie.

00:29:45: Dies und das.

00:29:48: Ich überleg, wir müssen auch mal über dies und das reden.

00:29:51: Genau, wir haben reingeschaut in das Programm das CCC Congress im Dezember.

00:29:58: sogenannte Hafenab irgendwann.

00:30:00: Ich hab immer denke ich mich muss mal rauskriegen, warum es nicht so heißt.

00:30:03: Jedenfalls ist das ein Tool, wo die Talks, die stattfinden sollen, veröffentlicht werden, aber noch ohne Zeitplan.

00:30:09: Und die Idee davon ist, dass alle, die zum Kongress gehen, idealerweise sich das einmal kurz anschauen, die Talks anklicken, die sie anschauen wollen.

00:30:16: Und dann wird im Hintergrund das so optimiert, das finde ich schon ehrlich, das finde ich immer cool an so Chaos-Veranstaltungen, Hacker-Innenkongressen, dass die einfach solche Tools optimal ausnutzen.

00:30:26: Dann wird ihr im Hintergrund ein Programm gebastelt, dass möglichst vielen Menschen ein möglichst gutes Erlebnis beschert, in dem Sinne, dass möglichst wenig Talks gleichzeitig sind, die die gleichen Menschen interessieren.

00:30:37: Genau, deswegen habe ich das gemacht und du vermutlich auch.

00:30:39: Und deswegen können wir jetzt schon sagen, welche Talks wir da besonders interessant finden.

00:30:42: Also ich habe tatsächlich, also man kann das ja beliebig, man kann da beliebig viel Zeit verbringen, damit sich reinzulesen.

00:30:48: Es sind auch viele Talks, deswegen habe ich es wirklich eher schnell gemacht.

00:30:50: Da sind bestimmt noch ein paar Highlights dabei, die jetzt einfach untergehen, vielleicht noch, weil der Titel nicht so Klick Beaty ist oder nicht so eindeutig ist, weil die Beschreibung lang und umständlich ist, aber jedenfalls so was auf den ersten Blick dabei ist.

00:31:07: Ja, genau.

00:31:08: Hast du schon so ein, zwei spannende Sachen identifiziert oder so, oder ist das bestimmt gut?

00:31:13: Ja, also was mich wirklich so gefreutert ist, dass Frieda Naghe kommt, das ist ein Pionier der Computerkunst.

00:31:20: Der muss inzwischen ungefähr neunzig Jahre alt sein.

00:31:23: Vor zehn Jahren habe ich den Interview und den Bremen besucht.

00:31:26: Also das Professor für, ja was eigentlich, wahrscheinlich Computerkunst, ist einer der ersten, der überhaupt mit Computern gearbeitet hat.

00:31:34: Er hat zumindest prägen Jahre in Stuttgart verbracht.

00:31:37: So kam ich, glaube ich, damals überhaupt auf ihn und hat eben Computerkunst ersonnen.

00:31:42: Er hat mir mal gesagt, er hat eigentlich eine Maschine, die eigentlich rechnen wollte, dazu gezwungen zu zeichnen.

00:31:49: Und so ist eben unter anderem Teil der Computerkunst.

00:31:52: Welcher

00:31:52: Kategorie spricht er?

00:31:54: Art and Beauty.

00:31:55: Genau, der Titel ist.

00:32:02: Und ja, der ist wirklich ein Nummer.

00:32:03: Also ich hatte viel Spaß mit ihm.

00:32:04: Wir sind damals, wie gesagt, er war auch da schon ungefähr achtzig durch Bremen mit dem Fahrrad.

00:32:08: Er fährt immer Fahrrad, gedüßt wie Wahnsinnig.

00:32:10: Selbst ich und ich bin ja auch schon eher eine entschlossene Radfahrerin, sagen wir mal so.

00:32:14: Man hat immer gedacht, um Gottes Willen, hoffentlich geht es gut.

00:32:16: Und hat immer die Autofahrer sich beschwert haben, hat er gesagt, ihr fahrt ihr Tötungsmaschinen und wir fahren immer in keine Tötungsmaschine und so.

00:32:23: Und hat dann wirklich mit seinen Studenten einfach super lustig den erklärt, wie sein Werdegang war und so weiter.

00:32:28: Und hat damals auch schon den Begriff künstliche Intelligenz.

00:32:31: kritisiert, was ich wirklich nachhinein besonders interessant finde, weil es damals noch gar nicht so ein Hype war.

00:32:37: Also der ist ein cooler Typ, das werde ich mir auf jeden Fall anschauen.

00:32:40: Okay,

00:32:41: das wird vielleicht, ich bin ja bei Arden Beauty, also BleabTrack spricht auch, die haben ja letztes Jahr auf dem Kongress interviewt, auch eine tolle Hardware-Software-Hackerin, die da eben auch Kunst kreiert damit.

00:32:55: Aber lass uns einmal vielleicht auch noch mal über Security sprechen, da gibt es einiges.

00:33:00: Spannende am Talks, auch was ich sehr spannend fand.

00:33:04: Ich habe einige Asiatinnen.

00:33:07: gelesen hier.

00:33:07: Das ist mir noch gar nicht so aufgefallen in den letzten Jahren.

00:33:11: Das scheint was zu sein, entweder studieren die hier oder... Ich

00:33:16: glaube, das sind teilweise wirklich auch Forscherinnen.

00:33:18: Im Hintergrund liegen ja teilweise Paper.

00:33:20: Also manche Sachen habe ich mir genau angeschaut, auch bei Science, die tatsächlich aus aller Welt kommen.

00:33:26: Ich meine, die sind ziemlich cool.

00:33:27: Also

00:33:28: irgendwie ganz international.

00:33:29: Also gibt hier ein Deep Dive into WhatsApp, zero-click, exploits.

00:33:34: Das bin ich mal spannend auf so Konkretzen.

00:33:37: Genau, solche Deep Dives auch zu bekommen, auch Zero Day Exports immer ganz spannend.

00:33:42: Den fand ich ganz gut, den Talk.

00:33:44: Ich hab bei Security, gut, das ist jetzt so ein Clickbait für mein Gefühl, meine für meine Filterblase, ein Clickbait-Titel, When Wipe Scammers Meet Wipe Hackers.

00:33:53: Also dieses Wipe-Coding hatten wir ja auch schon mal davon, Coden mit KI, was kann da schiefgehen.

00:33:59: Und der Talk verspricht so ein bisschen, zumindest wie ich ihn bisher verstanden hab, das zu zeigen, dass eben auch leider kriminelle Hackerinnen und Hacker oder auch zum Glück Wipe-Coding betreiben.

00:34:09: Und das wird ja oft so als Problems-Szenario beschrieben.

00:34:11: von wegen, jetzt haben es die Kriminellen immer leichter, jetzt hilft ihnen auch die KI, aber natürlich macht die KI auch in deren Code Fehlereien und Dinge funktionieren nicht.

00:34:20: Und das scheint so, als hätten sich diese Forscherinnen das mal genauer angeschaut, was da schiefgegangen ist.

00:34:25: Das könnte unterhaltsam werden.

00:34:27: Vielleicht mal noch so ein bisschen so ein Blockbuster-Talk, würde ich sagen, ein Ethics Society in Policy, Cory Doctorow

00:34:33: kommt.

00:34:34: Also

00:34:36: Science-Fiction-lesende, er lieben ihn.

00:34:39: Also den habe ich zumindest auf dem Kongress noch nie gesehen.

00:34:44: Das ist im Prinzip der Buchautor, der den Begriff der End-Shirtification geprägt hat.

00:34:49: Also das Dienste in dem Moment, wo du dafür bezahlst, eigentlich immer schlechter werden, sich selbst mit Featuren überfrachten und unbrauchbar werden.

00:34:57: Und genau darüber wird er auch sprechen.

00:34:59: Also der ist für mich ein echter Blockbuster.

00:35:01: Dann, ja, Arne Semsrod ist mal wieder da.

00:35:03: Hab

00:35:03: ich mir auch.

00:35:04: Hab ich auch Grünen?

00:35:05: Also Grünen heißt Angeklickt.

00:35:06: Es ist auf

00:35:07: jeden Fall jemand, wo man einen guten Talk erwarten kann.

00:35:10: Denn die beiden Signal, also Präsident und Vice-Präsident kommen, also Meredith Wittekar ist ganz bekannt, Utbaf Tiwari, das ist der Vice-Präsident, mit dem habe ich meinen Interview geführt, sehr, sehr kluer.

00:35:23: kluger Kopf.

00:35:25: Das wird bestimmt sehr spannend.

00:35:27: Die sprechen über KI-Agenten und deren Spionage-Flieger.

00:35:31: Also

00:35:31: vor allem das Thema ist auch interessant.

00:35:33: Bei Möhrer The Dirt Decker habe ich jetzt sehr oft das Gleiche vom Gleichen gehört.

00:35:35: Ich habe das Gefühl, jetzt kommt was Neues.

00:35:37: Genau.

00:35:38: Und also KI-Agenten ist ruhig.

00:35:40: Ja, Rude, man muss irgendwann auch mal bei anderen Dingen reden.

00:35:42: Ich fürchte, die kommt immer, immer wieder die Chat-Kontrolle.

00:35:44: Aber genau, KI-Agenten und Spionage, ja, also bin ich echt auch gespannt.

00:35:49: Habe ich mir auch grün.

00:35:50: markiert.

00:35:51: Oh, und natürlich Marc-Uwe Kling kommt.

00:35:53: Habe ich bei Chaos-Community-Creations die Kengo-Rebellion, Digital Independence Day.

00:35:59: Marc-Uwe Kling liest Neues vom Kengo vor.

00:36:02: Das wird auf jeden Fall unterhaltsam.

00:36:08: Im Security-Track muss man auf jeden Fall zu.

00:36:10: Bianca Kastl, alle, die unseren Podcast folgen, kennen und lieben sie.

00:36:14: Dann Bianca setzt sich kritisch mit der elektronischen Patientin.

00:36:18: aus einander und das hat sie bereits letztes Jahr in einer Art und Weise getan, die einfach nur mein Blowing war, sehr, sehr gute Forschung, gute Untersuchung, die sie da macht.

00:36:30: Jetzt sind wir im Prinzip im Jahr Null der EPA.

00:36:32: Dazu wird sie sprechen.

00:36:34: Und interessant finde ich auch Geo-Satelliten-Daten.

00:36:37: Da gibt es wohl sensible Informationen im Klartext, die da abgefangen werden können, bei Security.

00:36:45: Und dann habe ich noch eine Kollegin entdeckt, die echt auch super kreativ ist, bei Art & Beauty auch.

00:36:49: Silke Grunwald macht gemeinsam mit Christiane Mudra ein Freiheit-Excel-Utopien als Malware.

00:36:56: Ich denke, das ist so eine Lecture-Performance.

00:36:59: steht da.

00:37:00: Das wird sicher auch gut.

00:37:02: Ja, wir schauen auf das Programm auf jeden Fall auch nochmal genauer so, wenn es dann auch wirklich feststellt.

00:37:08: Eine Sache muss ich noch anmerken, mir ist so beim Durchskrollen doch wieder mal, dass sich jetzt mal gleich Männer-Frauen-Feldness aufgefallen.

00:37:15: Also nicht Frauen-Männer, sondern Männer-Frauen-Feldness.

00:37:18: Da muss ich ehrlich sagen, das war auch schon mal besser.

00:37:20: Also Security mal durchgezählt und für Ethics und Society, weil das sind so die Tracks, die ich eigentlich am meisten verfolge, begleite und in der Security.

00:37:31: Das ist einfach... Also ist einfach...

00:37:34: Ich habe mich... Das habe ich mich auch nochmal so ein bisschen gefragt, wie genau eigentlich der Auswahlprozess läuft, weil ich dachte, in der Zeit lang hat der Kongress auch damit geworben mit so einem ausgeglichenen Verhältnis oder mit Diversity auch.

00:37:45: Ich fand auch, es sind viele Männer.

00:37:46: Und tatsächlich habe ich auch verschiedene Frauen gesprochen, in deren Einreichung abgelehnt wurden.

00:37:50: Also es gab schon auch Einreichungen von Frauen.

00:37:53: Ja.

00:37:54: Gut, wissen wir nicht.

00:37:55: Aber da, genau.

00:37:56: Ich denke, es ist schon gut, da immer wieder dran zu erinnern.

00:37:59: Ich habe es mal versucht, durchzuzählen.

00:38:01: Ah,

00:38:02: ja.

00:38:02: Das ist eine Statistik.

00:38:04: Meine Statistik, genau.

00:38:05: Was nicht so einfach ist, weil es gibt natürlich auch einige NNs, also Handles oder so, wo ich dann nicht tiefer recherchiert habe.

00:38:12: Ich habe jetzt hier aber das, ich würde sagen, ein bisschen wie mit ChatGPT nehmen, das wird nicht auf den Strich genau sein.

00:38:17: Da habe ich jetzt hier vierzig Sieben, also vierzig Männer und sieben Frauen bei im Security Track.

00:38:25: Was finde ich...

00:38:27: Schlechte Quote, muss man sagen.

00:38:28: Ja,

00:38:29: ziemlich schlechte Quote.

00:38:30: Jetzt muss man sagen, Security ist... Historisch bedingt, immer sehr männlich dominiert gewesen.

00:38:36: Bei Ethics und Society ist es fast ausgeglichen, oder wahrscheinlich ist es sogar ausgeglichen, wenn man einen NN kennt, also wenn man da die Geschlechter zuordnete.

00:38:46: Das sind ja auch am Ende nur Namen, also muss man immer sagen, männlich geliesene Namen, weiblich geliesene Namen, deswegen nicht ganz so eine korrekte Statistik.

00:38:54: Aber da sieht man, da haben die sich anscheinend Mühe gegeben, das irgendwie auszugleichen, aber im Security Track.

00:39:01: Da weiß ich auch nicht, woran liegt das.

00:39:02: Also ich gehe davon aus, dass neunzig Prozent der Einreichungen im Security-Track von Männern sind oder Achtzig.

00:39:08: Das gehe ich einfach davon aus.

00:39:09: Wahrscheinlich

00:39:10: schon hat man dann Überhang.

00:39:11: Ja.

00:39:12: Ja, weil wir haben dieses Ungleich-Gewicht.

00:39:14: Das haben wir ja auch unter den Forschenden.

00:39:17: Und dann ist aber halt die Frage, okay, inwiefern hat man als Auswahlbord und da eine Verantwortung zu sagen, gut, diese Ungleichheit, die es hier gibt in der Gesellschaft, die spiegeln wir jetzt nicht wieder.

00:39:27: Ja, da setzen wir uns, da setzen wir was dagegen.

00:39:30: Aber da kenne ich zu schlecht die Prozesse, die dahinter liegen und auch die inhaltlichen Einreichungen nicht.

00:39:38: Ganz interessant und bin auch mal gespannt.

00:39:39: Wir werden ja auf jeden Fall Podcasten auch vom Kongress und

00:39:42: wir werden eine

00:39:43: live Spannende Frau haben sich eine Spannende Frau für euch.

00:39:47: Und werden die auch mal fragen, also als eben weibliche oder weiblich gelesener IT Security Forscherin, wir sind auch immer, wir dann dort treffen, wie die das empfinden.

00:39:58: Vielleicht noch einen Satz zu der Frage, wie kann man solche Konferenzen so gestalten, dass es ausgeglichener wird, also dass wir mehr Diversity zumindest aus für dieses Geschlechterverhältnis.

00:40:07: Ich weiß, ich glaube zum Beispiel, weil er Republiker ist es so.

00:40:10: Und bei anderen internationalen Konferenzen auf den USA auch.

00:40:13: Wenn man ein Talk einreicht und mehr als eine Person dabei ist, dann dürfen sie nicht zwei Männer sein.

00:40:18: Also man kann natürlich auch schon die Einreichungen... ein Stück weit steuern oder reklementieren.

00:40:24: Also da fängt es ja an, Leute klarmachen, denkt dran, guckt auch in eurem Umfeld, wenn ihr vortragen wollt, die Chancen erhöhen sich, wenn euer Team divers ist, was da einreicht.

00:40:33: Natürlich, ich glaube schon, das ist natürlich eine Jury, schwierig ist gerade im Security-Hardware-Bereich, dass man natürlich viel mehr Einrichtungen mehr hat, aber man kann das steuern.

00:40:42: und natürlich, wie du sagst, ist es auch wichtig.

00:40:47: dieses Verhältnis nicht einfach so wiederzugeben, weil dann wird es für immer so bleiben.

00:40:51: Damit zementiert man das natürlich.

00:40:52: Dann fehlen jungen Frauen, diversen Personen auch an Rollmodels, wenn die sehen, da sprechen immer nur die Männer.

00:41:00: Von daher, glaube ich, ist es schon auch der Job von uns allen, bei allem, was wir tun, so was immer im Kopf zu haben.

00:41:06: Wie können wir Vorbild sein auch?

00:41:09: Ja, deswegen auch umso mehr Daumen hoch für alle Frauen, die vortragen auf den CCC.

00:41:15: Wir freuen

00:41:17: uns auf

00:41:18: euch zu treffen, auf die Männer natürlich auch.

00:41:19: Klar, wir freuen uns auf euch.

00:41:22: zu sehen und zu hören.

00:41:25: Und damit, würde ich sagen, haben wir es für diese Woche.

00:41:27: Ja, schreibt uns doch was euch aufgefallen ist im Programm.

00:41:30: Was euch gefällt, Tipps vielleicht für Speakerinnen, Interviews, Vorträge.

00:41:36: Wir freuen uns über Feedback.

00:41:37: Wir sagen immer Mastodon.

00:41:40: Also ich sage immer Mastodon, weil da tatsächlich ist bei mir einfach am meisten Interaktion.

00:41:43: Da diskutiere ich sehr viel.

00:41:45: Wir sind aber auch in vielen anderen Plattformen unterwegs.

00:41:48: Wir haben auch bei dem E-Mail-Adressen.

00:41:51: Telefonnummern träume ich, kann ich so sagen.

00:41:54: Wir nehmen auf allen Kanälen Feedback entgegen.

00:41:57: Ich werde sogar ganz gerne angerufen im Vergleich zu E-Mails, weil E-Mails mich einfach überfordern.

00:42:01: Aber gut, ihr werdet es schaffen, uns zu erreichen.

00:42:03: Wir freuen

00:42:04: uns.

00:42:05: Ja, habt eine gute Woche.

00:42:06: Das war es von Daytalk Tech, ein City-Podcast von Svi Alcat und

00:42:12: Eva Wolfange.

00:42:13: Musik und Produktion, Marco Pauli.

00:42:15: Dankeschön.

00:42:16: Tschüss, macht's gut.

00:42:17: Ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.