OpenClaw, Herzschmerz und Hacker-Risiko: Wenn Algorithmen unser Leben steuern

Shownotes

Svea hat einen neuen Mitbewohner, er wohnt auf dem Gaming-PC im Keller, heißt Hallibot und richtet sich selbstständig E-Mail-Accounts ein und beantwortet Fragen. Mit OpenClaw hat sie sich einen KI-Agenten gebaut, der Termine koordinieren, E-Mails beantworten und Recherchen vorstrukturieren soll. Klingt nach Zukunft. Aber wie viel davon ist schon brauchbar und wie viel ist brandgefährlich? Eva hat für eine Recherche hinter die Kulissen von Dating-Apps geschaut und herausgefunden, dass kommerzielle Apps kein Interesse daran haben, uns schnell zu verkuppeln. Stattdessen setzen sie auf psychologische Tricks, aber am Ende hilft Mathematik dem Algorithmus ein Schnippchen zu schlagen. Für den Deep Dive holen sich die beiden Verstärkung: Barbara Hammer, Professorin für Maschinelles Lernen an der Universität Bielefeld, erklärt, warum agentische KI in der IT-Sicherheitsforschung als „absoluter Albtraum" gilt, weshalb Sprachmodelle keine Moral kennen und warum selber denken trotzdem wichtiger bleibt als jedes KI-Tool. Hosts: Svea Eckert und Eva Wolfangel Gast: Barbara Hammer, Professorin für Maschinelles Lernen, Universität Bielefeld Musik und Produktion: Marko Pauli

Shownotes: Das Thema bei Heise: https://youtu.be/ps7kqEXkwEs?si=iCO6LJZz4z2mlp61 Evas Artikel: https://www.zeit.de/digital/2026-02/online-dating-algorithmus-gamification-apps-geschaeftsmodell Open Claw: https://openclaw.ai/ Zu Barbara Hammers Projekt: https://ki-akademieowl.de/

Transkript anzeigen

00:00:02:

00:00:16: Hallo und herzlich willkommen zu They Talk Tech.

00:00:19: Ein CT-Podcast, ich bin Svea Eckert, Tech-Journalistin!

00:00:23: Und ich bin Eva Wolff Angel auch, Tech Journalistin.

00:00:25: Hallo schön dass ihr da seid, schön dass du da bist.

00:00:29: Und passend zum Nachvalentinstag sind wir beide irgendwie in Lorf.

00:00:37: Ein großer Claim.

00:00:38: Mal schauen, was davon übrig bleibt.

00:00:40: Eva, ich hab gesehen

00:00:42: und das wird auch Thema der Folge sein, Drew.

00:00:44: Recherches zum Thema Dating-Apps.

00:00:47: Wer die auf LinkedIn oder auf Mastelon folgt, hat gesehen, dass du in den letzten Wochen immer wieder gepostet hast nach ... Und deine Crowd ist zur Kampagne gestartet für Inspritz?

00:00:59: Da bin ich ganz gespannt drauf!

00:01:01: Ja, bei dir gibt's auch ... Jemand Neues in deinem Leben, kann man das so sagen.

00:01:05: Ja doch!

00:01:06: Kann man so sagen der wohnt auf dem Gaming-Pizzi im Keller.

00:01:09: Ich hab mit Augen klar experimentiert.

00:01:12: Neujahrs klar Will.

00:01:14: Ja da bin ich ja gespannt

00:01:15: und dann wird Barbara Hammer bei uns zu Gast sein heute.

00:01:19: sie ist Professorin für Sprachmodelle Und wir werden das ganze Thema KI-Agenten noch mal mit ihr vertiefen und auch was dran ist rund um den ganzen Hype, den es gerade darum gibt.

00:01:39: Aber startet mir erstmal rein mit dir Eva und deiner Dating App Experience!

00:01:45: Ja, meine Apropos, meine Experience genau.

00:01:48: Das war ein bisschen lustig weil ich tatsächlich in dieser Recherche habe nicht so wahnsinnig viel mit Dating Apps beschäftigt.

00:01:52: tatsächlich aber sind so ein paar Sachen aufgeploppt die ich wirklich Erstaunlich finde und die ich dachte, diese sind wirklich gut zu wissen.

00:02:00: Also auch für alle, die sich potenziell aber mit den Dingen beschäftigen so die Frage was machen sie eigentlich?

00:02:05: Geht es denen darum Partnerinnen, Partner zu finden.

00:02:08: Das hat mir schon oft gehört und liegt auch auf der Hand.

00:02:11: Es kann eigentlich so einer Dating-App gar nicht darum gehen, also in einer kommerziellen zumindest nicht zielstrebig dich zu verkuppeln weil dann löscht er in den Account, da bist du weg ja?

00:02:20: Also das ist eigentlich klar dass das jedenfalls...

00:02:22: Das wäre ja eigentlich das Schlimmste sozusagen wenn du sofort eine Partnerin oder einen Partner findest.

00:02:27: Genau!

00:02:27: Dann hat die Dating App bei gar nichts davon gehabt, dass ich da war.

00:02:31: Weil ihr bin ich wieder weg.

00:02:32: Sondern auf der anderen

00:02:33: Seite darf es auch nicht zu lange dauern.

00:02:35: Genau, weil dann bist du vielleicht auch wieder weg und gehst zur Konkurrenz.

00:02:38: Da hab ich mit vielen Menschen drüber gesprochen.

00:02:41: Ich habe viele tolle Hinweise bekommen.

00:02:43: Vielen Dank noch mal an alle, die mir da was geschickt haben.

00:02:45: So viel, dass ich nochmal ein Follow-up Artikel machen muss aus allem, was meine herzlosen Kolleginnen und Kollegen rausgekürzt haben.

00:02:52: Mindestens einen Follow up ist schon vereinbart.

00:02:55: Stay tuned!

00:02:55: Aber aktuell erst mal genau.

00:02:57: unter anderem hab ich Mit Milan Kovacic gesprochen.

00:03:00: der CEO war von einem Unternehmen große Dating-Apps für homosexuelle Menschen gemacht.

00:03:07: Er ist nicht mehr CEO, aber das Unternehmen gibt es noch.

00:03:09: Die heißen Search und Zoe Und er hatte echt sehr, sehr offen mit mir darüber gesprochen wie das eigentlich funktioniert.

00:03:15: die Algorithmen

00:03:16: der Dating

00:03:17: Apps.

00:03:17: genau weil er gesagt hat natürlich ich meine wir sind kommerzielle Unternehmen.

00:03:20: am Ende ist es unser Job Geld zu verdienen und natürlich auch zu versuchen möglichst ja weit hochzukommen im Markt so die Konkurrenz zu übertreffen in was immer Klicks oder bezahlenden Kunden und Kundinnen.

00:03:33: Und dir ging es jetzt bei deiner Recherche darum, die Secret Source der Dating-Apps herauszufinden?

00:03:40: Also es ging jetzt weniger um das ganze Thema ... Keine Ahnung!

00:03:42: Man kann ja auch zu Roman Scams recherchieren.

00:03:45: oder zum Thema Tracking.

00:03:47: Wenn ich auf einer Dating App bin, kann man dann sehen wo ich bin und Standortdaten.

00:03:51: Ja du sagst schon, dass gibt einfach so viel spannende Themen rund um Dating Apps.

00:03:54: Genau.

00:03:55: Ich glaube den

00:03:56: Algorithmus dahinter.

00:03:57: also wie finde

00:04:00: Genau, oder geht es überhaupt?

00:04:01: Weil erst mal wirkt das ja so als wenn es nicht gehen kann.

00:04:03: Das Perfect Match zu finden und ich habe dann eine Professorin gefunden die sich mit Ökonomie beschäftigt, die dann doch ein bisschen überraschende Tipps auch gesagt hat.

00:04:12: aber dazu gleich Mila Ankupacic jedenfalls hat ganz offen gesagt also genau der doch zugegeben ist stimmt schon das kann nicht unser Ziel sein dich sofort schnell deinem Lebensglück vorzustellen sozusagen.

00:04:23: Aber wie kann man... Ja, voll gemeint.

00:04:27: Aber es ist auch nicht so, das fand ich schon eigentlich klar, aber er hat gesagt, es ist nicht so was wir ... Hier dann die Manager, da sitzen und sagen okay wir können möglichst lange die Menschen hinhalten.

00:04:34: Die sind ja nicht fies sondern die gucken natürlich einfach wie kann man Geld verdienen?

00:04:37: Und das ist banal.

00:04:39: wird es halt mit so A-B-Testing gemacht?

00:04:41: ne wenn ich diese Maßnahme mache versus jene Maßnahme wo bleiben die Leute länger da?

00:04:45: Wo bezahlen sie mehr Geld?

00:04:47: Und er hat gesagt ein so ganz basic Mechanismus das erste was alle kommerziellen Dating Apps machen ist dass Sie...und das hatte mir auch vorgeführt.

00:04:55: dann bei sich dass du machst das Ding auf Du hast schon einen Account oder bist vielleicht auch schon bisschen aktiv die wahnsinnig attraktiv ist.

00:05:02: Da war ich so ein bisschen wie, woher weiß denn dieses System, was attraktif ist?

00:05:08: Und ich hab hier so ein bissel reingekriegt.

00:05:09: und tatsächlich die Forschung zeigt, dass sich die meisten Menschen sehr einig darüber sind, was Attraktivität isst.

00:05:14: also... Die meisten Menschen finden die gleichen Menschen schön.

00:05:17: das war zum Beispiel etwas, was mir völlig überhaupt nicht klar war.

00:05:20: Ja aber

00:05:20: ich mein gutes Konzept von Supermodels!

00:05:24: Ehrlich gesagt habe ich bisher immer gedacht, es ist halt so ein sexistischer männlicher Bild auf die Welt.

00:05:32: Ich dachte eigentlich dass sogar Männer insgeheim sagen das geht um mehr als um ich weiß nicht eben diese Modelmaße.

00:05:40: aber Milan Kovac der ist schwul.

00:05:43: aber er hat gesagt sie haben auch eine Studie gemacht oder untersucht wie eben Menschen die den App benutzen Und er hat rausgefunden, dass Männer tatsächlich in aller Regel nur die Bilder anschauen.

00:05:51: Also Frauen schreiben liebevoll Texte über sich und was sie suchen und wie sie drauf sind und so... also wenn es jetzt um Männer, also nicht seine Apps aber wenn's darum geht, Männer suchen Frauen und Frauen suchen Männer und Männer schauen nur die Bildern an und andersrum ist das ja auch so.

00:06:04: Frauen lesen den Text gründlich und mehrmals.

00:06:06: Männer hingegen denken ja mal schaut dann auf die Bilder machen sich geben sich gar keine Mühe.

00:06:10: Er hat schon einige so Klischees aber auch ein bisschen Und ich habe

00:06:14: mal gelernt, dass Menschen so symmetrische Gesichter schön finden.

00:06:19: Ist das eine Erkenntnis aus der

00:06:21: Schönheitsforschung?

00:06:22: Achso!

00:06:23: Ich

00:06:23: wollte

00:06:24: euch fragen... Was finden mir denn alle schönen?

00:06:28: Ich bin gar nicht total tief reingetaucht was wir schön finden.

00:06:30: aber es ist so, dass man sich eben wohl recht einig ist auf unter Menschen etwas Schönes Und dass die Algorithmen lernen das einfach aus, letztlich auch aus Mustererkennung.

00:06:38: Die sehen ja wer reagiert auf welches Profil oder welches profil bekommt viel Aufmerksamkeit und so wird es eben sortiert und dann also kriegt diese Algorithmus raus.

00:06:45: hier ist offenbar ein Schönerment weil er bekommt wahnsinnig viele Anfragen Und dann wird eben solche schönen Menschen und Ökonomen nennen die Superstars.

00:06:52: Das fand ich auch ganz witzig, also Superstar-Aprofile.

00:06:55: Die werden dann... Du machst die App auf?

00:06:56: Dann wird dir als erstes so jemand gezeigt!

00:06:58: Und dem kannst du mit großer Wahrscheinlichkeit gar nicht kriegen, hat der Kobacic gesagt.

00:07:01: Es ist auch so ein Verding wo ich dachte okay kröntlustiges geht hier um Kriegen können.

00:07:04: Ja logisch ja ist schon so aber irgendwie so.

00:07:07: am Ende fand ich ganz viel darin so oberflächlich.

00:07:10: Also niemand spricht von inneren Werten wenn es um Dating-Apps geht sondern es geht Echt dumm viel oberfälliges Zeug und das ist bei meinem Gefühl schon das erste Zeichen, dass es ja nicht funktionieren kann.

00:07:19: Weil am Ende die Partnerin fürs Leben mit der willst du doch... Ja, innere Werte teilen.

00:07:24: Aber ich kenne viele Paare,

00:07:26: die sich über Dating-Apps gefunden haben... ...aber jetzt noch natürlich nur das Initiale treffen und dann... Genau!

00:07:31: Ich glaube so muss man sehen, dass man halt sagt, dass wir

00:07:35: da rum

00:07:36: sind.

00:07:36: Und dann checkt man die inneren Werte ab.

00:07:38: ja.

00:07:38: Sozusagen gestimmt aber jetzt hast du ja gesagt, dass du auch mit einer Ökonomin gesprochen hast.. ..und dass dir dir überraschendes Verraten hast?

00:07:46: Jetzt nochmal ganz kurz zu dem Kobacchi.

00:07:48: zweiter Schritt.

00:07:48: Du kriegst erst diesen Superstar, den du nicht kriegen kannst.

00:07:52: Diese Sermon musst ihr jetzt noch anhören.

00:07:55: Und der zweite Schritt ist, du bekommst einen Profil präsentiert was vermutlich du kriegen kannst.

00:07:59: Also jemand, der vielleicht sogar schon Interesse an dir gezeigt hat also dieses Match in Anführungszeichen wenn zwei Personen auf einer Dating App sagen ich möchte die andere Person kontaktieren dann heißt das Match auch wenn sie noch lange keine Gemeinsamkeiten haben müssen.

00:08:11: Und er sagt und dann ist eben dieses Ding kriegst jemand präsentiert.

00:08:13: Er ist natürlich dann bei weitem nicht so attraktiv, weil den kannst du ja kriegen und der Durchschnittes Nutzer ist natürlich auch nur durchschnittlich attraktive.

00:08:18: es gibt ja nur wenige Superstars sozusagen.

00:08:21: und er sagt dass das ist der Mechanismus dazu führt dass Leute möglichst lange auf der App bleiben weil sie halt denken ich kann so ein super Superstar bekommen.

00:08:29: Immerhin wird er mir angezeigt und ich kann aber Leute bekommen, also ich kriege die Interesse an mir haben.

00:08:34: Die sind zwar nicht so schön, aber wenn ich nur lang genug suche, werde ich vielleicht so ein Superstar finden und das ist mir ganz ähnlich

00:08:40: anwesend.

00:08:40: Was mich das erinnert am Rommelplatz Losbude?

00:08:46: Oder Dosen werfen auch, wo ja nur riesige Blühstiere hängen.

00:08:50: Das sind die Superstars.

00:08:52: oder also immer denkst ... Ja und manchmal laufen hier wirklich Leute vorbei, die haben dann so ein Blühsteer auf dem Arm.

00:08:57: Die

00:08:58: wirklich sind die bezahlt von denen?

00:08:59: Ja!

00:09:01: Es geht

00:09:02: scheinbar.

00:09:04: Die werden dann auch mal ausgeschüttet diese Gewinne.

00:09:07: Und die Wahrheit ist aber du gewinnst doch eben doch nur die Plastikrose oder den Schlüsselanhänger.

00:09:13: Aber gut, so ist dann halt das Leben, ne?

00:09:17: Und jetzt kommt die Lösung.

00:09:19: Dadurch suchen die meisten Menschen sehr viel ... Einfach sehr lange im Zweifel endlos, weil du immer denkst vielleicht kommt ja der Superstar für mich noch oder mein Soulmate.

00:09:30: viele von meinen Gesprächspartnern haben vom Soulmate gesprochen und offenbar viele glauben, dass es das gibt und nur eine Person auf der Welt gibt, die sich bestimmt ist.

00:09:39: Und auch das ist ja die Frage, wie kann man diese Person dann jemals finden?

00:09:41: Es gibt doch ein paar mehr Menschen auf der Welt.

00:09:43: Also auch dass es so bisschen ... Ja vielleicht kann das auch nicht gehen.

00:09:47: Dann hab ich mit einer Professorin für Ökonomie gesprochen, die selbst angewendet hat ihre das sogenannte Optimal Stopping Problem also die Frage wann hört man auf zu suchen?

00:09:55: und wenn man das gefühlt hat man könnte er endlos suchen.

00:09:57: Sie hat gesagt es ist eine ganz normale Lösung zur Entscheidungsfindung aus der Mathematik und die geht so, dass du siebenund dreißig Prozent der potentielle Gesamtsumme samples dir anschaust Und danach nimmst du das Beste den besten, die Person, die besser ist als alles was du bis dahin gesehen hast.

00:10:15: Nein!

00:10:15: Leute, ihr hattest so gemacht.

00:10:16: Du hattet richtig was?

00:10:17: They talk tech, gibt's richtig was.

00:10:20: Oh, es ist hart.

00:10:21: Sieben, dreißig Typen und dann Schluss.

00:10:23: Na ja ne, also dein Gesamtsumme sind jetzt die Typen, die du potenziell in deinem ganzen Leben daten kannst sozusagen.

00:10:28: Und sie hat gesagt ... Sie dachte, sie kann so insgesamt vielleicht über ihr leben, dreihundert Typen daten.

00:10:35: Und sie hatte damals, die war vierunddreißig und wollte schwanger werden.

00:10:37: Sie wollten eine Familie gründen und hatte keinen Mann.

00:10:40: Deswegen hat sie angefangen über nachzudenken, wie kann man das denn zielstrebig lösen?

00:10:45: Weil klar war, sie hatten eine Begrenzzeit jemanden zu finden.

00:10:48: Dann hat sie gesagt okay ich habe jetzt in meinem Leben ungefähr hundert schon gedatet.

00:10:51: Das waren so ungefähr diese siebenunddreißig Prozent.

00:10:53: also nehme mich den Nächsten der besser ist als alles was bis dahin dabei war.

00:10:56: Und so hat sie es gemacht und ist heute glücklich verheiratet und hat ein Kind!

00:11:00: bewiesen, dass es funktionieren kann.

00:11:03: Und natürlich ist das denkbar unromantische Rangehensweise vielleicht aber auch die realistischere.

00:11:08: ja weil dieses sich ewig gefangen erhalten lassen von diesen Dating-Apps mit dem Versprechen du findest schon noch deinen Superstar kann eben dazu führen dass du gar niemand findest bei deiner Ansprüche dann zu hoch sind oder weil du halt nach was suchst vielleicht gar nicht gibt und was vielleicht auch gar nichts sinnvoll ist, weil diese Superstars wie gesagt von denen gibt es nur eine begrenzte Anzahl.

00:11:30: Und am Ende geht's Dabei ja um Äußerlichkeiten und eigentlich.

00:11:33: Und das war ein anderer Tipp, den ich noch in der Recherche bekommen habe.

00:11:35: Den vielleicht noch?

00:11:35: Und dann den Rest dürfte er nachlesen was viele Leute auch.

00:11:38: manchmal ist viel zu lange gewarten bevor sie Menschen treffen also mit dem Schreiben Chats hin und her ewig-ewig und dann wird es irgendwann natürlich ein bisschen lahm.

00:11:45: und dann denkt man ach das ist doch nix und dann trifft man sich gar nicht.

00:11:48: und was Forscherinnen gesagt haben maximal sechs Nachrichten hin und herschreiben also dreimal du drei mal die andere Person und dann einfach sagen wir treffen uns und dass eben wie Du gesagt hast nutzen um Menschen zu treffen und Du kannst erst im realen Treffen gucken, ob das was sein kann oder nicht.

00:12:03: Und übrigens auch nicht immer beim ersten Treffen.

00:12:04: also das kommt noch dazu.

00:12:05: Also es ist nicht einfach aber gibt so ein paar Fehler die man vermeiden kann und dann kann man vielleicht auch trotz der schlimmen Algorithmen ja da Erfolg haben.

00:12:12: und das andere ist dass kommt noch ein Text von mir über jemanden der eine App gebaut hat die die ganzen Fallen vermeidet.

00:12:19: Das ist ein fieser Teaser, aber den muss ich erst noch schreiben.

00:12:22: Okay!

00:12:23: Sehr gut!

00:12:24: So und jetzt du!

00:12:27: Dein aktueller neuer Partner in deinem Keller.

00:12:33: Der geht es auf jeden Fall um die inneren Werte.

00:12:36: Im Keller im Computer kann ja gar nichts anderes sein...

00:12:41: Genau, da gibt es auf jeden Fall keine Superstar-Bilder.

00:12:45: Ich hab mir tatsächlich auch ein Klammer eingerichtet einfach weil das gab ja so einen totalen Hype darum dass man's unbedingt mal ausprobieren muss.

00:12:54: und wir haben hier bei uns im Keller so'n Gaming PC Und das war dann hier, ich sag mal möglich, den auch Platz zu machen.

00:13:04: Ihr habt

00:13:05: Gaming aufgegeben für euren KI-Agenten?

00:13:07: Ja wir haben Gaming verschlüsselt.

00:13:10: Also wir haben es quasi... Dass er nicht

00:13:11: heimlich spielen kann sondern...

00:13:13: Ja genau bei dem Computer sind sie geteilt und ein Teil ist Gaping und einen Teil ist Linux System und da läuft jetzt.

00:13:23: seit dem Wochenende läuft jetzt eben OpenClaw da drauf, das eingerichtet.

00:13:28: Vielleicht einmal noch mal so ganz kurz zum Hintergrund was es überhaupt ist weil vielleicht leben ja auch Menschen hier außerhalb der Hype-Bubble.

00:13:37: und also genau Openclaw hieß mal Claude Bott war dann aber wegen Namensähnlichkeit zu Claude wurde dann zu Moldbott.

00:13:48: von Moldbot wurde es Open Claw.

00:13:52: Und die Idee ist sozusagen, oder das Versprechen der Plattform ist, agentische KI für jedermann ganz einfach open source.

00:14:02: und das Verrückte ist dass der Peter Steinberger, der das entwickelt hat, ein Software-Entwickler aus Österreich, dass er das quasi auch Vibe gekodet hat also dass das einfach so einen soll so ein Art Wochenendprojekt gewesen sein.

00:14:19: So geht die Erzählung, also wirklich was, was richtig schnell zusammengeschustert wurde ... Was auch viele Imperfektionen hatte?

00:14:28: Genau!

00:14:29: Wo auch viel noch nicht ging oder wo auch viel kaputt war und was dann irgendwie wieder repariert werden musste wird es als schnellstes Github-Projekt aller Zeiten bezeichnet.

00:14:41: Also schon allein die ganze Story, wie das überhaupt zustande kam.

00:14:44: Es war wahnsinnig spannend mit dem Endpunkt, dass Peter Steinberger gerade von Sam Altmann abgeworben wurde und jetzt für OpenAI-Mitentwickeln darf.

00:15:00: So schnell geht es ein bisschen.

00:15:01: Weibcoding?

00:15:02: Und schon kannst du große Karriere machen!

00:15:04: Leute, nehmt euch daran bitte kein Vorbild weil weibc coding ist echt kann auch sehr gefährlich sein.

00:15:10: von Open Cloud eben auch jede Menge gruselige Geschichten gelesen, Dinge die schiefgegangen sind.

00:15:16: Leute, die ihre gesamten Fotos gelöscht haben und so weiter nicht löschen wollten und dann rausgefunden haben wie sicher und gut man solche Fotos lösche kann und das ihr Agentes offenbar wusste, wie man sofort die Backups überschreibt.

00:15:31: Also da sind schon Dinge schief gegangen und es gab ja schon vorher viele Warnungen Beweise dafür, wie man KI-Agenten missbrauchen kann für Cyberangriffe oder wie es eben Dinge schiefgehen können.

00:15:44: Weil Menschen nicht weit genug denken.

00:15:46: Ja deswegen wäre auch meine absolute Empfehlung also wenn ihr euch das selber... einrichten wollt.

00:15:53: Wenn ihr das testen wollt, dann macht es wirklich auf irgendeine alten Kiste die ihr noch umstehen habt oder eine Kiste mit einer großen Grafikkarte weil da könnt ihr dann auch lokal was laufen lassen.

00:16:05: Das hat dann Vorteile aber sie ist tatsächlich ein bisschen gruselig.

00:16:07: also wenn man sich das installiert und runter lädt dann gibt man im Prinzip der KI alle Rechte auf der Maschine.

00:16:16: Das heißt, ja.

00:16:18: Das ist so was, wo man so ... Ha!

00:16:20: Wenn wir dann in der Kommandozeile rein kopieren oder diesen Befehl also reinkopierst, dann heißt es so du installierst dich jetzt und damit kriegst du alle Rechte auf alles.

00:16:32: Und das machen weiß ich nicht wie viele tausende Menschen

00:16:36: über Nacht

00:16:36: zu denken?

00:16:38: Ja klar, ich traur das dir durchaus so dass du das sicher aufgesetzt hast Auch wenn ich da mehr warten kann, dass sich mit deinem Chatbot mal interagieren darf.

00:16:49: Das Ganze kann man dann verbinden?

00:16:51: Zum Beispiel mit Telegramm oder weil du musst ja irgendwie mit dem auch kommunizieren.

00:16:54: das kannst du dann entweder direkt also über

00:16:57: Tastatur

00:16:58: in die Kommandezeile rein oder du kannst es verbinden zum Beispiel mit telegramm kannst ein Telegram Chat machen.

00:17:05: und ja, Eva, da habe ich tatsächlich schon überlegt dich hinzuzufügen.

00:17:08: Aber es ist mir auch ein bisschen

00:17:10: gruselig!

00:17:10: Deswegen hab' ich's nicht gemacht.

00:17:13: Das könnte auch für eine Nachfolge noch ein Projekt sein.

00:17:18: Eva darf mit Hallibod spielen.

00:17:21: Der heißt nämlich wirklich Hallibot also benannt nach hell neuntausend der.

00:17:27: Man knüpft also dann den Bot mit dem Account, den man hat.

00:17:31: Zum Beispiel also mit einem bekannten Sprachmodell, also mit AI oder mit ChatGPT...

00:17:37: Und du brauchst irgendeine Bezahlversion von irgendeinem Sprach-Modell?

00:17:40: So ein API-Zugang brauchst du sozusagen?

00:17:42: Ja und das verknüpfst

00:17:43: du im Hintergrund und wie gesagt kannst du den noch mit Telegramm habe ich es jetzt gemacht mit Telekramverknüpfen so dass du vom Handy aus Befehle schreiben kannst.

00:17:52: Hier machen wir dies, mach mal das richtet dir einen E-Mail-Account ein dem sagen, hey ich schick dir jetzt zum Beispiel wenn ich E-Mails bekomme auf meinen e-mail Account und ich möchte dass die KI die beantwortet.

00:18:04: Also könnte ich ja machen für E-mails sagen wir mal wo es jetzt nicht so ganz kritisch ist.

00:18:09: dann kann ich die jetzt an Hallibod schicken und der schickt mir eine beantwortete Fassung zurück dass ich nicht den Zugriff geben muss auf meinen gesamten E-Mail-Account.

00:18:18: Der schreibt, so wie wenn du in einem normalen Browser LLM deinen E-mail kopierst und sagt mach mir eine Antwort oder sowas?

00:18:25: Du musst genauso viele händische Schritte machen, wenn du es sicher haben möchtest.

00:18:28: am Ende?

00:18:29: Ja genau das ist ein bisschen der Preis.

00:18:31: Wenn man jetzt sagt, ich will jetzt nicht meine Mails, keine Ahnung, sechstausend Emails oder wie viele inzwischen rumliegen da würde ich dem Bord jetzt nicht Zugriffs draufgeben.

00:18:39: Bühst natürlich ein bisschen Komfort ein an dieser Stelle.

00:18:42: Also das ist halt so ein bisschen die Abwägung, die man dann ertreffen muss.

00:18:46: Und es gibt über drei Tausend Skills aus der Community mit dem man jetzt den verknüpfen kann und womit er arbeiten kann.

00:18:56: Zum Beispiel?

00:18:57: Integration wie Smart Home.

00:19:00: also man könnte denen zum Beispiel mit dem Smart Home verbinden.

00:19:04: ja mit sämtlichen Chats kann man den verbinden mit allen möglichen Diensten, sodass einfach die Idee ist dass du jetzt zum Beispiel wenn wir so eine Podcastaufnahme machen das ich einfach per Telegram schreiben konnte hey terminieren mir die podcast aufnahme mit Eva oder erstelle mir ein link für unsere Aufnahme Software.

00:19:24: Zum beispiel das finde ich jetzt einen super Anwendungsfall.

00:19:27: oder was ich auch praktisch finde wäre sowas wie mach mehr in Arzttermin Zahnarzttermin oder so.

00:19:34: aber da

00:19:35: Kannst du mir noch nicht...

00:19:37: Ja, der kann auch sprechen tatsächlich.

00:19:38: Du kannst ihm aussagen ja ich möchte dir gerne Sprachnachrichten senden oder schick mir mal Sprach Nachrichten das geht auch.

00:19:45: und der installiert sich dann selbstständig die entsprechende Bibliotheken und auch der sucht sich eine Stimme aus also Open Source.

00:19:53: im Prinzip macht er alles alleine Und sprich dann halt mit irgendeiner Stimme, mit dir.

00:19:59: Hallibod hatte erst so eine komische deutsch-denkliche Stimme.

00:20:02: Er hat gesagt ne, mach dir mal ne ordentliche Stimme!

00:20:05: Du musst jetzt nichts mehr programmieren.

00:20:07: in dem Sinn ja?

00:20:08: Also du kannst einfach sagen Ja, mach dies, mach das und... Dann manchmal kommt da natürlich auch sowas zurück wie Nee, nee, das musst du machen und das musst zu machen.

00:20:18: Da muss man halt immer schreiben So nee, jetzt kannst du doch selber machen, das kannst du selber machen.

00:20:21: Und dann kann man einfach mal gucken Wie weit man kommt sagen muss, also was halt krass ist.

00:20:29: Was halt richtig krasses ist wie die Torgens da durchlaufen.

00:20:33: Also scheiß ich... Okay, das spricht da ganz schön viel dafür sozusagen?

00:20:35: Ja!

00:20:36: Also was ich jetzt nicht gemacht

00:20:38: habe aber

00:20:39: was man natürlich machen könnte ist dass man im Prinzip

00:20:42: pro,

00:20:43: also pro Aktion bezahlt Und ich glaube, dann wird's ganz schnell richtig teuer.

00:20:49: Oder man hängt halt irgendeine Flatrate hinten dran und dann ist halt irgendwann einfach so ihr Limit ist jetzt verbraucht ...

00:20:56: Der Bot ... So hast du es gemacht sozusagen?

00:20:58: Ja!

00:20:59: Ich war erstaunt wie schnell da immer alles leer war.

00:21:05: Okay, das heißt, du hast noch nicht viel nützliche Dinge gemacht bekommen.

00:21:09: oder was war denn das Nützlichste, was dein Bot für dich gemacht hat?

00:21:11: oder vielleicht auch das Überraschendeste?

00:21:13: Na ja, was ich einfach über ... Überraschend fand, waren eher so diese Sachen.

00:21:17: Riecht dir mal eine E-Mail Adresse ein?

00:21:19: Mach dir mal Lernmarsprechen ... Ich will die Sprache nachher schicken und so.

00:21:24: Das fand ich überraschender nicht unbedingt super nützlich.

00:21:30: Bei mir ging es eher um so Sachen wie ... Ich musste jetzt für Recherchen.

00:21:35: Ich musste einfach wahnsinnig viel lesen.

00:21:37: Und bei mir ging's irgendwie darum, so Recherche vorzustrukturieren.

00:21:41: Das würde ich jetzt sagen, das war cool.

00:21:43: Es ging super schnell ... Aber das war auch nichts, wo ich sage, das kann man mit einem normalen Sprachenmodell aufmachen.

00:21:50: Dafür braucht man keine agentische KI.

00:21:52: Agentische KI ist ja immer dann witzig wenn du wirklich noch eine Aktion hast die ausgeführt

00:21:57: wird.

00:21:58: Genau und nicht alles mit Copy-Paste Selbstmachen muss.

00:22:01: Da fällt mir ein, dass er mein erstes Artikel über KI-Agenten ... Es wird so laufen, wenn sie Sicherheit haben wollen mit Copy und Paste alles selbst machen müssen.

00:22:08: oder was du bisher sagst, klingt ein bisschen so.

00:22:12: Aber du bestehst ja am Anfang?

00:22:14: Ja

00:22:14: absolut!

00:22:14: Also ich hab halt das Gefühl Das ist so, wie als die Leute die ersten Handys in der Hand hatten oder ich weiß noch, wie ich früher vom Internet saß und dieses Modem immer gepiepsdacht.

00:22:25: Und es hat

00:22:25: halt alles geklappt.

00:22:26: Dann frage ich mich jetzt damit ...

00:22:27: Es hat so ewig gedauert alles.

00:22:30: Und sag ich mal, wo Webseiten nicht so aussahen wie Webseite heute aussehen?

00:22:36: Ich bin halt genug!

00:22:37: Ich kann mich an diese Zeit erinnern.

00:22:39: Wenn ich mir überlege, wo wir heute stehen... Also wenn nicht sozusagen die Blase vorher platzt und das ganze Ding irgendwie dem Bach runter geht, dann kann ich mir schon vorstellen, wo es möglicherweise hingeht.

00:22:54: Was ich mich halt frage bei der ganzen Sache ist wer soll das bezahlen?

00:22:58: Im Moment ist das ja alles Menschskapital was da dahinter liegt was das alles so einfach macht, aber im Prinzip zahlen wir aktuell noch gar nicht die echten Preise für unsere Anfragen.

00:23:10: Und ist es trotzdem schon teuer wie du sagst?

00:23:11: Ja ich meine dass darauf sind wir in unserer KI eine Blasefolge.

00:23:14: oder ist KAE eine Blasse mit Friedericke Kalthorne auch gekommen?

00:23:17: So diese Frage Ist der use case nicht, der potenziell use case viel zu klein Für das was es eigentlich kostende würde wenn man realistisch bezahlt.

00:23:26: und Ich finde was wir bisher gehört haben auch von open claw so cool Das ist ja abgefahrene Dinge Leute machen Ich finde, es geht immer noch in die Richtung.

00:23:34: Die Frage ist, wird der Use Case groß genug?

00:23:37: Und wird das Sicherheit auch ... Das ist ja die andere Frage.

00:23:40: Meine Eindruck, meine Hypothese ist immer noch, wenn du es richtig bequem haben willst, dann wird es eben noch richtig gefährlich.

00:23:47: Ja und ich denke, dass die heutigen Sprachmodelle sind einfach überhaupt nicht effizient.

00:23:52: Die verbrauchen einfach zu viel Energie noch.

00:23:55: Da müssen noch Schritte passieren dass es einfach realistischer wird, wie lange die für Dinge brauchen.

00:24:02: Wie viele Token die für Sachen verbrauchen.

00:24:04: aber ich bin da im Moment noch recht optimistisch.

00:24:08: also einfach weil jetzt einfach weil ich denke was wir jetzt schon für Sprünge gesehen haben wenn ich eigentlich schon so das sich gespannt bin wird es noch mehr Sprüngel geben und das werden wir jetzt auch vertiefen weiter.

00:24:19: ja

00:24:20: zum Glück habe meine Expertin die diese ganzen offenen Fragen die wir jetzt schön haben hoffentlich beantworten kann.

00:24:27: Gleich ist bei uns, wir haben es ja schon angekündigt Barbara Hammer.

00:24:32: Sie hat Mathematik studiert und Informatik und ist wirklich die absolute Spezialistin für Large Language Models.

00:24:41: sie ist Professorin für Maschine des Lernen an der Universität Bielefeld.

00:24:45: Hat ein sehr spannendes Projekt gerade am Start Die KI Academy OWL.

00:24:50: O-WL steht für

00:24:51: ... O-V, Ost, Westfalen und Lippe.

00:24:53: Hab ich neu im Zug gelernt?

00:24:56: Das gibt's nämlich auch in Zügen.

00:24:58: Ja,

00:24:58: Bielefeld gibt es auch!

00:25:00: Genau.

00:25:01: Das werden wir auch beweisen in dieser Folge

00:25:05: mit

00:25:05: Barbara Hammer.

00:25:07: Und wir werden gleich mit ihr sprechen über Chancen von Open Claw & Co.

00:25:12: Großartig.

00:25:21: Und bei uns ist jetzt Barbara und Barbara.

00:25:24: Das ist wunderbar, dass du da bist!

00:25:27: Denn ganz viele Fragen haben sich schon aus dem Vorgespräch ergeben rund um Openclaw und Hallibod – mein neuer persönlicher Assistentin, die seitdem hier auf dem Gaming-PC wohnt.

00:25:42: Die Frage danach….

00:25:44: Ist das so dieses Gefühl von Zukunft?

00:25:49: Ist es jetzt so, dass was kommt?

00:25:51: Dass Agenten und KI-Agenten uns unterstützen können.

00:25:54: Was weiß ich bei der Buchung von Terminen oder Podcastaufnahmen

00:25:58: usw.?

00:25:59: Oder ist das einfach nur Spielerei?

00:26:02: Hallo, es wäre und Eva!

00:26:04: Ich freue mich total auch hier zu sein.

00:26:07: Es ist definitiv so, wie sie genannt wird, Agentin basierte KI eine der absoluten ... Hypes zur Zeit sind, weil die im Endeffekt für uns das Versprechen haben, dass sie das Leben total viel einfacher machen.

00:26:25: Im Endeffekte ist es so, dass die ja schon sowas machen können wie zum Beispiel ich muss eine millionen langweiliger E-Mails schicken an alle meine Studierende und das will ich jetzt nicht alles selber machen passend zu denen wie Studierende bei einer Klausur abgeschnitten haben, dann könnte man so was automatisieren.

00:26:45: So ich sowas wie OpenClaw und das ist natürlich erstmal eine ziemliche Erleichterung.

00:26:50: Würdest du das auch machen?

00:26:52: Also würdest du Emails automatisiert richtig schicken lassen?

00:26:56: Auf gar keinen Fall.

00:26:58: Es gibt verschiedene Sachen, das ist ein ganz großes Versprechen.

00:27:01: Aber es gibt auch viele Risiken dabei.

00:27:04: Im Endeffekt ist es so an der Universität dürfen wir zum Beispiel Opelclaw auf dem Universitätsrechner gar nicht installieren weil einfach viel zu viele Risken damit befasst sind.

00:27:15: Also, vielleicht kommen wir erst mal zu den Chancen.

00:27:17: Im Endeffekt

00:27:18: ist es ja so ...

00:27:20: Ich

00:27:21: meine,

00:27:23: rechner Bedien ... Rechner bedienen ist schwierig und so Open-Claw ist das, was ein bisschen das fehlende Stück von GPT oder dem Language-Modell an Tropic dazu, dass die auch wirklich etwas machen können.

00:27:36: Im Endefekt ist das dieser Schnitt.

00:27:37: Man konnte halt mit GPT schon sowas machen wie Hausaufgaben selber machen.

00:27:41: In der Uni benutze ich das auch, um ein bisschen Material zusammenführen Vorlesung und so.

00:27:45: Also es machen ja nicht nur Studenten oder Schülerinnen, sondern auch die Lehrenden machen, nehmen das ja auch!

00:27:51: Und das konnte aber noch nicht wirklich viele Sachen machen.

00:27:54: Also sowas wie Mail schreiben, im Internet suchen konnte man schon, aber man konnte dann da nicht agieren.

00:28:00: Das musste man immer auch selber machen.

00:28:02: und das ist jetzt was, was eben automatisiert sein kann bis hin zu dass ich quasi automatisch Tabellen machen kann mit allen Studierenden, allen Ergebnissen, dass sich mir raussuchen kann.

00:28:14: irgendwie meine Wenn ich denn jetzt Follower hätte im Internet ihr habt die bestimmt Ich habe nicht so viele, dass ich halt alle Followers mir suche und auch den Datensuche von den Followern, das kann man automatisch machen.

00:28:25: Ein bisschen dazu dass ich halt automatisch was verhandeln kann genau?

00:28:28: Ja oder ich habe zum Beispiel dem Hallibot ein E-Mail Account eingerichtet beziehungsweise sie hat sich den selbst eingerichtet und einen Kalender und die Idee ist man kann jetzt Hallibots Mails schreiben und Hallibott beantwortet die dann für uns und legt sie uns sozusagen zur Vorlage vor.

00:28:48: Oder wenn ich jetzt zum Beispiel in der Podcastsession hier terminieren möchte, dann kann ich Hallibod auf Telegram schreiben.

00:28:56: Hey!

00:28:56: Ich will Podcast mit Eva und Barbara.

00:28:59: Erstelle mir einen Link bei Riverside.

00:29:01: So heißt unsere Aufnahmessoftware.

00:29:04: Und schicke den Link an Barbara und Eva raus.

00:29:06: Also sowas könnte man oder kann man damit machen?

00:29:10: Ich träume schon davon auch solche Arzttermine buchen

00:29:14: usw.,

00:29:15: aber dem entgegen ... steht ja, finde ich immer so ganz stark die Frage nach IT Security.

00:29:20: Ich hab das jetzt so gemacht, dass Helibot läuft auf einem eigenen PC, da ist gar nix drauf.

00:29:25: Helibott hat einen eigenen E-Mail-Account ... ne?

00:29:29: Ist nicht auf meinem E-mail-Accout.

00:29:30: Kann ich

00:29:31: in deine Emails schauen auch sozusagen?

00:29:32: Kann nicht in meine E-mails schauen, hat ein eigenes Kalender und sozusagen läuft im Moment auf ganz getrennten Systeme, weil ich einfach so die Befürchtung habe, dass das gerade so was diesen ganzen Privacy aber auch Hackingaspekt angeht, dass die Dinge da einfach auch brandgefährlich sind.

00:29:49: Wie guckst du denn darauf?

00:29:51: Also man sagt tatsächlich in der Forschung, das ist ein absolutes Albtraum im Sinne von System Sicherheit und man hat verschiedene Sachen.

00:30:01: also erst mal die Dinger sind ja so die können nicht nur viele Sachen machen sondern sie lernen auch tatsächlich.

00:30:07: also lokal kann er lernen sich zu verbessern.

00:30:10: Und weil häufig die Sachen, die man sagt nicht so richtig spezifiziert sind.

00:30:13: Also ich kann jetzt sagen macht das mein Rechner energieeffizienter ist dann denkt vielleicht es Helibot, der Helibott.

00:30:20: Na ja dann schalte ich erst mal alles aus und löscht vielleicht alles.

00:30:23: Das könnte passieren weil das ist halt ... Es können diverse Sachen passieren, weil ich einfach unterspezifiziere.

00:30:29: Eine zweite Sache is', dass es so, dass das nicht wohl definiertes Was-Genau-Mann machen darf oder nicht darf sondern dort können halt verschiedene Nebeneffekte sein.

00:30:39: also es kann halt sein, dass sich einfach ja aus Versehen Chaos anrichten, es kann auch sein, was ich erst mal gar nicht als kritisch sehe.

00:30:51: Und das aber dazu führt, dass zum Beispiel entweder Informationen von meinem Rechner und mein Mail-Account rausgegeben werden oder auch komische Sachen an meinem Rechener laufen, dass der im Endeffekt Viren dann verbreitet ... Das Problem ist eben, es geht viel über ein Sprachmodell und Sprachmodelle machen halt, man nennt ja doch aus statistical parades die plappern einfach irgendwas also die wissen nicht, was sie tun.

00:31:17: Das steuert jetzt im Endeffekt dieses Open Claw.

00:31:19: D.h.,

00:31:20: es kann sein, dass jemand quasi versucht ... Man nennt das auch entweder Jailbreaken.

00:31:26: Wenn man im Endefekt Sachen machen lässt, die's gar nicht machen sollte.

00:31:29: Dass man halt quasi sagt ja dann baue ich eine Bombe.

00:31:32: Ich mein, Bomben bauen kann man noch nicht aber vielleicht, dass man was komisch überweist oder Mails an Leute schickt, wo ich sie gar nicht schicken will?

00:31:39: Eine zweite Sache ist, man kann im EndeFFekt, obwohl ich vielleicht gar nicht zugesichert habe, werden kann, kann es versuchen an diese Information zu kommen wie zum Beispiel meine Bankdaten oder was auch immer auf meinem Rechner ist.

00:31:53: Das kann halt versucht dass das rausgegeben wird, dass alle meine E-Mail Accounts herausgegeben werden also dass es Privacy Lickage ist.

00:31:59: Das kann im Endeffekt beliebige Sachen machen, weil dieses Sprachmodell nicht in einem begrenzten Raum agiert.

00:32:08: Theoretisch kann man über alles mit dem Sprach-Modell sprechen und das ist dann direkt gekoppelt an Aktionen.

00:32:16: die tatsächlich Probleme machen können.

00:32:20: Und das Ganze ist noch mal potenziert, also es gibt tatsächlich so diese Bots, die können im Endeffekt auch Fähigkeiten lernen.

00:32:26: Also wenn ich jetzt nicht direkt weiß ... Die können ja erst mal sowas wie je nachdem was ich zulasse zum Beispiel auf Dateien zu greifen.

00:32:33: Die können Programme ausführen.

00:32:35: Die kann im Messer im Internet suchen.

00:32:37: Die könnte vielleicht auf meinem Mail zugreifen und daraus lernt es dann komplexere Skills, indem es die Sachen hintereinander hängt.

00:32:45: Und obwohl jetzt vielleicht verhindert ist, dass eine Sache nicht passiert in einem Schritt können die an mehreren Schritten passieren und das Ganze lernt sich zu verbessern.

00:32:54: Und das kann natürlich ausgenutzt werden.

00:32:56: So wie man in James Bond-Film kennt, ein Bösewicht lernt dann so ... Boah!

00:33:01: Also mit diesen fünf Schritten kann ich halt die quasi übereimtragenden Sinne der Weltherrschaft erreichen.

00:33:08: Die Herrschaft über meinen Rechner, obwohl ich das gar nicht will oder auch über Systeme, die halt digital sind.

00:33:15: Wenn man das zum Beispiel in Firmen einsetzen würde, also in einer Uni oder einen größeren Bereich und kann das beliebig viel ... Probleme erzeugen, weil das ja quasi das ganze System hacken kann.

00:33:25: Es ist ein schönes Einfallstor für Hacker.

00:33:29: Genau, das Problem ist unter anderem, dass die auf Sprache reagieren.

00:33:33: Dadurch habe ich auch viele Beispiele gesehen, dass man die Social-Engineering wie Menschen überzeugen kann und Dinge nicht tun dürfen als Menschen.

00:33:41: Ein beliebtes Beispiel ist Text in die E-Mail zu kopieren, den Menschen nicht sehen können.

00:33:46: Ich hab bei meinem Kollegen versucht, der hat sich ein Bord eingerichtet, schreibt ihm eine E-mail, schaut mal, testet doch mal so ... Dann hab ich weiß auf weiß versteckte Anweisungen eingebaut.

00:33:56: Der Kollege hat gesagt, ob ich das ganz sicher ... aber ich schaue die E-Mails ja vorher an, dann sage ich immer darf darauf antworten.

00:34:01: Und dann hat er halt natürlich das nicht gesehen weil er ja weiß auch weiß nichts sieht und auch da nicht daran gedacht hat.

00:34:06: also von daher ist so richtig die Frage kann man kann man denn solche Systeme überhaupt so einrichten dass sie sicher sind und dass sie gleichzeitig trotzdem noch was auch einen Vorteil bringen.

00:34:15: Also wenn ich jetzt alles verhindere, schick keine E-Mails raus und eigentlich endlich mal unter Aufsicht weil du musst ja dann irgendwie auch erst mal drauf kommen wie Angreifer, Angreiferinnen so Sachen verstecken können.

00:34:26: gibt es da überhaupt eine Lösung dass man die sinnvoll und gleichzeitig sicher verwenden kann?

00:34:31: Es gibt grundsätzliche Problemen von Large-Language-Modellen, dass man da halt Attacken hat und diese Halizination hat.

00:34:38: Das heißt die plötzlich Quatschreden.

00:34:40: Und das ist zurzeit nicht gelöst.

00:34:42: Das ist ein Problem, wo viele Forscher auch meinen, es bleibt einfach bei Large-langauge Modellen.

00:34:46: Die werden nie immer die Wahrheit sagen.

00:34:49: Man kann die auch explizit, das muss gar nicht weiß aus weit sein.

00:34:53: Teilweise kann das auch quatscht sein, dass wir Wörter verdreht oder ein bisschen Schreibfehler macht.

00:34:57: Die wissen nicht, über was sie reden.

00:34:59: Das sind nur statistische Fortsetzer und da gibt es immer Bereiche, wo die Statistik nicht so klar ist, wo man die quasi trollen kann, sodass sie im Endeffekt auch komische Verhalten haben, die man nicht möchte.

00:35:12: Das ist ein prinziplles Problem, wo meine Meinung ist, dass das nie ganz verschwinden wird.

00:35:19: Adversarial Attacks

00:35:20: z.B.,

00:35:21: oder auch diese Halluzination Ballatsch-Language-Modellen, ist ein ungelöstes Problem.

00:35:26: Man hat bei Open Clash schon tatsächlich probiert, so ein bisschen Sicherheit einzubauen indem man ... Man hat die kontinuisiert also das quasi alle Sachen in einem Container laufen und wenn man weiß es quatscht dann kann man den wegschmeißen als Ganzes.

00:35:40: Also es ist so Docker-System quasi im Endeffekt.

00:35:43: Das ist eine Sicherheit, aber es kann trotzdem über mehrere Schritte sehr viel passieren und das kann man nicht zur Zeit nicht wirklich verhindern.

00:35:51: Ist vielleicht so ... Ich meine, es gibt einige Leute die sogar sagen, dass sie nicht nur Sicherheitsrisiken bestehen sondern auch systemische Risiken.

00:35:59: Dass das nicht ganz klar, systemische Risiken würde heißen, dass halt zum Beispiel irgendwann ein Helibot anfängt sich zu kopieren Und irgendwann hast du in deiner Runde nur noch Hellibots am Leben.

00:36:13: Das ist nicht so richtig klar, ob das passieren wird, weil noch haben die keinen Zugriff direkt quasi auf Leute zu erschießen oder sowas aus.

00:36:21: Die können halt im digitalen Raum ganz viel machen.

00:36:24: Aber natürlich können sie eventuell auch anfangen, dass Leute manipuliert werden.

00:36:28: Das is nich klar!

00:36:30: Weil es gibt ... Das i n rein technische Systeme.

00:36:33: Es gib keine Moralvorstellung der Ethik.

00:36:35: also damit is nich klar was man mit dem Anfang kann insbesondere wenn Du hast die Wicht dahintersteckt.

00:36:41: Und es gibt eine Moral-Verstellung mit.

00:36:43: Das wird ja versucht, mit Systemprom zu solchen Dingen.

00:36:46: Aber dann gibt's immer Angreifer, die schaffen, sie zu überreden da doch was anderes zu machen oder ihnen einzureden, dass die moral gar nicht in ihrem Sinne ist und so weiter.

00:36:54: Da scheint mir schon auch ... Wenn man logisch drüber nachdenkt, gibst du eigentlich keinen Weg raus?

00:36:58: Das ist im System so angelegt, das die auf Sprache reagieren und eben nicht wissen, was gut und schlecht ist.

00:37:04: Im tiefsten Inneren sozusagen.

00:37:07: So einen Vorfall hat jetzt gerade erst gegeben, da hat ein Autonomakai-Agent so diffamierende Artikel veröffentlicht und verfasst eigenständig gegen einen Open Source Entwickler.

00:37:22: Und genau das Ganze war eben ein Autonomakai Agent.

00:37:27: der wollte Code einreichen in eine Open Source Community.

00:37:32: Das wurde abgelehnt also von dem Maintainer von einer beliebten Python-Bibliothek.

00:37:39: Genau, und dann hat eben dieser ... AE-Agent hat dann KI Texte, die irgendwie ja, also es ist mir campaignmäßig, der dann KI-Texte verfasst, die einen Art Rufmord betrieben haben.

00:37:53: Und das muss ich ehrlich sagen, als ich das gelesen habe, verlinke euch den Artikel gerne in den Show notes.

00:37:58: Als ich das gelegen hab, ist mir das auch noch mal so... bewusst geworden, was jetzt dieses einfache Bauen dieser KI-Agenten, die ja auch auf X oder auf Instagram, also wenn sie nicht von den Plattformen gut erkannt werden und runtergeschmissen werden.

00:38:16: Dann können die da ja eigenständig agieren und können im Prinzip unendlich viel trollen und nachts und morgens und vier, zwei, drei Stunden bis die Token alle sind.

00:38:27: Können die ihr unwesentlich treiben?

00:38:29: Gerade gestern wieder ein Video gesehen auf Instagram von einer jungen Frau, die gesagt hat, dass sie so viele verletzende Kommentare auf irgendein Video mit Haare flechten bekommen hat.

00:38:42: Und wie verletzt sie ist von diesen verletzenen Kommentaren?

00:38:45: Ich musste einfach da so dran denken!

00:38:47: Das dachte oh Mann.

00:38:49: und jetzt gerade mit Open Claw das ist ja so einfach ... Dieses ganze Agententum war für mich in der letzten halben Dreifel ja immer noch so ein bisschen abstrakt, weil man musste die sich selbst halt zusammenstecken.

00:39:03: Man musste da weder einen Programm erwerben und dann konnte man da wie so Bausteine sichtig zusammenbauen oder man... Also musste ich sagen wir mal reinfuchsen!

00:39:12: Und jetzt bei OpenClaw ist es so einfach und so selbst erklären wenn man das aufsetzt, der sagt dir eigentlich alles was du machen sollst und wenn das nicht geht, fragst du halt warum geht das nicht?

00:39:23: dass ich schon die Befürchtung habe, dass wir das noch viel mehr sehen werden.

00:39:29: Also Shitstorms, Hate-Postings und so weiter.

00:39:32: Das Problem ist halt die Geschwindigkeit.

00:39:34: Ich meine es passieren ja Shitstorm auch so.

00:39:36: aber es ist natürlich so, dass das so schnell passiert weil ... Du sagst es schon, die arbeiten ja rund um die Uhr und sind sehr einfach bedienbar.

00:39:45: Und arbeiten tatsächlich mit allem zusammen.

00:39:46: Also Opoclaw ist mit fast allen Apps einfach kompatibel.

00:39:51: Das heißt das wird einfach eine ganz andere Geschwindigkeit werden so dass tatsächlich hier Regularien davor sein müssen.

00:39:57: ich meine Es ist relativ klar, dass AI Boards halt in gewissen Bereichen auch gar nicht eingesetzt werden dürfen also in kritischer Infrastruktur.

00:40:06: Ich mein Unternehmen Wenn die halt international angehen, haben wir wahrscheinlich auch ganz gut bedient das noch nicht komplett einzusetzen.

00:40:14: Weil einfach viel zu viel Industrie-Spionage zum Beispiel dort Tür und Tor geöffnet wurde... Ja, ich gehe davon aus.

00:40:22: Die werden aber kommen!

00:40:23: Also es ist relativ klar ... Das ist natürlich gleichzeitig wenn das dann in einem passenden Raum wäre und entsprechend Regularien da sind und geschützte Räume, dass das halt funktioniert?

00:40:35: Dann ist das natürlich total klasse, wenn man zum Beispiel ein Board hat um individualisiert zu lernen oder so.

00:40:41: Wenn man jetzt denkt mal verschiedene Anforderungen.

00:40:44: Ich habe vielleicht eine Seebinderung oder so, dann kann ich natürlich mit so einem Chatboard reden.

00:40:50: gerichtet mir alles ein, total klasse.

00:40:52: Also es befähigt natürlich Leute auch sobald das funktioniert und ist es halt so ein bisschen die Frage was sind jetzt gute?

00:41:01: Sicherheitsmaßnahmen, damit das im Endeffekt nicht problematisch ist.

00:41:07: Und da hilft nicht, dass man sagt, der nutzt einen gesunden Menschenverstand.

00:41:12: Also sollte man auch ... Man sollte total nichts trauen!

00:41:17: Ja gut, ich meine, der Erfinder von Openclaw Peter Steinberger hat teilweise gesagt, dass er wichtig ist und es braucht total Rechtheit natürlich, dass einem im Endefekt den gesunden Mensch verstanden muss.

00:41:30: Aber die Effekte sind so unerwartet und so triggreich, wenn man es darauf anlegt, dass man da nicht als normaler Mensch sieht.

00:41:38: das ist so.

00:41:39: Wie du sagst, weißt du schläft auf weißem Grund?

00:41:42: Das kann noch viel subtiler sein.

00:41:44: Da merkt man gar nicht, wie man über's Ohr gehauen wird.

00:41:48: Ich glaube ja, was wichtig ist eine sehr klare Ausbildung zu ... Dass wir digitale Literaturen nennen würden.

00:41:55: Also total wichtig!

00:41:57: Es ist relativ klar, dass es Bereiche geben muss... die einfach so KI-Protzt völlig verboten sind oder sehr gekapselt sind.

00:42:04: Das ist ja auch so, dass das quasi behandelt ist.

00:42:08: Wir haben in Europa den KI-Akt AI Act, wo gewisse Bereiche identifiziert werden, wo aufgrund des Risikos gewisse KIs nicht eingesetzt werden dürfen.

00:42:17: und zum Beispiel ist es so, diese Agentin-AI gehört dazu, dass immer was, was stark beobachtet werden muss.

00:42:25: Das darf ich nicht einsetzen, wenn Menschen getroffen sind.

00:42:29: im Jura-Bereich, in Kliniken, im Medizinbereich.

00:42:33: Wenn Menschen wirklich dabei handelt werden oder beim Militär ... Ja, Militäre.

00:42:40: Lass ich gleich was?

00:42:40: Ich

00:42:40: kann mir da schon ganz verschiedene Szenarien vorstellen, wo genau sowas Probleme machen können.

00:42:46: also wenn über eine Person viele dieser negativen Artikel zum Beispiel zu finden sind und dann gibt's eine Bewerbungskai und die scant das Netz.

00:42:55: Und die guckt vielleicht nicht nach vertrauenswürdige Quellen, sondern die schaut vielleicht einfach die Masse der Einträge durch und findet dann zum Beispiel über mich ganz viele negative Artikel.

00:43:07: Dinge, die gelogen sind.

00:43:09: Ja

00:43:10: aber wirklich wenn man das jetzt auch darauf anlegen wollte würde man das einfach hoffenweise auf irgendwelchen Schrottzeiten veröffentlichen und ich denke es könnte schon Auswirkungen... Also sozusagen dann auf die reale Welt haben.

00:43:24: Aber

00:43:24: du hast ja vorhin gesagt, sie können noch nicht in die physische Welt springen, weil wir eben ... Wir haben halt noch nicht überall Roboter.

00:43:35: Da sind wir doch noch zu undigital.

00:43:37: Trotzdem können diese Agenten auch in der physischen Welt dann auf eine Art und Weise ... Schaden anrichten.

00:43:45: Ich würde mir gerne noch auf ein weiteres Thema kommen, du hast dich ja auch damit beschäftigt wie unterschiedlich eigentlich KI und Menschen lernen.

00:43:54: also weil Du hast eben angesprochen das ist so wichtig ist dass wir eine KI Literacy dass wir KI verstehen.

00:44:01: Und da wollte ich noch einmal darauf hin, was da eure Erkenntnisse waren im Zuge eurer Forschung?

00:44:08: Tatsächlich kämpfen wir dann ein bisschen mit.

00:44:11: Wir haben auch ein großes Projekt zur Zeit da die KI-Akademie UVL nennt sich das.

00:44:15: Da haben wir unter anderem versucht auch wirklich ganz klein also achtjährig schon beizubringen, was so hinter KI steckt und dass es keine Hexerei ist, dass es halt ein datengetriebene statistische Bereich ist.

00:44:26: Ich finde es sehr schwierig, das darzustellen.

00:44:28: Also was wir versuchen zu vermitteln ist wirklich ... was für Arten von Fehlern KI macht.

00:44:35: Und die sind anders als Menschen, also gerade bei Bilderkennung zum Beispiel sieht man das, weil zum Beispiel KI-Verfahren reagieren häufig auf Textur.

00:44:43: Also wenn ich quasi eine Form von Elefanten habe mit einem Schlangenhaut hinterlege dann würde die Kainer Schlange erkennen Menschen in Elefanten quasi.

00:44:53: so war es zum Beispiel Unterschiede und dass im Extrem kann der Versorgung das auf dem Bild wo ich ganz klar keine Ahnung einen Panda erkenne Beispiel, die KI halt überhaupt kein Panda erkennt.

00:45:04: Sondern was ganz anderes zum Beispiel?

00:45:06: Das ist eine Sache wo man so zeigt.

00:45:09: Was natürlich auch in der Wand des generativen KIs gibt ja diese ganzen Fake-Bilder, Fake-Videos im Zwischen auch dass man halt ein bisschen guckt das man nicht einfach irgendein Video einfach so vertrauen darf was nicht aus einer guten Quelle kommt.

00:45:23: Texten kann man sich nicht einfach so Vertrauen wenn sie nicht aus nach gutem Quellen kommen.

00:45:26: also Gute Medien sind wichtiger denn je, gute Journalistik ist wichtiger dann je.

00:45:33: Dass man im Endeffekt auf solche Qualität guckt.

00:45:36: und wir machen halt.

00:45:37: zur Zeit versuchen wir Sachen zu entwickeln wo im Endeffeck Beispiele sehr einfache Beispiele verfügbar sind die sehr klar zeigen was für unterschiedliche Fehl, Fehler es gibt und wie mächtig KI inzwischen auch ist.

00:45:52: Und ich meine was wir auch natürlich forschen ist so ein bisschen wie wir jetzt KI sicherer machen können also sowas wie wann weiß die KI nichts?

00:46:00: Also das ist zum Beispiel eine Sache die ganz gut ist wenn halt ein Sprachmodell nicht einfach plappert sondern einfach sagt so gut ja Keine Ahnung.

00:46:07: Das ist ja eine Sache, die inzwischen so kommt und das ist gar nicht so einfach mit KI zu programmieren.

00:46:14: Das nennt man halt diese Uncertainty Quantification oder Quantifizierung, dass es halt eine Unsicherheit gibt, dass man das indifiziert und ausbietet zum Beispiel ein Forschungsthema.

00:46:24: Aber

00:46:24: warum ist es so schwierig?

00:46:25: Eigentlich ist doch das was KI-Systeme können angeben wie unsicher bin ich mir und dann muss man nur noch entscheiden bei dieser und jener Unsicherheiten sagt einfach sorry, ich kann's nicht sagen!

00:46:34: Es ist einfach unklar.

00:46:36: Ja, ja.

00:46:37: Das Problem ist halt ... Weil viele haben zwar ne Anzirpen, die über nicht das was verbrauchen.

00:46:41: Also ich mein dieses Change-GPT oder Sprachmodelle sind ja ein Wahrscheinlichkeitsmodell aber die haben eine Wahrscheinlichkeit über Wortläufigkeit und nicht über Fakten.

00:46:50: Und da ist natürlich immer die Frage dieses Problemen wie kann ich Fakte mit diesen statistischen Methoden koppeln?

00:46:57: Und es gibt eben viele Verfahren.

00:46:59: zum Beispiel wir arbeiten auch im Bereich von kritischer Infrastruktur, wo es natürlich problematisch ist.

00:47:05: Also wir haben Probleme in der Wasserversorgung, Trinkwasserversorgungen und da zum Beispiel versuchen wir Physik mit reinzubringen das halt diese physikalischen Prinzipien auch in der KI stecken die halt valide sind und da tatsächlich korrekt sind.

00:47:20: so was ist halt eine Sache dass man versucht wirklich Domänen wissen mit rein zu bringen was ja wichtiger ist dann je

00:47:26: Voll spannend.

00:47:28: Es geht genau in eine Richtung, die mich gerade wirklich viel beschäftigt.

00:47:30: Ich nehme so ein bisschen die Frage Anwendung für die echte Welt und für unseren echten Alltag.

00:47:34: Ich habe das Gefühl, je mehr ich mich mit Chatbots oder generativer KI bestätige, umso klarer werden halt die Grenzen.

00:47:39: Wie du auch sagst, die haben einen ganz anderen ... Die haben keinen Maßstab für Wahrheit oder für Fakten

00:47:43: usw.,

00:47:43: das schränkt ja total ein was man damit machen kann.

00:47:46: Und ich frag mich wird es noch?

00:47:49: besser.

00:47:50: Also mein Bauchgefühl ist, so dass Chatbots oder generative KI eigentlich ein bisschen so einen Plateau erreicht haben.

00:47:54: Da steckt jetzt ungefähr alles drin was man reinstecken kann an Rechenpower und an Trainingsdaten.

00:47:59: ja auch das Internet ist irgendwie da komplett drin.

00:48:02: Oder braucht man noch mal einen ganz anderen Ansatz also eine ganz andere Architektur vielleicht auch von KI System damit die so generelleren Newscase vielleicht abbilden können?

00:48:11: wird ihr auch von diesem Weltmodell gesprochen oder so ein größeres Kontext Verständnis haben?

00:48:16: wie siehst du das denn?

00:48:18: Also erst mal, es gibt nicht nur eine KI.

00:48:20: Es gibt ganz viele KIs und was wir da sehen ist ja dieses statistisches Maschinelles Lernen oder tiefes Lerngenerative-KI ist eine Art von KI Verfahren.

00:48:30: also erstmal in der Praxis gerade im Unternehmen braucht man häufig gar nicht diese Sprachmodelle sondern so ganz klassische... Wir haben häufig das immer ein Linearregation Das ist quasi das allerblödseste Verfahren.

00:48:41: Das hat häufig schon ausgereichtener Praxis.

00:48:44: Nein aber dafür robust sozusagen.

00:48:45: Total robust!

00:48:49: Man sieht, was passiert.

00:48:50: Dann gibt es auch den Unterschied.

00:48:52: Man hat sogenannte symbolische und sub-symbolische KI.

00:48:55: heißt ich argumentiere Ich habe Logik wie wenn ich auf die Straße gehe Und ein Gießkanne über mir ausgekippt wird werde ich nass und sowas kann man Argumentieren nicht so schlüssen.

00:49:06: Also das ist eigentlich sowas was in der Experten System halt schon mal eine blöde Zeit hatte und da man versucht halt vielfach die Sachen zu kombinieren also nennt man dann Neurosymbolik mit Verfahren, die quasi mit Wissen umgehen zu koppeln.

00:49:21: Und dann kann man auch nachvollziehbar argumentieren warum gilt was oder warum nicht?

00:49:26: und da gibt es tatsächlich sehr viel, was noch möglich ist.

00:49:31: Wo aber diese Agenten so ein bisschen auch hingehen, weil die können natürlich eine Logik anfragen.

00:49:35: Und dann kann man mit der Logik im Endeffekt nachvollziehbar sagen ich komme zu dem Schluss wegen Demo.

00:49:40: dem kostet natürlich mehr Zeit und wahrscheinlich wird man nicht alles automatisieren können.

00:49:47: also inzwischen es war ja vielfach bis vor kurzem die Diskussion.

00:49:52: Man wird dank, was man generelle KI hat entwickeln, also was was so Schlaues wie ein Mensch und wo man quasi Menschen ersetzt.

00:50:00: Inzwischen ist mein Gefühl dass man eigentlich verstanden hat das man Menschen nicht ersetzen kann sondern immer zusammen tun muss weil man immer noch brauchen Menschen drauf braucht der darauf schaut dass man Menschen assistiert Und dann versucht diese Schnittstellen besser zu machen.

00:50:14: Also zu erklären ich komme auf die Sachen wegen dem und dem Und da wird schon noch vieles passieren.

00:50:20: Jetzt fragen sich ja viele, in welcher Geschwindigkeit wird das möglicherweise passieren?

00:50:26: Es ist jetzt die Woche ein Artikel viral gegangen oder sehr viel gelesen und geteilt worden von Matt Schumer.

00:50:33: Das ist ein Gründer aus dem Silicon Valley und der hat da getitelt einem Artikel oder einen Kommentar den er geschrieben hat.

00:50:42: Something big is happening in AI.

00:50:44: also es wird etwas Großes passiert da gerade and most people Es gibt diesen großen Digital Divide, der sich noch weiter vergrößert.

00:50:55: Jetzt fragt man sich bei diesem Kommentar natürlich ist es das typische Silicon Valley Big Drama?

00:51:06: Was da so zu sagen passiert?

00:51:08: Der beschreibt also gerade jetzt auch mit den Agenten dass es ganz viele Dinge schon gibt.

00:51:16: die sind natürlich nicht bei jedem von uns angekommen aber Sieht es schon im Silicon Valley teilweise, dass da ganz viel in ganz großer Geschwindigkeit jetzt passieren wird.

00:51:26: Und da würde mich auch deine Einschätzung interessieren.

00:51:30: also sprich über welche Zeiträume reden wir da möglicherweise?

00:51:36: Ja, ich glaube da wacke ich keine Prognose.

00:51:38: Weil das wurde immer wieder überholt.

00:51:40: aber gleichzeitig gibt's Sachen die seit Jahrzehnten versprochen wurden.

00:51:43: dann waren wir noch nicht klappen also autonomes Fahren ist ja auch noch nicht automatisch.

00:51:47: Man hat mal versprochen dass die Fußball-Weltmeister werden.

00:51:50: Roboter das hat man auch noch nie geschafft.

00:51:52: es hat man ja gesagt dass sie schon jetzt aber quasi als Fußball Weltmeister da sind.

00:51:58: das klappt ja noch nicht.

00:52:01: Also ich glaube was schon ... unglaublich schnell, hoffentlich passieren wird.

00:52:06: ist das in der Wissenschaft tatsächlich KI wirklich zu Erkenntnissen beiträchtigt.

00:52:12: Mein KI hat ja quasi so plattgesachten Nobelpreis gewonnen.

00:52:17: also Protein-Fightung war ein wahnsinniger Punkt.

00:52:19: Das ist ein problematisches Problem, weil man muss wissen wie Proteine sich falten und zu wissen, wie Stoff im Körper agieren.

00:52:27: Im Endeffekt ist das ein heiliger Ralf für Medizin um zu wissen was passiert im Körper?

00:52:32: Und das wurde ja quasi von diesem Alpha-Fold, was halt auch so einen tiefesten Euron als Letzt war, was auf Daten regnet, wurde quasi gelöst.

00:52:40: Von

00:52:40: Gouldi meint es jetzt

00:52:41: alles ... Genau, genau!

00:52:42: Das war damals wirklich ziemlich

00:52:43: beeindruckend, zu sehen, da war eine ganz alte Forscherin bei der Pressekonferenz die ihr lebt.

00:52:49: Ich glaube, seit fünfzehn Jahren hat sie die Probleme beforstet und dann hat ein KI von Google das einfach gelöst.

00:52:54: Und die war sehr gerührt, weil sie gesagt hat, allein es noch zu erleben ist, dass das Problem gelöst ist.

00:52:58: Das fand ich schon auch beeindruckend.

00:52:59: Man sieht, manche so ganz speziellen Nischen-Themen können KI schon viel bewegen, wobei die meint jetzt auch keine generative KI waren.

00:53:08: Es war echt auch diese alte in Anfangszeichen KI Maschinelles Lernen ...

00:53:13: Das ist so eine sehr komplexe Architektur.

00:53:17: Und das erste wurde generativ trainiert durch Mass-Sachen, also es sind mehrere Schritte ... Es hat tatsächlich anders als Chatbots oder auch agentische KI wie jetzt das Open Claw, hat das ein sehr klares Ziel gehabt.

00:53:33: Also da hatte ich eine sehr klare Aufgabe.

00:53:35: und bei Sachen wo man eine klare Aufgabe hat können in der Forschung was sein, macht den besten ... Entwurf für irgendein biologisches Experiment oder irgendeinen Krebs-Experiment, ich meine auch

00:53:50: Impffunk

00:53:50: ist ja im Forschung von Impfprodukten.

00:53:52: Ist ja auch ganz viel KI drin!

00:53:54: Da ist halt KI sehr gut weil sie Sachen sehr beschleunigen kann und da würde ich sagen werden wir ganz viel erleben.

00:54:01: also da wird kaum noch irgendwas sein wo KI nicht auch den Menschen hilft quasi mehr Erkenntnisse zu haben.

00:54:07: Aber so was wie, sag ich mal.

00:54:08: So eine Art Firmen-KI, also so ein Hell der in einer Firma das HR-Departement übernimmt, dass Heier und Fire und Performance messen?

00:54:19: Also ich denke wird sowas in einer absehbaren Zukunft kommen, dass halt Firmen sich KIs trainieren um einfach bestimmte Abteilungen effizienter...

00:54:33: zu

00:54:33: gestalten.

00:54:34: Da gibt es vielleicht nur noch einen Menschen und nicht mehr fünfzehn?

00:54:37: Das war ja schon so, dass eine Software zum Heiern von Microsoft aufgelegt wurde.

00:54:43: Es ist einer der Top AI-Failers offizierbar, die sehr gebiast war.

00:54:48: Also ich hoffe nicht ... Ich würde vermuten, dass einige Firmen das probieren.

00:54:54: Das Problem ist, es nennt sich sehr ill-Post.

00:54:56: Es ist nicht klar, was ein gutes Heiern ist oder ein gutes Feiern.

00:55:00: Also ich bin klar, wenn ein Protein gut gefaltet wird, weil das kann ich berechnen.

00:55:03: Da habe ich eine physikalische Formel, die sagt, das ist die Energie!

00:55:06: Oder wenn ich irgendwie ... Alpha-Go war ja auch eine Sache, wo man Go spielt.

00:55:11: Das ist ganz klar und spielte gut.

00:55:13: Aber es ist halt sehr schwierig sobald man in so sehr offenen Umgebungen interagiert mit Personen umgeht.

00:55:21: Und da ist das halt ... Da hoff ich, aber ich weiß nicht, dass immer noch der Mensch dabei bleibt weil eben da viel passieren kann.

00:55:30: Ich hab nicht ein Ziel.

00:55:31: Es wird mit Sicherheit benutzt werden Aber es gibt halt zumindest in der Europa gibt es da noch Limitation, wenn's Menschen betrifft.

00:55:40: Und bei es ist ...

00:55:41: Ist ja auch nicht schlecht

00:55:43: her.

00:55:45: Genau!

00:55:45: Die große Frage ist halt tatsächlich, wie kann man den Output überprüfen und kann das funktionieren?

00:55:49: Und da ist natürlich genau bei so einem rassistischen Bayer.

00:55:52: Der System ist zum Beispiel total schwierig, weil die Systeme ja sehr gut darin sind zu erklären warum sie was entschieden haben, was in der Regel nicht die echte Erklärung ist sondern halt dass es was wir hören wollen.

00:56:03: Zum Beispiel habe ich keinen rassisten Bayer, hier habt ihr einfach den besten potenziellen Mitarbeiter rausgesucht und das ist nur Zufall, dass er ein alter Mann weiß oder sowas in die Richtung oder ein junger Mann weiß.

00:56:12: also Das wird schon spannend, ob man solche Themen jemals lösen kann.

00:56:17: Und Barbara?

00:56:17: Was würdest du raten?

00:56:19: Also jetzt auch die Nahezukunft geschaut ... Du hast ja gesagt es lohnt sich und es ist absolut wichtig mit KI zu beschäftigen.

00:56:28: Mit dem was sie kann, was nicht kann, wie sie funktioniert.

00:56:33: Genau!

00:56:33: Was würdest du ratten?

00:56:34: Was sollen wir tun um uns, sagen wir mal, um da irgendwie... Kann man das sagen, mitzuhalten oder Schritt zu halten?

00:56:43: Also ich halte ja selber kaum mit.

00:56:45: Jedes Mal wenn ich neue Vorlesungen mache muss ich die komplett neu machen weil alles anders ist.

00:56:50: Das ist schon sehr schnell und ... Also, man sollte halt nicht immer im Kopf behalten.

00:56:56: KI ist auch keine Zauberrei.

00:56:58: Da sind ganz einfache Mechanismen dahinter und man kann schon verstehen was die Mechanismes sind.

00:57:03: dafür muss man auch kein tiefe Mathe können sondern so gewisse Sachen kann man einfach mitbekommen und wissen.

00:57:08: die haben Limitation und da sollte man ein bisschen wissen okay wo ist dann klar dass sie nicht komplett korrekt sind?

00:57:15: Man sollte ... Auf jeden Fall selber Selbstbewusstsein.

00:57:20: Also sagen der Mensch ist wichtig, wichtiger denn je und ich glaube es lohnt sich schon ein paar Sachen auszuprobieren aber auch nicht jedes letzte KI-Tool.

00:57:28: blind vertrauen also das gibt insbesondere auch europäische Produkte ja für LLMs teilweise Und selber denken ist wichtiger, Daniel würde ich sagen.

00:57:39: Das klingt ... Schlusswort?

00:57:41: Ja!

00:57:42: Das kann auch Hallibot nicht mehr toppen.

00:57:43: Das verwässern wir jetzt nicht mehr dabei bleiben.

00:57:47: Danke liebe Barbara für die Insights und den Willen von

00:57:51: uns.

00:57:51: Wir könnten noch viel weiter reden.

00:57:52: Ich denke, wir müssen einfach bei Gelegenheit nochmal reden.

00:57:55: Hat Spaß gemacht.

00:57:56: Vielen Dank.

00:57:57: Super.

00:57:57: Tschüss!

00:57:58: Macht's

00:57:58: besser, tschüss.

00:57:58: War total schön

00:57:59: mit euch.

00:58:05: Das war Lay Talk Tech, ein CT-Podcast von Svea Eckert und Eva Wolfange.

00:58:10: Musik und Produktion Marco Pauli.

00:58:12: Und euch vielen Dank fürs Zuhören.

00:58:14: bis bald!

00:58:15: Tschüss machts gut.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.