Designed to Hook: Plattformhaftung, Dopamin und das Ende des KI-Hypes?
Shownotes
Mit sechs Jahren YouTube, mit neun Instagram, mit 13 Körperdysmorphiestörung und Suizidgedanken. Das Kaley-Urteil gegen Meta und Google ist historisch: Erstmals verurteilte eine Jury Plattformen für ihr suchtmachendes Design. Svea und Eva nehmen auseinander, was das rechtlich bedeutet und was wir wissenschaftlich über Dopamin, Belohnungsschleifen und süchtig machendes Design wissen.
Zweites Thema: KI-Agenten. Eva hat tief recherchiert und ist skeptisch rausgekommen. Sie findet: Viele Probleme, die heute mit LLMs gelöst werden, brauchen schlicht kein Sprachmodell. Yann LeCun, Ex-AI-Chief-Scientist bei Meta, geht sogar weiter: Aktuelle KI versteht keine Konzepte und wird deshalb nie über ein bestimmtes Stadium hinauskommen. Und die ersten Risse im Hype werden sichtbar: OpenAI hat Sora eingestampft.
Von Svea Eckert und Eva Wolfangel.
Musik und Produktion: Marko Pauli.
“Kaley Urteil” bei Heise: https://www.heise.de/news/Prozess-um-Social-Media-Sucht-US-Jury-spricht-Meta-und-Google-schuldig-11224794.html
“Magnesium Studie” von Forschern des Helmholz-Zentrum Hereon: https://www.sciencedirect.com/science/article/pii/S0010938X2500407X
Zu Yann LeCun: https://the-decoder.de/yann-lecun-und-deepmind-forscher-streiten-ueber-llms-als-weg-zur-allgemeinen-intelligenz/
Transkript anzeigen
00:00:15:
00:00:16: Hallo und herzlich willkommen zu Dave Talk, Tech Einzité Podcast.
00:00:20: Schön, dass ihr dabei seid!
00:00:21: Ich bin Zverecke Tech Journaliste.
00:00:23: Ja schön euch hier am Hörer zu haben an der Box zu haben eben das ihr uns im Kopfhörer habt.
00:00:31: ja hier ist Eva Wolf-Angel ebenfalls Tech Journalistin.
00:00:34: wir wollen
00:00:35: diese Woche über ein historisches Urteil sprechen, was uns beide beschäftigt bewegt hat.
00:00:41: Nämlich ich nenn's mal so verknabbtes Kayley-Urteil gegen Meta, Google und
00:00:48: Co.,
00:00:48: das ist absolut historisch!
00:00:50: Und genau da wollen wir mit euch ein bisschen tiefer eintauchen.
00:00:55: Eva hat noch etwas mitgebracht zum Thema Warum ein Social Media so süchtig macht?
00:00:59: Da bin ich sehr gespannt darauf.
00:01:00: Ich gehöre ja zu denen Zu den
00:01:02: Armen.
00:01:03: Ja, vielleicht kann ich dir helfen... Aber tatsächlich das war ja das Thema des Gerichtsverfahrens, die süchtig machende Design von Social Media und ich finde tatsächlich total wichtig da nochmal genauer drauf zu schauen was man eigentlich weiß wissenschaftlich belegt über süchtige machende Designs und mir hat es wirklich geholfen, das nochmal genau anzuschauen auch in Bezug darauf wie man selbst die App auch mal zumachen kann und das Handy auch mal weglegen kann und man eigentlich etwas anderes machen möchte.
00:01:27: Da habe ich sogar einen Tipp für euch.
00:01:29: Aber gut, das verraten wir natürlich erst ganz
00:01:30: am Schluss.
00:01:34: Und als zweites Thema haben wir mitgebracht noch mal KI-Agenten und die Weltherrschaft Fragezeichen.
00:01:41: Eva ist da absolut nicht überzeugt davon!
00:01:45: Ja, da habe ich unter anderem für einen neuen Vortrag gemacht, der mich sehr tief reingekniet Sogar ich in meiner sehr kompromisslosen Haltung noch mal Ahaumente gehabt, die ich mit euch teilen möchte und du hast auch dazu recherchiert.
00:02:00: Das kommt im zweiten Teil.
00:02:01: Wird spannend!
00:02:05: Aber jetzt erstmal zu dem historischen Urteil.
00:02:09: Wir haben es eben gerade schon gesagt... Kelly Urteil in Anführungszeichen.
00:02:13: Kelly deshalb, weil es tatsächlich um eine junge Frau geht, die geklagt hat gemeinsam mit ihren Anwälten und die im Alter von sechs Jahren so wird das berichtet.
00:02:24: Sie selber ist tatsächlich nie aufgetreten im Gerichtsverfahren.
00:02:26: Ich habe auch gesagt Eva wie sieht sie denn aus?
00:02:29: Aber Eva du weißt es auch nicht.
00:02:30: Und der hat eben im Alter Von sechs Jahren YouTube angefangen zu nutzen und war dann mit neun Jahren auf Instagram aktiv hat ihr Therapeut, ihr eine Körperdysmorphe Störung sowie eine soziale Phobie attestiert.
00:02:47: Körperd dysmorpher Störung.
00:02:48: das ist tatsächlich wenn man zum Beispiel denkt ich bin total dick, aber man ist überhaupt nicht dick.
00:02:54: also wenn man sozusagen seinen Körper nicht mehr, wenn man sich im Spiegel anschaut und sein Körper eigentlich nicht mehr so sieht wie er eigentlich ist.
00:03:01: dazu kamen noch Suizidgedanken Angstzustände soziale Isolation Genau, bis zu sechzehn Stunden soll sehr für Instagram täglich gewesen sein.
00:03:10: Und ich glaube die war schon auch selbst vorgerichtet.
00:03:12: Ich glaub heute ist sie zwanzig.
00:03:14: Nur waren ... War das sehr verschlossen dieses ganze Verfahren der Öffentlichkeit gegenüber?
00:03:19: Es waren zugelassen nur ganz, ganz wenige Journalistinnen von den großen US-Unternehmen.
00:03:23: Ich weiß es, weil sich zu einem Prozester recherchiert habe als Mark Zuckerberg da ausgesagt hat.
00:03:28: War echt gar nicht so einfach daran zu kommen was eigentlich genau abgelaufen ist.
00:03:33: Genau trotzdem kam mit Informationen raus Und unter anderem, also genau dieses Dassi bis zu sechzehn Stunden am Tag auf Instagram war.
00:03:40: Das habe ich in der Recherche auch eben dann von anderen JournalistInnen gehört die da vor Ort waren hat mich schon bedrückt.
00:03:49: ja weil es natürlich so ist dass sich wenn junge Menschen so früh mit diesen Mechanismen konfrontiert werden die sicher wirklich nicht wehren können oder schwierig wehlen können.
00:04:01: Sieben Wochen hat die Verhandlung gedauert, Eva Dostos eben schon gesagt.
00:04:04: Zuckerberg musste persönlich aussagen zum ersten Mal vor einer Jury zum Thema Kinderschutz.
00:04:11: Also Zuckerberg selbst ist natürlich in unterschiedlichen Verfahren auch schon mal in den letzten Jahren vom US-Kongress z.B.
00:04:19: mal aufgetreten aber jetzt eben von der Jury und was dazu kamen waren ja so interne Dokumente.
00:04:25: also ich erinnere mich da an ein Metamemo etwas lautete Wenn wir mit den Teenagern, wenn wir da Zuwächse haben wollen, dann müssen wir eigentlich sozusagen noch viel früher anfangen.
00:04:46: Und das ist natürlich total entlarvend weil es eben darum ging nach außen steht der zwar Mindestalter drei zehn aber Nach dem Automan versucht natürlich schon, die Elfjährigen zu gewinnen.
00:04:58: Diese, diese, die Erb zu nutzen.
00:05:00: und da kommen wir jetzt gleich mal zu dieser... ganzen Frage rund auch noch mal so um Kinder, Jugendliche und suchtmachendes Design.
00:05:07: Und natürlich die Frage ist ob gerade Kinder und Jugendliche dann da besonders gefährdet sind für solche Designs?
00:05:13: Die eben einen dazu verleiten immer länger an der App zu hängen.
00:05:17: und ich war dazu hast du ja recherchiert.
00:05:19: also warum machen uns diese Apps so süchtig wenn nicht mal in Anführungszeichen sagen darf weil Süchtig selber ist ja schon ein Begriff eigentlich medizinischer Begriff
00:05:29: genau.
00:05:29: und ehrlich gesagt ist dieses ganze Diese ganze Diskussion ist, dass nun Sucht und Süchtig machen oder muss man es eigentlich anders nennen?
00:05:36: Geht vom Eingeschmack völlig am Thema vorbei.
00:05:38: Weil es ja am Ende egal wie's heißt aber wenn das so designet ist, daß man nicht mehr loskommt dann ist es ein Problem.
00:05:45: Und ob das nun genau welche Definitionen von Sucht entspricht ist eigentlich egal und ich glaube wir müssen echt aufpassen, dass wir uns nicht so ablenken lassen vom eigentlichem Thema durch dieses Ständige im Hintergrund was irgendjemand sagt Ja aber sucht is doch etwas anderes.
00:05:58: darum gehts nicht.
00:06:00: Ich habe da mit einem Kinderpsychiatr dazu einen Interview geführt, der sich tatsächlich mit Kindern und Jugendlichen beschäftigt hat die man gemeinhin als Computer süchtig bezeichnen würde.
00:06:12: Und er hat mir dann das so erklärt.
00:06:14: auch gesagt ja mit dem Suchtbegriff muss man immer ein bisschen vorsichtig sein weil er bestimmte Voraussetzungen erfüllt sein müssen in der Medizin bevor wir in der medizin den Sucht Begriff verwenden.
00:06:25: von so richtig krassen Fällen erzählt.
00:06:27: Also z.B.
00:06:28: von einem jungen Mädchen, was das Haus nicht verlassen konnte wenn sie nicht vom Spiegel, also hätte man sich live vom Spiegel geschminkt morgens und wenn sie eine gewisse Anzahl von Likes bekommen hat dann konnte sie ihn nicht aus dem Haus gehen.
00:06:40: Und er meinte, dass ist dann Sucht!
00:06:42: Das hat sie in ihrem Leben so beeinflusst, dass sie nicht mehr vor die Tür konnte, wenn ich diese Likes... da waren.
00:06:49: oder von jungen Menschen, die sich zum Computer spielen.
00:06:52: Zum Beispiel Windeln angezogen haben weil sie nicht mehr auf Toilette gehen wollten konnten.
00:06:57: Also dieser Suchtbegriff ist auf jeden Fall ... Damit ist dann nicht unbedingt das gemeint so wenn ich nicht vom Handy los komme.
00:07:04: aber du sagst wir müssen uns als Gesellschaft zumindest davon lösen.
00:07:08: was macht denn so süchtig an den Apps?
00:07:12: Diese Apps nutzen einen Mechanismus in unserem Gehirn aus und zwar wissentlich.
00:07:17: Das ist das Thema Dopamin.
00:07:19: Dopamin in Botenstoff im Gehirn, der auch Glückshormon genannt wird und dieser Botenstoff oder Dopamin an sich ist natürlich kein Problem weil dieser Stoff dazu führt dass wir Ja, motiviert sind.
00:07:33: Dass wir Dinge tun und jeden Tag aufstehen, dass wir lernen wollen auch.
00:07:37: Also Dopamin?
00:07:38: Beim Sport kenne ich das.
00:07:40: Das ist total ... Man merkt, wenn man Fahrrad fährt oder wenn man läuft, jeder der Sport macht erkennt es, dass man auf einmal das Gefühl hat, die Welt ist doch schön!
00:07:51: Immer mal über den Moment.
00:07:52: Das schmerzt es hinaus auf jeden Fall.
00:07:55: Genau, und das Ganze funktioniert so.
00:07:57: oder was heißt deswegen gibt es Dopamin?
00:07:59: Was weiß ich wie das ursprünglich angefangen hat.
00:08:00: ne aber so ist funktioniert es eben bei uns heutzutage.
00:08:03: du erledigst was und dann bekommst du einen kleinen Dopamin-Hit.
00:08:09: Aber eigentlich ist Dopamin auch und damit arbeitet eben Social Media die Erwartung auf diesen Dopaminhitt Die Erwartungen auf dass du was Besonderes gesehen hast, erlebt hast.
00:08:21: Also damit arbeitet Social Media und die haben das über die Jahre perfekt optimiert und zwar einfach deshalb weil sie ja in Echtzeiten messen können wie du reagierst auf welche Art von Reiz?
00:08:34: Und die haben letztlich einfach die Denken auch nicht über Dopaminen nach sondern was die gemacht haben ist halt es mit Ja, am Ende mit vielen A-B-Tests optimiert darauf wie das Nutzer möglichst lange online bleiben.
00:08:46: Indem sie dir immer das Gefühl geben gleich kommt dass wenn ich noch ein bisschen weiter scrollte dann kommt wieder was ja was mir dann so ein gutes gefühl gibt eine anführungszeichen also was dann zu einer Dokumina Ausschüttung führt und dadurch kommen Leute nicht mehr weg.
00:09:00: Also das ist der Hauptmechanismus.
00:09:03: Ich kenne das.
00:09:05: Wenn man zum Beispiel Reels anschaut, ob es auf TikTok ist oder Instagram, dann ist es ja tatsächlich nicht so, dass jedes Real- oder jedes YouTube-Short ein Hit ist.
00:09:16: Nicht bei jedem bricht man irgendwie in Lachen aus und nicht bei jedem wird man super gut informiert.
00:09:21: Sondern vielleicht sagen wir mal jedes Fünfte oder jedes Zehnte?
00:09:24: Aber das ist genau dieser Effekt, dieses ... wie so einen Goldgräber irgendwie.
00:09:31: Das ist der Slot Machine Mechanismus, das immer noch weiter macht.
00:09:37: Und wie gesagt ich denke das Ganze ist nicht so am Reisbrett Design nach dem Motto so wirkt die Dopamin.
00:09:42: dann müssen wir jetzt folgende Post dieser Nutzerin vorschlagen und es ist einfach optimiert auf dich und dein Verhalten angepasst wie man dich eben am längsten am Bildschirm oder im Handy hält.
00:09:52: Und das hat Zuckerberg übrigens auch im Gericht natürlich hatte gesagt, das stimmt nicht aber es wurden eben Gerichte auch E-Mails von ihm verlesen die genau das als lässt sich auch als Anweisung an die Leute und seine Mitarbeiterinnen und Mitarbeiter formuliert haben.
00:10:05: Das ist darum geht die Leute online zu halten.
00:10:07: Mal ganz konkret gefragt, welche Funktionen – also wenn wir jetzt gerade eben schon auf den Endlos-Feed über den habe ich grad gesprochen als Funktion der Plattform.
00:10:17: Was gibt es denn noch?
00:10:18: Also welche Funktionen spielen denn die größte Rolle?
00:10:21: Also diese unendliche Timeline ist schon die Hauptfunktion.
00:10:25: Wenn man das einmal sich bewusst macht, dann sieht man es natürlich auch in seinem eigenen Verhalten.
00:10:29: Dass du halt einfach ... Da kommt immer wieder was und du denkst immer, ja jetzt kommt bestimmt noch mal was Wichtiges, was Neues.
00:10:34: Und dass da immer Neues kommt kann ja auch quasi immer etwas Neues Spektakuläres dabei sein.
00:10:38: Das andere ist dieser Autoplaymechanismus.
00:10:40: Das habe ich mir lange nicht so klar gemacht.
00:10:42: also, dass du ... Du scrollst drüber aber die Videos laufen schon los ne?
00:10:45: Du siehst, da passiert irgendwas!
00:10:47: Und mein Eindruck ist, dass auch immer mehr Videos gestaltet sind, dass du denkst, okay dieses Video hat ja einen Grund warum es hier ist.
00:10:53: Wahrscheinlich kommt gleich noch das Spektakuläre und dann kommt ganz lange halt irgendwie nichts spektakulares.
00:10:58: Und auch das dringert sich dazu bei, dass du wartest und wartest und vielleicht da irgendwann enttäuscht bist und denkst ok, scroll mal weiter, vielleicht kommt doch nochmal ein Video was ein Hit ist usw.
00:11:07: Die habe ich persönlich schon lange abgeschalten.
00:11:09: Das ist also das Erste, was einem so einfällt.
00:11:10: Wenn man merkt, dass ich bin abgelenkt beim Arbeiten und muss mich wirklich konzentrieren, dass man Notifications ausschaltet – und das hilft natürlich auch schon viel!
00:11:18: Also das merk' ich wirklich, dass es schon viel hilft.
00:11:21: Das is natürlich ein anderer Mechanismus der viele junge Jugendliche dranhält, weil dann kriegen die irgendeine Nachricht von, keine Ahnung, jemand leigt meinen Beitrag oder... Und das ist natürlich dann jedes Mal ein kleiner Dopaminhit.
00:11:32: oder jemand hat mich erwähnt, ich muss natürlich gucken was es ist.
00:11:34: Oder auch einfach nur hier kommt etwas Spektakuläres Neues, was ich anschauen will.
00:11:38: Sag mal warum wirkenden soziale Medien besonders stark auf Kinder und Jugendliche so aus einer Art HIRN-Forschungsperspektive?
00:11:49: Weil das Gehirn noch nicht fertig ist und deshalb habe ich bei meinem Fellowship beim MIT gelernt da habe mich in Hirnforschungsvorlesungen und Kurse gesetzt, weil ich genau das interessant finde.
00:11:59: Und da war ich wirklich buff, weil wir gelernt haben dass dieser Präfrontale Cortex also der Teil im Gehirn der letztlich dir hilft deine Bedürfnisse auch zu regulieren oder dieser Belohnungsaufschub.
00:12:15: Da geht es ja ganz viel darum, also dieser Teil im Gehirn der Impulskontrolle vernunft auch ... Der ist erst mit Ende zwanzig fertig ausgebildet.
00:12:24: Also wirklich!
00:12:24: Ende Zwanzig?
00:12:25: Da bist du schon zehn Jahre lang erwachsen im Zweifel.
00:12:28: Das heißt vor dem Gesetz bist du vernünftig oder voll zurechnungsfähig oder wie auch immer.
00:12:32: aber de facto und das hat unsere Dozentin unter anderem gesagt deswegen gibt es viele Unfälle, zum Beispiel in diesem Alter.
00:12:40: Da jungen Leute dürfen Autofahren ... Ja oder halt.
00:12:42: Man bremst sich selbst noch nicht so.
00:12:45: Das war sehr witzig!
00:12:46: Es klingt fast so als wenn man schön zufrieden wäre.
00:12:48: Dieser Teil vom Gehirn, der bremste einen dann nicht so... Ist eben noch nicht ganz ausgebildet ne?
00:12:52: Und dadurch sind die Menschen in dem Alter noch zu viel riskanteren Verhalten auch bereit weil halt die Vernunft plattgesagt noch nie so stark ist und nicht so stark ausgebiltet ist.
00:13:03: Und sag mal jetzt wissen wir ja dass wenn bestimmte Verhaltensweisen einüben, also Dinge sozusagen wie so Art Routinen werden.
00:13:12: Dass die auch unser Gehirn verändern.
00:13:15: Also ich erinnere mich, Eva, wir haben ja auch meine Folge dazu gemacht wo wir das über ... Wo wir gesprochen haben über diese Plastizität und also diese Nervenbahn, die sich dann verbinden oder die ja sozusagen immer zusammen feuern, ja?
00:13:28: Die Synapsen.
00:13:31: Mal ganz konkret gefragt auf Social Media Bezogen verändert das, das Gehirn?
00:13:37: Ja und es ist ja eigentlich auch nicht überraschend.
00:13:39: Also ich hab's gibt erste Studien die das auch belegen zumindest nahe legen dass eben sich Netzwerke im Gehirnt verändern die soziale Belohnung oder emotionale Bedeutungen und kognitiven Kontrolle also genau diese Kontrolle die man ja so ein bisschen dadurch verliert dass die damit verbunden sind.
00:13:58: natürlich ich meine unser Gehirnen verändert sich ständig gibt's ja immer wieder Beispiele auch dafür weil wir natürlich und uns auch entwickeln, weil unsere Gesellschaft Innovationen entwickelt.
00:14:08: Zum Beispiel als es als Handy noch ganz neu waren, haben Leute gezeigt ... die Region im Gehirn, die den Daumen steuert.
00:14:14: Wenn man auf dem Display sich fortbewegt und auch am Tasten drückt ... Natürlich weil dann diese Bewegung öfter gebraucht wird.
00:14:21: es muss nicht unbedingt ein Problem sein aber man muss sich eben darauf bewusst sein dass sich das Gehirnt tatsächlich verändert und natürlich auch... Und so lernen wir am Ende ne?
00:14:30: Das ist nicht immer schlecht Gehirnenveränderungen Aber so lernen wie halt auch Diese Reaktion Immer weiter zu scrollen Zu glauben, zu hoffen Auf dieses nächste Highlight.
00:14:42: Es ist halt auch eine Gewöhnung daran, sich dieses Dopamin-Hits auf diese Weise zu holen.
00:14:48: Obwohl es natürlich ... Also erstens anders geht und eventuell auch langfristig befriedigender ist.
00:14:54: Mir hat ein Interviewpartner gesagt, vielleicht ist es besser oder befriediger für dich wenn du eine kleine Aufgabe erledigst und dann in Dopamine bekommst als ... Und das wissen wir alle, ne?
00:15:04: Als dieses endlose Skrollen und irgendwann aufzuwachen und zu merken Mist und ich hätte eigentlich meine Arbeit machen müssen und ich bin nicht so weit wie ich vorhatte.
00:15:13: Ich frag mich tatsächlich schon ob jetzt die ganze Generation im Prinzip ein verändertes Gehirn hat.
00:15:20: Also kann man das so hart sagen, weil ich meine es geht jetzt nicht nur um Social Media, ich denke Dopamin-Hits haben wir zum Beispiel auch ganz extrem bei Computerspielen also nicht bei allen aber bei Einigen die ja auch genauso ausgelegt sind, die eben vielleicht keine schöne Narrationen haben, keine Geschichte haben, die sich über eine längere Zeit entwickelt.
00:15:39: Das gleiche Thema haben wir auch ja bei den ganzen Kurzvideos, die überall sind, dass Videos immer kürzer werden müssen.
00:15:47: Schnitte immer schneller müssen also verändern.
00:15:51: wir anfingstechen uns da
00:15:54: Ja wobei ich wirklich glaube das muss nicht nur schlecht sein.
00:15:58: aber wenn wir feststellen Wir sind unzufrieden damit was wir ja aktuell immer wieder tun.
00:16:03: Also das geht uns oder euch wahrscheinlich genau so, dass man sich zu leicht ablenken lässt von dem was man eigentlich tun will und dann ist man am Ende des Tages unzufrieden.
00:16:11: Dann kann man eben – und das ist das Gute – dann kann man natürlich auch eingreifen ja?
00:16:14: Und da kann man auch diese Veränderung versuchen zu stoppen und zum Beispiel umzudrehen also das Gehirn auch dran zu gewöhnen oder die entsprechende Verbindung zu stärken.
00:16:25: Ja und es ist ja auch so ne dass es glücklich macht, zumindest ein Stück weit.
00:16:30: Wenn man die Dinge erledigt, die man sich vorgenommen hat.
00:16:32: Das ist ja also die ganze Geschichte davon und auch von Motivation am Ende.
00:16:35: Ich habe mal vor vielen Jahren dazu geschrieben wie man die Arbeit in kleine Häppchen einteilen kann um sie besser erledigt zu bekommen, um halt sich selbst regelmäßig so kleine Dopaminhits zu verschaffen.
00:16:49: Weil wenn man eine riesige Aufgabe vor sich liegt hat – das geht mir regelmäßig durch!
00:16:52: Ich habe eine riesigere Scherche gemacht und habe dann irgendwie hunderte Seitenprotokollen und Interviews und sonst was.
00:16:57: Und da muss man es anfangen aufzuschreiben….
00:17:00: Das ist so erschlagend, weil nämlich das Erfolgserlebnis soweit in der Zukunft ist.
00:17:03: Dass es noch nicht wirkt und es gibt so eine ganze Forschung zu ... Wie sagt man?
00:17:09: Mikrotisieren von Erfolg also dass man eben die Arbeit den kleinen Häppchen eilteilt um dann regelmäßig was abschließen zu können und diesen kleinen Dopamine zu bekommen.
00:17:18: Und wenn man das weiß und sich da so ein bisschen drüber nachdenkt, vielleicht versucht den Alltag oder die eigene Arbeit entsprechend zu strukturieren.
00:17:26: Finde ich es auch eine total schöne gute Nachricht, dass wir diesen Effekt in unserem Gehirn und diesen Mechanismen auch wirklich nutzen können für das Gute, für das was wir wirklich wollen.
00:17:38: Können wir denn den Umgang mit Social Media lernen?
00:17:41: Also können wir einfach besser werden?
00:17:46: Also ich glaube, es erfordert schon anstrengend.
00:17:48: Weil natürlich das immer schneller und einfacher ist diesen Dopamin-Hit auf Social Media zu suchen weil jetzt natürlich so optimiert ist darauf uns zu fangen und uns das zu geben was das Gehirn möchte als wäre das Gehör nicht irgendwie auf unserer Seite ist.
00:18:01: aber Wenn man sich das bewusst macht, kann man mit kleinen Maßnahmen schon was verändern.
00:18:06: Zum Beispiel allein das Handy nicht im Blickweite zu haben wenn du eigentlich etwas anderes machen möchtest.
00:18:12: Das ist wirklich effektiv und es gibt auch Studien die genau solche Effekte zeigen.
00:18:16: Ich habe mich viel beschäftigt mit der Frage Social Media und Jugendliche und Lernen und Schule usw.
00:18:23: Und da gibt's Studien die zeigen alleine, wenn das Handy in Sichtweite von Kindern in der Schule Dann können die sich besser konzentrieren.
00:18:33: Ich bin überzeugt, das finde ich auch total intuitiv.
00:18:36: Das hilft ja!
00:18:36: Weil wir uns natürlich unser Gehirn auch darauf geeignet ist, Dinge im Blick zu haben.
00:18:40: immer so alles.
00:18:41: dann blinken die Handys noch, dass sie nur irgendwie nögen.
00:18:43: Der Tigger,
00:18:44: der Nöge, derselbe Santeria in Boucher... Ich habe gelesen, dass es tatsächlich sogar soweit geht, dass ich kenne, dass im Café oder vielleicht eine Kantine man hat immer sein Handy auf dem Tisch liegen und das ist eine Unruhe verursacht in einem Gespräch wenn das Handy umgedreht auf nem Tisch liegt.
00:19:01: Ja, weil es einfach da ist.
00:19:03: Weil du weißt, dein Gehirn weiß... Da könnte jetzt was Neues entstehen.
00:19:08: Und was man hingegen sinnvollerweise tun kann, also das ist schon natürlich ein bisschen etwas, wo man sich anstrengen muss und das Gehirne wieder auch ein bisschen trainieren und sich klar eine Umstellung, die Gewohnheiten umstellen.
00:19:18: Das dauert seine Zeit aber es geht und das ist ja die gute Nachricht.
00:19:21: Also was du machen kannst zum Beispiel dir hast gehst deinen Arbeit an.
00:19:24: Also in meinem Fall immer ist es meistens ein Artikel schreiben oder einen Vortrag vorbereiten wie das sich anfühlt, wenn du es geschafft hast.
00:19:33: Du machst dir richtig möglichst bildhaft in deinem Gehirn, wie es wäre, das geschafft zu haben.
00:19:37: und wie gesagt, wenn der Schritt so groß ist, dann machst du kleine Zwischentritte keine Ahnung.
00:19:40: ich mache jetzt die ersten zwei Slides oder ich mache mal eine Struktur Ich setze mir dieses Pomodoro Timing was ewig, ne?
00:19:48: Was ja auch immer wieder gesagt wird dass es helfen soll.
00:19:51: Das ist das fünf-zwanzig oder?
00:19:53: Genau zwanzig Minuten konzentrieren so ungefähr.
00:19:56: Ich glaube da muss man nicht allzu streng sein aber es ist sinnvoll das tatsächlich ein Wecker zu stellen, also sich so Häppchen zu machen.
00:20:02: Ich mache jetzt zwanzig Minuten.
00:20:03: nur diese eine Aufgabe und alles andere was mir derzeit einfällt schreibe ich meinetwegen schnell auf den Zettel sodass das Gehirn sagen kann okay weil das ist nicht die Falle die ich oft habe ich muss mich konzentrieren dann fallen wir all die Sachen eigentlich auch noch machen muss diese E-Mail auch schnell schreiben und oh das hab' ich noch vergessen.
00:20:17: und diese Rechnung und so dass alle wirklich wegschieben aufschreiben zwanzighinuten nur eine Sache machen dann fünf Minuten Pause und das ist ja auch so einen Effekt.
00:20:24: ne du hast dann zwanziv Minuten danach hast du diese zwanzi minuten geschafft.
00:20:28: ob es weiter.
00:20:28: Das ist dann schon so ein kleiner Erfolg.
00:20:32: Ich glaube, das Konsequenz zu machen, ist zwar erst mal natürlich auch anstrengend aber es ist ein Weg damit umzugehen.
00:20:40: Eine App die mir sehr ganz gut geholfen hat, auch gegen meine persönliche Social-Media-Sucht, würde ich's mal nennen, anzutreten.
00:20:49: Die heißt Be Present!
00:20:51: Ich hab' die in der Kosten-Dos-Variante... Also man kann Geld für ausgeben und
00:20:55: da musst du Werbung anschauen oder?
00:20:57: Getestet.
00:20:58: Nee, man kann da nicht so ... Die hat dann nicht alle Funktionen.
00:21:01: Also die hat ganz viele Funktion und ich hab's jetzt erst mal in der kostenlosen Basic-Version.
00:21:08: Und das ist eigentlich ziemlich simpel.
00:21:10: Man kann einfach damit Apps blocken.
00:21:12: So ein bisschen wie eine Bildschirmzeit-Sperre.
00:21:16: Nur es ist ein bisschen schöner und hübscher designt.
00:21:19: Da habe ich das ausprobiert bei mir mit Instagram, dass ich mir das einstelle fünfmal am Tag zehn Minuten.
00:21:26: was ich schon eigentlich relativ viel finde, also wenn man sich das mal vorstellt.
00:21:29: Fünfzig Minuten auf Instagram zu sein?
00:21:32: Hallo!
00:21:32: Also ich meine, was kann man in fünfzig Minuten alles Cooles machen?
00:21:35: Aber ich dachte mir gut... Ich bin immer großzügig sozusagen.
00:21:38: Du
00:21:38: musst ja langsam deine Sucht abbauen sozusagen.
00:21:40: Ja
00:21:40: genau und dachte mir jetzt mal nicht so schnell.
00:21:44: So zweimal zehn Minuten, einmal morgens, einmal abends auch so.
00:21:46: Dachte die ich nicht zu schnell.
00:21:48: Und ich muss ganz ehrlich sagen, also ich habe so in den ersten drei Wochen hab' ich die App quasi immer ausgeschaltet.
00:21:55: Also man kann schieten, also natürlich kann man da auch schieten und kann mit über sechs Klicken hier dreimal klicken.
00:22:02: Da kann diese App durch einige Umwege kann man das dann ausschalten um doch sozusagen an sein Suchtmittel zu kommen.
00:22:09: aber
00:22:10: Tatsächlich so nach ungefähr zwei, drei Wochen hat das angefangen zu funktionieren und es gibt natürlich dann auch einen Streak.
00:22:17: Also das heißt, dass ist einmal geschafft, das ist zweimal geschaffen, also dass die App dann zählt... Das
00:22:22: sind Gamification dabei?
00:22:23: Aber ja sowas funktioniert tatsächlich!
00:22:25: Es hat
00:22:26: geholfen.
00:22:27: Ich bin dann von sozusagen fünf mal zehn Minuten.
00:22:30: jetzt bin ich gerade auf viermal zehn Minuten.
00:22:32: Ja cool!
00:22:33: Und ich kann die App empfehlen.
00:22:36: Es gibt sich ja noch ähnliche vergleichbare Apps aber Ich sehe das auch so.
00:22:42: Und da sehe ich vor allem Kinder und Jugendliche, oder in dem Fall Eltern in der Verantwortung ihre Kinder und die Jugendlichen darin zu unterstützen.
00:22:52: Weil ich sehe wie schwer es an mir selbst ist.
00:22:55: Ich bin eine erwachsene Frau, die sich seit mindestens fünfzehn Jahren mit dem Thema beschäftigt.
00:23:00: Vielleicht noch einmal kurz zum Abschluss?
00:23:03: Das haben wir nämlich noch gar nicht gesagt.
00:23:05: Also Meta und Google, in dem Fall YouTube müssen insgesamt drei Millionen Dollar Schadener Satz bezahlen also Metatrack davon siebzig Prozent Youtube dreißig Prozent und zusätzlich gab es nochmal einen Strafschaden Ersatz.
00:23:22: die Jury befand Meter und Google hätten mit Böswilligkeit oder Betrug gehandelt.
00:23:26: also insgesamt geht es um sechs Millionen Dollar und die Konzerne haben, aber angekündigt in Berufung zu gehen.
00:23:36: Also einmal der Vollständigkeit halbar Meter sagt die also die Mental Health von Teenagern.
00:23:43: seid zu komplex um sie irgendwie eine einzelne App zuzuschreiben und Google hat gesagt das Urteil würde YouTube missverstehen.
00:23:52: Also von daher ist es noch nicht durch.
00:23:54: Ja, falsch verstanden soll sich doch gar nicht süchtig werden oder was?
00:23:58: Also es ist auch
00:24:00: nicht durch!
00:24:00: Aber trotzdem... Ich hab schon Änderungsrat sich was verändert.
00:24:03: Das war so ein bisschen meine Beobachtung, dass ich die gesellschaftliche Debatte gerade auch veränderte und es klarer wird, das ist, was wir nicht möchten.
00:24:16: Selbst wenn Instagram vielleicht nicht die einzige App ist, die dazu führt, dass ihr abgelenkt seid ... Man gehirnt gern selber und mit anderen Sachen ab natürlich.
00:24:25: Auch mit der E-Mail, die noch geschrieben werden muss oder dem Plan für morgen.
00:24:29: So gezielt auf diese Mechanismen abzuziehen und zu versuchen, unsere Aufmerksamkeit zu kapern.
00:24:35: Das macht halt doch nur Social Media!
00:24:37: Und ich sehe gerade so ein bisschen gesellschaftlichen Wandel darin das auch zu sehen zu verurteilen.
00:24:43: Und lange, glaube ich war gerade in den USA ja dieses Ding.
00:24:47: naja jeder kann doch machen was er möchte und wir haben die große Freiheit.
00:24:50: und rund um den Prozess gab es ja auch so Proteste von Eltern die teilweise sogar Kinder verloren haben weil sie sagen sich Social Media Challenges angeschlossen oder eben Depressionen bekommen haben von Social Media die da immer wieder kommen und auch Bilderhochheiten von ihren Kindern und so.
00:25:03: und da habe Da hat Mark Zuckerberg so langsam, also zumindest den Kampf um die Bilder verloren.
00:25:09: Also Meta steht da schon im Zwischen ziemlich eindeutig als ein Unternehmen da was nicht gut meint ja, was Schaden der Gesellschaft schadenzufügt und von daher bin ich optimistisch dass sich solche Prozesse häufen werden.
00:25:23: das ist für uns.
00:25:24: interessant ist auch die Regulierung Da klarer und strenger wird, dass wir solche Sachen auch mehr durchsetzen.
00:25:32: Dass wir uns im Zweifel nicht einschüttern lassen von Drohungen aus den USA wenn wir unsere europäischen Gesetze durchsetzten.
00:25:41: Noch ein kleines Detail dazu.
00:25:44: Kelly Fall ist der erste von knapp zweitausendfundfhundert Klägerinnen und Klägern, die jetzt in einem koordinierten Verfahren in Süd-Kalifornien ebenfalls klagen wollen.
00:25:56: Also das heißt dieser Fall war jetzt sozusagen ein Testfall also wie eine Jury auf diese Argumente reagiert und es ist genau so wie du sagst Eva.
00:26:07: Es könnte tatsächlich der Anfang einer Welle sein Der Anfang von dem, dass sich auch in den USA was tut.
00:26:12: Was ich schon sehr spannend finde, weil ich halt jetzt all die Jahre über viele Auftritte von Mark Zuckerberg berichtet.
00:26:22: Ja also das war immer so dieses Jahr es tut mir leid.
00:26:25: Also dieser Gang nach Canossa, den er da alle Jahre angetreten hat und der aber gefühlt sich zumindest in den
00:26:31: U.S.,
00:26:33: einfach der Gefühl irgendwie nichts verändert hat da so in diese Richtung geht, das finde ich ... Ja.
00:26:41: Das find ich sehr spannend und auf jeden Fall dort ist es ja einmal schon gesagt eine Folge Big Tobacco Moment.
00:26:47: Das sehe ich ganz genau so.
00:26:48: also es kann gut sein.
00:26:49: Also das Pendel schwingt gerade in die andere Richtung.
00:27:00: Das Pendeln schwingen in die anderen Richtungen ist vielleicht eigentlich ein super Übergang.
00:27:04: Stimmt.
00:27:06: Beziehungsweise in diesem Thema würde ich fast sagen, es schwingt hin und her.
00:27:10: Es ist ja derzeit ziemlich awoke und ziemlich modern über KI-Agenten zu sprechen und sich gegenseitig zu fragen wie viele Agenten hast du schon am Laufen?
00:27:21: Und wer tut jetzt für dich deine Arbeit?
00:27:23: Wer macht dies für dich?
00:27:25: Wer läuft im Hintergrund und erledigt dies und das?
00:27:29: Ich habe keinen Ablaufen.
00:27:31: War's?
00:27:31: Das ist eine sehr, sehr kritische Einstellung dazu und ich jetzt gerade nach der Renter-Human-Geschichte nochmal erneut in die Agenten-Recherche gestürzt.
00:27:45: Genau!
00:27:45: Und zwar hab' ich letzte Woche einen Vortrag gehabt auf einer Konferenz von Computerlinguisten und Linguistinnen also Diese Menschen, die ich auch schon seit vielen Jahren im Interview übrigens, die sich um maschinelle Sprache erzeugen können.
00:27:58: Die eigentlich ganz am Anfang dieser ganzen Geschichte standen um Chatbots.
00:28:02: Also sie ist schon immer daran glauben oder daran arbeiten Maschinen zu bauen und die Sprache zu erzeugten können.
00:28:08: Das erscheint uns ja jetzt total absurd weil es gibt ja einfach Chatbotz und so.
00:28:11: Und da habe ich nochmal... also die haben mich gefragt ob ich so eine Keynote halten kann auf ihrer Konferenz mit diesem Big Picture wie Ich habe es dann genannt in the world according to words, weil das ist ja die große Frage.
00:28:22: Was kann man eigentlich?
00:28:23: Was können Systeme, künstliche Intelligenz und so maschnelles Lernen auch über die Welt lernen?
00:28:29: nur auf der Basis von Sprache und inzwischen natürlich auch Bildern?
00:28:34: aber so dass ist ja das.
00:28:35: was hinter großen Sprachmodellen und Chatbots liegt ist quasi Trainingsdaten des gesamten Internet.
00:28:41: Es gibt ja schon lange diese Diskussion, schon ewig genau genommen.
00:28:43: Und natürlich hat sie hochs und tiefs ob das allein ausreicht um ein Verständnis der Welt zu entwickeln oder überhaupt Verständnis, also verstehen und wirkliches Denken natürlich nicht.
00:28:55: Die nächste Frage ist sowieso natürlich was machen wir Menschen anders?
00:28:57: Aber kann das ausreichen um Verständnissen von Physik zum Beispiel zu entwickeln?
00:29:02: Und das habe ich jetzt halt in dieser ganzen Diskussion, also Rente Human ging es ja darum dass sich gesagt habe irgendwie das Luke und Trug und da bleibe ich auch die Plattform ist ein Scam oder einen Betrug.
00:29:13: aber Und dann haben Leute immer gesagt, ja gut diese Plattform ist ein Betrug.
00:29:17: Aber das kommt natürlich jetzt schon bald dass wir KI-Agenten haben die dann alles für uns erledigen und auch in der... Bezug auf diese ganze Debatte um ein paar Studien jetzt, die zusammenfassen.
00:29:28: Was alles schiefgeht mit KI-Agenden steht da oben ganz vorne dran weil das natürlich auch unsäglich schlecht und unsicher ist aber halt auch sehr viele Menschen dazu gebracht hat.
00:29:37: KI-Agenten ausprobieren ganz viel Schaden anzurichten, insbesondere bei ihren eigenen E-Mails und Servern die sie verloren haben gelöscht haben.
00:29:43: Und es zu wollen sind durchaus lustige Geschichten.
00:29:46: dabei ist ja mein Reden immer.
00:29:48: Das liegt daran, dass diese KI-Agenda das gar nicht besser können und dann kommen immer Leute und sagen nein, da sind wir doch dran ein bisschen mehr Daten und dies und das.
00:29:56: Und dann kann man es noch damit verknüpfen.
00:29:58: Dann wird das wunderbar.
00:29:59: Es ist mir nochmal so klar geworden jetzt als ich mich mit diesen Vortrag vorbereitet habe, dass das Quatsch ist.
00:30:04: Das Problem ist die Grundlage auf der diese ganzen Systeme beruhen nämlich auf der Basis von ganz großen Mengen an Sprachdaten das wahrscheinlichste nächste Wort oder nächsten Token vorherzusagen.
00:30:17: auch von KI-Agenten.
00:30:20: Und das habe ich in diesem Vortrag noch mal so richtig nachvollzogen, nach meinem Geschmack nicht dazu führen kann zu verständen ist – auch wenn und das fand ich auch nochmal in der Recherche spannend und es habe ich ja immer wieder mal aufgeschrieben – beeindruckender Eloquenz führt und auch zu teilweise beeindruckendem scheinbaren Verständnis von Zusammenhängen.
00:30:44: Immer, wenn es sich Leute wirklich systematisch und genau angeschaut haben – also Forscherinnen und Forscher – kam raus, dass dieses scheinbare Verständnissen von Physik eben doch nur ein scheinbares Verständes war oder von Zusammenhängen, ne?
00:30:55: Weil da hat immer diese Fails ….
00:30:56: Und das sieht man jetzt mit KIA gerne.
00:30:57: ja auch, die Fails, die halt davon zeugen, dass die Kontext nicht verstehen und nicht verstehen was sie eigentlich machen.
00:31:04: Wobei ... Also ich hab jetzt Gerade kürze ich auch noch mal ein Interview geführt mit einem KI-Wissenschaftler vom Helmholtz Zentrum.
00:31:14: Und was die gemacht haben, ist zum Beispiel den Nutzen KI wenn dann auch für so Industrieanwendung oder für Materialwissenschaft.
00:31:22: und da würdest du ja eigentlich sagen wie kann denn bitte an large language model bei zb Magnesium Legierungen helfen?
00:31:31: Also, da geht es dann um sowas wie okay wir brauchen ein Material für eine Schraube und die braucht dir und die Forschsetzung damit die Sohn solange hält nicht kropodiert oder so was.
00:31:43: Und die haben dann einen Test gemacht gibt's auch ein Paper dazu wo sie den testgemacht haben?
00:31:49: weil Sie haben sozusagen früher diese Legierungen vorhergesagt Ich würde sagen, mit herkömmlicher künstlicher Intelligenz schon auch.
00:31:56: Nicht mit Lutsch-Language-Modellen.
00:31:58: Aber wo sie sozusagen Eigenschaften von den Metallen reingegeben haben und Daten aus Versuchsreien reingegieben haben.
00:32:07: Sehr kompliziert aufwendig vorhergesagt um das dann wiederum in Testreihen zu testen.
00:32:14: So eine Legierung wie lange braucht es?
00:32:16: Dass die sich z.B.
00:32:17: auflöst, wie schnell korridiert die?
00:32:20: Und dann haben sie eigentlich eher aus so einer Adyux-Idee gesagt, ja komm?
00:32:26: schmeißen wir doch die gleiche Fragestellung mal in ein herkömmliches Large Language Model rein oder in unterschiedliche also Stichwort wirklich so Chat GPT Cloud.
00:32:35: Also was man so kennt und die Ergebnisse waren sogar besser.
00:32:40: Die Vorhersagen für die Legierungen waren besser als die, die sich vorher mit ihrer herkömmlichen KI getroffen haben.
00:32:50: Das hat die Wissenschaftler total überrascht, weil sie damit überhaupt nicht gerechnet hatten, weil Sie gedacht hatten okay das ist ein Sprachmodell.
00:32:58: Dann haben sie gedacht, okay das liegt wahrscheinlich daran.
00:33:02: Dass die irgendwie anhand von Daten das gelernt haben und quasi das einfach aus ihrer Erinnerung, sag ich mal einen Einführungszeichen holen und es dann also wiedergeben.
00:33:12: aber Sie konnten das dann nochmal nachvollziehen?
00:33:14: Und das war nicht der Fall!
00:33:17: Das war auf jeden Fall ein interessantes Ergebnis.
00:33:18: wo Sie gesagt haben da haben wir gesehen, dass solche großen Sprachmodelle auch in anderen Kontexten durchaus interessante Ergebnisse erzielen können, die gar nicht so was mit reiner Textgenerierung zu tun haben.
00:33:32: Ich fand das auch sehr überraschend.
00:33:34: Witzigerweise finde ich es nicht überrascht und das klingt vielleicht ein bisschen anmaßend weil ich ja überhaupt keine Forscherin bin in Materialforschung oder sowas.
00:33:40: aber wenn man sich überlegt wie sie funktionieren natürlich haben die vielleicht nicht genau dieses Ergebnis in den Trainingsdaten aber natürlich haben ganz viele Zusammenhänge in ihren Trainingsdaten, einfach in Texten.
00:33:50: In Materialforschung, Dinge die aufgeschrieben worden sind.
00:33:54: Ähnlich übrigens ... Ich hab vor Kurzem jemandem angeschrieben, der eine seltene Krankheit hatte oder dem es nicht gut ging und niemand konnte ihm helfen.
00:34:02: Und dann hat er das lange mit ChatGPT besprochen.
00:34:05: Dann hat ChatGAPT irgendwann eine Medikamente gefördert, was ganz andere Symptome behandeln sollte aber geholfen hat.
00:34:12: Das ist ja so ne ähnliche Geschichte.
00:34:13: Man denkt, woher kommt dieses Wissen?
00:34:16: dadurch dass sie eben diese massenhaften Sprachdaten haben.
00:34:19: Und Mustererkennung ist genau das, was KI wirklich gut kann.
00:34:23: Das sind natürlich dann vielleicht ein sehr spezifisches Muster, was irgendwo in einer Studie mal war und in der anderen Studie eine, die dazu noch eine spannende Ergänzung liefert.
00:34:33: Also dass Sie diese Muster erkennen, das glaube ich sofort!
00:34:37: Das Problem ist nur, dass du natürlich nie als Mensch dich drauf verlassen kannst ne?
00:34:41: Weil es kann dass die geniale Lösung sein wird, dieses eine Problem.
00:34:45: Aber es kann beim nächsten Mal eben auch eine Alicenation sein.
00:34:48: Also irgendwas was Zusammenhänge, die halt nicht wirklich da sind und das... Das
00:34:52: hat nicht deterministisch.
00:34:54: Du kannst dich nicht drauf verlassen und daran werden diese Systeme immer scheitern.
00:35:02: natürlich kann man jetzt noch so Pflaster drauf kleben.
00:35:05: Nee ich finde mal muss ich halt fragen für was setzt man's ein?
00:35:08: Und brauche ich das?
00:35:10: also wenn ich jetzt nochmal um bei diesem Forschungsbeispiel zu bleiben, wenn es mir jetzt darum geht eine Legierung rauszufinden.
00:35:17: Wo ich sage okay, ich habe einen sagen wir mal fast unendlich großen Raum der Möglichkeiten und ich will diesen Möglichkeit-Raum reduzieren damit ich meine Versuche ein bisschen effizienter durchführen kann.
00:35:27: oder Herstellung von Farben wie ich ne Farbe zusammenstelle und mir geht's irgendwie drum.
00:35:32: statt hundert Versuche hätte ich gern dreißig als nur so aus der Luft gegriffen und dann zu sagen ok da wird niemand dran sterben Da wird auch nicht alle Fotos gelöscht oder sozusagen, da öffnet sich dann irgendwie meine Haustür um jetzt mal so wild alle Mückchen Anwendungsfälle für solche Agenten rauszuzaubern.
00:35:54: Dann denke ich ist es genau absolut die Frage okay für was können wir, für was wollen wir?
00:36:01: Können wir KI- oder auch Agenten einsetzen?
00:36:04: Aber auch selbst dafür könnte es eine schlankere Lösung geben, Anführungszeichen.
00:36:07: Also da erscheint mir das ein bisschen wie so der Holzhammer dann dafür in large language models zu nutzen um ja mutmaßlich Daten zu durchsuchen die irgendwo schon liegen und neue also darin muss dazu erkennen.
00:36:20: Ich finde schon dieser Hype um large language Models führt dazu dass ganz viele Probleme gelöst werden.
00:36:26: oder wenn man das sucht Dinge zu lösen, mit Sprachmodellen die eigentlich das nicht brauchen.
00:36:32: Wo es eigentlich sinnvoller wäre nochmal in Ruhe drüber nachzudenken.
00:36:35: wie kann man denn dem Problem sonst zu Leiberücken?
00:36:37: Was wär jetzt also so?
00:36:38: eine klassische... Klassisches prädektives Modellmaschinen-Lernens, also das was früher KI hieß.
00:36:45: Früher Bevor ChatGPT irgendwie auf einmal das Synonym für KI gewesen ist, könnte zum Beispiel damit weniger Ressourcenverbrauch und einfach viel weniger Aufwand oder dadurch auch günstiger zu Ergebnissen führen ist.
00:36:55: Und es gibt ja auch solche Beispiele aus der Prä-LLM Zeit wo solche Systeme Dinge gefunden haben.
00:37:03: Denkt an AlphaGo zum Beispiel!
00:37:05: Ja, ich glaube man ist gut beraten das im Zweifel halt auszuprobieren und zu gucken okay wie jetzt in dem Beispiel von den Forschern und halt zu gucken wir haben jetzt da ein neues Tool.
00:37:18: bringt uns das weiter als unsere anderen herkömmlichen Tools.
00:37:22: Und dann aber auch zu verstehen genau warum bringt uns es weiter?
00:37:27: Was ist der Mechanismus dahinter?
00:37:30: Ich glaube, langfristig ist es halt wichtig zu entscheiden, wo rein investieren wir unsere Energie.
00:37:34: Womit verschwenden wir unsere Energien am Ende auch?
00:37:37: Und da habe ich den Eindruck, dass dieser Hype um Large Language Models und Chatbots dazu führt... Ja wie so?
00:37:43: Menschen, die das alles besser können...
00:37:44: Das Ressort sind falsch eingesetzt!
00:37:45: ...die das Menschen den Kopf verlieren und gar nicht mehr nachdenken und an andere Lösungen denken.
00:37:49: Und das fand ich jetzt also in der aktuellen Recherche hab' ich mich ein bisschen damit beschäftigt.
00:37:52: Gibt es denn andere Ansätze, vielleicht ein bisschen mehr Verständnis führen können.
00:37:57: Ich weiß, man soll nicht verstehen oder Verständnissen sagen weil es vermenschlichend ist aber gibt es Ansätze die logischerweise auf einem bisschen direkteren Weg zu dazu führen dass sich Systeme den Kontext erkennen oder sinnvoller funktionieren.
00:38:13: Über diesen riesigen Umweg, man nimmt einfach das ganze Internet schmeißes rein und braucht endlos viel Energie um diese Antwort zu generieren.
00:38:18: Man braucht dann noch mal viel Energie, um Systeme zu bauen die die Antworten sieben und vielleicht dann auch diese Regeln.
00:38:23: Da braucht man doch Ausbeutung irgendwo in Kenia Menschen, die dann Reinforcement Learning machen müssen und die schlimmen Ergebnisse aussortieren müssten.
00:38:30: also dieses Ganze wenn man sich so mal antwort ist es eigentlich total absurd was für Probleme damit teilweise gelöst werden?
00:38:37: Und ich habe da ein bisschen geguckt Sonst für Ansätze.
00:38:39: Und ich finde es ganz spannend, Jan Likun der XAI Chief Scientist von META hat er gekündigt unter anderem weil er sagt wir sind an einer Grenze erreicht, Lars Schwenkelschmolz oder generative KI ist nicht die Lösung und der hat gerade so ein Startup in Paris eröffnet dafür auch sehr viel Geld bekommen.
00:38:55: natürlich man der ist ein sehr kluge auch sehr berühmter Mann und er sagt eben wir brauchen Systeme die nicht mehr auf Pixel Ebene lernen Dinge auf Pixel-Ebene anschauen oder die Konzepte verstehen.
00:39:04: Das ist was, was ich immer wieder gehört hab von Forscherinnen, die sich damit beschäftigt haben.
00:39:08: Was fehlt eigentlich?
00:39:10: Oder warum versagt KI ... Die aktuelle KI an manchen Aufgaben so ... kläglich die Menschen eigentlich relativ leicht fallen.
00:39:19: und einen Grund, den halt viele benennen ist ihm das sie kein Verständnis für Konzepte haben sondern eben immer auf dieser Pixel-Ebene schauen.
00:39:27: Wie auch immer Jan die Kundeslös ist ein bisschen dass es technisch ziemlich komplex.
00:39:30: aber er will und deswegen nicht tiefer einsteigen.
00:39:32: können wir ihn an der Mar machen und vielleicht nachdem ich ihn gesprochen habe das habe ich nur viel dazu gelesen wie erst machen möchte ist genau als er hat eine Idee wie er das anfangen möchte ist völlig unglaublich funktioniert.
00:39:44: aber ich finde die Analyse Das finde ich sehr schlau, diese Systeme können keine Konzepte verstehen.
00:39:49: Die werden immer auf der Pixel-Ebene Probleme betrachten und deshalb werden sie nicht über ein bestimmtes Stadium hinauskommen.
00:39:58: Dann kommen wir vielleicht zu systemen, die das Ganze ein bisschen direkter angehen und eben nicht mit diesem Holz haben.
00:40:02: Man schlägt einmal drauf und benutzt alles was man hat in die gesamte Energie und das gesamte Internet.
00:40:07: Das ist nicht immer nötig!
00:40:08: Ja...
00:40:09: Mit Kanonen aufspatzen oder es dann auch am Ende sehr teuer?
00:40:13: Genau.
00:40:14: Im Moment zahlen wir es ja eigentlich noch gar nicht, weil wir da das ganze Adventure-Manitren haben in den Modellen.
00:40:20: Und wenn wir es zahlen müssten würden wir es wahrscheinlich nicht mehr benutzen.
00:40:23: und ich finde man sieht ... Wir hatten diese schöne Folge mit Friederike Kalkhäuener.
00:40:26: zur Frage ist KI eine Blase?
00:40:28: Ich höre da wirklich nochmal rein, weil das gilt immer noch und ich habe den Eindruck, man sieht vielleicht inzwischen so allererste sanfte Zeichen dafür dass es eng wird.
00:40:36: also Open Air hat jetzt zum Beispiel Sora wieder geschlossen, diese genau VideoKI klar, weil sie halt doch nicht unendlich viel Geld haben.
00:40:44: Also ich habe das Gefühl so langsam kommt vielleicht die ersten Anzeichen dass Sie doch nicht endlos weitermachen können auf die Ahr.
00:40:52: Das bleibt spannend!
00:40:54: Ja und damit sind wir am Ende von unserer Folge für diese Woche.
00:40:58: Wir haben uns sehr gefreut, dass ihr reingehört habt.
00:41:01: Ihr könnt uns richtig helfen wenn ihr unseren Podcast abonniert oder uns auch mal ein paar Sterne gebt in eurer Podcast App.
00:41:08: Wenn ihr ihn weiterleitet Ja und klar, wenn ihr Fragen habt dann könnt ihr uns natürlich erreichen.
00:41:14: Ja schreibt es doch auf Social Media!
00:41:15: Wenn ihr nicht gerade mit eurem Pomodoro-Timer euch konzentrieren müsst... Ich lass mich wirklich gerne ablenken vom Arbeiten auf Mastodon.
00:41:25: Aber auch das, also auch Mastudon schalte ich oft einfach stumm.
00:41:27: Das heißt er wassert nicht sofort eine Antwort.
00:41:29: aber da schaue ich regelmäßig und antworte in der Regel auch und freue mich wirklich darüber.
00:41:32: viele euren Hinweise Ideen Kritik gerne auch wirklich Kritik und Wünsche für künftige Folgen.
00:41:40: Ähnlich ist das auch linked in ... Es wäre viel auf Instagram.
00:41:44: Oder nicht mehr so viel, wir haben gehört viermal am Tag, zwanzig Minuten?
00:41:47: Also guck, dass ihr die Zeitfenster erwischt, wann sie da ist!
00:41:51: Und ja... Wir werden diese aber priorisiert für euch benutzen.
00:41:57: Ja und damit erst mal frohe Ostern.
00:41:58: Schönes Eierwurden.
00:42:00: Schöne Feiertage macht's gut.
00:42:03: Das war the Talk Tech NCT-Podcast von Eva Wolf Angel.
00:42:09: Es wäre eckend.
00:42:10: Musik und Produktion Marco Pauli.
Neuer Kommentar