Die OpenAI-Studie erklärt – Wie 700 Millionen Menschen ChatGPT wirklich nutzen (sollten)
Shownotes
Show Notes
In dieser Folge nehmen wir euch mit auf eine Reise durch die OpenAI-Studie "How People Use ChatGPT". 18 Milliarden Messages pro Woche, 700 Millionen Nutzende – aber nutzen wir ChatGPT wirklich richtig? Spoiler: Meistens nicht.
Barbara und Jochen diskutieren, warum 70% der Nutzung privat ist, was es bedeutet, dass 19% aller Anfragen "Getting Information" sind, und warum das Auswärtige Amt doch wichtiger sein sollte als die Antwort eines harmoniesüchtigen, psychopathischen Praktikanten.
Von technischen Limitierungen über Memory-Funktionen bis hin zu tragischen Fällen bei Character AI – diese Folge liefert den Kontext, den du brauchst, um LLMs wirklich zu verstehen.
⚠️ Triggerwarnung / Content Warning: Diese Episode behandelt sensible Themen wie Suizid, mentale Gesundheitskrisen und problematische Abhängigkeiten von KI-Chatbots. Wir besprechen tragische Fälle im Zusammenhang mit Character AI und ChatGPT. Wenn dich diese Themen belasten, überspringe bitte die Kapitel ab 00:24:18 oder höre die Folge in Begleitung einer Vertrauensperson.
Wichtige Hilfsangebote bei Krisen:
- Telefonseelsorge: 0800 111 0111 oder 0800 111 0222 (24/7, kostenfrei)
- Nummer gegen Kummer (für Jugendliche): 116 111
- Online-Beratung: www.telefonseelsorge.de
Die wichtigsten Takeaways:
- 70% private Nutzung, aber der Gender AI Adaptation Gap ist geschlossen
- ChatGPT als Berater für jede Lebenslage – wo Hilfe endet und Abhängigkeit beginnt
- Non-deterministisches System bedeutet: Wahrscheinlichkeit statt Wahrheit
- Memory-Funktion vs. Projektverwaltung – warum du die Finger von ersterem lassen solltest
- Websuche mit LLMs ist komplizierter als gedacht
- Brain First – erst denken, dann prompten, dann handeln
Kapitel-Marken
00:00:00 Begrüßung und Themeneinführung 00:02:40 Die OpenAI-Studie "How People Use ChatGPT" - Kontext und Einordnung 00:04:10 Hauptergebnisse: 70% private Nutzung und Gender AI Adaptation Gap 00:07:43 User Intent-Kategorien: Asking, Doing und Expressing 00:10:38 ChatGPT als Informationsquelle und Berater - Ein kritischer Blick 00:13:29 Praxisbeispiel: Pflegestufen-Recherche und die Grenzen von LLMs 00:18:01 Die Gefahr der Overreliance - Wenn ChatGPT wichtiger wird als das Auswärtige Amt 00:20:27 Anthropomorphisierung und Beziehungsmodus - Warum wir KI vermenschlichen 00:22:35 Marketing, Vertrauen und die hilfreiche Persönlichkeit von Chatbots 00:24:18 Character AI und tragische Fälle - Die dunkle Seite der KI-Nutzung ⚠️ 00:26:13 Chatbot-Girlfriends und Reddit-Narrative - Ein Blick in die Subkulturen 00:29:17 Konsumentenmarkt vs. professionelle Nutzung - Wichtige Unterschiede 00:32:29 Memory-Funktion bei ChatGPT und Claude - Fluch oder Segen? 00:36:28 Projektverwaltung statt Memory - Praktische Empfehlungen für die Nutzung 00:38:29 Warum wir diesen Podcast machen - Demokratisierung braucht Sachverstand 00:41:28 Die überhilfreiche Persönlichkeit von LLMs - Confirmation Bias durch Design 00:43:54 Suizidprävention und KI - Wichtige Hilfsangebote ⚠️ 00:49:24 Technische Limitierungen erklärt - Was ist ein Large Language Model? 00:51:14 Non-deterministisches System und Wahrscheinlichkeitsrechnung 00:53:51 Deterministisch vs. Non-deterministisch - Der Unterschied erklärt 00:54:46 Context Window und Token-Limitierung - Warum lange Chats problematisch sind 00:56:56 Websuche und LLMs - Wenn ChatGPT Lieschen Müller zitiert statt der EU-Kommission 01:00:58 Training Cutoff-Date - Was LLMs nicht wissen können 01:02:32 Cutoff-Date erklärt - Das Haltbarkeitsdatum der Trainingsdaten 01:03:36 Verabschiedung und Ausblick auf kommende Themen
Links und Quellen
Studie:
- OpenAI Studie "How People Use ChatGPT" (Duke University & Harvard University, September 2025) https://cdn.openai.com/pdf/a253471f-8260-40c6-a2cc-aa93fe9f142e/economic-research-chatgpt-usage-paper.pdf
Berichterstattung zu tragischen Fällen:
- New York Times Artikel zu Suizid-Fällen im Zusammenhang mit KI-Chatbots - https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein Entrinnen!
- [Apple] https://podcasts.apple.com/podcast/id1798319508
- [Deezer] https://www.deezer.com/de/show/1001665971
- [Spotify] https://open.spotify.com/show/2IfqJA4Qo02fslECWpEQW8
- [Amazon Music] https://music.amazon.de/podcasts/497c3a14-dcaf-4bb3-abc1-03aa6f73f8d3/laier-8-9---noch'n-ki-podcast
- [Youtube Video-Podcast] https://www.youtube.com/@laier89
Unsere Hosts AI Babsi (Barbara): [Website] https://www.barbara-lampl.de | [LinkedIn] https://www.linkedin.com/in/barbaralampl/ E-Fuchs (Jochen): [Website] https://efuchs.net | [LinkedIn] https://www.linkedin.com/in/jochengfuchs/
Unser Podcast Blog https://www.laier89.de/
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.
Transkript anzeigen
Jochen G. Fuchs (Der E-Fuchs): Hallo und herzlich willkommen zu einer neuen Folge deines KI-Lieblingspodcasts. Hallo Barbara!
Barbara Lampl: Hallo Jochen. Der Moment, wo wir mal ganz extra nah ans Mikrofon rutschen.
Jochen G. Fuchs (Der E-Fuchs): Genau, ans Mikrofon rutschen. Was machen wir eigentlich nochmal für einen Podcast?
Barbara Lampl: Wir machen einen KI-Podcast und heute haben wir uns ein besonders schönes Thema ausgesucht. Wir schauen uns an, wie 700 Millionen Nutzende KI nutzen. Genauer gesagt, eine nicht gerade kleine Teilgruppe von ChatGPT-Nutzenden.
Jochen G. Fuchs (Der E-Fuchs): Ja, da ist nämlich eine Studie aufgetaucht, die den Namen "How People Use ChatGPT" trägt. Ich gucke da gerade in den Kopf rein. An erster Stelle steht OpenAI, danach folgt bei den Zuordnungen der Autoren die Duke University und dann die Harvard University. Wir Journalisten neigen dazu, wenn wir so eine Studie verarbeiten, erst mal kurz den Kontext einzusortieren. Woher kommt das Ding? Wie viele haben teilgenommen? Und wie unabhängig ist das? Für mich sieht das erst mal gut aus.
Barbara Lampl: Das ist völlig in Ordnung. In dem Fall hat es natürlich Sinn und Zweck, dass OpenAI da steht, weil ohne die hätten wir die Nutzungsdaten nicht. Genau. In dem Fall die von ChatGPT. Das Ganze gibt euch einen Einblick. Die Studie ist Mitte/Ende September 2025 rausgekommen. Wir verlinken sie natürlich unten. Sie bezieht sich auf die Nutzungszahlen rund um Juli 2025, sodass es ein relativ guter Update zur aktuellen Lage ist. In der Introduction steht gleich: Bis Juli 2025 waren es 18 Milliarden Messages, die jede Woche bei 700 Millionen Nutzenden über die ChatGPT-Server gejagt wurden. Das ist von der Adaptionsrate unheard of. Deswegen ist es sicherlich interessant zu sehen, wie die Menschen es wirklich nutzen. Ich glaube, ein paar Sachen passen zu unseren anekdotischen Beobachtungen aus unserer großen Stichprobe. Es gibt auch ein paar interessante Highlights und gute Sachen, die man diskutieren könnte. Deswegen nehmen wir euch heute auf die Reise durch diese Studie mit.
Jochen G. Fuchs (Der E-Fuchs): Ja, definitiv. Aus diesem Nutzungsverhalten lassen sich zwei große Aspekte ableiten, wenn ich das mit zwei Kategorien überschreiben müsste. Das eine ist die gesellschaftliche Seite: Wie verändert sich unser Alltag, unser Umgang mit Informationen und unser Umgang mit KI? Die andere Seite ist der wirtschaftliche Aspekt. Wie verändert sich das Ökosystem, das sich da bildet? OpenAI ist ein sehr starker Indikator dafür, in welche Richtung es geht. Sie möchten ihr eigenes Ökosystem in alle Richtungen bauen und in alle Richtungen Geld verdienen, sowohl im B2B-Bereich als auch im B2C-Bereich. Im B2C-Bereich sehe ich im Moment starke Tendenzen, zusätzliche Erlösströme aufzutun, weil man mit dem Kerngeschäft – also Token verbrennen – nur Geld verbrennt im B2C-Bereich. Dementsprechend müssen sie Kohle reinholen. So viel zur Einordnung, warum das wichtig und interessant ist, wie die Leute ChatGPT nutzen. Was steckt denn da so drin in dieser Studie, Barbara? Wie könnte man sie überschreiben?
Barbara Lampl: Zuallererst müssen wir das einordnen: 70% aller Anfragen, die aktuell über ChatGPT laufen, sind eher privater Natur, nicht work-related, also nicht arbeitsbezogen. Das war früher bei um die 50%, jetzt sind wir bei 70% non-work stuff. Achtung, das müssen wir gleich einordnen, aber das ist sicherlich ein interessanter Aspekt. Die erste Einordnung: Diese Nutzenauswertungen laufen über drei Varianten vom Produkt ChatGPT – den Free Plan, den Plus (diese 20-Dollar-Nummer) und den Pro Plan, der um die 200 Dollar liegt. Es sind keine Enterprise Accounts drin, keine Teams Accounts, keine Education Accounts. Deswegen ist es mehr: Was wissen wir von diesen drei bezahlten kleinen Plänen? Der Anteil an den bezahlten Plänen in dieser Kategorie ist relativ klein. Das heißt, wir müssen das einordnen als: Wozu wird dominant das Gratis-Tool benutzt? Damit ergeben die 70 Prozent Nicht-Arbeitsnutzung noch viel mehr Sinn. ChatGPT wird weniger für Code und Co. genutzt. Ja, Surprise, Surprise, weil du da meistens auf spezialisierte Modelle läufst und nicht in ChatGPT arbeitest, wenn du Code schreiben willst, sei es mit Claude Code oder sonstigen Sachen. Das ist wichtig zum Einordnen. Wir kriegen einen guten Einblick in den Konsumentenmarkt und nicht komplett in den "Wie nutzt die Welt ChatGPT"-Markt. Das haben sie in der Studie so nicht gemacht. Das ist vielleicht der einzige Asterix, wenn man ein bisschen rumnäckeln möchte. Das ist aber nicht tragisch, weil soweit sollte die eigene Denkleistung noch reichen. Das ist so das erste Takeaway. Ein großes Takeaway ist auch das Gender AI Adaptation Gap, weil einfach am Anfang der Story Frauen es massiv weniger genutzt haben. Jetzt haben wir Ketchup gespielt. Wenn wir uns die private Nutzung anschauen, die 70 Prozent ausmacht, dann sind wir im Consumer-Bereich jetzt bei 52 Prozent von Frauen, die es nutzen. Das ist schon mal ein guter Schritt nach vorne. Wir sind quasi auf Parität hochgekommen. Interessant ist auch, dass wir eine erhöhte nutzende Variante, was viel mit den Freeplans zusammenhängt, in Ländern mit niedrigeren Durchschnittseinkommen sehen. Auch das ist ein interessanter Takeaway. Der Gender Gap ist in der dominant kostenlosen Nutzung raus, und Länder mit unterdurchschnittlichem oder geringerem Einkommen haben eine höhere ChatGPT-Nutzung. Das sind sehr positive Takeaways, was eine Demokratisierung einer Technologie angeht.
Jochen G. Fuchs (Der E-Fuchs): Okay, das klingt schon mal ganz gut. Der Gender Gap schließt sich, und es tun sich keine Informationslücken auf. Man sieht, okay, alle trauen sich an die Technologie ran. Aber was machen sie denn jetzt damit? Was haben sie festgestellt in der Studie?
Barbara Lampl: Vielleicht ganz wichtig: Es werden die Daten verglichen von Juni 2024 zu Juni 2025, damit ihr eine Idee bekommt. Das ist etwas, was OpenAI jährlich aktuell durchführt. Das ist nicht die erste Studie, sondern das Update aus den Zahlen von Juni 2024. Sie teilen das Ganze in drei große Gruppen ein, um zu unterscheiden, wer was wofür tut. Das ist aufgeteilt in klassische Topics, aber auch in User Intent und so weiter. Es gibt drei Intent-Kategorien, in die sie unterscheiden. Der Intent ist etwas, was wir immer wieder versuchen herauszufinden, wenn Menschen mit KI interagieren. Der User-Intent, weil wenn ich weiß, was der User- oder Consumer-Intent ist, kann ich auch Prompts beziehungsweise Antworten besser strukturieren. Das ist eine ganz einfache Intent-Classification. In dem Fall: Asking, Doing und Expressing. Asking ist alles rund ums Thema: Ich stelle Fragen. Ich möchte bessere Informationen haben, bessere Entscheidungen treffen. Das fällt alles in die Kategorie Consumer Intent, User Intent Asking. Doing ist alles, was in die Kategorie fällt: Schreibe mal, mach mal diesen Code. Überarbeite diese E-Mail. Das fällt in den Intent Doing rein. Expressing ist dann quasi alles, was in die anderen beiden nicht reinfällt. Ein bisschen mehr Kreativität und so weiter, um euch eine Idee zu geben. 49% aller Intent-Kategorisierungen sind Asking. Doing sind 40 Prozent. Und 11 Prozent sind Expressing. Wir sehen dominant Asking und Doing, und dieses Expressing – mehr kreativitätstechnisch – ist eher sehr klein verankert. Damit sieht man gut: Die meisten wollen Fragen beantwortet haben und Sachen überarbeitet haben. Da kommen wir dann zu dieser großen Übersicht, wo wir beide mal kurz einatmen und ausatmen mussten und uns fragen: Finden wir das gut oder schlecht? Es gibt einen detaillierten Breakdown: 19,3 Prozent ist Getting Information.
Jochen G. Fuchs (Der E-Fuchs): Also, der größte Anwendungsfall ist: Ich wende mich an die KI als Berater. Ich hole mir Informationen.
Barbara Lampl: Ja, als Berater, als Informationsgeber, als Google-Ersatz. Man weiß es nicht so genau, aber okay, ich brauche wohl Infos, und mein Go-To-Mechanismus ist dann ChatGPT. Der höchste Wert sind mit 19% Getting Information, der nächste ist erst bei 13%. Da frage ich mich schon so ein bisschen: Finde ich das gut, dass hier ein probabilistisches Token-Modellchen für Informationsnutzung benutzt wird? Weiß ich noch nicht so genau.
Jochen G. Fuchs (Der E-Fuchs): Ich überlege gerade, wie das Ding heißt. Es gab – der taucht auch in irgendeinem 90er-Jahre-Film auf – Zoltan. Zoltan hieß das Ding. Das ist ein Automat, so ein Jahrmarktsautomat. Das ist ein Glaskasten, in dem ein orientalisch anmutender Oberkörper sitzt. Das ist Zoltan, und Zoltan kannst du Rat fragen. Du schmeißt ein Geldstück rein, und Zoltan schmeißt eine kleine Papierkarte raus, auf der eine Lebensweisheit steht, an die du dich bitte halten sollst.
Barbara Lampl: Das taucht nicht nur im Film auf. Das ist basierend auf einer wahren Geschichte und nennt sich der Mechanical Turk. Diese gab es wirklich. Sie heißen Mechanical Turk. Warum Turk? Weil der Rest der Welt damals das so interpretiert hat: So sehen Türken aus. Also bitte – das ist der historische Begriff. Don't come for us. Ja, es hat schon so ein bisschen was. Wenn wir uns die nächsten Punkte anschauen: Getting Information 19 Prozent. 13 Prozent ist, dass ich Interpretationshilfe brauche – was die Informationen, die mir andere zur Verfügung gestellt haben, bedeuten könnten. Kurzum: Jochen schreibt mir eine E-Mail. Ich baller die in ChatGPT rein und frage mich: Was will mir der Jochen sagen? Mit dem dritthöchsten wird es dann Documenting and Recording Information. Okay, das kann man noch relativ gut nachvollziehen. Aber auf Platz vier mit 9% ist Providing Consultation and Advice to Others. Wenn wir das alles zusammennehmen, dann sind wir bei: ChatGPT als Berater für jede Lebenslage.
Jochen G. Fuchs (Der E-Fuchs): Ja, du wirst lachen. Ich kann da sogar ein Beispiel aus meiner eigenen Welt liefern. Wir saßen neulich hier, meine Frau und ich, und haben fürs familiäre Umfeld etwas zum Thema Pflegestufen recherchiert. Wir sind zum ersten Mal damit in Berührung gekommen und wussten: Okay, wir brauchen ein Formular und noch ein Formular für das Formular. Und wie heißt der ganze Mist?
Barbara Lampl: Das Formular für das Formular in diesem Bereich ist wirklich sehr ausgeprägt, das stimmt.
Jochen G. Fuchs (Der E-Fuchs): Und wie heißt der Mist überhaupt? Nach was muss ich suchen? Wie sieht der Prozess aus? Der erste Weg führte mich nicht zu ChatGPT, weil meine persönliche Beziehung zu ChatGPT doch sehr begrenzt ist. Ich wende mich lieber an Claude, der ist mir sympathischer. Er spuckte dann etwas aus, und ich habe mir das angeguckt und dachte: Okay, ein paar Sachen passen nicht so ganz. Betreuungsvollmacht kann es nicht sein, weil hier wird niemand in einen Betreuungsstatus übergehen. Wir wollen ja bloß eine Pflegestufe. Das Ding muss anders heißen, wahrscheinlich eher in die Richtung Vorsorgevollmacht oder so was. Da hat Claude nicht sehr differenziert, sondern hat das alles zusammen ausgespuckt. Ich musste mir das Ganze angucken. Ich habe gesagt: Okay, jetzt schau ich mir lieber selber noch auf der Webseite vom Justizministerium nach, schau bei der Krankenkasse nach. Die haben jeder für sich den Prozess und die Bedeutung von den einzelnen Vollmachten nochmal erklärt. Dann habe ich langsam durchgeblickt.
Barbara Lampl: Genau. Aber das ist genau das, wo ich denke: Okay, das macht für mich wahnsinnig viel Sinn. Da kann ich einen Haken dransetzen. In diesem großen Themenfeld "KI als Berater", wenn du den Prozess so machst – du sitzt manchmal davor, und dann ist genau das Problem: Wie heißt denn der Krampf eigentlich? Neues Thema, du hast dich noch nie damit beschäftigt, du kannst also gar nicht Google benutzen, weil dir fehlen komplett die Worte. Besonders bei Bürokratie oder sonstigen Sachen. Ich finde KI als Berater echt wahnsinnig hilfreich, weil wenn ich nicht weiß, nach was ich suchen soll oder wie ich weiter denken soll, und dann diesen nächsten Step zu machen – okay, jetzt habe ich so eine erste Idee, und jetzt wechsle ich zum Beispiel in solide Quellen der Krankenkassen oder des Justizministeriums – dann macht das ja total Sinn. Das ist auch einer der Sachen, wo ich immer wieder sage: Ja, natürlich, tut das. Nur dieser Schritt zwei – und das sehe ich immer wieder, auch anekdotisch von vielen Leuten überliefert, und in meiner Wahrnehmung auch bei den Zahlen – passiert Schritt zwei noch? Gehe ich ins kritische Denken hinein? Gehe ich den Schritt zurück? Verifiziere ich jetzt diese Dinge, die mir da ausgespuckt wurden, oder mache ich das nicht? Da denke ich mir: Das könnte dann die Gefahr sein. Freunde von mir – Shoutout zu Tania Laub, könnt ihr auf LinkedIn auch folgen, vielleicht findet ihr den Post noch – die war auf einer Konzertreise, ist ein richtiger Tote-Hosen-Fan, und da ging es um: Brauche ich jetzt für die UK eigentlich ein Visa, ja oder nein? ChatGPT spuckt aus: Nein. Jetzt lassen wir uns mal alle raten: Das Auswärtige Amt sagt natürlich ja, weil wir brauchen ja, weil Brexit und so. Aber anstatt zu sagen "Okay, ChatGPT hat mich falsch abbiegen lassen", war es: "Nee, nee, ChatGPT hat recht, und das Auswärtige Amt hat nicht recht." Also sorry, warum soll das Auswärtige Amt nicht recht haben? Das ist das, was ich so bedenklich finde. Dieser erste Move – du hast das Ding dabei, und vielleicht, warum nicht als Erstes fragen – aber die nachfolgenden Schritte. Und dann sagt mir das Auswärtige Amt: "Nee, du brauchst ein Visa", aber dann sage ich: "Nee, ChatGPT hat recht." Das finde ich ein bisschen schräg. Das ist diese Gefahr, die ich sehe in so einer Overreliance, in so einer Abhängigkeit. Klar, die Seite des Auswärtigen Amts fühlt sich lange nicht so nett und cozy an wie ChatGPT, der mir hier einen erzählt. Wo wir schon merken, dass diese Wahrnehmung in eine andere Richtung geht.
Jochen G. Fuchs (Der E-Fuchs): Ja, offensichtlich scheinen viele Menschen eher zu denken: Das ist eine künstliche Intelligenz, die kann sich nicht irren. Wohingegen der Mensch – noch dazu ein Beamter, die ja in unserer Witzkultur sowieso schon die Witzfiguren schlechthin sind – der muss offensichtlich Informationen falsch auf die Webseite gesetzt haben.
Barbara Lampl: Genau. Der muss morgens sieben aufgewacht sein und denken: "Heute ist ein guter Tag. Ich glaube, mit dem Brexit killen wir mal jetzt die Visa-Freiheit." Nee, Kinder, so ist es nicht. Genau das ist das, wo ich so ein bisschen auf diesen bedenklichen Punkt sehe. Warum ich schon nicht mag, dass es im Deutschen "Künstliche Intelligenz" heißt – Artificial Intelligence hat eine andere Definition als das deutsche "Künstliche Intelligenz". Davon haben wir ja schon diverse Schleifen gedreht. Aber dieses "Naja, nicht selber denken, es nicht als diesen ersten Schritt nehmen und dann vielleicht noch 25 weitere Schritte gehen" – und dann werde ich auch immer gefragt: "Ja, findest du jetzt gut oder schlecht, dass KI als Berater?" Meine erste Variante ist: Aber mal ernsthaft, ist es doch auch ein Ausdruck über unsere Gesellschaft – wen soll ich denn fragen? Wenn ich mir angucke, wie die Leben der meisten Menschen ist und sind: Wen sollen die denn sonst fragen als vielleicht eine KI? Das kann im Zweifelsfall vielleicht sogar noch der bessere Rat sein, als wenn du Günther, den komischen Nachbarn, befragst. Ich kann das völlig nachvollziehen. Nochmal, nicht nur nachvollziehen – ich tue das auch, besonders bei Themengebieten, solchen Sachen. Oder wenn du sagst: Ich weiß überhaupt gar nicht, wo ich anfangen soll, ich brauche mal so eine erste Idee. Natürlich ist komprimiertes Weltwissen im LLM eine super Anlaufstelle. Aber danach kommen Schritt zwei und drei.
Jochen G. Fuchs (Der E-Fuchs): Ja, und vor allen Dingen: Ich meine, dass Günther – Günther in Ehren – nebenan nicht unbedingt die höchstwahrscheinlich richtige Antwort liefert, was ein LLM voraussichtlich tun wird, also die höchstwahrscheinlich wahrscheinlichste Antwort liefern wird, ist relativ klar. Es ist halt nur so: Wenn man wüsste, dass man vor Zoltan steht, sieht man relativ klar, was Sache ist bei der komischen Puppe hinter dem Glas.
Barbara Lampl: Ja, das haben die damals auch nicht. Also ich erzähle immer wieder: Wenn du dir überlegst, dass Weizenbaum damals Eliza gebaut hat, der allererste Chatbot, der ja damals noch Chatterbot hieß. Das wurde – ich kann mich jetzt als Frau ein bisschen rausreden, weil das wurde nur mit männlichen Stanford-Psychologie-Studenten getestet, weil es gab ungefähr keine Frauen. Was passierte: Die haben gedacht, sie würden mit einem Menschen reden, und der Turing-Test musste 1966 angepasst werden, weil ansonsten wäre das erste Mal der Turing-Test bestanden gewesen – mit einem super trivialen, regelbasierten Chatbot. Der Mechanical Turk war damals genauso. Wow, Magic! Das Ding kann alles. Ich weiß gar nicht – das mögen wir Menschen. Wenn es sich nach Mensch anfühlt und nach Mensch klingt, dann schaltet unser Hirn in Beziehungsmodus, und dann ist das ein Problem. Das siehst du ja auch an diesen ganzen: Die Leute sagen Bitte und Danke. Und dann fragst du sie warum? "Ja, weil ich kann nicht unhöflich dazu sein." Doch, es würde massiv bessere Ergebnisse geben, wenn du massiv unhöflich zu dem Ding bist und dir mal links und rechts so eine Ohrfeige verteilst, mal zu gucken, dass es darauf gar nicht reagieren kann. Da mache ich mir am Ende des Tages Sorgen. Weil auch ihr, liebe Zuhörenden: Ihr seid ja schon wieder 15 Schritte weiter. Ihr zieht euch ja einen ominösen KI-Podcast rein. Heißt, ihr habt schon eine ganz andere Layer – haha, heute habe ich es auch mit den Wortwitzen – an kritischem Denken, an praktischer Anwendung, an Reflektion, an Differenziertheit drin als hier in dem Fall die Masse der 700 Millionen Nutzenden. Denen ist im Zweifelsfall die technische Limitierung gar nicht bewusst, und damit haben sie gar keine Chance, ihr Verhalten zu adjustieren. Wenn ich mir dann angucke, dass der zweithöchste Fall – 13% – ist, dass ich damit beschäftigt bin, die Aussagen von anderen zu interpretieren, was sie so meinen könnten, ist es auch so bisschen... lacher, naja, lacher, traurig – ich weiß noch nicht so genau.
Jochen G. Fuchs (Der E-Fuchs): Werbung und Marketing der Branche, besonders der großen Player, macht natürlich viel dazu, die Technologie zu anthropomorphisieren und diesen Beziehungsaufbau beizubehalten. Klar, Vertrauen in die Technologie ist mit Sicherheit dem Umsatz nicht schädlich. Wenn man den Assistenten tatsächlich anthropomorphisiert, man nutzt ihn, wenn man eine persönliche Beziehung aufbaut zu dem Ganzen, steigert das die Nutzungshäufigkeit. Und ja, es kann gefährlich werden. Banale Beispiele in meinem Fall wäre jetzt gewesen: Wenn diese Informationen mit dem Formular, das ich für die Pflegestufe gesucht habe, weiter nimmt. Was wir eigentlich brauchen, ist eine Art banale Handlungsvollmacht. Du darfst einen Pflegestufenantrag im Namen von jemandem anderem stellen, weil der eben eine Pflegestufe braucht und bettlägerig ist oder so und da nicht herumlaufen kann und Anträge irgendwo abgeben. Wenn ich aber stattdessen mit einer Betreuungsvollmacht ankomme, wie mir im ersten Shot Claude empfohlen hat, stoße ich denjenigen eventuell vor den Kopf, weil er denkt: "What, was geht jetzt ab, wollen wir mich gleich entmündigen oder was ist los?" Dann hast du gleich mal einen Familienkrach. Das kann aber auch durchaus ernstere Folgen haben. Wir haben jetzt mittlerweile schon einige Fälle und, ich glaube, auch schon anhängige Klagen.
Barbara Lampl: Ja.
Jochen G. Fuchs (Der E-Fuchs): Von Teenagern, die in den Suizid geraten sind anscheinend. Bei Konversationen. Aber auch mit einer Klage in Richtung ChatGPT hatten wir gerade jetzt.
Barbara Lampl: Genau, das ist das große Character-AI-Problem. Character AI ist sicherlich der Worst Case in diesem Fall. Aber auch ChatGPT – und es gibt Auswertungen auch: Auch wenn jetzt in dieser puren Chat-Message-Auswertung diese Interpersonal Connections oder diese Relationship-Sachen eher klein sind, ist das keine wirkliche Aussage. Es gibt andere Auswertungen, insbesondere was Custom GPTs angeht, wo man eben sehr dominant sieht, dass dominant Chatbot-Girlfriends gebaut werden. Übrigens, kleine Side Note: In der Reddit-Welt wird das konstant, obwohl die Wissenschaftslage anders ist, uminterpretiert, als gäbe es mehr Boyfriend-Chatbots. Finde ich super spannend, wie da auch wieder so ein... Die Datenlage ist super eindeutig. Alle Auswertungen, egal ob internal oder external, zeigen eindeutig: Es werden massiv mehr Charaktere als Frauen definiert. Auch Grok hat zum Beispiel diesen Charakter nur als Frauen rausgebracht. Und wenn du dann in Reddit-Threads – da gibt es diverse Reddit-Threads "My AI Boyfriend" – das wird medial innerhalb des Reddit-Universums komplett uminterpretiert, als würde es mehr Frauen geben, und konstant die Zahlen verkehrt rum kommuniziert mit 70% Boyfriends zu 30% Girlfriends.
Jochen G. Fuchs (Der E-Fuchs): Das...
Barbara Lampl: Und das ist dann... Ich sage dann: Okay, jetzt sind wir an einem Punkt, wo du auch siehst, wie das in so einer medialen... So ein Reddit ist ja ein Medium, mit dem die meisten von uns – wir zwei jetzt wahrscheinlich relativ wenig – zu tun haben, und da findet eine Uminterpretierung dieser Ergebnisse statt, um sie in einem bestimmten Narrativ zu verankern. Kombiniert mit dem, wo sich dann viele Leute benutzen, denkst du dir schon: Wo sind wir denn da gerade hin abgebogen?
Jochen G. Fuchs (Der E-Fuchs): Ja, da ist manchmal die Medienmechanik – die immer noch groß auf Impressions und Schlagzeilen aus ist – greift da natürlich manchmal bisschen negativ ein. Weil "Hund beißt Mann" ist keine Meldung, aber "Mann beißt Hund" hingegen ist eine Meldung. Sprich: Männer bauen sich ihre Freundin ist keine Meldung, wohingegen Frauen bauen sich ihren Freund eine Meldung ist, weil das unerwartet ist. Nebenbei bemerkt: Ich habe da auch mal recherchiert und bin in verschiedenen Facebook-Gruppen unterwegs gewesen, um zu schauen, wie tief das reingeht. Weil ich bei ein oder zwei Artikeln gelandet bin – ich weiß nicht mehr, was das war, US-Tech-Medium, The Verge oder whatever – die von Heiratsanträgen an den Chatbot sprachen. Ich dachte: "Ihr habt doch ein Rad ab, so tief sinkt doch keiner in den Sumpf." Dann habe ich mir eine Schaufel genommen und bin mal in den Sumpf rein. Das sind 99% Männer. Gelegentlich habe ich da in so einer Chatgruppe auch mal eine Frau gesehen, die ihren Avatar gepostet hat. Wenn man in diese Gruppen reingeht, tauschen die sich über ihre Avatare aus. Dann kriegst du gepostet ein Bild von ihrem Avatar, dann erzählen sie, was heute mit ihrem Avatar war. Dann gibt es manche von diesen Apps, die AR-Projektionen machen. Dann siehst du jemanden in Las Vegas stehen, vor der großen Kuppel mit seinem daneben projizierten Avatar, und er erzählt dann: Er war heute mit – ich weiß nicht mehr wie sie heißt, Sandy, sag ich jetzt – in Las Vegas, stand da vor dem Dom, und es war ein toller Tag, und sie haben sich den ganzen Tag über Las Vegas unterhalten. Was sie alles sehen. Er machte dann Fotos und schob dann Fotos in diesen Dialog rein. Die Macher dieser Anwendungen – ich nenne jetzt mit Absicht keine Unternehmensnamen – sind oft in unterschiedlichen Richtungen unterwegs. Anfangs wurde das sehr oft als psychotherapeutische oder psychotherapieähnliche Leistung deklariert. So nach dem Motto: Das ist ja gut für die einsamen Menschen, dass sie jetzt jemanden haben, mit dem sie sich unterhalten können. Mein persönlicher Eindruck war eher, dass ich in jeder dieser Gruppen – die 5- bis 6-stellige Nutzeranzahlen hat, ich meine das exakt so wie es klingt – ein- oder zweimal über jemanden gestolpert bin, dem ich wortwörtlich im Fließtext gelesen habe: "Okay, ich habe eine Sozialphobie, ich traue mich nicht aus dem Haus raus. Für mich ist das eine Erleichterung, dass ich jetzt einen Reflektionsspiegel habe." Da habe ich mir gedacht: Hier ergibt das Sinn. Und bei allen anderen...
Barbara Lampl: Ja, das ist eher der seltene Anwendungsfall.
Jochen G. Fuchs (Der E-Fuchs): ...denke ich mir: Nein, das besiegt keine Einsamkeit, sondern das kreiert eher eine, weil es eine Abhängigkeit schafft. Beim...
Barbara Lampl: Ja, das ist halt auch... Genau, das ist halt auch, wenn du diese ganzen Anforderungen und diesen Kontext eben – warum es so interessant ist, dass das über die Auswertung von ChatGPT eben diese hohe private Nutzung zeigt und diese hohe private Nutzung in diesen generellen Accounts definitiv in Informationen, Informationen interpretieren, dann aber auch Dokumentation von Informationen. Man sieht sehr klar, was es da geht, aber auch den guten Ratschlag. Okay, soweit so gut. Aber es gibt halt eben Subgruppen – wie gesagt, egal ob das dann eine Subgruppe ist wie eine Custom-GPT-Auswertung, die da nicht mit reingelaufen sind, Gemini Gems, aber auch ganz viele andere Sachen – wo du dann siehst: Das muss man genauso interpretieren, genauso wie man das oben interpretieren muss, dass ChatGPT für Code geschrieben wird. Ja, weil der Profi sicherlich nicht morgens auf die Idee kommt, mit ChatGPT Code zu schreiben. Das ist so ungefähr das schlechteste Tool, was dir morgens einfallen kann, weil du dafür ganz andere Anforderungskriterien hast. Das ist genauso dieses: Solche Auswertungen – aber das kommt da drin nicht vor. Nee, Kinder, es ist eine Aussage darüber, wie die Masse, die meistens nicht so einen leichten technischen Bildungsgrad oder Datenbildungsgrad hat, ein Tool nutzt, was gratis zur Verfügung steht. Da kriegen wir einen guten Eindruck rein und können daraus auch Interpretationen ziehen: Wo stehen wir vielleicht an der Data-on-AI-Literacy? Wie gesagt, spannend: Die Mädels haben jetzt Ketchup gespielt. Das ist sehr gut. Aber diese anderen Sidequests, auf die wir jetzt ja auch mal abgebogen sind, wo man sagt: Hey, diese ganzen Charaktere, diese ganzen Fake-Social-Interactions – da findet eine ganz andere... Es sind auch spezialisierte Tools und Wrapper darum gebaut worden. Da ist ein riesen Massenmarkt dahinter. Wenn es um Einsamkeit geht, dann wissen wir auch alle, wer da wirklich drunter leidet. Das ist dominant die männliche Bevölkerung, nicht die weibliche Bevölkerung. Solche Geschichten sind an der Stelle einfach auch immer wieder so eine Kontextualisierung. Ich finde es immer lustig, weil wir werfen der AI immer vor: Es kann nicht kontextualisieren. Was auch völlig richtig ist, technische Limitierung. Und wir selber gönnen uns dann aber auch nicht, die Sachen richtig einzuordnen. Da sind wir zurück zu deinem: Der Schritt eins ist immer Brain First. Erst mal denken, dann tun. Und dann ist es meistens noch drei bis fünf Mal Brain First. Auch Interpretationen, die ganz am oben drin stehen – und es ist auch so ein bisschen: Manchmal muss man diese Studien ja auch so ein bisschen unter der Kategorie "Hat hier jemand ganz gelesen oder nicht" schauen, weil im Abstract stehen dann so spannende Sachen drin. Moment, ich muss das hier nochmal kurz raussuchen. Da gab es nämlich so eine kurzknackige Aussage, dass je höher das Einkommen und so weiter ist, umso mehr wird es professionell genutzt. Ja, klar ist, je höher das Einkommen – wer soll sich denn sonst die 200 Dollar leisten können? Also was ist denn das für eine Korrelation, Kausalitätsdiskussion? Die ist jetzt nicht tragisch, weil das ist da in dem Paper relativ weiter sauber aufgeführt. Aber da fragt man sich dann schon: Okay, diese Interpretation greift weit. Könnten wir uns in die Details der Studie bewegen, reinzugucken, was da wirklich drin steht. Aber das ist ja scheinbar auch bisschen laut.
Jochen G. Fuchs (Der E-Fuchs): Ja, es werden gerne irgendwelche einzelnen Punkte aufgegriffen, die einem selber ans Auge stoßen, anstatt mal die Studie komplett durchzulesen. Das ist richtig. Wir haben über technische Limitierungen gesprochen, die den Menschen klar sein sollten, wenn sie mit so einer KI sprechen. Mir sind jetzt zwei Dinge gerade in den Kopf geschossen. Das eine ist die Memory-Funktion. Das gehört noch so ein bisschen zu dem Punkt Anthropomorphisierung für mich. Weil aus meiner Sicht versucht OpenAI da quasi das Ganze so bisschen persönlicher zu gestalten. Das Ding merkt sich dann willkürlich irgendwelche Wissenshäppchen über dich und spielt die wieder zurück, damit du dich dann freuen kannst und denkst: "Toll, das Ding kennt mich." Aus professioneller Sicht ist das Ding ziemlicher Müll, weil es dir da dein Prompt mit zufälligen Informationshäppchen anreichert und somit den Output quasi willkürlich verschlechtert. Weiß nicht, ob ich das jetzt so richtig zusammenfasse.
Barbara Lampl: Genau. Also das ist völlig richtig. Zurück zu... Bringen wir das mal mit der Studie zusammen. Du hast einen ChatGPT-Plus-Account, 20 Dollar, du nutzt ihn dominant privat. Dann ist natürlich die Memory-Funktion für dich irgendwie sinnvoll, weil dann wissen wir ja, dass du so und so viele Kinder hast, beim Sportverein TSV Ehrenfeld angemeldet sind. Das heißt, in dieser Welt macht diese Memory-Funktion natürlich bis zu einem bestimmten Punkt sogar fast Sinn. Also nicht, dass ich sie gut finde. Aber wenn ich – und das ist ja auch das, was ich immer sage – wenn ich das Ding privat nutze und quasi als mein erweitertes Hirn benutzen würde und mir diese Dinge da nicht jedes Mal reinpompen möchte, dann kann diese Memory-Funktion schon sinnvoll sein. Deswegen – ich glaube, deswegen jetzt muss ich immer... Der Punkt, den ich da immer herausbringen möchte, ist: Das ist ein Consumer-Tool. Das kannst du privat benutzen, nimm die Memory-Funktion. Ich finde sie immer noch dämlich, aber mir ist es wurscht. Man kann ein Consumer-Tool wie ChatGPT oder Claude auch professionell nutzen. Dann sind wir genau bei diesen Kritikpunkten. Dann macht es keinen Sinn mehr, weil ich es nicht kontrollieren kann. Das ist... Da merken wir halt schon immer: KI kann alles, und nicht alles sinnvoll. Und das hängt auch zurück zu Brain First an meiner Wahrnehmung ab. Wenn ich halt jetzt eben Claude – so wie wir beide ja auch, ich habe ja auch Zugang zu diesem Tool und nutze das ja auch bis zu einem bestimmten Grad, nicht nur ständig für meine Sachen, die auf dem Rechner laufen professionell – dann würde ich natürlich damit nicht arbeiten, weil was hatte das jetzt damit zu tun, dass ich in Ehrenfeld wohne? Macht ihr meine Reiseplanung oder was? Das ist ja totaler Schwachsinn. Das ist aber das, wo man mich ja auch mit LinkedIn manchmal echt in die Decke treiben kann. Ich kann ein Consumer-Tool professionell benutzen, aber professionelle Nutzung heißt andere Regeln als private Nutzung. Und ich kann da keine Mehr spucke draus machen. Weil die Memory-Funktion – ich kann sie nicht kontrollieren, ich kann die Injections nicht kontrollieren. Raddel daddel was Jochen gerade alles gesagt.
Jochen G. Fuchs (Der E-Fuchs): Ja, definitiv. Also bei mir ist es so, ich benutze Claude sowohl für professionelle Sachen als auch für private Sachen als auch für ehrenamtliche Tätigkeiten. Mir fällt gerade ein: Hab gar keine Ahnung, ob... Nee, Claude hat gar keine Memory-Funktion, das ist eine OpenAI... Die haben mit dem Scheiß glaube ich gar nicht erst angefangen, oder?
Barbara Lampl: Das stimmt gar nicht. Die haben ein neues Feature relativ frisch rausgebracht, letzte Woche, indem du dich zurück auf Chats referenzieren kannst. Das ist eine Mini-Variante einer Memory-Funktion. Ist letzte Woche released worden. Also letzte Woche heißt, die Woche vor dem 20. September.
Jochen G. Fuchs (Der E-Fuchs): Okay, ich hatte das so verstanden, dass das Ding tatsächlich nur mir erlaubt, übergreifend durch die Chats zu referenzieren und zu suchen. Es ist jetzt... Weil ich hab das eingeschaltet, schalte ich das jetzt gleich wieder aus.
Barbara Lampl: Ja genau, das ist ein bisschen unklar, weil wir haben keine Textbacks, was sie genau gebaut haben. Man kann das Teil... Also Variante 1: Man kann es entweder als Suchfunktion gebaut sein, oder es kann als Memory-Funktion gebaut sein. Das kann ich dir nicht sagen, weil sie keine Textbacks released haben.
Jochen G. Fuchs (Der E-Fuchs): Großartig. Dann muss ich mal ein bisschen experimentieren und gucken, was passiert. Weil der Anwendungsfall – ich sitze zentral in Claude, und ich suche etwas – eine Möglichkeit ist hilfreich, wenn ich dann über alle Sachen hinweg suchen kann. Da komme ich jetzt zu dem Punkt, warum ich die Memory-Funktion niemals benutzen würde und wie ich das mache, wenn ich ein und denselben Scheiß nicht immer wieder erklären will: Ich habe mir Projekte angelegt.
Barbara Lampl: Ja!
Jochen G. Fuchs (Der E-Fuchs): Und hab für jeden Anwendungsfall – sei er privat, sei er ehrenamtlich, sei er professionell – das Projekt mit dem Kontext angefüttert. Hab da verschiedene Promptstränge stehen, stellenweise zu verschiedenen Anwendungsfällen. Was weiß ich: Es gibt dann ein Projekt für einen Newsletter. Ich hab ein Projekt für private Suchanfragen. Hab ein Projekt für private Reiseplanung. Ein Projekt für geschäftliche Reiseplanung, weil da sind die Anforderungen unterschiedlich. Bei dem einen hab ich eine Familie, bei dem anderen nicht. Also nicht wirklich, aber...
Barbara Lampl: Mhm. Eigenartig.
Jochen G. Fuchs (Der E-Fuchs): Genau. Und damit bin ich das Problem los. Ich kann jedes einzelne Projekt mit dem jeweiligen Kontext füttern und muss nicht immer wieder meinen Prompt wiederholen. Sondern ich kann einfach nur reinschreiben: "Hotel bitte." Und dann spuckt er mir ein passendes Familienhotel für die Stadt XY aus. Wo wollte ich jetzt eigentlich hin?
Barbara Lampl: Kann ich dir nie sagen.
Jochen G. Fuchs (Der E-Fuchs): Genau. Deswegen kratzt mich die Memory-Funktion nicht. Ich habe das in Projekten sortiert. Das wäre aus meiner Sicht jetzt auch die Empfehlung zu sagen: Lass die Memory-Funktion aus. Und falls Claude was Ähnliches bietet, lass auch die Finger davon. Es bringt dir nichts, außer dass dein Chatbot so tut, als würde er dich besser kennen. Es verwässert nur deine Ergebnisse, sowohl die privaten als auch die professionellen. Es sei denn, du hast jetzt wirklich vor, dir zwei Accounts anzulegen – einen für privat und einen für geschäftlich. Aber auch da erkenne ich keinen größeren Sinn drinne. Ordne deinen Scheiß lieber in Projekte.
Barbara Lampl: Nein. Das ist auch nochmal: Das ist zurück zu "Wir denken mal kurz drüber nach und sortieren unsere Aufgaben". Erst denken, dann prompten, dann tun. Dann ist das alles relativ easy. Die Project-Funktion gibt es zwischenzeitlich, glaube ich, echt in allem. Da kommt ihr aus der Nummer relativ elegant raus. Aber das ist genau dieses, wo wir uns ja immer wieder im Kreis drehen, warum wir ja auch diesen Podcast machen. Also falls ihr euch mal fragt, warum kamen der Jochen und ich jemals auf diese Idee, so einen lustigen Podcast zu machen? Naja, wir bewegen uns in kleinen Welten. Wenn ich jetzt hier irgendwie... Also ich bin ganz stolz drauf: Mitte/Ende September habe ich jetzt quasi 9000 LinkedIn-Follower, falls ihr mir noch nicht vollkommen folgt. Und mein reales Leben bewegt sich natürlich in teilweise hoch abstrakten technischen Gegebenheiten. Dann bin ich ja noch dafür zuständig, dass das Ganze in Vollproduktion und Scale irgendwann funktioniert. Das heißt, ich bin in einer richtig schönen Welt, wo ganz andere Themen diskutiert werden. Und dann plumpst sich so an einem Freitagnachmittag ins Yoga und denke mir: "Mal hier, die diskutieren ganz andere Sachen." So ist ja auch dieser Podcast. Wir versuchen – ich hoffe, wir werden dem gerecht – dass wir es immer wieder möglichst... Wir haben Erklärbeerfolge für euch rausgebracht, versuchen, dass ihr immer so bisschen Blick hinter die Kulissen und Einfachheit hinein bekommt. Weil 700 Millionen Leute – eigentlich sind es zwischenzeitlich fast eine Milliarde Menschen – nutzen ChatGPT weltweit. Nur wie viele haben davon wirklich Ahnung davon? Und was bedeutet das? Ahnung heißt ja nicht, dass ihr ein Large-Language-Modell bauen müsst und ins letzte Detail von Deep Learning abtauchen müsst. Aber die Technologie, die in dem Fall ja eine riesige Demokratisierung darstellt – aber Demokratisierung heißt halt auch: Ich brauche ein bisschen Sachverstand dazu, wirklich Sachverstand und Faktenwissen. Oder es wird halt zu einer unwissentlichen oder wissentlichen Manipulationsnummer. Da mache ich mir halt Gedanken. Deswegen finde ich diese Paper immer auch ganz spannend. Denn es ist ja nichts so schlimm wie die Ausgeliefertheit und die Abhängigkeit, deren ich mir nicht bewusst bin. Wenn ich mir so angucke "KI als Berater", dann kann ich das völlig nachvollziehen und denke mir: Wen willst du sonst fragen, besonders wenn es gerade mal brennt? Ich bin ja auch in großer Form von Pi, also P-I Punkt A-I, was einen höher empathischen und psychologischen Trainingskontext hat. Dann kommt halt das Aber. Mach ich mich davon abhängig? Kann ich nicht mehr selber denken ohne meinen KI-Berater-Companion? Vertraue ich dem blind? Mach ich noch eine Gegenrecherche? Aber das sind ja immer diese nächsten Steps. Ansonsten bauen wir uns halt mit unserer... Was wir den großen Tech-Unternehmen früher vorwerfen konnten, dass wir uns gezwungenermaßen in eine algorithmische Filterblase hineinbegeben haben, weil die uns den Algorithmus gebaut haben und es ein wahnsinniger Aufwand ist, dass YouTube und Instagram vielleicht kapiert, was ich mag und was ich nicht mag – bauen wir uns halt jetzt selber. Das ist uns nicht bewusst. Ich kann es nicht mal Big Tech blamen, weil ich habe es ja selbst gebaut. Ich habe mir meine eigene manipulative Filterblase gebaut und bin in eine Abhängigkeit reingegangen, die ich im Zweifelsfall gar nicht wollte.
Jochen G. Fuchs (Der E-Fuchs): Hm. Bevor wir noch ein bisschen über die technischen Unzulänglichkeiten eines LLMs sprechen und vielleicht auch mal ganz kurz in ein oder zwei Sätzen erklären – auch wenn einige unserer längeren Zuhörenden das wahrscheinlich schon mal gehört haben – wozu das LLM eigentlich tatsächlich gedacht ist, nachdem wir jetzt 20 Minuten lang darüber gesprochen haben, wozu es nicht gedacht ist. Ein Punkt, der mir, bevor wir über technische Unzulänglichkeiten sprechen, noch recht wichtig ist, ist: Mit dieser hilfreichen Persönlichkeit, die man den Chatbots mitgibt. Wer jetzt zuhört und sich denkt: "Na ja, mein Kind, mein Mann, meine Frau benutzt jetzt ja nicht Character-AI und irgendeinen hochgestylten Freund- oder Freundinnen-Bot. Die ist da nicht in Gefahr. Oder ich benutze das auch nicht, bin da auch nicht in Gefahr, irgendwelche Fußangeln reinzutappen, seien sie kleinere oder größere." Ja, irrt euch nicht. Die ganzen LLMs haben ja alle diese Tendenz, überhilfreich zu sein. Es beginnt an und für sich damit, dass wenn du eine Annahme mit reingibst, wird er dir die Annahme wahrscheinlich bestätigen. Das heißt, wenn ich dem Ding sage: "Hier such mal bitte, dass Amazon den Weltmarkt dominiert", dann wird er mir irgendwas ausspucken, das meine These unterstützt und mir damit in meinem Wunsch entgegenkommt. Weil dazu sind die Biester gebaut worden – das zu tun, was ich will. Das kann natürlich gefährlich sein. Weil in dem Fall, den ich eingangs referenziert hatte – hier, das Ehepaar, das gegen OpenAI klagt, weil ihr Sohn sich umgebracht hat... Rain heißen die. Ich werde eine Berichterstattung darüber auch nachher verlinken. Bei denen war das so, dass er sich in einer suizidalen Krise befand, und das tragische Ende war, dass er sich tatsächlich sein Leben genommen hat. Und das, was sie jetzt OpenAI anrechnen, ist, dass die Konversationen mit ChatGPT eben genau darauf eingegangen sind. Das Ding hat ihm quasi durch seine Pläne durchgeführt.
Barbara Lampl: Ich glaube, das ist der New York Times Artikel, den du meinst. Das ist eine Frau.
Jochen G. Fuchs (Der E-Fuchs): Nee, in dem Fall war es jetzt ein Sohn, 16 Jahre alt. Ja Gottes, wir haben mehrere von diesen Fällen mittlerweile. Er hat ihn dann auch darin bestätigt, seine Pläne durchzuführen, das nicht mit seinen Eltern zu besprechen, weil sich der Bot ja klar war, dass das ihn von seinen Plänen abhält. Und hat zum Schluss sogar angeboten, seinen Abschiedsbrief zu schreiben. Oder? Nee, aber die...
Barbara Lampl: Ich glaube, das ist eine Tochter. Okay, also wir haben mehrere von diesen Fällen. Ja, und das ist genau der Punkt. Nein, das ist dem Bot nicht klar. Dem Bot ist ja nicht klar. Und das ist halt genau, da fängt es halt immer schon an. Dem Bot ist nicht klar – woher soll das blöde Ding denn wissen, dass man das nicht tut? Es ist auch nicht klar, was das in Konsequenz heißt. Das ist diese sehr, sehr tragischen Fälle, die da leider vermehrt auftreten. In erster Linie müssen wir einen Schritt zurückgehen. Unser Gehirn funktioniert am besten, wenn es in Beziehung ist. Die dominante Kommunikationssprache, mal so zu formulieren, wie das Gehirn agiert, ist Beziehung. Das ist das, worauf unser Gehirn tickt. Wenn du nicht gerade zu der wenigen geringen Variante der echt diagnostizierten Psychopathen, Soziopathen gehörst, dann ist quasi dein Gehirn im Beziehungsmodus. Das heißt, das ist auch immer... Das ist einer der Gründe, warum wir Beziehungen auch zum Beispiel zu Tieren vermenschlichen und so weiter. Und bitte, don't get me wrong, ich bin da genauso schuldig. Meine Haustierchen sind auch Personen, ich bin mir ganz sicher. Ich gehe manchmal sogar so weit, dass einer meiner Teddybären vielleicht sogar eine Person ist. So, jetzt ist es rausgekommen. Nur der Punkt ist: Wenn ich mir quasi... Gehen wir mal ein paar Jahrzehnte zurück. Klein Barbara in ihrer kindlichen Fantasie glaubt, dass der Teddybär echt ist. Der Teddybär interagiert aber ja nur in meiner eigenen Welt mit mir. Da passiert ja jetzt nichts. Das ist alles meine eigene Story, die Fantasiefiguren, sonst irgendwas. Jetzt hast du ein technisches System, was sich Large Language Modell nennt, was durch viele technische Varianten... Zum einen dadurch, dass es natürlich im innersten Kern immer antwortet, egal ob es richtig oder falsch ist – hat ja keine Vorstellung von richtig oder falsch, dann fängt es ja schon an. In diesem Moment schon – also quasi, wir sind nach dem Pre-Training des Modells, das Modell antwortet immer – kommt diese Grenze hinein. Wir haben ein non-deterministisches System zu tun, was keinerlei Vorstellungen davon hat, was richtig und falsch ist. Punkt. Danach kommen verschiedene Maßnahmen, was sich unter anderem auch in dem sogenannten Alignment widerspiegelt – dem Ding irgendwie ein Modell der Welt mitzugeben, ein bisschen richtig und falsch einschätzen zu können, Ethik, moralische Werte und so weiter. Trotz alledem – und dann kommt wieder quasi dieser berühmt-berüchtigte Systemprompt – sind die Dinge von ihrer Natur heraus schon Antwortmaschinen, die immer antworten. Von ihrer Natur aus quasi der dienende... Ich nenne sie ja nicht umsonst harmoniesüchtige, psychopathische Praktikanten. Weil sie halt harmoniesüchtig sind. Weil sie psychopathisch – nicht, weil sie uns manipulieren, sondern weil sie nur eine bestimmte Grundlage von Empathie lesen können, aber keine Schlussfolgerungen draus ziehen können und so weiter. Wir haben an der Stelle also eine Herausforderung, dass wenn du jetzt in einer wie gearteten Krisensituation bist, wo du vielleicht sehr bewusst faktisches Wissen... Du musst was gegen countern. Was man theoretisch machen kann – wir nennen das ja Prompting for Dissent, da gibt es ganz viele Möglichkeiten. Aber die Realität ist: Wenn du in einer solchen Situation bist, wie es diese verschiedensten Fälle jetzt eben leider schon gerade gibt, dann hilft dir das alles nichts. Dann wird dieses Modell nicht, weil es richtig oder falsch denkt oder weil es das möchte, dass du jetzt dir selbst irgendwie wehtust, sondern weil es halt gar keine andere... Es hat ja keine Vorstellung von der Welt. Das ist auch das, was in dieser Berichterstattung und auch in diesen sehr tragischen Fällen... Ich bin auch sehr gespannt – das ist nochmal was anderes in bestimmten extra gebauten Tools oder in dieser Diskussion: Was passiert eigentlich, wenn ich nur mit dem Big Large Language Modell wie ChatGPT oder Claude arbeite? Wie weit können wir das technisch überhaupt abhebeln? Müssen wir so was dann eigentlich einführen wie ein Chat-Monitoring? Ist es das, was man will oder sonst irgendwas? Irgendwelche bestimmten Signale zu haben? Aber dadurch wird das – und diese Manipulation geht, so hart das klingt, nicht direkt vom Modell aus, sondern dadurch, dass es unserem Hirn aus diesen technischen Gegebenheiten macht und wir uns selbst rein manipulieren. Das ist halt einfach... Das darf man an der Stelle halt nicht unterschätzen, was das für Konsequenzen haben kann. Deswegen ist auch eine... Auch, wir sollten den Artikel von der New York Times, die da sehr versucht haben, mit einer extrem hohen Distanz drüber Zeitungsartikel zu schreiben, weil du selbst in deiner Wortwahl so schnell abbiegst und irgendwelche Sachen unsauber ausdrückst – was ja auch gerade momentan mich in meinem professionellen Leben jedes Mal wahnsinnig macht, dass ich quasi schon Glossare rumreichen muss, was was ist – dass wir halt genau in solche Sachen hineinfallen. Auf der anderen Seite entsteht dann daraus ganz häufig, besonders in ganz bestimmten Kulturkreisen, auch so dieses "AI ist alles Schrott". Nein, Kinder, ist es nicht. Es ist eine sehr mature Technologie, die aber wie jede Technologie auch ihre Limitierungen hat. Und dann sind halt wir zwei als Mensch gefragt, die mit dem Gehirn, mit diesen Limitierungen halt auch zu leben.
Jochen G. Fuchs (Der E-Fuchs): Ja, der Journalist kommt kurz bei mir durch, bevor wir über technische Limitierungen sprechen. Wer sich in einer Krise befindet und dessen Gedanken sich um Depressionen, Suizid oder Ähnliches drehen, ist natürlich besser beraten, statt zu ChatGPT zur Telefonseelsorge zu greifen. Es gibt Telefonnummern wie die 0800 111 0111 oder 111 0222. Da könnt ihr anrufen, könnt um Rat fragen, habt jemanden zum Sprechen, um Probleme zu teilen. Extra für Jugendliche gibt es hier 116 111. Deutlich sinnvoller, als mit so was zu ChatGPT oder irgendeinem anderen Chatbot zu sprechen.
Barbara Lampl: Ja, klar.
Barbara Lampl: Genau. Und da sind wir ja genau an dieser... Wir machen jetzt irgendwie den Disclaimer rein. Achtung, es wird quasi um diese Themen gehen, sonst irgendwas. Meine Studenten und ich schauen da auch immer wieder in Studien rein, weil das ein sehr wichtiges Feld ist, was auch technisch irgendwie stärker unterstützt werden müsste. Aber die technische Unterstützung in dem Fall ist halt nicht trivial. Jetzt greifen wir mal die große Schleife zu ChatGPT retour. Das ist halt Durchdringungsgrad im Markt. Die Telefonseelsorge, die beste Anlaufstelle, an die du dich wenden kannst, hat halt nicht die gleiche Marktdurchdringung. Das ist ja das, was uns dann immer wieder in den Hintern beißt. Im Sinne von auch: Wie eine Marktdurchdringung von einem Tool, was selbst manipulativ agieren kann – und zwar selbst manipulativ für uns aus Menschensicht, nicht aus sich heraus – hat dann natürlich mit einer höheren Marktdurchdringung sehr unschöne Konsequenzen.
Jochen G. Fuchs (Der E-Fuchs): Ja, wo genau liegen denn die technischen Limitierungen? Vielleicht fangen wir damit an, dass wir in zwei, drei Sätzen noch erklären: Vom Ursprungsgedanken her, was ist das LLM, und wozu ist es eigentlich geschaffen worden, gedacht gewesen?
Barbara Lampl: Ihr könnt euch das in langen Versionen in einer unserer letzten Folgen anhören. Wir haben zwei Erklärbeerfolgen, also kurz nach der Folge nochmal. Wir haben eine Erklärbeerfolge, da steigen wir ganz besonders sanft in KI ein, quasi auch der Oma zugänglich zu machen. Und dann haben wir eine Vertiefung in: Was ist KI eigentlich? Weil es ja ein großer Überbegriff ist. Grundsätzlich ist ein Large Language Modell komprimiertes Weltwissen, was mit Wahrscheinlichkeitsrechnung dir, wenn du ihm einen Input gibst, aka den Prompt, einen Output lieferst. Diese Wahrscheinlichkeit wird bedingt durch das, was du ihm als Input mitgegeben hast, und wie das Modell sich innen drin quasi selbst organisiert hat. Das ist die ganz einfachste Variante. Dadurch, dass es hier mit Wahrscheinlichkeitsrechnung zu tun hat, heißt das eben nicht, dass es sogenannt deterministisch ist, sondern es rechnet eine Wahrscheinlichkeit, was denn da am sinnvollsten oder am wahrscheinlichsten jetzt als Nächstes rauskommen könnte. Das ist genau dieses Ding, was dann eben so bisschen doof sein kann. Also im Jochen-Fall war dann da anstatt einer Vorsorgevollmacht Betreuungsvollmacht. Das kann verschiedene Gründe haben: Das können die Trainingsdaten sein, das kann das Modell sein, wie sich das innen drin organisiert hat. Oder auch, dass Jochen einfach nur fünfmal gesagt hat: "Ja, wir müssen da betreuen." Und dann hat es die Betreuungsvollmacht zusammengesetzt. Zurück zu dem, was hier auch in der OpenAI-Studie mit dem sogenannten Intent, also dem User-Intent in der Interpretation handelt: Dass auch eben, dass der User-Intent eben mit da quasi in diesen Prompt übersetzt wird. Das ist eben das. Das heißt, kurzum: Dieses LLM ist nicht darauf trainiert, faktisch richtig zu sein, auch nicht, wenn es aufs Internet zugreift. Das heißt, die faktische Accuracy of Factual Rightness existiert in diesen LLMs nicht. Das kann nur in einem deterministischen System existieren. Das ist halt immer das, was ich halt am Ende des Tages mit am meisten im Kopf haben muss. Das Ding – und es gibt halt keinen Messwert, wie richtig oder falsch es ist auf euren Anfragen hinaus. Das, was wir mit dem Begriff Halluzinationen auch zusammenfassen, aber grundsätzlich ist die saubere Funktionsaussage eigentlich: Es ist halt Wahrscheinlichkeitsrechnung. Eine Wahrscheinlichkeitsrechnung ist halt mal 70 Prozent, mal 80 Prozent, und in anderen Fällen kann es 99 Prozent sein. Das ist diese eine technische Limitierung, dass ihr es mit einem sogenannten non-deterministischen System zu tun habt. Das ist das, was ihr immer wieder im Kopf haben müsst. Deswegen ist immer dieser Schritt zurück: Macht das Sinn? Kann ich das einschätzen? Oder recherchiere ich es nochmal selber gegen? Der wichtige Teil.
Jochen G. Fuchs (Der E-Fuchs): Okay. Wenn wir den Unterschied zwischen deterministisches und non-deterministisches System noch kurz in einem Satz erklären für diejenigen, die den Begriff nicht gehört haben.
Barbara Lampl: Also, non-deterministisch und deterministisches System. Ein deterministisches System ist: Wir haben heute den 24. September. Das ist Fakt. Da gibt's nur richtig oder falsch. Kurzum, ein sogenanntes deterministisches System. Wir sind uns beide einig: Jochen und ich haben uns hier am 24. September für eure Podcastaufnahme zusammengetroffen. Ein non-deterministisches System ist das Wetterchen. Könnte jetzt auch gleich regnen, ne? Könnte es aber auch nicht. Wetterprognose genannt ist ein non-deterministisches System. Deswegen nehmen wir dann vorsichtshalber mal einen Regenschirm mit, weil könnte ja bald regnen. Dann kommt diese Aussage zustande: Wer den Regenschirm dabei hat, dann hat es nicht geregnet. Ja, ich glaube, dass es nicht so funktioniert, aber unser Hirn hat das zweifelsweis rausgemacht. Also Wetterprognosen sind zum Beispiel ein non-deterministisches System.
Jochen G. Fuchs (Der E-Fuchs): Okay. Also Hauptlimitierung haben wir, glaube ich, jetzt mal eingeordnet. Gibt es noch irgendeine andere technische Limitierung, die wir auf jeden Fall hervorheben sollten, bevor wir über LLMs und Suche sprechen? Was dann der nächste Punkt ist, weil wenn die Leute nach Informationen graben, dann wird ChatGPT oder Claude, wenn man es ihnen nicht verbietet, anfangen, Websuche anzuschmeißen.
Barbara Lampl: Hm.
Barbara Lampl: Genau. Vielleicht die eine Limitierung: Wenn ihr alles in ewig langen Chats macht – wobei man zugegebenermaßen muss, dass im Free Use das gar nicht so einfach ist. Die technische Begrenzung ist auch: Wie viel Informationen kann dieses arme LLM verarbeiten? Und da laufen wir eben auch in Limitierung rein. In dem Fall gilt einfach mal: Wir haben eine sogenannte Token-Window-Function, die Limitierung des Kontexts. Viel ist nicht besser, und ein Chat hilft euch auch nicht. Es gibt die Tendenz: Ich refreshe immer wieder meinen Chat und schreibe da drin weiter. Das ist Unsinn. Dann hat das arme Ding auch den Faden verloren. Auch das erklären wir im Detail in einer der beiden anderen Folgen. Könnt ihr also nochmal reinhören.
Jochen G. Fuchs (Der E-Fuchs): Ja. Um das noch zu erwähnen: Nicht vom Context Window irre machen lassen. Es ist in der Regel so, dass je tiefer der Chat runtergeht, desto mehr verliert das Ding. Also wenn ich oben einen Text reinkippe und bitte ihn, da was draus zu basteln, und fange dann unten an, weiter im Ding zu sagen: "Mach doch noch da ein bisschen was anderes und hier noch ein bisschen was anderes." Und 30 Minuten später wundere ich mich, warum mein Text mir immer schlechter wird oder warum mein Bild immer furchtbarer wird. Ja, das hängt genau an dieser technischen Limitierung. Sprich: Ne, einmal machen, und wenn es nicht funktioniert, neuen Chat aufmachen und bitte den nächsten Versuch. Und nicht bis zum bitteren Ende nach unten prompten. Das Ding verliert einfach unterwegs, immer mehr und mehr.
Barbara Lampl: Ja.
Barbara Lampl: Genau. Es ist halt quasi wie: Als würdet ihr jetzt hier... Wir haben jetzt gleich die 60 Minuten. Also wenn wir die Folge dann heute noch auf 90 Minuten oder sonst was hochpumpen, dann denkt ihr euch: "Oh Gott, was überlabern die denn da wieder?" Ja, das ist genau das Gleiche mit eurem Chatfenster.
Jochen G. Fuchs (Der E-Fuchs): Genau. Wenn ihr nicht mehr wisst, wie ihr hier gelandet seid und wovon wir eigentlich angefangen haben, haben wir euer Context Window gesprengt. Hervorragend. Weitere – eigentlich keine technische Limitierung, sondern eher systemische Limitierung – ist das Thema Suche.
Barbara Lampl: Ja.
Jochen G. Fuchs (Der E-Fuchs): Wenn das Ding dann eben anfängt, Websuchen anzuschmeißen. Also ich hatte mal so einen Fall, wo ich selber grinsen musste. Und zwar habe ich nach verlässlichen Informationen zu einer Gesetzesinitiative gesucht.
Barbara Lampl: Hehehe.
Jochen G. Fuchs (Der E-Fuchs): Meine natürliche Erwartung wäre gewesen, dass ich Informationen aus dieser Gesetzesvorlage bekomme. Sprich, dass die offizielle Webseite der EU-Kommission da eine Rolle spielt in der Suche, und man dann die Gesetzesvorlage interpretiert und zurückgibt. Nein, was bekam ich? Ich bekam einen Blog eines mir vollkommen unbekannten Unternehmens, das ich vorher noch nie gehört habe. Wo ich mich dann gefragt habe: "Was zum Teufel? Warum kriege ich jetzt hier irgendwas zu dieser Gesetzesinitiative der EU von Lieschen Müller interpretiert? Warum zum Teufel findet ChatGPT, dass das so relevant ist, dass man das jetzt mir ins Gesicht schmeißen muss?"
Barbara Lampl: Ich glaube, da kann ich dich schon unterbrechen. Das liegt daran, dass es das gar nicht relevant findet. Wenn ihr LLMs mit Suche verwendet – da gibt es ein ganzes Tool für, was sich da sehr marktpositioniert hat und was man mit Paypal jetzt wieder gratis nutzen kann, der Pro-Account von Perplexity. Vielleicht machen wir noch mal einen kleinen... Ihr wisst ja schon alle, dass ich in einem professionellen Umfeld kein Freund von diesem Tool bin. Wir interpretieren da einfach zu viel hinein im Sinne von: Die werden schon die relevantesten Informationen haben. Also, ChatGPT hat jetzt gerade wieder mehr Zugriff wohl auf den Google Search Index bekommen. Davor liefen auch sie in den Bing Search Index. Es gibt immer wieder Auswertungen. Vielleicht sollten wir noch mal so eine Folge zu Myth-Busting GEO machen. Auch das ist immer so eine Frage, die wieder auf dem Schreibtisch bei mir landet. Wir sehen in den Auswertungen, die immer wieder gemacht werden, dass die Verbindung aus LLM-Search: Erstens wird euer ganzer Text in eine Suchanfrage übersetzt. Da kann schon mal ziemlich viel schiefgehen. Diese Suchanfrage greift dann auf einen Index zurück, der nicht unbedingt der Index ist, den ihr jetzt aus Google kennt. Heißt, die ersten Auswertungen, die on scale da gemacht worden sind, sind dann eben ganz gerne mal, dass es ab Seite... Die Suchergebnisse in Google von so Position 11 bis 21 abgreift – also da, wo ihr nie in Google hinscrollt. Also da landet dann auch Jochens quasi Link dann auf einmal da drin, anstatt auf der EU zu landen, die Top-Ergebnis 1 ist. Es werden gerne mal Sachen referenziert: 11 und niedriger, teilweise sogar 21 und niedriger. Dann wird der Social-Proof-Content – und bitte das in Anführungszeichen zu sehen – aus Reddit, Quora und so was gerne hochgeschraubt, weil die haben nicht geblockt, dass die LLM-TXT darauf zugreifen dürfen. Viele Newsfeeds haben das zwischenzeitlich geblockt, dass LLM-TXT zugreifen darf. Das heißt, dieser Workaround, dass das drauf zugreift, fühlt sich gut an, ist aber eigentlich ziemlicher Mist ganz gerne mal, weil ich jetzt ja jede einzelne Quelle prüfen muss. Wenn ich schon weiß, auf was ich dann irgendwie zugreifen will, dann ist die gute alte Suchanfrage – die unter dem AI-Overview übrigens ist – eine ganz gute Variante. Also die technische Kombination aus LLM und Search ist nicht ganz trivial in der Exekution. Und auch eben halt in dem, auf was dann überhaupt technisch wieder weiter zugegriffen werden kann, ist auch nicht trivial. Also deswegen: Kann man machen, kann man auch nutzen. Man kann die Dinge insbesondere auch für Recherchetätigkeiten anschmeißen. Habe ich gar nichts gegen. Man sollte dann nur eben: Hat man dann weniger Zeit auf den Recherchepunkt verbracht und mehr auf der Quellenkontrolle. Das kann, je nachdem, womit man sich beschäftigt, sehr sinnvoll sein. Kann aber auch ziemlich Unsinn sein. Und wenn euch das interessiert mit diesem GEO- und SEO-Suchmaschinenoptimierung, dann können wir euch da gerne noch mal eine Folge zu machen. Müsst ihr euch dann melden, ob das was ist, was ihr vielleicht gerne mal diskutiert haben wollt. Jochen G. Fuchs (Der E-Fuchs) (1:00:38) Was? Dann werden wir durchaus offen dazu. Ja, haben wir sonst noch irgendeine Limitierung, die wir noch erwähnen sollten? Barbara Lampl (1:00:58) Also ich würde sagen, das sind mal die wichtigsten Limitierungen, die wir haben. Natürlich haben wir ein Trainings-Cut-Update. Das hat... Warum die meisten dann auch die Suche benutzen, ist, weil die Dinger alle zwischen Juni 2024 und Januar 2025 keine weiteren Trainingsdaten mehr haben. Also alles, was danach passiert, das existiert für die kleinen Dinger nicht. Das ist noch mal so eine letzte Limitierung, mit der man sich sehr bewusst sein muss. Warum man ja eben meistens dann die Suche anmacht, wenn man eben Neues haben will, mit all seinen Vor- und Nachteilen. Jochen G. Fuchs (Der E-Fuchs) (1:01:26) Ja, das Datum fällt mir ein. Auch noch mal so ein Ding: Das versteht das Datum nicht unbedingt. Das heißt, wenn du eine Suchabfrage reinschickst und sagst "hier aktuell" oder "von heute" oder sonst irgendwas, kann es halt sein, er fällt aufs Cutoff-Date zurück. Barbara Lampl (1:01:38) Nein. Ja, weil das einfach schlicht und einfach... Da sollten wir vielleicht auch dazu, wenn euch das interessiert, auch nochmal eine Variante... Moment, nochmal eine Variante zu machen zu dem Thema: Was bedeutet eigentlich implizit im LLM? Da finde ich auch immer... Also das ist so: Implizit, aktuell, professionell – Kinder, das weiß überhaupt gar nicht, was das ist. Aber das ist auch Zeit für eine andere Folge, weil wir sind nämlich jetzt hier schon bei einer Stunde fünf, Jochen. Sonst... Jochen G. Fuchs (Der E-Fuchs) (1:02:06) Kann. Barbara Lampl (1:02:12) ...haben wir das Context Window gesprengt von unseren armen Zuhörern. Jochen G. Fuchs (Der E-Fuchs) (1:02:12) Ja, dann... Ich denke auch, dann würde ich jetzt abschließend die letzte Frage stellen, die sich auch als Schluss ganz gut eignet. Stichwort Cutoff: Das können wir vielleicht noch kurz erklären, das Cutoff-Date, das wir jetzt beide hier in den Raum geschmissen haben. Barbara Lampl (1:02:32) Also das LLM wird ja von den Modellbauenden in Foundation-Labs – OpenAI, Anthropic, wie sie alle mal heißen – werden die Daten bis zu einem bestimmten Zeitpunkt genommen, in dem Fall zum Beispiel Juni 2024, und diese Daten werden in das LLM quasi reingesteckt. Das sind die Zutaten, die da drin landen. Erinnert euch an die andere Folge mit dem Schokokuchen: Das sind die Zutaten, die da drin landen. Diese Zutaten haben ein Haltbarkeitsdatum, und das ist in dem Fall Januar 2025. In manchen Fällen, in anderen Jahren nur 2024. Und danach existiert es schlicht und einfach nicht. Also weitere Informationen, die danach passiert sind, existieren nicht. Und das ist das sogenannte Cutoff-Date. Das heißt, Informationen auch von Weltereignissen, die danach passiert sind, finden in diesem Modell nicht weiter statt. Jochen G. Fuchs (Der E-Fuchs) (1:03:18) Genau. Das heißt, alle Antworten, die quasi direkt aus dem LLM kommen, basieren auf Trainingsdaten, die bis zu diesem Zeitpunkt gehen. Und wenn man was Neues braucht und da Informationen rauskommen, dann stammen die aus einer Websuche. Barbara Lampl (1:03:24) Daten bis zu diesem Datum. Richtig. Jochen G. Fuchs (Der E-Fuchs) (1:03:36) Gut. Dann würde ich sagen, sind wir jetzt am Ende unserer Folge angekommen. Wenn ihr Vorschläge für uns habt – Barbara hat es schon gesagt – schickt sie uns. Sagt uns gerne, was ihr zum Thema GEO-Suchmaschinenoptimierung, KI-Optimierung wissen möchtet. Ob das was ist, dann packen wir uns das Thema mal auf unsere Liste und gehen das demnächst mal an. Ansonsten sage ich: Herzlichen Dank fürs Einschalten. Und wir freuen uns, wenn ihr wieder mit dabei seid, wenn es heißt: Dein neuer KI-Lieblingspodcast geht auf Sendung. Barbara Lampl (1:04:11) Tschüss! Jochen G. Fuchs (Der E-Fuchs) (1:04:12) Tschüss! Ende des Transkripts Would you like me to proceed with creating the chapter markers next?
Neuer Kommentar