KI-Basics: Der praktische Einstieg in die Welt der Künstlichen Intelligenz
Shownotes
LAIer 8|9 - KI-Basics: Der praktische Einstieg in die Welt der Künstlichen Intelligenz
Folge: KI-Basics
Wo fängt man eigentlich an, wenn man zum ersten Mal mit KI arbeiten will? Barbara und Jochen nehmen euch mit auf eine praktische Reise von den ersten Schritten bis zur professionellen Nutzung. Von der Account-Erstellung über die richtige Prompt-Technik bis hin zu den Fallstricken der Memory-Funktion – hier bekommt ihr das Grundlagenwissen, das ihr wirklich braucht.
Warum ihr unbedingt ein Control-Freak werden müsst, was ein Schokokuchen mit LLM-Training zu tun hat und wieso Eloquenz nicht gleich Intelligenz ist – all das und mehr in dieser grundlegenden Folge für alle KI-Einsteiger und die, die es richtig machen wollen.
Kapitel-Marker:
- [00:00] Der KI-Erklärungs-Teufelskreis: Wo fängt man an?
- [02:22] Woche 1: Der erste Account und spielerisches Ausprobieren
- [06:05] Woche 2: Accounteinstellungen und die Memory-Falle
- [11:06] Memory-Funktion: Warum Barbara und Jochen dagegen sind
- [18:05] Blackbox-Algorithmus: Was ihr kontrollieren könnt und was nicht
- [20:38] Die Schokokuchen-Analogie: Wie LLM-Training wirklich funktioniert
- [25:35] Control-Freak werden: Warum das essentiell ist
- [27:21] Projekte vs. globale Einstellungen: Der richtige Weg
- [30:35] Prompting-Basics: Wie spricht man mit einem Praktikanten?
- [33:24] Output-Optimierung: Warum das schiefgeht
- [38:08] Eloquenz vs. Intelligenz: Der große Trugschluss
- [40:19] Reasoning-Modus: Was passiert da wirklich?
- [47:30] Halluzinationen: Feature, nicht Bug
- [51:17] KI-Suche und Deep Research: Chancen und Risiken
- [56:42] Die unsichtbare KI-Revolution im Alltag
- [01:04:19] Prompt Engineering für alle: Warum es zu spät ist, nicht anzufangen
Erwähnte Tools und Plattformen:
- ChatGPT (OpenAI) - Plus-Account für 20$/Monat
- Claude (Anthropic) - Projekte und Custom Instructions
- Perplexity - KI-gestützte Websuche
- Google AI Overviews - Automatische Antworten in der Suche
- Gemini (Google) - Für größere Dokumente
- Mistral Le Chat - Alternative zu ChatGPT
Key Takeaways:
- Startet mit einem bezahlten Account und spielt erstmal spielerisch
- Schaltet Memory-Funktionen ab - ihr wollt die Kontrolle behalten
- Nutzt Projekte statt globaler Custom Instructions
- Arbeitet nur in Fachgebieten, wo ihr Halluzinationen erkennen könnt
- Seid Control-Freaks beim Prompting - die KI kann nicht denken
- Versteht: LLMs sind fertige "Schokokuchen", die ihr nur garnieren könnt
Zitat der Folge: "Eloquenz ist nicht Intelligenz. Das könnt ihr euch wirklich eintätowieren, wenn ihr mit dem Chatbot arbeitet." - Barbara Lampl
Weiterführende Ressourcen:
- Barbara Lampls Blog: https://www.barbara-lampl.de
- Jochens Blog: https://efuchs.net
- LAIer 8|9 Grundlagen-Folge für tiefere technische Einblicke
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein Entrinnen!
Unsere Hosts AI Babsi (Barbara): Website | LinkedIn E-Fuchs (Jochen): Website | LinkedIn
Unser Podcast Blog https://www.laier89.de/
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.
Transkript anzeigen
Jochen G. Fuchs: Hallo und herzlich willkommen zu einer neuen Folge deines neuen KI-Lieblingspodcasts Layer 8.9. Hallo Barbara.
Barbara Lampl: Hallo Jochen, Zeit für den Lieblingspodcast.
Jochen G. Fuchs: Ja, aber total. Barbara, was soll ich dir sagen? Ich hatte ja neulich schon mal erzählt, dass meine Frau – die einzige Berührung meiner Frau mit KI war der blaue Kringel von Meta-AI und sie kam zu mir und sagte: "Wie kriege ich diesen Mist wieder weg?" Jetzt ist sie mittlerweile einen Schritt weiter. Nachdem irgendwelche Kollegen mit KI arbeiten, kam sie jetzt zu mir und sagte: "Ja, hier, erklär mir den Kram doch mal." Da sitze ich nun und überlege: Was erkläre ich ihr denn jetzt? Wo fange ich an, wo höre ich auf? Ich arbeite mit Claude, um Texte zu erstellen. Ich recherchiere mit Perplexity. Gelegentlich nehme ich aber auch Google AI Overviews. Und außerdem – für Bilder müsstest du dir dann noch ChatGPT angucken. Und warum ist jetzt Claude besser als ChatGPT? Und außerdem, wo fängst du an? Und wenn du ganz lange Sachen machen willst, dann brauchst du vielleicht noch Gemini, weil du da größere Dokumente reinschmeißen kannst. Irgendwie habe ich das Gefühl, je länger ich rede, desto größer werden wahrscheinlich die Augen meiner Frau.
Barbara Lampl: Ich würde sagen: Ja, also wenn du jetzt sagst, du brauchst das, das und das und das und das und das – ich glaube, dann würde ich es auch nicht anschalten und würde sagen: "Jochen, weißt du was? Pass auf, das ist deine Aufgabe, kannst du sie nicht einfach lösen?"
Jochen G. Fuchs: Jetzt weiß ich, wie ich immer zu diesen Aufgaben gekommen bin.
Barbara Lampl: Das könnte sein.
Jochen G. Fuchs: Wo fängt man denn eigentlich an? Nehmen wir mal an, hier ist jetzt quasi die erste oder zweite Podcastfolge, die jemand von uns hört. Ist zum ersten Mal über diesen KI-Podcast gestolpert und sitzt jetzt vor irgendeinem Ding und überlegt sich: "Was muss ich denn da jetzt eigentlich alles einstellen und einschalten, damit ich loslegen kann?"
Barbara Lampl: Ich würde sogar einen Schritt weiter zurückgehen. Wir haben eine relativ große Gruppe, die weiterhin – auch wenn OpenAI auf dem besten Weg ist, die Milliarde Nutzer zu knacken – relativ wenig damit zu tun hat. Das fängt schon mal an. Wir haben eine hohe Nutzungszahl der Free Users. Alle, die ihr schon ein bisschen tiefer drin seid, wisst, dass wir OpenAI mit ChatGPT haben. Dann wisst ihr, dass wir Anthropic mit Claude haben. Dann haben wir Mistral mit Le Chat. Dann haben wir ganz viel Perplexity und Google hat Gemini. Das erste ist, glaube ich, das erste, womit man momentan immer noch stolpert: der Nivea-Effekt oder der Tempo-Taschentücher-Effekt. Nicht alle Taschentücher sind Tempos, trotzdem fragen wir jeden nach Tempos. ChatGPT ist sicherlich der Inbegriff für eine generative AI – das ist kein Chatbot, den du sonst irgendwie aus der Kundenreklamation kanntest, sondern halt wirklich sehr textgenerierend. Ich würde auch sagen, dass die meisten quasi da dann irgendwo mal hingehen – auf ChatGPT hingehen. Jetzt ist der erste Punkt: Du kannst quasi einen Teil der Tools nutzen, ohne dich einzuloggen. Das ist die erste Hürde. Die erste Hürde ist quasi: Du kannst es irgendwo nutzen. Die richtige Hürde ist dann: Ich erstelle mir einen Account. Und die nächste Hürde ist dann: Bezahle ich für diesen Account? Ich sage allen immer: Fangt mal an, testet mal. Ob das jetzt Perplexity AI ist, ob ChatGPT – die meisten testen erstmal ChatGPT. Und da sind die meisten aber vielleicht angefixt, vielleicht auch nicht. Ich würde jedem, der jetzt die Verwandtschaft, die Freunde, die Bekannten hat oder selber gerade am Anfang der Reise ist: Loggt euch ein, erstellt euch einen Account und überspringt extrem schnell die Hürde, die 20 Dollar auszugeben – oder 18 Euro oder 19 Euro, was es sind. Der Unterschied zwischen einem bezahlten Account und einem nicht bezahlten Account wird relativ schnell offensichtlich. Ihr könnt ja erstmal einen Probemonat quasi kaufen. Ab und zu gibt es auch irgendwelche Sachen, die sind mal gratis oder sonst was. Aber generell sind nur ein paar Chats gratis. Und parallel damit würde ich jedem mal sagen: Warum sollte jemand auch diese 20 Dollar investieren? Um ein Commitment zu haben, dieses Tool wirklich zu testen. Erstmal völlig egal. Macht erstmal was an und lasst euch was super Einfaches erstellen. Nichts, was mit eurem Job zu tun hat, sondern eine gute Nachtgeschichte für die Kinder. Oder – ChatGPT hat natürlich den Vorteil, dass du kannst gleich irgendwelche Bildchen erstellen. Macht mal das Lieblingstier von euren Kindern oder euer eigenes Lieblingstier. Also nichts, was irgendwie sensibel auf Daten oder sonst irgendwas ist, sondern einfach irgendwie was Lustiges. Wie gesagt: eine gute Nachtgeschichte, ein komisches Gedicht, ein Gedicht über das Sauerkraut. Was weiß ich. Sowas.
Jochen G. Fuchs: Oder fotografiert mal eine Pflanze in eurem Garten und schmeißt sie rein und fragt mal: "Was könnte das für eine Pflanze sein?" Einfach mal alles durchgespielt zu haben: eine Texterstellung, eine Bilderstellung, eine Bilderkennung. Und wenn man dann kommt, kann man vielleicht auch noch – ChatGPT spuckt einem ja auch eine Excel-Tabelle aus oder sowas. Spielerisch.
Barbara Lampl: Genau. Aber wie gesagt, am Anfang macht das einfach mal eher so Probeläufe. Mein Lieblingscase ist ja auch ganz regelmäßig: Ihr hattet so einen ganz, ganz langen Arbeitstag. Essen gehen willst du nicht, Essen bestellen willst du auch nicht. Und dann stehst du vor dem Kühlschrank und denkst dir: "Was koche ich denn jetzt?" Macht mal ein Foto vom Kühlschrank und lasst ChatGPT vorschlagen, was zum Abendessen geht. Es funktioniert besser, als man denkt. Aber da sollte die Reise einfach mal anfangen.
Jochen G. Fuchs: Genau. Ein kleines Plus noch als Argument fürs Geld ausgeben ist: Wenn du das Fenster zumachst, ist dein Kram halt weg, wenn du kein bezahlter Benutzer bist ohne Account. Und du hast halt die Möglichkeit, einfach deinen ganzen Kram dann nochmal anzugucken, draus zu lernen, so eine Konversation wieder aufzumachen, wieder fortzuführen an derselben Stelle.
Barbara Lampl: Genau. Ich habe halt immer den Eindruck: Wer bereit ist, das Investment zu tun, dann haben wir eine höhere Chance, dass das Tool dann auch genutzt wird. Wer die 20 Dollar investiert hat, der nutzt es dann auch und macht sich dann vielleicht auch auf die nächste Reise. Wenn ihr jetzt sagt: "Okay, ihr habt euch einen Account geholt, ihr habt die ersten 20 Dollar ausgegeben", dann spielt in der ersten Woche einfach normal mit nicht-kritischen Themen einfach bisschen rum. Und dann kommen wir eigentlich in Woche zwei. Jetzt fängt es langsam an, dass ich aus dem Rumspiel mir mal Gedanken machen sollte über: Wie sollte ich mein ChatGPT oder auch mein Claude oder was auch immer eigentlich aufsetzen? Die meisten fangen mit ChatGPT an und wechseln dann erst in die anderen Tools rein. Finde ich auch gar nicht schlecht. Und dann kann man noch entscheiden: Möchte man das, möchte man das sonst irgendwas machen. Und das ist dann auch irgendwo fein. Nehmt euch mal so eine Woche, probiert das aus, dann kommen wir in Stufe zwei.
Jochen G. Fuchs: Das hat halt den Vorteil, dass wenn man einfach mal alles bisschen spielerisch ausprobiert, man kommt dann eben auch auf Ideen, wo man das im professionellen Kontext einsetzen kann. Und vor allem bekommt man nur durch das Ausprobieren auch so ein Gefühl dafür: Was kann es und was kann es nicht? Und wie die Ergebnisse aussehen können, die aus so einem LLM, aus so einem Chatbot herausplumpsen.
Barbara Lampl: Genau das. Und halt auch wichtig an der Stelle zu verstehen – und warum ihr einfach das bisschen spielerisch angehen solltet: Am Anfang geht man mit zwei Dingen. Die meisten Leute gehen an mit zwei Erwartungshaltungen, die auch wirklich komplett diametral quasi gegeneinander stehen. Die einen denken, sie sitzen vor einer magischen Maschine, und die anderen haben eine hohe Ablehnungshaltung. Es gibt eigentlich nur diese zwei Einstiegskategorien. Spoiler Alert: Es ist weder das eine noch das andere. Es ist weder eine magische Maschine, noch kann das Ding nichts. Und deswegen finde ich diesen spielerischen Ansatz, dass man aus beiden Standpunkten mal rauskommt, bis man dann feststellt: Die Maschine kann entweder massiv mehr, als man denkt. Gleichzeitig, wenn man von der magischen Seite kommt, vielleicht ein bisschen weniger. Am Ende des Tages liegt es daran: Der Nutzende, der da vorsitzt – die Layer-8-Spoiler – ist der entscheidende Faktor. Und ihr müsst euch an die Maschine anpassen. Ihr müsst euer Skillset aufbauen. Und das würde man dann zum Beispiel in der Woche zwei mit den Accounteinstellungen und all diesen Sachen dann eben ein bisschen vorantragen.
Jochen G. Fuchs: Man lernt dann meistens auch relativ schnell mehr dazu, wie man dann auch mit dem Chatbot sprechen muss.
Barbara Lampl: Was sich übrigens Prompting nennt.
Jochen G. Fuchs: Genau. Wenn ich mich noch an meinen ersten Prompt erinnere: Da bin ich noch tatsächlich mit der Erwartung rangegangen, dass ich dem Ding sage: "Schreibt mir bitte einen Artikel über XYZ", und dann kommt da irgendwas Brauchbares raus dabei. Das las sich schon schön, aber es war natürlich völliger Nonsens, was da stand. Aber es hat sich schön gelesen, der Nonsens.
Barbara Lampl: Dann haben wir die erste Hürde geschafft. Wir haben uns einen Account angelegt, wir haben rumgespielt damit, wir haben Geld ausgegeben und wir sind weiterhin in ChatGPT. Jetzt geht es noch gar nicht mir so sehr darum, dass ihr jetzt im ersten Schritt wahnsinnig versteht – das ist mir natürlich sehr wichtig, das machen wir auch im Einstiegsworkshop: Was ist überhaupt ein LLM? Wie funktioniert das alles? Da haben wir noch eine Erklärfolge für euch, wo wir da auf Teile davon eingehen, wo wir aus der Geschichte herauskommen oder sonst was. Aber auch eine Frage, die ich zum Beispiel – ich gebe jetzt ja, wenn ihr das hört, wahrscheinlich mein letztes Mal, dass ich den Einstiegsworkshop öffentlich gegeben habe, ein letztes Mal selbst gelaufen sein. Aber ich mache natürlich weiterhin Einstiegsworkshops für Unternehmen. Und da kommt auch ganz häufig oder grundsätzlich, wenn ich das auch in welchen Keynotes halte: "Wie muss ich denn jetzt meinen Account einstellen?" Das ist eine große Hürde. Und deswegen: Habt, wenn ihr einen quasi einen echten Account habt – in dem Fall werdet ihr einen sogenannten Plus-Account haben, das ist ja für 20 Dollar – dann habt ihr da ein persönliches Konto und habt da heitere, schicke Accounteinstellungen. Und die solltet ihr auf jeden Fall ein bisschen manipulieren und bearbeiten, damit das irgendwie schick läuft von den Einstellungen her. Also wenn ihr auf diese Oberfläche draufkommt, dann ist immer ein Modell für euch vorbereitet. Das ist immer das letzte – in dem Fall ist es momentan ChatGPT 4o. Da sind noch mehr Modelle drin. Aber dann kann man da drin eben halt in den verschiedenen Varianten sein persönliches Konto, alles in ChatGPT, individuell konfigurieren zum Beispiel oder in den Einstellungen alles persönlich zusammenstellen. Kleiner Spoiler: Wenn ihr in meinen reinguckt, dann werdet ihr weder eine Erinnerungsfunktion finden, die an ist, noch werdet ihr individuelle Konfigurationen in meinem ChatGPT-Account finden. Also das Ding – ich habe mich dem nicht persönlich vorgestellt. Ich habe keine weiteren Instruktionen hinterlegt.
Barbara Lampl: Ich glaube, da sollten wir noch mal bisschen drauf eingehen, denn da gehen die Meinungen – insbesondere auch wenn ihr Workshops oder Training von anderen Menschen bekommt als Fachfrauen und Fachmänner, die diesen Job sehr lange machen – dann sieht diese Welt häufig ganz anders aus. Da werdet ihr viele Blogartikel und auch viele Schulungen zu finden, die all dies empfehlen. Oder siehst du das anders?
Jochen G. Fuchs: Nee, liest man relativ oft. Auch der eine oder andere Kollege, mit dem ich spreche, kam auch schon mit der Memory-Funktion an und war dann etwas verwirrt, als ich ihm gesagt habe: "Schalt das Ding bitte sofort wieder ab." Für mich fühlt sich das bisschen an, als würden sehr viele auf dieses Narrativ hereinfallen, dass das eben so persönliche Assistenten sind, die dich am besten gut kennenlernen sollen, damit sie deine Aufgaben besser bewältigen können. Sie können dich halt nur einfach nicht kennenlernen. Meiner Meinung nach ist diese Memory-Funktion, die sich OpenAI da ausgedacht hat – korrigiert mich, wenn ich es falsch erkläre – relativ willkürlich irgendwelche Gesprächsfetzen in ihrem Speicher ablegt und dann wieder abruft. Und zwar mit dem – wie soll ich sagen – für dich fühlbaren Effekt, dass sie auf irgendwelche Sachen wie "Wie heißt deine Frau?", "Wie heißt dein Hund?" und so ein Gedöns zurückgreifen kann und kann sie in die Konversation mit dir wieder einstreuen und erzeugt damit das Gefühl, sie würde dich kennen. Kennt sie natürlich nicht, sondern ruft eben nur genauso willkürlich, wie abgespeichert, die Informationen wieder auf. Und meiner Meinung nach hat das eigentlich einen ganz anderen Hintergrund. Das soll nicht wirklich dabei helfen, dass das Ding dich schöner ansprechen kann und du leichter mit dem agieren kannst, sondern die Brüder wollen ja irgendwann mal Ads verkaufen. Wenn du bei Meta und Co. reinschaust, wirst du feststellen, dass die da auch Profilinformationen über dich sammeln, damit sie fürs Targeting irgendwelche Hintergrundinformationen haben. Und meiner Meinung nach ist das einer der Gründe dafür, dass diese Memory-Funktion eingeführt wurde. Das kann auch mal eine E-Commerce-/Marketing-Brille sein, die da einen großen Fokus unterstellt, weil das natürlich die Möglichkeit öffnet: "Guck mal, der hat eine Katze, heißt Minka. Er hat eine Katze, also können wir ihm Katzenfutterwerbung irgendwo mit ausspielen." Weiß nicht, Barbara, was denkst du: Warum haben die sich den Quark ausgedacht?
Barbara Lampl: Mehrere Aspekte. Also: Warum haben sie die Memory-Funktion eingeführt? Fangen wir bei dem an, was du gerade gesagt hast. Ja, das ist langfristig notwendig für die Monetarisierung, weil die Memory-Insights auf vielen Ebenen ein wichtiger Baustein sind, Werbung oder generell Personalisierung zu erzeugen. Also deswegen stimme ich dir da voll umfänglich zu. Das ist aber nicht alles. Das ist sehr viel größer, denn grundsätzlich haben diese Modelle keine Gedächtnisfunktion. Das heißt: Was in einem Chat stattfindet – wenn der Chat irgendwann zu Ende ist, weil die Token-Funktion aufgebraucht ist, je nachdem wie viel Content, wie viel Kontext und wie lang deine Prompts sind... In- und Output zusammen kann das nach 10, 15 oder auch erst nach 20 Schritten passieren. Aber danach ist der Chat tot. Alles, was in dem Chat gelaufen ist, ist kein Gedächtnis. Deswegen müsst ihr für neue Themen auch – wichtiges Takeaway – immer schön bitte einen neuen Chat eröffnen. Aber deswegen ist die Memory-Funktion kein totaler Bullshit technisch. Wir brauchen eine Memory-Funktion, aber in der Memory-Funktion werden eben deine persönlichen Daten abgespeichert – alles über dich. Also das höchste Gut, was du haben kannst, ist die Verteidigung deiner eigenen Daten. Denn je mehr ein Unternehmen Daten über dich hat, umso leichter kann es dich nicht nur bespaßen auf der Front von Ads, sondern umso leichter hält es dich auch in der Welt. Denn alles, was sich persönlich anfühlt, da gehe ich gerne hin, da bleibe ich auf der Plattform. Oberstes Ziel jedes Silicon-Valley-Startups ist eins: Retention, Retention, Retention. Also Verweildauer auf Plattformen, Hyperpersonalisierung, und je besser sich das anfühlt, umso schöner. Einfaches Beispiel: Ihr geht zu eurem Lieblingsbäcker. Heute fahren wir mal klassisch bayerisch rein, und wenn ich jetzt zurück in München bin und dann... Das fühlt sich hochpersonalisiert an. Ist es in dem Fall auch, die Bäckerin kennt mich? Es ist quasi die Bäckersfrau kennt mich ja, seitdem ich weiß nicht wo schon Stammkunde bin. Aber das ist genau das, und das erzeugt diese Memory-Funktion auch. Das heißt: Wir weisen der Maschine mehr Fähigkeiten zu. Wir haben höheres Vertrauen, was bei wenn es die Halluzinationen zu entdecken sind, schwieriger wird. Und für alle langfristigen Geschäftsmodelle ist das auch wichtig. Und am Ende des Tages geht es gleichzeitig darum: Wer die besten Personalized Memory Layers langfristig hat, kann uns am meisten manipulieren und am meisten ausspielen. Kleine Seitennotiz zum Beispiel: Brasilien hat eine Wallet entwickelt, sogenannte D-Wallet, wo es darum geht, dass Bürgerinnen und Bürger ihre eigenen persönlichen Daten verteidigen können und auch monetarisieren können. Da ist die Welt schon ein bisschen anders. Und dafür muss man die Memory-Funktion auch andenken. Die Regel bei diesen Sachen ist: Fühlt sich persönlich an, ist es aber nicht. Und das ist der letzte Schritt rein technisch: A, es ist relativ random. Du kannst es dir zwar angucken und du kannst in den sogenannten persönlichen Einstellungen in der Personalisierung oder – wenn ihr es englisch benutzt – Custom Instructions auch persönliche Sachen hinterlegen. Aber du wirst trotzdem nie wissen, in welcher Konfiguration was da einspielt. Und jetzt stell dir vor: Das weiß, dass du eine Katze hast, die Minka heißt. Du nutzt ChatGPT aber so semi-professionell für dein Projektmanagement, und dann injiziert er versehentlich irgendwelche Katzenmemes. Könnte sein, dass es ein bisschen bescheuert ist. Und das ist genau das, was die meisten mit Chatbots oder halt mit Gen-AI völlig falsch machen. Und das betrifft auch viele dieser Pseudo-Profis: Sie sind keine Control-Freaks. Du musst ein echter Control-Freak sein in der Nutzung von ChatGPT oder generell all dieser Tools, weil du arbeitest – und das habe ich auch schon zigmal im Podcast gesagt – wir arbeiten mit einem Blackbox-Algorithmus. Blackbox-Algorithmus bedeutet immer: Wir müssen alles außenrum kontrollieren. Und das bedeutet auch, dass wir uns kontrollieren müssen und nicht aus Faulheit – "klingt schöner, fühlt sich persönlicher an" – auf die Idee zu kommen, dass das hilfreich ist.
Jochen G. Fuchs: Okay, Blackbox-Algorithmus. Blackbox bedeutet dann für uns quasi: Wir kippen da etwas hinein, wir können nicht kontrollieren, was innen drin damit passiert, das kommt wieder etwas herausgeputzt. Das einzige, was wir kontrollieren können, ist das Drumherum quasi. Deswegen...
Barbara Lampl: Die genaue Definition eines sogenannten Blackbox-Algorithmus bedeutet, dass selbst der Profi – also in dem Fall zum Beispiel ich – keine Mathematik habe, die ich rückrechnen kann, um herauszufinden, wie der Output generiert worden ist. Im Deep Learning ist ein Deep Learning ein Blackbox-Algorithmus. Das heißt: Ich weiß zwar, dass er funktioniert, und ich kann am Output und an den Regeln, die dahinter liegen, bis zu einem bestimmten Grad das alles verstehen. Aber ich kann es mathematisch nicht rückrechnen und nicht rückbeweisen. Das ist bei anderen – zum Beispiel klassischen Machine-Learning-Algorithmen – anders. Das ist zwar immer noch dann Machine Learning oder sonst was, aber es ist eben nicht immer ein Blackbox-Algorithmus. Gen-AI basiert auf Deep Learning und deswegen ist es ein Blackbox-Algorithmus. Auch für den Profi. Also für euch mag Machine Learning auch genauso "wuhu" sein, ist aber nicht für mich.
Jochen G. Fuchs: Okay, gut. Also: Wir haben verstanden, wenn ich mit einer KI spreche, muss ich ein Kontrollfreak sein. Das heißt: Ich muss genau wissen, welche Informationen habe ich der KI gegeben in meinem Prompt, damit sie dann die Aufgabe, die ich ihr gegeben habe, auch genau so erledigt, wie ich sie ihr gegeben habe. Und nicht noch aus Versehen, wenn ich über Hunde schreibe, auf einmal meine Katze eine Rolle spielt. Und dann bekomme ich, ohne es zu merken, auf einmal Ernährungsempfehlungen für Katzen statt Hunde, weil sich die schlaue KI gedacht hat: "Warte mal, da steht irgendwas über Katzen noch." Das wurde diesem Prompt durch Memory-Funktionen hinzugefügt, und dann schwupps habe ich auf einmal etwas, was ich gar nicht haben wollte. Ich habe so das Gefühl, was wir vielleicht auch noch erklären müssten, ist dieses Thema mit "die KI lernt dazu". Da höre ich nämlich immer ganz oft ganz skurrile Sachen. Also es gibt wirklich Menschen, die denken: Wenn sie je länger sie mit ChatGPT schreiben, desto mehr würde die Maschine sie kennenlernen und der Output würde darüber besser werden. Manchmal sprechen die dann in dem Zusammenhang auch noch von Trainieren. Weil sie irgendwo mal gelesen haben: "Eine KI wird trainiert", und wenn man eine KI trainiert, wird sie besser und persönlicher. Dann weiß man ja auch noch – das liest man ja in der Tagespresse – die ganzen großen Big-Tech-Unternehmen trainieren ja ihre KI-Modelle mit meinen Eingaben. Und zack sitzt man mit seinem Dampfer auf einer völlig falschen Schiene. Ich hab mir solche Sachen schon ewig lang anhören müssen. Dann versucht das mal auseinanderzuklamüsern, diesen Wust. Also ich mein, ich hab dir den jetzt dahingeschmissen, bitte Barbara: Klamüser's mal auseinander.
Barbara Lampl: Okay, also stellt euch vor: Ein LLM ist ein Schokokuchen. Ein schöner, schöner Schokokuchen. Das Backen dieses Schokokuchens – das ist das, was ein LLM-Anbieter wie OpenAI macht und was wir in verschiedenen Varianten grob zusammengefasst als Training des LLMs nennen. Okay? Das ist der Schokokuchen. Lieber Jochen: Kann ich aus einem Schokokuchen einen Zitronenkuchen machen?
Jochen G. Fuchs: Ich befürchte nicht. Ich bin zwar eher der Koch, aber nicht der Bäcker, aber ich kann mir jetzt nicht vorstellen, wie das funktionieren soll. Das geht nicht.
Barbara Lampl: Genau! Also du hast den Schokokuchen – kannst du aus diesem Schokokuchen einen Zitronenkuchen machen? Das Ding ist fertig. Und so müsst ihr auch das LLM verstehen: Das LLM ist fertig. Das ist euer Schokokuchen. Was ihr mit dem Schokokuchen machen könnt – den schönen Schokokuchen, den ihr jetzt gekauft habt – den könnt ihr anpassen für euch. Ihr könnt da Schokocreme draufschmieren. Ihr könnt da Himbeeren draufsetzen. Ihr könnt von mir aus noch Zitronencreme oder Kaffeecreme draufmachen, was auch immer. Ihr könnt den Schokokuchen auch in Herzchenform ausstechen. Das ist das, was im Prompting passiert. Ihr adjustiert diesen Schokokuchen für euren Use-Case und habt dann eben zum Beispiel ein herzförmiges Schokotörtchen mit Himbeersahne und Kirschen obendrauf. Großartig! Euer neuer Blogartikel. Was ihr eben nicht machen könnt: Diesen Prozess könnt ihr dokumentieren, ihr könnt die Prompts wieder verwenden, und jedes Mal könnt ihr aus dem Schokokuchen wieder ein relativ ähnliches Herzchen erzeugen. Ihr könnt auch den Schokokuchen – ihr wollt mehr Kirsch drin haben und macht ein anderes. Ihr könnt den Schokokuchen nehmen und von mir aus in Alkohol tränken. Aber du kannst den Schokokuchen als Nutzender nicht ändern. Auch ich nicht. Und ich bin ein Profi. Ich kann ein fertiges ChatGPT nicht umtrainieren. Mir als Profi stehen mehr Möglichkeiten mit anderen Modellen zur Verfügung. Das fällt unter die Begriffe Post-Training und Fine-Tuning. Aber da sind wir jetzt mal ehrlich: Wir haben gerade unseren ChatGPT-Account zugelegt. Vergiss das. Ist nicht eure Welt.
Jochen G. Fuchs: Das ist das Level zwischen: Der eine sitzt am Steuer und der andere hängt mit dem Kopf in der Motorhaube. Der am Steuer wird nichts machen können, damit nachher in diesem Motor ein Zylinder mehr oder weniger drinsteckt. Der kann nur aufs Gaspedal drücken. Und wenn wir bei der Schokokuchen-Analogie bleiben: Die Kuchenbäcker beobachten euch zwar beim Essen – also sprich bei dem, was ihr da an Output generiert, und lernen da auch durchaus draus. Aber das fließt dann eben in den nächsten Schokokuchen ein, den ihr vor die Nase gestellt kriegt, und hat nichts mit euch in eurem Account selber zu tun. Also ja, es ist richtig: Diese ganzen Daten werden von den Anbietern genutzt, um irgendwann später die Trainingsdaten damit anzureichern. Aber eben den allgemeinen – also der große allgemeine Batzen, aus dem die LLMs lernen. Und diese Fortentwicklungsschritte stehen dann allen wieder zur Verfügung, haben aber nichts mit dir persönlich zu tun. Da kommt ein neuer Kuchen auf dich zu.
Barbara Lampl: Richtig. Und da kommen wir schon mal zu einem wichtigen Punkt, weswegen ihr darüber nachdenken solltet, welche Daten in diesem LLM drin sind und warum ihr keine persönlichen, keine kritischen solcher Daten in den Chat – besonders nicht, wenn ihr in einem Consumer-Tool wie ChatGPT arbeitet – reinschmeißen solltet. Denn, lieber Jochen: Ich backe dir einen Schokokuchen mit Schokostückchen, mit Ei, Butter und Mandeln, und du kommst zu mir zu Besuch. Ich mach dir, serviere dir meinen Schokokuchen, und während ich den serviere, sagst du mir: "Ich bin vegan, ich esse keine Eier und kein Butter." Kriege ich die Eier und die Butter aus dem Schokokuchen raus?
Jochen G. Fuchs: Nein.
Barbara Lampl: Richtig! Also ich kriege die – es ist ja verbacken. Das ist: Wenn eure Daten einmal im Training gelandet sind, dann gehen die da nicht wieder raus. Die können nicht im Backend einfach gelöscht werden. Ich kann die verbackene Butter nicht einfach aus dem Schokokuchen namens LLM rauslöschen. Und deswegen ist die Diskussion um Daten so relevant und auch die Idee, welche Daten ihr da reingebt. Weil ihr könnt mit dem sehr persönliche Sachen besprechen, aber weswegen bei den Custom Instructions vielleicht nicht so eine gute Idee ist, in den Einstellungen euren Namen, euren Vornamen und den von allen euren Kindern drin zu haben. Denn wollt ihr wirklich, dass die dann irgendwann im Training drin landen? Nein, weil dann ist das Ei im Kuchen drin, und dann ist der Schokokuchen einfach nicht mehr vegan. Ende, Banane! Und ich kann ihn nicht per Zauberhand vegan machen. Also merkt euch immer: Das, was da drin ist, kann da immer auch tief in den Trainingsdaten drin landen. Ihr könnt das ausschalten. Ich empfehle immer, dass eure Chats nicht zu Trainingsdaten verwendet werden. Aber nochmal: Mein Job ist mal ein bisschen Aluhutträger, ein bisschen paranoid. Aber diese Idee solltet ihr immer bei der Verwendung eines LLMs haben. Also denkt in Zukunft an den Schokokuchen, und die Daten kriegen wir da einfach nicht wieder raus. Wenn das Ei drin ist, kann man den Kuchen nicht rückwärts backen.
Jochen G. Fuchs: Genau. Egal, wie oft ihr mit eurem Chatbot sprecht: Er wird nicht dadurch besser, er lernt euch nicht besser kennen. Dazu hat sich eben OpenAI die Memory-Funktion ausgedacht. Dazu gibt es die Möglichkeit, persönliche Instruktionen irgendwo reinzusetzen. Aber das alles birgt eben immer die Gefahr, dass man diesem Beast generelle Anweisungen gibt, die dann nachher in jedem einzelnen Arbeitsschritt irgendwo stören.
Barbara Lampl: Ja, und nicht nur stören – wie gesagt, stören, weil du halt einfach nicht weißt: Was nimmt es denn jetzt davon? Stellt euch vor: Ihr würdet in euren Einstellungen reinschreiben, dass das Ding immer sehr humorig arbeitet, dass es immer mit Humor um die Ecke kommt. Dann habt ihr aber eher so einen Brief, der bisschen schwierig ist. Ihr braucht Hilfe zum Beispiel – keine Ahnung – ihr müsst einen Mietschaden melden. So Wasserschaden. Also Frau Lampl hat ja – ich kann euch 1000 Stories oder meine 3000 Mietschaden-Dramen nennen. Und stellt euch vor: Ihr müsst jetzt so einen mehr offiziellen Brief schreiben, dass ihr leider einen Wasserschaden habt. Und jetzt injiziert ihr da Humor rein. Da freut sich der Vermieter, wenn ich da mit viel Humor um die Ecke komme und sage: "Ich hab da einen Wasserschaden."
Jochen G. Fuchs: Ja, um Manfred Maurenbrecher zu zitieren: "Haha", sagt der Clown.
Barbara Lampl: Genau. Das ist so ein recht plastisches Beispiel, wo diese scheinbare Vereinfachung euch völlig wahnsinnig macht. Jetzt habt ihr vergessen, dass ihr diese persönlichen Einstellungen habt. Und jetzt braucht ihr viel, viel länger. Wenn ihr mit den Grundeinstellungen arbeitet und in eurer Welt eure Prompts irgendwo vorgebaut habt – was notwendig ist zum Beispiel für ein professionelles Setting, dass es weiß, was du für einen Job hast – das könnt ihr gerne in den Prompt einfügen. Aber dann habt ihr die Kontrolle, nicht die Maschine, die random sich entscheidet: "Das blende ich jetzt mal links ab."
Jochen G. Fuchs: Genau. Was mir an der Stelle gerade einfällt: Also ich bin dann irgendwann, als ich das auch gelernt hatte, über die Projekte gestolpert bei ChatGPT und bei Claude. Die wiederum sind ja eine ganz gute Möglichkeit, wie ich quasi Custom Instructions und Informationen hinterlegen kann, weil das funktioniert dann quasi innerhalb dieses begrenzten Raumes dieses Projektes und damit streut es nicht störend irgendwo anders ein.
Barbara Lampl: Genau. Ihr nehmt ein Projekt, weil ihr halt von mir aus gerade irgendwie Blogartikel oder Podcasts macht oder keine Ahnung, was ihr halt macht. Das macht ihr öfters, das macht ihr regelmäßig. Ihr habt auch immer Grundlagendokumente, was wir Kontext nennen, habt ihr auch immer wieder da drin. Und dann machen diese Projektinstruktionen oder der Projektprompt total Sinn, weil da kann es ja sein, dass das Ding immer lustig humorig sein soll oder super faktisch argumentieren soll. Auf der Ebene macht das super Sinn, aber nicht als generelle Accountsettings. Und das gilt übrigens sowohl für ChatGPT, für Claude, für alle diese Tools. Auf Ebene eines Projektes – das heißt bei allen immer ein bisschen unterschiedlich: Bei einem heißt es mal Labs, bei anderen in ChatGPT und in Claude sind es beides mal Projects. Auf der Ebene macht das super Sinn und ist ein großartiges Handwerkzeug, aber eben nicht generell.
Jochen G. Fuchs: Bei Perplexity waren es die Spaces, da haben sie tatsächlich mal andere Bezeichnungen gefunden. Sonst neigt die KI-Branche dazu, jeden Mist gleich zu benennen. Deep Research ist zum Beispiel so ein Ding – das findest du bei jedem Anbieter. Aber ja, Projekte, Labs... Ein Beispiel aus meiner Praxis ist halt: Ich setze mir so ein Projekt auf, mit dem ich den einen Newsletter schreibe. Ich erkläre dann in den Custom Instructions in einem Prompt quasi: Die Zielgruppe von einem Newsletter ist diese und jene. Ich definiere die Formate, die ich haben will. Erkläre ihm hinter den Custom Instructions in einem Prompt quasi, wie er diese Formate erstellen soll. Und dann gibt es halt noch Projektwissen. Also dann packe ich irgendwas dazu rein, was für diesen Newsletter wichtig ist. Ich habe da dann zum Beispiel – keine Ahnung – meine Redaktionsleitlinie, in der drinsteht, wie so ein Artikel aufgebaut werden soll. Ich packe dahinter Grundinformationen mit rein zu dem Thema, über das ich schreibe, beispielsweise. Und dann kann ich reingehen und kann sagen: "Pass auf, lass uns einen Artikel erstellen zu diesem Thema." Und in diesem Moment ruft dann die KI erst mal die Custom Instructions ab, weiß dann schon, was ich eigentlich tatsächlich von ihm will. Das heißt: Ich muss nicht den ganzen ellenlangen Prompt wieder schreiben. Guckt noch mal in das Projektwissen rein, in dem ich im Kontext reingelegt habe – also keine Ahnung, die Biografie von Karl Lagerfeld, wenn ich über Karl Lagerfeld schreiben will. Und dann spuckt er mir eben aus: "Ach ja, du willst jetzt für technikinteressierte Menschen über Karl Lagerfeld schreiben, ich schlage dir folgende Struktur vor." So. Dann habe ich halt einen anderen für ein Projekt, wo es um Modebewusste geht, dem erzähle ich dann etwas über Steve Jobs und über seine Kleidung. Ich mische das jetzt mit Absicht durcheinander. Also das ist so der Zweck von den Projekten.
Jochen G. Fuchs: Okay, was muss ich denn noch wissen?
Barbara Lampl: Wenn du das jetzt alles mal hast, dann... Ich würde auch immer erst mit Projects anfangen, übrigens, vor Custom GPTs. Das ist eine Sonderfunktion, die es auch noch gibt in ChatGPT – also Custom GPTs erstellen. Ist aber komplexer. Bevor ihr in diesen ganzen schönen Strukturen arbeitet, geht es jetzt nochmal darum, einen Schritt zurückzugehen. Und du hast es vorhin gerade schon gesagt: "Du musst halt wissen, was du willst." Aber du musst deswegen nicht nur wissen, was du willst, sondern du musst halt wirklich wissen, wie das Ding zu promoten ist. Eine Interaktion mit dem Chatbot nennt man Prompting. Und die meisten Fehler passieren hier. Das sind alles Einzeiler und insbesondere sehr iterative Prompts: "Schreibt mal 15 Headlines." "Ne, die gefallen mir nicht." "Schreibt mal 15 neue Headlines." "Mal nochmal fünf Überschriften." So sind die meisten Steps. Ihr müsst euch das ein bisschen anders vorstellen. Jeder von euch wird im Zweifelsfall schon mal einen Praktikanten, einen Trainee, einen Azubi oder irgendjemand gehabt haben oder irgendjemand, dem er halt beibringen muss, vielleicht eine Tätigkeit. Und das ist eigentlich auch das beste Bild, was man an der Stelle haben kann. Stellt euch vor: Ihr möchtet dem Praktikanten was beibringen. Wie muss ich das aufbereiten? Was muss ich dem sagen? Was muss ich dem – insbesondere eine Regel gilt – explizit sagen? Mein Beispiel, was ich glaube ich in jedem Workshop immer zur Nervigkeit aller bringe, ist: Stellt euch vor, die AI würde in diesem Meeting erscheinen, und zwar als Person. Dann würden in dem Meeting alle sitzen mit einem Oberteil da. Alle schön mal oben rumschön. Es könnte aber sein, dass die AI komplett nackt erscheint. Denn das ist eine implizite Information, dass wir uns als Menschen auch in Meetings anziehen. Wie wahrscheinlich das ist, sei dahingestellt, aber es ist zumindest gut, dass man sich dieses Moment... Und immer, wenn ihr Prompts habt, die nicht funktionieren, und wenn ich die durchecke, dann sind da viel zu viele implizite Annahmen drin. Die Annahmen sind das Teufelszeug der AI-Welt. "Das müsste das doch wissen." Woher soll es denn das wissen? Zurück zu: Ihr habt einen Praktikanten. Woher soll denn der wissen, wie euer Ablauf ist? Wie soll der sonst irgendwas...? Ihr müsst Prompting viel mehr als Briefing verstehen. Und die oberste Regel – und auch da kann ich die anderen Kollegen... ich will sie nicht Kollegen nennen, weil sie nerven – immer hauen, weil die kommen in so eine Welt der Output-Optimierung rein. Nee, das ist jetzt zurück nochmal zum Kuchen: Ich muss mich schon vorab entscheiden. Wenn der Kuchen einmal in Herzform geschnitten ist, dann kann ich ihn jetzt nur noch kleiner machen, nicht mehr größer. Aus dem Herz wird ein kleiner Kreis. Und wenn ich da jetzt an Output-Optimierung mache, dann ist genau das: Aus dem Herz wird der Kreis, und irgendwann habe ich Brösel da liegen. Und das ist immer dieser Fehler, der in dieser Output-Optimierung passiert.
Jochen G. Fuchs: Genau. Also das heißt: Ich gehe her und sage dem beispielsweise – nehmen wir mal ein Bild, da kann man das schön bildhaft demonstrieren –: "Ich will ein Bild von einem Schloss in einem Wald, und da sitzt jemand davor." Und jetzt gefällt mir das aber nicht mehr, und ich sage: "Ich möchte jetzt was anderes haben, da soll jetzt kein blauer Mensch, sondern ein grüner Mensch davor sitzen." Und dann generiert er das und verliert dann zwischendurch irgendwie den Faden, und nachher ist es dann – nach einem statt einem Schloss, also statt einem Neuschwanstein-Schloss ist dann auf einmal ein Vorhängeschloss... Ich übertreibe jetzt mit Absicht irgendwo – unten drin, weil das Biest dann den Faden verloren hat. Ich habe quasi gesagt: "Ne, mach aus dem grünen Menschen einen blauen Menschen." Er nimmt noch einen Teil der Information mit: "Da war irgendwas mit Schloss." Und nach dem zwölften Versuch denkt er: "Da war irgendwas mit Schloss und einen blauen Menschen", und zack hast du ein Vorhängeschloss mit einem blauen Menschen davor. Und das Ding ist zerstückelt. Oder eben dein Schokokuchen: Du kannst das nur noch weiter runterschneiden, bis du irgendwann ein Krümel-Törtchen hast, und dann versuchen, aus diesem Krümel-Törtchen wieder einen Schokokuchen zu machen – geht nicht. Du musst wieder von vorne anfangen. Also sprich: Verlasse die Konversation, wenn es nicht so funktioniert hat, wie du willst, und beginne eine neue Konversation und stelle die Aufgabe erneut – aber bitte nicht auf dieselbe Weise. Weil, wie war das mit diesem angeblichen Einstein-Zitat? Die Definition von Wahnsinn ist, wenn man eine und dieselbe Sache auf eine und dieselbe Art und Weise nochmal macht und erwartet, es kommt etwas anderes dabei heraus.
Barbara Lampl: Genau. Das Schloss-Beispiel ist ein ganz gutes, denn das ist genau dieses Beispiel mit explizit-implizit. Du hast im Kopf ein Bild von einem Schloss – von Neuschwanstein oder ein Disney-Schloss. Aber die AI kann nicht Gedanken lesen. Und ein Schloss ist halt in deutschen Begriffen doppelt gemoppelt. Also es kann ein Türschloss sein, kann ein Vorhängeschloss sein, kann aber eben auch ein Schloss als Gebäude sein. Sagst du der Maschine von vornherein "ein Schloss wie Neuschwanstein" oder "wie so ein Märchenschloss", dann kommt das dabei raus. Denkt an diese berühmten Kinderspiele mit "Bank" und "Bank". Welche Bank denn jetzt? Also ist auch übrigens im Englischen so: "The bank by the river" – was jetzt? Oder die "river bank"? Oder die Bank, wo ich die Gelder hinbringe? Was denn jetzt? Das ist übrigens auch einer der Schwierigkeiten früher gewesen und da ist auch immer noch – warum wir so lange keine... bevor die LLMs gekommen sind, warum wir uns mit Textgenerierung so schwer getan haben. Denn der Kontext zählt halt. Und wenn ich nur ein Wort identifizieren konnte, wusste keiner, von welcher Bank das blöde Ding spricht.
Jochen G. Fuchs: Es ist ja auch... wie soll ich sagen, viele Wörter, die wir benutzen, bringen ja eine Bedeutung mit sich, einen Frame, der da drumherum steht, der bei uns automatisch als Mensch im Hinterkopf aufgerufen wird. Und dann können bei uns – in unseren Köpfen, wenn wir uns unterhalten – ähnliche Bilder entstehen. Der eine denkt vielleicht an Neuschwanstein, der andere denkt vielleicht an die Marienburg oder sowas. Wir gehen aber in die gleiche Richtung, auch wenn wir nicht exakt das gleiche Bild im Kopf haben, weil wir eben – wie soll ich sagen – einen Erfahrungsraum vor uns haben, entsprechenden Frame aufrufen können. Das passiert automatisch, deswegen haben wir das Gefühl: Das müsste die KI auch, weil die KI sich ja irgendwie bisschen menschenähnlich anfühlt. Sie spricht ja mit uns. Sprache ist für ganz viele Menschen implizit ein Zeichen von Intelligenz. Ich war früher im Verkauf tätig, und ich habe ganz oft gesehen, wie Kollegen von mir dann eben mit Menschen, die aus dem Raster fallen, umgehen. Einfaches Beispiel: Da ist ein Tourist, der kein Deutsch spricht, oder da ist jemand mit Migrationshintergrund. Dann fangen die auf einmal an, entweder laut oder wie mit einem Kleinkind zu sprechen, weil er der Sprache nicht in dem gleichen Level mächtig ist wie wir. Oder noch schlimmer: Du hast einen gehörlosen Menschen vor dir, der einen extrem hohen Intelligenzquotienten haben kann und sich mit Fingern in einer Sprache ausdrückt, die ich überhaupt nicht verstehe. Also eigentlich bin ich der Idiot in diesem Moment. Aber der neben mir spricht mit dem, als hätte er einen Dummkopf vor sich, einfach nur weil der gegenüber ihm nicht sprechen kann. Also es ist so diese implizierte Verbindung zwischen "Sprache ist gleich Intelligenz". Und da haben wir jetzt natürlich ein Problem, weil eine KI, der ich irgendwas sage, die ruft null Frames dazu ab. Die denkt da nix dazu.
Barbara Lampl: Aber sie klingt extrem intelligent, und deswegen ist mein Standardspruch immer: "Eloquenz ist nicht Intelligenz." Das müsst ihr euch immer wieder... Die Gen-AIs können unglaublich viel besser formulieren, wahrscheinlich als 90 Prozent aller Menschen. Unheimlich eloquent. Eloquent ist nicht Intelligenz. Das könnt ihr euch wirklich eintätowieren, wenn ihr mit dem Chatbot arbeitet. Das haben wir bei Menschen natürlich auch, aber da haben wir dadurch, dass wir meistens mehr Informationen haben und nicht dieses Ding in unserer Hand oder am Rechner haben – nicht mit uns selbst in der eigenen Echo-Kammer sind – haben wir einen stärkeren Kontrastpunkt dazu, was Jochen gerade erklärt hat. Wenn du neben so einer Konversation stehst und denkst: "Ich glaube, es hilft jetzt nichts, wenn du langsamer oder lauter sprichst." Nein. Aber das ist genau das.
Jochen G. Fuchs: Wenn wir schon darüber sprechen, dass die KI eben nicht denken kann – wir hatten da neulich schon eine Diskussion drüber, die könnt ihr euch dann auch noch mal in Ruhe anhören, die kommt in Kürze oder ist vielleicht sogar vor diesem Podcast schon da – schauen wir mal, wollen wir es mal hoffen. Sie ist auf jeden Fall vor diesem Podcast dran, wo es ums Denken geht. Weil ihr werdet schnell feststellen, dass wenn ihr mit diesen Chatbots rumspielt, da gibt es ja noch mehr als einfach nur "Eingabefenster, ich gebe meinen Prompt ein und er spuckt mir ein Ergebnis aus", sondern da passiert was, wo man das Gefühl hat, die Biester würden nachdenken. Es wird gemeinerweise auch tatsächlich so bezeichnet als "nachdenken", wenn man es deutsch übersetzt – als Reasoning oder als Schlussfolgerung oder wie man das jetzt auch übersetzen möchte. Und dann spricht das Ding quasi zweierlei mit euch. Er schaut sich euren Prompt an, und dann fängt er an – gibt's bei ChatGPT dann zum Beispiel, was weiß ich, o1...
Barbara Lampl: o1? o1 oder o1 Mini, aber der o1 ist der Standard.
Jochen G. Fuchs: Genau, Reasoning-Modus. Du hast ihm einen Prompt gegeben, und jetzt fängt das Ding auf einmal an zu erzählen: "Der Benutzer hat zu mir gesagt, er möchte gerne einen Schokokuchen backen, der vegan ist. Und was muss ich jetzt tun? Ich darf keine Eier und keine Butter verwenden. Und ich fange jetzt mal an zu recherchieren..." Also spricht das... spricht mit dir, obwohl er nicht wie gewohnt mit dir spricht. Das klingt wie so eine Zwischenebene der Kommunikation. Und dann kommt irgendwann ein Ergebnis heraus. Und jetzt könnte man ja auf die Idee kommen, dass das Ding tatsächlich denkt. Tut es aber nicht, richtig?
Barbara Lampl: Es tut nicht denken. Es kann nicht denken. Es tut nicht denken. Ihr könnt jetzt den Apple Intelligence Report lesen, der auch wieder festgestellt hat: Es kann nicht denken. Das Ding kann nicht denken. Wir können ja nicht mal beweisen, was menschliches Denken macht. Also grundsätzlich: Was passiert im Reasoning ist, dass es einen mathematischen Prozess dahinter gibt, der eure Anfrage in mehreren Teilschritten auflöst, parallel versucht, diese Teilschritte zu bearbeiten und dann wieder zusammenzufügen – mit mehr oder minder fancy Mathe. Und ich rede jetzt wirklich von richtig fancy Mathe. Also die fancy Mathe, die selbst wenn du Maschinenbau studiert hast, eventuell raus bist. Also selbst in Naturwissenschaften – also Physiker kommen mit, Biologen, Chemiker können schon wieder schwierig werden. Also wirklich die fancy Mathe. Die fancy Mathe ist teilweise so fancy, dass je nachdem, in was du selbst Mathe vertieft hast, du keinen großen Bock hast, dich damit rumzuärgern. Du könntest das lesen können, aber könntest eventuell keinen... Also das ist wirklich fancy – euch mal so eine Benchmark zu geben. Diese Mathematik wird in das Deep Learning, ins LLM injiziert, eben diese verschiedenen Aspekte einer Anfrage abzugleichen. Ihr könnt euch das also vorstellen: Was das Reasoning eigentlich macht ist, es teilt eure Aufgabe in Teilbereiche und stellt sie verschiedenen möglichen Varianten und verschiedenen Personen vor. Das ist jetzt zwar auch so eine Personifizierung des LLMs, aber ich finde das immer so ein ganz gutes Beispiel. Jetzt stellt euch vor: Eine Anfrage rund ums Thema AI und wie Generative-AI-Modelle funktionieren gebt ihr da ein, und das ist euer Modell, was ihr erklären lassen wollt. Und jetzt landet das bei drei Leuten. Die eine Person ist der Jochen. Die andere Person ist Jochens Frau, die muss heute herhalten, die arme Maus. Die andere Person bin ich. Okay? Also drei Leute sollen jetzt erklären, wie ein LLM funktioniert – drei unterschiedliche Leute mit drei unterschiedlichen Bildungsständen, mit unterschiedlicher Erfahrung in diesen Bereichen. Jetzt habt ihr Glück, und das Reasoning entscheidet sich: Es landet zuerst bei mir. Die arme Frau vom Jochen, die sagte "möp". Aber dann ist das Reasoning abgeschmiert, es ist falsch abgebogen. Das passiert – no joke. Das passiert, dass das auch bei der falschen Person landet. Wenn ich das richtig im Kopf habe, managed ja deine Frau einen Kindergarten. Wenn mich jemand was zum Management eines Kindergartens fragt, bin ich auch der falsche Ansprechpartner. Das können wir durchexerzieren für jedes Lebensgebiet. Ich stehe da auch davon, denke mir so: "Nee, danke, ich bin raus. Da gibt's auch nur Bullshit-Antworten von mir." Deswegen könnt ihr das auf jedes Fachgebiet geben. Dann gibt es jemand wie Jochen, der kennt beide Seiten: Der kann halb den Kindergartenmenschen und halb das LLM erklären. Heißt, wir sind dann eben dabei, dass die Halluzinationen vielleicht mehr oder minder richtig sind. Aber das ist das, was im Reasoning passiert: Das wird aufgesplittet, zusammengefügt. Aber auch da relativ – nicht wahllos, das ist falsch, aber auch nicht unbedingt in der bestmöglichen Variante. Und gleichzeitig passiert ein zweiter Prozess: Die Maschinen wollen ja extra hilfreich sein. Die sind harmoniebedürftig und wollen extra hilfreich sein. Und dieses "extra hilfreich" führt dazu, dass sie euch erzählen, über was sie da angeblich gerade nachdenken. Das kann wahr sein, kann aber auch kompletter Bullshit sein, oder es kann nah dran sein und sehr weit weg davon sein. Und deswegen ist das Reasoning eine coole, coole Funktionalität. Aber denkt nicht, dass es Denken ist, und dass es unbedingt euren Output besser macht. Es kann das auch massiv verschlechtern.
Jochen G. Fuchs: Ich erinnere mich noch – wenn ich da richtig liege – die Entstehungslegende vom Reasoning Mode geht auf dieses Chain-of-Thought-Prompting zurück. Da hat man das wohl entdeckt. Wir erinnern uns an unser Ding mit dem Schloss: Je länger du an diesem Schloss arbeitest, desto weniger wird es ein Schloss sein. Am Schluss hast du dann ein Vorhängeschloss, weil das Ding unterwegs den Faden verloren hat. Sprich: LLMs, zu große Aufgaben – verlieren sich irgendwann in dieser Aufgabe, kennen nur noch einen Teil der Aufgabe, versuchen den zu erledigen, und dann ist das, was rauskommt, eben Rotze. Deswegen sind die Menschen irgendwann auf die Idee gekommen: "Pass auf, lass uns doch große Aufgaben in kleine Schritte, in kleine Pakete aufteilen und sagen eben erstmal: Pass mal auf, lass uns doch erstmal nur nach Zutaten suchen, bevor wir uns übers Backen unterhalten." Und dann kriegst du die Zutaten, jetzt nehmen wir die Zutaten, und dann überlegen wir mal: "Was können wir aus den Zutaten machen?" Und dann kommen wir irgendwann so Schritt für Schritt zum Rezept. Das hat man sich halt angeguckt und hat gesagt: "Geile Idee, das entwickeln wir jetzt weiter. Da machen wir jetzt quasi Next-Generation-LLM draus, werfen da noch ein bisschen Mathe drauf, und zum Schluss haben wir dann ein LLM, das sich den Scheiß selber in Arbeitspakete quasi zerschnippelt, das Ergebnis jedes Arbeitsschrittes anguckt, dann im nächsten Schritt weiterverarbeitet." Und – was du meintest – wenn das Ding unterwegs falsch abbiegt an irgendeinem Arbeitspaket und landet dann doch wieder beim Vorhängeschloss, haben wir immer noch die Möglichkeit, dass ein Vorhängeschloss statt einem Märchenschloss dabei rauskommt. Auch wenn das sicher weniger passiert als bei dem Versuch, ein riesiges Arbeitspaket reinzuschmeißen und so oft iterativ durchzuprompting, bis unten irgendwas Passendes rauskommt.
Barbara Lampl: Genau. Chain of Thought ist die Entstehungsgeschichte. Es gab dafür natürlich schon auch Reinforcement-Learning-Aspekte da drin. Aber man hat eben gesagt, dass das Chain of Thought hat eben so viel geholfen. Chain-of-Thought-Prompting ist eine Prompting-Technik – eher eine Advanced-Prompting-Technik, die auch immer noch übrigens eingesetzt wird, obwohl wir Reasoning-Modelle haben. Und deswegen wurde sie in Mathe übersetzt. Und eben da ist dann die Mathematik dafür genommen wurde – es ist Reinforcement Learning, wo eben halt belohnt und bestraft wird und noch viel mehr gemacht. Wenn aber Reinforcement Learning ist die grundsätzliche Idee, dass "hast du gut gemacht", "hast du schlecht gemacht", "das egal" – so ungefähr, dass man so die Baseline vom Verständnis von Reinforcement Learning ist.
Jochen G. Fuchs: Genau, aber das ist Motorhaube. Nur so als kurzer Einwurf: Das hat nichts mit dir zu tun, das ist unter der Motorhaube. Genau, also das heißt: Wenn du, liebe Anwender, liebe Anwenderin, vor einem Chatbot sitzt und du siehst, das Ding fängt an zu "denken" – also in Arbeitsschritte zu zerlegen – dann zerleg du bitte deinen Kram nicht auch noch in Arbeitsschritte. Weil dann wird's weird.
Barbara Lampl: Das funktioniert nicht.
Jochen G. Fuchs: Jetzt hast du aber noch was erwähnt, nämlich die Halluzination. Auch so eine schöne Anthropomorphisierung – dass das Ding halluziniert, also es produziert Bullshit. Zwischendurch sollten wir vielleicht darauf hinweisen: Wie schön und eloquent es alles auch klingt, es kann auch kompletter Bullshit sein, was da zwischendrin eingestreut wird. Auch ohne Memory-Funktion. Was ist denn die Halluzination? Das sollten wir vielleicht unseren...
Barbara Lampl: Also die Halluzinationen entstehen aus mehreren Gründen, aber grundsätzlich gucken wir uns mal nicht an, warum die Halluzination entsteht, sondern: Was ist die Halluzination? Die Halluzination ist eine Aussage darüber, dass ich strohblonde Haare hätte. Habe ich nicht. Ich habe rot-blond-graue Haare. Das ist jetzt quasi – warum, wie gesagt, wir ignorieren mal kurz das Warum. Jetzt brauchst du natürlich... musst jetzt irgendwie ein Bild von mir gesehen haben, ob das jetzt irgendwie wahr ist oder nicht. Und das ist eine Halluzination. Das heißt: Es ist schön irgendwie falsch. Es können aber auch Details falsch sein. Eben zum Beispiel: Man könnte mich vollumfänglich beschreiben, aber man könnte mir strohblonde Haare zuweisen – dann wäre nur dieses eine Detail falsch. Und das sind eben sogenannte Halluzinationen. Diese Halluzinationen haben natürlich die Auswirkungen... das ist, wie gesagt, das ist kein Bug. Ganz, ganz wichtig: Ist kein Fehler des Systems, sondern die Halluzinationen sind quasi eigentlich die Kreativität, die auch in einem LLM liegt. Also die Idee: Warum hat man LLMs gebaut? Ist immer gewesen: Wir wollten den Code der Sprache knacken, Sprache zu erzeugen. LLMs hatten nie die Intention, dass sie richtig – "Factual Rightness" genannt – dass sie faktisch richtig argumentieren. Das ist nicht, warum man das gebaut hat. Hat es den Code der Sprache geknackt? Ja, zu 100 Prozent. Aber wie bei uns Menschen sind... auch bei uns kommt manchmal Schmarrn raus, wenn wir den lieben langen Tag labern. Jetzt ist es aber so, dass auch wir da ja schon teilweise Schwierigkeiten haben zu identifizieren, ob das richtig ist oder falsch ist, was uns jemand sagt. Und mit dieser Haltung musst du auch eben an die Arbeit mit einem Chatbot gehen. Und deswegen ist es so wieder so ein dämlicher Rat, den man ja auch immer ganz gerne sieht: Dass du den Chatbot so für alles verwenden kannst. Ja, in der Theorie. Aber wenn ich jetzt zurück zu... Ich hab zwei braune Daumen. Den Chatbot benutze, meine Rose zu beschneiden, dann kann ich überhaupt nicht einschätzen – ich habe keine Ahnung von Botanik, habe zwei braune Daumen, ich bin raus – ich kann es also nicht genau einschätzen. Jetzt ist es ja nicht weiter tragisch, ob ich jetzt meine Rose richtig oder falsch beschnitten habe. Aber stellt euch vor: Es geht um juristische Sachverhalte oder der berühmte Rat: "Damit schreibe ich jetzt den Brief ans Finanzamt." Jo, nee, Kinder! Ihr müsst Fachexpertise haben. Ihr seid jetzt also von Woche eins – ihr habt das angefangen, rumzuspielen. In Woche zwei und drei habt ihr in den Tiefen der Einstellungen rumgewühlt. Jetzt seid ihr in Woche vier. Spätestens jetzt in Woche vier fangt ihr an, dieses Tool für die Gebiete zu nutzen, wo ihr Ahnung habt. Davor könnt ihr eigentlich jeglichen Output echt ignorieren. Ihr habt jetzt Vertrauen ins Tool gefunden. Jetzt arbeitet ihr mit dem Tool in eurem Fachgebiet. Bei Jochen ist es E-Commerce, es ist Journalismus – das sind alles Jochen-Fachgebiete. Kann ich mit dem Ding einen Blogartikel schreiben über AI? Klar! Wenn's mir eins vom Pferd erzählt, ich in 2,5 Sekunden, dass das Schmarrn ist. Das ist halt der Unterschied. Bitte nutzt diese Dinge erstmal für Time-Gebiete, wo ihr Ahnung habt, wo ihr wirklich einschätzen könnt: Wann sind Halluzinationen oder nicht? Und Halluzinationen sind eben... Na ja, wenn man Twitter anmacht – heute X genannt – und sich denkt: "Äh, ja, mach jetzt wieder aus." Das ist Halluzination.
Jochen G. Fuchs: Jetzt gibt es ja bei vielen KI und an vielen anderen Stellen vielleicht auch so KI-Suchen – also Funktionen, die Dinge... geben Antworten. Also fangen wir mal vielleicht einfacher an: Ich frag das Teil irgendwas, spuckt etwas aus. So. Das, was das LLM normalerweise ausspuckt, ist eben eine Produktion, die auch auf den Trainingsdaten beruht. Was wir jetzt ganz oft sehen: Das sind dann Tools wie Perplexity oder das sind Features wie die Web-Suche oder Features wie Deep Research – bei welchem Bot sie auch immer sein mögen. Man schmeißt einen Prompt hinein, der gleichzeitig eine Suchanfrage ist. Die LLM schmeißt ein Tool an – in diesem Fall die Websuche oder Deep Research, eine sehr ausführliche Websuche, lassen wir es mal so einfach dahingestellt – und spuckt dir dann eine Zusammenfassung dessen aus, die die Suchergebnisse hält, die zu deinem Prompt und zu deiner Frage passen. Da tendiert man ja dazu, nach allem Möglichen zu fragen.
Barbara Lampl: Genau. Also das ist diese Funktionalität, und diese Funktionalität ist auch seit ihrem Release – sei es letztes Jahr gewesen – besser geworden. Aber Achtung: Auch hier gilt, nur weil was gesucht wird, heißt es nicht, dass es nicht halluziniert. Und zweitens: Es halluziniert sogar in den Quellen. Also es erfindet auch Quellen und Fußnoten und solche Späße. Es gibt ein Dokument, wo aufgelistet wird, wie viele Halluzinationen in Legal Documents in den USA getrackt worden sind. Achtung! Diese Tools – nochmal, die könnt ihr alle verwenden. Die können euer Leben erleichtern. Aber ihr müsst Grundlagenverständnis dafür. Deswegen machen wir diesen Podcast. Deswegen möchten wir euch eine KI-Basics-Folge geben – nicht, um euch davon abzuhalten, sondern um den verantwortungsvollen Umgang zu finden. Nutzt Perplexity, nutzt ChatGPT Search und Web Search. Aber checkt um Gottes Willen die Quellen und denkt immer dran: Angenommen, ihr möchtet für eure nächste Kopenhagen-Reise Perplexity benutzen, um die besten Restaurants rauszusuchen. Und wenn ihr da einen Restaurant-Tipp bekommt, wo ihr beim Reservieren feststellt, dass das Restaurant nicht mehr existiert, dann ist es nicht tragisch. Dann nehmt ihr ein anderes. Wenn ihr darauf aber auf medizinische Diagnosen, Legal, juristische Geschichten oder Sachen, wo es wirklich um viel wichtigere Dinge geht, auch auf Verlass oder andere Aussagen darauf basiert, dann ist es dramatischer. Also sortiert das immer ein. Und wenn ich um Gottes Willen auf einmal vor einem Restaurant stehe, wo mir Perplexity erzählt hat, das hätte einen Montag offen, und stehe einen Montag davor und denke mir: "Nö, hat es nicht" – jo, dann gehst du halt in die Tür nebenan weiter. Da passiert nichts. Aber das ist die Idee dahinter: Es gibt genügend Use Cases, wo einfach nichts passiert, wo es nicht irrelevant ist, dass das Zeug halluziniert. Und im Laufe der Zeit lernt man noch besser einschätzen: "Hey, dafür ist es gut, da muss ich es anders prompting, oder nutze es als erste Idee" und so weiter. Deep Research ist eine großartige Funktion. Auch ich nutze die, auch professionell. Und trotzdem lese ich das Paper immer noch mal selber. Aber das sind halt so Möglichkeiten, und die machen euer Leben leichter, bunter, schöner. Aber es ist eine sehr, sehr mächtige Technologie. Und die Macht dieser Technologie liegt unter anderem daran, dass wir zu unbewusst damit umgehen, weil wir zu wenig Ahnung davon haben. Deutschland ist auf dem Platz der hohen Digitalkompetenz – also die, die für AI notwendig ist – quasi nicht auf der Liste. Bei 25 Ländern sind wir bei Platz 23. Wir müssen uns der Realität stellen, dass die meisten in einer Umwelt agieren – und dazu zählt ihr jetzt vielleicht nicht, aber vielleicht diejenigen, für die ihr den Podcast hört oder den Podcast weitergebt, oder eben die berühmte Tante Erna, die man nochmal abholen will – die nicht so affin sind, die nicht dieses ganze Hintergrundwissen haben. Es wird ja... wir können die Diskussion mal wieder laut anstoßen: Es wird natürlich auch im Bildungswesen nicht vermittelt oder sonst was. Damit müssen wir jetzt aber gerade leben. Das ist aber keine Ausrede für erwachsene Leute, sich mit diesem Thema nicht zu beschäftigen. Und wenn wir in einer Welt sind, wo Social Media immer noch "neue Medien" sind, obwohl Social Media schon ganz alt sind, wo die Cloud scheinbar immer noch das ist, was am Himmel da oben ist, und nicht die Cloud, wo ich meine Daten speichere, dann müsst ihr euch ein bisschen an der eigenen Nase packen, dass ihr in einer voll digitalisierten, technisierten Welt lebt, wo eine der mächtigsten Technologien, die wir haben, gerade voll ausgerollt wird, und ihr im Zweifelsfall gar nicht mitbekommt, was es mit euch macht. Darum geht es. Und jetzt ist es noch ein perfekter Zeitpunkt zu verstehen, für sich zu nutzen, zu hebeln. Aber irgendwann – und das hatten wir auch schon mal gesprochen – wird es Invisible Technology. Und ich hab meinen letzten Blogartikel, den ich geschrieben habe – ja, das wird wahrscheinlich dann der Vorletzte sein, wenn diese Folge rauskommt – da ging es darum: Das Prompt Engineering. Es gibt nicht "den Prompt Engineer". Das war ganz am Anfang so ein Hype, dass es jetzt der neue Jobtitel ist. Die dunkle, dunkle Wahrheit ist: Dass jeder heute Prompt Engineer sein muss. Ob ihr dafür eine Schulung bekommen habt von den Arbeitgebern und Arbeitgeberinnen, weiß ich leider nicht. Aber es ist die Erwartungshaltung, dass dieses Skillset vorhanden ist, dass diese KI-Kompetenz irgendwie vom Himmel gefallen ist. Und deswegen hoffen wir, dass wir mit euch in dieser Folge euch die KI-Basics ein bisschen näherbringen.
Jochen G. Fuchs: Also ich treffe immer noch Menschen, die der Meinung sind: "Das berührt mich nicht, das berührt meinen Alltag nicht." Das ist im Moment auch noch richtig. Meine arme Frau – eines Tages wird sie mich schlagen – deren einzige Berührung war bisher eben jetzt dieses Meta-AI. Im Moment ist es einfach nur... sie ist genervt, weil alle anderen um sie drumherum es nutzen. Ich würde jetzt fast sagen: Der Gruppenzwang – "ich muss das jetzt auch mal nutzen" – der kommt jetzt halt mit dazu. Aber es ist auch noch nicht wirklich zwingend notwendig. Aber euch – und auch ihr – kann das in Zukunft... ich nehme jetzt mal das Beispiel der AI Overviews von Google... schon voll automatisch passieren, dass ihr Sachen begegnet, die von einem LLM generiert wurden. So ähnlich wie ich, wenn ich in Google Maps reinschaue und ich plane einen Familienausflug: Dann schaue ich bei den Öffnungszeiten vielleicht doch lieber nochmal auf die Webseite vom Museum, wenn das die einzige Option für diesen Tag ist, bevor ich mit der Familie vor geschlossenen Türen stehe. Wenn ich nur nach einer Pizzeria für meine eigene Mittagspause suche, dann verlasse ich mich vielleicht darauf, dass Google Maps mir die Öffnungszeiten richtig angeguckt hat, weil das Ergebnis ist: Ich laufe dann einfach zur nächsten Pizzeria weiter. Es ist nicht der komplette Tag im Arsch – pardon. Und so ähnlich ist das im Moment, wenn ich mir Google AI Overviews anschaue: Ihr begegnet da das erste Mal – auch wenn ihr noch nie einen Chatbot aufgemacht habt – einem LLM, dass euch Antworten zusammenfasst aus Websites. Ja – glaube ich jetzt, was da steht, oder glaube ich das nicht? Das ist der erste Punkt, wo es quasi allen in den Alltag eindringt. Und spätestens da sollte man sich eben bewusst sein: Was kriege ich da eigentlich serviert?
Barbara Lampl: Richtig. Und das ist halt ganz, ganz wichtig zu verstehen, dass man einfach darauf vorbereitet sein muss, dass die Welt jetzt sich schon massiv verändert hat, aber sie verändert sich noch weiter. Und am Ende des Tages ist es wie routenplaner.de: Wann haben wir den denn zum Gottes Willen das letzte Mal benutzt? Keiner von uns. Und keiner macht sich quasi die Komplexität hinter Google Maps bewusst. Nicht weiter tragisch – müsst ihr nicht, ist mehr so mein Job. Aber jetzt beeinflusst das euer Leben. Ihr findet es nicht lustig, wenn Google Maps morgen entscheidet, dass es ein super Plan ist, dass ihr jetzt alle extra sechs Stunden auf der Autobahn verbringen müsst, weil das der Plan ihrer Retention ist, damit ihr mehr Google Maps benutzt. Chatbots können das.
Jochen G. Fuchs: Und wir stehen an einer Weiche im Moment. Also es besteht die Möglichkeit, dass diese grafische Benutzeroberfläche des Internets, so wie wir es kennen, an Bedeutung verliert – vielleicht, Achtung, Glaskugel, sogar irgendwann verschwindet – weil wir ja Sprache als Werkzeug haben und Sprache auch als Antwort zurückbekommen. Also statt quasi diese Benutzeroberfläche von Google zu benutzen, kann Google die Antwort direkt ins Ohr flüstern. Ich kann ja auch einfach von meinem Smartphone aus mein Headset nutzen. Das geht. Nebenbei bemerkt: Es gibt einen Sprachmodus bei ganz vielen KIs. Kann ihm was sagen, er gibt mir die Antwort zurück. Ich sehe dann das ganze Drumherum nicht. Ich habe nie die Quellen gesehen, die drumherum sind. Ich habe die Antwort einfach bekommen. Und das war's. Alles, was zwischendrin ist, ist weg. Einfaches Beispiel aus meinem Alltag: Wenn ich Artikel schreibe, dann habe ich mit einem Redaktionssystem zu tun – also eine Benutzeroberfläche, wo diese Artikel drinstehen. Und in unserem Verlag gibt es viele Marken, und das kann durchaus passieren, dass die Marken unterschiedliche Redaktionssysteme haben. Und jetzt sagt man sich natürlich: "Warum soll ich denn jetzt noch hier Geld in die Pflege von Redaktionssystemen investieren oder gar noch ein neues kaufen?" Weil es kommt jetzt der Punkt: Es werden Artikel mit Hilfe von KI geschrieben, und jetzt steckt der Text in der KI drin. Und im Moment – soweit bin ich persönlich jetzt schon – kommt mir das ziemlich rückständig vor, dass ich diesen Text da rauskopieren muss und muss ihn dann in ein anderes System kopieren, damit er dann nachher an einer dritten Stelle irgendwo erscheint. Da wäre es mir persönlich lieber: Ich kann meiner KI sagen: "Nimm das Ding bitte und schieß das auf die Webseite."
Barbara Lampl: Das ist jetzt aber auch eigentlich ein Problem, das schon längst gelöst ist. Just saying.
Jochen G. Fuchs: Genau. Anhand von diesem Beispiel kann ich quasi jetzt verdeutlichen: Die Oberfläche dazwischen – diese Benutzeroberfläche für das Redaktionssystem – die brauche ich ja nicht mehr. Die ist fort. Der weine ich jetzt auch nichts hinterher. Aber anders sieht es halt aus: Gehen wir mal zurück in die Anfangszeit des Internets. Als die Suchmaschinen aufkamen, kam auch so dieser Begriff mit dem Dark Web auf – also quasi das Internet, das nicht indiziert ist. Das existiert nicht. Also sprich: Wenn ich auf Google etwas suche und es gibt es nicht auf Google, dann gibt es das nicht. Also was ich nicht googeln kann, das existiert nicht. Das ist ja in den Köpfen heute noch bei vielen der Fall. Und das ist natürlich nicht wahr. Also da existieren rundherum Quellen, die vielleicht nicht indiziert sind oder die eine andere Suchmaschine findet. Auch wenn Google immer besser geworden ist und es quasi schwer geworden ist, Google zu entweichen. Kommen wir eventuell irgendwann an die gleiche Entwicklungsstelle: Was in der KI nicht vorkommt, existiert nicht. Nämlich unsere Antwortmaschine, über die wir vorhin schon gesprochen haben – Perplexity beispielsweise –: Ich stelle dem Ding eine Frage, das Ding beantwortet mir etwas, sagt mir zum Beispiel die Pizzerien: "Was sind die tollen Pizzerien aus irgendwas?" Jetzt ist das aber so, dass Google an Suchergebnissen zwei Millionen irgendwas Pizzerien in Köln oder sowas anzeigt. Perplexity listet ja zehn Pizzerien auf an der Stelle. Wo sind denn die anderen 999.990 hingekommen? Die sind fort. Und das ist so eine Gefahr, wenn wir diese Benutzeroberflächen zwischendurch wegnehmen und quasi die Antworten auf dem Silbertablett serviert kriegen: Existiert für uns gefühlt das, was zwischendrin liegt, nicht mehr.
Barbara Lampl: Genau. Und das ist halt – wie gesagt – da sind wir gerade noch nicht, und auf der anderen Seite finde ich es auch gar nicht so tragisch, weil wir werden das sicherlich noch anders auch gelöst bekommen. Aber wir werden das nur gelöst bekommen, wenn von uns als Nutzenden ein hohes Interesse, ein hochgenuges Interesse daran besteht. Auch unser Verhalten reflektiert: Google ist eine Google-Suche. ChatGPT ist keine Google-Suche. Und das, was ich am häufigsten sehe, ist, dass ChatGPT als Google-Suche benutzt wird. Genau, das ist Bullshit. Das ist Gen-AI. Wenn ich Google suche, will ich die 200 Pizzerien haben. Jo. Aber das ist halt am Ende des Tages... und ich muss da leider der Wahrheit immer ins Gesicht gucken: Wer an der Stelle gerade noch immer behauptet, "KI hat nichts mit ihm zu tun oder nichts mit ihr zu tun", das ist denkfaul. Ich weiß, dass ich mir da nie Freunde mitmache, aber es ist halt auch Faulheit dahinter. Weil: Mein Leben ist halt jetzt gerade bequem ohne das. Mein Leben könnte zwar besser sein damit, aber den Aufwand will ich nicht betreiben. Denn am Ende des Tages – und diese Welt rast, und sie ist schneller, als ihr euch lieb ist – ist kurzfristiger Aufwand, langfristiger Gewinn. Wenn ihr jetzt den kurzfristigen Aufwand nicht betreibt, dann guckt ihr irgendwann mal wo vom Gebirge. Egal, ob Unternehmen oder Privatpersonen.
Jochen G. Fuchs: Das ist wie damals in der Unternehmenswelt: Wo ich überlege, als ich in Richtung Ausbildung ging, war so einer der klassischen Ratschläge, die man in der Berufsberatung der Arbeitsagentur gekriegt hat: "Man soll sich mit Office-Software auseinandersetzen, weil eben keiner mehr sein Kram mit irgendwas anderem schreibt, sondern es wird eben mit Word und sonst was geschrieben." Und wenn du das nicht hattest, dann warst du eben nicht fit für die Berufswelt, weil keiner dir irgendwelche einfachen Aufgaben zuteilen kann. Und an der gleichen Entwicklungsstelle werden wir irgendwann bei KI ankommen, weil...
Barbara Lampl: Sind wir schon? I'm sorry, Spoiler Alert: Sind wir schon längst. Sind wir schon längst. Wir haben Juni 2025. Von der Warte sind wir schon längst.
Jochen G. Fuchs: Weil: Was hilft dir, wenn du weißt, wie du ein Redaktionssystem bedienen kannst, wenn es das Ding dazwischen nicht mehr gibt? Wenn der einzige Weg, deinen Artikel live zu kriegen als Journalist, das Prompting ist und das Umgehen mit einer KI entsprechend, dann bist du raus aus der Nummer.
Jochen G. Fuchs: Mit dieser apokalyptischen Endbotschaft können wir euch jetzt in die Welt entlassen. Barbara, sag mal irgendwas Aufmunterndes.
Barbara Lampl: Es ist keine apokalyptische Endbotschaft, denn das ist total skurril: Obwohl wir Juni 2025 haben oder wann immer ihr das hört, wahrscheinlich seid ihr immer noch zum Teil First Mover. Deswegen: Go, go, go!
Jochen G. Fuchs: Es ist definitiv nicht zu spät, sondern es ist jetzt genau der richtige Zeitpunkt, damit anzufangen. Da fällt mir auch noch ein Zitat dazu ein: "Es wird nie wieder so billig sein, mit KI etwas zu erschaffen, als es heute ist." Weil noch im Moment legt Big Tech bei allem oben drauf. Im Moment lernen wir vielleicht noch, dass es noch andere Möglichkeiten gibt, KI einzusetzen, als auf Big Tech zu setzen. Aber das, liebe Kinder, ist dann eine andere Geschichte.
Barbara Lampl: Genau. In dem Fall: Schönes Ö aus eurem neuen Lieblings-KI-Podcast und hoffentlich bis zur nächsten Folge.
Jochen G. Fuchs: Bis zum nächsten Mal! Und schaut gerne mal in den Anfang unserer Podcast-Liste hier rein. Da gibt es auch noch so einen schönen tieferen Einstieg, wo man nochmal gucken kann: Was gibt es denn alles? Was ist Machine Learning, was ist Deep Learning, was ist Supervised Learning – was uns die liebe Barbara heute schon mehrfach um die Ohren gehauen hat. Das wird da auch drin erklärt, und das ist dann quasi die akustische Einstiegsdroge in euren neuen KI-Lieblingspodcast. Macht's gut und bis bald!
Barbara Lampl: Ciao!
Neuer Kommentar