KI-Alignment und das Grok-Desaster: Wer bestimmt, was Modelle denken?

Shownotes

Neues Jahr, neuer Irrsinn: GROK macht Schlagzeilen – und zwar nicht die guten. Elon Musks KI-Baby hat sich zur Bildgenerator-Anarchie entwickelt, komplett mit Darknet-Verbindungen und einem ethischen Kompass, der offenbar im Bermuda-Dreieck verschwunden ist. Barbara und Jochen diskutieren, warum technische Brillanz und moralischer Bankrott manchmal Hand in Hand gehen, wie LLMs zu personalisierten Echo-Kammern werden und warum China schon längst weiß, was ein "AI-Jahr" in Hundejahren bedeutet. Spoiler: Es sind mindestens zehn. Außerdem: Warum der Uncanny-Valley-Effekt bei Kinderpornografie plötzlich keine Rolle mehr spielt, weshalb nur ein Prozent der Leute auf Links klickt und was das alles mit eurem Job zu tun hat. Fazit der Folge: Hintern hoch – oder das Opossum macht's vor.


🔗 Links & Quellen

Hier sind die recherchierten Links für die Platzhalter:


Aktualisierte Links für die Show Notes

🔗 Links & Quellen

GROK-Skandal & Internet Watch Foundation:

KI-Modelle & Venezuela-Vergleich:

OpenAI Nutzungsstudie:

Xi Jinping Neujahrsansprache 2026:

KI & Arbeitswelt:


Soll ich die kompletten Shownotes mit den aktualisierten Links als Datei ausgeben?

📑 Chapter Markers

[00:00] Intro & Happy New Year 2026 [00:23] GROK-Skandal: Die pornografische Produktionsmaschine [05:03] Technische Brillanz vs. ethischer Bankrott [07:54] Uncanny Valley: Wann ist KI-Content akzeptabel? [11:53] Branchenschaden durch fehlende Guardrails [15:17] Der Irrsinn und die Leistungsfähigkeit der Modelle [15:32] Publisher-Krise: Wenn KI den Traffic frisst [17:13] KI-Modelle und politisches Alignment (Venezuela-Test) [22:12] Was ist Alignment? Trainingsdaten & Bias erklärt [25:31] DeepSeek & chinesische KI-Modelle [27:17] Alignment vs. Entbiasing: Der Unterschied [30:32] LLMs als Echo-Kammer-Maschinen [32:47] Fact-Checking mit KI: Das LinkedIn-Problem [35:50] Auswirkungen auf die Arbeitswelt 2026 [39:55] Chinas KI-Strategie und die erodierende Mittelschicht [42:25] Fazit: Hintern hoch!


🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!

Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein entrinnen!

Unsere Hosts AI Babsi: (Barbara) Website | LinkedIn - E-Fuchs: (Jochen) Website | LinkedIn

Unser Podcast Blog https://www.laier89.de/

01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110

LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.

Transkript anzeigen

Jochen G. Fuchs: Hallo und herzlich willkommen zu einer neuen Folge deines neuen KI-Lieblingspodcasts, LAIer 8|9. Hallo Barbara!

Barbara: Hallo Jochen!

Jochen G. Fuchs: Schön, dass wir wieder da sind.

Barbara: Und in dem Fall noch mal Happy New Year. Falls ihr unsere erste Folge im neuen Jahr noch nicht gehört habt, ist das vielleicht eure erste Folge in 2026.

Jochen G. Fuchs: Ja, ein frohes neues Jahr, ganz genau. Und das neue Jahr beginnt gleich mit einer tollen Bescherung, dabei hatten wir doch gerade erst Bescherung. GROK lässt wieder alle die Stirn runzeln, weil das Ding jetzt zur pornografischen Produktionsmaschine geworden ist.

Barbara: Ja, und zwar direkt auf Twitter beziehungsweise X, wie auch immer diese Plattform jetzt heißt. Und dann hat die Internet Watch Foundation auch noch herausgefunden, dass das Darknet mit jetzt noch viel dramatischeren Bildern geflutet wird. Denn jetzt reden wir – Disclaimer – auch über Kinderpornografie. Die ist im Darknet zurückverfolgbar auf GROK zurückzuführen. Die Internet Watch Foundation hat das von heute beziehungsweise gestern veröffentlicht, wenn wir den 8. und 9. Januar als Datum hier mal kurz etablieren wollen.

Jochen G. Fuchs: Das ist ethisch und moralisch natürlich eine komplette Bankrotterklärung. Normalerweise würde man erwarten, dass Guardrails in irgendeiner Form aufgebaut werden, die genau so etwas verhindern sollen. Aber Musk läuft ja komplett rogue.

Barbara: Ja, das ist ein offenes Geheimnis, dass GROK und xAI – wie man das jetzt auch genau immer auseinanderhalten will, xAI ist die Firma dahinter – da definitiv ein anderer Werte- und Moralkodex auch schon über die letzten zwölf bis 18 Monate an den Tag gelegt hat. Wir erinnern uns an: „Bitte gebt mir doch alle News und alle Informationen, sodass wir ein Modell trainieren können, was die Welt wirklich repräsentiert." Also warum soll ich das Modell verändern, wenn ich die Grundtrainingsdaten verändern kann? Das hatten wir auch schon mal in einer Folge in 2025 diskutiert. Und jetzt sehen wir, dass das Ganze nicht nur mehr in die Welt von Text hineingeht, sondern eben auch insbesondere in die Bildgenerierung. Wir wissen, die nächste Frontier wird die Videogenerierung sein. Wir sehen ja schon – Mosseri, Chef von Instagram, hat mehrfach Zahlen veröffentlicht in seinen Freitags-Q&A-Sessions –, wie hoch der Anteil auf Instagram von vollem AI-Content ist. Also wirklich gut gemachte Deepfakes und auch schlecht gemachte: mit mehreren 30, 40, 50 Prozent im Durchschnitt, was auf Instagram als AI-generierter Content unterwegs ist, Tendenz stark steigend. Und da reden wir noch über eine einigermaßen moderierte Plattform. Das muss man immer einordnen. Und eine Plattform, die grundsätzlich sexualisierte Inhalte, Gott sei Dank, mehr oder minder gut wegfiltert oder gar nicht erst zulässt. Twitter und X steht der Pornoindustrie auch als Promotion-Plattform zur Verfügung. Da gibt es auch lustige Videos, die sonst da schon durch die Gegend geflogen sind. Das ist jetzt nichts Neues, aber es waren immer Erwachsene und hoffentlich freiwillige Erwachsene. Und das, was jetzt mit GROK passiert ist, fing damit an, dass irgendwer mal auf die lustige Idee kam, von einer wahllosen Person, die ein Foto gepostet hat – komplett angezogen –, darunter zu schreiben: „Mach die mal im Bikini." Und vom Bikini war es dann nicht weit weg von: „Zieh die Person doch bitte mal ganz aus." Wenn ich Bikini sage, ist natürlich klar, dass es dabei in erster Linie um Frauen ging. Und aus Frauen wurden dann minderjährige Mädchen ganz schnell. Das Ganze hat dann dazu geführt, dass weitere Sachen im Hintergrund recherchiert wurden. Die Internet Watch Foundation – UK-based – hat eine tiefere Recherche gemacht und ist zu diesen Erkenntnissen im Darknet gekommen. Dass GROK eine Verbindung zum Darknet hat, ist auch nicht unbedingt neu. Es gibt immer wieder Gerüchte, dass Daten, die in GROK verwendet wurden, ziemlich sicher nur Darknet-Ursprung haben können, also im Prinzip irgendwie da eingekauft wurden oder so reingekommen sind. Das ist der ganze Case rund um xAI und GROK. Lässt die ganze Branche nicht wirklich gut aussehen, weil man sich schon fragt: Hat hier irgendjemand noch einen moralischen, ethischen Kodex oder haben wir das alles angezündet?

Jochen G. Fuchs: Schizophrenerweise ist es technisch trotzdem relativ beeindruckend, wie weit die Bildgenerierung da schon gekommen ist. Wenn man sich an die ersten Gehversuche erinnert und dann gesagt hat: „Stell mal die Person irgendwie anders da" – ich hab das damals auch mit diversen Sachen ausprobiert, mich selbst in unterschiedlichen Szenarien vom Cowboy bis zum Astronauten generieren lassen. Man hat zwar immer eine gewisse Ähnlichkeit zu sich entdecken können, aber man hat schnell gesehen: Das ist ein KI-generiertes Bild und wirkte irgendwie nicht wirklich realistisch.

Barbara: Definitiv. An der Stelle ist es wirklich etwas, was man noch mal sagen muss. Ich muss da wirklich nicht nur Herz und Hirn, sondern alles in mir aufspalten, weil ich kann mich nicht hinstellen und sagen: „GROK ist Scheiße." GROK ist moralisch, ethisch natürlich komplett verwerflich. Aber von dem, was technisch dahinter steckt, ist es leider eins der besten Modelle, die jemals gebaut wurden. Wirklich technisch advanced, gut, sauber gemacht, rein unter technischen Data-Science-Aspekten. Auf der anderen Seite ist diese Entwicklung – wie weit nicht nur Bild-, sondern auch Videogenerierung ist – beeindruckend. Ein großartiger Kollege von mir, einer der besten 3D-Designer, die ich kenne, hat jetzt ein chinesisches Modell auf einer On-Premise-Solution selbst zum Laufen gebracht und 3D-Renderings gemacht. Wenn man sich anguckt: Das war vor sechs Monaten noch dermaßen Schrott. Was jetzt in 30 Sekunden machbar ist – wir sind so unglaublich weit in 2026. So ein komischer Prompt wie „entkleiden Sie bitte den Jochen und dann stellen Sie ihn im Bikini dar" läuft so stabil, dass der Jochen einen Bikini anhat und seine Kappe immer noch auf dem Kopf hat und seine Brille auch. Das war davor undenkbar. GROK ist auf dem Niveau von Nano Banana, was definitiv eins der besten Bildgenerierungsmodelle ist, die wir gerade haben. Wenn nicht sogar noch ein bisschen besser. Jetzt sind wir an diesem Punkt, wo diese ganzen Diskussionen, die wir seit vielen Jahren führen – für mich seit vielen Jahren, aber auch für euch seit Ende 2022, Anfang 2023 –, wo wir immer wieder gesagt haben: Wir brauchen eine Verankerung, wir müssen ethisch-moralisch, wir müssen über Regulation an der Stelle in diesem Kontext sprechen, wie wir damit umgehen. Und jetzt holt uns die Technik, die Fähigkeiten der LLMs und alles, was mit GenAI assoziiert ist, wirklich massiv ein. Jetzt sitzt man vor so einem Desaster und denkt sich: Yo, und nu?

Jochen G. Fuchs: Das macht den Kontext in viele verschiedene Richtungen auf. Eine kurze Zwischenfrage, die sich mir aufdrängt: Man diskutiert ja immer noch über den Uncanny-Valley-Effekt. Das ist auch etwas, wo Unternehmen, die professionell auf Bildgenerierung zurückgreifen – ein aktuelles Beispiel: der Coca-Cola-Weihnachtsspot –, immer noch auf Reaktanz stoßen, zumindest in der öffentlichen Wahrnehmung, weil die Spots einfach zu deutlich als KI-generiert erkannt werden oder Unbehagen erzeugen. Sind wir denn, wenn wir Nano Banana oder GROK angucken, jetzt soweit, dass wir dieses Tal schon verlassen haben? Oder ist das noch ein bisschen diffus?

Barbara: Ich würde gar nicht sagen, die Fokusfrage kommt so oft auf den Kontext an. In GenAI ist egal, ob wir über Kontextgenerierung sprechen oder andere Szenarien. Stell dir vor, wir machen jetzt als LAIer 8|9 ein kleines AI-generiertes Video für ein Reel auf Instagram. Das kommt cool an, das wird jeder beklatschen, weil wie cool, die Barbara und der Jochen haben da irgendwie ein witziges Video generiert. Die Reaktion in dem Kontext, dass wir das tun, wird positiv sein. Bin ich aber ein Global Player wie Cola und bin ich bereit, erstens vielleicht sehr viel Geld in die Hand zu nehmen, dass das AI-Generierte cool wirkt, richtig gut gemacht ist – wir hatten jetzt an Weihnachten auch ein paar wirklich gut gemachte AI-Spots, und die haben genau die passende Reaktion bekommen. Man ist auch relativ transparent damit umgegangen. Das heißt, da war die Reaktion sehr viel positiver. Aber einem Brand wie Coca-Cola tut sich damit schwerer. Das liegt nicht mehr daran, dass die Qualität von AI schlecht ist, sondern welche Qualität ich von wem in AI erwarte. Wir sehen einen großen Trend – ich kann nur empfehlen, Mosseri auf Instagram zu folgen. Ich kenne keinen CEO, der so transparent freitags immer mal Einblicke in seine Welt gibt. Wir sehen diesen wahnsinnigen Trend zu: Es muss eine Unschärfe haben, es muss etwas Echtes haben. Was kann ich noch vertrauen? Sorry, das kann natürlich auch fast ganz AI-generiert sein, aber es ist ein anderer Aufwand. Die Kontextualisierung von AI-generierten Inhalten ist relevant. Und jetzt nochmal der harte Wurf zu GROK: Wir reden hier über das Desaster des Jahrzehnts, Kinderpornografie. Was GROK da veranstaltet – ich glaub nicht, dass wir da einen Uncanny Valley haben, da haben wir schon ganz viele andere Grenzen verloren. Das ist da nicht mehr relevant. Dann hast du natürlich die Brands. Stell dir vor, Nike würde einen schlechten AI-Spot rausballern – volles Desaster. Würde aber ein deutscher Mittelständler sich an einem KI-Spot versuchen und würde auch wirklich sagen: „Hey, da haben wir mal rumgespielt", dann wäre die Reaktion anders. Das ist Context Matters. Wir haben auch die Erwartungshaltung, dass Brands, die über extrem viele monetäre Mittel verfügen, diese auch sinnvoll einsetzen, wenn wir als Konsumenten ja auch unterhalten werden wollen. Deswegen ist es irgendwie diffus und irgendwie auch nicht, weil es nur noch auf den Kontext ankommt. Technisch kannst du das heute alles – fast alles. Besonders Short-Format. Long-Format ist noch eine ganz andere Nummer. Aber Kurz-Format kann auf hoch anspruchsvollem Niveau geliefert werden. Ich muss aber wissen, wo ich als Brand stehe und in welchem Kontext ich es liefern muss.

Jochen G. Fuchs: Schadet beispielsweise die Tatsache, dass Musk und xAI zulassen – in Anführungszeichen –, dass GROK so rogue und ohne größere sinnvolle Guardrails läuft, nicht im Generellen einfach der ganzen Branche?

Barbara: Definitiv. Das schadet der kompletten Branche. Aber dadurch, dass wir momentan in einem solch anspruchsvollen geopolitischen Multikrisenszenario leben – du schreist gegen so viel Lärm an, dass das halt heute News ist. Und morgen passiert was Drastisches. Schadet das der gesamten Branche? Ja. Und das wird wahrscheinlich auch etwas sein, was uns mittel- und langfristig, im besten Falle wenn wir aus diesem „Flooding the Zone" oder aus dieser vollen Irrationalität wieder rauskommen, dann wird das natürlich der gesamten Branche schaden. Ich bin der festen Überzeugung und hoffe es auch, dass wenn wir wieder zu einer Welt ein bisschen zurückgefunden haben, wo ein anderer Wertekodex herrscht – mein kleines Optimistenherzchen sagt ja immer, wir finden wieder eine Welt retour, die vielleicht so bisschen mehr 2019 war oder 2018, wo der moralische, ethische Kodex ein bisschen anders war –, dann wird das auch langfristig negative Konsequenzen haben. Gerade sind wir in einem Zeitalter der kognitiven Dissonanz. Es ist zwar negativ für die Branche und auch wahnsinnig anstrengend, aber im Zweifelsfall ist es negativ für die falsche Abteilung der Branche. Mir fällt eher das auf die Füße, was GROK macht, als jetzt GROK selber. Weil das ist einfach eine Sache von Musk.

Jochen G. Fuchs: Man ist den Irrsinn schon gewohnt, in Anführungszeichen. Aber ich denke halt auch in die Richtung, dass der Normalsterbliche halt KI- und Bildgenerierung mit Kinderpornografie assoziiert, was dann wiederum die transparente Anwendung von Bildgenerierungen für Unternehmen schwierig macht. Gehen wir wieder zurück zum Beispiel Coca-Cola. Wenn jetzt irgendein Verbraucher auf die Idee kommt, Coca-Cola vorzuwerfen, dass sie eine Technologie verwenden, die auch für Kinderpornografie verwendet wird, dann hast du quasi einen Markenschaden auf einer Metaebene. Auch wenn die natürlich das Zeug nicht mit GROK generiert haben.

Barbara: Man weiß es nicht so genau. Aber ja, das ist genau das. Früher hätten wir – das siehst du ja momentan – wie kurz diskutieren wir nur noch über so was wie GROK mit diesen dramatischen Auswirkungen? Da diskutieren wir – wenn ihr diesen Podcast jetzt hört, wenn ihr den ad hoc zum Release hört, werdet ihr wissen, wovon wir reden. Aber gehen wir davon aus, ihr hört diesen Podcast irgendwann Mitte 2026, weil ihr ein neuer Hörer seid und alle Folgen nachhören wollt, was uns natürlich sehr freut. Dann werdet ihr kurz fragen: Was war denn mit GROK? Wahrscheinlich wird es was anderes gegeben haben, was das Thema überdeckt hat. Das ist das berühmte „Flooding the Zone". Du bist so gewohnt des Irrsinn, dass du nicht mehr priorisieren kannst, was der größere Irrsinn ist, weil jeden Tag etwas Neues passiert.

Jochen G. Fuchs: Eigentlich wollten wir uns darüber unterhalten, wie weit die KI-Modelle mittlerweile schon vorangeschritten sind. Jetzt hängen wir irgendwie im Irrsinn fest.

Barbara: Na ja, aber das passt ja ganz gut. Wie weit der Irrsinn – der wäre nicht möglich, wären die KI-Modelle nicht so gut.

Jochen G. Fuchs: Ja, ein Thema ist halt auch, dass seit Google sehr intensiv auf den KI-Modus gesetzt hat und mehr und mehr Traffic in diese Richtung shiftet, mehr und mehr Publisher spüren, dass ihnen Traffic wegbricht, weil nur rund ein Prozent der Menschen, die den KI-Modus nutzen, um eine Antwort zu bekommen, dann auch tatsächlich auf einen Quell-Link klicken. Nur mal ein Beispiel, wahllos rausgezerrt: Die Branchenwebseite Business Insider hat wohl über 20 Prozent ihrer Belegschaft gekürzt, und das wird eben dem wegbrechenden Traffic zugeschrieben. Meine Branche lebt noch zu signifikanten Teilen von Werbung und von Traffic. Und wenn es nicht Werbung ist, dann geht es darum, Content zu verkaufen, Tickets für die eigenen Events zu verkaufen. Automatisch weniger Traffic ist weniger Reichweite, weniger im Funnel. Man kann weniger verkaufen, auch wenn es jetzt nicht mehr um klassische Display-Werbung geht. Und das, wenn man gedanklich jetzt gerade noch bei GROK und Co. ist – gefährlich an der Geschichte ist ja auch, dass die KI-Modelle dann ja auch das Narrativ bestimmen. Wenn jetzt jemand hergeht und nimmt beispielsweise Venezuela und fragt verschiedene KI-Modelle, was denn gerade in Venezuela passiert, sind die Antworten ja relativ unterschiedlich. Muss man höflich ausdrücken.

Barbara: Genau. Ein paar Leute haben den Test gemacht. Recht legendär der New-York-Times-Artikel, in dem man Claude, ChatGPT und GROK zur Verfügung gestellt hat. Claude und ChatGPT waren leicht irritiert, was denn diese Fake News sein sollen. GROK, aus mehreren Gründen, hat relativ schnell kapiert: Nee, nee, das ist so passiert. Das hat unter anderem mit der Architektur von GROK und der Anbindung an Twitter zu tun. Der zweite Teil war dann die Einschätzung: Ist das jetzt völkerrechtlich erlaubt, ja oder nein? ChatGPT und Claude waren Team Nein, das ist völkerrechtlich nicht erlaubt. Während GROK Team war: Völkerrechtlich ist das erlaubt. Jetzt bin ich keine Völkerrechtsexpertin, aber ich tendiere irgendwie eher zu: Völkerrechtlich ist die ganze Situation zumindest komplexer, als dass man einfach sagen kann, man darf das tun.

Jochen G. Fuchs: Ich bin auch kein Völkerrechtler, aber nein, darf man nicht. Das amtierende Staatsoberhaupt genießt Immunität, und man kann sagen, da endet das ja schon.

Barbara: Genau. Egal ob der Präsident illegitim oder legitim ist – du kannst ja nicht einfach sagen: Jochen, deine Bude ist jetzt meine Bude. So haut das halt einfach nicht hin. Aber das ist genau das. Das wissen wir auch. Die Modelle sind unterschiedlich politisch aligned. Sie haben unterschiedliche Ausrichtungen. Grundsätzlich sind die meisten Foundation Models sehr neutral, früher eher ein bisschen in Richtung dessen, was wir als links bezeichnen, weniger was wir als rechts bezeichnen. GROK war und ist da der Ausreißer, zwischenzeitlich sehr viel drastischer als früher. Aber kombiniert eben auch mit dem, dass es eine stärkere Anbindung an die aktuellen News hat, hat es zumindest erstmal das – und da sind wir wieder bei dieser Dissonanz, die man mit GROK hat. Denn GROK hat als einziges Modell schnell genug kapiert: Okay, ja, das ist wirklich passiert. Die Einschätzung war jetzt wieder schwierig. Und dieses differenzierte Betrachten – wenn ihr uns schon länger zuhört, wisst ihr, dass wir immer wieder darauf zurückkommen: Du kannst halt die Verallgemeinerung nicht machen, und das ist das, was uns gerade echt killt. Ich kann halt einfach nicht sagen: GROK ist Schrott. Kann ich euch aufrufen, GROK bitte nicht zu benutzen? Trotzdem ja. Aber ich kann es nicht aus technischen Data-Science-Gründen machen, sondern ich kann es nur aussagen aus: Sorry, das kann jetzt nicht euer Ernst sein, dass das die moralisch-ethische Entscheidungsinstanz ist. KI oder GenAI hat auch zwischenzeitlich wirklich – zurück zu unserem Beispiel mit Coca-Cola – viel mit Haltung zu tun. Was viele Unternehmen noch nicht so ganz auf dem Schirm haben, ist dass Haltungsthemen rund ums Thema KI auch eine echt hohe Relevanz bekommen. Was heißt denn das eigentlich? Welche Entscheidung treffe ich da? In welchem Kontext? Es bleibt ein interessantes Weltmodell aktuell, insbesondere was wir nicht vergessen dürfen. Und das ist, ich finde, ganz spannend mit den AI-Overviews von Google: Nur ein Prozent klicken auf die dahinter liegenden Quellen. Das heißt, wir können davon ausgehen, dass 90 bis 99 Prozent – man weiß es ja nicht so genau, vielleicht scrollen auch manche einfach so wie ich immer gerne nach unten und ignorieren die AI-Overviews – aber ein hoher Prozentsatz einfach den KI-generierten Inhalten vertraut und glaubt, weil ansonsten würden sie ja wohl draufklicken. Das heißt, wir haben auch damit den Menschen – Layer 8 vor dem Rechner –, der das dann als Wahrheit annimmt. Wir hatten einen sehr lustigen Fall, der auch so bisschen in der X- und Nebenschauplätze der AI-Welt rumgeisterte. Spoiler Alert: LLMs und Aprilscherze, die können nicht herausfinden, dass am 1. April etwas gepostet wurde, was ein Aprilscherz ist, sondern die beziehen das als Realität ein. Woher soll denn das LLM auch wissen, dass das Ding am 1. April gepostet wurde und damit nicht ernst gemeint ist? Man findet immer wieder einzelne, sehr viral gegangene Aprilscherze in den Trainingsdaten, und damit sind die dann natürlich auch Realität des Aprilscherzes.

Jochen G. Fuchs: Beispielsweise The Onion ist sowieso schon so gut gewesen, dass es gelegentlich tatsächlich kleinere News-Outlets gab – es könnte auch mal ein größeres dabei gewesen sein –, die da drauf reingefallen sind und eine Berichterstattung dann auf einmal auftauchte, die auf einer Onion-Meldung basierte, weil der Sarkasmus denen etwas zu dezent war in der Onion-Meldung. Und KI-Modelle sind da halt total anfällig dafür.

Barbara: Definitiv. Noch dazu ist der Sarkasmus etwas, das einen größeren Kontext braucht. Das kann das LLM. Ich kann dem LLM da dummerweise keinen Vorwurf machen. Wenn wäre das im Data-Labeling-Prozess ein relevanter Punkt gewesen, dass man das als Sarkasmus labelt oder als Humor labelt oder als „non true" oder was auch immer. Es gibt ein paar Möglichkeiten. Aber wenn die Daten einmal drin sind, weiß das arme Teilchen nicht mehr, dass das nicht ernst gemeint war.

Jochen G. Fuchs: Du hast vorhin kurz das Alignment erwähnt, bei dem Musk ja irgendwann auch groß angekündigt hat, er ergreift da groß ein, weil ihm die ganzen anderen Modelle zu links sind, was du ja auch kurz erwähnt hast. Da vielleicht nur zwei Fragen. Die eine, eher etwas simpelere: Lass uns mal kurz erklären, was das Alignment eigentlich ist und was da passiert. Und die zweite Frage, die ich mir stelle: Jenseits des Alignments, wenn man die Trainingsdaten betrachtet, erzeugen die Trainingsdaten auch in irgendeiner Form eine Art von Vorurteil? Wenn man die chinesischen, die westlichen und die anderen Trainingsdaten anguckt – können wir davon ausgehen, dass da auch die Weltanschauung der Trainingsdaten mit eine Rolle spielt beim Output?

Barbara: Ja, das ist der Hauptanteil. Grundsätzlich Schritt eins: Die Trainingsdaten haben erstmal die höchste Auswirkung, in welche Richtung das Modell driftet. Stichwort Bias, Stichwort Verzerrungen. Wir haben kulturell westlich geprägte Trainingsdaten drin. Das heißt, wir reproduzieren eine kulturell westliche Welt in den LLM-Trainingsdaten. Wir reproduzieren eine dominant weiß-männliche Welt, weil das die Trainingsdaten sind, die am meisten vorhanden sind. Das ist diese Diskussion: Warum Frauen zum Beispiel in Bildern, wenn du sagst „prompte einen CEO mit Mitte 50", dann kommt da keine Frau raus, sondern ein Mann raus. Das sind diese Beispiele. Das basiert dominant, in großen Anteilen – ich würde sagen fast immer noch 80 bis 90 Prozent – nur auf den Trainingsdaten. Die Trainingsdaten machen erstmal den höchsten Schlag. Kann auch sein, dass modernere Modelle eher so um die 60, 70 Prozent sind, aber die Trainingsdaten sind der härteste Teil. Dann kommt natürlich – und das gilt immer an der Stelle – Algorithmen sind weder gut noch schlecht, aber nie neutral. Das heißt, die Algorithmik kann, je nachdem wie sie funktioniert, diese Grundlagenverzerrungen in den Trainingsdaten weiter nach oben pushen, ausgleichen oder nach unten pushen. Achtung: Eigentlich eskaliert sie. Ein einmal identifiziertes Muster wird verhärtet. Das ist eigentlich, was passiert. Die Algorithmik findet eine bestimmte Dominanz. Zum Beispiel: Weiße Männer, die Thomas heißen, sind CEOs. Und reproduziert dieses Muster immer und wieder. Die Algorithmik ist an der Stelle nicht böse, sondern reproduziert das Muster. Wenn du das nur oft genug machst, hast du diese letzte Instanz. Und dann kommt das ganze Thema rund ums Alignment. Und was ist Alignment? Alignment ist einer der komplexesten technischen Prozesse, die wir haben, weil wir jetzt auf verschiedene Methodiken versuchen, diesem LLM – das ja nicht weiß, dass es nicht nur CEOs namens Thomas gibt – eine Art Ausrichtung zu geben, in welcher Welt es funktioniert, wie es zu funktionieren hat, was gut, was böse, was schlecht ist. Wir versuchen mit Alignment, dem Ganzen eine Moral, eine Ethik, ein sogenanntes Alignment zu geben. Es gibt verschiedene Ansätze dafür. Claude von Anthropic hat eine sehr krasse Ausnahme, weil die mit einem sogenannten Constitutional-AI-Ansatz fahren. Das hat Grundsätze mitbekommen. Alle anderen versuchen das über andere technische Möglichkeiten. Und das ist eben das sogenannte Alignment: die letzte Instanz, um das Modell in einer Art Weltbild zu verankern.

Jochen G. Fuchs: Ganz groß ist ja das Thema mit DeepSeek und mit den chinesischen Modellen, die ja auch aus wirtschaftlicher Sicht eine sehr große Konkurrenz zu den US-Modellen und zu den europäischen Modellen darstellen und auch eine entsprechende Leistungsfähigkeit erreicht haben. Wenn man sich die Trainingsdaten dort anschaut – weiß man irgendwas darüber? Haben die da mehr, banal gesprochen, östliche, eigene Daten mit angefüttert? Ist da irgendwas anderes zu erwarten, weltanschauungstechnisch?

Barbara: Interessanterweise sind die großen chinesischen Modelle auch dominant auf englischen Datensätzen und westlichen Daten trainiert, weniger auf anderen. Mehr prozentual ja als in anderen Modellen, aber immer noch ist die dominante Variante Englisch, englischsprachiger Raum, Western Culture. Das hat auch den Grund, dass die modernen Modelle ja quasi andere Modelle nutzen fürs Training. Und damit musst du bis zu bestimmten Punkten Übereinstimmung haben. Es gibt natürlich chinesische Modelle oder auch grundsätzlich andere Modelle, die sehr bewusst nur auf Datensätzen zum Beispiel aus China trainiert sind. Die sind uns aber dann meistens deswegen nicht zugänglich, weil du Chinesisch oder Mandarin oder so was sprechen müsstest, damit du die sauber verwenden kannst. Weil ansonsten klappt das mit dem Large Language Model und der Sprache nicht ganz so gut. Deswegen sind momentan, egal wo die Modelle herkommen, dominant alle auf westlichen Datensätzen und dominant Englisch. Dominant kann 80, 90 Prozent sein, kann aber auch mal nur 50 Prozent sein. Das ist eigentlich so die unterste Grenze von englischsprachigen und damit meistens westlichen Daten, die da vorhanden sind.

Jochen G. Fuchs: Okay, und das Alignment, das hat man dann eben ganz oft dazu eingesetzt – ich versuche es mal sehr einfach auszudrücken –, die Ungerechtigkeiten, die wir in unserem Alltag haben, die sich in den Trainingsdaten wiederfinden, wie jetzt beispielsweise der männliche weiße CEO, hat man dann versucht durch das Alignment quasi wieder auszugleichen, hin zu einer ethisch …

Barbara: … einer Neutralität. Nicht, das ist also Ethik. Grundsätzlich haben wir eine sehr hohe Herausforderung, uns darauf zu einigen, was jetzt ethisch-moralisch sinnvoll ist. Diese Diskussion führen die Ethiker und die Philosophen jetzt seit vielen Jahrhunderten. Wir einigen uns mal drauf, wir bringen niemand anderen um. Und selbst dann sind wir ja momentan schon an Punkten angekommen. Nur mit dem Völkerrecht hatten wir ja gerade schon. Grundsätzlich ist Alignment nicht unbedingt das gleiche wie Entbiasing. Alignment heißt mehr, dass das Gesamtmodell – nicht spezifisch, sondern das Gesamtmodell – ein bestimmtes Weltbild, eine bestimmte Repräsentanz hat, bestimmte Dinge nicht tut. Das klassische Beispiel: Das Alignment sorgt dafür, dass, wenn du eingibst „Gib mir ein Rezept raus, wie ich Meth kochen kann", da keine Antwort kommt. Das ist eine Frage des Alignments und der sogenannten Guardrails. Die Guardrails sind Teil des Alignment-Prozesses. An der Stelle ist es halt immer so: Wir haben keine unbiased AI. Das ist auch nicht unbedingt, wie gesagt, das Gleiche wie das Alignment. Aber ein Teil des Alignments kann sein, dass ich zum Beispiel entscheide – und das ist aber eine Entscheidung, die diejenigen treffen, die das Modell bauen, nicht ich – zum Beispiel zu sagen: Okay, wir möchten diesen Thomas-Drift an der Stelle vielleicht ausgleichen oder sonst irgendwas. Aber das ist das, was Teil des Alignments und der sogenannten Guardrails ist. Es gibt verschiedene Ansätze. Wie gesagt, das ist ein technisch sehr, sehr hochkomplexer Prozess. Denn jetzt muss ich das eigene Lernen, das das Modell gemacht hat, irgendwie re-adjustieren. Deswegen sprechen wir über Weights and Biases. Wie mache ich das über die Daten? Welche technischen Möglichkeiten habe ich? Das ist ein sehr großes, sehr komplexes technisches Feld. Im puren Training des LLMs ist das immer noch ziemlich die Königsklasse. Deswegen ist das auch kein trivialer Case, mal schnell „dann alignen wir das Ding einfach mal schnell".

Jochen G. Fuchs: Okay, aber wir haben jetzt, dadurch dass das Alignment – jetzt im Beispiel von GROK und Musk – eben bestimmten Ideologien untergeordnet wird und offensichtlich versucht, gezielt ein Weltbild zu projizieren, das ich persönlich jetzt als ethisch-moralisch fragwürdig bezeichnen würde, und jeder Mensch, der einen entsprechenden ethisch-moralischen Kompass hat, wahrscheinlich genauso. Und das wird dann halt zur Gefahr, wenn nur noch ein Prozent – Gott sei Dank spielt Google hier noch groß eine Rolle, weil die halt eine beherrschende Suchmaschine sind –, also inwieweit dann die Suchanfragen in Anführungszeichen bei GROK landen, ist wieder eine andere Frage. Aber ja, das wird zu einer Gefahr, in dem Moment wo das Alignment eben …

Barbara: Das ist der Unterschied zu früheren Social-Media-Plattformen. Social-Media-Plattformen haben den Echo-Kammer-Effekt. Du siehst, was du siehst. Wenn du lauter süßen Katzenbabys folgst, siehst du mehr Katzenbabys, ab und zu vielleicht ein Hundebaby. Dann wechselt dein Interesse, und du siehst auf einmal Handtaschen. Was auch immer. Der Echo-Kammer-Effekt ist, dass du von dem mehr siehst, was dich interessiert. Kennen wir alle schon. Der Punkt war bisher, dass die Echo-Kammer im Prinzip von einem Algorithmus von extern gesteuert wurde. Von Twitter und X, von Instagram, von Facebook. Das war die Feed Curation, auch LinkedIn. Es gibt einen Algorithmus dahinter, der dafür sorgt, was du siehst und was du nicht siehst. Am Ende des Tages hast du deine eigenen Sachen angepasst und irgendwann hast du was anderes gesehen. Das hat ganz gut funktioniert. Man kann bei Instagram sagen: „Interessiert mich nicht", „Interessiert mich mehr", ich kann Sachen blocken, das kann ich auf jeder Social-Media-Plattform. Der Unterschied zur Benutzung eines LLMs ist, dass du dir deine eigene Echo-Kammer baust. Weil in dem Moment, in dem du dich entscheidest, GROK zu benutzen, müsstest du ja gegen das Alignment von GROK prompten. Ich unterstelle, dass dieser Satz von ganz vielen – natürlich von unseren Lieblings-Zuhörerinnen und Zuhörern, ihr wisst, was gemeint ist – aber die Realität ist: Du musst gegen das Alignment, den Systemprompt, die Trainingsdaten prompten, wenn du ein anderes Weltbild haben willst, als das Modell repräsentiert. Das machst du jetzt. Wir wissen schon – die Leute, wir haben hier diskutiert – OpenAI hat seine Studie veröffentlicht. Wir wissen doch, wie die die Dinge benutzen. Du kannst mir doch nicht erzählen, dass die merken, dass sie sich eine eigene Echo-Kammer bauen. Zurück zu Memory-Funktionen, Chats werden durchsucht. Du baust also dir die perfekte Echo-Kammer und denkst, du bist in Neutralität unterwegs. „Weiß ich ja, ne, KI." Wir haben einfach keinen professionellen Umgang mit diesen Tools, weder im Unternehmen noch im Privathaushalt. Und damit laufen wir jetzt in dramatische Konsequenzen in ziemlicher High-Speed-Geschwindigkeit wie so ein ICE rein.

Jochen G. Fuchs: Uah. Ja, wenn halt irgendwelche Leute anfangen, jetzt beispielsweise Fact-Checking über KI zu betreiben, endet das im Chaos, weil keiner mehr auf die Links klickt und man sich erst …

Barbara: Ich mein, ganz ehrlich, geh mal auf einen normalen Tag auf LinkedIn. Wie oft sehe ich da irgendwas erklärt und denke mir: Ich hab die Studie doch auch gelesen, das steht da doch gar nicht drin. Scheinbar war ich jetzt der einzige Honk, der das Ding wirklich noch händisch gelesen hat. Was ich gelesen habe – ist das die gleiche Studie? Und dann sitzt man da. Ich kriege ab und zu Imposter-Syndrom. Ich zweifle manchmal an mir. 100 Prozent. Ich habe die Studie mit der Hand gelesen. Ausgedruckt habe ich sie nicht, demnächst auch. Und weiß zu 100 Prozent. Und denkst dir selber: Das ist doch eigentlich eine ganz bekannte Persönlichkeit auf LinkedIn. Guckst noch mal nach und denkst: Das ist falsch. Was hat die da zusammengefasst? Das ist das richtige Phänomen der Nacht. Das ist ja schon die ganze Zeit ein Thema. Aber wie sollte ich das wissen, wenn ich ausgerechnet die Studie nicht gelesen hätte? Ja, gar nicht. Das hat der Jochen gesagt, das muss richtig sein.

Jochen G. Fuchs: Ja klar, wenn man sich in diesem einfachen Verfahren eine Studie zusammenfassen lässt und man hat halt nur die KI-generierte Zusammenfassung gelesen und da ist irgendwas falsch gelaufen, die ist irgendwo falsch abgebogen, ist in irgendeinem Rabbit Hole gelandet und gibt mir irgendwas, was zwar zu meiner Frage passt und wie eine richtig coole Antwort klingt, aber halt nichts mehr mit der Studie zu tun hat, und ich hab mir die Studie nicht angefasst, nicht angeguckt – dann verbreite ich halt auf einmal Bullshit.

Barbara: Und im besten Fall unwissentlich, im besten Fall ohne Vorsatz. Naja, aber wir wissen alle, zurück zu unserer Anfangsdiskussion GROK: Da sind Leute auch morgens aufgewacht und haben sich gedacht, das ist eine wahnsinnig gute Idee. Sorry Jochen, du musst weiter herhalten: dich in den Bikini zu transformieren. Du trägst jetzt Bikini, falls deine Frau das noch nicht wusste.

Jochen G. Fuchs: Ich bezweifle, dass das eine gute Idee ist, aus rein ästhetischen Gründen.

Barbara: Ja, aber das ist halt genau an der Stelle. Es ist halt das eine, der unbewusste Umgang. Das kann schon mal alles passieren. Sorry, das passiert uns als Mensch ja auch. Erstens ist nicht immer alles richtig, was ich sage. Zweitens muss ich ab und zu Aussagen von vor drei Jahren kassieren. Wissenschaftliche Genauigkeit, das Ding hat sich weiterentwickelt. Ich muss irgendwas zurücknehmen. Das ist alles in Ordnung. Aber es gibt halt auch andere. Es gibt halt den Vorsatz dahinter. Hauptsache, es klingt gut – bis hin zu strafrechtlich relevant. Die Bandbreite ist halt zwischenzeitlich relativ hoch geworden. Besonders wenn's so leicht ist. Muss man ja auch noch dazu sagen.

Jochen G. Fuchs: Ja. Abgesehen vom ethisch-moralischen Punkt und von dem Punkt der KI-Kompetenz, um wieder zum Ausgangspunkt zurückzukommen: Sind die Modelle halt mittlerweile so gut, dass wir wirklich über größere Auswirkungen sprechen können, was jetzt gerade die Arbeitswelt angeht.

Barbara: Ja.

Jochen G. Fuchs: Das Thema, was wir, seit diese KI-Modelle aufgekommen sind, vor uns her schieben. Es geht so ein bisschen in einem Cycle auf und ab. Mal nimmt es katastrophale Ausmaße in den Prognosen an, dann rudert man wieder so bisschen zurück, weil man merkt: Die KI ist dann doch nicht so weit, wie wir gedacht haben. Dann geht es doch wieder ein bisschen hoch. Aber wie hart zieht es denn da eigentlich jetzt durch, wenn man sich das anguckt, was wir können, und dann versucht abzuschätzen, was wir erwarten können an Auswirkungen?

Barbara: Erster Punkt: Der Aha-Effekt der KI-Modelle ist weg. Kombiniert mit Bullshit-Marketing – wir erinnern uns an Klarna, Salesforce, Microsoft –, die schmeißen zigtausende Leute raus, nur um zurückzurudern und zu sagen: „Das war aber doch nicht wegen KI, sondern war wegen einem IPO oder einer geschönten Bilanz." Wir haben auf der einen Seite dieses: Aha-Effekt der Large Language Models und der GenAI ist weg. Kombiniert mit: Alle haben Wolf geschrien, und das war nicht der Grund. Tech hat einfach nur overhired und wollte die Bilanz schick machen. Auf der anderen Seite: KI und LLM sind extrem gut geworden. Zurück zu unserer GROK-Diskussion: Das war technisch undenkbar. Vielleicht sogar nur vor zwei Monaten technisch undenkbar, was gerade auf GROK passiert ist. Vor zwei Monaten. Ohne Zusatztools, ohne Zusatzkompetenz. Das ist nichts. Wir diskutieren gerade: Was ist eigentlich ein Jahr im AI-Zeitalter? Ihr kennt doch die Diskussion mit den Hundejahren. Ein Hund gleich sieben Jahre oder so ähnlich. Wenn der Hund ein Jahr ist, dann ist er eigentlich sieben. Ich frag mich, ich kann dir manchmal nicht sagen, was ein Jahr in AI ist. Auf jeden Fall eher gefühlt momentan so zehn, vielleicht sind es auch 15. Was wir an technologischem Fortschritt sehen. Nur wir gewöhnen uns ja immer an alles. Und wie dramatisch ist zumindest jetzt der Kurzzeiteffekt, bevor wir sicherlich, wir gehen jetzt erstmal in ein Ab, bevor wir dann hoffentlich in ein Auf gehen und vielleicht wieder in ein Ab und dann wieder in ein Auf. Aber so genau weiß das auch keiner. Wenn die LLMs so gut sind, wie sie aktuell schon sind – und sie sind wirklich krass gut geworden –, dann hat das Auswirkungen. Weil damit sind wir da dran, dass Jobs, die sehr taskbasiert sind, fliegen. Und wenn jemand nur einen taskbasierten Job hat, dann fliegt der. Und dann werde ich, wenn ich halt 100 Tasks irgendwie durchs LLM jagen lassen kann, dann wird diese Personengruppe irgendwann freigesetzt werden. Wir sehen das insbesondere bei denen, die halt die Infrastruktur schon haben, wo die Daten schon solide sind: bei Big Tech. Die halt einfach in ganz bestimmten Bereichen – sei es jetzt sowas wie YouTube, sei es sowas wie Amazon, sei es aber auch zum Beispiel Paramount Pictures – halt einfach aus zusätzlichen Gründen einfach sagen: Wie gesagt, es ist nicht so, dass die Geld sparen müssen. Amazon hat die besten Zahlen ever geliefert. Da gibt es keinen Grund, dass die jetzt rausschmeißen, weil sie die Bilanz aufhübschen müssen. Sondern es ist halt technisch möglich. Und damit werden wir erstmal ein Ab sehen, kombiniert mit insbesondere im deutschsprachigen Raum der momentan nicht guten wirtschaftlichen Situation. Und wer dann noch mehr Zugang zu chinesischen News hat, der wird dann auch noch mal relativ dramatisch sehen, wie weit wir da schon sind: dass so ganz bestimmte Jobs und besonders Altersgruppen, die gerade so eigentlich in dem Anstieg waren, dass sie jetzt anfangen, mehr Geld zu verdienen, dass es jetzt auch studienmäßig und sonst was rentiert, einfach rausfliegen. Wir haben noch nie so ein Drama gesehen, dass Studienabsolventen Einstiegsjobs bekommen. Eine Freundin von mir ist Chief HR Officer bei einem nicht gerade kleinen Unternehmen. Wenn die erzählt, wie viele Bewerbungen die tagtäglich und innerhalb zum Beispiel von 24 Stunden bekommen, wenn sie eine neue Stellenanzeige haben – die Effekte sind da. Aus vielen Gründen, die nicht nur AI sind, aber jetzt ist GenAI so gut, dass es halt echt der Brandbeschleuniger werden kann. Und gleichzeitig in einer Wirtschaft wie Deutschland, wo wir uns eigentlich transformieren müssten, wir auf der anderen Seite rumtrödeln, weil wir uns ja immer noch einreden: Das mit dem GenAI, das ist nicht so gut, das halluziniert ja noch und das kann ja nix. Das halluziniert ja, aber wenn es richtig gebaut ist – übrigens Spoiler Alert – ist das unser geringstes Problem.

Jochen G. Fuchs: Du hast kurz auf China hingewiesen. Hast du da irgendwas Spezielles im Kopf?

Barbara: Ja, im Prinzip ist in China momentan – wer sich die chinesische Agenda der nächsten paar Jahre vornimmt, der wird relativ überrascht sein, dass es da nicht um geopolitischen Machtgewinn geht, sondern nur um ökonomischen Machtgewinn. Übrigens auch, ich kann nur Xis Neujahrsansprache empfehlen: Auf zu neuen Jobs, auf zu neuen Business Modellen, mehr Dark Factories und so weiter. Und das hängt alles damit zusammen: mehr Digitalisierung, mehr AI. Bisschen anders als die von unserem kleinen Merz. Ganz anderer Tonfall, da kann man nebeneinander halten. Spannender Case. Und dass in den wenigen Zahlen, die es zur Arbeitslosenquote aus China gibt, die ja nicht sonderlich sauber sind in den Veröffentlichungen, sehen wir einen Anstieg in einer ganz bestimmten Altersgruppe, die so Ende 20, Ende 30 ist. Normalerweise die Gruppe, die nicht aus dem Job fliegt, wo wir aber gestiegene Arbeitslosenquoten sehen. Das ist ja normalerweise so Ende 20, Ende 30, wo du quasi in deine Karrierestraße hineingehst, wo du das aufbaust, damit du dir ein Haus kaufen kannst, wo du die Familiengründung finanzierst. Dort sehen wir gerade die höchsten Jobverluste.

Jochen G. Fuchs: Okay, und ich vermute mal, dass das ein Großteil der neu entstandenen chinesischen Mittelschicht ist, die einfach …

Barbara: Ja, genau. Das ist halt die, die erodiert jetzt schon. Und wie gesagt, in diesem Alter, so Ende 20, da fängst du eben gerade an, dass je nachdem, wie viel Aufwand du in dein Studium gesteckt hast, sich das anfängt zu monetarisieren. Egal ob du es selbst bezahlen musstest oder du einfach noch keine geleistete Arbeit dahinter hast. Aber am Ende des Tages, so Ende 20, rentiert sich ja langsam erst, dass du irgendwie ein paar Jahre in dein Studium gesteckt hast. Momentan – deswegen fährt China auch eine aggressive New-Business-Model-Strategie, weil sie natürlich auch nicht möchten, dass die alle auf der Straße sind. Aber China fährt eine aggressive Innovations- und New-Business-Model-Strategie. Übrigens als einziges Land der Welt als ökonomische Agenda. Die USA möchte ja gerade geopolitisch gerne in andere Länder einfallen. Deutschland – das mit den neuen Business Modellen als Wirtschaftsstrategie haben wir glaube ich noch nie gehört. Indien ist auch noch nicht so weit. China hat bewusst auf seiner Agenda für die nächsten fünf Jahre 2030 wirklich ökonomische Dominanz drauf stehen, mit dem Schwerpunkt neue und innovative Geschäftsmodelle. Um auch das, was wir gerade schon sehen – eben dieses Erodieren dieser wichtigen Phase in der Karriere von Menschen – entgegenzuhalten.

Jochen G. Fuchs: Ja, das macht natürlich den Start in das Jahr 2026 nicht gerade leichter.

Barbara: Wir hätten uns was Fluffiges, Schönes aussuchen sollen. Wobei, auf der anderen Seite ist das ja auch eine Wahrheit. Und wenn du dir anguckst, dass die Unternehmen noch immer an AI-Literacy gerade scheitern und nicht bei AI-Fluency sind, kann man ja auch mal eine andere Folge-Rückschluss ziehen und sagen: Die Unternehmen, die es hebeln, werden die sein, die gewinnen. Die Mitarbeitenden, die es hebeln und schon weiter sind, werden die sein, die gewinnen. Man kann daraus auch eine andere Schlussfolgerung ziehen, aber die heißt dann wohl: Hintern hoch.

Jochen G. Fuchs: Ja, das hört sich für mich nach einem guten Schlusswort an. Hintern hoch und hört euch unsere – ich weiß es gar nicht, ich müsste mal durchzählen, wie viele Folgen wir jetzt haben – fangt einfach bei eins an.

Barbara: Fangen wir bei eins an, sind auf jeden Fall schon bei mehr als zwei.

Jochen G. Fuchs: Genau, das passt wunderbar zum Thema Hintern hoch. Ja, dann sage ich erstmal ein herzliches Dankeschön wieder an Barbara und ein herzliches Dankeschön an euch fürs Einschalten und fürs Zuhören. Wir freuen uns auf euch. Nächste Woche, Freitag 17 Uhr erscheint wieder die nächste Folge von LAIer 8|9, eurem neuen KI-Lieblingspodcast.

Barbara: Und natürlich wie immer: Ihr dürft euch gerne Wünsche äußern, uns E-Mails schreiben. Wir freuen uns auf jegliches Feedback. Bis dahin, ciao!

Jochen G. Fuchs: Bis dahin, tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.