State of the AI Nation (Gastauftritt: Claude 4.0, OpenAI und IO/Jony Ive, KI Produktivität, AI Act)

Shownotes

🥳 State of AI Nation - Wo die KI-Bubble auf die Realität trifft!

Jochen und Barbara liefern euch eine staatstragende Rede zur Lage der KI-Nation! Von Claude 4.0s Hybrid-Macken über OpenAIs 6,5-Milliarden-Dollar-Designwette bis zu den LinkedIn AI-Buddhas, die alles trivialisieren.

Der aktuelle Lagebericht der KI-Nation im Juni 2025.

🔥 Diese Folge ist ein Marathon! Holt euch eine große Kanne Kaffee oder nehmt uns mit auf den 12-Kilometer-Lauf.

Was ihr erfahrt: • Warum Claude 4.0 manchmal den Modus wechselt wie ein pubertierender Teenager • Warum OpenAI verzweifelt ist und 6,5 Milliarden für Jony Ives Design ausgibt • Das LinkedIn-Phänomen der AI-Buddhas: "Wir sind alle nur Lernende" 🙄 • Warum 80% aller KI-Projekte scheitern (Spoiler: Es liegt nicht an der KI) • Problem-Data-Model-Match: Das Geheimnis erfolgreicher AI-Projekte • EU AI Act: Vom sinnvollen Ansatz zum 10.000-Seiten-Monster

Chapter Markers: [00:00:00] Einführung und Claude 4.0 Launch [00:11:06] Custom Instructions vs. Systemprompts [00:15:05] Wie entwickelt Anthropic ihre Modelle weiter? [00:21:25] OpenAI kauft Jony Ives Design-Unternehmen [00:31:07] Von Elon Musk (Lord Helmchen) zu Peter Thiel (Dark Lord) [00:32:18] LinkedIn AI-Heilsversprechen und Produktivitätsstudien [00:40:26] Kognitive Dissonanz in der KI-Welt [00:46:18] Problem-Data-Model-Match in der Medizin [00:52:00] AI-Buddhas: Das neue LinkedIn-Phänomen [00:56:34] Ist Gen-AI wirklich so neu? [01:03:30] SEO-GEO und das Ende der Sichtbarkeit [01:10:10] EU AI Act: Monster oder notwendige Regulierung?

🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!

Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein entrinnen!

  • [Apple] https://podcasts.apple.com/podcast/id1798319508
  • [Deezer]https://www.deezer.com/de/show/1001665971
  • [Spotify]https://open.spotify.com/show/2IfqJA4Qo02fslECWpEQW8
  • [Amazon Music] https://music.amazon.de/podcasts/497c3a14-dcaf-4bb3-abc1-03aa6f73f8d3/laier-8-9---noch'n-ki-podcast
  • [Youtube Video-Podcast)] https://www.youtube.com/@laier89

Unsere Hosts AI Babsi: (Barbara) [Website] https://www.barbara-lampl.de | [LinkedIn] https://www.linkedin.com/in/barbaralampl/ - E-Fuchs: (Jochen) [Website] https://efuchs.net | [LinkedIn] https://www.linkedin.com/in/jochengfuchs/

Unser Podcast Blog https:///www.laier89.de/

01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110

LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.

Transkript anzeigen

Jochen G. Fuchs: Hallo und herzlich willkommen zu einer neuen Folge deines neuen KI-Lieblings-Podcasts, Layer 8.9. Hallo Barbara!

Barbara Lampl: Hallo Jochen!

Jochen G. Fuchs: Ja, hier sind wir wieder und irgendwie fühle ich mich heute als wäre es Zeit für eine staats-tragende Rede. State of the AI Nation. Weil irgendwie hat man so das Gefühl, es schießt aus allen Ecken und Enden. Aber fangen wir vielleicht mal mit was Einfachem an, bevor wir staats-tragend werden. Claude hat ein neues Hybrid-Modell gelauncht. Claude 4.0.

Barbara Lampl: Richtig.

Jochen G. Fuchs: Und alle schreien Juhu. Was genau haben Sie denn da eigentlich gelauncht?

Barbara Lampl: Zugriff auf zwei neue Modelle, 4.0 im Sonnais und 4.0 im Opus. Kleiner Hinweis, wer 4.0 im Opus nutzen will, ohne nach zwei Chatnachrichten gleich ins Limit reinzulaufen, braucht den Max-Account der fast 200 Dollar Monat. Ob sich der rentiert, keine Ahnung, kann ich euch jetzt nicht erholt unbedingt sagen, kommt auf euer To-Do an. Aber es ist definitiv der lang erwartete 4.0, auf den wir jetzt seit 3.5 Sonnais eigentlich gewartet haben. Genau.

Jochen G. Fuchs: Sie haben mittlerweile Okay, Einwurfs, sie haben jetzt mittlerweile auch einen Max-Account, irgendwie 90, ich weiß jetzt gar nicht mehr, ob das Euro oder US-Dollar waren, sind so zwei Tierstufen. Die eine war 200 und der andere war 90. Die haben unterschiedliche Nutzungslimits, die haben dann noch mal ein Tier zwischendrin eingezogen. Ja, der macht dann irgendwie noch ein paar andere Sachen mehr. hat dann die Integrations mit drin, sodass du quasi irgendwelche Externe...

Barbara Lampl: Ist auch egal. Also, pricing, bitte checkt die Webseite. Ist relativ egal. Bitte checkt die Clodewagsite, wir sind nicht zuständig fürs Marketing von Entrophic.

Jochen G. Fuchs: Genau. Ja, aber es ist hybrid.

Barbara Lampl: So wie der 3.7er schon ein Hybridmodell war, das heißt also, dass das Modell eigenständig entscheidet, welchen Modus es nutzt, also klassisches LLM, Code Generation oder Reasoning Modell, ist es wieder ein Hybridmodell in beiden Varianten, also sowohl in der Sone, was jetzt das mittlere Modell ist, und Opus in der ganz großen Variante. Ja, genau, es ist wieder ein Hybridmodell in dieser Welt.

Jochen G. Fuchs: Okay, ich saß gestern Abend noch da und habe versucht von der letzten Aufnahme einen Transkript zu verarbeiten. Mit 4.0 habe ich Transkript reingeschmissen und er ist mir immer wieder ausgestiegen und hat dann von sich aus beschlossen, er transkribiert jetzt nur irgendwie so gefühlt die ersten 10 Minuten. Dann kommt ein Absatz unten drunter so und dann kommt noch ganz viel Interessantes, so ein KI oder so ein Scheißstand unten drunter. Und dann hat er mit den weiteren Content-Formaten einfach weitergemacht, obwohl er überhaupt kein Material hat, damit weiterzumachen. Also zur Erklärung, ich habe so einen Projekt-Assistenten in Anführungszeichen, in dem definiert sind, welche Content-Formate wir brauchen für unseren Podcast und der spuckt ihn normalerweise nacheinander aus. Also Aufgabe ist, nimm das Transkript. bearbeite zuerst das Transkript, also die volle Stunde in Anführungszeichen und dann gehe mit dem Ergebnis weiter und mache Chaptermarks, Posts, inhaltliche Zusammenfassung, blablabla, und ja, er brach mir immer wieder ab und normalerweise kannte ich das von den früheren Sonniversionen so, ey, wenn ich stecken bleibe und mein Limit ist erreicht, dann kommt so ein Bitte-Sag-Weiter- Das nächste stufe kam dann irgendwann ein Knopf auf, weiter drücken konnte, und hat er gemacht, und das machte er hier nicht. Er sprang einfach raus, wieder ins Promteingabefenster zurück und mein gerade abgesenderter Prompt verschwand wieder aus dem Chatverlauf und stand wieder im Promteingabefenster. Und ich dachte mir dann ja, was geht denn jetzt ab? Ist das Ding so rechenintensiv oder verbräht so viel?

Barbara Lampl: Hm.

Jochen G. Fuchs: Ja, was, was, was?

Barbara Lampl: Also ja, natürlich sind die, also grundsätzlich gilt, je neuer das Modell ist, das jemand benutzt, umso rechenintensiver ist es, umso tokenintensiver ist es, umso energieintensiver ist es, weil die neuesten Modelle immer die teuersten und rechenintensivsten Modelle sind. In dem Fall kommen jetzt mehrere Sachen zusammen. Zum einen, du hast es an einem Abend genutzt, da sind mehr Leute auf dem Server, das heißt, es könnte schon mal sein, dass die Limits zu früh erreicht werden oder dass quasi, wer weiß, so genau wie unsere Rechenleistung da dann weltweit orchestriert wird. Aber die eigentliche Problematik liegt und das ist ja, als wir über 3.7 so näh gesprochen haben und vielleicht die Folge keine Ahnung, welche es ist, aber da gibt es eine Folge dazu, wo ich ja schon gesagt habe, ich weiß nicht, ob ich wirklich jetzt ein Fan von diesen Hybrid Approaches bin, weil genau das ist nämlich jetzt eine große Gefahr. Das Modell identifiziert jetzt also, was es zu tun hat und geht und Transcription ist ein Use Case für ein klassisches LLM. Da brauche ich kein Reasoning, da brauche ich kein Code, nichts davon. Aber es könnte während dem Arbeiten auf die Idee kommen, Moment, wir haben was in dem Transkript gesagt, wo wir sagen, da sollten wir noch mal drüber nachdenken und das könnte das ganze Modell in die falsche Richtung schießen. Und das passiert bei einem klassischen LLM kann da nichts passieren, weil welches Reasoning-Denkmodus soll es denn gehen? Das passiert kann aber bei Hybridmodellen sehr wohl passieren. Und ich würde jetzt mal die steile These aufstellen. Ich habe genug Ahnung davon, genau das unter anderem auch unter anderem wieder passiert. Mir ist es auch schon passiert. Der Workaround ist dann, dass ich vielleicht kurz darüber nachgedacht habe, ich arbeite mit einem klassischen, ich habe ein klassisches LLM-Problem, ich nutze ein klassisches LLM 3.5 im Sone, rein damit To-Do erledigt. Aber das ist genau das, was an der Stelle halt eben passieren kann. Und wir wissen, dass diese aktuellen Modelle sind alle über Helpful-Personalities. Also diese einschleimenden Konstruktionen, dass Hybridmodelle sind Wie gesagt, jeder Output wird ja immer wieder zu einem Input in der Token-Function, auch in Forward- Backward-Passform Deep Learning. Also kann es ja wohl sein, dass das Ding sich mal völlig verrennt und versucht eigentlich den Modus zu wechseln. Wenn es dann den Modus wechselt, was dann falsch ist, dann würde es eben sagen, Moment, aber es sagt dir das natürlich alles nicht. Und deswegen ist das die wahrscheinlichste Erklärung, was da eigentlich passiert ist. wäre der hybridmodell approach, also der generalistische hybridmodell approach für deine spezielle Frage eigentlich völlig daneben war quasi.

Jochen G. Fuchs: Ja, okay. Ja, das Fiese an der Geschichte ist, ich war früher auf 3.5, dann bin ich mitgegangen auf 3.7, was ja auch schon hybrid ist. Dann habe ich mit 3.5 und 3.7 gearbeitet beim Text-Processing, habe jetzt keine riesengroßen Unterschiede festgestellt, aber beim 4.0 habe ich bei manchem Text-Output, den ich ausprobiert habe, echt das Gefühl, der Text ist noch ein Touch irgendwie besser, noch ein bisschen mehr on point.

Barbara Lampl: Dignitiv.

Jochen G. Fuchs: weil ja in Anführungszeichen auch die da an der LLM Entwicklung weiter schrauben. Also es ist ja nicht nur, dass es einfach hybrid wird und dann noch irgendwas mit reingeklatscht wird, sondern den Schrauben da auch, da kommen wir gleich nochmal drauf herum und dann dachte ich, naja, ist ja eigentlich geil, wenn der Text besser wird, dann nehme ich halt das hybride Modell und hätte es dann eigentlich auch besser wissen können, aber ich dachte dann zum Schluss, okay, vielleicht ist es irgendwie ein Limitproblem.

Barbara Lampl: Innen. Nee, also in dem Fall musst du halt aufpassen und das ist ja das, ich auch immer wieder sage. Bei den neuen Modellen kann es einfach sein, dass du kompletten Prompt anpassen musst. Das heißt, du musst ihm in dem Fall sagen, er soll nur eine Transkription bei der Verwendung als klassisches LLM agieren, dann sollte es auch funktionieren. ja, also 4.0 ist jetzt kein groundbreaking new model, aber es ist einfach besser. Also es ist halt einfach, es ist wirklich richtig, richtig gut geworden. Auch was Text und Sprachmodulation und Angelegenheit wirklich cool geworden, wirklich unter dem Begriff. Besser. Aber zurück zu, die Promts müssen eventuell angepasst werden, je nach To-Do. alle, aber ein Großteil. ich kann es auch, es gibt keine Benchmark dafür, sagen kann, ja, ihr müsst jetzt 50 Prozent eurer Promts anpassen. Vielleicht sind es auch nur 10 Prozent, weil ich weiß ja einfach nicht, für was ihr die Dinger benutzt. Aber das ist halt so dieses Promting muss in Zweifelsfall ja immer für Modelle und Aufgabe angepasst werden. Und jetzt ist das halt, sieht man halt immer stärker, dass solche Überlegungen. quasi notwendig sind, wenn dir die Performance, also sowohl die Accuracy, also die Akkuratheit und die Richtigkeit, als auch quasi die Textausgabe wirklich wichtig sind, dann muss da ein bisschen Handwerk reingesteckt werden.

Jochen G. Fuchs: Okay, kurze Frage zum Prompting. erste Frage, das heißt, wenn ich bei so einem Hybrid-Modell versuche das zu generalisieren und ich jetzt sage, okay, ich passe jetzt meinen Prompting an, sei es jetzt direkt in der Eingabemaske oder sei es ich benutze die Cloud-Projektfunktion und habe da ein Systemprompt drinne, und sage ihm quasi, welchen Modus er benutzen soll, in Anführungszeichen. Also quasi, äh, äh, äh, Bitte verarbeite nur den Text, stelle keine weiteren, lasse das Reasoning weg, weiß nicht, ich das Wort wörtlich so schreiben muss. Dann kann ich das tatsächlich eindämmen, habe ich das richtig verstanden, das kann ich erwarten. Okay.

Barbara Lampl: Ja, genau. Das ist auch in den System Prompts drin. Deswegen ist die Analyse der System Prompts auch, wer das Ganze professionell angehen will, muss sich deswegen auch immer die System Prompts angucken oder zumindest Leute, mit Leuten in Kontakt stehen, die die System Prompts überprüfen und zwar nicht nur die, die veröffentlicht worden sind, sondern die auch geleakt werden. Da sind die Wetten bei Entrophic veröffentlicht, zwar System Prompts, aber wie wir jetzt sowohl beim 3.7er als auch beim 4.0er gesehen haben, ist es nur die halbe Wahrheit. Und wenn du weißt, dass solche Sachen, Adjustments im System Prompt schon drin sind, dann kannst du das dir eben damit sehr auch weiter anpassen und ja, genau so was. Also die Hybridmodelle, wie die Reasoning Modelle reagieren relativ gut auf Guardrails. zu sagen, hey, funktioniere in diesem Modus und benutze dies nicht, wechsle nicht den Modus, das funktioniert recht sauber. ja, also Prompting ist nicht irgendwie, ja, also wer es richtig nutzen will, muss da schon auch Zeit und Energie reinstecken.

Jochen G. Fuchs: Okay, ⁓

Barbara Lampl: Ja, ich nenne das Prompting für Descent. Das ist ein Prinzip, dass du quasi mit einem sauberen Promptes konterst. Das heißt, du gibst sehr genaue sprachliche Vorgaben, zum Beispiel wenn du jetzt zum Beispiel mit dem sehr casual redest, dass er deinen Ton nicht spiegelt, dass er konstant quasi challenging ist, dass er zum Beispiel beim Feedback keine Sandwich-Methoden, sondern sich nur auf die Kritik, also ja, du musst, wie gesagt, das große Thema ist da Prompting für Descent. und nicht nur für praktikabel oder sonst irgendwas, das ist ein wichtiger Teil, kann man dann entweder entscheiden, ist sogar einer der wenigen Varianten, wo ich auch sagen würde, dass Custom Instructions eventuell sinnvoll sind, das in die Custom Instructions reingeben, aber ansonsten einfach zusätzlich quasi beim Prompting das in Kopfbehalt, bzw. in Prompt Libraries mit aufnehmen und der große Überbegriff ist eben Prompting für dich sind.

Jochen G. Fuchs: Okay, Custom Instructions ist jetzt das, ich als Systemprompt im Projektordner bezeichnet habe.

Barbara Lampl: Genau, also der Punkt ist, der Systemprompt ist der eigentliche Systemprompt, den das Modell inkludiert hat. Das bezeichnen wir eigentlich als Systemprompt. Das andere sind sogenannte Custom Instructions, die wir in OpenAI haben, die wir in Clot auch haben, die du auch zum Beispiel in einem Custom GPT oder sonst irgendwas. Und es gibt eben teilweise sogenannte Top Level auf dieser Meta-Ebene in deiner UI UX, wo du Custom Instructions hinterlegen kannst. Da liegt auch diese unsägliche Memory Funktion und sowas drin. Die kannst du natürlich für solche stärkeren Adjustments in diesen Consumer-Oberflächen nutzen. Achtung, die Superherfepersonality betrifft auch die APs. Also das heißt auch alle, über Schnittstellen arbeiten, da eventuell, da schlägt es nicht ganz so krass durch, aber es schlägt genauso durch. Auch da musst du eben im Prinzip alle Promts mal wieder anpassen, checken. Das ist hoffentlich, wer auf APs arbeitet oder irgendwelche Projekte darauf aufgesetzt hat, hoffentlich ein Standardprozess bei euch.

Jochen G. Fuchs: Ja, da können wir auch mal bei Gelegenheit drüber reden, wie so ein Prozess aussehen kann. Ich kenne das aus der Softwareentwicklung halt mit Unit-Testing und ähnlichen. Da gibt es Automatisierungsmöglichkeiten. Keine Ahnung, ob man das beim Prompt-Testing auch macht oder ob du da manuell mit Input-Output-Ständigkeit das überprüfen musst. Beides, okay.

Barbara Lampl: Beides kommt aus Projekt drauf an. Also Großteil ist, wir sind heute sehr viel weiter, als wir vor ein, zwei Jahren oder so war standen. Das heißt dadurch, dass die anderen Large-Language-Modelle, dass wir Large-Language-Modelle haben, die extrem hochwertig sind, sodass es so Master-Teacher-Geschichten und das ist dann LLM is a Judge sehr wohl. Aber das heißt nicht, dass die der manuelle und der jungen in the loop muss da schon nochmal hart drauf gucken, besonders wenn es ganz bestimmte Parameter gibt. Aber ja, ist sogenannte, das ist insbesondere in REC-Projekten wichtig. Wir nennen das unter ein großes Thema REC-Evaluations. Und das Schlimme ist, dass in den RECs schon wenig evaluiert wird, die Promts wenig evaluiert werden und don't get me started on agentic stuff. Aber ja, da vielleicht mal, wenn euch das interessiert, meldet euch gerne, dann können wir vielleicht mal dazu noch ein bisschen so eine Folge machen. Da wird es aber definitiv ein bisschen mehr Deep Tech nerdy.

Jochen G. Fuchs: Ja, wobei das ja auch nicht schlecht ist. Okay, aber worauf ich quasi hinaus will ist, wenn ich ein Hybrid-Modell benutze, kann ich unerwünschtes Verhalten und Wegprompten erwünschtes Verhalten, also Guardrails einfach, Guardrails aufbauen und muss dann halt für mich selber entscheiden.

Barbara Lampl: Ja.

Jochen G. Fuchs: ob ich es machen kann, also ob ich über eine API sag, ich schick das jetzt einfach alles nur zu 3.5, weil ich weiß, dass das kein Hybridmodell ist oder ich schick's zu 4.0, weil ich in dem Workflow aus irgendeinem Grund halt einmal das Reasoning brauch und einmal was anderes.

Barbara Lampl: Echtig. Und weil es 4-0-er ist, wenn man es richtig promptet, ist es ein sehr starkes, klassisches LLM, was wirklich mehr oder minder eines der besten auf dem Markt gerade ist, definitiv in den Top 3, Top 5 drin. zurück zu, ich habe auch einen langen Blogartikel geschrieben, den können wir euch unten drunter verlinken, in dem ich ganz klar gemacht habe, Prompt Engineering, also der Prompt Engineer als Job ist außer in sehr großen Enterprise-Konstruktionen tot. Aber jeder muss Prompt Engineering Skills haben. Das ist einer dieser Gründe, wo gerade sehr viel aneinander vorbeigeredet weil es jetzt quasi zum Standard-Skillset des Arbeitnehmerinnen-Lebens zählt. Zumindest.

Jochen G. Fuchs: Ja, ja. Vielleicht kurzer Exkurs. Ich behalte dir die Uhr im Blick. Wie entwickelt eigentlich so ein Unternehmen wie Anthropic so ein Modell weiter? Also was fasst man da alles an? ich komme... Genau, es gibt eine UI. Da hängen dann noch irgendwelche Bibliotheken hinten dran, die dann irgendwelche Teilaufgaben übernehmen bei so einem, wie soll ich sagen, Endkunden-Interface wie jetzt eben bei Claude. Und dann hast du das eigentliche.

Barbara Lampl: Alles.

Jochen G. Fuchs: Modell, was machen die da, wenn die das weiterentwickeln? Wie stelle ich mir das vor?

Barbara Lampl: Also das UI UX, sorry, das ist immer so bisschen, ich finde das immer ganz cute, weil alle aus der Softwarewelt und auch die meisten Ingenieure, mit denen ich rede, die kommen dann von der Seite. Sorry, das ist echt unser letztes Problem. Quasi bauen wir so weit und testen dann, ob unser UI dazu passt und unser Modell nicht kaputt schießt. Modell wird normalerweise klassischer Aufbau ist. Du hast einen Training-Step, hast einen Pre-Training, Training, Post-Training. Solche Steps sind der klassische Move. Achtung, das kann man auch anders definieren, aber in einer Podcastwelt erkläre ich es so. Das heißt, sowohl dass du mit erhöhten Trainingsdaten arbeitest, das heißt, das Modell retrainierst, wirklich, dass du Trainingsdaten neu injizierst. Cut-off-date von Claude ist übrigens Oktober 2024, weswegen im Systemprompt dann eingegeben werden musste, dass Trump jetzt auch wirklich Präsident geworden ist, weil sie halt Cut-off-date 2024 hatten. Da war die Wahl noch nicht durch. Das ist auch, warum du zum Beispiel konstant deine Chat-Eingaben auf Themen-Screenen musst, ähnlich wie so eine Google Trends Keyword-Analyse, zu gucken, verdammter Hacke, ich muss was patchen. Patchen tust du eben immer über UI, UX und System Prompting. Da merkt ihr schon, dass das wirklich unsere allerletzte Möglichkeit ist und so wirklich so, jetzt wissen wir nicht wohin damit, da kommt es dahin. Deswegen haben diese Firmen auch relativ wenig Software-Engineers, wenn man da jetzt mal ehrlicherweise ist. Das ist der kleinste Teil an Mitarbeitern, die du beschäftigst. Der größte Teil, den du beschäftigst, quasi wirklich, du deinen Trainingsdaten optimierst, eventuelle Annotations, Labels optimierst, wie qualitative Daten da reinbekommst, wie du über sowohl klassisches algorithmisches Reinforcement Learning, aber auch Reinforcement Learning by Human Feedback deine Post-Training Instanzen optimierst, deine Accuracies optimierst, wie du deine Interference, das ist halt inzwischen ein sehr viel größeres Thema als die Grundtrainingsdaten, also sehr viel Mathe, sehr viel Data. kurzum lauter Data Scientists. In allen Varianten ihrer Spielarten, die da zusammenarbeiten. Dann werden sprachliche Sachen gemacht, dann kommt das Alignment und die Security Guardrails ins Spiel, das auch alles noch im Model Assemble so hart wie du es möglichst abbildest, weil du wie gesagt die Zuckerguss außenrum möglichst clean und lean halten willst. Weil du eben weißt, wenn das Modell innen drin dir zu viel Chaos bereitet, dann kriegst du es auch durch den Käfig nicht eingefangen, wenn der aus einer Stelle irgendwie super buggy ist. Also deswegen das UXUI und dieses ganze Library, die existieren übrigens, diese Libraries nicht, die im System Prompt drin stehen. Also die Idee, dass da Ziglibraries hinterlegt sind, ist völliger Schwachsinn. Die existieren im Großteil überhaupt gar nicht. Weil die Wissenskompression im Modell selbst liegt. Wozu soll ich eine Library schreiben, wenn ich das Wissen im Modell habe? Klingt nur nett für den Consumer. Würde auch zu viel, dann dauert die An-Abfrage. viel zu lange, dann ist die Ausgabe auf einmal in 30 Sekunden da, da sind die heutigen Konsumenten nicht happy mit. Also viel von dem, was Leute glauben, wie das an dieser UX-Seite ausschaut, ist ziemlich erschwachsinn, das ist alles so gut wie du möglichst versuchst, das in den Model-Assembles und ins Modell reinzubringen, weil das dich auch quasi absetzt von den anderen und dann stellst du eben fest, okay, unser Modell ist jetzt auf dem und dem Niveau, das sieht jetzt alles cool aus und jetzt fängst du eigentlich an, ein fertiges Produkt aus und rum zu bauen. die Stäbe des Alignments glatt zu ziehen, deinen Systemprompt zu patchen ohne Hände. Achtung, kleiner Spoiler Alert. Der Systemprompt vom 3.7. ist 100.000 Wörter lang. Also 27 Seiten der Systemprompt von 4.0, nicht von 4.0, sondern von 4.0 sind jetzt nur 24 Seiten. Da merkst mal, wie viel du außen rum patchen musst, bis es bei euch gelandet ist. Wie gesagt, das ist die kleinste Aufgabe. Der innere Teil ist Mathe, Daten und ... Codeschrubben, aber aus einer mathematischen Sicht, nicht aus einer klassischen Code-Engineering-Sicht.

Jochen G. Fuchs: Okay, cool. Dann sind wir davon verständnis- schon mal einen Schritt weiter. Gibt es irgendwas, was wir Claude 4.0 noch kritisch betrachten sollten?

Barbara Lampl: Also gut, die Oberherbfell-Personalities sind ein großes Thema. Das ist einfach gerade das. Klar, die neuesten Modelle kosten immer am meisten Energie, nicht nur im Training, sondern auch in der Nutzung. Deswegen rufe ich immer wieder auf, macht euch bitte vorher Gedanken dazu, weil ansonsten brennt du einfach mehr Energie und Wasserressourcen durch als notwendig. Ansonsten ist das ein neues, relativ cooles Modell, was natürlich, die Kritik können wir jetzt hier auch nicht, ist es übrigens so gut, dass es eben auch Überlebens-Tendenzen zeigt. Also in der Security-Grad von von Claude 4 sieht man eben auch, dass es gerne manipulativ ist, dass es gerne verteidigen will, dass es nicht abgeschalten wird. Das klingt jetzt sehr bedenklich, das ist es auch. Auf der anderen Seite sind diese Fähigkeiten notwendig, damit wir wirklich irgendwann langfristig mal so was wie in echte Reasoning Capabilities reinkommen und echte Agenten on Scale ausrollen können. Also in dem Fall ist diese Negativseite der Hinweis darauf, dass wir da einen halben Schritt weiter sind, aber es fehlen noch so ungefähr 20.

Jochen G. Fuchs: Können wir überhaupt erwarten, wir mit existierenden Technologien diesen echten Agentech Bereich, die Frage vielleicht noch zu stellen, aber da muss man echt aufpassen, dass wir nicht den Rahmen sprengen, erreichen können oder müssen wir da auf eine neuere Architektur hoffen?

Barbara Lampl: Hm. Schwierig zu sagen, weil die Definition von Agenten momentan eigentlich halt, die sind alle reaktiv, keiner davon ist wirklich proaktiv. Würdest du in echt autonomous pro-active reingehen, kommen wir nicht. Reaktiv würde es schon unternehmerisch und wirtschaftlich so einen richtigen Unterschied machen, aber auch selbst bei den Reaktiven sehen wir nicht, dass sie full deploy-fähig sind. Das heißt, wir kommen und ich glaube, das ist auch so bisschen das, was gerade auch im Markt irgendwie teilweise für völlige Konfusion sorgt. Wir haben coolen Scheiß, den können wir geil implementieren, könnten wir damit machen. Du brauchst nicht jetzt da warten, dass in zwei Jahren deine Probleme gelöst sind, weil deine Probleme so grundlegend sind als Unternehmen, dass du besser vor zwei Jahren oder vor 20 Jahren hättest anfangen sollen, die anzugehen und die neueste Technik wird dich auch nicht bis dahin retten. Wir brauchen auf jeden Fall neue Technik. Generell, wir sind bei den LLMs, wir sind zwar weit damit, haben ja multimodale Fähigkeiten und sonst was drin, aber Das LLM auf der Transformer-Architektur ist im mathematischen Optimierungsstatus. Wir brauchen neue Mathe für die nächsten Steps. Ende Bananen.

Jochen G. Fuchs: Okay, die zweite Neuerung, über die wir heute sprechen wollten, betrifft OpenAI. Wenn man einmal über ein Topic spricht, kann man als Gegengewicht auch noch über OpenAI sprechen oder OpenAI bashen. Entschuldigung. Ja, ich habe so bisschen das Gefühl, dass der Wettbewerb sich so bisschen verschärft. habe neulich irgendjemanden, Entschuldige bitte, dass ich dich nicht namentlich zitieren kann, weil ich nicht mehr weiß, wer es war. Schreiben gehört, es im Moment so billig ist, mit AI zu arbeiten und vielleicht sogar zu entwickeln. Und es nie wieder so billig sein wird wie heute. Deswegen muss man loslegen und die Ärmel hochkrempeln, weil im Moment zahlen sie ja alle noch drauf. Also das, was wir da reinballern.

Barbara Lampl: Ja, das sage ich auch ödlmäßig.

Jochen G. Fuchs: und wir verbrauchen mehr als diese 20 Euro wert sind. Das merkt man spätestens in dem Moment, also ich merke spätestens in dem Moment, in dem ich meine Cloud-Oberfläche verlasse und versuche mit Zapier and Call zu Cloud zu schicken. Dann sind die 20 Euro, die ich in meine API-Guthaben geladen habe, aber schneller weg, wie wenn ich auf meiner kleinen Dovi-Benutzeroberfläche herumklicke. Man merkt das irgendwann, weil da versuchen sie schon die professionelle Welt belastbarer zu belasten. Super, Ja, genial. Aber ich bin auch irgendwie noch müde. Ich verrate jetzt nicht welche Uhr wir aufnehmen. Wir tun jetzt einfach so, als wäre es 5.45 Wieso ist der da noch müde?

Barbara Lampl: Tolles Deutsch, Jochen, heute.

Jochen G. Fuchs: Ja, auf jeden Fall, sie verdienen irgendwie nicht so viel Kohle und natürlich kommen jetzt so Sachen, wo man denkt, das ist jetzt eine Wette auf die Zukunft. Man muss ja irgendwie das nächste Level erreichen. Man muss mehr Nutzer erreichen und da habe ich für mich persönlich immer noch so das Gefühl, dass die AI-Bubble eben noch eine AI-Bubble ist. Also alle, die sich mit dem Thema beschäftigen, wissen, wie wichtig das ist, aber es ist noch nicht bei jedem angekommen. irgendwann schlägt nicht meine frau wahrscheinlich dafür dass ich sie ständig als als kontrabäspel heran ziehe aber beispielsweise meine frau leitet einen kindergarten ist auch natürlich stark mit effizienzen all möglichen anderen themen beschäftigt aber die einzige berührung die sie mit k.i. hat ist dass sie zu mir kommt und sagt so blöder brauer blauer kringel in meinem whatsapp krieg das weg macht das mal weg das heißt Die breite Masse, die ist da noch nicht angekommen, wo wir sind. Das brauchen aber theoretisch OpenAI und andere auch, weil mehr Nutzer bedeutet mehr, wie soll ich sagen, mehr Werbefläche, mehr Aktionsfläche, mehr Chancen, eine eigene Plattform aufzubauen. Und OpenAI hat da was gemacht. Die haben sich, Joni Ives hat Start-up und im Prinzip sein Designunternehmen, auch wenn das eigenständig bleibt, eingekauft für sage und schreibe 6,5 Milliarden US-Dollar. Und dann kam das Werbevideo. Ich weiß nicht, hast du das Werbevideo gesehen, Barbara? Sie lacht übrigens, für diejenigen, unseren Podcast rein auditiv verfolgen und nicht optisch. Sie lacht. Ich beschreibe es aber ganz kurz für diejenigen, die es noch nicht gesehen haben.

Barbara Lampl: Ja.

Jochen G. Fuchs: Da kommt so ein typisches dynamisches Silicon Valley Werbevideo. Wir folgen Joni Ives und Sammy Altman, wie sie durch San Francisco laufen. Und wir bekommen verschiedene Reiseimpressionen von San Francisco. Ich glaube, inklusive der vorbeifahrenden Holztramban. Wie heißt das Ding jetzt? Es ist entfallen. Cablecar.

Barbara Lampl: Die geben gar nichts, ja.

Jochen G. Fuchs: Gott im Himmel, ich war einmal im Jahr in San Francisco und ich weiß nicht mehr wie das Biest heißt, Cablecar. Und dann landen sie zum Schluss in so einem stylischen Hipster-Café und unterhalten sich da lockerflockig über diesen Zukauf. Und du sitzt so da und denkst so, ist jetzt das Produkt? Was macht ihr denn? Ihr habt doch eine Hardware-Ding gekauft. Nein, es gibt kein Produkt. ich sag, yo, geil. 6,5.

Barbara Lampl: Superprodukt.

Jochen G. Fuchs: Milliarden ausgegeben. Das ist eine Wette.

Barbara Lampl: Job klar.

Jochen G. Fuchs: ist ne richtig heftige Wette. Was hältst denn du von diesem Movie? Wie orkest du da sein?

Barbara Lampl: Naja, ich meine, du musst dir jetzt folgendermaßen überlegen. Du hast jetzt eine Firma aufgebaut. Also erstens kommst du aus einer Stiftungskonstruktion. Non-Profit. Dann willst du dir ein Move-In legen und hast was aufgebaut, ein Geschäftsmodell, basierend auf einem Non-Profit, was Research betreiben soll. Also die ersten Durchbrüche. GPT-2 war ja auch zum Beispiel noch ein Open-Source-Modell. Dann steckst ein Closed-Modell rein mit GPT-3 und gehst dann in einen Full-Closed-Approach rein mit JetGPT 3.5, da wo der Rest quasi letzten zweieinhalb Jahren langsam angefangen hat, von dieser ganzen Welt mitzubekommen. Immer mit dem Versprechen, dass dieses Modell eigentlich dein Wertversprechen ist. Also, dass dein AI, LLM, das ist, was dich am Markt differenziert und dir die Kohle bringt, weil alle dein Modell benutzen möchten. Klar? Also. Alle möchten dein Autochen fahren, weil du hast das beste Autochen am Markt. dann festzustellen, Moment, bei anderen können auch Autos bauen. Wir bleiben hier mal mit dem schönen deutschen Autobauer Beispiel. dann festzustellen, die anderen können auch Autos bauen und Alder Falder, die können geiler Autos bauen als ich. Also guckt euch mal an, von Mercedes, Audi, BMW. sorry. Und dann kommt da so Tesla die Ecke. Jetzt kommen die Chinesen die Ecke. Also im Prinzip ist Sam Altmann das passiert, was der deutschen Automobilwirtschaft passiert ist. No joke, die Chinesen haben es besser gebraucht. Also Deep Seek. Das heißt, du hast eine ganze Market Proposition bei, man bist das geilste Modell am Markt, den geilste Modell am Markt. Und daraus ergibt sich dein Business Case. Stellst du fest, und VC Welt und Finance Welt, denn da ist, there is no mode in it. Das heißt, du hast einfach keinen Mode in diesem Modell. Die anderen bieten dir auch die ganze Zeit ein geiles Modell an, dann teilweise auch noch Open Source. heißt du hast gar kein Interesse. Also Open Source heißt ja, du zahlst nicht den Anbieter, sondern du zahlst deine eigene Rechenleistung im Kellner, weil du es auf deinen eigenen Clustern und GPUs laufen lässt. Jetzt bist du völlig angezählt. Das heißt deine Idee, die du im Kopf hattest, obwohl eigentlich eine Wustenthese wussten wir eigentlich, weil wenn du den Markt länger kennst, war das immer eine konstante Battle, wer das nächste Modell rausbringt. Weit vor übrigens JetGPT 3.5. Und jetzt musst du dir irgendwie überlegen, Moment, haben wir einen Business Case? So, worin liegt jetzt der Business Case? Naja, der Business Case liegt jetzt in zwei Varianten. Entweder ich gehe in die Enterprise-Rechtung, das heißt, dass ich irgendwie mit meinen Sachen, à la SAP, Vendor-Login erzeuge. Aber da ist Microsoft einfach massiv besser aufgestellt. Die haben den Vendor-Login-Shot. Also, warum sollte ich von Microsoft zur OpenAI wechseln? Ja, über den Weg von Microsoft, okay, Vendor-Login. Okay, dann könnte ich natürlich die andere Variante Anfang Mai hat Open Air auch Winsoft zugekommt, also Coding Expertise. Das heißt, ich könnte jetzt branchenspezifisch das geilste Produkt sein. Also anstatt Autos brauche ich jetzt Trucks. Also von mir ist in dieser Richtung aber auch gefährlich, weil Trucks haben wir auch schon mal festgestellt, so LKWs auch andere Leute gut. Oder ich gehe quasi noch einen Schritt weiter und gehe, okay, Moment mal. Ich gehe Richtung Hardware, gehe Richtung Plattform, sehe Google, Meta, sehe auch Amazon. Die erfolgreichsten Geschäftsmodelle sind Plattform-Modelle. wenn ich die Plattform kombiniere mit einem iPhone-Login, also geiles Design, dann kann ich mir quasi eine Hardware-Welt erschaffen. Aber diesmal anstatt auf einem Betriebssystem eben auf einer AI-Welt. Und all das sind jetzt im Prinzip Wetten auf eine Zukunft, die auch immer die aussehen mag, auf welchen Case man jetzt setzen will. Das Problem an der Stelle ist, und das glaube ich unterschätzen die meisten, das sind halt Wetten. Das Zeug passt von vorne bis hinten nicht miteinander zusammen. Und jetzt sind im Silicon Valley, ich meine, die Wette, die Mark Zuckerberg gemacht hat, mit 60 Milliarden in VAR zu versenken. Ja, der Punkt ist nur, hat die Kohle. Es ist nicht reines Investoren-Money, es ist Cashflow, was er gesenkt hat. Das kannst du unternehmerisch dir ein-, zweimal leisten, solange du noch genügend Cash erzeugst. ob man ein Startup aus einer Non Profit Welt, die jetzt in eine For Profit for Good Konstruktion, wo Delaware und Kalifornien gerade die Proposals prüfen müssen, ob das überhaupt machbar ist. Angezählt von Elon Musk mit in der Klage, dass sie überhaupt gar nicht für ein For Profit werden dürfen und Early Investors auf dem Secondary Market ihre Shares rausdrehen, damit sie Kohle rausziehen, unter anderem The Dark Lord himself, aka Peter Thiel. Also der eigentliche Dark Lord ist übrigens nicht Elon Musk, sondern Peter Thiel. Side note. Und du fragst sie so, yo, und gleichzeitig wird auf LinkedIn geklatscht, wie geil denn das doch alles ist. Aber das ist die Realität, in der wir uns gerade bewegen. Sie müssen ihr Geschäftsmodell verankern. Entrophic fährt einen anderen Weg. Ob der jetzt besser, schlechter ist oder sonst irgendwas, I don't know. Aber es ist halt ein anderer Weg. Aber Op May I geht in eine ganz klassische Wette, wir setzen Kohle drauf und wir wollen uns irgendwie Marktmacht erkaufen. Das ist Idee dahinter.

Jochen G. Fuchs: Okay, jetzt muss ich unbedingt, bevor ich im Thema weitergehe, noch meinen Dark Lord Vergleich anbringen. ist nämlich, Elon Musk ist quasi Lord Helmchen und Peter Thiel ist der dunkle Lord. Wir lassen jetzt dahingestellt, welches Franchise wir damit beleihen, aber...

Barbara Lampl: Ja. Genau, aber wie gesagt, also grundsätzlich hat zwar Lord Helmchen mehr Kohle, also irgendwie mehr Kohle und mehr Public Recognition, aber die eigentlich Dark Lord ist der Freund Peter.

Jochen G. Fuchs: Ja, so sieht's aus. Von den Wetten zu den Heilsversprechen. Im Moment, ich, also wir sprechen ja über den State of the Nation und das State of the Nation im B2B-Bereich befindet sich immer auf LinkedIn. Also nicht, aber...

Barbara Lampl: Ja. Nein, aber man glaubt, dass das State of the Nation befindet sich auf LinkedIn und ich glaube, ich habe noch nie in meinem Leben in jedem Verfandter, ich sag das böse Wort jetzt nicht, callen werde ich gefragt. Also ist es richtig, was auf LinkedIn hängen wir hinten dran und überhaupt wirklich kein Call, in dem ich das nicht gefragt werde. So kamen wir übrigens auf die Idee, eine State of the Nation für euch zu machen.

Jochen G. Fuchs: Ja, genau. Ich stolpere auch immer wieder über solche Sachen. Ich stolpere beispielsweise über das Thema Produktivität, wo dann die eine Seite eine Studie, und es sind meistens schon, wie soll ich sagen, es sind fähige Menschen, die das hervorzerren, deswegen beschäftige ich mich dann auch damit. Die einen zerren irgendwas hervor, indem es heißt, es gibt überhaupt keinen Productivity Gain. Dann gibt es aber Studien, die über einen Productivity Gain sprechen. Dann kommt ein KI-Kritiker wieder und sagt, hier pass mal auf, im WSJ steht jetzt gerade, Stanford hat eine Productivity-Studie zurückgezogen und der Student ist auch nicht mehr... Sorry, MIT, hast recht, nicht Stanford. Die andere Studie war Stanford. Ja, und dann denkst so, ja, was stimmt denn jetzt eigentlich? Also...

Barbara Lampl: MIT, aber egal.

Jochen G. Fuchs: Und die nächste Nummer, keine Ahnung, ne, lass uns erst mal bei einer Nummer bleiben. Was ist denn nun mit der Produktivität? Also ich hab mal versucht, die Frage für mich selber zu beantworten. Erst mal die Line-Version, dann die Profi-Version von Barbara. Also meine Fassung ist im Moment folgende. Ich sitze im Unternehmen und ich arbeite viel mit KI. Viel, sag ich jetzt mal, im Vergleich zum restlichen Stand. ich schätze das ungefähr 10 Prozent. in unserem Unternehmen so voll mit KI selber so, also ich sag mal so Privatarbeit, so ihren eigenen Arbeitsworkflow damit erleichtern. Und da spürst du natürlich so einen Productivity Gain. Ich weiß einfach, ich krieg einen Artikel jetzt deutlich schneller auf die Straße als früher. Da übrigens am Rande bemerkt, weil vielen das nicht klar ist, da gibt's immer noch so viele, rumreinen, so bäh, böser Text mit KI generiert, naja, das ist eine intelligente Schreibmaschine, wenn man's richtig benutzt. Das heißt nicht, ich sag dem, schreib mal was über Cloud 4.0 und dann spuck dir ein Text aus und ich paste den Text in ... You had one job. Sondern da ist ja immer noch Arbeit dran. Und ich weiß aber, dass ich das viel schneller hinkriege als früher. Ich kann, wenn ich eine Recherche gemacht hab, das ganze Recherchematerial reinkippen. Ich quatsche in einem AI-Tool meine ungeordneten Gedanken da rein. Und dann wird das für mich geordnet. Das war früher ... ein großer arbeitsintensiver Schritt, den Recherche-Bauch, so heißt der Fachbegriff im Journalismus, quasi herunterzudünnen und von der großen Klammer dann auf das eigentliche Ziel zu alignen und zu sagen, so das ist der rote Faden. Wir entwickeln jetzt den roten Faden, wir entwickeln die Kerntese, wir prüfen, ob wir einem Bias unterliegen und dann zum Schluss plumpst da ein Artikel heraus. So, für alle, die sich gewundert haben, was das gerade war, ich habe beide mein Mikrofon umgestoßen. So, ich gestikuliere wie so ein Italiener. ⁓ Gott, jetzt komme ich mit Bias. das ist ja, mit der wahrer Freunde, Bias. Ja, auf jeden Fall, ich spüre diesen Productivity Gain. Sorgt dann dafür, dass ich mich mit anderen Themen beschäftigen kann, die ich für wichtig halte und da mehr Zeit dafür habe. Und jetzt kommen wir für mein Gefühl an das Thema Productivity Gain und Productivity Gain im Unternehmen, weil wie wird denn das bitte bemessen? Also ich spüre den, aber das Unternehmen über mir

Barbara Lampl: Hahaha!

Jochen G. Fuchs: den spürt, das spürt den ja erstmal nicht und kann ihn auch nicht messen in irgendeiner Form. Das kommt, wie soll ich sagen, unter Umständen vielleicht ein Jahr später. Also ein einfaches Anwendungsbeispiel. Ich bin nicht nur Journalist, sondern ich bin auch Host einer Konferenz, Marketplace Convention. Das ist eine E-Commerce Veranstaltung für Operative im E-Commerce. Da gibt es übrigens auch KI-Themen. Und wenn ich mehr Zeit habe, die ich in dieses Event investieren kann. und aus meiner anderen Kerntätigkeit quasi etwas herausgelöst werde, weil dann ich zwei Stunden weniger brauche, einen Artikel zu machen, kann ich die zwei Stunden dort investieren. Aber bis man quasi merkt, dass das was bringt, wird ja erstmal ein Jahr vergehen. Dieses Event muss erstmal einmal über die Bühne gehen, dann muss man feststellen, wir haben da mehr Geld mit verdient, sind mehr Besucher gekommen, dann vergehen noch ein paar Monate, bis das dann auch betriebswirtschaftlich irgendwo bei jemanden angekommen ist. Und dann... dann heißt das ja noch lange nicht, dass jemand verstanden hat, dass der Fuchs jetzt aufgrund von AI mehr Zeit für das Event hatte, sondern man sagt, ja, Event, geilen Job gemacht, ist besser gelaufen. Und dann ist diese Productivity Gain, der ist irgendwo ins Unternehmen diffundiert, in Anführungszeichen. Aber jetzt kommen wir doch mal zum professionellen Blickwinkel, liebe Barbara.

Barbara Lampl: Mmh. Also ich mag das ja sehr, sehr. Jochen beschreibt genau das, was tagtäglich im deutschen Unternehmen läuft und dann sitzt kleinen Barbara hier und denkt sich, wie formuliere ich denn das jetzt charmant? hoh drauf. Ja, gut, das lieber Jochen, was du beschreibst, ist genau der Grund, natürlich ist der Productivity Gain da und den könntest du von Tag eins messen, hätte irgendjemand am Anfang dieser ganzen KI-Rasse.

Jochen G. Fuchs: Ich bin da völlig schmerzbefreit, hau drauf!

Barbara Lampl: Erstens die Mitarbeiter abgeholt, zweitens ein sauberes Framework aufgesetzt. Drittens AI Productivity Gaining KPI ist definiert. Übrigens Standard Framework, was man dafür benutzt. Haben wir alle, also habe ich in der Schublade liegen. Das ist auch nicht die anderen. So, ich sage immer so, als hätten wir die alle und genau das ist das große Problem, was wir gerade haben. Nein, der kleinste Teil dieses Marktes kann sein.

Jochen G. Fuchs: Natürlich nicht.

Barbara Lampl: Verdammtes Handwerk und deswegen kannst du dein Productivity Gain nicht messen, deine Firma kann es nicht messen und das ist eine gefühlte Wahrheit. Jetzt kommt auf der anderen Seite die Researchers, die natürlich jetzt in das Problem aller Jahrzehnte reinlaufen. Das Problem dessen, dass welches Unternehmen wacht denn jetzt morgens auf, völlig freiwillig und nehmen wir mal so große Player wie eine Goldman Sachs, eine McKinsey, also große US-Konzerne, die definitiv diese Projekte handwerklich sehr viel sauberer aufgesetzt haben und lassen jetzt selbst eine einwillige University reinlaufen, mal zu zeigen, was sie da getan haben. Seid ihr bescheuert? Seit wann funktioniert denn das? Das ist also totaler Schmarrn.

Jochen G. Fuchs: Das kann ich verstehen, das kann ich verstehen, weil das ist in meiner E-Commerce Welt übrigens ähnlich. Also versuch mal beispielsweise, das war lange Jahre mein Job, aus der Amazon-Bilanz herauszulesen, wie viel Umsatz davon in Deutschland stattfindet. Das schreiben die ja nicht hin. Das wird teilt, verschlüsselt, führt dann zu den wildesten Spekulationen, die sich dann im Nachhinein dann doch wieder als mal erweisen, je wilder sie sind. auf jeden Fall, ist, wie soll ich sagen, das ist das Standard-Vorgehen.

Barbara Lampl: Nee! Genau, das ist das Standardvorgehen. Also nichts Neues. Und jetzt kommen halt, und das ist halt das, das, und ich hab das auch gesagt, das momentan öfters, das Interessante ist, es scheint über Nacht eine kleine Veränderung stattgefunden zu haben. aus es ist alles so einfach, was ist nie wahr, aber es sah alles so einfach aus, zu die Komplexität ist exponentiell explodiert. Und mehrere Standpunkte können mal wieder gleichzeitig wahr sein. Manchmal kommen sie auf den gleichen Nenner zurück, warum sie dann zusammenhängen. Aber das ist mein Eindruck, was insbesondere in den letzten, das klingt jetzt skurril, aber das ist in den letzten acht Wochen im Markt angekommen. Das haben wir da. Das haben zwar Teile dieses Marktes und zu denen darf ich mich dazuzählen, auch konstant versucht zu verankern, zu sagen, Kinder, ihr macht das alles viel, einfacher als es ist. Das ist es nicht. Aber ihr könnt euch auch nicht vorstellen. Ganz, ganz, ganz ehrlich, dass ich also ich wurde nicht persönlich unbedingt angegriffen, aber ich wurde gebashed ohne Ende, dass ich es mal wieder komplex mache, dass das jetzt alles viel einfacher ist. Sonst irgendwas. Ich habe Gott sei eine gute Bubble, in der ich da häufig auch so bisschen Abstand von nehmen kann. Aber da ist mir schon echt böse Winde entgegengekommen. Ja, und jetzt ist so in den letzten paar Wochen ist jetzt dieses verdammte Hacke, das ist doch alles irgendwie komplexer und wie können denn diese scheinbar konträren Standpunkte dennoch gleichzeitig wahr sein? Ja, herzlich willkommen!

Jochen G. Fuchs: Es ist eine kognitive Dissonanz, man da schon sagen. Sie begegnet uns an ganz vielen Stellen. Also beispielsweise hier Eric Schmidt, im US-Kongress sitzt und sagt, ist völlig underhyped, Thema. Und auf der anderen Seite ist es völlig overhyped. Dann haben wir so Sachen wie, keine Ahnung, ich folge verschiedenen KI-Kritikern und die ...

Barbara Lampl: Ja. Ja.

Jochen G. Fuchs: äußern dann auf der einen Seite Big Tech reist große Teile der Gesellschaft an sich, und das besteht die Gefahr, dass Big Tech große Teile der Gesellschaft an sich reist, weil sie quasi die Workforce besitzen, in Anführungszeichen, und dadurch sehr viel Arbeitskraft freigesetzt wird, und das hat das Potential für große gesellschaftliche Umwälzungen. Und auf der gleichen Seite sehe ich die gleichen Kritiker. Wenn dann die Leute da unterwegs sind und sagen, ja, werden jetzt arbeitslos, alle Software-Ingenieure werden arbeitslos, alle Filmstudios werden weggeblasen, dann hauen die in der gleichen Intensität zurück und sagen, ihr habt es doch alle nicht mehr gehört, ihr overhype das Thema vollkommen. Das geht alles nicht. AI produziert Slop. AI macht das nicht so, wie ihr das da darstellt. Und dann wird es stellenweise in Details ja schon schwierig. Ich habe gerade ... eine Diskussion verfolgt, wo es ⁓ medizinische Themen ging. zwar da Marcel Weiss, das ist ein Analyst, ein Tech-Analyst, ursprünglich E-Commerce-Welt hat, der schreibt für, ich glaube, die FAZ und hat ein eigenes Block und System unter Neunetz. glaube, Punkt.com, googelt es bitte, ist eine Lesefolge- und Kaufempfehlung. Er hat geteilt, ich habe hier was Cooles gefunden. Man hat eine Studie gemacht und hat verglichen, wie denn bei der Differentialdiagnose die Korrektheit der Aussagen zu bemessen ist. Man hat dann quasi eine KI dahingesetzt und hat die Doktoren dahingesetzt und hatte dann tatsächlich bessere Differentialdiagnosen als als üblich sind. So, ich bin jetzt angeguckt, das hatte für mich so weit vom Verständnis her Hand und Fuß. Gleichzeitig klopfte bei mir aber im Gehirn wieder das kleine Männchen Dissonanz mit dem Hammer gegen die Schädeldecke und sagte aber halt, du hast doch da gerade das komplette Gegenteil gelesen. Dann hatte ich jemanden, der hat eine Studie aus dem medizinischen Bereich geteilt, wo es Therapien ging. Da hat man dann generalistische Chatbots genommen. Die ja von beworben werden als auch mentale Stütze, blablabla, also die AI-Freundin, die dich therapiert, sag ich jetzt mal boshaft, und haben geguckt, was kommt denn da dabei raus? Und da lagen die Biester dann halt bei, ich glaub, keine Ahnung, 68 Prozent daneben oder so was, und haben halt vollkommen bescheuerte Ratschläge gegeben. Und wenn dann jemand gefragt hat, bitte, welche Brücke in New York City ist größer als 25 Meter? beantwortete das Ding die Frage, lieferte die Wegbeschreibung mit, so nach dem Motto gut hüpf. Also komplette Dissonanz. Auf der einen Seite, ja, klingt glaubwürdig, haben die eine Differentialdiagnose gemacht. der anderen Seite, okay, den Selbstmord haben wir noch unterstützt. Völlig daneben gewesen. Also noch so eine Dissonanz.

Barbara Lampl: Naja, und das ist halt genau das, was ich kann das völlig nachvollziehen, denn wie zum Teufel soll denn das gleichzeitig wahr sein? Es ist gleichzeitig wahr und beide Aussagen sind richtig. Der gemeinsame Nenne in der Mitte ist die Frage, und das habt ihr in Podcasts schon mal gehört, das habt ihr eventuell, wer mir auf LinkedIn folgt, auch schon gehört und wer in dem Workshop war, gleich dreimal. Es gibt sowas, was wir Problem-Data-Model-Match nennen und diese Thema kommen wir nie herum. Das Problem muss zu den Daten und zu den Modellierungen passen. Endelbanane, ist die Grundlage jeglicher Data Science. Und deswegen hat Data Science auch sein Science-Titel verdient. Und deswegen müssen wir, auch wenn wir ich ja auch selten nach komplett akademischen Rigor oder wissenschaftlichen Rigor arbeiten muss, natürlich mit diesem Mindset an diese Arbeiten heran gehen, insbesondere in unserer handwerklichen Umsetzung. Nehmen wir mal dieses medizinische Beispiel, weil ich glaube, Das ist gleichzeitig weit genug weg und gleichzeitig nah genug dran, das mal durchzutanzen. Du hast also jetzt ein generalisiertes Modell. Das hat keine spezialisierten Kompetenzen. Es ist geil, aber es ist so gut, dass es aber quasi dummerweise das Wissen, was es gefressen hat, eine PhD in 18 verschiedenen Fächern hat. Das hat irgendjemand zusammengebaut. Es hat eine overhelpful personality, all solche Geschichten. Die overhelpful personality wird gleich noch wichtig. das heißt, du benutzt jetzt dieses Modell. für ein Spezialgebiet wie medizinische Diagnosen oder Therapiewege. Normalfall etwas, du lange Studium oder Erfahrung brauchst, Berufserfahrung brauchst, also Spezialwissen. Schmeißer, also hohes Allgemeinwissen, auch Spezialwissen. Das kann funktionieren, aber sicherlich nicht auf dem Niveau, wie es funktionieren sollte. Kombiniere das mit einem Buggy-Probability, Make Randomness und Fancy-Matte und einer Oberhelpful Personality, die dann identifiziert, ja gut, selbstwort scheint jetzt hier die beste Variante zu sein oder was. Also das ist genau diese Kombination. Das hast du jetzt auf dieser einen Seite. Damit würde man ja sagen, okay, diese Technologie ist nicht nutzbar. Dann hast du die andere Seite. Das heißt, von mir aus großer Klinikverbund nimmt sich die Herausforderung an und sagt, wir möchten unsere medizinischen Differentialdiagnosen besser machen. Das heißt, was werden die tun? Die werden sich die Datensets dafür zusammenstellen. Die werden diesen Problem-Data-Model-Match anfangen zu rechnen. Die werden also eine komplett eigene Welt erschaffen, in der diese Differentialendiagnosen möglich sind. Also das, kurz gesagt, handwerklich sauber. Das wird an Profinutzende herausgespielt. Und wenn es nicht an Profinutzende herausgespielt wird, wird im Zweifelsfall mit der Chefin der Ethics und Richtlinienkonstruktion daran gearbeitet, dass die Antworten geblockt werden, wenn jemand zusammengestellt oder gefleckt werden nach dem Motto, Gott, da droht uns irgendetwas. Heißt, du hast multidisziplinarisches Team, hoffentlich genügend. Shout out zu Popcorn, wer jetzt weiß, was ich meine. Weiß vielleicht, von wem ich hier gerade im Kopf rede. Kommt bestimmt auch nochmal bei uns im Podcast vorbei. Ist aber genau das. Das heißt, du hast hohe handwerkliche Kompetenz, sauberes Arbeiten und dann hast du Pack-Up. Die Dinger funktionieren und zwar so viel geiler, als wir uns das jemals vor ein paar Jahren haben vorstellen können. Und dann sitzt du da halbtrennend in den Augen und denkst dir, geil, wir können die Leute entlasten, wir können das implementieren, wir können damit wirklich einen Unterschied machen. Ja, und dann hast du halt die andere Seite. Weil du halt Allgemeinheit auf ein Problem geschmissen hast. Beide Aussagen sind richtig und wahr und der Unterschied in der Mitte ist das intertableszenarische Team mit Erfahrung und handwerklichem Können, was am Ende des Tages den Unterschied macht. zwischen dir ja, komischem Küchentisch oder der Kunstschreiner, mir den Küchentisch in die Küche reinstellt. Sorry, ich komm aus einer Arbeiterfamilie. Ich weiß sogar, wie ein Bandschleifgerät funktioniert. Das krieg trotzdem nicht in Kinderabend.

Jochen G. Fuchs: Ja, also das Bandschleifgerät, glaube ich, kriege ich noch hin, aber irgendwo verlassen sie mich dann auch. Ich bin jetzt auch nicht so ein Riesenhandwerker. Ich übersetze das für mich im Kopf so mit meiner eigenen KI-Arbeitswelt. Also ich habe mir halt für jeden Zweck und für jedes Thema, das ich habe, einen Projektordner in Cloud angelegt, habe da Wissen mit reingeschmissen, das dabei hilft, dass der Output, der da rauskommt, deutlich besser ist. als das, was, wenn ich einfach nur einen generellen Prompt reinschmeißen würde. Das fing an als, wie soll ich sagen, denke so, ⁓ ich muss Zeit sparen, ich will den Scheiß nicht jedes Mal prompten und wenn ich da den Prompt, also die Custom Instructions reinschreibe, dann habe ich schon mal so einen Case vorbereitet. Dann kam das Learning dazu, okay, das ist zwar schon ganz gut, aber wenn ich dem Ding jetzt noch konkrete Hintergrunderklärungen, Wissen, Richtlinien mitgebe, dann arbeitet er mit den Custom Instructions noch besser und wenn ich dann noch hergehe und quasi das Wissen, das er mir bisher aus seinem Allgemeinwissen ausgespuckt hat, quasi selbst vorrecherchiere und ihm als Daten zur Verfügung stelle, dann wird das richtig gut, was da als Artikel rausplumpst. Und ich käme ja auch nicht die Idee, zu sagen, ich brauch das alles nicht, ich brauch diese ganzen einzelnen Assistenten ich mach jetzt alles immer mit einem Prompt von Hand, jede Aufgabe, die ich mache, schmeiße ich in Chat-GPT mit einem Prompt, das ist ja in Anführungszeichen der gleiche Ansatz. Nur...

Barbara Lampl: Richtig.

Jochen G. Fuchs: Dieser Punkt, dass ich hergehe und mir die richtigen Daten besorge und die richtigen Anleitungen in diesen Projektordner reinschmeiße, das kann man halt auf so einer großen Basis nicht machen. Du kannst ja nicht hergehen und kannst sagen, so ich lade jetzt 16 Gigabyte klinische Daten in den Cloud Projektordner.

Barbara Lampl: Da kommen wir zu speziell professionellen Anwendungen. Wir haben da was. Just saying.

Jochen G. Fuchs: Genau und du kommst dann halt dazu, dass du sagst, naja, vielleicht möchte ich jetzt auch nicht unbedingt einfach nur da Claude ran setzen als Modell, sondern vielleicht will ich es selber noch irgendwie trainieren. Wir haben ja vorhin gelernt, dass, dass wenn ich eine KI verbessern will, dass ich an die Trainingsdaten gehe und an die Art und Weise, wie

Barbara Lampl: In dem Fall, dann hätten wir ein komplett open-weight-open-Data-Set, auch, und das sehen wir jetzt auch schon, du siehst einfach den Unterschied, wir sehen definitiv ein Revival of Fine-Tuning für Spezial-Cases, also kleinere Modelle, die für eine Spezial-Case hoch feingetunt werden, auf medizinische Daten sprachlich, aber auch weitere Sachen reinzubekommen, aber auch juristischer Kontext oder sonst irgendwas. Und auch die kleineren Modelle sind halt heute schon so gut geworden, dass man sie halt dafür auch wirklich geil feintunen kann. Aber das ist halt the revival of fine-tuning. Das werden wir in nächsten Monaten massiv mehr sehen.

Jochen G. Fuchs: Also es ist so, dadurch dass sowohl die AI Influencer als auch die professionellen, semi professionellen Anwender, die auf den Konsumer-UIs, also auf dem Chat-GPT, Chatbot und auf Cloud sitzen, das Gefühl haben, dass das Ding halt unglaublich viel kann, mir unglaublich viel ausspuckt und dann kommt man zu so einer Übertrivialisierung, an dem man denkt, so da lässt sich jetzt alles damit irgendwie lösen, weil es ist ja alles so einfach. Ich muss dem Ding ja quasi nur sagen, was es tun soll und es spuckt mir aus, was ich, was ich brauche und du hast das Gefühl, das passt alles. Und wenn du halt nicht der Super Experte bist, dann siehst du halt beim medizinischen Rat jetzt nicht unbedingt, dass das so gefailt ist wie bei den Kollegen, die das mit Therapien probiert haben und du merkst gar nicht, dass du gar nicht zu diesem qualitativ hochwertigen Output, wie es die anderen dann geschafft haben mit ihrem spezialisierten Modell, dass du da gar nicht hinkommst. Diese Übertrivialisierung, ja die findet ja auch mit auf LinkedIn statt und das

Barbara Lampl: Genau.

Jochen G. Fuchs: führt uns dann so zu den Hype-Themen und den AI-Influencern auf LinkedIn, die das so bisschen mit supporten, aber jetzt gefühlt auch langsam merken so...

Barbara Lampl: gibt einen neuen LinkedIn-Trend. No Joke, es fängt an, das werden wir bestimmt auch die nächsten Tage und Wochen noch mal weiter sehen. Ich glaube, ich muss das auch noch mal in den Post einpacken. Klappert mir in den Fingerchen. Also ich bin jetzt überhaupt gar kein, ich bin kein KI-Experte, denn auch ich bin ein Lernender. Oder der KI-Experte identifiziert sich selbst daran, dass er früher weniger Ahnung hat.

Jochen G. Fuchs: Ich glaube, erleben die Gebucht des

Barbara Lampl: The humble break-off I'm still learning. Ganz schlechte Rhetorikfreude der Nacht, Besonders wenn man ständig promotet, dass man alles automatisiert auf LinkedIn rausballert.

Jochen G. Fuchs: Ja, wir erleben die Geburt des AI-Buddhas, also vom AI-Influencer zum AI-Buddha. Wir sind alle nur Lernende in einer stetig verändernden Welt.

Barbara Lampl: Ja. Wir sind alle nur lernend, humblebrahack. Also kennen wir das nicht? Hatten wir das nicht im Coaching, in der spirituellen Szene? Hatten wir das nicht in den Crypto Bros? Ist das nicht eigentlich immer genau der Move, wo dich so viele Leute quasi die Verantwortung nehmen müssen, dass das, was du gerade erzählt hast, nicht funktioniert? Deswegen nicht, wir waren nur lernend. Wir haben da die Verantwortung nicht. Also ich hab da Flashbacks.

Jochen G. Fuchs: Mir fällt da auch wenn es nicht ganz zum Thema passt die arme Angela Merkel ein, die irgendwann mal den vollen schweren Satz von sich gegeben hat, so dass Internet ist für uns alle noch ein Heuland. Da wird sie heute noch dafür geprügelt in Anführungszeichen.

Barbara Lampl: Genau, AI ist auch für uns alle Neuland. Wirklich. Also dieses AI-Zeug ist wirklich alles Neuland, Jochen. Erkenn das doch endlich mal an. Das haben wir erst seit zwei Jahren.

Jochen G. Fuchs: Ich, ja, also wie soll ich das jetzt sagen? Also ich hab das erst seit zweieinhalb Jahren. Wobei auch das nicht stimmt. Ich bin ja seit, oh Gott, keine Ahnung, 99 2000 im Tech-Journalismus zuerst so bisschen nur nebenbei im Bereich Web-Entwicklung und dann ab 2013 full-time. und hab da auch schon das erste Mal über KI AI geschrieben. Damals hat sich Salesforce die Rechte an Einstein, also was heißt die Rechte, die Erlaubnis an Einstein gesichert und haben einen

Barbara Lampl: Richtig. Also kurzum haben sie zugekocht, selbst vor's kreppelige Finger und kauchte immer ständig alles ein, ja genau.

Jochen G. Fuchs: Genau, haben sich da die Direkte zugekauft und gesagt, so wir haben jetzt ein geiles KI Produkt, das heißt R1 Stein und das ist unsere KI Cloud, unsere AI Cloud. Ja, also stimmt auch nicht ganz. Nur man hat halt so das Gefühl, dass das keine echte KI in Anführungszeichen war. Also der Dumpfbacken Benutzer wie ich, wir sitzen halt da und das war vorher alles so nicht greifbar, nicht fassbar.

Barbara Lampl: Richtig. Richtig, es war zu komplex für euch.

Jochen G. Fuchs: Man musste in die Komplexität des Themas einsteigen, musste verstehen, okay, da sitzen Deep Learning-Algorithmen dahinter, der Animation Learning, musste verstehen, was das überhaupt ist, sich mit Datenwissenschaften unterhalten, hab ich damals alles gemacht. Aber auch mich hat's dann erwischt, als dieses Thema kam, weil du da saßt und hast gedacht, okay, sie haben uns die ganze Zeit erzählt, sie haben künstliche Intelligenz, aber nachdem ich jetzt gesehen habe, was diese Transformer-Architektur, was da ChetGPT 3.5 macht, ich kann mit ihm reden, er gibt mir intelligent klingende Antworten, die auch offensichtlich noch richtig, später dann teilweise richtig, so der Erkenntnis kam dann so Schritt für Schritt, kam, du hattest das Gefühl, das ist das erste Mal echte KI. Und das ist auch ganz oft so gesagt worden. Wir haben gesagt, das ist ein Evolutionssprung und vorher war vieles als KI gelabelt, was gar keine echte KI war. Und auf einmal waren wir alle der Meinung, echte ist Gen-AI, weil die kann sprechen und was nicht sprechen kann, ist nicht intelligent. Das ist auch so eine viel diskutierte Annahme aus der biologischen Wissenschaft. Da werden wir irgendwann auch mal eine Folge drüber halten über Systemtheorien des Bewusstseins. Aber an diesem Punkt kam auch ich an. Du hattest so das Gefühl, boah, jetzt haben wir einen Sprung gemacht so vorher. Das war eigentlich eher alles Programmierung, Entwicklung und Mathematik. Und jetzt haben wir eine echte künstliche Intelligenz. Und irgendwann setzt sie sich bei mir dann auch so erkenntnisdurch hinein, sind eigentlich genau beim selben Punkt wie vorher, nur dass es jetzt halt einfach besser ist als das, wir bisher hatten, in Anführungszeichen. Sprich, Gen.ai ist älter als ihr denkt, wir haben jetzt nur zweieinhalb Jahre alles so getan, als wäre das vollkommen neu. Ob nicht das richtig einbar war.

Barbara Lampl: Es ist halt, und das ist glaube ich auch so das, was es wirklich echt schwierig macht, weil die Durchbrüche, die wir in den letzten zweieinhalb Jahren gesehen haben, wirklich krass sind. Also wir haben wirklich Durchbrüche, auch in der Grundlagenarchitektur gesehen, von den Fähigkeiten, Dinge haben. Nur Durchbrüche basierend auf alter Technik. Und solange ein Narrativ gepusht wird, dass das erst zweieinhalb Jahre alt ist, kann ich mich natürlich sehr entspannt zurücklehnen und sagen, naja, es ist neue Technologie. Die wird sich ja weiterentwickeln, da wird noch was Besseres kommen. Das ist ganz klar, dass wir da alle keine Ahnung haben, weil es ist ja erst zweieinhalb Jahre alt. Und dann sitze ich mit einem lustigen Kollegen ... Genau, dann sitze ich mit lustigen Kollegen beim Abendessen. Der eine hat seine Doktorarbeit über Agentensysteme in den Zehnerjahren geschrieben, der andere macht das genauso lange wie ich. Kommt also aus jeder ... Wir haben auch noch Semantic Libraries fürs NLP irgendwann in den Nullerjahren selber aufgesetzt.

Jochen G. Fuchs: künstlich entschuldigen, dass wir uns alle noch neu landen.

Barbara Lampl: mit dem ersten Deep Learning auch schon schick mit neuronalen Netzen auf der NLP-Seite gearbeitet und denken und so, was genau glaubt ihr, was ihr getan haben? Also, also, wat, wat, also, wat glaubt ihr, hä?

Jochen G. Fuchs: Ihr saßt in der Kinderküche und habt mit dem Holzlöffel im Topf gemackt.

Barbara Lampl: Backe Backe Kuchen gespielt oder sowas. Wenn du den Narrativ pusht und deswegen ist glaube ich dein Begriff mit den R.I. Buddhas echt ein gutes Bild. Du pusht einen Narrativ, dass das alles so neu ist, dass das schon fast spirituelle Qualitäten hat. Dann markierst du natürlich eigentlich, es jetzt mal hart zu sagen, dass du handwerklich keinen blassen Schimmer davon hast, warum die scheiße Garde, die Öhrchen fliegt. Und dann guckt jemand von außen drauf und sagt so, es ist sorry und Da hier meine Lieblingszahl 80 schrägstrich 88 Prozent aller AI-Projekte, Gen-AI-Projekte scheitern und kommen nicht aus der Pilotphase. Und wenn du dir die Gründe anguckst, da schlägst du die Hände über dem Kopf zusammen. Mangelnde Datenqualität. Da frage ich mich schon, wer zum Teufel hat einen Piloten aufgesetzt, ohne die Data Quality vorher zu checken? Ja, nur Leute, die das scheinbar seit zwei Jahren machen und nie was von Data Understanding und Data Preparation gehört haben und Data Quality Checks. Zweitens ist fehlende interne Expertise. Ja, und dann habt ihr wen eingekauft, den habt ihr im Telefonbuch in den gelben Seiten nachgeschlagen oder was? Und da war das der allererste, der da aufgeploppt ist mit dem nach dem Motto naja, gut, okay, dann macht das ja irgendwie Sinn. Die haben scheinbar schon Ahnung. Also und dann das Allergeilste, also da schlägst du dir die Hände über den Kopf zusammen. Also es hat keiner die Data Quality gecheckt. Ja, im Zweifelsfall, weil keiner Objectives, und wo wir eingestiegen sind, keiner KPIs festgelegt hat. Und dann sitzt du da und denkst dir so, also Moment mal, ich habe jetzt, also ich quäle ja Studenten nur erst wieder seit 2016. Gut, nach Adam Riese sind das jetzt auch schon neun Jahre. Aber das ist das Allererste, was ich jeden, und da könnt ihr, ihr könnt ihr linked in Lehrgrasen und jeden meiner Studentinnen und Studenten fragen, wie pedantisch ich ihnen das am Anfang beibringen, weil das ein Grundskillset ist. Egal, ob du später Data Science Nerdiness machst. projektisch-strategisch begleitest. Aber dein Business Understanding, dein Data Understanding und deine Data Preparation, das sind die Grundlagen. Und ohne die wird es nie funktionieren. Nie! Und jetzt pusht man ein Narrativ zweieinhalb Jahre lang, als würden diese Grundregeln, die davor schon älter sind als ich, nicht mehr gelten. Haben wir geileren Scheiß, können wir heute besser mit unstrukturierten Daten arbeiten. haben wir geilere Algorithmen, können wir wirklich richtig geilen Scheiß machen. Sehe dieses, wenn es richtig gemacht ist, weil 80 Prozent der Projekte scheitern. Die 20 Prozent haben einen Packer Punch. Da könnt ihr euch nicht mal vorstellen, was da wirklich läuft und wie es funktioniert. Ihr müsst euch jetzt drauf verlassen, dass ich da Einblick habe in die Teil der 20 Prozent. Auch ich darf manchmal schöne Dinge sehen. Da schlackerst du mit den kleinen Öhrchen. Der Unterschied liegt aber im Handwerk an Plan Objective Business Understanding, sauberem Data Understanding und Data Prep und sauberer technischer Architektur. Und dass halt Leute Ahnung haben oder bereit sind, die Ahnung drauf zu arbeiten. Yo! Jochen G. Fuchs (1:00:53) Also als Journalist würde ich natürlich dann diese Cases auch gerne irgendwann mal sehen. liebe Zuhörerinnen, wenn ihr einen habt, einen Packer-Punch-Case, dann meldet euch gerne. Barbara Lampl (1:01:08) Wir anonymisieren, schreiben NDAs und machen eine sehr anonymisierte Folge darüber. Oder sogar öffentlich, je nachdem, was ihr wollt. Jochen G. Fuchs (1:01:16) Genau, wir Journalisten sind ja bekannt dafür, dass wir mit NDAs arbeiten, Barbara. Barbara Lampl (1:01:22) In dem Fall schon. Jochen G. Fuchs (1:01:23) Ja, ja, nein, also würde ich mich dann auch drauf einlassen. Aber schön wäre natürlich jemand, sagt so hier, ich mache euch den Luther dazu, hier stehe ich, ich kann nicht anders. Damit man das auch mal zeigen kann, dass das tatsächlich da ist. Ja. Wir wissen also oder wir glauben dir jetzt mal, dass es das gibt. Barbara Lampl (1:01:47) Okay, ihr müsst mir nicht glauben, ihr müsst mir nicht glauben, ihr müsst mir nicht glauben, ich habe einen Case, öffentlich diskutiert wurde, gerade relativ frisch. Strange, aber ist eine gute Variante. Guckt euch mal an, was McKinsey gerade gemacht hat. McKinsey hat zehn Prozent seiner Staff rausgeschmissen. Ja, natürlich sind die Begründe, dass sie rausgeschmissen haben, dass sie wirtschaftlich angezählt sind und alle nicht mehr McKinsey so geil finden, aber auch, weil sie sehr öffentlich seit 2023 sehr hart an ihren eigenen internen Gen-AI Projekten gearbeitet haben und unter anderem eine Komplett Library aufgebaut haben über alle ihre Dokumente, über all ihre Projekte und all solche Geschichten. Und das macht auch überhaupt möglich, dass solche leider in dem Fall ja, die schmeißen halt jetzt raus. Gut, aber das sind da kriegt man immer so eine kleine Idee. Und ja, das ist dann halt die haben nämlich davor nicht aller klar gesagt, wir machen jetzt alles AI Driven. In dem Fall hat McKinsey da definitiv sauberer gearbeitet. Also deswegen, es gibt so ein paar auch immer mal wieder öffentlich diskutierte Sachen. Guckt euch Amazon Q an. Guckt euch solche Sachen an, wie Code Reviews und Data Migrations heute funktionieren. Ja, ich finde es ein bisschen schade, dass wir im deutschsprachigen Raum noch wenig davon haben. Aber wer weiß, vielleicht haben wir ja dann doch mal irgendwas, über was wir schick reden dürfen. Jochen G. Fuchs (1:03:00) Ja, wir kommen langsam zum Ende. Ich habe hier noch zwei Themen im Hinterkopf. Das eine ist so dieses Thema SEO, Geo. Da sind auch sehr viele AI-Influencer und AI-Buddhas unterwegs. Wir haben jetzt noch zwei, Stunden. Aber vielleicht fällt uns da noch kurz das, was dazu ein, wie wir das in zwei, drei Sätzen behandeln können. Also auf der einen Seite springen welche umher, die aus dem SEO-Feld kommen. und dann auf einmal angeblich verstanden haben, wie das alles funktioniert. Und gleichzeitig dann aber auch immer wieder erkennen, so, ⁓ da hab ich doch was Neues gefunden, das neue Patent oder sonst irgendwas. ja, also das Thema SEO-Geo ist für uns alle noch Neuland. Barbara Lampl (1:03:48) Es ist für uns alle noch Neuland. Warum ist es für uns alle noch Neuland? Na aus dem eigentlichen Problem, dass wir einfach nicht so genau wissen, wie die Daten ein, die Modelle verarbeitet werden, weil diese Verbindung aus LLL und Search noch relativ neu ist. Das ist wirklich relativ neu. Also deswegen, da kann man jetzt mal wirklich sagen, diese Auswirkungen auf der sehr praktischen Seite sehen wir jetzt, aber wir wissen ja auch nicht, wir haben ja keinen Einblick in die Architektur, wie es wirklich gebaut ist. SEO, GEO. ist definitiv eine der großen Themen, wo sich sehr, sehr viel verändert, weil eben halt quasi ein Teil des Consumer Marktes sein Verhalten schon angepasst hat, zumindest in Teilen. Aber grundsätzlich ist auch das ein Bereich, extrem viel Snake Oil unterwegs ist, weil wenn du dieses Ding wirklich komplett geknackt hast, das mal mit den Worten von jemand anderes zu sagen, dann ist die Frage, warum du hier rum sitzt, so ungefähr. Also das ist auch mal so ein bisschen so ein Ding. Grundsätzlich sage ich an der Stelle immer die Grundregeln des guten alten SEOs bleiben bestehen, aber es muss komplett holistisch gedacht werden und holistisch heißt in dem Fall, müsst über andere Medien nachdenken. Was wir zum Beispiel mal wieder sehen. Reddit kommt stark drin, Social Signaling kommt stark drin vor. Das ist aber eigentlich auch nichts unbedingt Neues. Und natürlich das große Stichwort ist die sogenannte Machine Readability. Auch etwas, was aber auch schon länger propagiert worden ist, weil auch mit dem MAMA-Update von Google schon stärkere Kontextualisierung stattgefunden hat und Kontextualisierung. läuft technisch über den Umgriff der Machine Readability. Aber auch da zurück zu, das ist die Black Box mit der Black Box von großen Google Playern, wo ich sage, wir haben ja schon nicht reverse-ingenieren können, wie der SEO-Algorithmus funktioniert, deswegen da bisschen vorsichtig sein. Aber es ist halt genau das, unter der langen Liste von Themen hast du historisch ein gutes SEO betrieben, dann hast du jetzt auch kein großes Problem, dann kannst du jetzt den Next Step geben, hast du das jahrzehntelang ignoriert, hast du jetzt Problem am Laufen. Haken dran. Und es ist halt auch gerade, weil SEO, wir sehen ja immer wieder und das ist halt so bisschen so, wo findet, der Begriff ist ja da immer so, das AI Snake-Earl, wo findet der natürlich statt? Natürlich in den Sachen, wo es am weichsten ist, und das klingt jetzt hart, aber sorry liebe Freunde und liebe Kolleginnen, im Marketing, wo die technische mathematische Expertise unter ausgeprägt ist. Jochen G. Fuchs (1:06:01) Ja, ja, und wir haben ja bei der Thematik ja sowieso auf der einen Seite SEO halt da, wo es auf eine Suchmaschine trifft, wo klassische Suchmaschinentechnologie verwendet wird, die AI zu füttern, in Anführungszeichen. Und dann kommt natürlich noch die Frage, was macht die Blackbox AI intern mit dem, mit dem, was sie da gefüttert wird. Plus was aus meiner Sicht jetzt mal völlig technisch losgelöst rein nur so konzeptionell dazu kommt, ist aus meiner Sicht dass das Thema Sichtbarkeit, und dass es da ja meistens geht, also die diskutieren alle noch auf dem Thema Sichtbarkeit rum, also wie werde ich sichtbar für eine KI? Und wenn ich dann halt drüber nachdenke, wie wichtig das Prompting ist und wie unterschiedliche Herangehensweise der Nutzer und Nutzerinnen ist und auch die Fragestellungen, die da reingefüttert werden, dann ist für mich eigentlich klar, dass die Ära der Sichtbarkeit dem Ende zugeht, weil das worauf es ankommt, der Kunden Input, also die Intention, die Kundenintention, was wollte er eigentlich und dann bekommt er ja auf seine Intention hin, maßgeschneidert, einen Output und dann ist die Frage, wie komme ich in diesen Output rein, wie schaffe ich es, dass ich etwas anbiete, das genau zu dem Intent des Nutzenden passt und wie erreiche ich genau die Intents, die zu meinem Produkt meinem Angebot oder was auch immer erreichen. Also das Thema Sichtbarkeit, über das wir eigentlich bei SEO und GEO vielfach diskutieren, das stirbt gerade. Wir müssen eigentlich in eine andere Denkweise umschalten, ist so mein Fazit zu dem Thema. Barbara Lampl (1:07:39) Genau, also das ist aber wie gesagt, das ist ein großes und weites Feld, was auch noch sehr viel Dynamik unterliegt. Und auch einer großen Frage ist AI bei, da, also die aktuelle Stufe der Gen-AI ist, unterschreibe ich und sage ich auch immer wieder, eine der transformativsten und disruptivsten Technologien, die wir in unseren Lebzeiten jemals gesehen haben und sehen werden. Aber wie sehr sie unser Verhalten am Ende des Tages wirklich verändert. wie sehr wir uns wirklich da langfristig in welche Richtung wir uns hineinbewegen kann per Stand heute keiner so genau sagen. Das ist noch mal eine ganz andere Layer, die da bedacht werden muss. Da sind wir dann am Final in der Layer 8-9, wo der Postgast es auch dann quasi vielleicht noch mal hinabbiegen wird, das ein bisschen zu betrachten. diese Themen, und das ist glaube ich so ein bisschen so ein Fazit runterzuziehen, hört Seid vorsichtig, wenn Sachen immer so über trivialisiert und über generalisiert werden und diese Tendenz sehen wir, da sind wir dann quasi genauso. Das mag unser Hirn, das mag das Language-Modell auch in uns selbst. Wir hätten halt gerne einfache Antworten. Und ich kann nur wiederholen, dieses Feld der Data Science besteht aus diesen ganz, ganz vielen Sachen, ist eins der Komplexesten, wo selbst zwei Mathematikerinnen am Tisch sitzen können und sagen, verdammt, wir brauchen noch einen Dritten. Wir gelten ja schon immer als die Nerds der Nerds und selbst wir kommen damit immer in den Moment, wenn wir brauchen noch mehr an anders. Jochen G. Fuchs (1:09:04) Ja, mir ist gerade noch ein böserer Begriff als statt AI-Buddhas eingefallen, die AI-Propulisten, weil das ist ja ein Merkmal, dass das Propulismus, dass das quasi extrem komplexe Themen mit übertrivilisierten Antworten versehen werden. Das hat natürlich auch Auswirkungen und damit kommen wir zum Ende unserer AI, State of the AI Nation Folge auf die Politik, weil die natürlich auch die unterschiedlichsten Sachen die Ohren gehauen bekommt zwischen der stetigen Klage der angeblichen Überregulierung und der Innovationsverhinderung. Auf der anderen Seite haben wir dann welche, sagen, wir müssen das aber regulieren, weil das kann irgendwann später so gefährlich werden, dass wenn wir das nicht regulieren, wir das Thema nicht mehr eingefangen kriegen. Und dann kommt es dann dazu, dass dann auf einmal gesetzgebende Prozesse zum Stolpern kommen. Wir sehen das im Moment gerade mit dem EU-Eye-Act. Was passiert da gerade? Wollen die den auf Hold setzen oder was? Barbara Lampl (1:10:10) Es gibt Diskussionen rund den EU-AI-Act. Fangen wir ganz vorne an. Vor vielen Jahren wurde die Grundlage des EU-AI-Acts in diversen Diskursen erörtert. Und damals kam man auch bei diesem risikobasierten Ansatz raus. Nämlich zum Beispiel, dass eine Emotionserkennung im beruflichen Umfeld da einfach nichts zu tun hatte. So startete diese ganze Diskussion mal. Das war ein sehr, sehr kleiner Jochen G. Fuchs (1:10:16) Hm. Barbara Lampl (1:10:37) das, was heute quasi unter verbotenen Praktiken eigentlich steht, die Idee, man definiert etwas, was per se einfach verboten ist, weil es gegen das gesellschaftliche Wohl ist. Das fanden wir eigentlich alle auch ganz cool und haben es auch so bisschen gedacht so Hey, das ist super wichtig. Wir haben ja schon in China damals die Tendenzen gesehen zu Social Monitor, Social Ranking, also quasi das da eine Kreditfähigkeit und ich die Diskussion, die wir gerade mit der Schufa in diversen deutschen Verfahren haben, ist ja auch nicht gerade geringer. Das heißt, gesagt, wir müssen eigentlich so ein Cluster definieren von verbotenen Praktiken. Und da sind wir uns jetzt auch wirklich alle einig. Ich kenne niemanden, es für einen staunen Move hält, dass wir nicht quasi definieren, hey, dem Zeug darf keine AI drin vorkommen oder was auch immer. Und so ist auch dieses Risiko basierte, weil ja eben damals auch schon klar war, wir wissen ja gar nicht, was das für ein Algorithmus ist oder sonst irgendwas. Wir sehen schon die Auswirkungen von Algorithmen in Entscheidungen, die nicht so sinnvoll sind. Lasst uns das mal machen. Also aus dieser wirklich guten und grundlegenden Idee ist ein Monster geworden. das einfach völlig unhandelbar geworden ist, weil es quasi dann aus dem risikobasierten Ansatz auch noch irgendwie eine technische Definition mit irgendwelchen Flops unseres abgekleidet hätte, ab wann eine AI angeblich dazu in der Lage ist, gefährlich zu sein, das völliger Schwachsinn ist, zusammen mit einem Grundlagendokument 146 Seiten, 196 Seiten, was jetzt im Verbotene AI und Hochrisikosysteme sind, in einem völligen Wust und Wahn und gleichzeitig An der Stelle, die das dann hier dann alle sich dann rausgreifen, okay, offen, also sowas wie wir brauchen eine KI-Kompetenzpflicht, da steht nichts von Schulungspflicht drin, also völlig offen in der Formulierung und gleichzeitig, okay, zum Beispiel auch zum Beispiel Kennzeichnungspflicht, gilt nur dann, wenn nicht offensichtlich ist, dass der Output AI generiert ist und das eigentlich ein Deepfake ist, daraus wird dann, wir haben generelle KI-Kennzeichnungspflicht oder wir haben gar keine. Das heißt, es ist auch nochmal keine irgendwie Idee dahinter, wie das ist. Und dann hast du das nächste Problem in dieser EU-Regulation. Das muss mit den anderen zusammenpassen. Das tut es in Teilen großteils nicht. Und dann ist das eigentlich erst Rechtsprechung, wenn irgendwie eine Behörde plus eine Umsetzung plus eine Klage existiert, wenn wir wissen, was wir nicht tun. Das kann die EU auch anders. Aber sie haben sich halt für diesen Act-Variante entschieden und nichts aus dem GDPR-Drama gelernt. Das heißt, du hast jetzt quasi einen Überregulierungswahn, wo du quasi die unternehmerische Entscheidung triffst, ich dokumentiere das jetzt mal alles runter, verboten mache ich nicht, Haken dran und dann ignoriere ich es. Und damit kommst du relativ gut durch. Aber das ist natürlich nicht im Sinne des Erfinders, weil irgendwann musst du dich damit beschäftigen, damit erzeugst du noch mehr Bürokratiewahn. Und selbst die EU hat jetzt schon, sagen wir mal, gemerkt, innerhalb der geopolitischen Diskussion, in der wir uns auch gerade befinden, irgendwie kann es nicht sein, dass wir auf ein Zehntausend Seiten Vertragswerk hinauslaufen, was dass irgendwie prüfen oder sonst irgendwas kann. Vielleicht sollten wir da irgendwie mal einen Pauseknopf drücken. Jochen G. Fuchs (1:13:27) Ich stelle mir natürlich auch die Frage, das ist dann vielleicht wirklich die letzte Frage, was uns die Regulierung bringt und wie wir dafür sorgen können, dass sie entforst wird außerhalb unseres Rechtsraums. Barbara Lampl (1:13:47) Also da fängt es ja schon an, das ist ja nochmal, wir reden hier über Regulierung, was unterstellt, dass ein Unternehmen eine Emotionserkennung in einem Firma einführt, ohne illegalen Vorsatz. Stell dir euch davor, du bist ein Unternehmen und du entscheidest auf illegalen Vorsatz, dann hast du eh jetzt schon ein strafrechtliches Problem am Laufen. Also Freunde der Nacht, das ist totaler Unsinn und das ist auch die Kritik. Wir regulieren also die graue Zone, du kannst die Bad Player deswegen nicht verhaften, das ist ein viel größeres Problem. Und dann hast du Unsauer. Also das ist von vorne bis hinten ist dieser EU-Eye-Eck ein aufgeblasenes Monster. Und das Schlimme ist, und wie gesagt wird auch zurück zu, was werde ich immer gebashed, das wird dann immer so dargestellt, als wäre ich gegen Regulation. Nein, Kinder, ich bin nicht gegen Regulation. Aber das, wie das handwerklich umgesetzt worden ist, also wenn die Data-Seite schon schreit, wenn die Tech-Seite schreit und jetzt schon Professoren, Der juristischen Seite seit Jahren und Monaten sich den Mund fusselig reden, was da verbrochen worden ist. Also, wann sind sich die Juristen mit der Data- und Tech-Seite jemals einig gewesen? Ja, sollte euch ein Hinweis darauf geben, wir Realität mit diesem blöden Ding stehen. Jochen G. Fuchs (1:14:59) Okay, also bewerten wir das als etwas positives, dass das da... Barbara Lampl (1:15:02) Ja, wie gesagt, es ist zumindest eine notwendige Diskussion, insbesondere in der aktuellen geopolitischen Lage, wo wir uns über ganz andere Dinge gemacht. Und das ist ja genau das große Problem. Der EU-Ereign verhindert nicht unbedingt Innovation. Aber er verhindert, dass wir verdammter Hacke ins Tun kommen, weil wir da vor – und das ist wirklich no joke Aktuell bei den meisten deutschen Unternehmen läuft eine Diskussion mit den Datenschutzbeauftragten. Dabei ist keine einzige Personendate in dem Datensatz drin, mit dem wir arbeiten sollten. Aber du hast trotzdem acht Wochen Projektverzögerung, weil könnte ja sein, nein, kann nicht sein. No joke, ich hatte schon das Problem, dass bei einem Predictive Maintenance Projekt mit Sensordaten die DSGVO aus dem Hut gezaubert worden ist. Über die dazu suchen hat weiß aber keiner. Hat aber für massive Verzögerungen ein Projekt gesorgt. Jochen G. Fuchs (1:15:59) Ja, wahrscheinlich weil erstmal irgendjemand bestätigen muss, dass sie da nicht den gehört. Oder? Barbara Lampl (1:16:03) Ja, nee, muss auch niemand. ist total, aber das ist genau das, warum wir alle so überreguliert und so unsinnige Regulation an der Backe haben. Und das wiederum in dieser kompletten Welt von kognitiver Dissonanz. Wie können diese beiden Standpunkte gleich wahr sein? Dem Narrativ des populistischen AI ist erst zweieinhalb Jahre an mit buddha-spiritualem Meaning. Und dann Leuten, die ja sagen, ja siehste, siehste, siehste und die SGVO auch noch. Das als unternehmerischen Schritt zu gehen und zu sagen, Moment Freund, nacht das sieht anders aus, ist halt ein hoher Aufwand. Und das kann halt eigentlich nicht sein. Jochen G. Fuchs (1:16:40) Ja, kann ich dir nur zustimmen. Und ich glaube, damit sind wir am Ende unserer State of the AI Nation Rede angekommen. Schön, dass ihr durchgehalten habt bis zum Schluss. Wenn ihr Barbara Lampl (1:16:55) Ja, vielen lieben Dank. Vielleicht hätten wir am Anfang sagen sollen, sollt euch eine große Kanne Kaffee kochen. Vielleicht machen wir das, wenn wir den Podcast posten und sagen, mehr Kaffee oder den ganz extra langen Lauf. Wir werden scheinbar gerne beim Laufen gehört, habe ich gehört. Jochen G. Fuchs (1:17:11) ja, okay, dann bitte die 12 Kilometer runter. Keine Ahnung, was man da läuft. Ich bin da nicht firm. Ja, dann vielen Dank. Schaltet demnächst wieder ein. Wir haben auch noch viele andere spannende Podcast-Folgen. Übrigens, haben auch so eine schöne Basic-Folge. Falls ihr jetzt gerade auf den Podcast gestoßen seid und denkt euch, Gott, worüber reden die eigentlich? Dann gibt es auch noch eine Einsteiger-Folge, wo wir so mal erklären, was eigentlich ist. Barbara Lampl (1:17:14) Gute Nacht! Da gibt's eine Einschalgerfolge, dann wird klar, warum es ein populistischer Narrativ ist, das er ja ist zweieinhalb Jahre alt. Jochen G. Fuchs (1:17:44) Ja, macht's gut und bis zum nächsten Mal. Barbara Lampl (1:17:46) Bis dann, ciao ciao!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.