Macht KI uns dümmer? Wieso das die falsche Frage für Nutzer und Unternehmen ist.

Shownotes

Show Notes

Machen uns KI-Tools wirklich dümmer? Jochen und Barbara diskutieren zwei MIT-Studien, die genau das suggerieren. Spoiler: Die Studien sind spannend, aber die deutschen Schlussfolgerungen daraus sind faul. Während andere Länder fragen "Was können wir Cooles damit machen?", fragen wir "Sollten wir das nicht lieber lassen?". Die beiden zerrupfen das Tech-Bros-Marketing, sprechen über vergessene Workflows, Telefonbücher als Relikt einer verklärten Vergangenheit und warum die eigentliche Frage lautet: Was macht eigentlich den Kern meiner Arbeit aus? Plus: Warum Annahmen des Teufels sind und wer im Unternehmen vielleicht wirklich nicht mehr gebraucht wird. Spoiler: Es ist nicht die KI, die das Problem ist.

In dieser Episode diskutieren Jochen G. Fuchs und Barbara Lampl die Auswirkungen von Künstlicher Intelligenz (KI) auf die Arbeitswelt, persönliche Fähigkeiten und die Notwendigkeit, unsere Workflows neu zu denken. Sie beleuchten kulturelle Unterschiede im Umgang mit Technologie, die Herausforderungen der Anpassung an KI und die Bedeutung von kritischem Denken in einer sich schnell verändernden Welt. Die Diskussion umfasst auch die Rolle von Unternehmen bei der Integration von KI und die Notwendigkeit, Bildungssysteme anzupassen, um zukünftige Generationen auf die Herausforderungen der Technologie vorzubereiten.


📚 In dieser Episode erwähnte Links:

Studien & Papers:

Tools & Technologie:

Weitere Referenzen:

Vorherige Episode:


🎯 Chapter Markers:

[00:00:01] Begrüßung aus Paris und Köln [00:01:30] Vergessene manuelle Workflows durch AI-Nutzung [00:03:50] MIT-Studie: Macht AI uns dümmer und fauler? [00:08:35] Telefonbücher und verklärte Vergangenheit [00:15:46] Workflows als Schlüssel zur AI-Transformation [00:20:34] Abhängigkeiten und was wir abgeben sollten [00:26:44] OpenAI's Geschäftsmodell und Consumer-Tools [00:32:53] Tech-Marketing und die Wundermaschinen-Illusion [00:41:46] Wer trägt die Schuld am AI-Dilemma? [00:49:37] Radikales Neudenken: Chance statt Risiko [00:55:06] Unternehmen müssen Prozesse grundlegend überdenken [00:58:25] Schlusswort: Annahmen sind des Teufels


Unsere Hosts: AI Babsi (Barbara): Website | LinkedIn E-Fuchs (Jochen): Website | LinkedIn

Unser Podcast Blog: https://www.laier89.de/


🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!

Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein Entrinnen!

01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110

LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.

Transkript anzeigen

00:00:01: Jochen G. Fuchs: Hallo und herzlich willkommen zu deinem KI-Lieblingspodcast. Heute zumindest zur Hälfte aus Paris. Hallo Barbara!

00:00:11: Barbara Lampl: Hallo Jochen, ich benehme mich total spießig hier in Köln. Aber gut, halbinternational sind wir zumindest.

00:00:19: Jochen G. Fuchs: Ach komm, Köln ist auch ganz schön, oder? Ihr hattet doch ein ganz tolles Ergebnis bei den Kommunalwahlen, glaube ich. Bei den Bürgermeisterwahlen waren es, Entschuldigung.

00:00:29: Barbara Lampl: Wir hatten gerade Kommunal- und Bürgermeisterwahlen und gehen in die Stichwahlen, so wie einige Städte in NRW. Bei uns ist es die Grüne Überbürgermeisterkandidatin gegen den SPD-Kandidaten am 28. September. Wir werden sehen, wie das ausgeht.

00:00:48: Jochen G. Fuchs: Genau, da sind wir doch auch schon irgendwie kosmopolitisch in Köln. Ich bin hier auf der NRF, so eine Retail-Messe, und bin da heute rübergelaufen. Überall schreit es AI, AI, AI. Und wenn man nachhakt, weiß man nicht so ganz – oder zumindest derjenige am Stand weiß nicht so ganz, was das eigentlich mit AI ist. Und manchmal kommt einem das Ganze so ein bisschen dumm vor. Apropos dumm, Barbara.

00:01:23: Barbara Lampl: Danke, danke. Der bleibt jetzt in den Büchern. Ihr habt es hier zuerst gehört. Danke Jochen, hab dich auch lieb.

00:01:30: Jochen G. Fuchs: Zum Glück mache ich nichts mit Worten. Das war doch jetzt eine geschickte Überleitung. Ich musste feststellen, ich saß an meinem Claude und wollte die News raushauen. Ich war fertig, ich habe einen fertigen Workflow in einem Claude-Projekt, wo ich über Feedly meine News kuratiere. Dann zieht sich Claude das und spuckt mir meine fertig kuratierten News aus, und ich kann das für meinen Newsletter übernehmen, so wie ich das brauche. Ich war dann fertig und stellte fest, ich will noch eine News hinzufügen. Da hatte ich aber keinen Bock, deswegen den ganzen Workflow wieder abzunudeln und dachte, ach, diese eine News fügst du jetzt von Hand hinzu. Ich will jetzt nicht sagen, ich habe vergessen wie das geht, aber irgendwie doch. Ich saß dann erstmal da und musste überlegen.

00:02:34: Barbara Lampl: Drama, Drama, Drama. Wie ging denn das ohne AI?

00:02:40: Jochen G. Fuchs: Ich muss dazu sagen, ich mache das mobil. Claude spuckt mir dann meine fix und fertig formatierten Texte aus, und ich musste dann erstmal kurz wieder überlegen: Warte mal, wie geht das nochmal am schnellsten, damit ich das in dem Format, in dem ich es kriege – also RTF mit vorformatierter Überschrift plus Link im Linktext et cetera – verarbeiten kann. Mit was habe ich das zuletzt gemacht? Ach warte mal, mit der Notiz-App, genau. Wo muss ich klicken? Nein, das muss ich machen, jenes muss ich... Meine Güte, da kam ich mir dumm vor. Ich hatte meinen eigenen manuellen Workflow zur Hälfte schon wieder vergessen, mit dem ich diesen Kram formatiere. Während ich dann rumgetippt und rumgeklickt habe, fiel es mir dann wieder ein. Als ich fertig war, wusste ich dann wieder, wie es geht. Ein paar Minuten früher wäre es schön gewesen. Das ist aber im Moment auch gerade so ein Thema, das durch die Medien durchgejagt wird, oder? Also dieses: Ich vergesse, verlerne meine Fähigkeiten, meine Fertigkeiten, weil mir KI das alles abnimmt.

00:03:50: Barbara Lampl: Ja, das ist definitiv ein Paper, das seit seinem Release – es ist das MIT-Paper – momentan im Wochentakt durchgenudelt wird. Jeder AI-Influencer muss mal was dazu sagen. Es gibt ein MIT-Paper, das zeigt, dass es vielleicht – und das ist auch ein Punkt, den ich schon ein paar Mal angesprochen habe – uns halt faul macht. Vielleicht macht es uns auch dümmer. Und das MIT hat eine Studie dazu angelegt. Was passiert eigentlich mit unseren Gehirnfunktionen, wenn wir AI benutzen? Und ja, die kommen zu ähnlichen Ergebnissen, wie du sie gerade geschildert hast. Verdammt, wie handhabe ich das jetzt ohne diese ganzen kleinen Helferlines? Da ist ein relativ rapider Anpassungsprozess, und plakativ könnte man vielleicht sagen: Macht uns die AI vielleicht dümmer oder fauler? Man weiß es nicht so genau. Sollten wir das nicht alles lassen?

00:04:37: Jochen G. Fuchs: Hören wir doch einfach auf damit. Wenn es uns dümmer macht, sollten wir das lieber von Hand tun. Ich weiß auch nicht. Das MIT-Ding ist ja nicht das Erste und das Einzige, was man zu dem Thema gelesen hat. Ich habe schon öfter Studien gelesen, drüber geblättert, über die Schlagzeilen. Was mir immer einfällt, ist dieses Telefonbuchbeispiel. Ich muss dazu sagen, ich bin etwas über 40, ich bin noch nicht mit einem Handy aufgewachsen. Ich hatte mein erstes Handy mit 17, an meinen Eltern vorbei geschmuggelt. Das Telefonbuch ist das klassische Beispiel für mich, zumindest für meine Generation, weil das ist so das Erste, was man verlernt hat, nachdem man es an irgendwas Elektronisches outgesourct hat. Ich kann beispielsweise noch die Telefonnummer von meinem Kino damals oder vom Pizzaservice, bei dem ich vor meinem 17. Lebensjahr bestellt habe, die kann ich tatsächlich noch auswendig. Aber bei der Handynummer meiner Frau wird es dann schon schwierig. Da schaffe ich die ersten vier Stellen, bei den letzten vier komme ich immer ins Schwimmen. Das ist natürlich ein sehr banales Beispiel. Das Gehirn hat aufgehört, sich Telefonnummern zu merken, nachdem ich die Aufgabe ans Telefonbuch outgesourct habe. Ich hänge bei diesem Beispiel immer so ein bisschen in der Kurve, weil ich auf der einen Seite sage: Das Telefonbuch ist jetzt halt keine Fertigkeit, die ich vermisse. Ich muss nicht als lebendes Telefonbuch funktionieren. Es ist für mich völlig in Ordnung, dass die Telefonnummern in meinem Telefonbuch hängen. Das einzige Mal, wo es schwierig wurde, ist, als ich mit leerem Akku herumstand und meine Frau anrufen wollte. Dann fiel mir die Telefonnummer natürlich nicht ein. Gut, jetzt habe ich mittlerweile eine Smartwatch, mit der man auch telefonieren kann.

00:06:57: Barbara Lampl: Ich glaube aber, das ist genau dieser Punkt. Wir können ganz viele Beispiele finden von Fähigkeiten – sei es Telefonbuch oder andere Fähigkeiten, die wir über die Jahre gelernt oder verlernt haben. Ich sage ja auch immer, ich bin zwischendurch so eine Management-Laberbacke geworden. Weder meine Coding- noch meine Data-Science-Skills sind sicherlich so wie zum Anfang meiner Berufskarriere. Heute zeigt man mir mehr dafür, dass ich labere, als dass ich das tue. Habe ich jetzt was falsch gemacht oder was richtig gemacht? Ich glaube, das ist eine Diskussion, die wir einfach auch endlich mal sauber führen müssten. Und den Eindruck habe ich in deutschen Diskussionen immer wieder – und das ist wirklich ein hoher Kontrast auch zu den US-amerikanischen Diskussionen –: Das kann ich ja auch schon ohne KI, wozu brauche ich das? Und das wird halt so demonisiert. Ja, so ein Telefonbuch. Früher haben wir uns die Nummern gemerkt. Haben wir das freiwillig getan? Nein, wir haben es uns gezwungenermaßen gemerkt. Aber in der Realität hatte auch nicht jeder eine Handynummer. Wir hatten einen Festnetzanschluss. Unter diesem Festnetzanschluss hast du drei bis diverse Anzahl Leute erreicht. Das war eine Telefonnummer für eine Gruppe von Leuten. Das haben wir heute auch nicht mehr. Jeder hat seine private, mobile Nummer. Ich habe Kontakte, da habe ich sechs verschiedene Nummern, keine davon kann ich löschen – sei es die Handynummer privat, geschäftlich, die von der Sekretärin, irgendwelche anderen Sachen noch, irgendwas, eine Festnetznummer. Sorry, so waren wir früher gar nicht aufgesetzt. Das ist nicht nur Äpfel mit Birnen vergleichen, es ist auch irgendwo an der Realität vorbei labern.

00:08:35: Jochen G. Fuchs: Wir hatten ja gedruckte Telefonbücher. Ich habe von meinem verstorbenen Vater so ein schönes kleines Lederbüchlein mit Papier zum Durchblättern. Das ist ja auch damals schon so gewesen, dass man einen Teil ausgelagert hat. Man konnte ja nur die wichtigsten Telefonnummern...

00:08:53: Barbara Lampl: Die wichtigsten. Ich konnte zum Beispiel – und da fängt es ja schon an, das war auch noch vor der Handyzeit – meine Eltern hatten irgendwie unsere schöne Telefonnummer. An die konnte ich mich immer noch erinnern. Die neue Telefonnummer fand ich immer doof, an die kann ich mich nie erinnern, obwohl es die eigentlich in meiner Lebenszeit wahrscheinlich fast gleich lang gab. Aber die andere war einfach schöner. Aber das ist genau das. Es gab schon immer Telefonbücher, egal ob es die großen, dicken, gelben Seiten waren oder das normale klassische Telefonbuch oder eben die Listen der Freunde und Familie, die man hatte. Und ja, jetzt im Notfall hattest du – Spoiler Alert – dieses Telefonbuch übrigens auch nicht dabei. Ich kann mich an Urlaubszeiten erinnern, da hat meine Mama dann einen Zettel geschrieben mit den Adressen für die Karten aus dem Urlaub. Aber wir haben garantiert nicht das ganze Telefonbuch mitgenommen. Das sind Sachen, wo wir natürlich auch eine Vergangenheit verklären, die einfach heute komplett anders ist. Und das, was ich immer so interessant finde, ist die kulturelle Reaktion auf diese Information. Denn die kulturelle Reaktion zwischen zum Beispiel mehr positiv zur Technik gewandten Ländern – sei es Amerika, Kanada, aber auch Indien – ist: Cool, tolle Entwicklung, was können wir Cooles draus machen? Während bei uns: Ach, das MIT hat gesagt, wir werden alle dümmer davon, jetzt lassen wir das Ganze mal. Wir haben ja jetzt bewiesen bekommen, dass da ein Risiko ist, und jetzt managen wir das Risiko, anstatt irgendwie den Gewinn daraus zu ziehen. Und das ist bei dieser MIT-Studie... Wir haben ja noch eine zweite. Also diese eine Gehirn-MIT-Studie ist übrigens schon Wochen alt. Die seht ihr nur auf LinkedIn und Social Media regelmäßig nochmal durchgenudelt.

00:10:26: Jochen G. Fuchs: Und wir sind sehr froh, dass heute uns zusammen...

00:10:35: Barbara Lampl: Weil sich irgendwie jemand jetzt im Wiederholungstakt von ein paar Wochen immer wieder raushört. Übrigens kleiner Spoiler: Da ist extra Text hinterlegt, damit das LLM die Studie besonders schnell lesen kann. Diese ganze Studie hat auch noch einen hohen Ironiekasmus-Faktor, weil sie zeigt, dass wir bei der Benutzung von AI bis zu einem bestimmten Grad faul werden. Nur woran liegt denn das jetzt? Ja, nicht an der AI. Und das ist auch die andere MIT-Studie, die vor rund – also ungefähr zwei, drei Wochen – auch nochmal eine weitere Studie herausgegeben hat, nämlich dass 95 Prozent aller Gen-AI-Piloten keinen P&L liefern, also irgendwie dann doch scheitern. Also zum Beispiel mal zwei Studien vom MIT, die wohl dem deutschen Grundsatz folgen würden: Das Ganze macht keinen Sinn, das lassen wir mal lieber, weil wir können ja nicht gewinnen, aber wir gehen verdammt viel Risiko ein. Und das ist so was, wo ich mich dann frage: Ist das die wirkliche Interpretation von dem, was wir da lesen? Oder ist das nicht vielleicht die kulturell faule Interpretation, die wir da lesen? Weil es uns natürlich genau nicht herausfordert. Ist es jetzt sinnvoll, dass du vielleicht ein bisschen deinen eigenen Workflow vergessen hast? Oder ist es einfach nur eine Adaption, dass dir bewusst geworden ist: Moment, ich muss es stärker auf dem Schirm haben? Und wer hat denn jetzt Schuld am Ende des Tages? Die Technologie oder das, was wir daraus machen und wie wir es nutzen?

00:11:55: Jochen G. Fuchs: Ja, aus diesem Dilemma heraus hat Nobel den Nobelpreis gestiftet. Ich bin da so ein bisschen hin und her gerissen. Also auf der einen Seite ist es ja so, dass wir Menschen – das meine ich jetzt nicht böse – tendenziell faul sind. Deswegen funktionieren ja auch viele digitale Services und Angebote, die uns Zeit und Mühe sparen, so gut. Und wir bezahlen oft auch dafür, Zeit zu sparen, Aufwand zu sparen. Das zeigt ja schon, wie wir ticken. Und wenn ich jetzt für mich selber überlege, ist halt die Frage: Was trainiere ich? Ich habe mich jetzt kürzlich gerade mit einem Kollegen aus der schreibenden Zunft unterhalten, und wir haben ein bisschen darüber gesprochen, wie unsere Workflows so laufen. Ich bin an dem Punkt gewesen, dass ich ihm gesagt habe: Ich mache sehr viel über AudioPen, wenn ich meine Stücke vorbereite. Ich muss dazu sagen, mein Gehirn tickt so ein bisschen... Besonders beim Schreiben ist das bei mir so gewesen, dass sich meine Gedanken quasi beim Schreiben herauskristallisieren und festigen. Das heißt, wenn ich in so ein Thema, in Recherche eintauche und ich bringe das dann zu Papier, dann entstehen dabei die Gedanken. Und das ist natürlich eine Schwierigkeit, sich da umzustellen. Also wenn ich jetzt diesen Punkt mit AI – also jetzt in dem Fall hat das nicht so wahnsinnig viel mit AI zu tun, aber es ist ein Effekt davon – dadurch, dass ich sage: Hey, ich bringe meine Gedanken jetzt eben nicht langwierig zu Papier und schärfe Formulierungen, sondern ich labere alles in AudioPen rein, in unbereinigter Form, sämtliche Gedanken, die ich habe, eine Meinung, die ich dazu habe, und dann bringt es die KI in eine strukturelle Form. Das ist das, was mir in Anführungszeichen Zeit erspart, weil eben der Schreibprozess bei mir sehr intensiv war. Nicht aus einer künstlerischen Ader heraus, sondern einfach Struktur in die Gedanken zu bringen und das auf den Punkt zu bringen in komprimierter Form, was für so einen Tech-Journalismus eigentlich ganz wertvoll ist. Zumindest wenn man für ein professionelles Publikum schreibt. Und unser beider Problem war dann so, dass er gesagt hat: Ich mache das nicht, ich spreche nicht hinein. Ich bleibe bei meinem gewöhnlichen Workflow, ich verwende die AI woanders. Und ich habe für mich zumindest – momentan ist das mein Ding – gesagt: Nee, ich trainiere mir etwas anders an. Ich trainiere mir an, das zu sprechen, weil das für mich schneller geht. Also das ist für mich quasi der Punkt, wo ich in meinem Workflow erkannt habe: Da kann ich Zeit sparen und Effektivität gewinnen, wenn ich versuche, meine Gedanken eben nicht beim Schreiben zu formulieren, sondern indem ich versuche, sie geistig zu formulieren, zu sprechen, und überlasse dann den Prozess des Sortierens und Filtrierens nachher der KI und redigiere das Ganze dann quasi nur noch. Also ich gebe natürlich vor, welche Richtung es gehen soll. Ich gebe eben eine rote Linie dann vor, wenn ich gesprochenen Recherchebauch da hineinwerfe, entweder indem das ein Projekt schon vordefiniert ist oder indem ich es dann in den Prompt mit reingieße. Aber wir haben beide eine sehr unterschiedliche Vorgehensweise. Das heißt, ich habe beschlossen, ich ändere meine Vorgehensweise und meine Arbeitsweise und passe sie an der AI an, und er hat es eigentlich andersrum gemacht.

00:15:46: Barbara Lampl: Ich glaube, das ist aber genau dieser Punkt, der für viele so wahnsinnig kritisch ist und auch so eine offene Flanke für viele ist. Und da reden wir jetzt ja nur über eure persönliche Produktivität, also eure persönlichen Workflows. Was machst du? Nimmst du deinen Workflow und behältst ihn so bei und integrierst verschiedene technische Tools, aka auch eine AI? Oder überdenkst du deinen kompletten Workflow und wie sehr kannst du auch Flexibilität beweisen, deinen Workflow komplett zu ändern, und was bedeutet das dann als Hebel? Und das ist sicherlich – und das ist übrigens auch der Fun Fact, was jede Studie, jedes Paper gerade zeigt, Spoiler Alert, warum ich immer in all unseren Sachen so wahnsinnig auf den Workflows rumhacke, so als hätte ich kein besseres Wort dafür oder keine Ahnung, als hätte ich so einen autistischen Hyperfokus – der Workflow ist der Ablauf des Prozesses. Der Workflow ist der Kern dessen, was den Unterschied nachher macht, inwiefern du AI hebeln kannst oder nicht. Was im individuellen Fall wirklich eine relativ individuelle Entscheidung sein kann, wird zur strategischen, kulturellen und organisatorischen, wenn du das Ganze in einer Gesamtorganisation denken musst. Und das ist sicherlich übrigens warum so viele Sachen so massiv scheitern. Das ist nicht – das klingt zwar trivial, wir müssen unsere Workflows neu denken, nicht denkens, neu denken – aber die eigentliche Orchestrierung und was wirklich Sinn macht und wie weit sich darauf Menschen und Systeme einstellen lassen, ist eben genau nicht trivial. Aber das Kernstück aller Diskussion ist der Workflow und wie der neu orchestriert werden muss. Und wie wir auch in deinem Beispiel sehen: Die Stärke liegt zum Beispiel darin, dass ich jetzt einfach relativ viel mehr Blub produzieren kann, es anders strukturieren kann und das dann überarbeiten kann und damit im Zweifelsfalls einen Produktivitätsgewinn auf persönlicher Ebene, im besten Fall natürlich auch einen Qualitätsgewinn erzeugen kann und damit dann Best-Case-Orchestrierung entweder mehr Output mit besserer Qualität liefern kann oder eben weniger Zeit investieren muss, Side-Projekte machen kann oder was auch immer. Aber das ist dieser persönliche Productivity Gain. Warum wir auch so Unterschiede sehen in der Wahrnehmung, wie AI angenommen und wahrgenommen wird von den Nutzenden.

00:18:22: Jochen G. Fuchs: Aber jetzt noch mal hart nachgefragt: Ich meine, wenn man die Studien oder den Stand der Wissenschaft anguckt, es ist dann schon so, dass ich das in irgendeiner Form verlerne. Also sprich, wenn ich diese Funktion oder diese Fähigkeit, die ich über die Jahre erlernt habe, einfach nicht mehr anwende – das ist halt das, was hier im Kopf schwebt – schwindet sie dann.

00:18:47: Barbara Lampl: Ja, genau. Jedes – aber jedes – also alles, was du irgendwann nicht mehr tust, verschwindet irgendwann. Es ist völlig egal, ob das jetzt ein Skillset ist aus dem Code oder aus dem Rechnen oder aus dem Schreiben. Welchen Grund du auch immer hast, dass du es weniger tust, dann wird sich dieses Skillset definitiv nach hinten bewegen und andere werden in den Vordergrund treten. Im besten Fall ist aber so, dass du dein eigenes Leben so orchestrieren kannst oder dein unternehmerisches Leben so orchestrieren kannst, dass du den Vorteil darin siehst, eine Anpassung zu machen, soweit das eben Sinn macht. Aber klar, alles, was man nicht benutzt, verlernt man. Ich sage mal, meine französischen Kenntnisse, wie man versucht hat, mir einzuprügeln – Spaß in Frankreich, in Paris kriege ich dann vielleicht noch so einen Croissant und einen Kaffee bestellt. Danach braucht es eher so anderthalb Flaschen Rotwein, dann könnte es besser klappen. Aber warum? Ich spreche nie Französisch. Das heißt, das ist eine Sprache, die bei mir ungenutzt brach, irgendwo im Hirn, in einer Schublade tief verstaubt abgelegt ist. Keine Chance, dass ich das Skillset auspacken kann, besonders ad hoc, während ich sicherlich jetzt ohne große Überwindung ins Englische wechseln kann und das auf ziemlich verhandlungssicher, weil ich es täglich tun muss. Aber das ist mit allen Fähigkeiten so. Und da ändert die AI nur bedingt was dran, außer – und das ist halt so – dass normalerweise haben wir andere Begründungen bisher dafür gehabt, warum wir eventuell bestimmte Fähigkeiten nicht mehr nutzen. Jetzt haben wir so eine sehr große Karotte, die uns viele faule Sachen abnimmt und die halt eben massiv dazu verleitet, eventuell auch die falschen Dinge an die künstliche Intelligenz abzugeben und nicht die richtigen Dinge.

00:20:34: Jochen G. Fuchs: Ja, also für mich ist es da eben dann auch die Frage, die ich mir eben selbst stelle: Was will ich abgeben? Wo denke ich mir, es ist vielleicht der wichtigste Aktivposten für mich oder für meine Profession? Und was sind Dinge, die es eigentlich nicht sind, also die ersetzbar sind – in Anführungszeichen – die mich nicht ausmachen, die meinen Beruf nicht ausmachen, wo es nicht schadet, wenn ich es verlerne – in Anführungszeichen. Aber natürlich... So ein gewisses Gefühl der Abhängigkeit hängt da trotzdem mit drin. Ich merke es dann halt, wenn bei Claude meine Tokens ins Leere laufen und der sagt: Sorry, du hast genug Tokens verbraten für heute. Du hast jetzt erstmal Pause.

00:21:28: Barbara Lampl: Gut, diese Abhängigkeiten haben wir ja immer. Also meine, wir hängen jetzt an der Abhängigkeit der Internetgeschwindigkeit, wir hängen an der Abhängigkeit von irgendwelchen Tools. Wie gesagt, nochmal: Akku, Telefon – also unsere Abhängigkeiten, in die wir uns reinbewegt haben, sind hoch. Aber die waren auch in anderen Generationen schon hoch. Ich finde immer, wir haben da so ein bisschen so einen Disconnect. Unsere Abhängigkeiten – und das hatten wir auch in der letzten Folge, Abhängigkeiten im geopolitischen Sinne, Souveränität, sonst irgendwas. Aber nochmal, deswegen gehört es eben auch dazu, sich zu überlegen: Und ab und zu ist vielleicht mal noch per Hand zu machen. Oder das ist ja auch übrigens eigentlich das eigentliche Ergebnis aus der MIT-Studie: mit dem, mit der Hand dort anzufangen, erst mal das Hirn zu benutzen, bevor wir die AI drauf schmeißen. Und das ist übrigens auch ein Klassiker, den ich wirklich tagtäglich sehe. Was wurde zuerst nicht benutzt? Das Hirn, sondern AI wurde hirnlos geschmissen. Das läuft in Tokens, verbrennen rein. Das ist unsinnige Nutzung. Jo, aber dafür haben wir das Teil schon noch. Nur was genau das Hirn dann wirklich tun soll... Ich finde, eine dieser Diskussionen, die mir da immer so untergeht, ist: AI richtig genutzt, senkt den Cognitive Load. Und zwar massiv. Weil was ich irgendwie immer abstrus finde bei allen Diskussionen: Die tun immer so, als würde unser Arbeitstag – lassen Sie uns acht Stunden nehmen – nicht aus gestückelten 30-Minuten-Einheiten bestehen, sondern als würden wir vier Stunden davon konzentriert an irgendwas arbeiten können. Also das kann ich nur, wenn ich morgens um fünf aufstehe. Dann habe ich vier Stunden Zeit. Ja, könnt ihr irgendwer – morgens um fünf – da früh habe ich zum Beispiel auch schon einen Call um acht. Drei Stunden konzentriert zu arbeiten, bevor ich in den ersten Call springen muss. Ich finde diese Idee, die da teilweise auch propagiert wird von: AI ist böse, ganze Technik ist böse – Kinder, habt ihr mal in meinen Terminplaner reingeschaut? Ich muss meine Arbeit doch eh schon immer stückeln. Und jetzt habe ich wenigstens noch ein Tool, was vielleicht mit diesen Fragmenten meiner Arbeitszeit mir eine Grundlage liefert, dass ich überhaupt irgendwie geilen Scheiß produzieren kann. Also ich weiß ja nicht, wie deren Leben ausschaut, aber meins hat nichts zu tun mit zwei Stunden konzentriert an irgendwas arbeiten. Ja, morgens fünf oder abends neun. Aber ansonsten ist da nichts.

00:23:42: Jochen G. Fuchs: Ja, das denke ich auch so. Es ist unüberlegte Angstmacherei dabei bei der ganzen Diskussion, weil es eigentlich kein neues Thema ist.

00:23:57: Barbara Lampl: Ja, und halt auch so eine Verschiebung in so einen luftleeren Raum hinein, die eben halt dann auch häufig so ein: Ja, dann lassen wir das lieber alles mal, hinausläuft. An der Stelle, dass so eine Kompetenzverschiebung auf einmal stattfindet. Und ja, wir müssen darüber reden, wie wir im Bildungssystem und mit Kindern umgehen. Das ist eine ganz andere Diskussion. Aber lasst uns doch erstmal bei erwachsenen, ausgewachsenen Menschen bleiben, wie das da funktioniert. Weil ich finde auch, das ist immer so eine Diskussion, wo es heute vermischt wird. Wir vermischen Bildungssystem von Kindern, Bildungssysteme der Erwachsenen – also universitären Hochschulen – dann Erwachsenen-Weiterbildung und dann unser tägliches Jobleben. Wird heiter miteinander in einer Mischprobe zusammengebracht, als würde das in unserer Implementierung und dem Nutzen der Möglichkeiten, die heute da sind, irgendwie uns nach vorne bringen. Stattdessen bewegen wir uns dann wieder drei Schritte retour.

00:24:57: Jochen G. Fuchs: Ja klar, die Diskussion, wo, warum und wie setzt man KI in der Bildung, bei Kindern und Jugendlichen ein, ist ein ganz anderes Thema, das ist klar.

00:25:23: Barbara Lampl: Ja, aber nochmal: Wenn du dir die Diskussion anguckst, die da häufig geführt wird, das wird halt miteinander zusammengebracht. Und das ist dann immer so – aber sorry, wir sind jetzt alle weit über 18. Wir stehen mitten im Berufsleben und wir haben alle eher zu viel auf den Schreibtischen als zu wenig auf den Schreibtischen. Wir haben völlig fragmentierte Arbeits- und Lebenswelten. Und jetzt haben wir Möglichkeiten, dass wir damit anders umgehen können. Mit einem System, uns – und dann kommen wir irgendwann auch in – da müssen wir natürlich unsere Arbeitswelten redesignen und Workflows reedenken. Und aber das ist so – wie ich möchte meine Arbeit nicht an irgendeinen Menschen delegieren, weil Delegation böse ist. Und das ist, ich – immer so dieser rote Faden, der sich durch diese Studien dann durchzieht, die ja alle nicht darauf aus sind, AI zu demonisieren, sondern so einen Anteil in der Diskussion beizutragen, zu sagen: Okay, was machen wir denn da jetzt damit? Wo könnten wir denn irgendwas Sinnvolles machen? Und wie gesagt, ein Teil jeglicher Arbeitswelt, in der wir uns heute bewegen, weder bringt die Spaß noch ist die produktiv, noch macht das sonst irgendwie Sinn, was wir da teilweise tun, sondern wir bewegen uns in menschengemachten Unsinnsystemen. Jetzt könnten wir das Unsinnsystem abschalten. Das klappt meistens schlechter, als dass wir uns in dem Unsinnsystem vielleicht mit Technik durcheinanderbewegen.

00:26:44: Jochen G. Fuchs: Ja, ich meine, wir erleben beispielsweise beim AI Act ja auch den Versuch, den politischen Versuch, die gesellschaftlichen Auswirkungen von der Technologie zu regulieren, zu kanalisieren, zu steuern in irgendeiner Form. Wie soll ich sagen? Also was mir gerade so durch den Kopf schießt, ist: Wenn ich jetzt auf meine E-Commerce-Welt zurückgehe und mir überlege, okay, so jemand wie OpenAI, die mit ihrem ChatGPT-Konsumerprodukt eben so viele Millionen von Konsumenten wie irgendwie nur möglich auf die Plattform bringen wollen und dann mit verschiedenen Erlösquellen auch nachträglich noch zusätzlich monetarisieren, wie eben aus meiner Welt E-Commerce-Marktplatz. Wäre für die unheimlich toll, wenn die ganzen Produkte suchen, die bei Amazon oder bei Google landen, eben nicht mehr bei denen landen, sondern bei OpenAI landen, und sie dann da schön ihre Umsatzanteile damit reinziehen. Und das könnte sich unterm Strich dann als deutlich lukrativer erweisen als die paar Groschen an Nutzergrundgebühren, die die damit einnehmen, wenn sie da vom globalen E-Commerce und Werbemarkt vor allen Dingen, den sie kannibalisieren können komplett, sich ihren Anteil holen. Worauf ich hinaus will, ist: Jemand wie OpenAI hat dann natürlich ein sehr großes Interesse daran, dass du möglichst alles mit dem Ding machst. Die sind ja von ihrer Denke her nicht so, dass die sagen: Ach komm, die Sachen, wo es vielleicht ganz gut ist, wenn der Mensch das jetzt nicht aus der Hand gibt, sondern irgendwie noch selber verwendet, die lassen wir mal schön, dass das versuchen wir zu verhindern, dass sie das machen. Nö. Also die sagen ja so: Bitte benutzt das für alles. Egal für was. Ist uns ganz recht.

00:28:43: Barbara Lampl: Ja, genau, das zeigt ja auch die ChatGPT-Nutzungsstudie. Die werden wir bestimmt noch mal im Detail angucken. 70 Prozent aller Anfragen bewegen sich im Raum des Privaten und 30 Prozent sind beruflich genutzt. Also der Plan geht ja schon mal – eigentlich scheint man in die richtige Richtung.

00:28:57: Jochen G. Fuchs: Ja, also es ist vielleicht nicht ganz falsch, wenn wir darüber diskutieren, was für Auswirkungen hat das, wenn wir zulassen, dass quasi alles in die KI gekippt werden kann.

00:29:10: Barbara Lampl: Und das ist genau dann eben diese nächste Diskussion. Wenn wir da eben schon mal uns angucken – und das bestätigt ja auch die Claude-Studie, die davor schon rausgekommen ist – es läuft immer wieder auf diesen Grad hinaus, dass die Consumer-Tools zu hohen Teilen privat genutzt werden. Übrigens Fun Fact: Die ChatGPT oder die OpenAI-Studie zur Nutzung von ChatGPT zeigt jetzt keinen Gender-AI-Gap mehr. Das ist schon mal gut. 52 Prozent Nutzungsquote ist weiblich klassifiziert. Das repräsentiert auch – wir haben ja mehr Frauen als Männer, deswegen, das hätten wir jetzt erreicht. Falls das jetzt gut oder schlecht ist, aber zumindest da sieht man schon mal – und das ist auch ein interessanter Move, denn die Annahme war ja auch davor, dass Frauen keinen großen Benefit in ihrer beruflichen Welt sehen, aber jetzt scheinen sie ihn privat gefunden zu haben. Und auch diese – glaube ich – zwei Layer muss man langsam anfangen, auseinanderzuhalten. Auch das wird mir in Deutschland gerne nicht sauber genug unterschieden. Es gibt halt die Consumer-Tools, die wir in Teilen missbrauchen als professionelle Anwendung. Wenn wir die aber als professionelle Anwendung missbrauchen, dann kann der Anteil davon ja gar nicht so hoch sein. Die Schlussfolgerung sollte da bitte etwas differenzierter gedacht werden. Noch dazu, weil ChatGPT nun mal eigentlich kein professionelles Tool, sondern ein Consumer-Tool ist. Kurzum: Die Schlussfolgerung, dass 30 Prozent nur beruflich genutzt werden, ist irgendwie eine affige Argumentation, dass es keinen beruflichen Benefit hat, wenn es ein Consumer-Tool ist. Schon mal irgendwie bitte zu Ende gedacht. Und wir sehen ganz klar, dass halt eben die Konsumenten es als privaten Assistenten, als begleitendes Tool, was ja scheinbar ein Problem in ihrem Leben löst – sei es, dass sie eben damit irgendwelche Sachen recherchieren oder als Begleitung, und so wie du eben und ich wahrscheinlich auch nutzen, also sortierbar meine Gedanken als Sparring-Partner, sonst irgendwas – genau für diese Felder eben genau hernehmen. Und das aber – wie gesagt nochmal – und da sind wir halt wieder: AI, nicht nur dass alles AI ist – ich sage nur Erklärbär-Folgen, Stichwort, wo ihr nochmal nachhören könnt, was denn überhaupt jetzt AI ist und was ist nicht AI. Gen-AI und Large-Language-Modelle eben ihre Daseinsberechtigung haben. Aber wir wenig differenziert darauf gucken, an die Altersgruppen. Wir sehen auch eine sehr hohe Nutzung bei der jungen Generation. Ja klar, unsinnige Hausaufgaben. Hätte ich damals AI gehabt, ich hätte die auch damit erledigt. War ja schon damals schon affig, die Hausaufgaben. Also dann machen wir es halt jetzt gleich, als ob jetzt – jede Generation wählt ihre Waffe des Spickzettels und des Kopierers von unsinnigen Hausaufgaben. Aber wir haben natürlich jetzt eine Technologie, die natürlich noch mehr eine Gefahr bedeutet, wenn ich – und das ist ja der wichtige Teil – das Wissen nicht aufgebaut habe, das hinter diesen Modellen steckt. Und zwar – das meine ich nicht unbedingt das Wissen im Sinne von: Wie funktioniert ein Large-Language-Modell? Das halte ich zwar für essenziell, aber ich meine mehr: Das Wissen, auf dem die Daten, auf dem die Modelle trainiert sind. Denn aktuell wissen wir, sie sind immer noch halluzinationsanfällig. Sie haben keine Factorial Accuracy innen drin. Das heißt, eine Output-Bewertung vornehmen zu können, brauche ich Kompetenzen. Und das ist halt, warum Jochen du einschätzen kannst, ob das ein guter Text ist, ob deine Quellen sauber sind, und ich im Zweifelsfalls einschätzen kann, ob das der Algorithmus, den ich mit der AI mir zusammen ausgedacht habe, wirklich funktionabel ist. Aber diesen Baustand an Wissen brauchen wir ja noch als Menschen. Und das wollen wir halt vielleicht alles mal so ein bisschen sauber auseinanderhalten und nicht immer wieder irgendein lustiges Schweinchen durchs Dorf jagen nach dem Motto: Alles ist Doom, alles ist Gloom, oder völlig Über-Hype, besonders in Deutschland, wo wir dringend Nachholbedarf haben.

00:32:53: Jochen G. Fuchs: Ja, aber haben wir das nicht vielleicht auch so ein bisschen unseren lieben Tech Bros zu verdanken, die das Ding als so eine Wundermaschine, die alles kann, vermarkten? Also wenn du als Konsumer vor ChatGPT sitzt und dann ausprobierst, was du da alles reinschmeißt – und jemand wie Ethan Mollick, so sehr ich ihn schätze, tut da freiwillig auch so ein bisschen seinen Teil dazu. Man wirft alles rein und erlebt dann: Guck mal, was die alles kann und was die alles macht, in was für vielen verschiedenen, unterschiedlichen Feldern das Ding unterwegs ist. Und man gerät durch dieses Marketing in Richtung AGI eben in die Versuchung, sich keine Gedanken mehr darüber zu machen, was man abgibt und wie man das bewertet, was da zurückkommt. Einfaches Beispiel: Ich nutze Claude auch mal im Alltag, irgendwelche Alltagsfragen zu beantworten. Kinder fragen irgendwas, ich komme nicht weiter, schmeiß das Ding in den Claude, in die Websuche, guck mal, was rauskommt dabei. Da kann manchmal halt mal ein echter Bock mit dabei sein. Wenn ich zum Beispiel dann hergehe und ich mache ein Foto von der Pflanze, schmeiß die Pflanze in ChatGPT, in Claude und sonst irgendwas rein, kriege ich eine Antwort zurück. Was das Ding sich einbildet, was es ist – Überraschung – ist es aber nicht. Das liegt so oft daneben bei Erkennung von Kräutern oder ähnlichem, auch bei bestimmten Pflanzen. Also eine Birke erkennt das Biest in 100 Prozent der Fälle, würde ich jetzt mal fast behaupten. Aber wenn ich dann irgendeine etwas seltenere Topfpflanze verwende oder irgendein Kraut – es gibt manchmal Kräuter, die guckt man sich an und denkt: Ja, ich habe bekannt, was das ist. Und dann kommt ein Kräuterkundiger da näher und sagt: Jo, alles klar, jetzt hättest du reingebissen, hätten wir dich direkt ins Krankenhaus einliefern können, weil das sieht zwar aus wie XYZ, weicht aber an zwei Merkmalen ab, und dann ist es auf einmal die giftige Variante. Wenn ich dann aber etwas wie Flora Incognita – das ist eine App, speziell auf Pflanzenerkennung aus ist, ich glaube, Fraunhofer-Institut liefert da Grundlagen dazu – eingebe, dann kommt da eine deutlich akkuratere Geschichte dabei raus. Und die App ist dann auch beispielsweise dabei und sagt: Hier, gib mir bitte ein paar unterschiedliche Aufnahmen, unterschiedliche Charakteristika. Also es ist ein Zweck da für diese ganze Geschichte, und dieser ganze Service, da drin und drum herum aufgebaut, ist auf diesen Zweck ausgerichtet, was jetzt aber in ChatGPT und Co. eben nicht ist.

00:35:46: Barbara Lampl: Ja, und ich glaube, das ist genau dieser Punkt, den wir ja auch im unternehmerischen Kontext immer wieder ansprechen müssen. Und das ist ja eine heitere Mischpokelage, die du gerade zusammengefasst hast. Erstens ist es die Erwartungshaltung, die getriggert wird durch Marketing, dass das irgendwie ein magisches Tool sei. Es ist immer noch Mathe und Scale, und es kann viele Muster erkennen, auch Muster in sehr hidden Layers, auch sehr indirekt, und kann aus diesen Mustern sehr tiefe Erkenntnisse auch ziehen. Kann – muss aber nicht. Das heißt, wir haben eine erhöhte Erwartungshaltung durch Marketing. Wir haben eine Erwartungshaltung, die vernebelt wird durch fehlendes technisches Verständnis von: Wie funktioniert eine LLM, was sind Halluzinationen, warum entstehen Halluzinationen? All diese ganzen Sachen. Das Nächste ist – und das ist ja, wenn wir den Schwung auch für unsere Zuhörerinnen und Zuhörer zur unternehmerischen Seite machen wollen – ja, the one to rule them all. Ich bin alt genug, dass ich noch Highlander kenne, und ich weiß nicht – ich glaube, in jedem Workshop sage ich: Ich warte jetzt übrigens so lange, bis neu verfilmt wird mit Henry Cavill, damit wir die nächste Generation auch mal abholen, und natürlich für mich ganz persönlich auch nett anzugucken. Der Highlander war ja immer die Idee – für alle, die jetzt denken oder nicht so alt sind wie ich, und ich hier kurz – ich laufe ja auch die 50 zu. Highlander war die Idee: Die kämpfen, und es kann nur einen Highlander geben. Also es gibt nur einen Highlander. Und das ist aber so eine total idiotische Überlegung, als würde es nur eine einzige AI geben oder ein einziges Large-Language-Modell. Jetzt kommt wieder mein berühmtes Problem-Data-Model-Match. Warum wir nicht nur eine Benchmark haben, warum wir nicht nur ein Modell haben, und warum wir auch in Zukunft halt wieder genau solche Sachen – wir müssen ja die nächsten Steps gehen. Das heißt, wir haben das, was diese ganze – und das ist ja am Ende des Tages, beschreibe ich ja gerade nur, was ich jeden Tag erleben muss, und diese ganzen diffusen Sachen, die in den Menschen und den Unternehmen sich zusammen orchestriert überlegt worden sind – was AI ist und was das kann und was das nicht kann, einfach nur wieder sauber auseinanderzulegen und sagen: Ja, herzlich willkommen. Dafür ist es nicht gebaut. Wer glaubt, dass das Auto nicht im See da säuft? Wer hat jetzt Schuld? Das Auto? Weil das nicht geschrien hat: Ich bin aber nicht tauglich als Boot. Kein Mensch würde auf die Idee kommen, wenn er jetzt irgendwie in den See reinfährt, und sich danach bei Mercedes beschwert: Das Auto hat nicht reagiert, dass es kein Boot ist. Es war ein Auto. Hä? Aber das ist ja genau dieses... Natürlich macht das Ding Fehler. Das sollten wir jetzt auch langsam alle wissen. Das ist aber immer noch auf der menschlichen Seite, dass wir entweder Systeme oder Wissen darum aufbauen, dass das halt nicht passiert. Den Fliegenpilz kannst du essen. Aber halt genau einmal. Nicht dreimal. Das überlebst du halt nicht. Und das sind halt genau solche Sachen, warum ich immer wieder diese Studien spannend finde, aber diese extrem verkürzte Kommunikation darüber mir wirklich massiv auf den Senkel geht. Weil diese Studien, wenn du sie liest – also ich lese sie allen Ernstes selber und erst dann übrigens eine AI. Warum? Weil ich mich ansonsten an die Inhalte auch nicht erinnern kann. Spoiler: Weil ansonsten kann ich mich maximal dran erinnern, was die AI mir eventuell ausgespuckt hat. Und das sind so Sachen – ich muss halt einfach so viel Grundlagenwissen haben zu meinem eigenen Job und zu den technischen Defiziten, mit denen ich täglich zu tun habe, die im System liegen, was halt bis zu einem bestimmten Grad einfach dumm ist, das auszugleichen, den höchstmöglichen Hebel zu setzen. Und da sind wir dann wieder: Wenn ich weder bereit bin, diese Faulheit – und das ist ja in einem Unternehmen auch so eine kulturelle Variante – weil komm, lassen wir uns mal so richtig provokant werden. Wen brauchen wir denn im Unternehmen eigentlich nicht mehr? Wer ist per Definition die Person mit der geringsten Fachexpertise, der höchsten Delegation, und das Einzige, was sie zu tun haben, ist alles irgendwie zusammen zu orchestrieren und am Laufen zu lassen? Ja, das mittlere Management. Weil die Fachexpertise einfach – ich sage ja selber, ich habe auch heute – also gut, ich bin nicht mittleres Management, aber...

00:39:50: Jochen G. Fuchs: Ich bin böse, ich wollte jetzt gerade dazwischen quatschen und sagen: Das ist das CEO. Das ist das CEO. Also in manchen Fällen.

00:39:57: Barbara Lampl: In manchen Fällen kann es sogar bis zum CEO betreffen. Nur der CEO ist ja eigentlich – also da mag ich ja das Deutsche, der Geschäftsführer, der Sprecher der Geschäftsführung, der repräsentiert uns ja nach außen. Also wenn er den Job gut macht – Haken dran. Oder sie. Aber es ist halt genau das. Und das ist auch so eine Diskussion. Das Fachwissen steckt ja häufig – also ich meine, sorry, ich sage jetzt selber – also ich bin ja auch – also ich bin an manchen Sachen, ich bin halt gut in diesem Orchestrieren, aber jetzt überlass nicht mir, dass ich es bauen muss. Mama mia, die Zeiten sind lang vorbei, Freunde der Acht. Das konnte ich mal vor zehn Jahren vielleicht. Nur das ist ja okay, wenn ich dann irgendwo weiß, meine eigenen Defizite sind. So, fassen wir das mal so ein bisschen für euch zusammen: Wenn ihr solche Studien wie das MIT – zwei Stück herausgebracht hat – wo eigentlich klar ist: Wir sollten das Ganze lassen. Wenn ihr zu dieser Schlussfolgerung kommt – und jetzt wird es richtig gemein – dann zeigt das nur eins: Ihr seid inflexibel, wollt nicht drüber nachdenken und wollt euren eigenen Frame bestätigt haben. Herzlich willkommen im Confirmation Bias. Warum? Weil es nur das bestätigt, was ihr ja schon über eine Technologie wisst. Anstatt zwei Schritte weiterzugehen und genau das zu tun, was die MIT-Studie nämlich genau anträgt: Erst denken, nicht faul werden und zu sagen: Okay, vielleicht bei richtiger Nutzung hebelt es mir. Und die zweite MIT-Studie mit den 95 Prozent aller Piloten – wir hören quasi auf oder bringen kein P&L. Moment mal, was sind die Gründe dafür, und warum stehen wir nicht auf der 5-Prozent-Seite? Und das ist genau, wo ich mir denke: Eigentlich sagt das doch viel mehr über dich, dein Unternehmen und die Haltung aus als irgendeine andere Studie. Aber das jetzt auch nicht unbedingt... Aber ich würde es noch einmal durchgetanzt haben. Ich habe heute provokativ einen Kaffee getrunken.

00:41:46: Jochen G. Fuchs: Ja. Was ich halt nur finde, ist: Wie soll ich sagen, die Schuld an diesem ganzen Dilemma trägt aus meiner Sicht mit eben das Marketing unserer KI-Firmen. Weil wenn du als – in Anführungszeichen – Otto Normalsterblicher auf der einen Seite die Techindustrie sagen hörst: Hier, pass mal auf, das Ding kann alles. Und auf der anderen Seite hast du die Wissenschaftler, die sagen: Pass mal auf, wenn du dem Ding irgendwelche von deinen Fähigkeiten auslagerst, dann verlierst du die. Und dann sitzt du so da, so als Otto Normalsterblicher, und denkst: Warte mal, die einen haben gesagt, die Biester können alles. Die anderen haben gesagt: Wenn man etwas an das Ding auslagert, dann kann man das nicht mehr. Also sprich: Das kann alles. Wenn ich alles auslagere, Weltuntergangsszenario, weil wenn das Ding alles kann, kann es auch alles übernehmen und alle Fertigkeiten vernichten, sodass das gesamte kritische Denken, das ist ja...

00:42:56: Barbara Lampl: Ich bin da völlig bei dir. Also die Schuld suche ich nicht beim Individuum. Gottes Willen, ich bin kein Freund der Tech-Bros-Werbung und sonst ganz. Das finde ich ganz schrecklich. Der Punkt ist – deswegen habt ihr auch uns, euren Lieblings-KI-Podcast, damit wir euch das alles erklären. Aber ich glaube, das ist halt genau auch – und das ist halt irgendwo ist es echt gemein. Du hast auf der anderen Seite, wo du versuchst, es wissenschaftlich sauber zu verankern, irgendwie auch diese Erkenntnisse mit der Menschheit zu teilen. Dann fehlt dieser riesen Baustein: Wie muss ich das überhaupt einordnen und verstehen? Und auf der anderen Seite wird mir der Zauberstab, die Magie geliefert. Und ja, natürlich. Und ich meine, auch das ist ja die Realität. Unsere Leben sind übervoll. Sie sind übermaßen überbordend. Du hast ständig das Gefühl, insbesondere je nachdem, wie viel Social Media du konsumierst – bist du immer zu schlecht, zu langsam, zu dick, zu dünn, zu hässlich, zu irgendwas, zu jung, zu alt. Irgendwas ist ja immer. Du bewegst dich – also bist du bestimmt gerade ja immer wieder in irgendwelchen Echo-Kammern. Und dann hast du angeblich so einen Baustein, der dir vielleicht irgendwie mal ein bisschen was von deinem Leben abnimmt und dich gleichzeitig daran teilhaben lässt. Das ist clever gemacht vom Marketing. Das ist eins der dunkelsten Marketing-Varianten, die wir in den letzten Jahrzehnten gesehen haben. Sehr viel näher wieder an allen propagandistischen Möglichkeiten dran, die wir jemals auch davor schon gesehen haben. Das ist natürlich ein echtes Problem. Was ich dann ehrlicherweise zugegebenermaßen – als private Barbara kann ich das völlig nachvollziehen und denke mir so: Jungs, haltet die Fresse. Was professionelle Barbara nicht nachvollziehen kann, dass Unternehmen auf den gleichen Scheiß reinfallen. Das verstehe ich nicht, weil professionell musst du anders vorgehen als privat. Und da frage ich mich dann immer so: Habt ihr keinen professionellen Modus in eurem Hirn, oder seid ihr einfach nur zu cheap, Geld auszugeben, euch eine saubere Meinung einzukaufen? Möchtet ihr das glauben? Und das ist halt das, wo ich sage: Das ist halt so diese AI-Mündigkeit, und ich finde es nicht schön, dass wir das auf das mal wieder – was aufs Individuum abwälzen, was ein systemisches Problem ist. Bin ich völlig bei dir, finde ich total Affenzirkus-mäßig und könnte ich die Jungs auch hauen. Aber meine andere Seite – professionelles Bewegen – bewegt sich ja im unternehmerischen Kontext. Und da frage ich mich schon ganz ehrlich – also wer mich kennt, weiß: Da gibt es nur einen Satz von mir: Was haben die denn gesoffen? Wer hat getrunken und wenn, wie viel? Auf jeden Fall falsche Dosierung. Also das ist wirklich so: Man denkt, professionellen Modus mal an. Ihr könnt doch jetzt nicht allen Ernstes – was? Also was denn hier passiert? Zwei Seiten. Ja, und privat natürlich – das Marketing auch, also dieser Zauberstab-Argumentation, sei alles toll, und dann natürlich: Schmeiß ich da jetzt rein? Ja, alles.

00:45:50: Jochen G. Fuchs: Ja. Es ist, glaube ich, wie immer so: Wir brauchen eine Weile, bis wir die Mechanismen hinter etwas durchschauen. So, keine Ahnung, ich nehme jetzt mal so banale Sachen wie Phishing und Internetscams und skurrile Werbung. Da sind am Anfang viel mehr Menschen drauf reingefallen, als das Thema Internet noch neu war und man das noch nicht so ganz verstanden hatte. Das kristallisiert sich wieder auf dasselbe Thema ein aus. Es ist einfach, man hat das ganze Thema hier noch nicht so ganz verstanden in allen Facetten. Sonst würde man dieses Kartenhaus da etwas schneller einstürzen lassen. Also es würde man etwas schneller hinter die Bühne gucken und den Zauberer von Oz erkennen.

00:46:22: Barbara Lampl: Ja klar. Definitiv. Ich wäre ja – ich würde ja froh sein, wenn die – das klingt total skurril – ich wäre ja froh, wenn diese überhypte AI-Bubble endlich platzen würde. Denn je früher sie platzt, umso früher kriegen wir ja den Effekt wie beim Internetblase-Platzen. Wir erinnern uns noch an quasi Worldcom mit dem überhypten Fraud und sonst irgendwas. Und was hatten wir auf einmal? Glasfaserkabel. Also der Punkt ist: Die Technologie – und Gen-AI, Large-Language-Modelle, die Technologie, die sich in den letzten – ja, im Prinzip sieben Jahren – in einer solchen Geschwindigkeit so krass weiterentwickelt hat, ist ein Hebel. Und was da gerade passiert, ist selbst für einen Profi – mich würde ich sagen so – also auch Open-AI-Codex, der jetzt ja nochmal final rausgekommen ist: Alter Schwede ist das Zeug. Wir springen in den Fähigkeiten, wo wir es einsetzen können, wirklich immer noch unglaublich, was da passiert. Aber dieses ganze Rumgehype und dieses ganze Bullshit-Marketing und dieses ganze: Ich muss das Marketing auch machen, damit ich meine nächste – hört unsere letzte Folge an zur Souveränität – weil ich meine nächste Runde finanzieren muss. Diese Blase maskiert halt genau das und führt zu diesen toxischen Komponenten, anstatt dass wir wirklich coolen Shit haben, den wir in Sachen weiter eskalieren können. Und auch die Fortschritte, die wir in den letzten – ich würde sagen so wirklich in den letzten zehn Jahren gesehen haben – sind so unglaublich. Auch schon davor, aber lass uns wirklich anfangen mit 2010, 2012. Also jetzt wirklich 15 Jahre seit ImageNet und AlexNet Paper. Das ist die krasseste Zeit – ich, jemals – gut, ich war da vorher auch schon in der tätig, aber wirklich in einer Entwicklung, einer Stabilität, einer Möglichkeit – wir hatten anfangs jedes Jahr neue Möglichkeiten. Jetzt haben wir jede Woche neue Möglichkeiten, nächste Schritte zu gehen, coole Sachen zu machen. Wird eben die ganze Zeit von solchen Nebenkriegsschauplätzen disruptiert, und wir führen die Diskussionen nicht, die wichtig sind. Zurück zu: Wir müssen über Workflows sprechen. Wir müssen darüber sprechen, wie wir kritisches Denken weiterhin trainieren und wie wir unsere Jugend auch noch echtes Wissen beibringen, wie wir sie ausbilden. Wir müssen darüber sprechen, wie wir das in Unternehmen machen. Wen hauen wir denn in Zukunft – Gottes Willen? Also wer ist es, den wir brauchen? Und zurück zu diesem Puzzle Piece: Wir brauchen ja die Daten. Also Daten können ohne AI. AI kann nicht ohne Daten. So ist die Kette. Aber es ist trotzdem nicht die erste Diskussion, die wir führen müssen. Die erste Diskussion ist: Den coolen Stuff, der rumliegt, mal sauber zu nutzen und zu hebeln und uns dann Gedanken zu machen: Cool, was macht denn jetzt mehr Sinn, was macht weniger Sinn – und eine Differenziertheit da reinzubekommen.

00:49:37: Jochen G. Fuchs: Man muss es, finde ich, einfach auch als Chance verstehen, etwas komplett Neues zu schaffen. Und das muss man manchmal erstmal sacken lassen, diesen Gedanken. Weil, keine Ahnung, nehmen wir das Schulsystem und die Art und Weise, wie wir lernen. Ich meine, das ist jetzt seit Jahren und Jahrzehnten – klopft man auf dieses Schulsystem ein und sagt: Vieles besteht nur darin, keine Ahnung, Daten auswendig zu lernen, und die Kinder spulen dann Erlerntes, Wissen wieder ab, tralala. Das sind ja alles keine neuen Themen. Was – das hört man schon seit Jahren und Jahrzehnten. Und auch das Thema: Mehr kritisches Denken schaffen, mehr aufs Leben vorbereiten anstatt auch Zeug. Das sind ja Sachen, das sind Themen, über die diskutieren wir jetzt wieder im Zusammenhang mit dem Thema AI, haben wir aber früher schon drüber diskutiert. Das hat man schon, als ich zur Schule gegangen bin, hat man darüber diskutiert. Und auch ich habe für mich am Ende der Schule das Gefühl für mich mitgenommen: Die Schule hätte mich besser auf manches vorbereiten können, als sie es damals getan hat. Ähnlich wie ich jetzt da sitze und mir überlege: Was tue ich jetzt? Lerne ich jetzt, meine Texte einzusprechen, und schmeiße ich diese Fertigkeit, die ich bisher gehabt – oder probiere damit zumindest rum und versuche für mich selbst rauszufinden: Was ist der richtige Wert, ist der richtige Weg? Jetzt diese Fertigkeit loszulassen und zu sagen: Darauf kommt es eigentlich nicht an, dass ich in der Lage war, in 90 Minuten einen Berg an Papieren und Informationen komprimiert schön auf Papier zu bringen. Lasse ich das los und gehe stattdessen her und sage: Mensch, ich muss das jetzt komplett auf den Kopf stellen. Ich muss mir jetzt einen neuen Workflow ausdenken, der eigentlich nichts mehr zu dem zu tun hat, was ich bisher gemacht habe, weil das mich weiterbringt in irgendeiner Form, weil es mir einen Benefit bringt, es mir... Ich habe ja eigentlich nichts davon. Also von dieser Fertigkeit, dass ich einen Riesenberg Quark konzentrieren kann, sodass da nachher was Tolles dabei rauskommt. Da habe ich ja nichts davon. Also das hat mir zwar jetzt was gebracht in meinem Berufsleben, weil es eine Fertigkeit war. Aber das, was eigentlich den Kern – meinen Kern ausmacht – ist die Fähigkeit, Sachen zu erkennen, zu verstehen, einfach zu verstehen: Worauf kommt es an? Weil das ist ja das, woran ich mich entlanggehangelt habe, wenn ich so einen Artikel ausgearbeitet habe. Und das ist das, was ich jetzt auf eine andere Art und Weise trainiere, wenn ich Texte einspreche, weil ich jetzt meinen Denkprozess neu gestalte. Und jetzt gestalte ich den Workflow da drum herum darum, dass ich das einspreche. Ich komme jetzt nur an Grenzen, weil ich quasi an Systeme stoße, die nicht darauf ausgelegt sind. Also ich stoße an Content-Management-Systeme und solche Sachen, wo ich dann wieder gezwungen bin, meinen Workflow den Systemen anzupassen, anstatt radikal vorgehen zu können und zu sagen: Ich komm jetzt auch weg, ich brauch das nicht mehr, weg damit. Da komme ich jetzt an Grenzen, und ich glaube, das ist was, worauf man sich als Unternehmen einlassen muss, weil das ist schon ziemlich radikal. Quasi zu sagen: Pass auf, ich kann das... Bitte nicht falsch verstehen, nehmt mich jetzt bitte nicht wörtlich: Schmeißt nicht wirklich euer ERP-System weg. Aber ich könnte hergehen und könnte sagen: Ich brauch das ERP-System nicht mehr, schmeißt das weg, weil das ist ein abstraktes Modell, das für eine alte Welt, für eine alte Denkweise steht. Ich muss sehr, sehr grundlegend wieder zurückgehen an den Anfang und muss mir überlegen: Okay, ich habe da jetzt ein Werkzeug, und was ist der beste Workflow, den ich aus diesem ganzen rausholen kann? Und was ist der Kern? Der Kern meines Business? Was ist der Kern meiner Profession? Was ist der Kern meines – jetzt werde ich echt langsam philosophisch – meines Ichs, meines Selbst. Und wie radikal muss ich das Ganze angehen? Nicht, dass ich in die Verlegenheit komme, bestehende Prozesse, Workflows, Denkweisen herum einfach Technologien drumrum zu knoten, um das zu erhalten. Das ist nämlich gar nicht so einfach. Also es ist wieder zurück. Für mich ist gerade so der Kern dieser Unterhaltung zwischen mir und meinem Kollegen: Was tue ich jetzt? Kloppe ich jetzt die AI in diesen Workflow damit rein? Oder baue ich mir mit AI einen Workflow, der an meinem bisherigen festhält? Oder schmeiße ich das Bisherige halt weg und lerne, das komplett neu zu denken? Und ganz essentiell dabei ist halt wirklich die Frage: Was macht mich aus? Also gebe ich jetzt an die AI etwas ab, was ich nicht tun sollte, weil es den Kern meines Geschäfts ausmacht? Oder eben nicht?

00:55:06: Barbara Lampl: Ja, aber das ist genau diese kritische Stelle, die für viele Unternehmen halt auch in dieser Radikalität kaum zu denken ist und weswegen sie dann halt auch am Ende des Tages scheitern. Weil sie möchten zwar gerne the shiny Ergebnis haben – nämlich die Produktivitätsgewinne, die Qualitätsgewinne, auch den erhöhten Output, also die Produktivität und Effektivität der Organisation – nur: Sind wir wirklich bereit, das wirklich durchzudenken und zu tanzen? Und das würde eben bedeuten – ob es ist ein ERP, Content-Management-System oder irgendwie komplett unsere Prozesse sind, die dem nicht repräsentieren, wie wir mit der Technologie, die wir heute haben, bereits zusammenarbeiten – neu und radikal anders zu denken. Und natürlich – und das sehen wir ja jetzt auch – warum tun sich deswegen kleine und junge Unternehmen so viel leichter, auf diesen technologischen Zug aufzutrenzen? Warum gehen auch momentan so viele Experten aus Unternehmen raus und sagen: Ich mache mich lieber selbstständig und gehe in ein Freelancing- und Beratungsfeld hinein, weil ich von außen nicht mehr in diese Limitierungen hineinlaufe, die ich innen drin gebaut habe, die ich jetzt irgendwie so rum irgendwas basteln soll? Und dann – also das heißt, wir haben menschengemachte Prozesse, die strukturell neu gedacht werden müssen bis zu einer Radikalität. Und dann haben wir den Mensch an sich, der sich jetzt mit seiner – A – irgendwie so einer Art Definition: Was macht mich aus, was macht die Qualität, den Wert meiner Arbeit aus? Und nicht nur: Was muss ich neu lernen? Das ist ja – wir wissen ja, seit Adam Grant gibt es ja ein schönes Konzept, und das ist ja auch definitiv dieses Unlearning. Was muss ich denn eigentlich entlernen, und was davon ist sinnvoll zu entlernen, was davon ist neu hinzuzufügen? Und das ist natürlich kein trivialer Prozess. Und diese ganze Kulturdiskussion – und die ist persönlich wie unternehmerisch, wie gesellschaftlich zu denken – in einem Druckkochtopf einer geopolitischen Situation, technologischen Weiterentwicklung. Ich will gar nicht AI unbedingt als Revolution bezeichnen, aber einer AI-Evolution oder einer generellen Tech-Evolution, die ja schneller rennt, als wir jemals alles zuvor gesehen haben, ist halt nicht trivial. Und wenn wir diese Diskussion nicht führen – nicht anregend zum Denken, nicht anregend zum: Okay, müsste ich denn, wie würde so eine Radikallösung aussehen – ob das jetzt Jochens Vorschlag ist: Schmeißt das ERP-System raus, und nicht heute, aber vielleicht übermorgen. Wenn ich das halt noch nie gedacht habe, dann werde ich nicht zu einer Entscheidung kommen. Und das ist ja das, was wir in der Data Science auch immer wieder sagen: Wir können nicht blind fliegen. Wir müssen in Biases denken, wir müssen in politisch unkorrekt denken, wir müssen in radikal denken, weil was nicht gedacht ist, existiert nicht, und dann treffen wir falsche Entscheidungen. Und das ist natürlich jetzt irgendwie etwas, das kennst du ja sonst gar nicht, dass wir auf einmal alles mal – und Data Scientists, so wie ich, wir sind ja berühmt-berüchtigt für: Wir bringen da mal mehr Fragen, als dass wir Antworten haben. Nur ohne diese Fragen werden wir nicht rausfinden können, wie eine individuelle Lösung ausschaut. Weil ansonsten arbeiten wir auf Annahmen, und Annahmen sind immer der Teufel. Also kannst du dir sicher sein: Wenn du auf zu vielen Annahmen arbeitest, geht das garantiert nachher hinten raus schief.

00:58:25: Jochen G. Fuchs: Ja, klingt schon fast nach einem Schlusswort.

00:58:29: Barbara Lampl: Gut, dann nehmen wir heute: Die Annahmen sind des Teufels, und wer zu viele Annahmen trifft, der scheitert dann mit 100 Prozent. Fragt sich nur wann.

00:58:37: Jochen G. Fuchs: Ja, etwas mutiger sein, etwas grundsätzlicher an Prozesse und Entscheidungen rangehen. Nicht zu arg versuchen, bestehende Strukturen in KI abzubilden.

00:58:53: Barbara Lampl: Das ist definitiv – das ist 100 Prozent zum Scheitern verurteilt. Und wer das Risiko managen will, der ist genauso zum Scheitern verurteilt.

00:59:01: Jochen G. Fuchs: Ja, dann bedanken wir uns bei allen fürs Zuhören.

00:59:08: Barbara Lampl: Wie immer: Gerne Anmerkungen, Fragen, Wunschepisoden. Ihr dürft uns gerne schreiben auf LinkedIn, E-Mail oder sonst irgendwas. Und wie immer: Die genannten Studien werden natürlich in den Show Notes für euch geteilt. Und vielleicht ganz spannende Frage: Was müsst ihr neu denken, radikal umdenken? Welche Annahmen trefft ihr so? Und was müsst ihr eventuell entlernen und neu dazuhinlernen?

00:59:31: Jochen G. Fuchs: Jawoll, dann bis zum nächsten Mal in deinem KI-Lieblingspodcast. Tschüss Barbara.

00:59:38: Barbara Lampl: Schön, Jochen!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.