KI-Infrastruktur und Umwelt: Was kostet die KI-Revolution?
Shownotes
Willkommen zu unserer Erklär-Bär-Folge, in der wir uns die Frage stellen: Killt KI das Klima oder rettet sie es? Spoiler: Es ist kompliziert. Barbara und Jochen tauchen ein in die faszinierende Welt der GPUs, TPUs und CPUs und erklären, warum dein ChatGPT-Prompt nicht das Problem ist, aber die Million anderer Prompts vielleicht schon. Wir reden über Rechenzentren, die mehr Wasser schlucken als eine Badewanne voller Fischchen verkraften würde, über seltene Erden, die nicht vom Himmel fallen, und darüber, warum dein emotionales Attachment zu alten Chat-Verläufen nicht nur ökologisch, sondern vor allem fachlich ein Albtraum ist. Brain First statt LLM-Overkill lautet die Devise. Plus: Warum Barbaras Samsung S25 Ultra nicht gesponsert ist, obwohl sie es sich wünscht, und warum das Opossum das perfekte Spirit Animal für KI-Überforderung ist.
Erwähnte Themen und Ressourcen:
GPU vs. CPU - Größenvergleich und technische Unterschiede:
- Intel: CPU und GPU – Was ist der Unterschied? https://www.intel.de/content/www/de/de/products/docs/processors/cpu-vs-gpu.html
- AWS: GPU versus CPU – Unterschied zwischen Verarbeitungseinheiten https://aws.amazon.com/de/compare/the-difference-between-gpus-cpus/
- IBM: CPU und GPU für maschinelles Lernen https://www.ibm.com/de-de/think/topics/cpu-vs-gpu-machine-learning
TPU (Tensor Processing Units) von Google:
- Google Cloud TPUs – Offizielle Seite https://cloud.google.com/tpu
- Google TPU Dokumentation https://docs.cloud.google.com/tpu/docs/intro-to-tpu
- Wikipedia: Tensor Processing Unit https://de.wikipedia.org/wiki/TensorProcessingUnit
- Google Blog: Ironwood TPU (7. Generation) https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/
Waymo Autonomous Driving – Sicherheitsstatistiken:
- Waymo Safety Impact Hub https://waymo.com/safety/impact
- Waymo Safety Data Hub https://waymo.com/blog/2024/09/safety-data-hub
- Swiss Re Studie: 92% weniger Verletzungsansprüche https://waymo.com/blog/2024/12/new-swiss-re-study-waymo
- Waymo Research Papers https://waymo.com/safety/research/
Samsung Galaxy S25 – Galaxy AI Features:
- Samsung Galaxy S25 Serie – Offizielle Produktseite https://www.samsung.com/us/smartphones/galaxy-s25/
- Samsung Galaxy S25 Edge https://www.samsung.com/us/smartphones/galaxy-s25-edge/
- Samsung Galaxy AI Features Übersicht https://www.samsung.com/uk/mobile-phone-buying-guide/samsung-galaxy-s25-galaxy-ai-features/
CO2-Emissionen von Tech-Unternehmen:
- Google: 48% Anstieg seit 2019, 13% Jahr-über-Jahr 2023 https://www.cnbc.com/2024/07/02/googles-carbon-emissions-surge-nearly-50percent-due-to-ai-energy-demand.html
- Microsoft: 29% Anstieg seit 2020 https://www.npr.org/2024/07/12/g-s1-9545/ai-brings-soaring-emissions-for-google-and-microsoft-a-major-contributor-to-climate-change
- The Conversation: Power-hungry AI und steigende Emissionen https://theconversation.com/power-hungry-ai-is-driving-a-surge-in-tech-giant-carbon-emissions-nobody-knows-what-to-do-about-it-233452
Rechenzentren und Klimabilanz:
- Öko-Institut: KI-Energiebedarf von Rechenzentren verdoppelt sich bis 2030 https://www.oeko.de/news/pressemeldungen/ki-auf-kosten-des-klimaschutzes-energiebedarf-von-rechenzentren-verdoppelt-sich-bis-2030/
- Bitkom-Studie: Rechenzentren in Deutschland 2024 https://www.bitkom.org/sites/main/files/2024-11/241121-PK-Bitkom-Charts-Rechenzentren-2024-final.pdf
- Rechenzentren.org: Mehrheit fordert strengere Regeln https://www.rechenzentren.org/news/mehrheit-der-bevoelkerung-fordert-strengere-regeln-fuer-energie-und-wasserverbrauch-von-rechenzentren/
Kapitelmarker:
00:00 Intro und Themenvorstellung 00:10 KI-Infrastruktur vs. normale IT-Infrastruktur 02:00 GPUs, CPUs, TPUs - Die Hardware-Grundlagen 04:10 Stromverbrauch und Kühlleistung 05:50 Rechenleistung im Vergleich 07:30 Training vs. Inferenz - Wo liegt der Unterschied? 09:10 Wasserverbrauch und Kühlungssysteme 12:10 CO2-Emissionen und seltene Erden 14:40 Training als Hauptproblem, nicht die Nutzung 16:00 Edge AI im Alltag - Samsung S25 Ultra im Test 17:40 Bild, Video, Text - Unterschiedlicher Energieverbrauch 18:50 Datenhygiene als ökologischer und fachlicher Imperativ 21:05 Memory-Funktion und Chat-Durchsuchung - Ein Nightmare 23:30 Emotionales vs. funktionales Attachment zu digitalen Artefakten 27:10 Kontextoptimierung statt Chat-Chaos 29:20 Was können Unternehmen tun? Brain First als Strategie 31:00 ESG-Bilanzierung und Messbarkeit 31:30 Edge AI vs. Cloud - Macht das einen Unterschied? 33:20 Rettet KI das Klima? Effizienzgewinne vs. Ressourcenverbrauch 36:20 Differenzierte Betrachtung statt Hype oder Bashing 38:10 Schlusswort und Verabschiedung
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein entrinnen!
- [Apple] https://podcasts.apple.com/podcast/id1798319508
- [Deezer] https://www.deezer.com/de/show/1001665971
- [Spotify] https://open.spotify.com/show/2IfqJA4Qo02fslECWpEQW8
- [Amazon Music] https://music.amazon.de/podcasts/497c3a14-dcaf-4bb3-abc1-03aa6f73f8d3/laier-8-9---noch'n-ki-podcast
- [Youtube Video-Podcast] https://www.youtube.com/@laier89
Unsere Hosts AI Babsi (Barbara): [Website] https://www.barbara-lampl.de | [LinkedIn] https://www.linkedin.com/in/barbaralampl/ E-Fuchs (Jochen): [Website] https://efuchs.net | [LinkedIn] https://www.linkedin.com/in/jochengfuchs/
Unser Podcast Blog https://www.laier89.de/
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.
Transkript anzeigen
Jochen G. Fuchs: Hallo Barbara!
Barbara Lampl: Hallo Jochen!
Jochen G. Fuchs: Da wären wir wieder. Heute mit einer Erklär-Bär-Folge. Wir wollen ein allgemeineres Thema aufgreifen: KI, KI-Infrastruktur und Umwelt – beziehungsweise die Auswirkungen und Effekte auf die Umwelt. Wir wissen, dass unsere IT und IT-Nutzung große Auswirkungen auf die Umwelt hat – Cloud-Stromverbrauch und was da alles mit reinhängt. Aber der KI wird nachgesagt, dass es besonders schlimm ist. Es gibt einzelne Stimmen, die infrage stellen, ob man für jeden Pardon-Shit eine KI losjagen muss, oder ob es vielleicht schön wäre, wenn man über stromsparende Anwendungen nachdenkt. Da stellt sich natürlich als erste Frage: Wie ist es denn überhaupt im Vergleich? Wie stromfressend ist KI im Vergleich mit unserer normalen IT-Infrastruktur? Ist dieser Unterschied so eine große Diskrepanz, wie postuliert wird?
Barbara Lampl: Welche KI schmeißen wir denn? Welche wollen wir uns angucken? Lass mich raten, du willst über Large Language Models sprechen?
Jochen G. Fuchs: Das wäre die zweite Frage gewesen: Welche gucken wir an? Aber ich glaube, Large Language Models sind das Ding, über das wir uns unterhalten müssen. OpenAI mit ChatGPT frisst in der großen Masse wahrscheinlich am meisten Strom und wird das in Zukunft auch tun. Die hätten ganz gerne, dass wir alle ChatGPT benutzen. Sie schmeißen es uns umsonst hinterher, damit jeder es möglichst tief in sein Leben integriert. Und je tiefer wir es integrieren, desto mehr Strom verbrauchen wir. Das ist jetzt einfach eine Behauptung. Lass uns LLMs anschauen.
Barbara Lampl: Okay, aber wichtig ist trotzdem die Frage. Ein wichtiger Punkt: LLMs sind ein Teil der großen KI- und Machine-Learning-Abteilungen. Deswegen reden wir immer über Rechenzentren und Datenzentren. Was ist IT-Infrastruktur, was ist KI-Infrastruktur? Am Ende des Tages geht es um die Frage: Für was brauchen wir was? Das hängt mit dem Komplexitätsgrad der Rechenanwendung zusammen. Die Komplexität ist bei komplexen Machine-Learning-Algorithmen, bei komplexen Deep-Learning-Algorithmen und bei LLMs besonders hoch – alles, was Gen.AI ist. Dann haben wir die klassische herkömmliche IT-Infrastruktur. Dazwischen hängt die Cloud-Infrastruktur. Wir haben auf der einen Seite unsere Grafikprozessoren – das, was am meisten Rechenleistung zieht: GPU-Power für hochkomplexe Machine-Learning- und insbesondere Large-Language-Anwendungen. Die niedrige Latenz der KI-Infrastruktur können wir aus den Cloud-Infrastrukturen bekommen. Dann haben wir noch die klassische herkömmliche CPU, die zentralen Recheneinheiten auf der IT-Infrastruktur. Das sind die drei Dinge, in denen wir vereinfacht denken.
Jochen G. Fuchs: Mhm.
Barbara Lampl: Die IT-Infrastruktur liegt im Zweifelsfall vor euch oder in Griffweite irgendwo rum – euer Desktop-Rechner, der Laptop-Rechner. Aber trotzdem hat er eine Grafikkarte drin, das wäre die GPU. Wenn ihr eine Cloud-Anwendung habt, dann möchtet ihr die Streaming-Funktionalität, die die Cloud hat. Das sind die Bausteine, die wir brauchen.
Jochen G. Fuchs: Okay, wenn ich das richtig verstehe: Der Unterschied zwischen einem normalen Rechenzentrum und einem KI-Rechenzentrum – kann man das überhaupt so sagen?
Barbara Lampl: Ich glaube, für diese Folge können wir das so sagen.
Jochen G. Fuchs: Okay, machen wir so. Der Hauptunterschied ist die Art des Prozessors, des Chips. Bei der einen haben wir hauptsächlich CPUs, bei den anderen GPUs. Die GPUs verbrauchen einfach mehr Strom. So kurz können wir das herunterbrechen?
Barbara Lampl: Die brauchen mehr Strom, und von denen brauchen wir mehr. Sie brauchen mehr Kühlleistung – das ist der Grund, warum sie mehr Strom brauchen. Sie müssen stärker gekühlt werden. Alle brauchen Kühlleistung, aber GPUs brauchen noch mehr.
Jochen G. Fuchs: Okay. Das einzelne Beast verbraucht mehr Strom, muss mehr gekühlt werden als ein normaler CPU. Und wir brauchen deutlich mehr von diesen Biestern hintereinander geschaltet, als wir es normalerweise für unsere Anwendungen mit CPUs brauchen.
Barbara Lampl: Genau. Wir haben noch eine Sonderkategorie: TPUs – Tensorprozessoreinheiten. Vielleicht habt ihr mitbekommen, dass Google gesagt hat, sie bauen noch stärkere TPUs. Das ist dann wirklich High-Performance-Computing, Hochleistungsrechner. Das sind Grafikprozessoren mit diesen TPUs. Die brauchst du für ein volles KI-Ökosystem, insbesondere wenn du die Modelle selbst baust und trainierst. Das ist genau da, wo die Rechenleistung sitzt – im Training dieser Modelle. Spoiler Alert: Deep Seek lässt grüßen. Beim High-Frequency-Handel der Hedgefonds ist das ein großer Punkt. Deswegen haben Banken, oder genauer genommen Quant-Hedgefonds, von dem Zeug relativ viel im Keller oder im Büro nebenan stehen.
Jochen G. Fuchs: Kurze Detailfrage: Kannst du uns eine Hausnummer geben? Das Wievielfache mehr GPUs sind im Einsatz im Vergleich zu CPUs? Ist das doppelt, zehnfach, hundertfach?
Barbara Lampl: Für was?
Jochen G. Fuchs: Im Rechenzentrum. Wenn ich ein normales Rechenzentrum angucke, in dem hauptsächlich normale Anwendungen laufen – da steht nicht ein Schrank voller GPUs, sondern Rechner mit jeweils einem CPU. Im Vergleich dazu ein KI-Rechenzentrum mit GPUs. Ist das eine vergleichbare Anzahl?
Barbara Lampl: Das kommt auf die Anwendung an, was du brauchst. Du willst zu stark vereinfachen. Gibt es einen Multiplikator? Nein, weil der Multiplikator davon abhängt, was du machen willst. Wenn du dir heute überlegst, deinen eigenen Rechner zu bauen – ich bin Team "Bau meinen eigenen Rechner" – muss ich feststellen: Was will ich mit dem Ding machen? Will ich Linux fahren? Will ich Office-Anwendungen nutzen? Will ich zocken? Oder will ich On-Prem ein Machine-Learning-Modell oder Large-Language-Modell hosten? Dann habe ich andere Anforderungen. Diese Anforderungen definieren, was ich an Rechenleistung in allen Schritten brauche. Wie groß muss mein GPU sein? Wie groß muss meine CPU sein? All diese Sachen hängen vom Anwendungsfall ab. Wenn du das nicht brauchst, hast du es nicht.
Jochen G. Fuchs: Okay, dann bleiben wir bei einem Vielfachen.
Barbara Lampl: Genau. Wenn du KI trainieren und bauen willst, ja.
Jochen G. Fuchs: Gibt es vom Verständnis her noch einen Unterschied, ob ich Training oder Inferenz betrachte – sowohl was das dafür benötigte Rechenzentrum angeht als auch den Stromverbrauch und Ressourcenverbrauch?
Barbara Lampl: Ja. Training ist intensiv. Modelle selbst trainieren und bauen ist das, was so intensiv ist. Je größer und komplexer das Modell, umso mehr brauchst du Rechenleistung. Compute. Ist das Ding mal fertig? Dann denken wir das anders. Nehmen wir ein Stück Software, damit haben wir alle mehr Erfahrung. Wir machen ein Excel-Sheet auf. Wir gehen auf unseren Button, drücken „Excel-Sheet öffnen", warten, hoffentlich tut Microsoft es, dann geht das Excel-Sheet auf und wir machen lustige Dinge drin. Im besten Fall hat dieser Prozess ein paar Sekunden gedauert. Ist dieser Prozess repräsentativ dafür, wie lange es gedauert hat, die Software Excel zu programmieren? Nein. Da waren Teams länger beschäftigt als die paar Sekunden, die ich gebraucht habe, die Software aufzumachen. In dieser Unterscheidung könnt ihr euch vorstellen: Das Training der Modelle ist wie Excel-Sheet bauen. Das Benutzen der Modelle ist Excel-Sheet auf- und zumachen. Dann könnte ich noch eine Mischkonstruktion machen: Ich nehme eine fast fertige Software, bastle noch stärker dran rum – das ist das Betreiben des Modells auf dem eigenen Rechner. Das definiert die Rechenleistung, die du brauchst.
Jochen G. Fuchs: Okay, verstehe. Was wir im Moment wissen: Wir haben Stromverbrauch, Ressourcenverbrauch, Wasserverbrauch. Wasser ist ein großes Thema – wird das hauptsächlich oder ausschließlich für Kühlung verwendet?
Barbara Lampl: Kühlung. Ich würde sagen, ziemlich ausschließlich für Kühlung.
Jochen G. Fuchs: Zum Verständnis: Was passiert mit diesem Wasser? Wird das verunreinigt oder ist das einfach...?
Barbara Lampl: Das kommt auf den Näheren an. Nicht wirklich, es wird nur verdammt warm. Wer sich damit beschäftigt hat, einen Rechner selbst zu bauen: Auch da gibt es wassergekühlte Systeme. Liebe Autofahrer, auch da gibt es Wasserkühlung und Luftkühlung, wir erinnern uns. Das ist im Prinzip das gleiche Ding. Wasser wird zum Kühlen gebraucht. Kann das verschmutzt werden? Ja, sollte aber nicht. Es ist sehr warmes Wasser. Du kannst nicht 60 Grad warmes Wasser zurück in einen Fluss speisen – da gehen dir alle Fischchen. Die sind nicht fürs Badewannenwasser ausgelegt, vielleicht sogar noch wärmer. In erster Linie ist es die Temperatur. Bei bestimmten Temperaturstufen sterben auch Mikroorganismen ab. Aber in erster Linie ist es die Temperatur, der Verbrauch vom Wasser, das benötigt wird, um runterzukühlen. Das ist die Herausforderung: Grundwasser, Trinkwasser. Da fängt die Diskussion an, ob Grundwasser wirklich dafür da sein soll, Data Center runterzukühlen. Sounds like a bad plan.
Jochen G. Fuchs: Klingt so. Was ich gelesen habe: KI-Rechenzentren verbrauchen ungefähr doppelt so viel Wasser wie ein klassisches Rechenzentrum.
Barbara Lampl: Genau. Du brauchst anders – die GPUs werden massiv wärmer. Die sind größer. Guck dir an, wie groß eine Grafikkarte ist versus ein CPU. Das hat was mit Größe zu tun. Vielleicht machen wir unten zwei Links zu einer GPU und einer CPU rein, dann seht ihr den Größenunterschied und die Idee dahinter – was das an Größe und Fläche der Kühlung bedeutet. Ich baue gerade einen Rechner zusammen. Aber selbst der aktuelle Rechner, über den das läuft, hat acht Lüfter drin, damit das Ding nicht zu warm läuft. Da reicht die normale Lüftung aus. Meine Grafikkarte ist ein Monsterding mit zwei eigenen Lüftungen oben drauf. Das ist genau das, was dahinter steckt. Die brauchen mehr Wasser. Mehr Wasser bedeutet noch mehr Stromverbrauch, weil das Zeug durchgepumpt werden muss. Es gibt übrigens ein paar Ansätze, die das in einer Art Perpetual Mobile aufzubauen – mit Solaranlage oben, das erwärmte Wasser für Heizungssysteme zu nutzen. Solche Ansätze gibt es zwischenzeitlich, aber nicht alle halten sich daran oder nutzen das wirklich so.
Jochen G. Fuchs: Nein. Außer dem Wasser sind CO2-Emissionen noch ein Thema. Im Moment gestiegen von ursprünglich 212 auf mittlerweile 355 Millionen Tonnen. Auch Google sagte, ihre CO2-Emissionen haben sich seit – 48 Prozent gesteigert seit 2023. Die Prognose geht auf 355 in 2030. Das heißt, im Moment haben wir ungefähr 1,5 Prozent des globalen Energieverbrauchs für Rechenzentren. Bis 2030 soll das über 3 Prozent oder 2 Prozent sein – die Zahlen muss ich nachgucken, bin mir nicht mehr ganz sicher.
Barbara Lampl: Die Tendenz ist stark steigend. Wir haben natürlich, damit der Chip erstellt werden muss, das Thema der seltenen Erden – Abbau von seltenen Erden und Rohstoffen mit all den Umwelt- und Menschenkomponenten, die dazugehören. Seltene Erden, Raubbau an Mutter Erde. Aber auch: Wie werden seltene Erden überhaupt gemeint? Wie viele Menschen sind da involviert? Wie gefährlich ist dieser Bergbau? Das ist klassisch bei der Chip-Herstellung immer wieder in der Diskussion – übrigens bei GPU und bei CPU. Alles, was in diesem Teil namens Chip drin ist, fällt nicht heiter vom Himmel. Recycling ist übrigens ein bisschen ein Ding, weil die Dinger irgendwann tot sind und nicht weitermachen.
Jochen G. Fuchs: Okay. Für Menschen, die sensibel beim Thema Umwelt und Klima unterwegs sind, klingeln vielleicht die Alarmglocken. Man denkt: Das ist blöd. Wir haben so lange daran gearbeitet, die CO2-Emissionen zu verringern, die globale Erwärmung einzugrenzen. Jetzt haben wir eine coole, tolle Technologie gefunden, die aber dafür sorgt, dass sich die Emissionen erhöhen. Google sagte 48 Prozent plus – in fünf Jahren 48 Prozent mehr Emissionen, 13 Prozent davon allein 2023. Microsoft sagt im vergleichbaren Zeitraum seit 2020, die letzten fünf Jahre, 30 Prozent plus. Bei beiden ist es hauptsächlich durch den Ausbau der Rechenzentrumsinfrastruktur.
Barbara Lampl: Genau. Dadurch, und das kommt immer wieder hoch: Mini-Atomkraftwerke oder sonst was. Das ist diese Diskussion. Erhöhte CO2-Werte durch – und das muss man ehrlicherweise sagen: Der dominante Teil liegt im Training der Modelle, nicht in der Nutzung der Modelle. Wenn wir morgen spontan alle entscheiden würden, wir nutzen sie nicht mehr, würde wahrscheinlich auch das nächste Modell nicht trainiert werden. Aber grundsätzlich ist der größte Anteil, wirklich der dominante Anteil, das Training der Modelle, der Aufbau der Modelle, die Datenvorhaltung der Modelle – nicht die Nutzung der Modelle.
Jochen G. Fuchs: Ist das, wenn man es in der Totalen betrachtet, so, dass man sich nicht unbedingt so große Gedanken über die eigene KI-Nutzung machen muss? Oder ist das trotzdem ein Faktor?
Barbara Lampl: Natürlich ist es ein Faktor. Ich habe hier heute ein Samsung S25 Ultra. Leider bin ich immer noch nicht von Samsung gesponsert. Liebe Samsung, wir sind eine Samsung-Company – die ja von Google Backend läuft, aber wir warten auf Sponsoring. Ich habe eine Edge AI bei mir auf dem Telefon laufen, weil ich es regelmäßig austesten will. Drain meine Edge-AI-Use-Cases meine Batterie wahnsinnig viel stärker als würde ich auf Instagram rumhängen? Nein. Das gibt einen guten Einblick. Das Ding ist High-End-Hardware – das S25 Ultra, könnt ihr nachgucken, der Spaß ist nicht gerade günstig. Da merkst du: Wie viel verbrauchst du eigentlich selber? Wenn du konstant Bild- und Videogenerierung machst, hat das den höchsten Verbrauch, darüber brauchen wir gar nicht reden. Bilder, Video am höchsten. Text relativ einfach, sogar Code-Generierung relativ solide. Bild, Video sieht anders aus. Am Ende des Tages ist es die eine Milliarde Nutzer, die alleine ChatGPT nutzen. Es ist die Masse an Leuten. Das Gleiche wie in Social Media, das Gleiche wie in Cloud-Anwendungen. Es ist die Masse, die den Kohl fett macht. Wenn wir ein völlig unreflektiertes Nutzungsverhalten haben, kann es sein, dass unser letzter Prompt das Ding über die Kippe schickt. Aber grundsätzlich ist es: Video, Bild, Code, Text. Text und Code kann man fast nicht unterscheiden. Wenn du ständig – es gibt lustige Reels oder TikToks, wo einer gar nicht mehr weiß, wie er ohne ChatGPT noch „Guten Morgen, wie geht's dir?" antworten soll. Wenn du dieses Niveau erreicht hast, hast du große Probleme bei deinem CO2-Fußabdruck. Ich sage, das ist Priorität weiter unten, aber der Gang zum Psychologen ist angesagt.
Jochen G. Fuchs: Okay. Als Nutzer mit ökologischem Bewusstsein konzentriere ich mich darauf, dass meine Bild- und Videogenerierung nicht komplett bescheuert ausufernd ist. Ich mache mir lieber ein paar Minuten länger Gedanken über einen Prompt, bevor ich 20 Bilder generieren muss, bis ich bei meinem Ergebnis bin. Der Unsitte, dem LLM zu sagen „Mach mir mal 20 Bildvariationen" – dem haben sie ja schon per System einen Riegel vorgeschoben. Das macht ja eigentlich keines mehr, oder?
Barbara Lampl: Doch, auf der API kannst du das sehr wohl machen. Auf der API zahlst du ja mit deinem Token dafür, deswegen haben sie da nicht unbedingt einen Riegel vorgeschoben. Grundsätzlich sage ich immer: Gute Hygiene in jeder Chat-Anwendung gilt wie das Gleiche. Wer ökologisch verantwortungsvoll mit den Tools umgeht, löscht bitte seine E-Mails und löscht bitte auch seine Chats in seinen ganzen Tools. Ansonsten fahren die immer mit hoch, das ist nicht schick. Fangen wir damit an. Datenhygiene vor allem anderen, dann haben wir da aufgeräumt. Und Brain First ist immer noch das Energieeffizienteste, was macht.
Jochen G. Fuchs: Okay. Es ist auch strukturell sinnvoller. Es kommen Sachen wie Claude – ich hab das im Moment deaktiviert, aber lass Claude gelegentlich Chats referenzieren. Ich muss etwas erklären: Es gibt diese Speicherfunktion, wo Claude auf ein Memory zurückgreift. Du kannst übergreifend sagen: „Lieber Claude, ich habe irgendwann mal über Lebkuchenrezepte recherchiert. Jetzt will ich das in eine Suppe transformieren. Jetzt such nach dem Suppenrezept, such nach dem Lebkuchengedöns und produziere mir ein neues Rezept." Dann fängt er über den gesamten Scope sämtlicher Chats hinweg an zu suchen, packt sich diesen Input und generiert. Wenn ich das tatsächlich anfange zu nutzen – ich nutze es nicht, weil ich persönlich da extrem vorsichtig bin. Ich habe Angst, dass das mit meinen Aufgaben interferiert, wenn er irgendeinen Rotz referenziert, den ich in dieser Aufgabe überhaupt nicht drin haben will. Er macht es aber, wenn ich in Projekten arbeite, sowieso. Auch wenn ich diese Memory-Funktion nicht freigeschaltet habe – wenn ich in einem Projekt bin und sage „Ich suche die Chats dieses Projektes", tut er das.
Barbara Lampl: Da kann er das trotzdem tun. Genau.
Jochen G. Fuchs: Das macht er, und das passiert auf jeden Fall. Zu der eigentlichen Frage, auf die ich hinaus möchte: Bin ich besser bedient, wenn ich hergehe und die Ergebnisse, die ich in so einem Chat produziert habe, irgendwo hin auslagere, abspeichere? Wenn ich beispielsweise als meinen täglichen Job Artikel als Journalist generiere – die Artikel liegen in diesen Chats drin. Am Ende jedes Chats sage ich: „Speichere den bitte als Word-Dokument in meinem Google Drive oder OneDrive ab." Dann greife ich später auf diese kumulierten Sammlungen von Word-Dokumenten zu, anstatt auf die ganzen Chats. Gehe ich die 20 Chats durch oder die 20 Word-Dokumente?
Barbara Lampl: Unter zwei Aspekten: Sobald du diese Memory-Funktion, diese Chat-Durchsuchfunktion nutzt, ist das unsere aktuelle Diskussion – ökologisches Nightmare. Aber es ist fachlich das eigentliche, viel größere Nightmare. Der ökologische Rückzug ist auf der Prioritätenliste ökologisch dumm, aber es ist noch viel dümmer. Sorry, wenn ich jetzt wieder alle anzünde und sage: Den Scheiß machen wir nicht. Tut mir leid. Ist so weit. Ich habe keine Lust mehr, euch zu verkaufen, als wäre das irgendwie okay. Ist es nicht. Ist falsch benutzt.
Jochen G. Fuchs: Ja, produziert Müll.
Barbara Lampl: Es ist fachlich falsch. Der Punkt ist: Es produziert Müll – ökologischen Müll. Aber es produziert Müll. Es gibt gar keinen Sinn, deine Chats aufzuheben. Du bist emotional attached zu deinem Chat. Du brauchst ursprünglich hoffentlich deinen möglichst guten Prompt in deiner verdammten Prompt Library und du brauchst das Output-Ergebnis. Alles andere kann weg, bitte. Ansonsten haben wir immer noch nicht verstanden, was KI richtig einsetzen heißt. Dieses Referenzieren in den Chats innerhalb eines Projektes lasse ich mir eventuell eingehen. Das mache ich vom Workflow her innerhalb eines Projektes ab und zu auch, aber eher selten. Zurück zu Control Freak. Da lasse ich mir das noch eingehen. Aber sowohl unter fachlichem Aspekt – ihr kennt meinen Standpunkt schon. Ihr könnt die Wege, die es beeinflusst, überhaupt nicht mehr nachvollziehen. Auf einmal habt ihr die letzten paar Wochen alles Grüne gemacht und eure Geburtstagsparty hat lauter grüne Farben drin und ihr wundert euch: Warum ist Grün entstanden? Das ist genau dieser Unsinn. Nochmal: Das LLM per se ist keine verdammte Suchmaschine. Es ist keine Memory-Funktion. Deswegen bin ich völlig bei dir. Macht das Sinn? Nein. Kann das in einem Projekt für den Workflow Sinn machen? Ja, aber es gibt einen richtigen und falschen Weg. Dazu zählt Memory-Funktion und Chat-Durchsuchung aus. Bitte löschen ist in Ordnung. Dieses Emotional Attachment zu digitalen Artefakten – ich habe letztes Mal, haltet euch fest, jetzt kommt's: Da wird auf diversen Social Media, TikTok und Instagram von den Fashion-Girlies diskutiert – zugegebenermaßen mit ironischem Unterton – dass sie eigentlich, weil die Qualität der Klamotten so schlecht geworden ist, ihre Sachen nicht mehr vererben können. Aber vererben sie dann ihr Pinterest- oder Instagram-Account, damit ihre Tochter mal sieht, wie stylish sie früher waren? Ja, Attachment zum digitalen Artefakt. That's gonna be interesting.
Jochen G. Fuchs: Ja, aber es sind die UIs, die uns präsentiert wurden, die das so züchten. Es ist nicht unbedingt eine emotionale Verbindung, sondern das Gefühl: Ich habe da was Nützliches produziert. Ich lasse das auf Halde liegen, ich will da vielleicht noch mal drauf zugreifen. Das ist wie bei den E-Mails. Mein Google-Postfach habe ich neulich aufgeräumt, weil ich es geschafft habe, in meinem privaten Gmail-Account – nicht in dem bezahlten, sondern in meinem privaten, der über Jahre Gigabytes dazu geschenkt gekriegt hat, weil Google damit Werbung gemacht hat – bis sie aufgehört haben, weil sie merkten: Shit, keine gute Idee. Ich habe es geschafft, das Limit zu erreichen. Google hat zu mir gesagt: „Du hast noch 500 MB, dann war's das mit E-Mails empfangen." Ich bin dann hergegangen und habe systematisch E-Mails gelöscht – sämtliche Newsletter und Senzen, weil ich zu dieser Sorte Mensch gehöre, für den Inbox Zero ein bescheuertes Konzept ist. Irgendwelche Leute kippen mir Zeug irgendwo rein und ich soll das aufräumen. Entschuldigung, ich räume doch nicht den Scheiß auf. Deswegen habe ich nichts gelöscht. Wirklich außer Rotze und Spam, der automatisch gelöscht wird. Dementsprechend geknackt. Ein Teil dieser gelebten Erfahrungen war: Wenn ich am Ende des Jahres an meiner Steuererklärung sitze und Rechnungen suche, kann ich mein Google-Postfach durchsuchen, die ganzen Rechnungen raussuchen, runterladen und habe sie. Das Gefühl, dass in dieser digitalen Auslagerung meines Kopfes etwas drin ist, was ich brauche, ist äquivalent zu: Ich lösche diese E-Mails lieber nicht, ich brauch die vielleicht nochmal. Diese Chats zu löschen ist dann schon bisschen... Ich mache ein banales Beispiel für dich. Ich habe ein Claude-Projekt, das Briefe produziert für Weihnachten und Wichtel. Das Ding muss im Auge behalten, was geschrieben wurde. Wenn ich das alles lösche, ist das weg. Wenn er die Chats durchsuchen kann und weiß, was ich geschrieben habe, ist das ein Vorteil für mich. Nur, was ich merke, weswegen ich grundsätzlich sehr misstrauisch bin mit der Memory-Funktion: Er schafft das gar nicht so richtig. Ich habe vorher einen Index der letzten Jahre des Schriftverkehrs mit dieser fiktiven Person erstellt, Personas bauen lassen und die Storylines zusammenfassen lassen – als Word-Dokument in das Projekt reingehängt. Wenn Claude auf diese referenzierten Dokumente mit dem vorher erstellten Content zugreift – das hat Claude selber gemacht, ich hab ihm die Briefe reingekippt und gesagt „Indizier das, erstelle die Inhalte" – sind die Ergebnisse, die rausplumpsen, deutlich solider, deutlich verlässlicher, kontinuierlicher, als wenn ich sage: „Durchsuch mal deine Chats und check, ob wir das schon erzählt haben." Er vergisst immer irgendwas.
Barbara Lampl: Herzlichen Glückwunsch, du hast Kontextoptimierung und den Benefit von Kontextoptimierung herausgefunden. Ich bin stolz auf dich, Jochen. Aber das ist genau das, was wir immer wieder sagen: Der Workflow, der Menschen, muss sauber sein.
Jochen G. Fuchs: Verbindlichsten Dank auch.
Barbara Lampl: Genau.
Jochen G. Fuchs: Was für mich bedeutet: Es ist nicht nur ein Öko-Thema, dass ich meine Chats aus diesem Projekt rauslösche. Sondern ich muss meinen Workflow anpassen. Nach jedem Chat, den ich generiert habe, packe ich den Output in einen festen, nicht-flüchtigen Speicher – in ein Word-Dokument. Wenn ich mit dem Projekt fertig bin, überlege ich: Bereite ich das, was ich an Artefakten abgespeichert habe, noch mal in einer strukturierten Form auf? Alle Personas, die erwähnt wurden, das Geschehen, die Storylines zusammenfassen und in ein Dokument überführen. Im nächsten Schritt, wenn das nächste Jahr kommt und Weihnachten zurückkommt und ich wieder darauf zurückgreifen muss, funktioniert das deutlich effizienter und besser. Ich tue mir keinen Gefallen damit, wenn ich diese Chats wie ein E-Mail-Postfach, wie Konversationen mit lebenden Menschen behandle und den Scheiß einfach aufbewahre. Ich schade auch meinem fachlichen Output, wenn ich mich darauf verlasse, dass ich auf diesen Mist später wieder zugreifen kann.
Barbara Lampl: Ja. Der Punkt ist: Wir sind hergekommen mit „Was ist KI-Infrastruktur, was ist der Unterschied?" Training versus Benutzen. Benutzen kann irrelevant sein. Am Ende des Tages sind die ökologischen Überlegungen wichtig und man kann sein eigenes Verhalten bis zu einem bestimmten Grad anpassen. Das Interessante ist – und das glaube ich ist das Take-Away von Jochens Story: Wenn dich die ökologische Überlegung dazu anfeuert aufzuräumen, ist mir das egal. Hauptsache, du tust es. Aber eigentlich ist die fachliche Variante die, von der ich hoffe, dass ihr die realisiert. In dem Fall ist es doppelt gut für alle – für euch, für euren Output. Und guckt mal einer an, bisschen Umwelt freut sich auch noch.
Jochen G. Fuchs: Extrinsische Motivation: Ökologie. Intrinsische Motivation: Der Scheiß funktioniert besser, der danach rausplumpst aus meinem KI-Assistenten. Okay, lass uns zum Abschluss einen kurzen Blick auf zwei Fragen werfen. Erstens: Was kann ich als Nutzer oder Unternehmen überhaupt tun, um den KI-Fußabdruck meiner KI-Nutzung, meiner Produkte einzuschätzen? Kann ich das überhaupt? Und wenn ja, was? Die letzte Frage wäre dann: Wie sieht es aus mit dieser Diskussion – bringt uns KI etwas auf dem Weg zur Rettung des Klimas, weil sie Effizienz reinbringt, oder schadet sie, weil sie so einen hohen Strom- und Ressourcenverbrauch hat?
Barbara Lampl: Was kann ein Unternehmen tun, um KI unter ökologischen Aspekten zu betrachten? Schwieriges Thema. Die Antwort haben wir gerade schon gegeben: Brain First. Dann gewinnen alle. Wenn wir Hirn zuerst einschalten und uns genau überlegen, wo KI ein sinnvoller Move ist – wir schmieren nicht das Kilo LLM auf alles, wir überlegen unsere Workflows – dann hast du damit auch immer in der Ökobilanz einen schlanken Fuß. Wenn ich hirnverbrannt alles über den Token jage, zahl ich doppelt und dreifach und ökologisch auch.
Jochen G. Fuchs: Ich dachte aber eher so in Richtung Messung. Viele machen Rechenschaftsberichte oder sagen: „Hey, wir sind ökologisch so und so viel CO2 haben wir verbraucht, so viel haben wir eingespart, so viel haben wir mit Goldstandard-Projekten und Wiederaufforstungen wieder reingeholt." Kann man es messen? Kann ich...
Barbara Lampl: Theoretisch gehört das natürlich in deine ESG-CO2-Bilanz. Die KI-Projekte werden da gegengerechnet und Teil davon. Aber wie gesagt, am Ende des Tages sehe ich aktuell, dass die KI-Projekte nur ein kleiner Teil der großen IT-Projekte und der großen Datenprojekte sind. So hart es klingt: Meistens muss ich erst gucken, wie ich unsere Cloud-Kosten in den Griff bekomme, bevor ich meine Ökobilanz in den Griff bekomme. Das ist beides ein Dead-Gap-Away, das beides zusammengehört und für zwei eine Variante ist. Klar kannst du Gegenleistungen machen in irgendeiner Art.
Jochen G. Fuchs: Okay, bei mir persönlich ist noch eine kleine Zwischenfrage, bevor wir zum Thema „Rettet KI das Klima?" kommen. Edge AI – wenn mein iOS-Gerät eine Übersetzung direkt auf dem Gerät durchführt oder eine Transkription direkt auf dem Gerät, anstatt sie in die Cloud zu laden – ist für mich immer auch Thema Energiesparen gewesen. Ich habe die Cloud-Infrastruktur nicht noch belastet, es wird auf dem Gerät ausgeführt. Wenn ich diesen Gedanken auf Unternehmen übersetze und frage: Wenn ich mir den Aufwand betreibe, mir ein lokales LLM – keine Ahnung, ein DeepSeek oder sowas – auf einen eigenen Rechner installiere und im Kontext des Unternehmens betreibe, bietet mir das irgendeinen Vorteil im Vergleich zur Cloud-Infrastruktur? Habe ich dann wahnsinnig viel fürs Klima getan oder ist es...?
Barbara Lampl: Also unter Klima würde ich diese Entscheidung nicht treffen. Wenn es deine Klimaentscheidung ist, ist es eine eigene Entscheidung – im Sinne von eigenartig. Es sollte andere Entscheidungspunkte geben, warum du eine On-Prem-Solution fährst. Ob das im kleinsten Fall eine Edge AI ist, wie ich sie im Telefon habe, oder ob das die große Diskussion aus Datensicherheitsüberlegungen, aus Effizienzgründen ist – es gibt viele Begründungen. Dann kann die ökologische eine zusätzliche sein. Wenn man es hart durchrechnet: Das Benutzen der KI versus das Training der KI ist so riesig im Unterschied, dass es nicht so den Unterschied macht, wenn du DeepSeek bei dir On-Prem laufen lässt. Das Ding ist ja schon trainiert worden. Du bist der letzte Prozentpunkt. Und dann vielleicht anderthalb Prozentpunkte, wenn es in der Cloud gelaufen ist.
Jochen G. Fuchs: Okay, verstehe. Gut, alles klar. Letzte Frage: Wie sieht es aus mit dem Thema „Die KI rettet unser Klima", weil sie uns Effizienz bringt und vielleicht neue Lösungen aufzeigt, die wir bisher noch nicht gesehen haben?
Barbara Lampl: Den Effizienzgewinn kann man unter verschiedenen Aspekten betrachten. Gerade sind wir da definitiv nicht, weil wir mehr Ressourcen brauchen, die Modelle zu trainieren, als sie zu nutzen. Auf der anderen Seite hatten wir das schon in anderen Folgen: Guckt euch die Waymo-Zahlen an. Autonomous Self-Driving Cars können dadurch, dass sie sich an die Verkehrsregeln halten, auch die Todeszahlen senken, Verkehrsunfälle senken. Damit umregnet es auch wieder das Auto und seine CO2-Belastung im Stadtverkehr, weil keiner den Motor hochdreht und an der Ampel hoch beschleunigt. Wir wissen: Systeme, die sich an die Regeln halten, sind effizienter. Es gibt eine interessante Auswertung zur Smog-Belastung in Großstädten. Du müsstest nur identifizieren, was die fünf Prozent derer sind, bei denen die Katalysatoren kaputt sind oder die Autos zu alt sind. Dann würdest du die Smog-Belastung runterbekommen. Das sind Möglichkeiten. Könnten wir über Systeme, die sich an die Regeln halten – was auch KI-Systeme könnten – bestimmte Belastungsszenarien nach unten bringen? Das wäre Variante 1. Variante 2: System, GenAI-Systeme oder Machine-Learning-Systeme sind so mächtig, uns bei der Klimakrise zu helfen. Sind sie. Erstens: Ohne diese großen, mächtigen Systeme wären die Simulationsrechnungen, wie das mit der Klimakrise weitergeht, gar nicht möglich gewesen. Wir brauchen manchmal diese Modelle, um die Simulationen überhaupt zu rechnen. Wenn wir uns angucken, welche Durchbrüche Gen.AI auf der Impfstoffentwicklung, der Medikamentenentwicklung und in der Personalized Medicine bringt, würde ich sagen: Es ist nicht ganz von der Hand zu weisen. Ob das in Relation zu dem Preis steht, den wir beim überbordenden LLM-Hype zahlen – das steht auf einer anderen Achse. Aber grundsätzlich besteht eine hohe Chance, dass hocheffiziente Algorithmik bei der Klimakrise oder bei neuen Lösungsansätzen hilft. Auf der anderen Seite, Spoiler: Wir kennen ja eigentlich den Grund für die Klimakrise. Das sind wir Menschen. Dafür, dass uns die Klimabilanz regelmäßig egal ist und wir im Allen zu viel CO2 rausschmeißen. Jo, deswegen – Root Cause haben wir identifiziert. Vielleicht kommt das Ding auf neue Überlegungen. Es ist aber auch immer so bisschen... Ich kenn niemanden, der wirklich hinschaut und sagt, Gen.AI würde uns die Klimakrise lösen. Ich weiß nicht, wo dieser Mythos herkommt. Das sind zwei Devs, die sich überlegt haben, das ist ein geiler Pitch für ein Start-up. Seitdem hat das ein Eigenleben bekommen. AI for Good existiert, aber ob wir jetzt AI for Good an der Stelle auch noch schmeißen müssen, halte ich für etwas diskutabel.
Jochen G. Fuchs: Ja, es gibt ein paar sehr laute KI-Kritiker, die sagen, dass die KI uns in den Abgrund stürzt, weil der ganze KI-Slop die CO2-Emissionen so hochballern würde.
Barbara Lampl: Gut, der Punkt ist: Mir fällt es zwischenzeitlich echt schwer, die ganzen KI-Kritiker teilweise noch ernst zu nehmen. Weil, da ist natürlich was dran, aber mir fällt es schwer. Wir haben jeden Tag fünf mehr Leute, die hypen, vier mehr Kritiker. Wir denken: Wir müssen es doch differenziert betrachten. Wenn das Take-Away von dieser Erklär-Bär-Folge ist: KI-Infrastruktur werdet ihr nie in eurem Leben bauen. Ihr werdet nur Nutzer sein. Diese Nutzung ermöglicht euch bei sinnvollem Einsatz einen massiven Mehrwert. Könnten wir uns mal darauf fokussieren? Heißt das, dass ich sie für allen Unsinn benutze? Nein. Das Gehirn ist an der Stelle immer noch unschlagbar aus vielen Gründen. Sind das wichtige Punkte, die diskutiert werden müssen? Ökobilanz, sonst irgendwas? Aber da sind wir ein ganz kleines Rädchen im Getriebe. Gut, ich vielleicht das pseudomäßige Größere, weil ich die Modelle auch wirklich mitbaue – nicht aktuell LLM, aber eigene Modelle auf der Predictive auch im großen Scale schon auf Hochlastungsrechnern trainiert habe. Aber da müssen wir als Gesellschaft die Diskussion führen. Der Einzelne hat durch seine Nutzung relativ wenig Hebel. Da ist die Flugreise schon eher der größere Hebel, massiv größer als die Nutzung von ChatGPT. Deswegen heißt nicht, dass die Diskussion irrelevant ist. Auf der anderen Seite ist es so: Wir haben in Deutschland immer dieses „Wir bashen heute die KI mal wieder zum 35. Kritiker". Kinder, differenziertes Bild heißt differenziertes Bild und nicht Übersimplifizierung und Trivialisierung der Materie.
Jochen G. Fuchs: Auch das klingt nach einem guten Schlusswort für die heutige Folge. Das Plädoyer gegen Trivialisierung und Überbanalisierung – oder was andersrum. Herzlichen Dank, dass ihr uns bis zu dieser Stelle gefolgt seid.
Barbara Lampl: Irgendwie so ähnlich. Frau Lampl und ihr Schlusswort.
Jochen G. Fuchs: Wir freuen uns, wenn ihr beim nächsten Mal wieder einschaltet – herzlich willkommen bei eurem neuen KI-Lieblingspodcast, LAIer 8|9. Bis bald, tschüss.
Barbara Lampl: Tschüss!
Neuer Kommentar