AI killed the SaaS-Star? Und: Autonomous Commerce - Pipe Dream oder Legal Nightmare?
Shownotes
🤖 Autonomous Commerce: Pipe Dream oder Legal Nightmare?
Jochen war in Paris (oui oui!) und hat dort bei Criteo gelernt, dass vollautonomer E-Commerce ein Pipe Dream ist. Aber nicht aus den Gründen, die du denkst. Spoiler: Die Juristen haben das letzte Wort, nicht die Tech-Bros.
In dieser Folge diskutieren wir:
🔴 Warum “Fully Autonomous Commerce” rechtlich gesehen etwa so realistisch ist wie ein Vertragsabschluss zwischen zwei Toastern
🔴 OpenAI will Marktplatz werden – aber was ist mit den 700 Milliarden Transaktionsdaten von Criteo? Wettrennen oder Totgesagte leben länger?
🔴 SaaS-Branche ist tot! Oder doch nicht? Spoiler: Es ist komplizierter (Barbara’s Lieblingsantwort)
🔴 AI-driven Software Engineering: Wer jetzt noch nicht dabei ist, darf dem Zug hinterherrennen
🔴 Build vs. Buy in der AI-Ära: Wann sind spezialisierte Tools obsolet und wann unverzichtbar?
🔴 Imagen 3 macht aus deinen SQL-Daten schicke Charts – RIP spezialisierte Visualisierungs-Tools (zumindest die Basic-Ones)
🔴 Multi-Agent-Orchestrierung in Full Prod – Barbara’s Team hat es geschafft! (November 2025, Standing Ovation)
🔴 Plattformökonomie 101: Warum du bei Amazon nach Kaffeetassen mit Skeletten suchst und nicht direkt beim Hersteller
🔴 Die Faulheits-Formel: Wer das faulste Produkt baut, gewinnt. Und wir rennen alle wie die Lemminge dahin.
🔴 China’s Masterstroke: Baidu verschenkt Ernie Bot seit April 2025 – ja, komplett gratis. Subscription-Model? Cancelled.
🔴 Foundation Models in Deutschland bauen? Barbara sagt: “Der Drops ist gelutscht ohne Ende”
🔴 Die Nerds feiern ihr Comeback – ihr habt 2023-2025 gedacht, ihr kommt ohne uns aus. Surprise!
🔴 Positive Vibes zum Schluss: LLMs sind Mature Technology, wir müssen nicht mehr warten, sondern endlich implementieren
🔴 Waymo-Daten zeigen: 30% autonome Taxis in Städten = weniger Verkehrstote. Das ist mal Technologie mit Packer Punch!
📚 LINKS & RESSOURCEN Im Podcast erwähnt: • Criteo Ad-Tech-Plattform: https://www.criteo.com/ • OpenAI Operator (Shopping Agent): https://openai.com/index/introducing-operator/ • Google Imagen 3: https://deepmind.google/technologies/imagen-3/ • Baidu Ernie Bot: https://yiyan.baidu.com/ • Waymo Safety Research: https://waymo.com/safety/
⏱️ KAPITEL-MARKER
[00:00] Begrüßung und Criteo Event Paris [04:42] Die Komplexität von AI-Disruption [06:25] AI-driven Software Engineering [11:01] Rechtliche Hürden bei autonomem Commerce [13:42] Daten als Wettbewerbsvorteil [17:37] Plattformökonomie und Geschäftsmodelle [22:51] Foundation Models und der deutsche Ansatz [24:52] Chinas Gratisoffensive bei LLMs [27:32] Positive Botschaft: LLMs als Mature Technology [29:24] Waymo und die Zukunft autonomer Mobilität
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein Entrinnen!
- [Apple] https://podcasts.apple.com/podcast/id1798319508
- [Deezer] https://www.deezer.com/de/show/1001665971
- [Spotify] https://open.spotify.com/show/2IfqJA4Qo02fslECWpEQW8
- [Amazon Music] https://music.amazon.de/podcasts/497c3a14-dcaf-4bb3-abc1-03aa6f73f8d3/laier-8-9—noch’n-ki-podcast
- [Youtube Video-Podcast] https://www.youtube.com/@laier89
Unsere Hosts AI Babsi (Barbara): [Website] https://www.barbara-lampl.de | [LinkedIn] https://www.linkedin.com/in/barbaralampl/ E-Fuchs (Jochen): [Website] https://efuchs.net | [LinkedIn] https://www.linkedin.com/in/jochengfuchs/
Unser Podcast Blog https://www.laier89.de/
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt’s hier Keyword-Stuff.
🥳 Danke, dass du LAIer 8|9 eingeschaltet hast! Möge die KI mit dir sein!
Schreib uns eine Bewertung mit dem KI-Modell deiner Wahl und abonniere uns auf deiner Lieblingsplattform, wir sind überall, es gibt kein entrinnen!
- [Apple] https://podcasts.apple.com/podcast/id1798319508
- [Deezer]https://www.deezer.com/de/show/1001665971
- [Spotify]https://open.spotify.com/show/2IfqJA4Qo02fslECWpEQW8
- [Amazon Music] https://music.amazon.de/podcasts/497c3a14-dcaf-4bb3-abc1-03aa6f73f8d3/laier-8-9---noch'n-ki-podcast
- [Youtube Video-Podcast)] https://www.youtube.com/@laier89
Unsere Hosts AI Babsi: (Barbara) [Website] https://www.barbara-lampl.de | [LinkedIn] https://www.linkedin.com/in/barbaralampl/ - E-Fuchs: (Jochen) [Website] https://efuchs.net | [LinkedIn] https://www.linkedin.com/in/jochengfuchs/
Unser Podcast Blog https:///www.laier89.de/
01001100 01110101 01101011 01100101 00101100 00100000 01001001 01100011 01101000 00100000 01100010 01101001 01101110 00100000 01100100 01100101 01101001 01101110 00100000 01001011 01001001 00101101 01010000 01101111 01100100 01100011 01100001 01110011 01110100 00100000 01001100 01000001 01001001 01100101 01110010 00100000 00111000 01111100 00111001 00101110
LAIer 8|9 wird nicht Layer 89 oder Layer 8|9 geschrieben, auch nicht Layer 8 9, aber wir sind cool und wir sind tough, deshalb gibt's hier Keyword-Stuff.
Transkript anzeigen
Jochen G. Fuchs: Hallo und herzlich willkommen zu einer neuen Folge deines KI Lieblings Podcasts, Layer 8.9. Hallo Barbara!
Barbara Lampl: Hallo Jochen, da sind wir wieder. Wir testen das mal wieder, eine neue Podcast-Folge.
Jochen G. Fuchs: gigantisch und wir erzählen den Leuten jetzt lieber nicht was für Probleme wir mit unseren Steckern hatten. Ja, Barbara, ich bin gerade aus Paris zurückgekommen. war da auf einem kleinen Event von einer Atec-Plattform namens Criteo und saß da so rum. Die hatten natürlich irgendwie ein paar tolle Agents gebastelt, die sie vorstellen wollten und ich hatte aber so bisschen Eindruck, ihnen ging es vor allen Dingen darum,
Barbara Lampl: Besser nicht, das ist ein bisschen peinlich. Das lassen wir.
Jochen G. Fuchs: so ein bisschen darauf hinzuweisen, dass die Kollegen von OpenAI und Co., die jetzt ja alle ganz viel Wirbel machen mit Shopping Research und die natürlich ein Stück vom Kuchen haben wollen. OpenAI möchte sich ganz gerne als Erlösstrom, ja wie soll ich sagen, ich persönlich bezeichne das so bisschen als Marktplatz platzieren. Und die Kollegen weisen eben darauf hin. Was hatten sie da für einen schönen Satz? Automatic Commerce is a Pipe Dream. Hatte ich auf irgendeiner Slide gesehen. Und das hat mich so ein bisschen an die Anfangszeit von dem Hype erinnert. Ich weiß noch, wie ich da saß, als bei Claude das erste Mal so die Möglichkeiten aufgetaucht sind, kleine Interfaces zu... programmieren und ich habe dann Interface gemacht und habe damit irgendwie irgendwelche Social Media Posts ausgewählt, die ich mir habe Headlines generieren lassen, was weiß ich. Und Sastan Soudan sagte, boah, das wird jetzt aber hart für die Saarse-Branche, wenn jetzt jeder anfangen kann, sich seine eigenen kleinen Anwendungen zu schreiben. Wozu brauchen wir die dann überhaupt natürlich? Wie das so ist mit den Journalisten, wenn sie mal irgendwie auf eine schräge Idee gekommen sind, reißen sie sofort die große Klappe auf und hauen das raus. Ich bin mir mehr ganz sicher, was der Titel damals war. Die SARS-Branche ist so gut wie tot. Irgendwas in die Richtung wird es gewesen sein. Schnitt einige Monate später. Jochen sitzt da und denkt sich, naja, ganz so einfach ist die Geschichte dann doch nicht. Ja, und daran fühlte ich mich wieder so zurückerinnert, weil die Diskussion, gab es ja tatsächlich. dass uns alle überrollt und überschwemmt hat. und vor allen Dingen OpenAI eben sehr groß damit tönt, was ihre Agents und was Chatchie P.T., die Frontier Modelle alles so können und was sie alles ersetzen können, kam natürlich irgendwann auch die Frage, welchen Layer braucht man denn dann noch? Braucht man dann in Adobe das eigene Agenten-Baut noch tatsächlich oder braucht man beispielsweise ein Kriteo, diese Ad-Tech-Plattform, die die Retail-Media-Anzeigen und Produkt-Recognitions ausspielt noch und Die sitzen natürlich in Paris auf ihrem Event und sagten, ja selbstverständlich braucht man uns, weil wir sitzen auf 700 Milliarden Transaktionsdaten, ich hoffe ich habe die Zahl richtig im Kopf, und können dementsprechend unglaublich viel Kontext liefern. Okay, jetzt weiß ich von meinen Promts, Kontext ist King. Wenn ich nicht den richtigen Kontext mit reingebe, dann kommt da nur Rotz dabei raus. Wenn ich dem sage, empfehle mir bitte eine Wanderhose, dann kriege ich halt irgendein Scheiß ins Gesicht geschmissen. Wenn ich ihm sage, liefer mir bitte eine Wanderhose, ich bin 42, ich wandere normalerweise nicht alpin, sondern irgendwo im Mittelgebirge, keine Minusgrade, ich brauche eher was, was Feuchtigkeit abtransportiert. Zack, kriege ich eine bessere Produktempfehlung. Also verstehe ich soweit. Jetzt frage ich mich natürlich nur... Erste Frage ist, was ist denn dann, wenn aber OpenAI einmal auf 700 Milliarden Transaktionen sitzt in ihrem Marktplatz, machen sie die dann trotzdem obsolet? Also ist das jetzt im Moment ein Wettrennen? Ist das ein Vorteil, den so eine SaaS-Plattform jetzt im Moment noch hat, aber droht zu verlieren, in Anführungszeichen? Das ist so das eine. Und die andere Frage ist ja so dieses General Purpose Model. Hier Kriteo beispielsweise hat eben gezeigt, okay wir haben hier Modelle, die auf diesen Task trainiert sind und das dementsprechend auch besser können als so ein general purpose model. saß ich da und dachte mir, ja das weiß ich, kenne ich die Thematik. Ja, sag mal Barbara.
Barbara Lampl: Jetzt kommt der Nerd um die Ecke und sagt, ja und nein und vielleicht und ... Übrigens ist alles ein bisschen komplexer.
Jochen G. Fuchs: Du kriegst zu Weihnachten so ein T-Shirt auf dem steht, das ist alles etwas komplexer.
Barbara Lampl: Definitiv, ich glaube, das brauche ich langsam. Fangen wir mal ganz vorne an. ja, ich fand das damals sehr, lustig und das geistert auch immer noch so bisschen durch die Gegend. Wir brauchen jetzt ja keine Software-ASA Service an die Anbieter mehr. Danach kamen, wir brauchen keine Software-Engineers mehr. Jetzt rudern alle wieder so bisschen zurück und dann sage ich selbst da, ja, aber ihr habt teilweise sogar recht, aber anders als ihr denkt. Und das ist im Prinzip auch das, mit den Agents, den welche Daten hat OpenAI und so weiter, eigentlich auch genau der Fall. Fangen wir mal ein bisschen vorne an. Klar, als Claude oder sonst irgend ein Tool das erste Mal so richtig in der Lage war, dass Wipe Coding so hingehauen hat, dass das Ganze irgendwie eine React-Oberfläche gezaubert hat, war ich auch ganz voll auf begeistert. Mein Hirn kam aber zu einer anderen Schlussfolgerung und zwar Der Schlussfolgerung, super, das heißt, ich kann jetzt den Prototypen, mit dem ich sonst natürlich alle in 35.000 Schleifen selbst genervt habe, wozu auch keiner im Team Bock hatte, sich mit mir überhaupt hinzusetzen, also Management kommt die Ecke, superschnell runterbauen, kann das weitergeben, das heißt, geliebtes Rapid Prototyping ist endlich rapid geworden. Und zwar insbesondere ohne die begrenzte Ressource human. Das heißt, ich muss jetzt nicht irgendwie zehn Devs irgendeinem Meeting beklauen und sonst irgendwas. Heißt, ich bin in der Lage, Rapid Prototyping abzuliefern. Mega. So.
Jochen G. Fuchs: Das war auch so etwas, ich instant verstanden habe, weil ich ja vorher Product Owner, dann bastelst du mit Figma ein Layout, schmeißt das in Entwicklern hin, die schicken dir wieder ein MVP zurück und kann ich jetzt selber machen, in Anführungszeichen.
Barbara Lampl: Genau, so die nächste Stufe. Und jetzt kommt es zu einem interessanten Punkt. Und jetzt teilt sich ja dann im Prinzip zwei Dinge auf. Und die Schlussfolgerung ist eigentlich jetzt, okay, der klassische Software-Engineer, den brauchen wir wirklich nicht mehr. Aber nicht, dass wir ihn nicht brauchen, sondern der muss sich so wie alle anderen Berufe eventuell sogar als allererstes weiterentwickeln zu dem, was wir immer AI-driven XY nennen. Also in dem Fall AI-driven Software Engineering. Das heißt, dass die Mächtigkeit der LLMs, der Tools, sei es jetzt ein Code, oder ein Codex oder ein Cursor oder was auch immer, man merkt schon, dass GitHub so ein bisschen an der Copilot so ein bisschen in den Hintergrund getreten ist. Aber das ist AI-Driven Software Engineering. Das verändert alles. Warum auch klar, weil ich meine, aus einer tieftechnischen Perspektive, da sieht's Rapid Prototyping ja schon anders aus. Das heißt, wir haben einen kompletten Umwurf in der Softwareentwicklung, massiven Umwurf. Ja, auch mit anderen Herausforderungen, aber ja, das verändert sich. Und ehrlicherweise, noch nicht an der Stelle ist, AI-driven Software Engineering sauber zu betreiben, der hat den Zug auch schon ein bisschen verpasst und darf jetzt im Zug auch schon hinterherrennen. Sehen wir sehr krass in dem, performante AI-driven Software Engineers Teams versus, wir sind da im explorativen Selbstprozess, performen. Also das mal das. Und dann kommen wir im Prinzip die nächste Schlussfolgerung, okay, sind jetzt Software- oder Service-Companies eigentlich komplett angezählt. Und jetzt wird's spannend. In Teilen ja, in Teilen nicht. Denn jetzt kommt's auf den Komplexitätgrad an von so einer Software, die gelivert wird. Und ich fand das Beispiel, was mit NaDu Banana Pro gerade, also dem total frischen Release von Google, dem wohl mit einem mächtigsten Bildmodell, was wir gerade haben, gerade geliefert worden ist. Und zwar kannst du im Prinzip total geil deine ... SQL-Data in dein Nano-Banana-Proschen, quasi eine Dynamic-Build-Generierung zu machen und endlich mal eine schicke Datenvisualisierung zu machen. Dafür gibt es spezialisierte Tools, dafür zahlst du im Normalfall auch und dann hast du da dein dynamisches 30 Tage rollierendes Bildchen für deinen Slack-Channel quasi fertig. no freaking time. Das heißt, würde nur auf diesem Baustein eine Software aufbauen, dann sind die angezählt. Komplett. Kriegt das Ding aktuell stabil komplexere Sachen hin? Ja, natürlich nicht. Und jetzt kommt es zu diesen, warum es ja immer wieder so eine Diskussion gibt und warum ich immer sage, es ist komplexer und wir müssen das massierter betrachten. Denn was ist jetzt der einfache Use Case, wo ich die Software oder die Spezialisierung einfach nicht mehr brauche und das im Zweifelsfall wirklich mehr Sinn auch macht, dass in dem Grad, wo ich es brauche, wahrscheinlich sogar selber zu tun. Das heißt aber nicht, dass das überflüssig geworden ist. wenn der Funktionsumfang größer ist. Und haben wir natürlich Software-Service-Companies, die im Prinzip Basic Stuff für viel Geld verkaufen, sind die angezählt ziemlich sicher. Haben wir andere Sachen, wo du sagst, nee, die Spezialisierung ist auf jeden Fall da und ein eigener Build macht überhaupt gar keinen Sinn, buy macht zehnmal mehr Sinn, weil auch, damit ich mich im Zweifelsfall auch hausintern auf andere Sachen konzentrieren kann, genauso. Aber ja, der komplette Markt an der Stelle ist disruptiert und mit jeder Weiterentwicklung ist das natürlich der nächste Schritt, wir gehen. Und der nächste Schritt, den wir gerade sehen, ist raus aus zum Beispiel in dem Fall software driven AI, AI driven Softwareentwicklung und wie komplex sind Produkte, die wir überhaupt noch einkaufen und was machen wir wirklich selber Bild, ist halt diese nächste Stufe. Wie sieht es im E-Commerce, im Shopping Experience aus und wie verhält sich das jetzt in diesem Na ja, also 2025 war sicherlich nicht das Jahr der Agenten, aber der Jahr, wo wir ganz viel über Agenten gesprochen haben, die außer Rapid Prototyping nichts können. Jetzt sind wir zum ersten Mal, auch wir Hausintern haben es zum ersten Mal geschafft, Agent, Multi Agent Orchestrierung in Full Prod sauber abzusegnen und in den Full Prod Release freizugeben. November 2025 bin ich sehr stolz auf alle Beteiligten, insbesondere die Teams bei den Kunden. Bombenleistung hat uns echt Nerven gekostet. Geht also, der Aufwand ist ein anderer. Und jetzt kommen wir zu dieser Diskussion, die natürlich jetzt stattfindet. Okay, was kann OpenAI deliveren? Was können andere Player liefern? Und wie kommt ihr zum Beispiel da, wo du eingeladen bist oder warst? Wie funktioniert das eigentlich? Und ist dieses Argument wirklich valide? Wie war das jetzt noch mal dein lustiges Zitat? Automated, was war das jetzt? Automated e-Commerceser Pipetream? Oder wie war das jetzt?
Jochen G. Fuchs: Also Fully Autonomous Commerce is a Pipe Dream war das.
Barbara Lampl: Ja. Und das ist lustigerweise sogar wahr, aber aus einem ganz anderen Grund. Rate mal, aus welchem Grund.
Jochen G. Fuchs: weil wir nichts voll autonomes haben.
Barbara Lampl: Nee, nee, viel simpler. Wie sieht ein Vertragsabschluss zwischen zwei Agenten aus, wenn sie voll autonom sind?
Jochen G. Fuchs: Naja, du hast niemanden, der deine eindeutige Willenserklärung abgeben kann.
Barbara Lampl: Richtig, der Vertragsabschluss zwischen zwei nicht-legel ... Wie soll der Vertragsabschluss zusammenkommen? Wir haben überhaupt eine rechtliche Blank-Slay. Wie kommt denn der verdammte Vertragsabschluss zustande?
Jochen G. Fuchs: Ja gut, das verstehe ich, aber wird da nicht irgendeiner kommen und argumentieren, so die Willenserklärung passiert quasi durch das Absenden des Agents?
Barbara Lampl: Bei einem Fully Autonomous soll der Mensch willensack ... Wann genau? Sorry, Freunde der Nacht. Fully Autonomous ist rechtlich so dermaßen ungeklärt im B2C-Bereich. Wie soll denn das hin?
Jochen G. Fuchs: Ja, ja, verstehe.
Barbara Lampl: ... Also, deswegen ist, also in dem Fall, Shoutout an Liegl, in dem Fall seid ihr dafür in Charge, dass diese Aussage aktuell sehr solide hält. Selbst wenn Tech es vielleicht irgendwann bauen könnte, müssten wir das mal geklärt haben. Nochmal, besonders im B2C. Ein vollautomatisiertes Entscheidungssystem kann, das existiert in keiner Rechtsprechung der Welt, dass das B2C irgendwie wird abschließend. Aber das funktioniert ja gar nicht. Weil, wie soll denn das sein? Also, du musst ja den Abschluss, den Kaufvorgang nachvollziehen können. Das Widerspruchsrecht alleine erübrigt sich ja nicht, wenn das Ding mal von deiner Kreditkarte abgebucht hat. willst du argumentieren? Das war aber jetzt mein Agent. Okay, das wird ein bisschen lustig. Das heißt, wir haben hier, und das finde ich ganz den entscheidenden Punkt. Wenn wir das jetzt mal sauber durchdenken und selbst wenn wir technisch dazu aktuell in der Lage wären, was wir vielleicht sogar in einem Mini-Environment, ehrlicherweise sogar gestemmt bekommen würden, nicht Prod, nicht Scale, dann laufen wir in eine ... echte Realitätshürde hinein. Denn in der Realität kann das nicht funktionieren. Das funktioniert in einem Sandboxing, das funktioniert in einem Testing, aber den Realitätscheck überlebt das nicht. Das heißt, der Realitätscheck ist momentan sicherlich mit einer der wichtigsten Punkte, die wir immer wieder uns diskutieren müssen. Und wie gesagt, meine Lieblingsfrage ist häufiger so, wie stellen sich jetzt eigentlich die Rechtssicherheit ihres autonomen Vertragsabschlusses vor? Dann schweigen meistens schon mal alle. Deswegen so. Jetzt gucken wir uns mal die Technik-Seite an. Haben jetzt diese Player, da sagen, wir haben ja die Daten, eine wahre Aussage? Ja, natürlich. Wie sie das jetzt aber als Produkt anbieten und ob das ein sinnvolles Produkt ist, da steht wieder auf einer anderen Seite. Weil, jetzt mal ernsthaft, bei einer knapp 1 Milliarde Nutzer auf Chetchupitie versus eine Firma, wahrscheinlich außer tief im Ad-Tech-Business noch nie jemand gehört hat. Wo soll der Konsument jetzt genau hingehen?
Jochen G. Fuchs: Ja, ich meine, die werden natürlich sagen, ist uns ja egal, wo der Konsument hingeht, der geht zu unseren Kunden, der geht bei unseren Kunden einkaufen, der kommt ja nicht zu uns.
Barbara Lampl: Genau, aber das ist ja schon das Bottleneck. Und da fängt es ja schon an. In einer Welt, wo definitiv Nutzenden von ChatGPT keine Links mehr klicken, keine sonst irgendwas, da muss der Kunde ja quasi in ChatGPT irgendwie drin sein. Kann der dann innerhalb von ChatGPT mit diesem wem auch immer gearteten Ad-Tech-Unternehmen was liefern? Ja, aber am grundsätzlichen Problem ändert das ja erst mal nichts, dass diese Frage ja erst mal der Prozess erst mal durchdacht werden muss. Und das ist immer das, was ich momentan mit am interessantesten finde. wo ich dann ehrlicherweise teilweise mit einer Legal Antwort die Ecke komme oder mit einer, okay, da sind wir vielleicht wirklich technisch noch nicht. Als letztes nach dem Motto, wie genau soll der Prozess eures Produktes jetzt genau was hebeln und abbilden? Das heißt, bietet jetzt der Kunde auf seiner Website die bessere Shopping Experience oder will der Kunde stärker, also keine Ahnung, irgendein Unternehmen, was, keine Ahnung, Kaffeetassen verkauft? Und da bei dem EdTech Unternehmen Kunde ist, was genau sind, also der Kunde, wer, was, wann, wo, wie, wo liegt der Vorteil jetzt? Oder, also das ist halt genau das, was ich halt dann immer wieder dann sage, so, welcher Architektur vom Prozess habt ihr euch eigentlich überlegt, welches Problem hebelt das?
Jochen G. Fuchs: Also bei denen geht es wohl darum, dass sie halt auf Verhaltensdaten, also auf Behavioral Datasets sitzen, weil sie sehr, viele Touchpoints haben, die die komplette Transaktion, also die gesamte Customer Journey hindurch betrachten, begleiten und aufzeichnen, in Anführungszeichen. naja, bei Trillion, Billionen, bei einer Billion Transaktionen haben sie halt eine Gesamtheit an Daten, auf die Sie zugreifen können und abstreichieren daraus dann halt Verhaltensregeln, die Sie dann für Produktempfehlungen oder für Werbeauspielungen an Ihre Kunden benutzen.
Barbara Lampl: Genau. Aber die Frage ist ja, wem und wie.
Jochen G. Fuchs: Hm?
Barbara Lampl: Ja, genau. Aber noch mal. Der Wert liegt sehr wohl in den Daten. Da brauchen wir nicht drüber diskutieren. Diese Firma hat einen unglaublichen Datenschatz. Völlig. Aber die Frage ist jetzt, wer greift auf die Daten zu? Und in welcher Art und Weise? Kriegen die einen Vertrag mit OpenAI abgeschlossen? Oder schließen die einen Vertrag mit meinem Kaffeetassenhersteller ab? Weil sie glauben, dass der Kaffentasser Das ist die entscheidende Frage. Würde dieses Unternehmen, und das tun auch viele andere, einen Vertrag mit OpenAI abschließen, dass OpenAI auf diese Daten irgendwie zugreifen könnte für eine bessere Shopping Experience, dann würde dieses Unternehmen sehr viel Geld verdienen. Bauen Sie eine Outside-Architecture, die nur den Kunden zur Verfügung steht, dann verdienen Sie aktuell Geld, weil das Shopping-Verhalten nicht aus OpenAI geprägt ist. Aber wir wissen, irgendwann müssen wir quasi in die Welt von diesen ganzen Chat-Anbietungen, diese Super-Apps, wer auch immer das Super-App nachher am Ende des Tages hat. Aber das sind diese Fragen und das meine ich mir immer. ist einen ganzen Tacken komplizierter, weil eventuell eine Lösung, die jetzt gerade für meine lustige Kaffeetassenhersteller mit Skeletten drauf als Behavioural Datasite total spannend ist, weil es diesen Commerce Punkt hebeln kann, das bedeutet aber noch lange nicht, dass wir eventuell in sechs Monaten oder in zwei Jahren nicht an dem Punkt sind, dass die Idee, die sie dahinter hatten, völlig tot ist. Und momentan wissen wir auch das. Und das meine ich immer wieder mit. Es ist den ganzen Tacken komplexer. Haben die ein mega Bombenasset auf ihrer Seite als Firma? Definitiv. Haben die Kunden was davon, wenn sie mit diesen Daten arbeiten, auch was? Aber die Frage ist ja immer, wie verändert sich mein eigenes Geschäftsmodell in einem disruptiven AI-Zeitalter? Und das heißt, ich kann eine Lösung eventuell gerade jemanden anbieten, die ich in sechs Monaten in die Tonne kloppen muss und mit ganz anderen Playern arbeiten muss. Und das ist halt das, was die meisten Firmen
Jochen G. Fuchs: Ja, aber liegt das im Moment dann einfach am, wie soll ich sagen, daran, dass irgendwann so ein Point of No Return kommt, sprich, das ist so was, was bei mir im Hinterkopf rumschwenkt, wo ich mir denke, wenn man es schafft, zu der langsam heranwachsenden Plattform Open AI, also zu dem E-Commerce-Marktplatz, ein Gegengewicht zu schaffen, indem eben direkt bei den Retailern, bei den Brands
Barbara Lampl: egal wer das ist und mit wem ich spreche, massiv unterschätzen.
Jochen G. Fuchs: eventuell auch über irgendeine Tech-Plattform jemand dazwischen sitzt, der im Prinzip mindestens das gleiche liefern kann, als das, OpenAI mit seiner Shopping Experience oder Customer Experience herliefert. Oder vielleicht sogar besser, weil er im Moment noch auf den besseren Datensätzen sitzt. kann man ja ein Gegengewicht schaffen. irgendwie für mich hängt das Gefühl viel davon ab, ob die Leute irgendwann das Gefühl haben, es ist auch bei OpenAI einfach viel einfacher und bequemer für mich einzukaufen oder ob sie das Gefühl haben, das was ich bei OpenAI, wenn ich ChatGPT aufmache und sage, ich will was kaufen, das funktioniert exakt gleich oder vielleicht sogar noch besser direkt bei irgendeiner Brand oder irgendeinem Händler. dann hast du ja diesen Kannibalisierungseffekt nicht so riesengroß.
Barbara Lampl: Ich würde sagen, Karnivalisierungseffekt, die Antwort ist, und das hat jetzt weniger was mit AI zu tun als mit Plattformökonomie. Du kennst nicht, du weißt nicht, was du brauchst. Du hast den Brandname nicht. Also zurück zu meinen Kaffeetassen mit Skeletten drauf. Ich habe überhaupt keine Ahnung, was das für ein Hersteller ist. Ich will eine verdammte Kaffeetasse mit Skeletten drauf. Und dann gehe ich wahrscheinlich zu der Plattform, der mir die höchste Wahrscheinlichkeit da ist. Das sind unsere Freunde von Amazon.
Jochen G. Fuchs: Das ist die
Barbara Lampl: Das heißt, ich geb da einen Kaffeetasse mit Skeletten drauf. So, dann krieg ich da vielleicht die beste Tasse. Wahrscheinlich nicht. Krieg ich die billigste Tasse? Wahrscheinlich auch nicht. Krieg ich die most convenient Tasse in kürzester Zeit? Aber for sure. So viel Denglisch in einem Satz hab ich auch gesagt. Aber natürlich, der Punkt ist halt, faule Socke. Jetzt hast du natürlich, und das ist ja warum Brandbuilding, E-Commerce, irgendwas, natürlich, such ich jetzt konkret etwas ... wo ich entweder eine Brand brauche oder wo es Qualität geht, also die berühmt berüchtigte Miele-Waschmaschinen-Diskussion, weil Miele ja angeblich immer die teuersten Waschmaschinen braucht, oder du hast einen Brand-Name zurück zu, jedes Taschentuch ist tempo, dann sieht die Welt natürlich ein bisschen anders aus. Und das hat noch nicht mal was mit der Disruption von AI zu tun, sondern die Disruption von Gen.AI an der Stelle, und jetzt ist ja JetGBT drei Jahre alt geworden, hat halt eins gezeigt. bietest du the most faules Produkt, also das Produkt an, was am faulsten dich als Mensch spielt, dann rennen wir wie die Lemmingende dahin, lassen uns verarschen ohne Ende und finden's super. So, deswegen ... Ja.
Jochen G. Fuchs: Das ist Das ist, ich seit ich im Tech-Journalismus bin, das quasi das Dogma jedes Tech-Startups. Sie denken sich irgendein Produkt aus, das auf die Faulheit der Menschen einzählt. Entweder Quick-Commerce deinen Scheiß eintüten, einkaufen, 15 Minuten nach Hause geliefert kriegen, Airbnb einfacher zu deinen Ferien aus, you name it.
Barbara Lampl: Genau, aber am Ende des Tages wäre es schafft, die Faulheit zusammen mit einem guten Bedarf abzudecken. jetzt kommt halt. Und der Punkt ist, am Ende des Tages ist das Spiel. Wir hatten das ja schon mal an einer Folge, dass ich gesagt habe, im B2C Bereich haben wir nicht so viele Möglichkeiten. Wir haben Google, wir haben OpenAI und vielleicht taucht noch irgendwann mal ein anderer Player aus. Entrophic positioniert sich definitiv mehr als Business Application. Wir haben vielleicht noch mal einen anderen Player, der da wieder reinsprengt. Aber dann musst du ja den gleichen Move erstmal hinlegen, denn ja, das beste, faulste Produkt ist super, aber du brauchst dir die kritische Masse an Nutzerzahlen. Und OpenAI hat momentan nun mal knapp eine Milliarde auf der Plattform drauf. Haben die anderen einen validen Punkt, aber ja, natürlich, Daten sind wertvoll. Und würde ich jetzt an deren Stelle auch erstmal meinen Kunden, also meinen Retail-Kunden das anbieten, bevor ich mir vielleicht ein Deal mit OpenAI überlege oder sonst was, voraussichtlich dürfte du die Daten an OpenAI überhaupt rausgeben. Nächste Frage. Dann hab ich genau halt diesen Punkt. Aber wir sind halt in einer Welt in 2025, wir gehen in 2026 drüber gegangen, wo, egal ob ich will oder nicht, jedes Geschäftsmodell disruptiert wird in irgendeiner Art und Weise. Und darauf Hand für ins Feuer sind die Leute nicht vorbereitet, weil die einfache Antwort, geil, Claude kann jetzt coden, wir brauchen keine Software-Developer, irgendwie So viel cooler klingt als, äh, Entschuldigung, ich hab da noch ne komplexe Nebenanmerkung. Und das ist halt, finde ich, das, wo wir halt gerade kritisch an der Stelle stehen. Die LLMs sind so verdammt gut geworden. Die Plattformen sind so verdammt convenient geworden, dass die Schere zwischen Profianwendung und trivialer Verdummungsanwendung jeden Tag auseinandergeht. Du bei der viel trivialen Verdummungsanwendung noch nicht mal merkst, dass du verdummst. Und gleichzeitig, na ja, die Unternehmen nicht wirklich darauf vorbereitet sind, dass sie schon längst disruptiert sind und eventuell in Zyklen denken müssen, die garantiert keine 5-Jahresplanung entspannen.
Jochen G. Fuchs: Naja, und da spielt es halt, weil wir uns in Themen der Plattformökonomie bewegen, großartige Rolle mehr, welche, wie soll ich das jetzt sagen, kleineren Vorteile es bietet, dass man halt ein eigenes Foundation-Model aufgesetzt hat, dass diese Recommendations...
Barbara Lampl: Vergiss es, der Drops ist gelutscht ohne Ende. Also jetzt in ein Foundation Model zu investieren, was wieder der gleichen Architektur folgt, also von mir ist momentan ein State of the Art Mixer of Experts. Das ist völliger Bullshit. Also ich könnte mich immer noch, also es gibt ja diese Announcement jetzt hier mal wieder von irgendwie wir bauen in Deutschland mal wieder ein eigenes Foundation Model auf und ich denke mir nur, wo steht der Satz mit einer anderen Architektur, mit einem Titans Approach, Googles Nested Learning. Also die Liste ist lang über was wir uns fachlich unterhalten könnten, was ein cooler Move wäre. Aber jetzt ein foundational model bauen. Guck dir doch an, was die Chinesen gerade betreiben. Die Chinesen flooden the zone aka den foundational model market mit hoch performanten LLMs. Die haben sogar die Kosten vom Chat gekillt, wenn du willst. Du kannst also voll Zugriff haben, ohne dass du noch was bezahlst. Das heißt, das Subscription Model in China ist bereits angezündet. Weil du quasi nichts mehr zahlst. So. Und das ist halt einfach, wo du denkst so, äh, okay, hat das jemand hier mitbekommen? Dass die das schon entschieden haben? So. Das heißt, wir funktionieren, wir diskutieren teilweise ... ähm, in einer Welt, wo du halt einfach sagst so, ja, also, nur um nicht mal zu sagen ... Spoiler, Jochen. Komm. Wir machen ja heute eine knackige Folge, deswegen alle an unsere lieben Zuhörer mal die Frage, wer weiß, chinesische Firma seit, Achtung, April, seinen Chatbot, egal wie für gratis, anbietet. Du kennst sie sogar. Bei Du, Ernie Bot, ist komplett gratis. Seit April. Bei Du bietet Ernie Bot ... quasi gratis an, weil das bisschen Revenue, was sie damit gemacht haben, sie einfach gesagt, scheiß drauf, hier so funktionieren's durch.
Jochen G. Fuchs: einfach kommen scheiß drauf. Naja, angesichts der Kosten, das Zeug hat, machen die 10-20 Dollar nämlich den Bock nur wirklich nicht fett. Das weiß jeder, der sich die Geschichte ein bisschen angekuckt hat.
Barbara Lampl: Richtig. Aber das ist halt so, genau, aber das ist immer das, was ich meine. Wer außer uns lustigen Nerds hat denn mitbekommen, dass das schon seit April so ist? April 2025. Ich weiß nicht, dass das groß diskutiert worden ist, das bei Du schon entschieden hat. Der Ernie Bode ist frei.
Jochen G. Fuchs: Ja, es geht doch glaube ich so bisschen unter, halt jeder von den Großen irgendwie so ein beschränktes Freetier drinne hat und man dann erstmal begreifen muss, was das überhaupt heißt. Wenn die sich vom Subscription-Modell einfach vollständig verabschieden und sich sagen, komm, also bitte, die Peanuts, die wir damit verdienen, behindern bloß das Userwachstum.
Barbara Lampl: So ungefähr, halt einfach auch das sind halt und das ist halt, wenn wir das Ganze einsortieren und zurück zu unserer kleinen Zwischenfolge, wir reaktivieren und produzieren wieder regelmäßige Podcasts für euch. Das ist halt die Realität, wenn du so eine egal welche Präsentation und es kann sein, dass wo du jetzt warst, die ein Bombenprodukt haben. Ich habe die Präsentation nicht gesehen, also bitte fühlt euch nicht gebashed. Ihr seid einfach nur das Beispiel, wie ihr hier drin gelandet ist. Wieso? Ich mache mal in diesen Meetings drin, denke so Moment, Frau Lampl hat noch eine Frage. Hä? The mass is not massing, Lidl schreit auch. Und, Entschuldigung, habt ihr mitbekommen, dass Y passiert ist? Und das ist halt das, was, ich glaube, so als, wenn man mich fragt, was aus so 2025 für mich als so Fazit ein bisschen bereits unter dem Jahr steht, ist so, ich glaube, wir Nerds feiern ein hartes Comeback. Weil ich glaube ... Ihr habt jetzt in 2023, 2024 und halb 2025 gedacht, ihr kommt ohne uns aus.
Jochen G. Fuchs: Ja, sorry. Sieht wohl nicht so aus. Ja. Klar, warum die Chinesen das machen, ist ja eigentlich auch relativ durchsichtig, oder?
Barbara Lampl: Ja natürlich, wenn man's mal weiß, denkt man sich so, ey, klar, Es ist ein Frontalangriff auf die großen Foundation Labs. Und es ist ein geopolitischer Move. Einer musste das Opferlamm spielen. Baydu hat gesagt, ich spinne das Opferlamm. Wir machen's gratis.
Jochen G. Fuchs: Naja, klar. Und das einzige, du jetzt in dem Bereich noch hast, ist, du kannst versuchen, mit Regulierungen drauf zu feuern. Du kannst versuchen, es schlecht und tot zu reden, in Anführungszeichen. Mehr geht nicht. Das ist halt das, was man auch sieht als politische Reaktion.
Barbara Lampl: Genau, und das ist genau das, was ist der europäisch-deutsche Move? Regulation draufhauen und schlechtreden. weiß nicht, ob uns das rettet.
Jochen G. Fuchs: Haben wir vielleicht noch eine positive Botschaft, mit dem wir diesen Podcast beenden können? Weil ich will ihn jetzt nicht mit, ich weiß nicht, ob uns das rettet,
Barbara Lampl: Ähm, ja, wir haben eine positive Botschaft. Naja, der Punkt ist halt, wir sind, und das wiederhole ich jetzt auch schon, ich klingle glaube ich im vielen Termin momentan wie eine kaputte Schallplatte, LLMs sind mature technology. Mature technology, auf hoch performant geworden ist. Die sind gut geworden. Achtung, das heißt nicht, dass sie nicht weiterhin Limitierungen haben. Aber wir haben alle Systeme haben technische Limitierungen. Das ist jetzt nichts Neues. Das Coole ist, wir müssen kein eigenes Foundation Model trainieren. Wir könnten es einfach nur nutzen und implementieren. Das heißt, wir könnten uns auf das konzentrieren, wozu wir eigentlich da sind, nämlich auf die Implementierung auf Full-Prod, Full-Scale. Und das ist halt das, was das Coole eigentlich ist. Wir müssen uns nicht mehr darüber legen, welche Grundlagentechnologie wir zum Einsatz bringen und auf irgendeine Grundlagentechnologie warten, in Performance hineinzugehen. Selbst im internationalen Vergleich gibt es natürlich und ja, man muss klar sagen, die US-amerikanischen Firmen, ich sehe es ja vor Ort jedes Mal, wenn ich drüben bin, sind uns natürlich ein Stückchen voraus. Aber selbst das ist nicht die Masse. Das heißt, mit einem kollektiven Push und in die Application Layers rein, in den Unternehmen, könnten wir uns so geil wie nur irgendwas aufstellen. Kleine Sachen sehen wir ja auch schon im Sinne von Mercedes geht eine Kooperation mit Baymo und solche Geschichten ein. Und da vielleicht mal, einer High Note zu enden und zu zeigen, was möglich ist. Waymo macht seine Daten komplett offen und transparent. Das sind die vollautonomen Fahrtaxis in San Francisco. Und das Fazit ist, würden nur 30 Prozent in Städten Taxis durch autonome Taxis ersetzt werden, würden die Todeszahlen nach unten gehen. Denn was die Waymo Zahlen zeigen, ist halt, dass diese autonomen Taxis so viel sicherer sind.
Jochen G. Fuchs: Ja.
Barbara Lampl: dass wir damit zum Beispiel Verkehrstote senken könnten. Und das ist doch mal, wo ich sage, das ist Technologie Packer Punch. Das ist doch mega cool.
Jochen G. Fuchs: Enden wir mit einer positiven Botschaft. Ja, das war's für heute. Ich bedanke mich fürs Zuhören und Schaltet wieder ein in euren neuen KI Lieblingspodcast. Immer freitags, 17 Uhr.
Neuer Kommentar