#10 KI in der Praxis: Jetzt verändern LLMs Supply Chain & Controlling - mit Frank Giroux (Information Intelligence)

Shownotes

In dieser Folge von „Future at its best“ spricht Petra Becker über eines der derzeit größten Buzzwords überhaupt: Künstliche Intelligenz und insbesondere Large Language Models (LLMs). Sie und ihre Gäste Frank Giroux und Atreus Direktor Bernhard Gruber diskutieren, was sich hinter Begriffen wie KI, Generative AI und Large Language Models konkret verbirgt – jenseits des Hypes – und wie Unternehmen diese Technologien operativ nutzbar machen können.

Im Fokus stehen Supply Chain Management, Logistik und Controlling: Wie lassen sich Prozesse automatisieren, Bestände optimieren und Entscheidungen datenbasiert unterstützen? Welche organisatorischen Voraussetzungen, welche Kultur und welche Datenhygiene braucht es, damit KI nicht im Prototypen-Stadium stecken bleibt, sondern skalierbar Wertbeiträge (Value Add) liefert?

▶️Besucht unsere Website http://www.atreus.de

▶️Über Interim Management https://www.atreus.de/kompetenzen/service/interim-management/

▶️Für Interim Manager https://www.atreus.de/interim-manager/

▶️Profil von Petra Becker [https://www.atreus.de/team/petra-becker](https://www.atreus.de/team/petra-becker]

▶️Profil von Frank Giroux: [https://www.linkedin.com/in/frank-giroux-a49459106/]

▶️Profil von Bernhard Gruber https://www.linkedin.com/in/gruberwork/

Transkript anzeigen

00:00:01: Hallo und willkommen!

00:00:02: Ich hoffe, ihr seid alle gesund und unter gut rüber gerutscht.

00:00:05: Auch in diesem Jahr, in den Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr.

00:00:28: Was bedeuten eigentlich diese Begriffe?

00:00:30: Was verbirgt sich hinter all dem?

00:00:32: Verständnisvoll sprechen wir über die Möglichkeiten in der operativen Anwendung.

00:00:37: Also wie kann man damit Prozesse verbessern und in einer Organisation Value Add generieren?

00:00:44: Frank hat dies zu seiner Zeit bei einem namhaften DAX-Konzern bereits bewiesen und erste Gehversuche gestartet.

00:00:51: Eines noch vorweg bleibt dran, schaltet nicht zu früh ab.

00:00:54: Denn Anfangs sind wir im Podcast sehr theoretisch unterwegs, doch dann packt Frank seine Beispiele aus und verrät uns, wie wir im operativen die Themen echt rocken können.

00:01:04: Ich will nicht zu viel verraten.

00:01:05: Hört rein.

00:01:08: Ja, dann herzlich willkommen heute bei mir im Podcast Future Edits Best.

00:01:11: Wir nehmen heute ein ganz großes Thema in Angriff, das Thema KI.

00:01:15: Das ist ja ein Riesen-Basswort und es kommt auf uns zu.

00:01:19: Es ist sehr positiv belegt und natürlich auch mit gewissen Ressentiments, aber auf der anderen Seite ohne KI wird es diese Zukunft nicht geben, drum passt es wunderbar.

00:01:29: Und ich begrüße bei dieser Thematik meinen wertgeschätzten Kollegen von Atreus, von unseren Direktoren, Team aus der Funktionalen Solution Group Bernhard und du stellst dich dann selber auch gleich vor.

00:01:41: Bernhard Gruber, der zuständig ist für IT, Digital und Data mit seinen Kollegen.

00:01:46: Und wir haben heute bei uns einen echten Experten, der sich mit dem Thema KI-Large-Language-Modeling auskennt, schonmal damit Kontakt hatte, das umgesetzt hatte.

00:01:55: Frank Schiro, ich freue mich riesig mit euch beiden heute.

00:01:58: Das Thema KI, Riesenbasswort, großer Elefant, ah, mein Kleiner schneiden, was ist es eigentlich, Bernhard?

00:02:05: Und dann in die Tiefe zu gehen, wie kann das für große oder kleinere Korps auch für Mittelständler ein echter Benefit werden?

00:02:11: und wo geht die Reise hin?

00:02:12: Bernhard, magst du was kurz zu dir sagen?

00:02:14: Genau, ich sage was zu mir.

00:02:15: Also danke für die Einladung zu deinem Podcast.

00:02:18: Freu mich auch schon.

00:02:18: Heute wird es ja richtig technisch, hoffentlich.

00:02:21: Nein, wir versuchen natürlich immer auch, den Geschäftsvorteil herauszuschälen.

00:02:25: Hilft ja nichts über Technologie alleine zu sprechen.

00:02:27: Da muss ja auch immer ein Vorteil für die Unternehmen da sein.

00:02:31: Genau, ich berate die Adreuskunden in diesen Themen.

00:02:35: IT, SAP Migrationen, aber eben auch Data und EI, das wird immer mehr.

00:02:42: Es gibt ja heute kein Vorstand, die mehr das KI nicht auf der Agenda hat.

00:02:47: Aber klar sehen wir auch, dass viele KI-Projekte noch ein Stück weit im Prototypenstatus sind, noch viel herumprobiert wird und dass sich Unternehmen schwer tun, das Thema KI komplett zu skalieren, sodass es dann auch irgendwann einmal in der, sozusagen G&V wirklich sichtbar ist, entweder durch mehr Umsatz oder durch weniger Kosten.

00:03:09: Und deswegen, glaube ich, ist der Broadcast heute super.

00:03:11: Einfach da ein bisschen die Geheimnisse zu lüften wie Unternehmen, dass die Makai echt skalieren können.

00:03:17: Super, Bernhard, schön, dass du da bist.

00:03:18: Ja, und Frank, magst du mal was zu dir sagen, woher du kommst?

00:03:21: Ja, sehr gerne.

00:03:22: Genau, Frank Schirru, ich bin gestern mit der Bahn von Berlin angereist.

00:03:26: Bin trotz meines familiären französischen Hintergrunds durch eine Berliner Pflanze.

00:03:31: Und habe da auch ein Großteil meiner beruflichen Geräte gestartet.

00:03:34: Und deswegen irgendwann mal an mit der Firma IBM, dann habe ich eine Schleife gedreht über die Automobilindustrie.

00:03:39: habe aber ein Großteil meiner beruflichen Laufbahn einer pharmazeutischen Industrie verlebt.

00:03:44: Und inhaltlich habe ich setz dich im Prinzip auf zwei Stühlen.

00:03:47: Ich habe so die erste Hälfte meiner Laufbahn im Bereich Supply Chain Management und Logistik verlebt und die zweite Hälfte in den Bereichen Digitalisierung und dann noch zunehmend in den letzten fünf Jahren in den Bereichen KI.

00:03:57: Und dann hat seit dem ChatGPT Outcome dann auch im Bereich Large Language Models im Bereich Supply Chain Management.

00:04:03: Super, also vielen Dank, dass ihr beide heute da seid.

00:04:06: Bernhard, vielleicht einmal vorweg so.

00:04:07: Für mich, ich bin in dem Thema nicht so tief drinnen und ich glaube auch, dass der eine oder andere in einer Top-Position in einem Unternehmen, vielleicht KI, immer wieder hört und es gar nicht so greifen kann.

00:04:16: Kannst du mal den Elefanten ein bisschen kleiner schneiden?

00:04:19: Wie teilt sich das eigentlich auf für ein Unternehmen?

00:04:21: Genau.

00:04:22: Also ich würde ein bisschen zurückspulen in die Steinzeit der IT, also zehn Jahre zurück oder so.

00:04:28: Vielleicht auch länger.

00:04:28: Nein, klar.

00:04:29: Wir kennen alle die EAP-Systeme, CM-Systeme.

00:04:33: sind regelbasierte Systeme, werden Daten eingetragen in Datenfeldern, das kennen wir alles.

00:04:39: und da hat sich auch nicht wahnsinnig viel verändert.

00:04:42: Trotz der SAP SIV und anderen Systemen ist es noch immer relativ gleich klar mit anderer Technologie, die dahinter liegt.

00:04:50: Also da gibt es nichts ganz besonders großes Neues.

00:04:54: Aber wir haben ja vor zehn Jahren auch mit der Einführung von Cloud Computing das Thema Big Data größer diskutiert.

00:05:00: Also wie gehen wir mit großen Datenmengen um, die nicht nur in strukturierten Datenbanken legen, sondern die auch unstrukturiert im Internet sind.

00:05:10: Andere Sensordaten, IOT-Daten, also wie gehen wir mit den immer stärker wachsenden Daten um?

00:05:17: Wenn wir viel über das gesprochen waren, wie könnten wir einfach mit Daten besser arbeiten?

00:05:21: Die Zeit, sozusagen, ist natürlich weitergegangen.

00:05:24: Und das ist ja schon immer, Entschuldigung, dass sie hier unterbrecht werden hat.

00:05:27: Es ist ja schon immer ein Thema in einem Unternehmen, also auch zu meiner Zeit frues.

00:05:31: Wenn wir wüssten, also wenn Siemens wüsste, was das alles war, ist und auch immer dieses Thema Daten, Stammdaten, alle Daten in einem Unternehmen gerade in den größeren sichtbar zu machen oder in den unterschiedlichen Fraktionen.

00:05:42: Also das ist auch hier nochmal ein Thema bei KI, oder?

00:05:45: Ja, absolut.

00:05:46: Es geht immer um das Thema, wie kann ich aus Daten sinnvolle Erkenntnisse schöpfen?

00:05:51: Wie kann ich einfach mit Daten arbeiten?

00:05:53: Man sagt ja heute Daten werden, das neue Gold oder das neue Öl.

00:05:57: Das kann man viel diskutieren.

00:05:59: ob die Begrifflichkeiten richtig sind, aber faktisch schon.

00:06:02: Es gibt so viele Daten und man muss etwas Sinnvolles daraus ziehen, nur Daten alleine zu haben.

00:06:08: Und da sind wir jetzt wieder im Gegensatz zu Gold.

00:06:11: Gold alleine zu haben ist in Ordnung.

00:06:13: Die Daten alleine zu haben, aber damit nichts zu tun, bringt dann nichts.

00:06:17: Da machen wir gar keine Daten.

00:06:18: Also müssen wir irgendwie lernen, was tun wir mit unseren Daten.

00:06:22: Und diese Diskussion ist eben sehr stark mit Big Data Technologien aufgetreten, mit dem das das Internet immer stärker, sagen wir mal, auch in die Geschäftsprozesse einen Einzug gehalten hat.

00:06:35: Fast sieben Jahren, circa nach vor der Corona-Zeit, ist ja dann das große Wort Robot Process Automation eigentlich losgegangen.

00:06:44: Wie könnte man Prozesse automatisieren.

00:06:48: Wie könnte man mit immer weniger Leuten, insbesondere auch in den administrativen Bereichen, auskommen, sodass wir einfach alles, was bisher der Mensch getan hat, durch so eine ABA-Technologie ersetzen ist?

00:07:02: Hat ein bisschen an einer oder anderen Stelle zur Ernüchterung geführt, weil die Geschäftswelt ja nicht so funktioniert, dass immer das gleiche hundert Prozent so gemacht wird.

00:07:11: Man braucht ein bisschen Varianz, man muss mitdenken, ist es jetzt wirklich so, ist es nicht so?

00:07:16: Und deswegen gibt es jetzt seit, ich würde sagen so, seit drei, vier Jahren natürlich mit jetzt mit Einzug von künstlicher Intelligenz, mit large-language-Modellen, auch mit small-language-Modellen natürlich die Möglichkeit, die Prozesse etwas mehr mit Intelligenz zu unterfüttern, so dass sie uns Menschen vielleicht auch schon näher kommen, dass sie schon ähnlich wie ein Mensch drüber nachdenkt, was muss ich jetzt tun?

00:07:42: Links, rechts, AB.

00:07:44: dass man da wird.

00:07:45: Und jetzt sind wir, glaube ich, vor dem Punkt, wo wir sagen, wenn wir alle Technologien, die wir die letzten zwanzig Jahre mehr oder weniger angesammelt haben, jetzt mit Intelligenz unterstützen, dass wir dann wirklich einen Vorteil heben können.

00:08:00: Aber, und das werden wir heute im Bautkast sicher viel diskutieren, es gibt da einiges zu tun.

00:08:06: Es ist nicht so, dass ein Vorstand zum Softwarehaus geht, dann sage ich, kauf einmal KI, dann zahlt er einmal die Summe XY.

00:08:14: Und ab morgen hat der KI und dann übermorgen fliegt er schon.

00:08:18: Das heißt, es ist ganz viel Arbeit zu tun, die zuerst einmal gar nicht viel mit Technologie zu tun hat.

00:08:25: Und über das werden wir sicher heute noch einige sprechen.

00:08:28: Okay, also das heißt, man muss weiterhin seine Hausarbeiten, Hausaufgaben machen, ein gutes ERP-System im Plays haben, ein Data Lake im Plays haben, eine Cloud installiert haben, erst mal eine gute Infrastruktur.

00:08:37: erschaffen werden hat, ist das noch Voraussetzung?

00:08:40: Ja,

00:08:41: ich aus IT-Mann würde immer sagen, klar, muss das Fundament und die, wie ich so sagen, die Mauern stimmen, aber eigentlich müssen noch ganz andere Themen stimmen.

00:08:50: Es müssen nämlich eine Kultur geben, die sich um die Datenhygiene kümmert.

00:08:54: Es müssen auch eine Kultur geben, sehr offen zu sein, was wir jetzt mit diesen Technologien tun.

00:08:59: Das heißt, es war auch ganz viel Datenhygiene, Prozessmanagement, Changemanagement.

00:09:05: Eine Offenheit, das heißt ganz viele Themen sind eigentlich Technikler Themen.

00:09:11: Das sind Scheitern auch solche Projekte.

00:09:13: Wenn man das rein aus technisches IT-Projekt sieht, dann ist das schon zum Scheitern Vorteil.

00:09:18: Man braucht, man sagt ja immer, neunzig Prozent vom Erfolg dieser KI-Projekte.

00:09:23: sind keine Technologie-Themen, sondern sind Organisations-Themen.

00:09:26: und über das, wie gesagt, werden wir mit Frank sicher heute noch ins Detail gehen können.

00:09:30: Genau.

00:09:31: Und genau das finde ich so spannend, denn Frank hat ja in der Vergangenheit in der großen Korb, sehr, sehr großen Korb am DAX-Unternehmen, aus dem Fachbereich kommen, wie du es vorher schon gesagt hast, das Thema Large Language Modeling implementiert und magst du uns da ein bisschen was dazu sagen, wie aus diesem Hype eben ein Thema wird in der Organisation?

00:09:52: Und auch, ich sag mal so, den Unterschied, wenn man nicht aus der IT kommt, wie man dann so was umsetzen kann, Frank.

00:09:58: Wie habt ihr das gemacht?

00:09:59: Oder wie hast du das damals gemacht?

00:10:01: Ich würde gerne da einsteigen auf der Basis, die du gelegt hast, wenn wir über das Heben von Potenzialen sprechen, über KI-Technologien sind wir an der Schnittstelle zwischen Prozessautomatisierung und Entscheidungsunterstützung unterwegs.

00:10:16: Und speziell die Large Language Models waren Aus Unternehmenssichter ein echter Game Changer, weil wir vorher uns in einer Umgebung befunden haben, wo KI sehr stark anforderungsorientiert implementiert wurde.

00:10:27: Also da kam dann jemand und hat gesagt, ich müsse mein Demand-Planning stärker durch gezieltere Optimierungslogiken auf mein Daten unterstützen, dann hat man dann entsprechende Lösungen gebaut oder eventuell am Markt gefunden oder ich möchte das Scheduling meiner Prozessaufträge optimieren, hat man dann entsprechende Lösungen gebaut.

00:10:45: Mit den LLMs ist jetzt eine Technologie in die Unternehmen gekommen, die mit einem grundlegenden Set an Fähigkeiten einfach erst mal daherkommen.

00:10:53: Die sind da, die kann man von heute auf morgen so nutzen.

00:10:55: Das heißt für das Unternehmen, ich bin jetzt in einer Situation, wo es nicht mehr primär erst mal darum geht, sich um die Implementierung Gedanken zu machen, sondern um Change Management.

00:11:04: Ich muss erst mal gucken, dass ich die Technologie mit ihren Fähigkeiten so in die Organisation tragen kann.

00:11:08: Tatsache ist aber auch, dass ich mit den Large Language Models Applikationen bauen kann, die auf der einen Seite, und das ist auch neu, stark in die unstrukturierten Daten reingreifen.

00:11:18: Das hatte ich bisher in der Form kaum.

00:11:21: Oder eben aber auch, und das ist, glaube ich, heute unser Schwerpunktthema, in die strukturierten Daten eingreifen kann.

00:11:26: Da bin ich dann wieder im Bereich Entschadungsfindung und Entschadungsunterstützung.

00:11:30: Also zwei sehr unterschiedliche Herangehensweise.

00:11:32: Ich habe einmal den Teil Kultur Change, Schulungen, Motivationen, Informationen der Mitarbeiter darüber, wo sind die Grenzen von Large Language Models, wie kann ich verhindern, dass Technologien genutzt werden, die nicht durch das Unternehmen abgesichert sind.

00:11:47: Und auf der anderen Seite eher so ein Portfolio-Management-Aspekt.

00:11:50: Das heißt, ich gehe in die Business-Bereiche und versuche dann über Workshops.

00:11:54: Da gibt es ganz interessante Formate, die an so einem Design-Finking-Approach angelehnt sind, wo ich zunächst mal erkläre, was die Technologie kann und dann mit der Business-Abteilung oder Gruppe oder Projekt in die Frage einsteige.

00:12:09: Was sind denn eure Berührungspunkte, eure täglichen Berührungspunkte?

00:12:12: Was mit was für System arbeitet ihr?

00:12:14: Was sind eure internen und externen Schnittstellen?

00:12:16: Und dann über dieses Vehikel mit den Kollegen zusammenarbeiten, was für Potenziale bietet denn so eine Technologie wie ein Large Language Model in dem konkreten Bereich?

00:12:26: Und was man da interessanterweise feststellt ist, auf der einen Seite naheliegend ein Großteil der Ideen gehen in den Bereich der unschulktorierten Daten.

00:12:34: Was im Prinzip steckt ja der Hilferuf dahinter?

00:12:36: Wir haben Unmengen an Dokumenten, Guidelines, Richtlinien am Unternehmen.

00:12:41: Und die Leute finden nicht immer die richtige Information, die aktuelle Information oder die Information, die für ein persönlich irrelevant ist.

00:12:46: Das ist naheliegend.

00:12:47: Interessanterweise ist es aber auch so, dass viele der Ideen auch schon in dem Bereich der strukturierten Daten eingehen.

00:12:53: Und das zeigt auch auf ein lange existierendes Dilemma hin.

00:12:58: Nämlich das auch im Bereich Business Intelligence, die Kollegen häufig sagen, Ich weiß, ich habe wahnsinnig viele Reports, aber ich finde nicht immer genau den einen, den ich brauche.

00:13:06: Oder ich verstehe den einen Kleid KPI nicht so richtig.

00:13:09: Und hier zeigt sich das große Potenzial von Large Language Models, weil zum einen habe ich eine sehr einfache Schnittstelle durch die Sprache und zum anderen bieten Large Language Models durch die Kombination von strukturierten und unstrukturierten Daten das Potenzial, Informationen zu erklären, zu kontextualisieren und das ist so eine von den Geheimen Superkräften dieser Large Language Models, sie können auch Code schreiben.

00:13:32: Das heißt, ich kann über das Language Model potenziell, das hat sich ursprünglich so abgezeichnet, auch Daten direkt aus dem System abziehen.

00:13:39: Okay, also nochmal für jemanden, der net aus der IT kommt.

00:13:42: Das Large Language Modeling heißt ja, dass ich unbeschränkt einen Zugriff habe auf alle Informationen, die in meinem Unternehmen und auch außerhalb meinem Unternehmen ist.

00:13:51: Das

00:13:51: ist, da muss ich ein bisschen eingreifen.

00:13:53: Also per se ist so ein Sprachmodell erst mal eine KI, die in der Lage ist.

00:13:58: menschliche Sprache zu interpretieren.

00:14:01: Und dann bringt die halt auch einen gewissen Wissen, gewissen Wissenschafts aus dem Internet mit, auf dem es trainiert wurde.

00:14:06: Und daraus könnte es dann auch Fragen beantworten.

00:14:09: Also ich habe gute Chancen, bestimmte Fragen im Bereich SAP zum Beispiel, welche Felder hat die Materialstammsicht, oder die Material Managementsicht eins und zwei.

00:14:18: So was kriege ich potenziell auch so aus einem Language Model raus.

00:14:22: Die Unternehmensinformationen sind da nicht dran.

00:14:25: Und das ist auch der Unterschied, den ich gerade gesagt habe.

00:14:26: Ich habe auf der einen Seite, ich kann das Language-Model so nutzen, wie es ist.

00:14:29: Wenn ich aber meine Unternehmensintern-Information nutzen will, muss ich da eine Verbindung schaffen.

00:14:34: Für

00:14:34: mich selber, ne?

00:14:35: Das heißt

00:14:35: also... Im Innerhalb meines Unternehmens eine Applikation schaffen.

00:14:38: Was momentan, und das spielt jetzt in die Thematik des Reife-Grades der Technologie mit rein, was momentan sehr stark in Entwicklung ist, ist in welchem Maße die strategischen Partner von großen Unternehmen in die Technologie einsteigen.

00:14:52: Wir wissen aktuell noch nicht genau, Welche KI-Lösungen wird SAP im ERP-Bereich in drei, vier Jahren out-of-the-box mitliefern?

00:15:01: ServiceNow, salesforce.com, die großen Partner mit den großen Unternehmen häufig zusammenarbeiten.

00:15:05: Die arbeiten alle daran.

00:15:07: Du hast das für den Herrn Hoflein kurz erwähnt, Service... Nee, salesforce.com war das heißt jetzt?

00:15:11: Agentic?

00:15:12: Agentic.com.

00:15:14: Also, die sind alle in der Richtung unterwegs.

00:15:17: Was ist natürlich... Aber damit

00:15:19: wird so für mich jetzt, also ich sag mal so, ich nehme jetzt mal die Positionen von einem Entscheidungsträger in einem Unternehmen ein.

00:15:23: Wird's ja nicht einfacher, ne?

00:15:25: Sagt zu, in drei, vier Jahren wird SAP was bringen, das ist ja schon die excuse, lass uns noch mal warten.

00:15:29: Richtig.

00:15:29: Also vielleicht in der Organisation.

00:15:31: Aber dann ist ja Zug abgefahren in drei, vier Jahren, weil meine Wettbewerber vielleicht sich selber was gebaut haben.

00:15:38: Man muss das nur auf dem Rade haben bei der Entschadungsfin.

00:15:40: Weil ich weiß ja noch nicht genau, also wenn der Kollege auf mich zukommt und sagt, ich hätte gerne eine Sprachschnittstelle um Bestellung zu bearbeiten, dann kann ich darauf vertrauen, dass SAP das irgendwann bringt.

00:15:49: Ich weiß es aber nicht hundertprozentig.

00:15:51: Und am Ende muss ich das nur bei meiner Risikobetrachtung für die Investition mitbetrachten.

00:15:57: Ich habe dann gewissen Invest.

00:15:58: Da steckt ein gewisser Business Case dahinter.

00:16:00: Wie groß ist das Risiko, dass, wenn das nach drei oder vier Jahren abgelöst wird, dass sich das für mich nicht rechnet?

00:16:05: Haben denn dann die bestehenden Systeme so einen Reifegrad, dass du sagst, Frank, es rentiert sich des... bei einem Unternehmen zu implementieren.

00:16:12: Ich gehe den Weg stand alone jetzt nicht mit Ausblick auf SAP, sondern das ist ja auch mehr.

00:16:16: Ich habe ja nicht nur ein ERP System, ich habe ja auch noch viele andere Systeme in meinem Haus.

00:16:21: Ich gehe den Weg mit einem large language model, dass sich gewisse Prozesse bei mir schneller macht, smarter macht und die Leute eben diese Informationen, die sie benötigen, sehr schnell im Zugriff haben, selber mit der Maschine reden können.

00:16:33: Macht es Sinn, haben wir so einen Reifekart?

00:16:35: Du bist ja ganz viel unterwegs.

00:16:37: Wie würdest du das einschätzen?

00:16:38: Und du hast selber ja schon mal in einem großen Korb was implementiert.

00:16:41: Das ist tatsächlich so schwer zu beantworten.

00:16:44: Was man sich halt vor Augen halten muss, ist, dass wenn wir über den Bereich der strukturierten Daten sprechen, wir über Prozesse sprechen, wie zum Beispiel Transportmanagement oder auch eine Bestandsoptimierung.

00:16:53: Das heißt generell über Prozesse, die aus Unternehmenssicht, aus Kosten sichten, sehr, sehr hoch relevant sind.

00:16:59: Ja,

00:16:59: irre.

00:17:00: Es gibt eine Untersuchung der Oxford University, die ist leider schon zwei Jahre alt, aber da wurde mal dargestellt für die unterschiedlichen Unternehmensbereiche, wie groß ist das Potenzial für General TVL, large Language Models, prozentual in dem Bereich oder absolut in dem Bereich.

00:17:15: Und dabei ist es interessant, weil Supply Chain Management Logistik prozentual, dadurch, dass es auch schon ein hochoptimierter Bereich ist, ist da gar nicht so viel rauszuholen.

00:17:23: Das war im Bereich unter fünf Prozent Arbeit.

00:17:25: dadurch.

00:17:26: Dass wir halt absolut über sehr hohe Werte sprechen, sind die Potenziale absolut gesehen sehr viel höher als im Bereich Manufacturing, Quality Management oder anderen Bereichen des Product Supply.

00:17:35: Da gibt es dann noch Bereiche, die noch relevanter sind, so die klassischen Bereiche, die viel diskutiert wurden, so ein bisschen wie Coding Unterstützung, aber das ist jetzt auch so ein Unternehmen, sich weniger relevanter.

00:17:42: Also Supply Chain Management ist definitiv ein Bereich, wo es Sinn macht, darüber nachzudenken.

00:17:46: Also das ist ja eine elementare Botschaft, dass man sagt, das ganze Thema Supply Chain Management, das sich wiederfindet in Birkin Capital und natürlich auch in den gesamten logistischen Aufwendungen in the profit and loss.

00:17:56: Die zwei haben enormes Potenzial.

00:17:58: und ich sag mal, fünf Prozent Bestandsreduzierung ist ja schon, also klar.

00:18:04: Das verspricht leider keiner.

00:18:06: Aber ist ja ein Thema.

00:18:08: Das ist ja sicherlich was, wo es ist, damit macht es sexy.

00:18:10: Genau.

00:18:11: Und was den Reifer gerade angeht, ist es generell so, wenn man anfängt mit einem Beschäftsbereich, eine Frage zu arbeiten, welche Potenziale stecken in so einem Large-Language-Model, so wie es für den Beschriemer aber mit diesem Workshop-Format, dann ist es so, dass man schon generell immer erst mal bei den unstrukturierten Informationen landet.

00:18:27: Das ist generell, dass man immer an den Punkt landet, dass man sagt, okay, lass uns mal ein Tutorial für den Sport bauen, lass uns mal ein Onboarding für einen Entscheidungsprozess bauen, weil das sozusagen auch einfach so der naheliegende Case ist und vor allem aber auch, weil die Information, die ich da einsamle, Im weiteren Verlauf, wenn ich dann anfange, meine Entscheidungsfindung mit KI weiter aufzubauen, auch relevant sind und damit eingebettet werden können.

00:18:52: Das hat einen hohen Reifegrad.

00:18:54: Der erste Schritt, der dann häufig gegangen wird, ist, dass gesagt wird, ich nehme das Language Model jetzt erst mal als Nutzerschnittstelle.

00:19:00: Also der Nutzer kann Informationen abfragen, die eh schon da sind, die im der Sport vorhanden sind.

00:19:05: Wenn wir mal bei der Bestandsoptimierung bleiben, was sind die fünf Produkte mit dem höchsten Potenzial, mit der höchsten Abweichung zu einem Zielwert und dem Istwert?

00:19:13: Was sind die häufigsten Gründe für Bestandsabweichung in meinem System?

00:19:17: Im Transportmanagement wären das dann so ein Fall, wie viele Flugtransporte hatte ich vielleicht im letzten Jahr, auch ein interessanter Einwendungsfall ist im Bereich Standard-Management.

00:19:25: Wie viele Materialien mit einer bestimmten Werksicht, sie haben schon eine Warehouse-Management-Sicht oder nicht?

00:19:31: Sollte Fragen kann man dann damit beantworten.

00:19:33: Da ist jetzt das finanzielle Potenzial noch nicht so riesig, weil ich ja erst mal Informationen bekomme, die ich eh habe.

00:19:39: Da geht es eher darum, den Nutzer an den Zugang zum System zu erleichtern oder halt auch in Zukunft zu den Informationen höhere Zeiteffizienz zu bekommen.

00:19:47: Spannend wird es dann, wenn man es weiter aufbaut, denn wenn ich das erstmal im Laufen habe, dann kann ich anfangen, Fragen zu stellen wie, da muss ich aber auch zusätzlich Daten integrieren, wenn ich eine Bestandserweiche zum Beispiel habe.

00:19:56: Analysiere doch mal im ERP-System, was sind denn jetzt die konkreten Ursachen dafür?

00:20:01: Das ist eine Arbeit, die der Planner heutzutage häufig manuell macht.

00:20:05: Ich potenziell zukünftig automatisieren kann.

00:20:09: später noch mal ein bisschen was dazu sagen, wie so ein Einbindungsgrad von seiner Technologie im BISDIC aussieht.

00:20:14: Das ist auch ganz spannend.

00:20:15: Aber vielleicht jetzt schon mal ein wichtiger Dreh- und Angelpunkt bei dieser Fragestellung ist, die Tatsache, in welchem Maße entscheidet das Language Model selbst, welche Information es heranzieht für so eine Analyse.

00:20:28: Weil je mehr Freiheitsgrad ich dem System da gebe, desto mehr habe ich auch die Chance, eventuelle Erkenntnisse zu gewinnen, die vielleicht, wenn ich den Lösungs- Ansatz vorgeben würde, so gar nicht hervorkommen würden.

00:20:41: So, das ist sozusagen die Analyseunterstützung.

00:20:43: Und dann, da ist der Reife grad, also hab ich bisher keine produktiven Lösungen gesehen.

00:20:47: Wir sind alle noch eher so beim Ist-Zugriff.

00:20:50: Aber da gibt es durchaus schon POCs und MVPs drauf, nachdem was ich gesehen habe.

00:20:54: Die Königsklasse wäre dann die Entscheidungsunterstützung, dass ich dann also das LLM dafür nutzen kann zu sagen, was würde denn passieren, wenn ich den mit dem Parameter so verändern?

00:21:02: Was würde passieren, wenn ich den Zielbestand hier in dem Maße senke?

00:21:07: Und das System dann sozusagen die die Simulation im Backend durchführt und mir die entweder die der Entscheidungsvorschlag gibt oder vielleicht sogar auch von sich was Vorschläge macht versuchst du mal so und so.

00:21:19: Aber Frank ganz ehrlich.

00:21:20: also wenn ich mich heute da ein bisschen so reinversetzt und diese Fragen die mir stellt, überfällige Forderungen, welcher Kunde ist am meisten dieses und jenes, also diese ganz klassischen Controlling-Fragen die man sich in den Quarterly oder Monthly Refuge stellt, das sagst du gerade eben.

00:21:34: Die kann ich heute eine Large Language Modeling Maschine stellen und ich bekomme schon erste Auswertungen, weil das bringt ja eine Wahnsinns-Effizienz im Controlling auch in der logistischen Supply Chain Bereichen, um erstmal zu sehen, okay, wo habe ich jetzt das Potenzial?

00:21:51: Genau.

00:21:51: Und dann gehst du ja einen Schritt weiter und sagst, ja, wenn ich das Potenzial kenne, könnte mir die Maschine sogar eine Entscheidungsvorlage geben.

00:21:58: Also erstmal bei der Analyse unterstützen und potenziell irgendwann später auch mal einen Schadungsvorstand.

00:22:01: Genau.

00:22:02: Also ich bin ja schon beeindruckt, dass diese Analyse-Vorschläge oder überhaupt die Analyse möglich ist, weil...

00:22:08: Vorsinn.

00:22:09: Und jetzt nochmal, ich versuche hier auch eine Roadmap unterwegs, ne?

00:22:11: Also was ich halt sehe ist, es gibt die Lösung als Nutzerschnittstelle.

00:22:15: Das funktioniert relativ stabil.

00:22:17: Was ich übrigens, was mich sehr beeindruckt hat, weil als wir angefangen haben uns mit dem Thema auseinanderzusetzen, kamen wir noch aus deiner Welt, das wir gesagt haben, Language Models sind Sprachmodelle.

00:22:26: Die können bestimmt gut mit Dokumenten

00:22:29: und beim

00:22:29: Coding wird es potenziell kompliziert, weil die halluzinieren ja.

00:22:33: Und was ich aber herausgestellt hat, ist, dass diese Datenbankabfragen so stabil sind, weil es halt auch relativ einfache Programmiersparen sind.

00:22:39: Ja, das ist relativ überschaubar.

00:22:42: Und was wir halt festgestellt haben, ist, dass so ein LLM relativ stabil in der Lage ist, SQL-Abfragen zu generieren, die man dann auch sozusagen im Hintergrund auf die Datenbank abfeuern kann.

00:22:51: Und das war ein ganz wichtiger Schritt, weil das sozusagen die Kernvoraussetzung ist, dafür dass das funktioniert.

00:22:57: Wenn wir jetzt über die Analyse den zweiten Schritt nachdenken, müssen wir ja mehr Daten aus dem System herauslesen.

00:23:02: Und da ist jetzt der Reifegradschritt, den wir erreichen müssen, ist die Frage, schaffen wir es, dieses mit dem generierende SQS Statement so zu skalieren, dass es nach wie vor stabil bleibt.

00:23:12: Und das ist meiner Einsicht nach das Untersuchungsobjekt, was wir gerade haben.

00:23:16: Und dann kann man erst über den nächsten Schritt nachdenken.

00:23:18: Das Wichtige ist, weil du hast mich nach dem Potenzial gefragt.

00:23:21: Und auch

00:23:22: nach dem Reifekrank.

00:23:23: Genau.

00:23:23: Und das fällt nämlich genau an dieser Broadcast zusammen.

00:23:26: Weil interessanterweise ist es so, dass wir da hinten, wenn das da hinten funktioniert, sieht die Potenzial hier ja immens.

00:23:32: Wenn ich an den Beständen eine Transportkosten ein, zwei Prozent auswiesen kann, weil ich Ideen generiert bekommen oder Analysen schneller machen kann.

00:23:38: Das ist der Return of Investment.

00:23:39: Das ist der ROI

00:23:40: ganz schnell gegeben.

00:23:41: Also das Potenzial ist augenscheinlich groß.

00:23:44: Das Problem ist halt auch nur die Wahrscheinlichkeit.

00:23:46: oder das Rauschen in der Sicherheit, ob ich dahin komme, denn das ist auch sehr groß.

00:23:50: Nur, und jetzt kommen wir dann zu der Entschadungsunterstützung, soll ich das tun oder nicht?

00:23:54: Wenn ich die ersten Meter nicht gehe, werde ich die letzten Meter nicht erreichen.

00:23:56: Und das ist mein Case.

00:23:57: Und das ist der Punkt gesagt, dass wenn ich damit nicht beginnen, ich kann auch nicht auf was anderes warten.

00:24:02: Das heißt, ich als Essergeber in einem Geschäft, Mittelstand oder auch in einer großen Korb, ich muss mich dem Thema eigentlich bewusst stellen und auseinandersetzen, denn von außen wird es jetzt nicht wie ein ERP-System.

00:24:14: Früher ist dann... kommen und ich implementiere es und dann so, sondern du sagst im Grunde genommen, ich habe die Aufgabe in meiner eigenen Organisation, in meinem eigenen Kosmos, das aufzubauen und damit lernt, das ist ja auch immer das Thema bei KI, die Maschine lernt, damit sie wird intelligent.

00:24:31: Und die Organisation, da bin ich völlig bei dir und die Organisation lernt.

00:24:34: Ja,

00:24:34: das ist noch ein Punkt, also auf den würde ich gerne schon nochmal eingehen, weil ich glaube mal, da ändert sich ja ein bisschen der Tagesablauf von einem Controller oder von jemandem in der Supply Chain oder im Logistikbereich.

00:24:45: ändert sich das ja.

00:24:46: Also heute machen wir Monatsabschlüsse, Wochenberichte.

00:24:49: Viele haben auch schon einen Daily-Inventory-Reporting oder solche Dinge.

00:24:53: Das heißt, und man hat Routinen im Controlling, wo man sich trifft, die Themen durchspricht.

00:24:59: Und da, wenn ich dir jetzt zuhör, werzt meine Impression, da verändern sich vielleicht diese Prozesse.

00:25:05: Oder sie werden einfach, sag ich mal, schlanker, weil ich nicht mehr so viel Zeit investieren muss.

00:25:09: Also, wo du gesagt hast mit diesen SQL'n, wir haben ja früher's.

00:25:12: Ein ganzäquires geschrieben im SAP, um Daten aus dem M.M.

00:25:16: mit dem SD zu verbinden.

00:25:18: Und das fällt ja alles weg.

00:25:20: Das hat ja vorher Tage gedauert.

00:25:22: Eine Auswertung hat oft über Nachtläufe auch Tage gedauert.

00:25:25: Und da, wenn ich dir jetzt richtig zuhör, würde das künftig wegfallen.

00:25:29: Weil wenn ich die richtige Frage stelle, wenn ich das immer wieder mache, dann bekomme ich die richtige Auswertung.

00:25:36: Wenn das alles sich so bewahrheitet, wie wir es aktuell anstreben, wäre das so.

00:25:40: was die Änderung der Abläufe angeht.

00:25:43: Mir ist immer ein Punkt an der Stelle wichtig.

00:25:45: KI ist auch, das ist jetzt wieder ein Gegensatz oder ein Unterschied zu vielleicht eher klassischen IT-Projekten.

00:25:52: KI sollte man meiner Meinung nach nicht als Projekt oder Aufgabe in der Organisation verankern, sondern als Gilde zu entwickeln ist.

00:26:01: Mal zwei Beispiele dafür.

00:26:03: Das eine ist ein Mitarbeiter, der in der Vergangenheit, und das gilt jetzt generell für KI-Lösung.

00:26:09: Der in der Vergangenheit morgens ins Büro gekommen ist, nehmen wir mal das Beispiel, der Produktionsauftragsabfall im Optimum.

00:26:16: Der ist morgens ins Büro gekommen, hat sich das angeschaut, hat einen Schedulingvorschlag bekommen, hat den dann aufgrund Absprachen, hat den eventuell ein bisschen angepasst und konnte am Ende des Tages sagen, die Tatsache, dass mein Unternehmen heute besser wirtschaftlicher funktioniert, ist mein Verdienst aufgrund der Entscheidungen, die ich getroffen habe.

00:26:33: Mit KI-Lösung ist es jetzt sendenziell so, dass ihr einen Vorschlag bekommt.

00:26:37: der erst mal nicht ganz greifbar ist, bis wir reden hier über Blackbox-Lösung.

00:26:41: Man ruft Informationen rein, man kriegt einen Vorschlag raus und der Mitarbeiter, und da sind wir jetzt bei dem kulturellen Aspekt und bei dem Skillaspekt, muss für sich Mechanismen entwickeln, um diese Entscheidungsvorschläge so zu validieren, dass er sagen kann, ich glaube, dass das die richtige Entscheidung ist oder auch ein Entscheidungsvorschlag zu challenging.

00:26:59: Es ist ja immer so, dass eine KI ist trainiert auf Vergangenheitsdaten, Und wird deshalb immer ein Vorschlag machen, der aufgrund der Vergangenheitsdaten der wahrscheinlichste Vorschlag ist, aber es hat nie den gesamten Ereignisraum vor Augen.

00:27:13: Weil alles das, was nicht in der Vergangenheit stattgefunden hat, fällt einer KI schwer vorzuschlagen.

00:27:17: Da kommt der Mitarbeiter ins Spiel.

00:27:19: Und das ist der kulturell und der Skillaspekt.

00:27:21: Und das ist halt auch genau der Punkt, wo man Mitarbeiter abholen kann und ihnen sagen kann, ne, ne, wir wollen dich hier nicht ersetzen.

00:27:26: Wir werden dich und deine Arbeit auf, in denen du zusätzliche Skills setzt.

00:27:31: Also ist mein Verständnis richtig?

00:27:32: Das fragt, dass in dem Moment der Mitarbeiter die Maschine trainiert.

00:27:35: Er kriegt einen Vorschlag jeden Tag.

00:27:37: Und das hat er in der Vergangenheit nicht gehabt.

00:27:39: Er hat sich das selbst erarbeitet.

00:27:40: Jetzt kriegt er den Vorschlag.

00:27:41: Und jetzt nimmt er diesen Vorschlag und mit seiner Erfahrung, mit seinem Wissen, sortiert er das anders.

00:27:46: Die Maschine bekommt das mit und nimmt das ja wieder als Learning.

00:27:49: Ja,

00:27:49: okay.

00:27:49: Dass wir noch mal, dass wir noch einen Ansatz da drüber hinaus geht, ist sicherlich, ja, klar, warum nicht?

00:27:55: Warum sollte es nicht so sein, dass ich so eine Art Reinforce Learning daraus baue?

00:27:58: Das geht natürlich auch.

00:28:00: Ja, aber es geht vor allen Dingen darum, dass um diese Mechanismen oder die Fähigkeit des Mitarbeiters mit der Unsicherheit zu leben, dass ich nicht mehr jede Entscheidung deduktiv herleiten kann, sondern dass ich einen Schadungsvorschlag habe, den ich plausibilisiere.

00:28:17: Das ist ein anderes Arbeiten.

00:28:18: Das ist ein anderer Prozess.

00:28:20: Der zweite Punkt, den man an der Stelle vielleicht noch nennen kann, ist, dass Und das gilt auch wieder generell für KI-Lösungen.

00:28:25: KI-Lösungen sind sehr, sehr stark abhängig von den Daten, die kleben sehr, sehr eng an der Datenbasis dran.

00:28:31: Und jede Veränderung hier unter der Datenbasis ändert potenziell das Verhalten der KI oder auch das Large-Language-Models, wenn ich mir Daten rauslese.

00:28:39: Was wiederum heißt, das ist wie so ein Perpierte um Mobile.

00:28:42: Das hat sich immer als Bild.

00:28:43: Das heißt, ich habe ein Modell, was im Gleichgewicht ist und jede kleine Veränderung, die ich mache, sorgt dafür, dass das potenziell so ein bisschen in Schieflage kommt.

00:28:51: Das heißt, ich muss organisatorische Voraussetzungen dafür schaffen, um dieses Modell laufend auch zu pflegen.

00:28:56: Das ist anders als bei klassischen IT-Lösungen.

00:28:59: Bei klassischen IT-Lösungen hatte ich nach der Implementierung Support, der hat sich um Berechtigungen, der aussuch kommt nicht raus, solche Fragen gekümmert.

00:29:05: Bei KI-Lösungen habe ich jetzt eher nur Umgebung, wie es darum geht, regelmäßig reinzuschauen, wie verhält sich meine AKI-Lösung aktuell und dieses Mobile immer wieder fein zu audiosieren.

00:29:14: Und dafür brauche ich den Mitarbeiter mit seinem Know-how und in der Regel auch so was wie ein Data Scientist, der die Business-Fragen versteht.

00:29:20: die als Tandem funktionieren.

00:29:21: Das sind auch organisatorische Voraussetzungen, die wir noch nicht immer so haben.

00:29:25: Also das ist ja schon, also das ist cool.

00:29:27: Ich brauche im Grunde genommen jemand, der die Maschine beherrscht, diesen Data Scientist und das Know-how von den Mitarbeiter.

00:29:33: Und natürlich bleibt die Mitarbeiter dann hoffentlich auch irgendwann mehr Zeit für das operative Tagesgeschäft.

00:29:39: Sag mal auch gerade das, was du angesprochen hast, dann mal Abwicklung von Retouern oder Sonderfällen.

00:29:43: Es gibt ja doch immer noch sehr viele Sonderfälle und die bleiben manchmal auf der Strecke.

00:29:48: Und die sind eigentlich nach draußen zum Kundenhin sehr, sehr wichtig für meine Reputation als Unternehmen.

00:29:53: Und da hätte er ja dann mehr Zeit dafür.

00:29:55: Auf jeden Fall.

00:29:56: Wir drehen an beiden Schrauben.

00:29:57: Wir drehen an der Arbeitseffizienzschraube und gerade im Bereich der strukturierten Daten auch am Working Capital.

00:30:04: Ja, genau.

00:30:04: Also, und ich meine, das ist ja, mich erinnert die ganze Diskussion.

00:30:07: Bern hat da mir auch schon mal drüber gesprochen.

00:30:09: Damals in den neunziger Jahren mit der SAP-Einführung, ich weiß nicht, ob damals bei Siemens begonnen, da war irgendwie auf einmal so, wenn jetzt SAP kommt oder neues ERP-System kommt, Das wird uns alle Arbeitsplätze kosten.

00:30:20: Wir haben immer noch sehr viele Menschen im Controlling sitzen und in administrativen Tätigkeiten.

00:30:26: Wir machen heute halt andere Aufgaben als damals.

00:30:29: Man ist nicht mal an der Schreibmaschine und schreibt die Rechnungen, sondern man analysiert heute im Forderungsmanagement akribisch, wann wird bezahlt, dieses und jenes, wie ist meine Bilanz, wo habe ich noch Themen auf der Bestandsseite?

00:30:42: Wie kann ich das optimieren?

00:30:43: Wie hole ich noch die letzte Sequenz raus?

00:30:45: Fünf Prozent wären mega.

00:30:47: Aber manchmal sind wir ja auch unterwegs, dass wir nur ein, zwei Prozent holen.

00:30:51: Oder Cashoptimierung, wie viele Controller sich mit Cashoptimierung auseinandersetzen.

00:30:55: Und ich glaub, heute auch wahrscheinlich paar Ängste und Sorgen sind da.

00:30:59: Aber auf der anderen Seite stelle ich auch fest, dass wir zum Thema KI sehr viel Offenheit erleben.

00:31:04: Also, wenn man abends sich trifft, ich hab manchmal einen Eindruck, Freunde sind total stolz, dass bei ihnen schon KI gibt.

00:31:10: Und da ist dann so ein Mitu-Effekt, ne?

00:31:12: Ja, mal, Petra, du darfst nicht vergessen, mit welchen Leuten du abendessen gehst.

00:31:18: Die Fantasie in der Vorstandsetage ist natürlich wahnsinnig groß, weil die Versprechen, dass sich das wirklich in die G&V ordentlich niederschreibt, einfach als Idee aus Fantasie so da

00:31:32: ist.

00:31:33: Die Ängste auf der Mitarbeiterseite, das sind natürlich da, weil wenn der Mitarbeiter heute Effizienz hört, dann hört er natürlich auch Mitarbeiterabbau.

00:31:42: Das dürfen wir auch nicht verleugnen.

00:31:44: Wir müssen, glaube ich, Hingucken, was machen die Mitarbeiter heute?

00:31:49: Wie viel Arbeiten erledigen sie, die die Maschine wahrscheinlich sogar besser erledigen kann?

00:31:56: Datenpunkt A von einem System in das andere zu überschieben.

00:32:00: Gerade im Controlling und auch im Accounting-Bereich werden auf ganz einfache Tätigkeiten von hochqualifizierten Mitarbeitern ausgeführt.

00:32:08: Das kann die Maschine schneller, besser, siehmal, vierundzwanzig.

00:32:13: Die Arbeit wird wegfallen.

00:32:14: Aber hoffentlich geht mir Arbeit rein in die intelligente Interpretation, dann, was die Maschine vorschlägt.

00:32:21: Auch das, was der Frank schon angesprochen hat.

00:32:22: Dass Kontrolle auf einmal echte Kontroller wären und nicht nur Number Crunch.

00:32:26: Ich habe auch durchaus, sag ich mal, guten Unternehmen gearbeitet, Weltmarktführerinnen und Unternehmen.

00:32:32: Wenn ich dahin geschaut habe, was die ganze Kontrolle in Abteilung den ganzen Tag tut, ist ein Bauerbein für den Vorstand zu bauen.

00:32:40: Was drin entsteht, ist nicht immer verstanden worden und der Vorstand hat es auch wahrscheinlich nicht in meiner letzter Dimension verstanden.

00:32:46: Aber wichtig ist natürlich, dass ein schönes Bauerbauen mit vielen Zahlen abgegeben wird und das wird sich ändern.

00:32:52: Die Unternehmen werden viel intelligenter werden, die werden viel viel intelligenter werden, werden aber auch effizienter werden und deswegen meine ich, die Vorstandsetage ist natürlich komplett hin und weg.

00:33:03: Jetzt ist die Frage, wie hebt man dieses Potenzial?

00:33:08: Wir haben auch schon im Vorfeld gesprochen, wenn man jetzt KI aus Autos sehen würde, kann ein Auto fliegen.

00:33:15: Nein, das kann nicht fliegen.

00:33:16: Also muss ich wissen, mit der KI kann ich dieses und jenes tun.

00:33:20: Ich kann von München nach Berlin fahren mit einem Auto.

00:33:23: Mit einem anderen Auto kann ich eher auf die Alm nach Österreich fahren.

00:33:27: Das heißt, auch die Autos sind ja sehr unterschiedlich.

00:33:29: Und diese Kompetenz muss jetzt auch in die Vorstandsetage kommen.

00:33:34: Welcher Use Case ist mit welcher Technologie wirklich abzubilden und was geht auch noch nicht?

00:33:41: Weil am Ende ist ein Large Language Modell, ein statistisches Verfahren, das getrainiert worden ist von Wikipedia, von den ganzen Büchereien dieser Welt.

00:33:51: Also die großen Anbieter haben einfach mehr oder weniger mal das Weltwissen dahin eingeschoben.

00:33:57: Aber es ist ja noch immer so, dass Trainingsdaten total wichtig sind, damit das eben die KI besser wird.

00:34:04: Und so muss man das auch sehen, wenn man die KI als Mitarbeiter sehen würde, ist es vielleicht am Anfang nur ein Azubi.

00:34:11: Ein Azubi kann man noch nicht alles zutrauen.

00:34:14: Wie kann der Azubi aber besser werden, indem man ihn trainiert.

00:34:18: Mit Trainingsdaten trainiert, Feedback schleifen einführt Feedback gibt.

00:34:22: Und mit der Zeit werden diese Azubis zu Facharbeitern, zu Führungskräften, zu Managern werden.

00:34:32: Und das braucht eine Zeit.

00:34:33: Das heißt, heute zu sagen, ich warte, bis das Open UI mit einem neuen Modell herauskommt, das ist der falsche Zugang, es wird nämlich, es ist keine Frage, ob die Technologie schon bereit ist oder nicht, die Frage sind meine Trainingsdaten schon so weit und kann ich als Unternehmen mit der Technologie schon arbeiten und lernen?

00:34:52: und deswegen ist heute der Tag einzusteigen.

00:34:56: Und da braucht es natürlich ein paar Data-Scienties, da braucht man natürlich auch Software dazu, da braucht man auch Ressourcen auf der Fachabteilung.

00:35:03: Und dann braucht es eine gewisse Zeit, bis man dann sagt, und jetzt ist mein News-Case so weit, dass man echt Geld ausspuckt mehr oder weniger, wenn wir übertragen jetzt hin.

00:35:13: Jetzt hätte ich noch eine, Frank, du willst noch was sagen?

00:35:15: Ich

00:35:15: würde gerne da nochmal darauf aufbauen, auch wieder im Sinne des Reifegraders und der weiteren Entwicklung.

00:35:20: Ich bin persönlich auch der Meinung, dass wir voraussichtlich im nächsten und übernächsten Jahr auch erstmal von einer gewissen Phase der Ernüchterung stehen werden, weil man probiert vieles aus.

00:35:29: Und wie das halt so ist mit dem Rundprobieren, da gibt es auch einige Dinge, die nicht funktionieren werden.

00:35:33: Was aber parallel passieren wird, ist das auf der einen Seite, was wir aktuell auch noch nicht sehen am Markt, wird sich ein Katalog am Best Practice Lösung herausstellen.

00:35:40: Man wird es also sehen, im Transportmanagement oder in der Bestandsoptimierung macht es Sinn.

00:35:45: Die Bilderanzahl von Firmen haben das jetzt auch implementiert.

00:35:48: Da kann man jetzt gut ein gewisses Reihen laufen und kann das umsetzen.

00:35:51: Das zweite, was passieren wird, ist, dass die Zum einen die strategischen Provider, aber auch die Large-English-Module-Provider, man sieht das jetzt schon in Ansätzen anfangen werden, sich stärker ums Business zu kümmern.

00:36:00: Die haben ja bisher sich ausschließlich um ihre Benchmarks gekümmert.

00:36:04: Die werden jetzt anfangen in die Business-Umgebung reinzuschauen und zu schauen, wie sie da Mehrwertler im Leisten

00:36:08: können.

00:36:10: Langfristig bin ich fest davon überzeugt, dass Language Modules eine übergreifende Informationszugesplattform werden.

00:36:16: Da gibt es auch interessante Konzepte, so was wie Large-Process-Modules, wo dann Generative A auf ERP-Daten trainiert werden.

00:36:22: Was aber aus meiner Sicht wichtig ist, ist, dass man trotzdem Unternehmen jetzt anfängt, sich kleine Silo-Lösungen auszupicken und zu sagen, da bin ich, halte ich es für sehr wahrscheinlich, dass wir da einen guten Business Case haben und damit einzusteigen.

00:36:34: Und das Zweite, das hatte ich eingangs so ein bisschen erwähnt, auch die Tatsache zu nutzen, dass diese Large Language Models per se in sich einen Mehrwert bieten.

00:36:41: Denn, das komme ich zum ganz wichtigen Plaudier, was ich immer gerne mache, was wir früher gesehen haben, wenn wir KI-Lösungen eingeführt haben, ist, dass es eine hohe, einen hohen Widerstand betenmitarbeitigen hat.

00:36:52: Ich kann die Entscheidungsvorschläge nicht erklären, ich habe Angst, dass mein Job wegfällt.

00:36:56: Und häufig war es so, dass man sich so ein bisschen mit beiden Händen im Türrahmen festgehalten hat, um nicht in diese neuen Lösungsumgebung zu gehen.

00:37:02: Ja.

00:37:03: Large Language Months ist das erste Mal, dass ich sehe, dass wir KI in einem Unternehmen einführen und die Leute danach schreien und sagen, ja, ich will damit arbeiten.

00:37:10: Und vor allen Dingen auch sagen, ich verstehe, dass es der Unsicherheiten gibt bei dem, was der ausgibt.

00:37:15: Und ich verstehe, dass ich damit arbeiten muss.

00:37:18: Und da sich eine riesen Chance für Unternehmen drin, diesen Kulturwandel, den wir auch schon diskutiert hatten heute, diesen Kulturwandel voranzuschreiben, halt zu schreiten,

00:37:26: zu,

00:37:27: na egal, voranzuschreiben, danke, dass die Mitarbeiterschaft in diesen Skill aufbaut, diesen Skill in der Organisation aufbaut, mit dem Rauschen, mit der Unsicherheit von KI-Lösung zu arbeiten, weil das wären wir zukünftig, und das ist halt wiederum, dass es übergreifende, überall im Unternehmen haben.

00:37:44: Da müssen wir unsere Mitarbeiter hinkriegen.

00:37:46: Also ich sag mal so, wenn ich das zusammenfasse, sowohl was Bernhard gesagt hat, als wenn ich heute in der vierten Position im Unternehmen wäre, dann ist es eine Chance.

00:37:54: Ich möchte darauf, die Leute wollen das auch in großen Teilen.

00:37:58: Und ich kann es jetzt nicht singulär wie so ein Tool implementieren, das hast du gesagt, Bernhard, sondern Kultur.

00:38:04: Das heißt, wir haben ja heute in Unternehmen oft Effizienzprogramme, Sparprogramme.

00:38:09: Die haben alle tolle Namen.

00:38:11: Man hat solche, also richtige Programme.

00:38:14: Jedes Unternehmen nennt die anders.

00:38:16: Und eigentlich müsste ja dieses Thema essenzieller Bestandteil werden.

00:38:20: Dass ich sage, ich mache im Grunde genommen so eine KI-Roadmap in jedem Fachbereich und überlege mir mit den Ideen von den Mitarbeitern erst mal rausarbeiten, was bräuchten die?

00:38:31: Ist natürlich so ein bisschen Henne-Ei, wenn ich Kainet weiß, was ist.

00:38:34: Dann tut sich auch der Mitarbeiter schwer, dass man so mit kleinen Dingen anfängt, ja mit so kleinen Appetisern.

00:38:40: Und dann sieht der Mitarbeiter, was geht, dass mir ihm jemanden an die Hand gibt.

00:38:45: So ein Data Scientist, der mit ihm den Weg beschreitet.

00:38:48: Und dort, wo ich das größte Potenzial sehe, kann ich reingehen und kann dann immer besser werden eigentlich.

00:38:53: Aber ich kann es nicht singulär sehen.

00:38:54: Das ist für mich heute so ein bisschen das Take-Away.

00:38:58: Ich soll eigentlich nur ein Unternehmensprogramm starten.

00:39:00: Ist auch so wahrscheinlich.

00:39:01: Also wenn man halt bei unseren Kunden, wenn man die Diskussion mit verfolgt, wo schon Beratungsunternehmen dort sind, McKinsey, BCG, Effizienzprogramme empfohlen werden, ist AI embedded.

00:39:13: Das ist so.

00:39:14: dass wir zu jedem Effizienzprogramm dazugehören.

00:39:18: Jetzt ist dann die Frage, was kann von der schönen Bauarbeit eines Beratungshauses in die Praxis umgesetzt werden.

00:39:24: Und da scheitern heute viele Themen.

00:39:26: Und das ist eben zurück zum Ernüchterungs- thema auch.

00:39:30: So, jetzt kriegt der liebe Herr Vorstand oder Frau Vorstand von einem großen Beratungsunternehmen da.

00:39:36: die Empfehlung macht dieses und jenes und dann spastet ihr dieses und jenes.

00:39:41: Super, Klasse, Erwartungshaltung groß.

00:39:44: und nach vier Monaten oder nach sechs Monaten fragt der Vorstand nach und was haben wir gehoben?

00:39:48: Ja, nichts.

00:39:49: Und dann ist diese Ernüchterung

00:39:51: da.

00:39:52: Aber die Ernüchterung

00:39:53: kommt nicht, weil die Technologie nicht da ist.

00:39:55: Ja.

00:39:56: Die Antwort ist nicht, es ist nicht, weil die Technologie schlecht ist.

00:39:59: Die Antwort müsste heißen, wir sind selber nicht in der Lage, das zu heben.

00:40:03: Aber das wird dann natürlich keiner IT-Mann sagen, der IT-Mann sagt, die Software X, Y war schlecht.

00:40:07: Im Fachbereich wird es die auch nicht sagen.

00:40:09: Aber selber muss man wissen, man braucht selber die Fähigkeiten und Skills, um diese Technologie zu heben.

00:40:17: Und sie ist heute da, sie ist gewaltig.

00:40:19: Das sind ja Technologien, da hat man ja vor fünf, sechs Jahren auch davon geträumt.

00:40:24: Aber es gehören eben, es gehören ja viele Trainingsdaten dazu.

00:40:28: Und es gehört dem dazu, dass man sagt, ich muss meinen AI Assistant oder wie man immer das schöne Teil nennen.

00:40:35: den muss ich Zeit geben, um auch sich zu entwickeln.

00:40:39: Am Ende ist der EI-Assistent wie ein Mensch, den man vom Azubi... immer weiter trainieren muss.

00:40:47: Und dann ist die Ernüchterung auch nicht groß, weil keiner von uns wird enttäuscht sein, wenn da zu wenig noch nicht alles weiß.

00:40:53: Aber wir werden enttäuscht sein, wenn wir vierzeig Jahre im Geschäft sind und die Basics noch nicht können.

00:40:58: Aber auch das gibt es.

00:40:59: Oder kein Nachwuchs haben.

00:41:00: Genau.

00:41:01: Ich möchte an dieser Stelle sagen, dass wir uns nicht nur ein bisschen stark unterscheiden.

00:41:06: Das heißt, dieses Thema in der Organisation, wenn ich damit beginne, ist ja so ein bisschen ne Black Box.

00:41:11: Wie komme ich jetzt aus dieser Unterwelt zu den Sehnten?

00:41:14: Und du sagst gerade oft, die PowerPoints von den großen Beratungsunternehmen ist das eine, die Operationalisierung ist das andere.

00:41:21: Und ich sag mir, da haben wir ja einen großen Fundlust von Interimmanagern, die hier das Thema Operationalisieren können werden hat.

00:41:27: Und das machst du ja auch schon,

00:41:28: oder?

00:41:28: Nein, absolut.

00:41:29: Wir sind, sagen wir klar, Andreas steht für die Umsetzung, steht für das Thema auf dem Boden zu bringen mit Leuten, die das schon getan haben, dass man eben die Die Luft rausnimmt aus dem Thema, die warme Luft in dem Fall und echt Themen angeht, die dann echt wirksam wären.

00:41:45: Also bei uns ist der Imberg dann die Wirksamkeit da und klar, viele meiner sozusagen Gespräche und auch Mandate sind schon eindeutig in die Richtung.

00:41:55: Klar, muss man auch verstehen, viele Unternehmen haben noch eine Idee, die aus der Steinzeit kommt.

00:42:00: Das sind noch transaktionale Systeme.

00:42:03: Das ist noch ein Data Load in ein altes Data Warehouse.

00:42:06: Das ist noch irgendein BI-Taschport.

00:42:08: Und jetzt auf eine mehr oder weniger veraltete Dateninfrastruktur, ein neues AI-Tool draufzusetzen, wird nicht funktionieren.

00:42:16: Das heißt, es ist nicht nur das shiny new AI-Tool.

00:42:20: Das ist ein bisschen, ja, ein bisschen, sagen wir, kosmetik.

00:42:23: Man muss wieder an die Substanz ran.

00:42:25: Und das hören Vorstehende natürlich ungern.

00:42:28: Weil was heißt das?

00:42:29: an die Substanz ran, dass es zuerst noch einmal richtig viel Geld kostet, dass es auch lange dauert, und man nicht sofort ein Ergebnis sieht.

00:42:37: Vorstände, wenn Sie sich für Ihr Eier entscheiden, dann wollen Sie morgen das Ergebnis sehen.

00:42:42: Und die Wahrheit ist, du kannst Ergebnisse sehen, aber du wirst es noch nicht komplett in dem nächsten Quartalsergebnis in deiner G&V sehen.

00:42:50: Und das ist schon, glaube ich, die Wahrheit, die auch erzählt gehört.

00:42:55: dass man, wenn man das Thema hebt, dass man an die Legacies rangeht.

00:42:59: Weil das versprechen, ich weiß, es ist in dieser Robot-Process-Automation-Zeit auch gekommen, lasst deine ganze Legacies, so wie sie ist.

00:43:06: Wir bauen ein, ein, ein shiny overlay drüber und dann wird alles gut.

00:43:10: Das ist nicht geflogen und wird auch bei der künstlichen Intelligenz wieder nicht fliegen.

00:43:14: Wenn du deine Datenhygiene nicht in Griff hast, wenn du deine Systeme nicht in Griff hast, wenn du deine Infrastruktur, deine Schnittstellen nicht in Griff hast, dann wirst du auch E.I.

00:43:24: nicht den Griff haben.

00:43:24: E.I.

00:43:25: ist nicht das nächste Tool, das man zu den anderen in den Tausend Zweihundert dazustellt.

00:43:29: Weil wir wissen es, jedes durchschnittliche Industrieunternehmen hat tausend unterschiedliche Tools, heißt gleich tausend unterschiedliche Datenbanken.

00:43:37: Und dann wäre E.I.

00:43:37: das Tausend Einhundert Erste oder so irgendwie.

00:43:40: Das so wird es nicht funktionieren.

00:43:41: Das heißt, es braucht IT-Architektur, IT-Strategie, Datenarchitektur und dann wird das auch etwas werden.

00:43:47: Und für die stehen wir natürlich.

00:43:48: Super.

00:43:49: Ich glaube, das war ein gutes Schlusswort.

00:43:51: Frank, vielen herzlichen Dank, dass du da warst.

00:43:54: Ich fand es super spannend.

00:43:55: Und auch wirklich für mich war es auch ein Eieröffner.

00:43:57: Ich konnte mit dem LLM lange nicht so viel anfangen.

00:44:00: Nicht für mich war es nicht greifbar.

00:44:02: Vielen Dank für deine Zeit heute, dass du hier warst.

00:44:04: Und auch von Berlin so gut anstreifen ist mit der Bahn in Time, ne?

00:44:08: Bernhard, vielen Dank für deine Zeit.

00:44:10: War schön, dass du heute bei mir warst im Podcast mit so einem mächtigen IT-Thema.

00:44:14: Mir hat sehr viel Spaß bereitet und ja, aufs nächste Mal.

00:44:17: Ich sage auch danke, Peter.

00:44:18: Danke, Frank, war total spannend und ...

00:44:21: Vielen Dank für das Gespräch.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.