KI in der Datenanalyse – LLM’s sind nicht die Lösung

Okay, okay, wir machen mit. Lassen Sie uns über KI in der Datenanalyse sprechen – insbesondere darüber, warum künstliche Intelligenz in Form von Large Language Models (LLMs) wie GPT und Gemini nicht gut mit Daten zurechtkommen, und wie sich das irgendwann ändern könnte. 

KI in der Datenanalyse, TLDR: LLM-KIs sind als künstliche neuronale Netze konzipiert, die auf Beziehungen und Assoziationswahrscheinlichkeiten basieren. Das Problem dabei ist: Geschäftsdaten basieren fast nie auf Assoziationswahrscheinlichkeiten – sie sind kausal … weil sie es sein müssen. Wenn Sie also GPT-3 mit einer Reihe von Zahlen füttern, wird es in seinem Datensatz nach «assoziierten Zahlen» suchen … und deshalb erfindet es ständig irgendwelche Fantasiezahlen. Je nachdem, was Sie erreichen wollen, ist ein einfacher Algorithmus zur Hintergrundanalyse viel besser geeignet. Irgendwann könnten wir aber erleben, wie KI die Assoziationswahrscheinlichkeiten berechnet, um Ereignisse und Ergebnisse mit historischen, numerischen Daten zu verknüpfen – und dann werden die Vorhersagefähigkeiten deterministische Niveaus erreichen … ob das so toll ist, wird sich noch zeigen.

KI in der Datenanalyse: Zwischen Kausalität und Assoziation


Kürzlich habe ich ChatGPT von OpenAI gebeten, einen von mir geschriebenen Text zu
rezensieren. Die Antwort war detailliert, fair, kohärent und intelligent – also sie war halt echt brilliant.

GPT ist ein „Large Language Model“ oder LLM. Wenn man es auf das Wesentliche reduziert, ist es im Grunde ein Algorithmus, der gelernt hat, wie man spricht. Und hey: Der weltweite Hype um die Fähigkeiten dieser KI ist mehr als gerechtfertigt. Aber es wird nun zunehmend versucht, sie in unterschiedlichen Kontexten einzusetzen. Einer davon ist unser Fachgebiet – Datenanalyse, Forecasting, Planung und Prognosen.

Naja und salopp gesagt: die Versuche, GPT-Versionen oder API-Aufrufe in Prognosemodelle einzuführen, sind bisher komödiantisch gescheitert. Vielleicht sollten wir also einmal darüber sprechen, was LLMs eigentlich sind und wie sie funktionieren.

1. Wie LLM’s funktionieren

LLMs sind künstliche, vom Menschen korrigierte neuronale Netze. Sie sind – wie oben schon gesagt – Algorithmen, die entwickelt wurden, um ein synapsenartiges Netz wahrscheinlicher Beziehungen und Assoziationen aufzubauen, die entweder durch den Vergleich mit dem realen menschlichen Gebrauch oder einfach durch menschliche Redakteure direkt korrigiert werden. Sie stützen sich außerdem stark auf Datensätze, die von Menschen erstellt wurden und daher fehlerbehaftet sind.

LLM-KIs sind Assoziierungs-Pros: Sie spielen ein gigantisches Spiel „Assoziation“ mit n-Grammen, Buchstaben, Wörtern, Wortgruppen, Absätzen usw. Wenn man also einem LLM einen Buchstaben gibt, sagen wir: E, wird es die häufigsten Fakten über E aufrufen, die häufigsten Wörter finden, die mit E beginnen, mit E enden und die Wörter, die die meisten Es enthalten, sowie Wörter, die lose mit E verbunden sind, wie z.B. «Alphabet» und natürlich alles, was daran geknüpft ist, und so weiter … Das LLM «verbindet die Punkte», von denen es glaubt, dass die Wahrscheinlichkeit einer Assoziation am größten ist – basierend auf dem früheren menschlichen Gebrauch im Datensatz –, und wird schließlich eine Antwort aus den Informationen geben, die es für die relevantesten hält. Dadurch simuliert es etwas, das wir als linguistische Intelligenz zu erkennen glauben. Sie kann auch Gegensätze erkennen und Ausreißer im Assoziationsnetz leicht identifizieren, also so etwas wie eine rhetorische Logik entwickeln.

Sprache ist aber nicht logisch im klassischen Verständnis, also nicht mathematisch logisch. Sie basiert ausschließlich auf Beziehungen, Assoziationen, Kontext und Konventionen. Und Daten halt nicht – denn darum geht es ja gerade: Datenanalysen sollen objektiv, austauschbar und mathematisch korrekt sein. Daten, die je nach der relativen Position des Betrachters eine andere Bedeutung haben, sind unglaublich schwer effektiv zu nutzen, und wir versuchen, Formate zu standardisieren und clevere Wege zu finden, um saubere, objektive Wahrheiten aus ihnen herauszuholen, wo immer wir können.

2. Wie wollen wir KI in der Datenanlyse eigentlich nutzen?

Beim Sammeln und Analysieren von Daten geht es immer darum, Schlussfolgerungen zu ziehen und darauf basierend Vorhersagen zu machen, und dafür brauchen wir gültige, saubere und korrekte Daten, die mathematisch kausal sind – bis zu dem Punkt, an dem sie eine numerische Darstellung von Ursache-Wirkungs-Ketten sind. Denn es geht uns ja genau darum, diese Kausalketten auszunutzen: Das ist das Ziel und die Begründung unserer Datensammelwut – wir machen das ja nicht einfach so.

Und vielleicht müssen wir an dieser Stelle mit der Diskussion beginnen: Was soll KI eigentlich für uns tun? Lassen Sie sich nicht täuschen, das ist eine rhetorische Frage: Natürlich wollen wir, dass die künstliche Intelligenz der menschlichen Intelligenz die Arbeit abnimmt … sofern sie besser ist.

Im Zusammenhang mit der Steuerung von Controllingsoftware bedeutet dies, dass die KI die Daten analysieren, Schlussfolgerungen daraus ziehen und darauf basierende Vorhersagen im Kontext aktueller wirtschaftlicher, kultureller und politischer Bedingungen treffen sowie die gelegentliche Suez-Kanal-Krise berücksichtigen muss. Um dann, mit all dem im Hinterkopf, die Budgets um ein angemessenes Maß zu erhöhen oder zu kürzen.

Große Sprachmodelle sind noch nicht in der Lage, Daten effektiv zu analysieren – weil sie statt nach mathematischen Kausalitäten nach sprachlichen Assoziationen suchen.

Und genau das ist der Grund, warum wir so verliebt in sie sind. Eine technische Nachbildung der sprachlichen Intelligenz ist so kompliziert, dass wir vergessen haben, dass die Nachahmung der mathematischen Intelligenz Im Grunde die Basis der Computertechnologie war. Denn wenn man einer anständigen Rechensoftware eine mathematische Formel vorgibt, antwortet sie einfach sofort richtig.

Um bei diesem Beispiel zu bleiben: Ein Large Language Model zu bitten, Ihre Geschäftsdaten zu analysieren, ist so, als würde man eine Rechensoftware bitten, einen Witz zu erzählen. Dafür ist es nicht gedacht, und es wird auch nicht exzellent darin sein – no pun intended.

3. Wie wird LLM-KI Business Intelligence und Prognosen beeinflussen?

LLM-KI glänzt überall dort, wo es darum geht, Informationen aus menschlichen Kommunikationsmustern herauszuholen. Sie erweisen sich als sehr nützlich, wenn es darum geht, konzeptionelles Wissen zu erlangen und Trends zu erkennen. Wenn Sie beispielsweise ein LLM befragen, das sich auf einen aktuellen Datensatz stützt, erhalten Sie schnell Einblicke in wirtschaftliche, politische oder kulturelle Trends auf globaler Ebene. Nutzen Sie es, um Hintergrundinformationen für Ihre Planungsprozesse zu erhalten! Welches sind die wahrscheinlichsten Modetrends für das nächste Jahr? Welches ist das meistdiskutierte Küchengerät? Was kritisieren die meisten Kunden an unserem Produkt oder dem Produkt eines Wettbewerbers? Die globalen Märkte werden so stark von Massenpsychologie und Kommunikation getrieben, dass es mit den richtigen Prompts vielleicht sogar gelingt, das relative Vertrauen der Konsumenten in einen Wirtschaftsraum oder eine Währung zu ermitteln.

Kurz gesagt: Nutzen Sie LLMs für das, wofür sie gedacht sind – zum Verstehen der menschlichen Kommunikation.

Wenn es um Planungs- und Forecasting-Software geht, gibt es vielleicht einen API-Aufruf, um Kommentare in einen Plan einzufügen oder den Kontext für eine Version bereitzustellen, aber nichts wirklich Revolutionäres. Ein bisschen Spekulation: Mittel- bis langfristig könnten wir LLMs sehen, die dasselbe tun wie Menschen – intuitiv zwischen objektiven Daten und assoziativen Wahrscheinlichkeiten unterscheiden. Und sobald dieser Schritt gelungen ist, könnten wir KI erleben, die assoziative Wahrscheinlichkeitsfunktionen nutzen kann, um die kausalen Kettenreaktionen von Ereignissen im Kontext der menschlichen Interaktion, Kommunikation und Psychologie zu berechnen. Im Grunde also: Algorithmen, die Vergleiche zu historischen Ereignissen anstellen, historische Daten analysieren und auf dieser Grundlage Vorhersagen treffen – und zwar auf einer Ebene, die detaillierter und aufschlussreicher ist, als es ein Mensch je könnte.

Nur: Die dafür benötigte Rechenleistung ist immens, und die ethischen Implikationen sind unkalkulierbar – das wird also noch eine Weile nicht öffentlich verfügbar sein.

In der Zwischenzeit können Sie vergleichsweise einfache statistische Analysemodelle im Hintergrund Ihrer Datenlandschaft nutzen, um Ausreißer zu erkennen und die Wahrscheinlichkeit kausaler Zusammenhänge zu berechnen – fürs Erste ist das wahrscheinlich eine viel bessere Lösung. Was nicht heißt, dass Sie Ihr System nicht future-proof gestalten sollten.

Denn es bleibt dabei: Wenn datengesteuerte, prädiktive KI mit linguistischen Fähigkeiten und ausreichender Rechenleistung auf den Markt kommt, wird jeder, der nicht in der Lage ist, sie sofort zu integrieren, bei jeder Entscheidung von der Konkurrenz und dem Markt selbst überholt werden.

4. Wie sollten wir uns auf KI in der Datenanalyse vorbereiten?

Glücklicherweise ist die Vorbereitung auf dieses Ereignis recht einfach und entspricht allgemein vernünftigen Geschäftspraktiken: Bringen Sie Ihre Daten in Ordnung, implementieren Sie ein effektives Business-Intelligence-System mit Planungsfunktionen, minimieren Sie den manuellen Aufwand und halten Sie offene APIs für die spätere Integration von wirklich prädiktiver KI bereit. Brauchen Sie dabei Hilfe? Nun, dafür sind wir ja da. Sprechen Sie uns einfach an wir freuen uns auf Sie!  

KI in der Datenanalyse: Wie sieht die Zukunft aus?
Coming Events
No event found!

Share:

LinkedIn
Twitter
Email

RELATED POSTS

Agentic AI – die Zukunft in EPM?

Künstliche Intelligenz hat längst Einzug ins Enterprise Performance Management (EPM) gehalten. Während viele Unternehmen noch dabei sind, sich mit klassischen KI-Funktionalitäten vertraut zu machen, klopft bereits eine neue, weitreichendere Entwicklung aus dem Bereich der künstlichen Intelligenz an die Tür: Agentic AI.

Integrierte Finanzplanung und Projektcontrolling bei Jonas & Redmann

Als weltweit tätiges Unternehmen mit über 400 Mitarbeitenden strebte Jonas & Redmann eine optimierte Lösung für die Finanzplanung und das Projektcontrolling an. Die Wahl der Software-Plattform war auf Board gefallen, das den Kunden mit einer perfekten Verbindung aus Planung und Reporting sowie der hohen Flexibilität überzeugte.

In 5 Schritten zur ESG-Berichterstattung

ESG-Berichterstattung (Environmental, Social, and Governance, oder auch Umwelt, Soziales und Unternehmensführung) wird ab 2025 für viele Unternehmen nicht mehr nur ein „Nice-to-have“ sein, sondern ein

Available in 4 locations 

Select your location

Available in 5 locations 

Select your location