Als Analyst und Data Scientist habe ich relativ spät angefangen, mich mit ChatGPT zu befassen. Ich befürchtete zu sehr, enttäuscht zu werden. Mittlerweile bin ich erstaunt, wie gut sich manche Aufgaben mit diesem Large Language Model (LLM) bewältigen lassen. Zum Beispiel generierte ChatGPT für mich fast einsatzbereite Python-Programme für die Verarbeitung von Bilddateien. Oder es fügte einem bereits erstellten Skript ein funktionsfähiges Logging- und Exception-Handling hinzu. Hierbei waren jeweils nur wenige händische Anpassungen nötig, um die Programme lauffähig zu machen.
Abbildung 1: ChatGPT erklärt Large Language Models
Für meine Arbeit als Data Scientist war das durchaus hilfreich und ich werde es garantiert wieder nutzen. Als Analyst interessierten mich vor allem die Auswirkungen dieser Technologie und ihrer Weiterentwicklungen auf den Software- und Arbeitsmarkt rund um Data & Analytics.
Ich hoffte auch, dass mir ChatGPT hierzu „mal eben“ einen Blog-Beitrag verfassen kann. Dabei erlebte ich allerdings eine leichte Enttäuschung. ChatGPT blieb bei den Antworten auf meine Fragen sehr oberflächlich. Die Inhalte bezogen sich auf allgemeine Auswirkungen von Artifical Intelligence (AI) und kamen mir sehr bekannt vor.
Der Output regte mich dennoch zu spannenden Überlegungen an, die ich an dieser Stelle teilen möchte.
- Beschleunigung der Automatisierung trotz Fachkräftemangel: LLMs können Fachkräfte bei der Automatisierung von Prozessen unterstützen und sie effektiver machen. Dies wird das Tempo der Automatisierung in verschiedenen Berufsfeldern erhöhen. Meine ersten Gehversuche mit ChatGPT haben das eindrucksvoll belegt. Ich konnte mir die Recherche nach geeigneten Python-Packages sparen und auch die Zeit, ihren Funktionsumfang anhand von Beispielen zu umreißen.
Die Erstellung des Programms für die Bildverarbeitung hätte mich ohne diese Unterstützung ein Vielfaches an Zeit gekostet. Das mit der Hilfe von ChatGPT erstellte Programm automatisiert eine eintönige und zeitaufwändige manuelle Tätigkeit. - Etablierung von LLMs als neue Schnittstelle zwischen Menschen und Computer: Schon jetzt ist der AI-Output in Form von Code besser als der in reiner Textform. Der Einsatz im Bereich Natural Language Query (NLQ) hat das Potenzial, die sprachbasierte Abfrage und Verarbeitung von Daten auf ein neues Qualitätsniveau zu bringen.
Es ist denkbar, dass Weiterentwicklungen und direkte Integrationen von LLMs in Computersysteme Anwender dazu befähigen, per Sprachbefehl und anhand einfacher Erklärungen komplizierte Berechnungen und Analysen anzustoßen und Programme zu schreiben, die direkt ausgeführt werden können. - Programmierkenntnisse als Job-Garant: Momentan können Business-Analysten, Controller und Data Scientists mit grundlegenden Programmierkenntnissen am meisten von ChatGPT profitieren, da sie den Output verstehen, ihren Bedürfnissen anpassen und somit direkt nutzen können.
Sollten sich LLMs tatsächlich als Schnittstelle zwischen Menschen und Maschine etablieren, werden Anwender mit nur rudimentären Programmierkenntnissen ihren Vorteil wieder verlieren. Da wo man mit Sprachbefehlen an Grenzen stoßen würde, würde ihr Kenntnisstand möglicherweise nicht mehr ausreichen, diese zu überwinden. - Veränderte Rolle von Experten: Die Rolle von Experten im Bereich Data & Analytics, Controlling und Rechnungswesen könnte sich stärker in Richtung strategische Planung, Beratung, Problemlösung und Kontrolle verlagern. Sobald AI-Systeme einen Großteil der Routinearbeit übernehmen oder per Sprachbefehl ausführen können, werden neue Kompetenzen gefragt sein.
Controller werden dann nicht mehr vordergründig damit beschäftigt sein, Berichte zu erzeugen und sie aufzubereiten. Sie werden diese vielmehr evaluieren, mögliche Schwachstellen identifizieren und mit Wissen und Informationen anreichern, auf das AI-Systeme kein Zugriff haben. Hierzu muss ein grundlegendes Verständnis zur Funktionsweise von automatisierten AI-Systemen vorhanden sein. - (Ab-)Schaffung von Arbeitsplätzen: Wenn die Automatisierung durch LLMs an Fahrt aufnimmt, werden im Bereich Data & Analytics viele aufwändige, manuelle und oft fehleranfällige Routineaufgaben effizient und schnell durch die KI bewältigt. Ambitionierte Nutzer könnten dadurch deutlich mehr leisten und somit ihre Produktivität signifikant steigern. Dies könnte den Nebeneffekt haben, dass Unternehmen in den jeweiligen Abteilungen mit deutlich weniger Personal als zuvor auskommen und weniger Stellen besetzen.
Gleichzeitig wird die Nachfrage nach Personal, das im Umgang mit AI geschult ist, rapide ansteigen. Der Aufstieg von LLMs hat bereits zu neuartigen Stellenausschreibungen geführt. Prompt Writers und Prompt Engineers sind zwei prominente Beispiele hierfür. Bei diesen Berufen kommt es darauf an, Sprachbefehle für AI zu formulieren, sodass diese entweder möglichst gute Ergebnisse erzeugen oder anhand dieser lernen können, allgemein bessere Ergebnisse zu liefern. Der Bedarf an Schulungspersonal und Fortbildungsangeboten dürfte dementsprechend ansteigen.
Ich gehe davon aus, dass der Wirbel, den die Veröffentlichung von ChatGPT ausgelöst hat, nicht nur ein kurzfristiger Hype ist, sondern tatsächlich große Veränderungen in Data & Analytics und darüber hinaus nach sich ziehen wird. Überall werden die Möglichkeiten dieser Technologie verprobt und große Unternehmen leisten große Anstrengungen, um ganz oben auf der Welle mitzureiten.
Google hat nach einer Krisensitzung in kürzester Zeit sein Pendant „Bard“ auf den Markt geworfen, Microsoft arbeitet emsig daran, Funktionen von ChatGPT in das eigene Produktportfolio zu integrieren. Databricks bleibt seiner Verbundenheit zur Open-Source-Community – im Gegensatz zu OpenAI – treu und stellte zwei Wochen nach dem Release von Dolly schon die zweite Version (Dolly 2.0) der Allgemeinheit zur Verfügung. Weitere Softwarehersteller aus dem Bereich Data & Analytics suchen bereits die Kooperation mit den Entwicklern von ChatGPT und Co. und kündigen ebenfalls Integrationen an. Prominente Beispiele hierfür sind ThoughtSpot, Pyramid Analytics, DataRobot und Qlik, deren Ansätze und Visionen einen eigenen Blog-Beitrag wert sind.
Die Rasanz der Entwicklungen weckt aber auch Sorgen, wie der kürzliche Aufruf zu einem sechsmonatigen Moratorium bei der Weiterentwicklung von AI belegt. Die geäußerten Bedenken und identifizierten Risiken sind relevant. Hierzu zählen Gefahren, die durch Monopolbildungen entstehen, aber auch ganz allgemein regulatorische Herausforderungen bezüglich der Einhaltung gesetzlicher, politischer, sozialer und ethischer Prinzipien sowie der Prävention von Missbrauch. Hier warten noch viele wichtige und grundsätzliche Fragen auf eine adäquate Antwort.
Auch wenn momentan nicht an der Entwicklung von ChatGPT 5 gearbeitet wird, bleibt es auf jeden Fall spannend. BARC bleibt für Sie weiterhin am Ball, wenn es um Data & Analytics-News rund um LLMs und ChatGPT im Besonderen geht.
Eine kurze Erläuterung von ChatGPT 4
ChatGPT steht für „Chat Generative Pre-trained Transformer“:
Chat: Der Begriff „Chat“ deutet darauf hin, dass das Hauptziel dieses AI-Modells darin besteht, menschenähnliche Textkonversationen oder Chats zu simulieren.
Generative: „Generative“ bedeutet, dass ChatGPT Text erzeugen kann, anstatt nur aus einer begrenzten Anzahl vorgefertigter Antworten auszuwählen. Es kann also „kreativ“ neue Antworten erstellen, die auf dem Kontext des Gesprächs und der gestellten Frage basieren.
Pre-trained: „Pre-trained“ bedeutet, dass das Modell bereits auf einer großen Menge an Daten trainiert wurde, bevor es für spezifische Aufgaben oder Anwendungen angepasst wird. Dadurch hat es bereits ein grundlegendes Verständnis von Sprache und kann auf dieses Wissen aufbauen, um menschenähnliche Antworten zu generieren.
Transformer: „Transformer“ ist der Name einer speziellen Architektur für künstliche neuronale Netze (Deep Learning), die für ChatGPT verwendet wird. Diese Architektur ist besonders gut geeignet, um komplexe Muster und Zusammenhänge in Texten zu erkennen und zu lernen.