Suche
Close this search box.

Auch IBM ist im AI-Zeitalter angekommen – aber anders

Lesezeit: 4 Minuten
Die Neuausrichtung von IBM Research hat Auswirkungen auf das aktuelle Produktportfolio, insbesondere auch im Bereich AI. BARC hatte Gelegenheit, in einem Briefing mehr darüber zu erfahren.

Kürzlich hatte BARC wieder einmal die Gelegenheit zu einem Briefing bezüglich IBMs Research Aktivitäten. Hier hat es – insbesondere auch nach dem CEO-Wechsel – signifikante Schwerpunktverschiebungen gegeben, die sich bis in das aktuelle Produktportfolio auswirken.

Bekanntlich unterscheidet IBM wie kaum kein anderer großer Hersteller zwischen Research Labs, die sich selbst als Pendant zur universitären Forschung verstehen, und Product Labs, die für die Entwicklung der am Markt angebotenen Produkte verantwortlich sind.

Derzeit konzentriert sich IBM Research auf vier Kernbereiche, die die mittel bis langfristige IBM Unternehmensstrategie unterstützen: (1) Foundation Modells, (2) Multi-Cloud Technologies, (3) Semiconductor Technologies und (iv) Quantum Computing. Auf diese Weise kann IBM Research seine Mission „Be the organic growth engine for IBM“ und „Create what’s next in computing” erfüllen. Diese Ausrichtung der Mission von IBM Research an der mittel- bis langfristigen Unternehmensstrategie war bei weitem nicht immer so prägnant und ausgeprägt. Vielmehr genoss IBM Research in vergangenen Unternehmensepochen einen deutlich größeren Forschungsfreiraum als dies heute der Fall ist. Dies ist sicherlich auch eine Folge der vom Markt erzwungenen Repositionierung von IBM im Kontext des Aufstiegs der großen Plattformanbieter wie Amazon, Microsoft, Alphabet/Google, Meta und auch Apple, die nicht alle zwangläufig aus der reinen IT kommen, sondern ihre herausragende Marktbedeutung allesamt über den Consumer-Markt erreichen konnten.

Grundsätzlich kann festgehalten werden, dass die neue Ausrichtung von IBM Research wesentlich dazu beigetragen hat, neue technologische Entwicklungen schneller aufzugreifen und den Übergang von R&D zu marktfähigen Lösungen deutlich zu verkürzen. Dies zeigt sich insbesondere auch im Bereich von AI (Artifical Intelligence) und Large Language Models (LLM).

Dieser verkürzte „Research to Commercial Reality“-Zyklus wird insbesondere auch durch eine 3-Horizonte-Strategie unterstützt. Im ersten Horizont, der etwa einem Zeitraum von 6 bis 12 Monaten umfasst, geht es tatsächlich um Entwicklungen, die produktähnliche Ergebnisse hervorbringen, die dann in den Product Labs zu kommerziellen Angeboten verfeinert werden. Der zweite Horizont umfasst die nächsten Jahre. Hier geht es nicht um konkrete Produktentwicklungen sondern vielmehr um das Ausloten von Möglichkeiten für zukünftige Entwicklungen. Der dritte Horizont betrifft den Zeitraum von 5+ Jahren und adressiert in erster Linie ähnliche Projekte, wie sie auch in der rein universitären Forschung üblich sind. In diesem Bereich werden vor allem solche Projekte adressiert, für deren erfolgreiche Umsetzung massive technische Hürden bestehen, für die zunächst wissenschaftliche Lösungen gefunden werden müssen. Beispielsweise waren alle Aktivitäten zu Quanten-Computing für relativ lange Zeit in diesem dritten Horizont angesiedelt. Die Gewichtung dieser drei Horizonte liegt geschätzt bei 40/30/30 Prozent.

In der Vergangenheit war IBM mit seinem AI-Angebot Watson sehr früh – wahrscheinlich zu früh – am Markt, konnte aber trotz einer sehr eindrucksvollen Demonstration in der US-Fernsehshow Jeopardy nicht das für einen nachhaltigen Erfolg notwendige Momentum im Markt umsetzen. Die Voraussetzungen waren im Prinzip gegeben, nämlich einerseits die sehr lange Erfahrung von IBM im Data Management und andererseits die Fähigkeit, Hochleistungscomputersysteme zu entwickeln und herzustellen. Dennoch gelang es zuerst anderen, an IBM vorbeizuziehen und schließlich mit OpenAIs ChatGPT den Markt komplett aufzumischen. Allerdings war auch hier wieder der Consumer-Bereich, der nach dem Verkauf der PC-Sparte aus dem Fokus von IBM verschwunden ist, der entscheidende Katalysator.

Trotzdem hat sich ein neues, sehr interessantes Feld aufgetan, das von gleich zwei der strategischen Säulen von IBM Research getragen wird, nämlich zum einen vom langjährigen Forschungsschwerpunkt auf AI und zum anderen von Multi-Cloud Computing, also im Wesentlichen Hybrid-Cloud-Ansätzen, die Kundendaten nicht in Public-Cloud-Umgebungen exponieren. Dies adressiert die Wünsche und Bedenken von Kunden in mehrfacher Hinsicht: Einerseits die Möglichkeiten des Einsatzes von AI-Systemen nicht zu verpassen und andererseits aber die notwendigen Daten – und das damit verbundene Know-how – im eigenen Unternehmen zu halten. Als dritter Aspekt kommt hinzu, dass IBM auch im Bereich der Datensicherheit sehr engagiert ist und damit eine weitere Anforderung vieler Unternehmen im gleichen Kontext abdeckt.

Um die Möglichkeiten zu verstehen, die sich aus dem verstärkten Fokus auf den Zyklus „Research to Commercial Reality“ ergeben, lohnt es sich einen Blick auf die Aktivitäten im Rahmen von Watsonx zu werfen. Watsonx ist eine klare Weiterentwicklung des ursprünglichen Watson-Produktes, das im Mai 2023 eingeführt wurde, um dann mit watsonx.ai, watsonx.data und watsonx.governance im Juli und Dezember 2023 – also in erstaunlich kurzer Zeit – ergänzt zu werden. Alle diese Systeme sind für den Einsatz in der privaten Umgebung von Kunden-Rechenzentren geeignet (in Private-Cloud-, Hybrid-Cloud- oder no-Cloud-IT-Umgebungen). IBM hat hierfür Foundation Models für verschiedene Anwendungsbereiche entwickelt und quasi als Produkt auf den Markt gebracht. Diese Modelle können in den privaten IT-Umgebungen der Unternehmen betrieben und durch Transfer-Learning an die individuellen Bedürfnisse der einzelnen Unternehmen und unternehmensspezifischen Daten auf ganz konkrete Unternehmenssituationen und Aufgabenspektren angepasst werden. Hieraus ergeben sich gleich mehrere Vorteile. Zum einen können Kunden in sehr kurzer Zeit und ohne allzu tiefes Wissen unternehmensspezifische AI-Lösungen implementieren und in ihrer sicheren IT-Umgebungen betreiben, und zum anderen kann IBM seine Foundation Models in großer Zahl an unterschiedliche Unternehmen verkaufen. Auf diese Weise gelingt es – ohne den Umweg über Public Clouds und die damit verbundenen Unsicherheiten hinsichtlich der Unternehmensdaten – das vorhandene AI-Know-How in die Fläche zu tragen und gleichzeitig das branchenspezifische Wissen über IBM Consulting parallel zu vermarkten.

Bottom Line:

Es besteht also eine echte Abgrenzung gegenüber den klassischen AI-Szenarien, die weitgehend auf den Large Language Modellen der verschiedenen anderen Anbieter basieren, und die gleichzeitig die Stärken von IBM hervorheben und spezifische Wünsche der Kunden in Bezug auf Datensicherheit und öffentlichen Zugang entsprechen. Wie es scheint hat IBM damit nach dem anfänglichen Watson-Strohfeuer den nachfolgenden Realitätsschock überwunden und seine eigentliche Rolle mit diesen Technologien im Markt gefunden.

Gefällt Ihnen dieser Beitrag?
Wir haben noch viel mehr davon! Schließen Sie sich über 25.775 Data & Analytics Professionals an, um der Konkurrenz einen Schritt voraus zu bleiben.

Weitere Inhalte entdecken

Ein Beitrag von:

Sie wollen mit Ihrem Datenprojekt durchstarten, aber wissen nicht so recht, wie? Hier geht's zu unseren SmartStart Workshops zu verschiedenen Themen.