Events
Suche
Close this search box.

The Heart of Data Mesh & Fabric

Programminhalte Tag 1

Jacqueline Bloemen

01. Oktober, 10:00 – 10:40 Uhr

Begrüßung & BARC Keynote –
Vom Data Mesh zum Data Product Hype?

Diese Keynote präsentiert die neuesten Ergebnisse des BARC Data Mesh Surveys und untersucht, warum mehr Unternehmen Data Mesh als irrelevant betrachten, während Data Products an Bedeutung gewinnen. Wir analysieren, ob der Hype um Data Products den um Data Mesh ablöst oder ob Data Products als Vorstufe zu Data Mesh dienen und welche Rolle Data Contracts in diesem Zusammenhang spielen.
 
Jacqueline Bloemen, Senior Analyst Data & Analytics | BARC

Jacqueline Bloemen ist Senior Analyst Data & Analytics mit den Schwerpunkten Data und Analytics Strategie und Kultur, Architektur und Technologie, Governance und Organisation. Sie ist Autorin und Rednerin und berät seit über 40 Jahren Unternehmen verschiedener Größen und Branchen. Derzeit konzentriert sich ihre Forschungs- und Beratungstätigkeit auf die Transformation zum datengetriebenen Unternehmen und Datendemokratie. Sie ist seit 2005 für BARC tätig.

01. Oktober, 10:40 – 11:10 Uhr

Operating Data & AI bei Merck: Embracing a Hub-Hub-Spoke Model for Customer-Centric Innovation

In diesem Vortrag wird Walid Mehanna über das Operating Modell der Merck Data & AI-Organisation sprechen, das einen Hub-Hub-Spoke-Ansatz nutzt, um Agilität und Reaktionsfähigkeit in allen Geschäftsbereichen und Funktionen bei Merck zu verbessern. Unter Anwendung eines skalierbaren agilen Ansatzes, durchläuft die Merck Data & AI-Organisation eine bedeutende Transformation hin zu einer produktorientierten Organisation, welche Kundenorientierung priorisiert. Die Teilnehmer werden Einblicke in die Praxis erhalten und erfahren, wie der agile Lieferprozess kontinuierliche Entdeckung und Lieferung fördert.

THEMENBLOCK

DATA MESH

Lernen Sie Ansätze für Data Mesh kennen und erfahren Sie mehr darüber, Datendomänenverantwortung, Datenprodukte, Self-Serve Plattformen und föderierte Data Governance zu gestalten.

 

01. Oktober, 11:45 – 12:15 Uhr

Datenorganisation bei der Deutschen Bahn

Dieser Vortrag stellt die Datenorganisation im DB Konzern vor. Er gibt Einblicke in die Erfahrungen mit Dezentralisierung und Domänenorientierung von Datenarchitekturen. Der Schwerpunkt liegt auf den erforderlichen kulturellen und organisatorischen Veränderungen für eine erfolgreiche Umsetzung in heterogenen und historisch gewachsenen Datenstrukturen.

Laura Hinsch, Business Engineer | DB Systel

Laura Hinsch ist Teil des Teams Data Intelligence Strategy am Standort Frankfurt. Laura hat langjährige Erfahrung in angewandter Analytik, nutzerzentrierter Digitalisierung und ITGovernance. Die strategische Arbeit an Big Data und KI Projekten sowohl mit dem Top Management als auch mit operativen Anwender*innen begeistert sie. Laura kann komplexe Themen nicht nur verständlich machen, sondern auch nachhaltig umsetzen. Mit ihrer Energie und der Begeisterung für alle Themen rund um die Eisenbahn reißt sie Teams und Kolleg*innen mit.

01. Oktober, 12:15 – 12:45 Uhr

Datenprodukte als Schlüsselelement des föderalen Datenmanagements

Im Rahmen der Umsetzung der ÖBB Datenstrategie sind folgende Fragestellungen relevant:

  • Was ist eigentlich ein Datenprodukt?
  • Warum sind Datenprodukte essenziell zur Umsetzung unserer zukünftigen Data-Use-Cases?
  • Worauf sollte man achten, bevor mit dem Entwurf eines Datenproduktes begonnen werden kann? Wie identifiziert und grenzt man ein Datenprodukt ab?
  • Wie kann es professionell designed und bereitgestellt werden?
Alexander Schiebl, Chief Enterprise Architect für Informations und Datenmanagement / Data Architecture | ÖBB Holding

Alexander Schiebl ist ein erfahrener Fachmann, der in verschiedenen Rollen wie Business Analyst, Lead Developer, Technischer Berater, Lösungsarchitekt, Enterprise Architekt und Scrum Master im Finanz- und Telekommunikationssektor tätig war. Derzeit ist er als Chief Enterprise Architect im Transport- und Eisenbahnsektor aktiv, wo er sich auf die Umsetzung der Datenstrategie 2028 konzentriert. Sein Fokus liegt auf Data-Mesh, Data-Fabrik, Dataproduct, Dataservice und Datagovernance, insbesondere im Rahmen föderaler Datendomänen. Alex bringt umfassende Expertise in der Gestaltung und Optimierung von Datenarchitekturen mit.

01. Oktober, 12:45 – 13:15 Uhr

„Next Level Data Mesh“:
Strategien und Innovationen für die Zukunft des Datenmanagements

Nachdem Data Mesh bereits eine signifikante Transformation der Art und Weise, wie Daten in Unternehmen verwaltet werden, eingeleitet hat, stehen wir nun am Beginn der nächsten Evolutionsstufe. Der Vortrag geht über die grundlegenden Prinzipien hinaus und erkundet fortgeschrittene Strategien und innovative Technologien, die die Effizienz und Effektivität von Datenökosystemen weiter steigern. Es werden die neuesten Entwicklungen und Best Practices für die Implementierung von Data Mesh vorgestellt. Der Fokus liegt auf der Integration von KI und maschinellem Lernen, der Optimierung von Self-Service-Datenplattformen und der Weiterentwicklung von Governance-Modellen.

Mandy Goram, Senior Solution Architect | pmOne

Die Informatikerin entwickelt innovative Lösungen sowie Datenstrategien im cross-industriellen Umfeld. Zudem forscht sie im Bereich der Menschen-zentrierten Informations- und KI-Systeme, mit Fokus auf ethisch-rechtlichen Aspekten. Sie ist erfahrene Softwareentwicklerin und DWH/BI/Analytics/KI-Expertin, mit langjähriger Industrie- und Projekterfahrung.

01. Oktober, 14:30 – 16:00 Uhr

WORKSHOP:
Data Products – Spannungsfeld zwischen Recycling und Trash!

Der Workshop „Data Products – Spannungsfeld zwischen Recycling und Trash“ beleuchtet die Unterschiede zwischen erfolgreichen und gescheiterten Datenprodukten. Nach einer Einführung werden Praxisbeispiele analysiert, um Erfolgsfaktoren und häufige Fehler zu identifizieren. Methoden zur Datenaufbereitung, Qualitätsmanagement und Nutzung werden vorgestellt. In einer interaktiven Übung entwickeln die Teilnehmer eigene Konzepte für Datenprodukte. Abschluss und Zusammenfassung runden den Workshop ab.
 
Prof. Dr. Carsten Felden, Unternehmensinhaber | Marmeladenbaum

Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/ Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.

01. Oktober, 14:30 – 16:00 Uhr

WORKSHOP:
Verantwortung und Vertrauen – Datenprodukte im Zeitalter von (generativer) KI

Datenprodukte sind der Kerngedanke eines Data Mesh. Sie reichen jedoch über einfache Datentabellen hinaus und umfassen auch KI-basierte Vorhersagen, generierte Inhalte und komplexe Geschäftslogik. Doch Vorsicht: Transparenz und Vertrauen sind der Schlüssel zur verantwortungsbewussten Bereitstellung solcher Datenprodukte. Der Gesetzgeber fordert dies sogar im Rahmen des EU AI-Act.
 
Wie können wir Vertrauen, Governance und Observability für komplexe Datenprodukte sicherstellen? Was sind die Schlüsselanforderungen? Welche Bedeutung haben Metadaten in diesem Kontext?
 
In diesem Workshop erarbeiten wir eine ganzheitliche Sicht für vertrauenswürdige KI – von den Quelldaten bis zum Datenprodukt. Und natürlich erleben Sie die wichtigsten besprochenen Konzepte live in Aktion auf der Ab Initio Plattform.
 
Dr. Andreas Becks, Strategic Advisor | Ab Initio

Dr. Andreas Becks berät als Strategic Advisor bei Ab Initio Kunden rund um die Themen Automatisierung datengetriebener Entscheidungen, Datendemokratisierung und AI Governance. Seit mehr als 25 Jahren ist sein Herzensthema der kulturelle Wandel durch Daten, Informationsvisualisierung und Künstliche Intelligenz. Andreas Becks war in verschiedenen leitenden Positionen in der Kundenberatung bei Softwareunternehmen, als Business- und Lösungsarchitekt sowie im strategischen Produktmanagement und in Forschung und Entwicklung tätig. Er ist studierter Diplom-Informatiker, promovierte in Künstlicher Intelligenz an der Technischen Universität Aachen und erwarb einen MBA an der Universität St. Gallen.

01. Oktober, 16:05 – 16:35 Uhr

Panel: Data Fabric – Traum oder Muss?

mit Vanya Kostova, Jan Henning und Dr. Martin Meermeyer

Moderation: Jacqueline Bloemen

The Heart of Data Mesh & Fabric – Programminhalte Tag 1

THEMENBLOCK

DATA FABRIC

Erfahren Sie, wie Data Fabric als Konzept und Architekturprinzip eine optimale Nutzung heterogener Datenquellen ermöglicht, unabhängig von deren Art und Standort.

01. Oktober, 17:10 17:40 Uhr

Schnellere und bessere Integration von SAP-Daten in die Enterprise Data Cloud

SAP-Daten sind eine wichtige Datenquelle für die Data Cloud der Unternehmen, die KI-Modelle anreichert und Einblicke in die wichtigsten und kritischsten Prozesse gewährt. Wir zeigen, wie Sie auf diese Daten zugreifen und sie in Ihr Cloud-Ökosystem integrieren können.

Carl Donsbach, Product Manager Data Management | SNP Group
Carl Donsbach ist Produktmanager beim Heidelberger SAP-Spezialisten SNP im Bereich Data Management. Er unterstützt Kunden dabei, das volle Potenzial ihrer SAP-Daten in Cloud-Umgebungen auszuschöpfen. Zusammen mit anderen SAP- und Cloud-Experten bildet er das Team rund um SNP Glue, eine SAP-Datenintegrationslösung mit Anbindung an Snowflake, Databricks, Google BigQuery und viele mehr.
 

01. Oktober, 17:40 – 18:10 Uhr

Von monolithisch zu modular: (Cloud-)Transformation der Datenverarbeitung bei der DKB

Begleiten Sie uns auf unserer Abenteuerreise von der Planung bis zur Ankunft am Traumziel: Unser Vortrag führt Sie durch die Landschaften von Kubernetes, vorbei an Data Lakes bis hin zu Cloud Data Warehouses. Erleben Sie, wie Data Sharing uns mit Hilfe des Producer-Consumer-Modells an neue unbekannte Orte führt. Wir zeigen Ihnen, wie Sie den monolithischen Ozeantanker gegen modulare Schnellboote tauschen, um schneller und effizienter ans Ziel zu kommen. Nehmen Sie Platz, schnallen Sie sich an und heben Sie mit uns ab auf dem Weg in die fernen Gefilde der Cloud.
 
Stephan Richter, Tech Lead | DKB 
Als Tech Lead verantwortet Stephan Richter unter anderem den Ausbau und die Modernisierung der Datenlandschaften und die Migration der DKB-Datenhaushalte in die Cloud. Sein Fachwissen ist entscheidend für die Entwicklung sicherer, skalierbarer Lösungen, die die DKB an die Spitze der datengesteuerten Innovation bringen.
 
Florian Schmidt, Director | 23DATA

Als Director bei 23DATA leitet Florian Schmidt ein Team hochspezialisierter Cloud Data Engineers. Mit umfassender Erfahrung im Design und der Erstellung moderner Datenplattformen hat Florian Schmidt zahlreiche Cloud-Migrationsprojekte erfolgreich begleitet. Durch seine Expertise in der Cloud-Datenverarbeitung hat er maßgeblich zur Optimierung und Modernisierung der Dateninfrastrukturen seiner Kunden beigetragen. Seine Fähigkeit, innovative Lösungen zu entwickeln und komplexe Migrationsprozesse zu managen, macht ihn zu einem geschätzten Experten in der Branche.

01. Oktober, 18:15 – 18:45Uhr

Data Meshification bei E.ON

Data Mesh ist längst kein bloßer Hype mehr. Vielmehr verspricht dieser Ansatz, das Beste aus verschiedenen Welten zu vereinen, um dezentrales Datenmanagement umfassend zu implementieren und skalierbar zu machen. Doch wie lässt sich dieser sozio-technologische Ansatz in einer Organisation umsetzen, die bereits auf agile Methoden und flexible Prozessstrukturen setzt, jedoch von einer zentralisierten Datenarchitektur kommt? Dieser Vortrag zeigt, wie wir bei E.ON Deutschland technologische, kulturelle und organisatorische Weichen stellen, um das Potenzial von Data Mesh Realität werden zu lassen.

Jan Henning, Vice President Data | E.ON Energie Deutschland

Jan verantwortet die Data & AI Value Chain des Unternehmens. Von Engineering über Analytics, Data Science & AI bis hin zu Data Governance – alle Disziplinen zielen darauf ab, die bestmögliche Customer Journey für die Kunden zu gestalten. Jan bringt über 20 Jahre Erfahrung im Bereich Data & AI mit, die er vor E.ON vor allem in der deutschen Pharma- und Life-Science-Branche gesammelt hat. In verschiedenen Positionen hat er Data Warehouses aufgebaut, Self-Service-BI-Technologien eingeführt und Big Data, Data Science sowie KI in die Praxis umgesetzt. Sein Motto „Data to the People – AI for a better world“ spiegelt sich in der Arbeit seines Teams wider, das mit voller Leidenschaft daran arbeitet, die Energiewende in Deutschland voranzutreiben und möglichst viele Kunden zu aktiven Gestaltern der Energiewende zu machen.

The Heart of Data Mesh & Fabric – Programminhalte Tag 1

01. Oktober, ab 18:45 Uhr

Abendveranstaltung im VCC Würzburg

Lassen Sie beim gemütlichen BBQ im Innenhof des VCC den Abend Ausklingen und führen Sie interessante Gespräche mit Teilnehmern, Referenten und Ausstellern.

The Heart of Data Mesh & Fabric – Programminhalte Tag 1

Haben Sie Fragen? Nehmen Sie Kontakt auf.

Ihre Ansprechpartnerin

Bei Fragen zur Veranstaltung steht Ihnen Event Managerin Anna van Evert zur Verfügung.

Telefon

+49 931 880 65 10

Anna van Evert
Sie wollen mit Ihrem Datenprojekt durchstarten, aber wissen nicht so recht, wie? Hier geht's zu unseren SmartStart Workshops zu verschiedenen Themen.