Je größer und breiter Ihr Datenbestand im Unternehmen, desto wichtiger wird die sichere, performante und nachvollziehbare zentrale Bereitstellung der Informationen. Information Management beschreibt einerseits alle Methoden und Technologien zur Sammlung und Verwaltung von Informationen aus einer oder mehreren Quellen (Data Integration/Datenlogistik).

Andererseits beinhaltet es die Datenhaltung in einem speziellen System: einem Datawarehouse, einer Big Data Lösung, oder in einem Cube, mit dem Ziel einer Grundlage für ein effektives Business Intelligence oder Data Science.

Insbesondere zur Nachvollziehbarkeit der Informationen dient die Data Governance einer analytischen Lösung: Die grundsätzliche Nachverfolgung von Daten von der Quelle bis zur Auswertung gleich welcher Art, die technische und fachliche Dokumentation der Daten, der angewandten Transformationen erlauben einem Unternehmen erst, endgültige Aussagen betreffend Richtigkeit und Aussagekraft der Informationen zu treffen.

Wir unterstützen unsere Kunden in allen Aspekten der Datenintegration und im Aufbau einer analytischen Plattform. Zusätzlich haben wir weitreichende Erfahrung mit der Modernisierung existierender Datenversorgung:

integration

Aufgabenspektrum der Datenintegration

Das Aufgabenspektrum der Datenintegration umfasst deutlich mehr als nur die Zusammenführung von Daten über ETL-Prozesse. Es beinhaltet ebenfalls Themengebiete wie das Vereinheitlichen von Datenbeständen in unterschiedlichen operativen Systemen, die Anreicherung von unvollständigen und fehlerhaften Daten sowie die Harmonisierung von Stammdaten. In Zeiten globaler Märkte bedeutet dies nicht selten auch eine Integration von Daten über die eigenen Unternehmensgrenzen hinaus:

  • Automatisierte Meldung von Daten an Kunden, Zulieferer oder andere Adressaten
  • Einbindung unternehmensexterner Datenquellen (z.B. WebServices)
  • Automatische Synchronisation von Stammdaten unterschiedlicher Systeme

Optimierung der Datenintegration

Herausforderungen:

  • Datenqualität: Bestehende Strecken liefern ungenügende oder unvorhersehbare Qualität
  • Prozessqualität: Bestehende Strecken sind nicht (mehr) performant oder zuverlässig genug, Ladefenster können nicht eingehalten werden oder haben sich verkürzt
  • Technologien haben sich verbessert und neue Features sollen genutzt werden, neue fachlichen Anforderungen erfordern Redesign, z.B. von Batch nach Echtzeit

Angebot:

  • Mit unseren Datenintegrationsexperten werden die Anforderungen aufgenommen und Optionen diskutiert und umgesetzt
  • Resultat für Sie: Datenintegration optimal!
optimierung

Für die analytische Plattform gilt wiederum, dass sich zwar die Methodik beliebig wiederverwenden lässt, die Ergebnisse müssen jedoch in jeder Kundensituation individuell berücksichtigt werden. Daher setzen wir für den Neuaufbau bzw. einen Review einer existierenden Lösung auf die hier beschriebenen Workshops, deren Ziel die Erarbeitung einer entsprechenden Lösungsarchitektur ist. Natürlich realisieren wir auch Architekturen, die von unseren Kunden erarbeitet worden sind.

mika-baumeister-Wpnoqo2plFA-unsplash

Implementierung von Datawarehouse oder Big Data Lösungen

Herausforderung: Entwicklung einer voll funktionsfähigen und umfassenden Plattform, bestehend aus allen Aspekten der Datenintegration und Datenhaltung sowie optimiert auf die Anforderungen des Kunden, den analytischen Fragestellungen und BI-Tools.

Angebot: Konzeption, Umsetzung, Begleitung

  • Ein Team aus erfahrenen Projektleitern, DWH-Architekten, Experten konzipieren (wenn noch kein Lösungskonzept vorhanden) und entwickeln die komplette analytische Lösung
  • Datenintegration aus beliebigen Quellen
  • Modellierung, Aufbau und Datenintegration in ein Datawarehouse
  • Evaluierung, Konzeption, Aufbau eines Business Intelligence Tools (Standardberichte, Analysen, Dashboards, OLAP)
  • Entwicklung einer Planungslösung
  • Technische Bereitstellung einer Data Science Plattform
  • Betrieb und Support

Data Governance: Beratung hinsichtlich der Optionen und Technologie

Beratung im Rahmen der Entwicklung der Daten Integration, des Datawarehouse oder der Big Data Lösung, sowie in Business Intelligence und Data Science Projekten:

  • Regularien (Sonderfall DSGVO): der Gesetzgeber erwartet die Auskunft über Speicherung, Herkunft und Verwendung von Daten. Erreichbar nur, wenn Daten nachvollziehbar verarbeitet und gespeichert werden!
  • Data Lineage / Impact Analyse: oft kann durch die Nutzung von ETL-Tools automatisiert der Datenstrom nachvollzogen werden, inkl. technischer und operativer Metadaten
  • Gesicherte Erkenntnisse: wie können Fachanwender die präsentierten Informationen verstehen und interpretieren? Durchgängige fachliche Metadaten ermöglichen einheitliches Verständnis ohne Fehlinterpretationen
  • Das Gleiche oder dasselbe: die Vereinheitlichung von Stammdaten stellt sicher, dass Informationen gleicher Kunden/Produkte/Lieferanten auch richtig zugeordnet werden
  • Unbewusste Beeinflussung: Data Science Modelle müssen nachvollziehbar ihre Ergebnisse verständlich erklären, damit Unternehmen die Einflussfaktoren kennen und steuern können!
javier-allegue-barros-C7B-ExXpOIE-unsplash

Für Datenintegration, Information Management und Data Governance setzen wir auf Lösungen aus dem Hause Talend, IBM, Oracle und Microsoft. Mehr Informationen zu den Lösungen, den Herstellern und unseren Kompetenzen finden sie auf unseren Produktseiten.