Ergebnisse_Logo_3_kleiner

Die Zukunft gehört den Data Driven Companies

Die aktuelle Studie zu Digitalisierung und Datenarbeit zeigt: Die Frage ist nicht ob, sondern wie! Erfahren Sie, wie sich Unternehmen im deutschsprachigen Raum der Digitalisierung stellen und wie Sie von den Learnings profitieren.

Die aktuelle Studie zu Digitalisierung und Datenarbeit zeigt: Die Frage ist nicht ob, sondern wie! Jetzt Ergebnisse holen und erfahren, wie sich Unternehmen im deutschsprachigen Raum der Digitalisierung stellen und was das für mein Unternehmen bedeutet.

the factlights Artikel

Datenqualität in BI und Big Data – wo liegt der Unterschied und wie funktioniert es zusammen?

Der durch klassische Business-Intelligence-Systeme (BI) erzeugte „Blick in den Rückspiegel“ reicht Firmenlenkern nicht mehr aus. Unternehmen interessieren sich zunehmend für die auf fortgeschrittenen Analytics-Methoden beruhenden Vorhersagemodelle der Predictive Analytics. In Transaktionssystemen gibt es klare Standards für die Datenqualität. Bei Predictive Analytics und Big Data entscheidet der Business Case darüber, wie genau, vollständig oder aktuell die Datenbasis sein muss.

In einer klassischen BI-Umgebung lagern typischerweise strukturierte Daten aus internen Vorsystemen wie Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) oder der Buchhaltung. Für die Qualitätssicherung gibt es Best Practices und erprobte Technologien – man weiß genau, wie und wo man bei der Optimierung ansetzen kann, wenn der Bedarf da ist.

Unklar ist hingegen die Qualitätssicherung bei den für Predictive Analytics nötigen Big-Data-Quellen. Nutzen und Wertschöpfung der anvisierten Vorhersagemodelle hängt auch hier maßgeblich von der Qualität der zugrundeliegenden Daten ab. Systemarchitekten diskutieren nun, wie sie die Qualität von riesigen semi- und polystrukturierten Daten bewerten und sichern, welche Systemarchitekturen dabei ins Spiel kommen und wie das Datenmanagement funktioniert.

Das Data Warehouse stellt den Single Point of Truth

Das klassische Data Warehouse hat als Kern einer typischen BI-Umgebung auch in der Welt der fortgeschrittenen Analysen seine Daseinsberechtigung. Es ist die beste Grundlage für standardisierte Berichts- und Analyseprozesse mit den unverzichtbaren Finanz- und Steuerungskennzahlen. Geht es um vorausschauende Unternehmenssteuerung, so sind diese Berichtsstandards um Trendanalysen und Prognosen aus der Big-Data-Welt zu ergänzen. In der Praxis erweist sich der sogenannte Data Lake als pragmatischer Implementierungsansatz, um hochstrukturierte Daten aus Transaktionssystemen und wenig strukturierte Big Data zusammenzuführen.

Ausgehend von der bewährten BI-Architektur mit offenen Schnittstellen lassen sich damit Big-Data-Komponenten in eine vorhandene Informationsplattform integrieren.

Wichtig dabei ist, dass das zentrale Data Warehouse seinen Anspruch als Single Point of Truth im Unternehmen behält. Will man das Datenmanagement und die Qualität der Datenbasis für Advanced Analytics optimieren, ist es daher eine gute Idee, mit dem meist vorhandenen Data Warehouse zu starten.

Wie die Projektpraxis zeigt, besteht hier nämlich oft noch Handlungsbedarf. Abgesehen von Qualitätsmängeln und inkonsistenten Datenstrukturen wird mit dem Trend zu Self-Service-BI auch das bekannte Problem von Insellösungen und Datensilos wieder akut, das früher durch diverse Excel-Lösungen der Fachabteilungen verursacht wurde. Self-Service im Fachbereich ist praktisch und hat seine Berechtigung, aber das zentrale Business Intelligence Competence Center oder der BI-Verantwortliche müssen die Datenströme unter Kontrolle halten und darauf achten, dass der Single Point of Truth nicht ausgehebelt wird.

Data Warehouse Automation sichert die Datenqualität

Sind die Datenströme gut modelliert, bestehen große Chancen für eine dauerhaft hohe Datenqualität im BI-System. Durchweg strukturierte Daten von der operativen bis zur dispositiven Ebene, standardisierte Auswertungsverfahren und mächtige ETL-Werkzeuge (Extraktion, Transformation, Laden) mit integrierten Prüffunktionen ermöglichen eine hohe Automatisierung der Datenauswertung.

Für den effizienten Aufbau, die Anpassung und die Optimierung von Data Warehouses gibt es inzwischen ausgereifte Verfahren, die Standardisierung und Automatisierung erhöhen und damit die Fehlerrisiken auf ein Minimum senken.

Diese Data Warehouse Automation beruht auf Frameworks, die bereits Best Practices für ETL nach etablierten Verfahren sowie Prüflogiken zur Sicherung der Datenqualität enthalten beziehungsweise deren Modellierung auf Meta-Ebene unterstützen. Neben einer effizienten Entwicklung und Administration vermeidet dieser lösungsorientierte Ansatz Konstruktionsfehler und sorgt dafür, dass für eine saubere Datenverarbeitung Best Practices zum Einsatz kommen.

Da Business Intelligence die Business-Realität möglichst genau abbilden will, ist ein hohe Datenqualität unverzichtbar. Klassische Kriterien wie Exaktheit und Vollständigkeit sind dabei zentrale Anforderungen. Schon ein Datenfehler oder eine Lücke im operativen Bestand kann das Ergebnis einer aggregierten Kennzahl verfälschen. Im Rahmen des internen und externen Berichtswesens stehen damit schnell falsche Entscheidungen oder Compliance-Verstöße im Raum.

Bei Big Data steuert der Business Case die Governance

In der Big-Data-Welt gestaltet sich die Datenqualität anders. Hier geht es zunächst darum, die relevanten Datenquellen zu bestimmen, die Daten abzuholen und zu speichern. Das ist nicht immer trivial angesichts einer Bandbreite von Daten aus dem Internet of Things, unstrukturierten Informationen aus Blogs und Social Networks, Sensordaten aus Kassensystemen und Produktionsanlagen, Messdaten aus Leitungsnetzen bis zu Datensätzen aus Navigationssystemen.

Im Gegensatz zur BI-Welt bestehen hier für die interne Datenarbeit keine allgemeingültigen Geschäftsregeln und Standards. Da es um die statistische Auswertung von Massendaten geht, sind die BI-typischen Qualitätskriterien Vollständigkeit und Exaktheit weniger wichtig. Im Rahmen der statistischen Verfahren fallen einzelne Fehler und Lücken nicht ins Gewicht, und Ausreißer lassen sich regelbasiert eliminieren. Wie groß die kritische Masse für belastbare Ergebnisse ist, wie genau, vollständig oder aktuell die Datenbasis sein muss und in welcher Form Informationen nutzbar gemacht werden, das ist für Big-Data-Analysen fallbezogen zu klären. Die Vielfalt der Einsatzbereiche und damit die Rahmenbedingungen für die Bewertung und Bearbeitung von Daten sind nahezu unbegrenzt.

Geht es etwa beim Internet of Things um die grobe Ressourcenplanung von Wartungsarbeiten für angebundene Geräte, sind Ausfälle einzelner Geräte-Meldesysteme irrelevant, da die Ermittlung von Peaks ausreicht. Im Rahmen von Predictive Maintenance ist dagegen jede konkrete Ausfallmeldung eines Gerätes wichtig. Für Kundenzufriedenheitsindizes auf Basis von Weblog-Analysen kommt es nicht auf jeden Beitrag an. Vielmehr geht es darum, Trends abzuleiten und diese in sinnvoll definierte Kennzahlen zu überführen.

Bei Big-Data-Anwendungen fallen also Datenqualitätsmanagement und Governance ebenso individuell aus wie das Analyseszenario des jeweiligen Business Case. In hoch automatisierten Anwendungen wie Autonomes Fahren oder Predictive Maintanance, in denen ausschließlich Maschinen über die Ergebnisse und Auswirkungen von Datenanalyen entscheiden, ist die Data Governance besonders wichtig. Die Quellen von Big Data liegen häufig außerhalb des Einflussbereichs der internen Prozesse: Maschinen-Output, Nutzereingaben oder Internet-Datenströme lassen sich nicht über interne organisatorische Maßnahmen kontrollieren. Bei permanent fließenden, unstrukturierten Datenquellen wie Chatforen greifen auch die klassischen ETL-Methoden nicht, und Störungen wie etwa eine Leitungsunterbrechung können nicht durch Wiederholung oder das Wiederherstellen des Datenbestands ausgeglichen werden.

Eine profunde Konzeption sichert den Projekterfolg

Das Potenzial von Predictive Analytics ist riesig, und viele Unternehmen erschließen sich gerade neue Dimensionen der Informationsgewinnung. Durch Cloud-Betriebsmodelle lassen sich neue Anwendungen schnell und kosteneffizient umsetzen. Voraussetzung dafür ist eine profunde Konzeption, die den kompletten Wertschöpfungsprozess der Daten mit Blick auf ein präzise formuliertes Projektziel abdeckt.

Für ein erfolgreiches Projekt müssen anspruchsvolle Fragen der Fachlichkeit, Technik und Organisation geklärt werden. Hier empfiehlt es sich, die Erfahrung eines ganzheitlich orientierten Beratungsunternehmens hinzuzuziehen, um sich zeitraubende Umwege und schmerzhafte Lernzyklen zu ersparen. QUNIS als ausgewiesener Experte für Data & Analytics bietet hier umfassende Erfahrung und bewährte Vorgehenskonzepte. MEHR ZU QUNIS

News von QUNIS

Tipp

Data Governance ist zentral für Data & Analytics

Daten sind das Herzstück jedes Unternehmens. Ein fehlerhafter Umgang mit ihnen kann schnell zu erheblichen Wirtschafts- und Imageschäden führen.

QUNIS hat ein dreistufiges Framework mit insgesamt acht Handlungsfeldern entwickelt, das für Business-Intelligence- und Andvanced-Analytics-Initiativen eine verlässliche Orientierungshilfe für den Aufbau und die Etablierung einer Data Governance stellt. So können Risiken erkannt, Schäden vermieden und Zukunftschancen sicher ergriffen werden.

Artikel

An Datenmanagement denken heißt, Digitalisierung lenken

Will man mit der Digitalisierung erfolgreich sein, braucht es dringend ein schlüssiges Datenmanagement-Konzept!

Daten als wertvolles Asset sehen, Daten(quellen) werden immer heterogen bleiben, Priorisierung der Datenharmonisierung und Analytics-Kompetenz ist unterbesetzt. Auf diese vier Aspekte sollten Sie achten.

Artikel

AI wird konkret – Empfehlungen für die Praxis

Es herrscht Einigkeit darüber, dass AI in der Geschäftswelt unbegrenzte Potenziale eröffnet, wenn passende Anwendungsbereiche gefunden werden.

AI-Methoden und Tools haben sich rasant entwickelt und stehen in einem hohen Reifegrad bereit. Werden die Begrifflichkeiten auch oft unscharf benutzt so empfehlen sich neben der Suche nach völlig neuen Geschäftsmodellen vor allem zwei spannende Einsatzfelder für den Einstieg in die AI-Welt, für die es jedoch ein paar Aspekte zu beachten gilt.

Download

QUNIS AI Factsheets. Kompakter Überblick zu den neun wichtigsten AI-Methoden

Von Clustering, Regression, Anomaly Detection und Survival Analysis bis hin zu Natural Language Processing. QUNIS AI-Factsheets direkt als PDF holen.

QUNIS Data Scientists haben neun ihrer beliebtesten Methoden in den AI-Factsheets kompakt und übersichtlich zusammengestellt. Gleich kostenfrei holen und mehr zu typischen Fragestellungen, passenden Anwendungsfällen und Anforderungen an Form und Art der notwendigen Daten erfahren.

Artikel

BI und Advanced Analytics müssen jetzt den Business Value liefern

Die von der Business Intelligence (BI) hervorgebrachten Konzepte und Technologien haben sich in der Praxis bewährt und sind anerkannt.

Moderne Frontends bringen die im Kontext von Big Data exponentiell gewachsenen Datenmengen, -arten und -ströme gut unter einen Hut. Die Cloud hat im Analytics-Alltag ihren Platz gefunden und sorgt für Verfügbarkeit und Effizienz. Durch den breiteren Einsatz von Analytics in Unternehmen steht nun der nachhaltige Business Value auf dem Programm.

Tipp

Begrifflichkeiten der Digitalisierung kompakt erklärt

Die Digitalisierung treibt uns, Data & Analytics sind auf dem Vormarsch, die Technologie entwickelt sich rasant und die Begrifflichkeiten mit ihr.

Von Advanced Analytics über IoT bis Künstliche Intelligenz und Machine Learning. Die Digitalisierung bringt neue Begrifflichkeiten und Akronyme hervor. Was ist darunter zu verstehen und wie hängen diese zusammen. Hier finden Sie einige der zentralen Begriffe kurz und griffig definiert.

Tipp

Der Citizen Data Scientist formiert sich als neue, spannende Rolle im Analytics-Umfeld

Die Digitalisierung produziert Unmengen und eine bisher nie dagewesene Vielfalt an Daten. Das Generieren von Mehrwert aus diesen Big Data wird zum erfolgskritischen Faktor.

Data Scientists als Meister der Analytics sind eine gefragte aber äußerst rare Ressource. Die neue Rolle des Citizen Data Scientist verspricht Abhilfe für den Ressourcen-Engpass. Es gilt, die klugen und neugierigen Köpfe im Unternhemen zu finden, sie zu befähigen und einzusetzen.

the factlights Top-Thema

SELF SERVICE BI

Agilität für den Fachebreich

Welchen Stellenwert hat die SSBI? Welche Architekturen bringen nachhaltigen Erfolg?

DATA GOVERNANCE

Dreistufiges Framework mit acht Handlungsfeldern

Vergessen Sie die Data Governance nicht. Denn ein fehlerhafter Umgang mit Daten kann schnell zu erheblichen Wirtschafts- und Imageschäden führen.

STUDIEN HIGHLIGHTS

Das Geheimnis liegt im Digitalisierungsgrad

Adopter, Discoverer, Frontrunner, drei Unternehmenstypen haben sich in Bezug auf den digitalen Reifegrad herauskristallisiert

ARTIFICIAL INTELLIGENCE

AI wird konkret – Empfehlungen für die Praxis

Neue AI-Methoden und -Tools eröffnen in der Geschäftswelt unbegrenzte Potenziale, wenn sie in den Unternehmensalltag integriert werden

PROZESSOPTIMIERUNG

Eine Grundlage für die Digitalisierung der operativen Steuerfunktion

Das Prozesshaus vereint die sechs wesentlichen Komponenten zur Optimierung und Digitalisierung von Prozessen

INNOVATIONSPROZESS

Vorgehensmodell für die Portfolio-Entwicklung in Innovationsprozessen

Das Portfolio-Entwicklungsmodell gibt Orientierung, um mit neuen VUCA-Gegebenheiten methodisch umzugehen

the factlights bringt Einblicke und Learnings:

  1. Am Puls der Zeit
    the factlights 2020 hat über 1.000 Unternehmen im deutschsprachigen Raum zu ihrer Realität von Digitalisierung, Analytics und Datenarbeit befragt. Highlights, Updates und die kompletten Studienergebnisse gibt's hier.
  2. Experten analysieren und empfehlen
    Namhafte Vertreter führender Unternehmen nehmen Stellung zu aktuellen Trends, stellen Checklisten, Use Cases, Whitepaper bereit und stehen Ihnen gerne mit Empfehlungen, Tipps und Best Practices rund um die Themen der Digitalisierung und Datenarbeit zur Seite.
  3. Studien-Ergebnisse holen
    Sichern Sie sich Ihr persönliches Exemplar mit allen Ergebnissen, Einschätzungen, Branchenspecials, Extra Notes, Expert Quotes und profitieren Sie von Empfehlungen und Learnings.

THE FACTLIGHTS 2020

Was macht the factlights 2020?

the factlights 2020 stellt Fragen und gibt Antworten: Als zentrale Studie im deutschsprachigen Raum hinterfragt the factlights 2020 den Stand von Data & Analytics Initiativen in Unternehmen und deren Einfluss auf den Arbeitsalltag  jedes einzelnen.