Datenqualität @KI.

Datenqualität mit KI durch Hyand Solutions birgt Chancen für Ihr Unternehmen. Profitieren Sie von der automatisierten Datenqualitätsprüfung.

Datenqualität

@KI.

Datenqualität mit KI durch die MT birgt Chancen für Ihr Unternehmen. Profitieren Sie von der automatisierten Datenqualitätsprüfung.

Qualität entscheidet.

Erhöhte Datenqualität durch den Einsatz von KI.

„Software eats the world“ – Vor dem Hintergrund der Entwicklung hin zu digitalen Geschäftsmodellen ist das Thema „Datenqualität“ für den Erfolg von Unternehmen entscheidender denn je. Denn für die Qualität der kundenorientierten Services ist die Qualität der Daten entscheidend. Die erforderliche Datenqualität kann heute im Rahmen einer digitalen und vernetzten Umgebung jedoch nur durch einen nachhaltigen und wertorientierten Einsatz von KI erreicht werden.

Die Wertgenerierung aus den verfügbaren Daten ist eine der wichtigsten Aufgaben heutiger IT Abteilungen. Entwicklungen von datenbasierten Produkten und Services können nur so gut werden, wie es die Qualität der Ressource Daten erlaubt. Durch die Unterstützung spezifischer Prozesse werden Daten zu Informationen verdichtet. Daher wird sowohl eine hohe Daten-, als auch eine hohe Informationsqualität benötigt, die es fortlaufend zu verbessern gilt. Nur dann kann ein relevantes und wettbewerbsfähiges, digitales Produkt bzw. solch ein Service entstehen. Dazu werden KI Methoden verwendet, die automatisiert und selbstlernend mit der heutigen Komplexität der Daten und Informationen umgehen können.

Erhöhte Datenqualität durch den Einsatz von KI

Erhöhung der Datenqualität.

Vorteile durch den Einsatz von Datenqualität mit KI.

Qualität sticht Quantität – Durch die Erhöhung der Datenqualität mithilfe Künstlicher Intelligenz ergeben sich etliche Vorteile:

Icon_Fabrik

Entwicklung neuer Geschäftsfelder und Geschäftsmodelle

Icon_Automatisierung

Verbesserung bestehender Prozesse für die Datenqualität durch Automatisierung

Icon_Kosten

Kostenreduzierung durch Einsparung von Ressourcen bei wiederkehrenden Aufgaben

Icon_Datenbank

Frühzeitige Erkennung von Datenfehlern führt zu Zeitersparnis in den Datenqualitätsprozessen

Icon_fehler

Fehler können bereits während der Beladung erkannt und korrigiert werden

Icon_Daumen

Höhere Akzeptanz bei Mitarbeitern, Lieferanten und Kunden

Kostenlose Expert Hour.

60 Minuten kostenlose Online-Beratung rund um IT-Themen.

Branchenunabhängig.

Branchenspezifischer Nutzen durch den Einsatz von Datenqualität mit KI.

Von einer erhöhten Datenqualität profitieren die unterschiedlichsten Branchen. Lesen Sie einige Beispiele:

Ausgangssituation:

Im Rahmen der fortschreitenden Digitalisierung können individuelle Vertragsangebote auf Basis von Echtzeitdaten generiert werden. Versicherungen haben somit die Möglichkeit, nicht nur die Kundenbindung zu steigern, sondern auch neue Kundengruppen anzusprechen. Werden zusätzliche Services angeboten, so sind viele Kunden durchaus dazu bereit, Daten (anonym) zur Verfügung zu stellen. Es können so z.B. Selbstoptimierungsansätze im Fitnessumfeld oder Telemetriedaten aus Fahrzeugen für neue Service- und Produktangebote genutzt werden.

Lösung:

Echtzeitdaten, die aus unterschiedlichsten IoT-Geräten, Standortinformationen sowie weiteren Daten angereichert werden können, müssen idealerweise zeitnah ausgewertet werden, damit sie dem Kunden echten Nutzen bringen. Dies kann nur mit einem hohen Automatisierungsgrad und der Sicherstellung einer entsprechend hohen Datenqualität gewährleistet werden. Hier helfen KI-Ansätze wie Machine Learning bzw. Mustererkennungs-Algorithmen.

Ergebnis und Nutzen:

Es lassen sich smarte Verträge sowie hoch optimierte Tarife gestalten, die je nach genutzter Fahrstrecke mit dem Auto zur Anwendung kommen. Abweichungen von persönlichen Verhaltensmustern sowie Vergleiche mit ähnlichen Kundengruppen können beispielsweise für individuelle Zusatzinformationen oder für „Warninformationen“ genutzt werden. Solche Serviceangebote unterstützen auch die Bereitstellung von Informationen durch Versicherungsnehmer, da sie die Mehrwerte für sich besser erkennen können.

Ausgangssituation:

Bei der Zusammenführung von Daten werden diese aus unterschiedlichsten Quellsystemen verknüpft. Aufbauend auf diesen Daten können Reports und Analysen (bspw. Forecasts) erstellt werden und einen Mehrwert für das Unternehmen generieren. Schleichen sich jedoch Fehler in die Quellsysteme ein, so führen falsche Ergebnisse zu Fehlentscheidungen und können dem Unternehmen wirtschaftlich schaden.

Lösung:

Eine frühestmögliche Prüfung und Kontrolle hinsichtlich der Qualität der Daten kann Folgefehler verhindern. Dies kann durch den Einsatz von Algorithmen der Mustererkennung und der Anomaly Detection geschehen. Die Mustererkennung wird hierbei für das automatisierte Erkennen bekannter Fehler verwendet, während die Anomaly Detection noch unbekannte Datenfehler filtert. Beide Ansätze bieten aufgrund des hohen Automatisierungsgrades eine gute Möglichkeit der großen Menge an Daten zu begegnen.

Ergebnis und Nutzen:

Durch das selbstständige Erlernen der Datenqualitätsregeln können die Datenqualitätsverantwortlichen in ihrer Arbeit entlastet werden. Zudem können die Kosten für die Korrektur von Datenqualitätsfehlern und daraus resultierenden Folgefehler minimiert werden. In Hinblick auf erstellte Analysen und Reports können fundierte Unternehmensentscheidungen getroffen werden und die Wahrscheinlichkeit für Fehlentscheidungen verringert werden.

Ausgangssituation:

Im Zuge einer Erweiterung der Verkaufskanäle können Einzelhandelsunternehmen beispielsweise eine Smartphone-App anbieten, über die die Kunden Rabatte erhalten. Die Generierung der Rabatte erfolgt über das Sammeln von Treuepunkten, die der Kunde durch den Kauf von Produkten und durch das Aufhalten im Markt, gemessen über Geo-Daten, erhält. Jedoch besteht aufgrund von Softwarefehlern die Gefahr, dass die gesammelten Geo-Daten falsch erfasst werden und dadurch die Kunden ihre Punkte nicht angerechnet bekommen oder zu viele Punkte gutgeschrieben werden. Auf Seiten der Kunden kann dies zur Unzufriedenheit und damit zur Ablehnung der App führen und auf Seiten der Unternehmen zu Verlusten führen, da u.a. zu viele Rabatte gewährt werden.

Lösung:

Die Verwendung einer Mustererkennung auf Basis von KI-Modellen ermöglicht es, inhaltliche Fehler in den Daten zu finden. Solche Fehler können z.B. sein: Die Geo-Daten liegen zwar in korrekter Form vor, allerdings sagen die Daten aus, dass ein Kunde sich pro Woche mehr als 20 Stunden in einem Geschäft aufhält. Die definierten Regeln können durch ein KI-Modell, welches diese selbstständig lernen kann, abgebildet werden. Darüber hinaus können durch das selbstständige Lernen der Modelle auch unbekannte Muster aufgedeckt werden.

Ergebnis und Nutzen:

Durch die Sicherstellung der Datenqualität kann die Funktionalität der Smartphone-App gewährleistet werden. Somit kann die Kundenzufriedenheit und deren Vertrauen in den Einzelhändler gestärkt werden. Außerdem können die Händler höhere Umsätze und Gewinne erwirtschaften, da neue Kunden auf das Geschäft aufmerksam werden können.

Ausgangssituation:

In der Industrie werden in großen Mengen diverse Sensor- und Aktor-Daten (Massendaten) gesammelt. Hierbei kann es vorkommen, dass die gesammelten Daten zwar syntaktisch korrekt sind, aber semantisch Fehler aufweisen. Besonders gravierend werden diese Fehler, wenn sie unentdeckt bleiben und Reports und Analysen (z.B. Vorhersage aus dem Bereich Predictive Maintenance) dadurch fehlerhaft sind. Solche Fehler können u.a. zu falschen Bestellmengen, zu Produktionsverzögerungen und -stillständen und daher zu erhöhten Kosten führen.

Lösung:

Die automatisierte Analyse der Datenqualität mittels KI-basierter Modelle bietet die Möglichkeit, die Komplexität der Masse an Sensor- und Aktor-Daten zu beherrschen. Hierbei erkennen Algorithmen des maschinellen Lernens und der Mustererkennung fehlerhafte Daten. Zusätzlich können Prognoseverfahren genutzt werden, um zukünftige Messwerte zu plausibilisieren. Anomalien werden erkannt und gefiltert, um unbekannte Fehler und Fehlermuster zukunftsgerichtet und frühzeitig zu erfassen. Darüber hinaus können sogar Audio- und Bilddateien in diesen Analysen berücksichtigt werden.

Ergebnis und Nutzen:

Durch eine Reduktion der Komplexität ist eine effiziente Überprüfung der Datenqualität nun möglich. Es kann sichergestellt werden, dass aufbauende Analysen, bspw. aus dem Bereich Predictive Maintenance, zuverlässige Ergebnisse liefern. Außerdem können durch die Sicherstellung der Datenqualität von Predictive Maintenance-Analysen anfallende Kosten reduziert bzw. verhindert werden.

Ausgangssituation:

Das sog. Telemonitoring beschäftigt sich mit der medizinischen Überwachung, Untersuchung und Diagnose der Patienten über eine räumliche und zeitliche Distanz. Für diesen Zweck werden diverse Überwachungsmessgeräte (bspw. des Gewichts, des Blutdrucks und der Herzfrequenz) und Kommunikationsgeräte (wie Smartphones oder PDAs) eingesetzt. All diese Geräte erzeugen über die Zeit eine sehr große Menge komplexer Daten (Big Data). Eine zuverlässige und rechtzeitige Datenqualitätssicherung dieser Daten ist unabdingbar, da auf Basis dieser Daten Entscheidungen getroffen werden, die die Gesundheit der Patienten direkt betreffen.

Lösung:

Die automatisierte Analyse der Datenqualität mittels KI-basierter Modelle bietet die Möglichkeit, die Komplexität der Messdaten zu beherrschen. Algorithmen der Mustererkennung können Fehlermuster in den Daten automatisiert erkennen und Anomaly Detection noch unbekannte Fehler in Form von Anomalien aufdecken.

Ergebnis und Nutzen:

Mithilfe von KI-basierten Modellen kann der Einsatz von Telemonitoring ermöglicht werden, denn durch eine Datenqualitätssicherung der Messdaten wird das Vertrauen der Kunden und damit die Akzeptanz in die Technik erhöht. Ferner bietet eine qualitativ hochwertige Datenlage eine verbesserte Ausgangslage für weiterführende Analysen (bspw. zur Früherkennung von Krankheiten).

Referenzen.

Unsere Expertinnen und Experten für Datenqualität haben zahlreiche Projekte für Kunden aus den verschiedensten Branchen erfolgreich umgesetzt.

Finanzdienstleister.

Quality Gates für einen Finanzdienstleister

Situation:

  • Beladung externer Risiko-Kennzahlen mit unbekannter Qualität in ein zentrales Data Warehouse
  • Mit Übernahme auch Verantwortung für Datenqualität

Herausforderung:

  • Fehlerhafte Daten werden verarbeitet
  • Bestehender Data Load dauert bereits die ganze Nacht, Prüfung im Load nicht möglich

Lösung:

  • Korrektur der Daten vor Data Load, inkrementell
  • Prüfung der Datenqualität, quellenspezifisch
  • Quality Gates, KI-unterstützt, selbstlernend

Messe Düsseldorf.

Einsatz cloudbasierter KI zur Verbesserung der Datenqualität für Event & Messe

Situation:

  • Daten für den operativen Betrieb der Messen nicht ausreichend strukturiert zur Ableitung guter datengetriebener Entscheidungen

Herausforderung:

  • Unterschiedliche Quellen mit variabler Qualität
  • Neue Kundenangebote durch interne und externe, neue Daten

Lösung:

  • Identifikation der wichtigsten Use Cases durch Event Storming
  • Aufbau eines Data Lakes in der Cloud als Datenbasis
  • Cloudbasierte KI zur Qualitätsverbesserung

Handelsunternehmen.

KI Quality Gates

Situation:

  • Erweiterung des zentralen, existierenden Produkt-Informations-Managements für zusätzliche Produktdaten
  • Zu der Zeit überwiegend manuell erfasst

Herausforderung:

  • Fehlerquote ist zu hoch
  • Bestehender Überprüfungsprozess der angelieferten Datenqualität ist sehr aufwändig

Lösung:

  • Überprüfung der Daten durch KI Quality Gates
  • Aufwandsreduzierung um 60 %
  • Marktpositionierung der Produkte deutlich beschleunigt

Industrie.

Einsatz von KI-basierter Predictive Maintenance in der Industrie

Situation:

  • Daten aus verschiedenen Lokationen nicht konsolidiert

Herausforderung:

  • Fehlende Datenbasis zur Kostenverbesserung in den Wartungsprozessen
  • Neue Use Cases durch Business Analytics auf den existierenden Daten

Lösung:

  • Aufbau einer Business Analytics Plattform
  • Kostensenkung um 60 % durch KI-basierte Predictive Maintenance

Unsere Leistungspakete.

Vom Workshop bis zur Umsetzung betreuen wir Ihre Projekte. Unser Antrieb ist Ihr Erfolg. .

Ergebnis:

  • Use Case zur Wirkung verbesserter Datenqualität
  • KI-Modell Erfahrung
  • Ergebnispräsentation und Dokumentation
  • Einführung unternehmensweiter und wertschöpfender KI-Prozesse

Nutzen

  • Transformation eines bekannten (einfachen) Use Cases durch bessere Datenqualität
  • Entwicklung und Training des KI-Modells
  • Lizenzfreie Überlassung des KI-Modells nach dem PoV zur weiteren Nutzung

Ergebnis:

  • Transparente KI-Vision für Ihr gesamtes Unternehmen
  • Startpunkt für den ersten Sprint der Projektimplementierung
  • Komplexes Domänenmodell

Nutzen:

  • Sie entwickeln kollaborativ Ihre DQ- und KI-Strategie
  • Alle notwendigen Domänen Ihres Unternehmens werden betrachtet
  • Hohe Akzeptanz für Ihre KI-Projekte

Ergebnis:

  • Verbesserung Ihrer Datenqualität im gesamten Unternehmen
  • Wertschöpfung durch KI
  • Erfolgreiche Umsetzung Ihrer KI-Strategie
  • Schrittweise Einführung von KI

Nutzen:

  • Setzen Sie Ihre Datenqualitäts- und KI-Strategie um
  • Think big – start small
  • Agile Projektdurchführung
  • Backend, Frontend, agiles Projektmanagement der MT

Kostenloser Download.

Weitere Insights zu Datenqualität @KI.

Mit Kundensegmentierung und Warenkorbanalyse mehr über Ihre Kunden erfahren

Datenqualität@KI.

Ihr Ansprechpartner.

Unser Experte beantwortet gerne Ihre Fragen zu Datenqualität mit KI.

Ralf_Böhme

Ralf Böhme

Bereichsleiter Analytics