Neueste Beiträge
Erfolgsfaktor Datenqualität

Erfolgsfaktor Datenqualität: So bereinigen Sie ihr CRM

  |   SAP CRM

Das größte Sorgenkind von CRM-Anwendern heißt nicht mehr Usability, Funktionsumfang oder etwa Performance. Es hat einen neuen Namen: Datenqualität. Nichts ist ärgerlicher und zeitraubender als mit unvollständigen oder sogar falschen Daten im CRM zu arbeiten. Eine aktuelle Kundenumfrage von Vision11 zu den Gründen für eine mangelnden Datenqualität bringt Licht ins Dunkel. In diesem Beitrag stellen wir Ihnen mögliche Lösungsansätze und konkrete Beispiele zum Thema „Data Quality“ vor.

Kundenumfrage: Nutzungsprobleme von CRM-Lösungen

 

Im dritten Quartal 2018 hat Vision11 eine gezielte Kundenumfrage durchgeführt, um die aktuellen Probleme im Bezug auf die Nutzung der CRM-Lösungen zu identifizieren. Umfrageteilnehmer waren 300 CRM-Anwender aus unterschiedlichen Unternehmensbereichen. Dabei wurden nicht nur die aktuellen und ehemaligen Kunden von Vision11 gefragt, sondern auch zahlreiche CRM-Anwender des deutschen Mittelstandes und der Großunternehmen. Die meisten der Befragten nutzen eine der führenden CRM-Systeme von SAP, Salesforce oder Microsoft. Das Ergebnis der Umfrage:  Datenpflege, Datenqualität und Datenanalyse bereiten den CRM-Anwendern die größten Sorgen. Über ein Drittel der Befragten sehen die niedrige Datenqualität im CRM als wichtigste Ursache für die Akzeptanz der Lösung. Die nachfolgende Graphik zeigt die Ergebnisse der Studie.

Datenqualität im CRM

Kundenumfrage Datenqualität, Quelle: Vision11 GmbH

Geht man den Ursachen für diese Problematik genauer auf den Grund, kristallisieren sich drei wesentliche Gründe heraus: Die Intensität der Datensammlung in deutschen Unternehmen nimmt stetig zu. Darüber hinaus ist die Bereitschaft für den Einsatz der professionellen Datenanalyse-Tools sehr gering. Zu guter Letzt haben sich die Kurzschlussreaktionen aufgrund der neuen Datenschutzvorordnung (DSGVO) sehr negativ auf die Qualität der Kundendaten im CRM ausgewirkt. Im Folgenden werden diese drei Hauptursachen im Detail erläutert.

1. Intensität der Datensammlung

 

Fokus der CRM-Projekte lag bisher auf der Anbindung der Customer Touchpoints an die CRM-Systeme und die damit verbundene Generierung der Daten über die Online- und Offline-Kanäle. Dabei ist eine sehr große Menge der Kundendaten entstanden, die automatisiert in die jeweilige CRM-Lösung übertragen wurde. Mit den Fragen „Wofür werden diese Daten benötigt“ oder „Was möchte man mit den Daten machen?“ beschäftigten sich dabei die wenigsten CRM-Verantwortlichen. Die Antwort lautete meistens: „Wir wollen alles über unsere Kunden wissen!“ oder „Wir wollen eine 360°-Sicht auf unsere Kunden haben!“ und so weiter. Die zahlreichen Expertenbeiträge haben in den letzten Jahren davon geschwärmt, dass Daten das Öl des 21. Jahrhunderts sind.

 

Die Daten sind für den CRM-Erfolg entscheidend – ohne Zweifel. Bleiben wir bei dem veranschaulichen Beispiel mit dem Öl. Das Öl ist nur ein Rohprodukt und bietet ohne einer aufwendigen Verarbeitung und Veredelung kaum einen nützlichen Mehrwert. Außerdem ist die ursprüngliche Öl-Qualität für das künftige Endprodukt, wie z.B. Benzin oder Diesel entscheidend. Das Gleiche gilt auch für die Daten. Es kommt nicht auf die Menge der Daten an, sondern in erster Linie auf die Qualität. Je mehr Daten gesammelt bzw. im CRM erfasst werden sollen, desto höher ist auch der Aufwand bei der Datenpflege. Nach dem Motto: „Hier und dort noch ein Pflichtfeld, die Telefonnummer und Mail-Adresse brauchen wir unbedingt, Geburtsdatum natürlich auch und ein Social Media Profil nicht vergessen“ wächst im CRM die Erfassungsmaske für die Eingabe eines neuen Kunden immer weiter und weiter. Es stellt sich die Frage nach der Pflege dieser Informationen im CRM. Die Anwender des Systems heißen meist Vertriebs- und Servicemitarbeiter, Key Account Manager, Customer Service Agents, Marketing-Mitarbeiter, etc.

Wachstum der Datenmenge in Deutschland

Datenwachstum durch Digitalisierung, Quelle: Berechnung Borderstep auf Basis von IDC

Daten massenhaft zu sammeln ohne ein konkretes Konzept zu verfolgen, geschweige denn eine eindeutige Strategie zu haben, wie man daraus sinnvolle und brauchbare Informationen gewinnt, ist leider immer weiter verbreitet. Fasst alle diese Daten sind in den Unternehmen in den letzten 10 Jahren entstanden (vgl. Abbildung „Datenwachstum durch Digitalisierung“). Der Begriff „Big Data“ ist nicht mehr big genug, man spricht heute vielmehr über „Data Lakes“. Dabei ist mit Data Lake ein sehr großer Datenspeicher gemeint, der die Daten massenhaft in ihrem Rohformat aufnimmt. Menschlich können die Daten in einem solchen Rohformat nicht bewältigt werden, gebraucht werden dafür Maschinen mit exzellent durchdachten Algorithmen.

2. Die professionellen Datenanalyse-Tools

 

Das meist genutzte Datenanalyse-Tool auf den Bildschirmen der deutschen CRM-Anwender ist immer noch Excel. Es gibt auf dem Markt zahlreiche professionelle Datenanalyse-Tools, welche im Zeitalter der Digitalisierung und Big Data Lakes im Vergeich zu Excel ohne Zweifel einen Quantensprung darstellen. Solche Datenanalyse-Tools haben sich mit der Steigerung der Datenmenge parallel entwickelt, währen das heutige Excel 2018 im Grunde immer noch die gleichen Funktionen hat, wie damals Excel 98. Datenanalyse und Visualisierung werden heute mit professionellen Tools gemacht, wie Tableau, Qlik, Lumira oder Power BI, aber auf keinem Fall mit Excel.

 

Solche professionellen Datenanalyse-Tools werden von deutschen Großunternehmen und dem Mittelstand noch immer zu wenig eingesetzt. Die meisten beschränken sich entweder auf die Reporting-Möglichkeiten innerhalb des CRM-Systems. Oder die notwendigen Daten werden aus dem CRM extrahiert und im Excel weiter analysiert. Dabei kann ein CRM-System als Datenquelle relativ einfach an eine BI-Lösung angebunden werden. Eine umfangreiche und vor allem performante Analyse der Daten sollte anschließend im BI-Tool statfinden. Mögliche Analyse-Anwendungsfälle sind Überprüfung der Datenqualität, postalische Validierung der Adressen, Analyse der Daten nach Eingangskanälen, Feststellen der Dubletten, etc.

 

Zu den führenden Business Intelligence Tools zählen Tableau und Qlik. Tableau bietet einen tiefen Einblick in die Daten und ermöglicht eine effiziente Veranschaulichung für komplexe Entscheidungsprozesse. Tableau-Dashboards sind besonders flexibel und bieten eine Vielzahl an Funktionen zur individuellen Gestaltung. Unabhängig davon, ob sich die Daten in einer Tabellenkalkulation, einer Datenbank, einem Data Warehouse, einem CRM-System oder an all diesen Orten befinden, bietet Tableau die nötige Flexibilität, um effizient eine Verbindung zu den benötigten Daten herzustellen und um diese zu konsolidieren.

 

Qlik bietet eine ganze Discovery-Plattform, um die komplexen Datenzusamenhänge zu analysieren. Mit Qlik-Produkten können unterschiedliche Datenquellen in einer Ansicht miteinander kombiniert werden, unabhängig von der Größe und somit alle möglichen Zusammenhänge indiziert werden. Im Unterschied zu abfragebasierten Tools ist man dabei nicht auf vorab aggregierte Daten und vordefinierte Abfragen beschränkt. Das bedeutet, dass Ergebnisse sofort hinterfragt und analysiert werden können, ohne neue Abfragen erstellen zu müssen.

Datenanalysen mit Tableau

Screenshot Tableau, Quelle: Vision11 GmbH

Mit Uniserv steht ein weiteres professionelles Tool für die Verbesserung der Datenqualität zur Verfügung. Uniserv betrachtet die Daten eines CRM-Systems weniger aus analytischen Sicht, sondern viel mehr aus Sicht der Datenqualität. Mit dem Tool „Uniserv Data Analyzer“ kann in erster Linie der Zustand der Daten überprüft werden, um darauf basierend geeignete Maßnahmen zur Qualitätssicherung zu ergreifen. Mit der interaktiven Datenanalyse bzw. Data Profiling von Uniserv Data Analyzer lassen sich verlässliche Aussagen zur Beschaffenheit und Qualität auch großer Datenmengen machen. Der Data Analyzer schafft die Basis, um Data Cleansing und Data Protection zielgerichtet einzusetzen. Mit dem Data Quality Service Hub von Uniserv ist man in der Lage, die erforderliche Datenkonsistenz für Prozesse und Anwendungen wieder herzustellen.

 

Mehr Informationen zu den professionellen BI-Tools finden Sie in unserem separaten Blog-Eintrag hier

Fazit und Lösungsansatz

 

Am effektivsten lässt sich die Problematik einer mangelhaften Datenqualität im CRM dort angehen, wo sie entsteht. In erster Linie müssen alle Quellen, an denen Daten entstehen, analysiert und nach Data Quality Standard definiert werden. Bei der Erfassung bzw. beim Einspielen der Daten gilt es, systemseitig Validierungsregeln zu impementieren, welche die Erfassung der nicht vollständigen oder nicht validen Daten verhindert. Hat man die Richtlinien zur Datenerfassung festgelegt und angewendet, sollte man einen zentralen Clearing-Prozess definieren, um die Dubletten und vor allem die „gewollten“ Dubletten zu bereinigen. Fast alle modernen CRM-Systeme bieten im Standard eine integrierte Dublettenprüfung und -bereinigung. Diese reicht aber für die Anwendungsfälle im operativen Betrieb nicht aus und müssen erweitert oder sogar ersetzt werden.

 

Aus unserer jahrelangen Projekterfahrung empfehlen wir die Definition und Etablierung der sog. Quality Gates. Sie wollen mehr erfahren? Sprechen Sie uns an!

Nachricht schreiben