Diplom-Biologe | Senior IT-Consultant
|
SH |
Sascha Hess xenosystems.de - IT-Consulting & Data Management |
www.xenosystems.de |
|
|
Strategische Wissens-Roadmap 2026 |
|
|
|
|
|
Data Governance |
|
|
Datenkontrolle, Datenqualität und Compliance für mittelständische Unternehmen |
WAS SIE IN DIESEM KIT ERHALTEN:
|
|
1 |
10 Governance-Fallen Die häufigsten Fehler bei Datenprojekten im KMU — mit Sofort-Maßnahmen |
|
|
2 |
Dateneigentümer-Modell Wer ist für welche Daten verantwortlich — und wie setzen Sie es durch |
|
|
3 |
Datenqualitäts-Framework Messen, bewerten und verbessern — mit fertigen SQL-Skripten |
|
|
4 |
DSGVO-Compliance Praktische Umsetzung für KMU ohne eigene Rechtsabteilung |
|
|
5 |
30-Tage-Einführungsplan Von Null zu einer funktionierenden Data-Governance-Struktur |
HAFTUNGSAUSSCHLUSS
Alle Empfehlungen, Methoden und Vorlagen wurden sorgfältig auf Basis etablierter Frameworks (DAMA-DMBOK, ISO 8000) sowie praktischer Projekterfahrung erstellt. Da regulatorische Anforderungen sich ändern und jede Organisation individuelle Rahmenbedingungen hat, übernimmt der Autor keinerlei Haftung für Folgen aus der Anwendung der beschriebenen Methoden. Beauftragen Sie für verbindliche DSGVO-Beratung einen zugelassenen Datenschutzbeauftragten oder Rechtsanwalt.
KEINE RECHTSBERATUNG
Dieses Kit enthält praxisorientierte Hinweise zur DSGVO-Compliance, ersetzt aber keine Rechtsberatung. Angaben zu Fristen, Bußgeldern und rechtlichen Pflichten basieren auf dem Stand März 2026 und können sich durch Gerichtsentscheidungen oder Gesetzesänderungen verändern. Ziehen Sie für rechtsverbindliche Einschätzungen stets einen Fachanwalt oder zertifizierten Datenschutzbeauftragten hinzu.
VERSIONSHINWEIS
Die Inhalte beziehen sich auf den Stand März 2026. Relevante Rahmenbedingungen wie die DSGVO, der AI Act sowie Tool-spezifische Governance-Funktionen (Microsoft Purview, Power BI) werden regelmäßig aktualisiert.
URHEBERRECHT
Dieses Dokument ist für den persönlichen oder betriebsinternen Gebrauch des Käufers lizenziert. Weiterverkauf, Weitergabe an Dritte und öffentliche Veröffentlichung sind ohne schriftliche Genehmigung nicht gestattet.
MARKENRECHTE
Microsoft Purview, Power BI und Azure sind eingetragene Marken der Microsoft Corporation. DAMA-DMBOK ist ein Rahmenwerk der DAMA International. DSGVO bezeichnet die Datenschutz-Grundverordnung der Europäischen Union. ISO ist eine eingetragene Marke der International Organization for Standardization.
Eine ausführliche Version dieses Haftungsausschlusses befindet sich am Ende dieses Dokuments.
01 Einleitung
Warum Data Governance im KMU kein Luxus mehr ist
02 Die 10 Governance-Fallen
Häufigste Fehler — mit Sofort-Maßnahmen
03 Das Governance-Betriebsmodell
Rollen, Gremien und Entscheidungsstrukturen für KMU
04 Dateneigentümer-Modell
Data Owner, Steward, Custodian — wer macht was
05 Datenqualitäts-Framework
Messen, bewerten, verbessern — mit fertigen SQL-Skripten
06 Business Glossar & Datenkatalog
Einheitliche Sprache für Daten im ganzen Unternehmen
07 DSGVO-Compliance für KMU
Praktische Umsetzung ohne eigene Rechtsabteilung
08 Datenherkunft & Lineage
Woher kommen Ihre Daten — und wem können Sie vertrauen?
09 Tools & Technologie
Microsoft Purview, OpenMetadata und pragmatische Alternativen
10 30-Tage-Einführungsplan
Von Null zu einer funktionierenden Governance-Struktur
01
"Data Governance" klingt nach Enterprise-Konzern, nach Compliance-Abteilung mit 20 Personen, nach teuren Beratungsprojekten und endlosen Framework-Workshops. Für ein mittelständisches Unternehmen mit 50 bis 500 Mitarbeitenden und einer IT-Abteilung von drei bis fünf Personen sei das schlicht nicht relevant.
Diese Einschätzung ist falsch. Und sie wird teuer.
In der Praxis mittelständischer BI- und Datenprojekte ist mangelhafte Data Governance die häufigste Ursache für gescheiterte oder wirkungslose Investitionen. Die Symptome sind überall dieselben:
→ Das ERP-System, die CRM-Datenbank und das BI-Tool zeigen unterschiedliche Umsatzzahlen für denselben Monat. Niemand weiß, welche Zahl stimmt.
→ Ein Mitarbeitender verlässt das Unternehmen — und niemand weiß, auf welche Systeme er noch Zugriff hatte. Drei Monate später fällt auf, dass er noch aktive Zugriffsrechte besitzt.
→ Die DSGVO-Auskunftspflicht trifft ein: Ein Kunde fragt, welche Daten Sie über ihn gespeichert haben. Ihre Antwort: Ich weiß es nicht genau.
→ Das neue BI-Dashboard zeigt andere Zahlen als der Controlling-Report. Eine stundenlange Analyse ergibt: Beide haben Recht — aber mit unterschiedlichen Definitionen von "Umsatz".
→ Ein Prüfer fragt, nach welchem Kriterium Ihre Kundendaten gelöscht werden. Sie haben kein dokumentiertes Löschkonzept.
Data Governance ist nicht das, was große Konzerne brauchen. Es ist das, was jedes Unternehmen braucht, das mit Kundendaten, Finanzdaten und geschäftskritischen Kennzahlen arbeitet — also jedes Unternehmen ab einer gewissen Größe.
Dieses Kit übersetzt die relevanten Governance-Prinzipien in pragmatische, umsetzbare Maßnahmen für KMU — ohne 100-seitige Framework-Dokumente, ohne externe Beratungsbudgets, ohne eigene Compliance-Abteilung.
|
|
WAS SIE IN DIESEM BUCH ERWARTEN DÜRFEN ■ 10 Governance-Fallen — Die häufigsten Fehler in KMU-Datenprojekten — mit konkreten Gegenmaßnahmen. ■ Pragmatisches Betriebsmodell — Governance-Rollen und -Prozesse, die in einem KMU tatsächlich funktionieren. ■ Datenqualitäts-Framework — Fertige SQL-Skripte zur Messung und Verbesserung der Datenqualität. ■ DSGVO-Praxis — Was KMU wirklich umsetzen müssen — ohne juristische Überfrachtung. ■ 30-Tage-Einführungsplan — Von der ersten Bestandsaufnahme bis zur funktionierenden Governance-Struktur. |
|
|
DIE RICHTIGE ERWARTUNGSHALTUNG Data Governance ist kein Projekt mit Enddatum — es ist eine dauerhafte Organisationsfähigkeit. Dieses Kit hilft Ihnen, in 30 Tagen eine funktionsfähige Grundstruktur aufzubauen. Den Rest erledigt konsequente Pflege über Monate und Jahre. |
02
Data Governance scheitert fast immer nicht an Technik — sondern an fehlender Priorität. Wenn kein Mitglied der Geschäftsführung oder Bereichsleitung das Thema aktiv trägt und bei Konflikten entscheidet, bleibt jede Initiative im Sandkasten der IT stecken.
LÖSUNG:
✓ Benennen Sie einen "Data Sponsor" auf Führungsebene — verantwortlich für Ressourcen und Eskalationsentscheidungen.
✓ Verknüpfen Sie das Governance-Programm mit einem konkreten Geschäftsproblem, das die Führung bereits als schmerzhaft empfindet: inkonsistente KPIs, DSGVO-Risiken, Einarbeitungsprobleme.
✓ Erste Sichtbarkeit schaffen: Präsentation der wichtigsten Datenqualitätsprobleme in der nächsten Führungsrunde.
Viele KMU pflegen ihr Business-Glossar in einer Word-Datei, einem Excel-Sheet oder einer SharePoint-Seite, die seit zwei Jahren nicht aktualisiert wurde. Das Ergebnis: Niemand nutzt es, niemand pflegt es, niemand findet es.
LÖSUNG:
✓ Business Glossar und Datenkatalog müssen im selben System leben, in dem auch gearbeitet wird — im BI-Tool, im Wiki oder in einem dedizierten Katalog-Tool.
✓ Verlinkung aus Reports und Dashboards direkt auf Glossareinträge — Glossar muss im Arbeitsfluss erreichbar sein.
✓ Verantwortlichkeit: Jeder Glossareintrag hat einen Eigentümer — sonst veraltet er garantiert.
"Alle bekommen Lesezugriff auf alles — das ist einfacher." In einem Unternehmen ohne klares Berechtigungskonzept können Mitarbeitende auf Gehaltsabrechnungen, Kundendaten und Strategiepapiere zugreifen, für die sie keine fachliche Berechtigung haben. Datenpanne oder DSGVO-Verstoß — es ist eine Frage der Zeit.
LÖSUNG:
✓ Need-to-know-Prinzip: Zugriff nur auf Daten, die für die Aufgabenerfüllung notwendig sind.
✓ Rollen statt Einzelzuweisungen: Zugriffe werden über Rollen vergeben, nicht direkt an Personen.
✓ Halbjährlicher Access Review: Wer hat Zugriff auf was — ist das noch aktuell?
|
-- Aktive SQL-Server-Logins mit Datenbankzugriff prüfen SELECT sp.name AS Login, sp.type_desc AS LoginTyp, dp.name AS Datenbank_Rolle, sp.is_disabled AS Deaktiviert, sp.create_date AS Erstellt_am, sp.modify_date AS Geaendert_am FROM sys.server_principals sp LEFT JOIN sys.database_role_members drm ON sp.principal_id = drm.member_principal_id LEFT JOIN sys.database_principals dp ON drm.role_principal_id = dp.principal_id WHERE sp.type IN ('S','U','G') -- SQL, Windows User, Windows Group AND sp.is_disabled = 0 ORDER BY sp.name; |
Direktes Reporting auf der Produktionsdatenbank: BI-Abfragen laufen gegen dieselbe Instanz, auf der das ERP schreibt. Das verlangsamt die Produktion, erzeugt inkonsistente Lesezustände und macht es unmöglich, Daten für Analysezwecke zu bereinigen, ohne die Produktionsdaten zu verändern.
LÖSUNG:
✓ Logische Trennung: mindestens separate Datenbankschemas (prod vs. reporting) auf derselben Instanz.
✓ Bessere Lösung: dedizierter Read-Only-Replikations-Endpunkt oder SQL Server Always-On mit Readable Secondary.
✓ Beste Lösung für BI-intensive Unternehmen: ein schlankes Data Warehouse oder Data Mart als eigenständige Analysedatenbank.
Umsatz: Netto oder Brutto? Mit oder ohne interne Verrechnungen? Ab Rechnungsdatum oder Lieferdatum? In welcher Währung bei Auslandsgeschäften? Wenn die Antwort auf diese Fragen in drei Abteilungen unterschiedlich lautet — haben Sie kein KPI-Problem, Sie haben ein Governance-Problem.
LÖSUNG:
✓ KPI-Glossar: Für jede geschäftskritische Kennzahl eine verbindliche, schriftliche Definition — inklusive Formel, Datenquelle, Gültigkeitsbereich und verantwortlicher Person.
✓ One Source of Truth: Eine einzige SQL-View oder DAX-Measure je KPI — die von allen Reports referenziert wird.
✓ Änderungsprozess: KPI-Definitionen dürfen nicht still und heimlich geändert werden — Änderungen erfordern Dokumentation und Kommunikation.
Kundendaten aus 2009, Bewerber-Lebensläufe aus 2015, Test-Datensätze mit echten Personendaten in der Entwicklungsumgebung. Ohne Löschkonzept wächst das DSGVO-Risiko mit jedem gespeicherten Datensatz.
LÖSUNG:
✓ Aufbewahrungsfristen je Datenkategorie definieren (Kapitel 7): Kunden, Mitarbeitende, Bewerber, Lieferanten, Logs.
✓ Automatisierte Löschroutinen einrichten — manuelle Löschung ist nicht verlässlich.
✓ Test- und Entwicklungsumgebungen niemals mit echten Personendaten befüllen — Anonymisierung oder Pseudonymisierung verwenden.
Tabellennamen wie "TEMP_ALT2", "KOPIE_FINAL_V3", "MAX_TESTDATEN" — und niemand weiß mehr, was drin ist und ob noch jemand diese Objekte nutzt. Ohne gepflegte Metadaten ist jede Datenbankbereinigung ein Blindflug.
LÖSUNG:
✓ Kommentare/Beschreibungen für alle Tabellen, Views und gespeicherte Prozeduren verpflichtend.
✓ Namenskonventionen durchsetzen: Präfix für Schema-Typ (vw_ für Views, sp_ für Procedures, fn_ für Functions).
✓ Quartalsweise Bereinigung: Ungenutzte Objekte identifizieren und archivieren oder löschen.
|
-- Tabellen ohne Beschreibung in SQL Server identifizieren SELECT SCHEMA_NAME(t.schema_id) AS Schema_Name, t.name AS Tabellen_Name, t.create_date AS Erstellt_am, ep.value AS Beschreibung FROM sys.tables t LEFT JOIN sys.extended_properties ep ON ep.major_id = t.object_id AND ep.minor_id = 0 AND ep.name = 'MS_Description' WHERE ep.value IS NULL ORDER BY t.create_date DESC; |
"Woher kommt diese Zahl?" — eine Frage, die in BI-Projekten immer gestellt wird, aber selten schnell beantwortet werden kann. Wenn niemand den Weg einer Kennzahl von der Quelldatenbank über ETL-Transformationen bis zum Dashboard zurückverfolgen kann, ist Fehlerdiagnose systematisch schwierig.
LÖSUNG:
✓ Lineage-Dokumentation für alle kritischen Datenpipelines: Quelle → Transformation → Ziel → Report.
✓ In Power BI: Microsoft Purview Integration oder die eingebaute Lineage-Ansicht im Service nutzen.
✓ Für einfachere Umgebungen: Eine Mapping-Tabelle in Excel oder Wiki, die Quelle, Transformationslogik und Zieltabelle dokumentiert.
Ein Beratungsunternehmen erstellt ein 80-seitiges Governance-Framework. Es wird in der Schublade abgelegt. Sechs Monate später ist es veraltet. Governance als "Projekt mit Enddatum" ist strukturell zum Scheitern verurteilt.
LÖSUNG:
✓ Governance als kontinuierlichen Betriebsprozess verstehen — nicht als Projekt.
✓ Monatlicher "Data Council" (30 Minuten): Data Owner treffen sich, besprechen offene Qualitätsprobleme, entscheiden über Änderungen.
✓ Governance-Artefakte (Glossar, Policies, Berechtigungsmatrix) haben Review-Termine — genau wie Prozessdokumentation.
Ein teures Datenkatalog-Tool wird lizenziert — aber ohne klare Governance-Prozesse dahinter bleibt es ein leeres System. Tools lösen keine organisatorischen Probleme. Sie verstärken bestehende Strukturen: gute Strukturen werden besser, fehlende Strukturen werden teuer sichtbar.
LÖSUNG:
✓ Erst Prozesse, dann Tools: Bevor ein Katalog-Tool eingeführt wird, muss klar sein, wer Einträge pflegt, nach welchem Standard und wann.
✓ Für KMU: In den meisten Fällen reichen ein gepflegtes Wiki (Confluence oder SharePoint) und eine disziplinierte Namenskonvention für den Start.
✓ Teures Tool erst dann, wenn die manuellen Prozesse funktionieren und ein konkreter Mehrwert durch Automatisierung entsteht.
03
Das DAMA-DMBOK beschreibt Governance-Strukturen mit Dutzenden Rollen und Gremien. Für ein KMU mit 100 Mitarbeitenden ist das nicht umsetzbar. Dieses Kapitel destilliert das Wesentliche auf ein Modell, das mit drei bis fünf Personen funktioniert.
|
DAS KMU-GOVERNANCE-DREIECK: ══════════════════════════════════════════════════════════════ ┌─────────────────────┐ │ DATA SPONSOR │ ← Führungsebene │ (GF / Bereichslt.) │ Ressourcen + Eskalation └──────────┬──────────┘ │ entscheidet bei Konflikten ┌──────────▼──────────┐ │ DATA COUNCIL │ ← Steuerungsgremium │ (Data Owner je Bch.)│ monatlich 30 Min. └──────┬──────────────┘ │ koordiniert + entscheidet operativ ┌────────────▼───────────────────────────┐ │ DATA CUSTODIAN │ ← Umsetzungsebene │ (IT / BI-Entwickler / DBA) │ technische Pflege └────────────────────────────────────────┘ ══════════════════════════════════════════════════════════════ |
|
Rolle |
Wer im KMU |
Aufgabe |
Zeitaufwand |
|
**Data Sponsor** |
GF, CFO, IT-Leiter |
Ressourcen bereitstellen, Eskalationen entscheiden, Governance sichtbar machen |
1–2 Std./Monat |
|
**Data Owner** |
Fachbereichsleiter (Vertrieb, Finanzen, HR, Produktion) |
Verantwortung für Datenqualität im eigenen Bereich, KPI-Definitionen freigeben, Zugriffe genehmigen |
2–4 Std./Monat |
|
**Data Custodian** |
DBA, BI-Entwickler, IT-Admins |
Technische Umsetzung: Datenqualitätsprüfungen, Berechtigungen, Backup, Datenkatalog-Pflege |
Teil der regulären IT-Arbeit |
Der Data Council ist das monatliche Steuerungsgremium: alle Data Owner + Data Custodian + Data Sponsor. 30 Minuten, feste Agenda, protokolliert.
|
DATA COUNCIL — STANDARD-AGENDA (30 Minuten): ────────────────────────────────────────────────────────────── 05 Min │ Datenqualitäts-Dashboard: Aktuelle DQ-Scores je Bereich 10 Min │ Offene Qualitätsprobleme: Top-3 Probleme, Verantwortlicher, Status 05 Min │ Änderungsanträge: KPI-Definitionen, Zugriffsrechte, neue Datenquellen 05 Min │ Entscheidungen: Konflikte, Priorisierungen, Ressourcen 05 Min │ Nächste Schritte + Protokoll ────────────────────────────────────────────────────────────── PROTOKOLL: Kurz, actionable — Entscheidung, Verantwortlicher, Termin. Kein Beschluss ohne Verantwortlichen und Datum. ────────────────────────────────────────────────────────────── |
Nicht jede Policy, die im DAMA-Framework steht, ist für ein KMU relevant. Diese vier sind Pflicht:
→ Datenzugriffsrichtlinie: Wer darf auf welche Datenkategorien zugreifen? Wie wird Zugriff beantragt und genehmigt? Wie werden Zugriffsrechte beim Austritt entzogen?
→ Datenqualitätsrichtlinie: Welche Qualitätsstandards gelten für Pflichtfelder, Eindeutigkeit und Aktualität? Wer ist verantwortlich für Korrekturen? Wie werden Qualitätsprobleme eskaliert?
→ Aufbewahrungsrichtlinie: Wie lange werden welche Datenkategorien gespeichert? Wie erfolgt die Löschung? Wer überwacht die Einhaltung?
→ KPI-Definitionsrichtlinie: Wie werden neue KPI-Definitionen eingeführt? Wer genehmigt sie? Wie werden bestehende Definitionen geändert und kommuniziert?
04
|
VERANTWORTUNGSMATRIX: WER ENTSCHEIDET WAS? ══════════════════════════════════════════════════════════════════════ Entscheidung │ Owner │ Steward │ Custodian │ IT ────────────────────────────────┼───────┼─────────┼───────────┼──── KPI-Definition freigeben │ ✓ │ Vorbr. │ │ Neues Datenfeld genehmigen │ ✓ │ Vorbr. │ │ Zugriffsrecht erteilen │ ✓ │ │ Umsetz. │ Löschfrist festlegen │ ✓ │ Vorbr. │ │ Datenqualitätsprüfung einrichten│ │ ✓ │ Umsetz. │ Fehlerhafte Daten korrigieren │ │ ✓ │ Umsetz. │ Backup & Recovery │ │ │ ✓ │ ✓ Technische Namenskonvention │ │ │ ✓ │ ✓ ══════════════════════════════════════════════════════════════════════ Vorbr. = Vorbereiten/Vorschlagen Umsetz. = Umsetzen/Technisch |
Für ein mittelständisches Unternehmen mit den typischen Kernbereichen empfiehlt sich folgende Domänenaufteilung:
|
Domäne |
Typische Daten |
Data Owner |
Data Steward |
|
Kundenstamm |
Adressen, Ansprechpartner, Segmente |
Vertriebsleiter |
CRM-Key-User |
|
Finanzen & Controlling |
Buchungen, Kostenstellen, Budgets |
CFO / Buchhaltungsleiter |
Controlling-Mitarbeiter |
|
Personal & HR |
Mitarbeiterdaten, Gehalt, Fehlzeiten |
HR-Leiter |
HR-Sachbearbeiter |
|
Produkt & Artikel |
Artikelstamm, Preise, BOM |
Produktmanager / Einkaufsleiter |
Stammdaten-Pfleger |
|
Produktion & Logistik |
Aufträge, Lieferungen, Lagerbestände |
Produktionsleiter |
Disponent |
|
IT & Infrastruktur |
Benutzerverwaltung, Systemlogs, Backups |
IT-Leiter |
DBA / Systemadmin |
Für jede Domäne wird ein einseitiges Daten-Ownership-Dokument gepflegt:
|
DATEN-OWNERSHIP-DOKUMENT — VORLAGE: ────────────────────────────────────────────────────────────── Domäne: Kundenstamm Data Owner: [Name, Rolle] — Vertriebsleiter Data Steward: [Name, Rolle] — CRM-Key-User Data Custodian: [Name, Rolle] — DBA / BI-Entwickler ────────────────────────────────────────────────────────────── Kerndaten: Kundennummer, Name, Adresse, Segment, Umsatz Quellsysteme: CRM (Dynamics 365), ERP (MACH / SAP) Zielsysteme: BI-Datawarehouse, Power BI, E-Mail-Marketing ────────────────────────────────────────────────────────────── Qualitätsziele: Vollständigkeit Pflichtfelder ≥ 98 % Dublettenrate ≤ 0,5 % Adressaktualität: Review alle 24 Monate ────────────────────────────────────────────────────────────── Aufbewahrung: Aktive Kunden: unbegrenzt Inaktive Kunden (> 3 Jahre): Archiv Gelöschte Kunden: Löschfrist 10 Jahre (HGB) ────────────────────────────────────────────────────────────── Zugriffsrechte: Lesen: Vertrieb, Marketing, Controlling Schreiben: CRM-Key-User, Vertrieb-Innen Admin: IT / CRM-Admin ────────────────────────────────────────────────────────────── Letzter Review: [Datum] Nächster Review: [Datum + 12M] ────────────────────────────────────────────────────────────── |
05
Das DAMA-Framework definiert sechs Dimensionen, nach denen Datenqualität gemessen wird. Für KMU sind vier davon besonders relevant:
|
Dimension |
Bedeutung |
Messbar durch |
Typischer KMU-Schwachpunkt |
|
**Vollständigkeit** |
Sind alle Pflichtfelder befüllt? |
% Null-Werte in Pflichtfeldern |
Kundenstamm ohne PLZ, Artikel ohne Preis |
|
**Eindeutigkeit** |
Gibt es Dubletten? |
Zahl doppelter Datensätze |
Kunden mehrfach angelegt nach Schreibweise |
|
**Aktualität** |
Sind die Daten noch aktuell? |
Alter des letzten Updates |
Kundenadressen nie aktualisiert |
|
**Konsistenz** |
Sind Werte über Systeme hinweg gleich? |
Abweichungen zwischen Quellen |
ERP vs. CRM-Umsatz stimmt nicht überein |
|
**Genauigkeit** |
Stimmen Werte mit der Realität überein? |
Stichproben-Vergleich |
Lieferadressen veraltet |
|
**Konformität** |
Entsprechen Werte dem definierten Format? |
Regex-Prüfungen, Wertelisten |
Telefon in 12 verschiedenen Formaten |
|
-- Vollständigkeit: Pflichtfelder im Kundenstamm (Beispiel SQL Server) SELECT COUNT(*) AS Gesamt_Kunden, SUM(CASE WHEN Kundenname IS NULL THEN 1 ELSE 0 END) AS Fehlt_Name, SUM(CASE WHEN Email IS NULL THEN 1 ELSE 0 END) AS Fehlt_Email, SUM(CASE WHEN PLZ IS NULL THEN 1 ELSE 0 END) AS Fehlt_PLZ, SUM(CASE WHEN Kundennummer IS NULL THEN 1 ELSE 0 END) AS Fehlt_KdNr, CAST(100.0 * SUM(CASE WHEN Email IS NULL THEN 1 ELSE 0 END) / COUNT(*) AS DECIMAL(5,2)) AS Fehlquote_Email_Pct FROM dbo.Kunden WHERE Aktiv = 1; |
|
-- Potenzielle Dubletten: gleicher Name + ähnliche PLZ SELECT k1.KundenID AS ID_1, k2.KundenID AS ID_2, k1.Kundenname AS Name_1, k2.Kundenname AS Name_2, k1.PLZ AS PLZ_1, k2.PLZ AS PLZ_2, k1.Email AS Email_1, k2.Email AS Email_2 FROM dbo.Kunden k1 JOIN dbo.Kunden k2 ON k1.KundenID < k2.KundenID AND ( -- Exakt gleicher Name UPPER(TRIM(k1.Kundenname)) = UPPER(TRIM(k2.Kundenname)) OR -- Gleiche E-Mail-Adresse UPPER(TRIM(k1.Email)) = UPPER(TRIM(k2.Email)) ) ORDER BY k1.Kundenname; |
|
-- Umsatz-Abweichung zwischen ERP und CRM (gleicher Monat) SELECT e.Kundennummer, e.Kundenname, e.Umsatz_ERP, c.Umsatz_CRM, ABS(e.Umsatz_ERP - c.Umsatz_CRM) AS Abweichung_EUR, CASE WHEN e.Umsatz_ERP = 0 THEN NULL ELSE CAST(100.0 * ABS(e.Umsatz_ERP - c.Umsatz_CRM) / e.Umsatz_ERP AS DECIMAL(5,2)) END AS Abweichung_Pct FROM ( SELECT Kundennummer, Kundenname, SUM(Umsatz_Netto) AS Umsatz_ERP FROM dbo.ERP_Umsatz WHERE Jahr = YEAR(GETDATE()) AND Monat = MONTH(GETDATE()) - 1 GROUP BY Kundennummer, Kundenname ) e JOIN ( SELECT Kundennummer, SUM(Umsatz) AS Umsatz_CRM FROM dbo.CRM_Umsatz WHERE Jahr = YEAR(GETDATE()) AND Monat = MONTH(GETDATE()) - 1 GROUP BY Kundennummer ) c ON e.Kundennummer = c.Kundennummer WHERE ABS(e.Umsatz_ERP - c.Umsatz_CRM) > 0.01 ORDER BY Abweichung_EUR DESC; |
|
-- Gesamtübersicht Datenqualitäts-Score je Domäne -- (Basis für das monatliche DQ-Dashboard im Data Council) SELECT 'Kundenstamm' AS Domäne, COUNT(*) AS Datensätze_Gesamt, CAST(100.0 * SUM(CASE WHEN Kundenname IS NOT NULL AND Email IS NOT NULL AND PLZ IS NOT NULL THEN 1 ELSE 0 END) / NULLIF(COUNT(*), 0) AS DECIMAL(5,1)) AS Vollständigkeit_Pct, CAST(100.0 * (1 - CAST(COUNT_BIG(DISTINCT Email) AS FLOAT) / NULLIF(COUNT(*),0)) AS DECIMAL(5,1)) AS Dubletten_Risiko_Pct FROM dbo.Kunden WHERE Aktiv = 1
UNION ALL
SELECT 'Artikelstamm', COUNT(*), CAST(100.0 * SUM(CASE WHEN Artikelname IS NOT NULL AND Preis IS NOT NULL AND EAN IS NOT NULL THEN 1 ELSE 0 END) / NULLIF(COUNT(*), 0) AS DECIMAL(5,1)), NULL FROM dbo.Artikel WHERE Aktiv = 1; |
|
|
DATENQUALITÄT ALS DASHBOARD Visualisieren Sie den DQ-Score aus Skript 5.4 als Power BI-Dashboard — eine Seite, vier KPI-Cards (Vollständigkeit, Eindeutigkeit, Aktualität, Konsistenz), ein Trendchart über 12 Monate. Präsentieren Sie dieses Dashboard am Beginn jedes Data-Council-Meetings. Sichtbare Messung erzeugt Verbesserungsanreize. |
06
Wenn drei Abteilungen das Wort "Umsatz" unterschiedlich definieren, haben Sie kein Reporting-Problem — Sie haben ein Sprachproblem. Das Business Glossar ist das Wörterbuch Ihres Unternehmens für Daten: verbindlich, gepflegt, referenziert.
|
GLOSSAR-EINTRAG — VORLAGE: ────────────────────────────────────────────────────────────── Begriff: Umsatz (Netto) Kategorie: Finanzkennzahl Status: Freigegeben (v1.2, 2026-02-01) ────────────────────────────────────────────────────────────── Definition: Summe aller fakturierten Lieferungen und Leistungen einer Periode, ohne Mehrwert- steuer, nach Abzug von Rabatten und Gut- schriften. Stornobuchungen reduzieren den Umsatz im Buchungsmonat der Stornierung. ────────────────────────────────────────────────────────────── Formel: SUM(Rechnungsbetrag_Netto) - SUM(Gutschriften_Netto) - SUM(Stornos_Netto) ────────────────────────────────────────────────────────────── Datenquelle: ERP-System (Tabelle: dbo.Belege, Belegart IN ('RE','GS','ST')) Buchungsdatum: Rechnungsdatum (nicht Zahlungsdatum) Währung: EUR (Fremdwährung zum Tageskurs umgerechnet) ────────────────────────────────────────────────────────────── Abgrenzung: Nicht enthalten: interne Verrechnungen, Anzahlungen, durchlaufende Posten Verwandt: Umsatz (Brutto), Auftragseingang, Fakturierter Umsatz vs. Buchungsumsatz ────────────────────────────────────────────────────────────── Eigentümer: CFO / Controlling-Leiter Gültig ab: 2026-01-01 Review-Termin: 2027-01-01 ────────────────────────────────────────────────────────────── |
Das Business Glossar definiert *was* etwas bedeutet. Der Datenkatalog verknüpft diese Bedeutung mit *wo* die Daten physisch liegen:
|
Artefakt |
Was es beschreibt |
Zielgruppe |
Werkzeug |
|
Business Glossar |
Fachliche Bedeutung von Begriffen |
Business, Management |
Wiki, Confluence |
|
Datenkatalog |
Technische Metadaten: Tabellen, Felder, Datentypen |
IT, BI-Entwickler |
Purview, OpenMetadata, Wiki |
|
KPI-Glossar |
Berechnungsregeln für Kennzahlen |
BI-Entwickler, Controlling |
Wiki, BI-Tool |
|
Datenmodell-Dokumentation |
ER-Diagramme, Beziehungen |
DBA, Entwickler |
SSMS, draw.io |
Für den Einstieg reichen 20–30 Glossareinträge für die wichtigsten Begriffe:
→ Die 10 wichtigsten KPIs des Unternehmens (Umsatz, DB, Marge, Auftragseingang, ...).
→ Die 5 wichtigsten Stammdaten-Objekte (Kunde, Artikel, Lieferant, Kostenstelle, Projekt).
→ Die 5 wichtigsten Transaktionsobjekte (Auftrag, Rechnung, Lieferschein, Buchung, Ticket).
→ Alle unternehmensspezifischen Abkürzungen, die in Reports und Datenbanken auftauchen.
07
Die DSGVO gilt für jedes Unternehmen, das personenbezogene Daten von EU-Bürgern verarbeitet — unabhängig von Größe und Branche. Die folgenden fünf Pflichten sind für KMU nicht optional:
→ Verarbeitungsverzeichnis (Art. 30 DSGVO): Dokumentation aller Verarbeitungsvorgänge personenbezogener Daten. Wer verarbeitet was, zu welchem Zweck, auf welcher Rechtsgrundlage, mit welcher Aufbewahrungsfrist?
→ Technisch-organisatorische Maßnahmen (TOMs, Art. 32): Nachweis, dass Daten durch geeignete technische und organisatorische Maßnahmen geschützt sind (Verschlüsselung, Zugriffskontrollen, Backups).
→ Auftragsverarbeitungsverträge (AVV, Art. 28): Für jeden Dienstleister, der personenbezogene Daten in Ihrem Auftrag verarbeitet (Cloud-Anbieter, BI-Tools, Lohnabrechnung, E-Mail-Dienste).
→ Betroffenenrechte umsetzen (Art. 15–22): Auskunft, Löschung, Berichtigung, Datenportabilität — auf Anfrage innerhalb von 30 Tagen zu beantworten.
→ Meldepflicht bei Datenpannen (Art. 33): Datenschutzverletzungen innerhalb von 72 Stunden an die zuständige Aufsichtsbehörde melden.
|
VERARBEITUNGSVERZEICHNIS — EINTRAG (VORLAGE): ────────────────────────────────────────────────────────────── Verarbeitungsvorgang: Kundenverwaltung & Auftragsabwicklung Verantwortlicher: [Unternehmen, Adresse] Zweck: Vertragserfüllung, Rechnungslegung Rechtsgrundlage: Art. 6 Abs. 1 lit. b DSGVO (Vertrag) ────────────────────────────────────────────────────────────── Betroffene Personen: Kunden, Ansprechpartner beim Kunden Datenkategorien: Name, Adresse, E-Mail, Telefon, Umsatz, Zahlungshistorie Quellsysteme: CRM (Dynamics 365), ERP (MACH) ────────────────────────────────────────────────────────────── Aufbewahrungsfrist: 10 Jahre nach letzter Buchung (HGB § 257) Löschroutine: Jährlich im Januar (automatisiert via SQL Agent Job) ────────────────────────────────────────────────────────────── Empfänger: Steuerberater (AVV vorhanden), Microsoft (AVV, EU-Rechenzentrum) Drittlandtransfer: Nein / [Ja: Safeguards dokumentieren] ────────────────────────────────────────────────────────────── TOM-Verweis: TOM-Dokument v2.1 (Abschnitt 3.2) ────────────────────────────────────────────────────────────── |
|
Datenkategorie |
Aufbewahrungspflicht |
Rechtsgrundlage |
Löschfrist nach |
|
Handels- und Geschäftsbriefe |
6 Jahre |
HGB § 257 |
Ablauf des Geschäftsjahres |
|
Buchungsbelege, Rechnungen |
10 Jahre |
HGB § 257, AO § 147 |
Ablauf des Geschäftsjahres |
|
Mitarbeiterdaten (aktiv) |
Dauer des Arbeitsverhältnisses |
— |
Austritt + Aufbewahrungsfrist |
|
Gehaltsabrechnungen |
10 Jahre |
AO § 147 |
Ablauf des Lohnzahlungszeitraums |
|
Bewerberunterlagen (abgelehnt) |
Max. 6 Monate |
AGG |
Ablauf der Widerspruchsfrist |
|
Videoüberwachung |
72 Stunden |
DSGVO-Grundsatz |
Automatisch überschreiben |
|
Server-Zugriffslogs |
3–6 Monate |
IT-Sicherheitsanforderungen |
Rollierendes Löschen |
■ Verarbeitungsverzeichnis existiert und ist aktuell (< 12 Monate alt).
■ Datenschutzbeauftragter benannt (Pflicht ab 20 Personen mit regelmäßiger Datenverarbeitung) oder Ausnahme dokumentiert.
■ AVV mit allen relevanten Auftragsverarbeitern vorhanden (Cloud-Anbieter, BI-Tools, Lohnabrechnung).
■ Auskunfts-Prozess definiert: Wer beantwortet DSGVO-Auskunftsanfragen? In welcher Frist?
■ Löschkonzept dokumentiert: Automatisierte oder manuelle Löschroutinen je Datenkategorie.
■ Datenpannen-Meldeprozess bekannt: Wer meldet innerhalb von 72 Stunden an welche Behörde?
■ Mitarbeitende geschult: Weiß Ihr Team, was eine Datenpanne ist und wen sie sofort informieren müssen?
08
"Woher kommt diese Zahl?" ist die häufigste Frage im BI-Alltag. Wenn niemand den Weg einer Kennzahl von der Quelldatenbank über Transformationen und ETL-Schritte bis zum Dashboard nachvollziehen kann, sind drei Probleme vorprogrammiert: Fehlerdiagnose dauert Stunden statt Minuten. Datenqualitätsprobleme werden nicht an der Quelle behoben. Änderungen an Quellsystemen brechen unbemerkt Downstream-Reports.
|
LINEAGE-DOKUMENT: KPI "Umsatz Netto Monat" ══════════════════════════════════════════════════════════════════ SCHICHT 1 — QUELLSYSTEM: System: ERP (MACH MBS / SQL Server: srv-erp01) Tabelle: dbo.Belege Felder: BelegNr, BelegDatum, KundenID, Betrag_Netto Filter: Belegart IN ('RE', 'GS', 'ST'), Storniert = 0 Aktualisier: Real-time (OLTP)
SCHICHT 2 — STAGING / ETL: Prozess: SQL Agent Job: ETL_Umsatz_Daily (täglich 03:00) Ziel: DWH-DB: dbo.Staging_Umsatz Logik: Nur geänderte Belege seit letztem Run (CDC) Fehlerlog: dbo.ETL_Log (Tabelle, 30 Tage aufbewahrt)
SCHICHT 3 — DATA WAREHOUSE: Tabelle: DWH: dbo.Fact_Umsatz Dimensionen: Dim_Zeit, Dim_Kunde, Dim_Artikel, Dim_Region Transformation: Währungsumrechnung auf EUR (Tageskurs)
SCHICHT 4 — SEMANTIC LAYER: Tool: Power BI (Dataset: "Umsatz KMU v3") Measure: [Umsatz Netto] = SUM(Fact_Umsatz[Betrag_Netto]) Filter: Automatisch via RLS (Region = User.Region)
SCHICHT 5 — BERICHT / DASHBOARD: Report: "Monats-Cockpit Vertrieb" (Power BI Service) Seite: Seite 1, KPI-Card oben links Refresh: Täglich 06:00 (nach ETL-Abschluss) ══════════════════════════════════════════════════════════════════ Eigentümer: Controlling (Data Owner: CFO) Letzter Check: 2026-01-15 — Nächster Review: 2026-07-15 |
Microsoft Purview bietet automatische Lineage-Visualisierung für Power BI-Datasets, Azure Data Factory-Pipelines und SQL-Datenbanken — ohne manuelle Dokumentation:
→ Purview-Konto in Azure anlegen und mit Power BI Tenant verbinden.
→ Automatisches Scanning: Purview erkennt Datenquellen, Datasets und Reports und verknüpft sie zu einer visuellen Lineage-Karte.
→ Kostenhinweis: Microsoft Purview Data Map wird pro Capacity Unit abgerechnet. Für KMU-Umgebungen mit < 10 GB Daten sind die Kosten überschaubar (ca. 50–150 €/Monat).
→ Alternative ohne Extrakosten: Die eingebaute Lineage-Ansicht im Power BI Service (unter einem Dataset → Lineage) zeigt Datenquellen, Datasets und Reports — kostenlos, ohne Purview.
09
Nicht jedes KMU braucht sofort ein dediziertes Governance-Tool. Der richtige Zeitpunkt hängt vom Reifegrad der Governance-Prozesse ab:
|
REIFEGRAD-PFAD: TOOLS FÜR DATA GOVERNANCE IM KMU ══════════════════════════════════════════════════════════════ STUFE 1 — MANUELL (0–50 Mitarbeitende, < 5 Datenquellen): Business Glossar: Confluence / SharePoint-Wiki Datenkatalog: Excel + Wiki Lineage: Manuelle Dokumentation (Word/Wiki) DQ-Monitoring: SQL-Skripte (Kapitel 5) + Power BI
STUFE 2 — SEMI-AUTOMATISCH (50–200 MA, 5–20 Quellen): Business Glossar: Confluence mit strukturierten Templates Datenkatalog: OpenMetadata (Open Source, Self-hosted) oder Atlan (Cloud, ab ~500 $/Monat) Lineage: OpenMetadata auto-lineage für SQL + dbt DQ-Monitoring: Great Expectations (Python, Open Source) oder SQL-Agent-Jobs mit Alerting
STUFE 3 — AUTOMATISIERT (> 200 MA, > 20 Quellen): Business Glossar: Microsoft Purview Business Glossary Datenkatalog: Microsoft Purview Data Catalog Lineage: Microsoft Purview (auto, für Azure-Stack) DQ-Monitoring: Purview Data Quality (Preview 2026) oder Soda / Monte Carlo ══════════════════════════════════════════════════════════════ |
|
Tool |
Typ |
Kosten |
Stärken |
Wann geeignet |
|
Confluence + Templates |
Wiki |
Ab 0 € (Free) |
Einfach, bekannt, flexibel |
Stufe 1 — Start |
|
OpenMetadata |
Open Source |
Infrastruktur |
Vollständiger Katalog, auto-lineage |
Stufe 2, IT-Kompetenz vorhanden |
|
Microsoft Purview |
Cloud (Azure) |
Ab ~50 €/Monat |
Native M365/Power BI-Integration |
Stufe 2–3, Microsoft-Stack |
|
Atlan |
SaaS |
Ab ~500 $/Monat |
Einfach, kollaborativ, KI-Features |
Stufe 2–3, Budget vorhanden |
|
Great Expectations |
Open Source Python |
Infrastruktur |
Mächtige DQ-Tests, CI/CD-Integration |
Stufe 2, Python-Kompetenz |
OpenMetadata ist der empfehlenswerteste Einstieg für KMU in Stufe 2: vollständiger Datenkatalog, automatische Lineage für SQL Server, dbt und Airflow, Business Glossar, Datenqualitäts-Tests — kostenlos, selbst gehostet.
|
OPENMETADATA: DOCKER-COMPOSE QUICKSTART ────────────────────────────────────────────────────────────── # Minimale Systemanforderungen: 4 GB RAM, 2 vCPUs # Installation: git clone https://github.com/open-metadata/OpenMetadata cd OpenMetadata/docker/development docker compose up -d
# SQL Server Connector konfigurieren (nach Login unter :8585): # Settings → Services → Database Services → Add Service # Type: Mssql # Host: srv-sql01.intern # Database: ProdDB # Ingestion: täglich 02:00 Uhr
# Ergebnis: Automatisch gescannte Tabellen, Felder, # Zeilenanzahl, Sample Data, Column Profile — im Browser ────────────────────────────────────────────────────────────── |
10
Dieser Plan führt Sie in 30 Tagen von der ersten Bestandsaufnahme bis zu einer betriebsfähigen, schlanken Governance-Grundstruktur — realistisch geplant für eine KMU-IT mit 3–5 Personen und einem Zeitbudget von ca. 4–6 Stunden pro Woche.
|
|
VOR DEM START Klären Sie vor dem Start mit der Geschäftsführung: Wer wird Data Sponsor? Gibt es ein konkretes Geschäftsproblem, das Governance lösen soll (KPI-Inkonsistenzen, DSGVO-Risiken, Einarbeitungsprobleme)? Ohne Führungs-Commitment wird die Initiative nach Woche 2 im Alltag untergehen. |
■ TAG 1–2: DATA LANDSCAPE MAPPING
■ Alle Datenquellen inventarisieren: Welche Systeme speichern geschäftskritische Daten? (ERP, CRM, BI, Excel, Sharepoint, Cloud-Dienste)
■ Für jede Datenquelle notieren: Wer nutzt sie? Wer pflegt sie? Wer ist verantwortlich?
■ Kritikalität bewerten: Welche drei Systeme wären bei Datenverlust am schlimmsten?
■ Schnittstellen dokumentieren: Welche Systeme tauschen Daten aus? Wie? (manuell, automatisch, ETL)
■ TAG 3–4: SCHMERZPUNKTE IDENTIFIZIEREN
■ Interviews mit 3–5 Datenbenutzern (Controlling, Vertrieb, HR): Was nervt Sie an den Daten täglich?
■ Typische Schmerzpunkte sammeln: Widersprüchliche Zahlen, unklare Definitionen, schlechte Datenqualität, fehlende Zugriffsrechte
■ Die drei größten Governance-Lücken priorisieren: Welche verursachen die meisten Probleme?
■ Ergebnis als 1-seitige "Data Health Summary" für den Data Sponsor aufbereiten
■ TAG 5–7: ROLLEN BENENNEN
■ Data Sponsor benennen und committen — schriftliche Beauftragung empfohlen
■ Data Owner je Domäne identifizieren (Kapitel 4): Wer ist fachlich verantwortlich für Kundendaten, Finanzdaten, HR, Artikel?
■ Data Custodian benennen: Wer in der IT übernimmt die technische Pflege?
■ Ersten Data-Council-Termin (30 Min.) für Ende Woche 2 einplanen
■ TAG 8–10: GOVERNANCE-DOKUMENTE AUFSETZEN
■ Daten-Ownership-Dokument (Kapitel 4) für die zwei wichtigsten Domänen ausfüllen
■ Drei Governance-Policies als 1-Seiter erstellen: Datenzugriff, Datenqualität, Aufbewahrung
■ KPI-Glossar starten: Die 10 wichtigsten KPIs des Unternehmens mit verbindlicher Definition
■ Ablageort festlegen: Wiki-Seite oder SharePoint-Bereich für alle Governance-Dokumente
■ TAG 11–13: ERSTE DATENQUALITÄTSMESSUNG
■ Skript 5.1 (Vollständigkeit) auf die zwei wichtigsten Stammdatentabellen ausführen
■ Skript 5.2 (Dubletten) auf Kundenstamm ausführen
■ Ergebnisse dokumentieren: Das ist die Baseline, gegen die künftige Verbesserungen gemessen werden
■ Top-3-Datenqualitätsprobleme identifizieren und Verantwortlichen zuweisen
■ TAG 14: ERSTER DATA COUNCIL
■ Data-Council-Meeting durchführen (30 Min., Kapitel 3 Agenda)
■ Data Health Summary präsentieren: Schmerzpunkte, DQ-Baseline, Top-3-Probleme
■ Ownership-Dokumente vorstellen: Data Owner bestätigen ihre Verantwortung
■ Drei konkrete Maßnahmen für Woche 3 beschließen — Verantwortlicher und Termin je Maßnahme
■ TAG 15–17: BERECHTIGUNGS-AUDIT
■ SQL-Skript aus Kapitel 2 (Governance-Falle 03) ausführen: Alle aktiven Logins und Zugriffsrechte exportieren
■ Liste mit Data Ownern abgleichen: Welche Zugriffsrechte sind nicht mehr aktuell?
■ Ehemalige Mitarbeitende und vergessene Service-Accounts identifizieren und deaktivieren
■ Berechtigungsmatrix erstellen: Wer darf auf welche Daten zugreifen (Rollen-basiert)
■ TAG 18–20: DSGVO-SCHNELL-CHECK
■ DSGVO-Schnell-Check aus Kapitel 7 durchführen: 7 Punkte abarbeiten
■ Verarbeitungsverzeichnis-Vorlage (Kapitel 7) für die drei wichtigsten Verarbeitungsvorgänge ausfüllen
■ Fehlende Auftragsverarbeitungsverträge (AVV) identifizieren: Cloud-Anbieter, BI-Tools, Lohnabrechnung
■ Aufbewahrungsfristen-Tabelle (Kapitel 7) auf eigene Datenkategorien anpassen und dokumentieren
■ TAG 21: LINEAGE FÜR KRITISCHE KPIs
■ Lineage-Dokument (Kapitel 8) für die zwei wichtigsten KPIs des Unternehmens ausfüllen
■ Datenpipeline von Quelle bis Dashboard Schritt für Schritt dokumentieren
■ Offene Fragen markieren: Wo ist der Weg unklar? Das sind die nächsten Dokumentationsprioritäten
■ Power BI Lineage-Ansicht im Service aktivieren und mit Data Ownern zeigen
■ TAG 22–25: DQ-MONITORING AUTOMATISIEREN
■ SQL Agent Job einrichten: Datenqualitäts-Skripte (Kapitel 5) täglich um 07:00 ausführen
■ Ergebnisse in eine DQ-Log-Tabelle schreiben — für historische Trends
■ Power BI DQ-Dashboard erstellen: 4 KPI-Cards (Vollständigkeit, Dubletten, Konsistenz, Aktualität) + Trendchart
■ Automatische E-Mail-Benachrichtigung einrichten: DQ-Score unter Schwellenwert → Alert an Data Custodian
■ TAG 26–28: GOVERNANCE-KALENDER ETABLIEREN
■ Monatlichen Data-Council-Termin (30 Min.) als Dauerserie in Kalender einpflegen
■ Halbjährlichen Berechtigungs-Review im Kalender verankern
■ Jährliche Überprüfung aller Governance-Dokumente und KPI-Definitionen terminieren
■ Review-Termine in alle Governance-Dokumente eintragen (analog Prozessdokumentation-Kit)
■ TAG 29–30: ABSCHLUSS & KOMMUNIKATION
■ Governance-Ergebnisse präsentieren: Was wurde aufgebaut, was ist die Baseline, was sind die nächsten Schritte
■ Governance-Wiki-Seite veröffentlichen: Alle Dokumente, Kontakte, Prozesse an einem Ort
■ Rückblick: Was hat gut funktioniert? Was hätte besser laufen können?
■ Backlog für die nächsten 90 Tage priorisieren: Datenkatalog-Tool, weitere Domänen, DSGVO-Vervollständigung ■
|
|
ERGEBNIS NACH 30 TAGEN Ihr Ergebnis nach 30 Tagen: Klare Eigentümerschaft für alle kritischen Datendomänen, eine messbare Datenqualitäts-Baseline, ein KPI-Glossar mit den 10 wichtigsten Kennzahlen, ein bereinigtes Berechtigungskonzept, ein dokumentierter DSGVO-Status und ein monatlicher Data Council als dauerhafter Governance-Rhythmus. Keine externe Beratung, kein teures Tool — nur klare Strukturen und messbare Ergebnisse. |
Die in diesem Dokument enthaltenen Informationen, Methoden, SQL-Skripte und Empfehlungen wurden nach bestem Wissen und Gewissen auf der Grundlage etablierter Frameworks (DAMA-DMBOK, ISO 8000) sowie langjähriger praktischer Erfahrung in der Beratung mittelständischer Unternehmen erstellt. Dennoch kann keine Gewähr für Vollständigkeit, Richtigkeit oder universelle Anwendbarkeit übernommen werden.
Der Autor übernimmt ausdrücklich keinerlei Haftung für Schäden, die aus der Anwendung der beschriebenen Methoden und Skripte entstehen, einschließlich, aber nicht beschränkt auf: Datenverlust, Compliance-Verstöße, Bußgelder, Systemausfälle oder organisatorische Fehlfunktionen.
Die in Kapitel 7 enthaltenen Hinweise zur DSGVO-Compliance stellen keine Rechtsberatung dar und ersetzen nicht die Beratung durch einen zugelassenen Rechtsanwalt oder zertifizierten Datenschutzbeauftragten. Aufbewahrungsfristen und Compliance-Anforderungen sind jurisdiktionsabhängig und können sich durch Gesetzgebung und Rechtsprechung ändern. Ziehen Sie für rechtsverbindliche Einschätzungen stets einen Fachanwalt hinzu.
Alle SQL-Skripte in diesem Dokument wurden für Microsoft SQL Server entwickelt und in realen Umgebungen getestet. Dennoch können aufgrund unterschiedlicher Datenbankversionen, Konfigurationen und Datenstrukturen unerwartete Verhaltensweisen auftreten. Führen Sie alle Skripte zunächst in einer Testumgebung aus, bevor Sie sie in der Produktion einsetzen.
Dieses Dokument und alle Inhalte sind urheberrechtlich geschützt. © 2026 Sascha Hess, xenosystems.de. Alle Rechte vorbehalten.
Microsoft Purview, Power BI, Azure und SQL Server sind eingetragene Marken der Microsoft Corporation. OpenMetadata ist ein Open-Source-Projekt unter der Apache-2.0-Lizenz. DAMA-DMBOK ist ein Rahmenwerk der DAMA International. ISO ist eine eingetragene Marke der International Organization for Standardization. DSGVO bezeichnet die Datenschutz-Grundverordnung (EU) 2016/679. Alle anderen genannten Produkt- und Unternehmensnamen sind Eigentum ihrer jeweiligen Inhaber.
Es gilt ausschließlich deutsches Recht. Gerichtsstand für alle Streitigkeiten ist, soweit gesetzlich zulässig, Weimar, Thüringen, Deutschland.
Sascha Hess ist Diplom-Biologe und IT-Professional mit über 20 Jahren Erfahrung in der Administration von ERP-, BI- und Datenbanksystemen sowie in der Daten- und Prozessberatung mittelständischer Unternehmen. Er hat mehr als 30 Data-Governance- und Datenqualitätsprojekte in KMU begleitet — von der ersten Datenlandkarte bis zum produktiven Governance-Betriebsmodell.
Sein Ansatz verbindet naturwissenschaftliche Präzision mit hochgradiger IT-Spezialisierung. Schwerpunkte: SQL Server Performance-Tuning, ERP-Einführungen, Business Intelligence (Power BI, DeltaMaster), Data Governance, Prozessdigitalisierung und IT-Interim-Management.
Web: www.xenosystems.de | E-Mail: info@xenosystems.de | Standort: Weimar, Thüringen / Remote
|
Service |
Beschreibung |
|
Data Governance Quickstart |
Strukturierter 3-Tages-Workshop: Datenlandkarte, Rollenmodell, KPI-Glossar, DSGVO-Schnell-Check — mit Übergabe eines vollständigen Governance-Starter-Kits und 30-Tage-Maßnahmenplan. |
|
Datenqualitäts-Audit |
Automatisierte Analyse Ihrer kritischen Datenquellen — DQ-Score je Domäne, Dublettenanalyse, Konsistenzprüfung ERP vs. BI, schriftlicher Maßnahmenreport. Scope: 2–3 Tage. |
|
DSGVO-Readiness-Check |
Prüfung Ihres aktuellen Compliance-Status: Verarbeitungsverzeichnis, AVV-Vollständigkeit, Berechtigungskonzept, Löschkonzept — mit priorisierter Maßnahmenliste. Scope: 1–2 Tage. |
|
SQL Server DB Health Check |
Professioneller Audit Ihres SQL Servers — Managementreport, Risikobewertung und Maßnahmenplan. Scope: 3–5 Tage. |
|
Power BI Einführung & Governance |
End-to-End: Datenmodell, Semantic Layer, KPI-Glossar, Row-Level Security, Workspace-Governance und Power BI Deployment Pipelines. Scope: 4–12 Wochen. |
|
Interim IT-Management |
Übernahme der IT-Steuerung auf Zeit — Budgetplanung, Dienstleister-Management, strategische IT-Ausrichtung. |
Vollständiges Dokument
Strategische Wissens-Roadmap · Checklisten · Praxisbeispiele
49,90 €
Sichere Zahlung über PayPal · Sofort-Download nach Zahlungseingang