Kann man auf Data Qualification verzichten?

In diesem Beitrag erläutert Thomas Durif, Chief Data Officer  bei Securities Services, BNP Paribas, warum Data Qualification an Bedeutung gewonnen hat und welche Best Practices Effizienzgewinne ermöglichen.

3 min

Was verbirgt sich hinter dem Begriff „Data Qualification“?

Für uns zielt Data Qualification darauf ab, den Nutzen der von Kunden sowie von internen Teams genutzten Daten zu maximieren. Die Qualifizierung der für Finanzinstitute maßgeblichen Daten geht über die bloße Sicherstellung der Qualität hinaus. Data Qualification bedeutet auch, Daten zu beschreiben und anzureichern – inklusive Herkunft, Definition, Eigentümer, Lebenszyklus, Vertraulichkeitsgrad und Qualitätsniveau. Kurz gesagt: Data Qualification bündelt Metadaten – also Informationen über Daten – und macht sie somit besser organisierbar, auffindbar und verständlich.

Warum Data Qualification?

Vor dem Hintergrund der enormen Datenmengen, die zwischen Dienstleistern und institutionellen Anlegern ausgetauscht werden, sowie der steigenden Komplexität des Finanzökosystems gewinnt Data Qualification zunehmend an Bedeutung.

Data PRISM360 ist eine Investment-Datenmanagementlösung, die von BNP Paribas´ Securities Services in Zusammenarbeit mit NeoXam entwickelt wurde.

Unsere Teams steuern den gesamten Datenfluss von der Erfassung bis zur Bereitstellung: sie erfassen und reichern Daten an, erstellen Books of Record und stellen Workflows bereit, die kundenspezifische Exposure-, ESG- und Analyseergebnisse ermöglichen.

Heutzutage können mehrere Versionen derselben Daten zu unterschiedlichen Zeitpunkten und Zwecken entstehen – etwa wenn ein Anbieter einem Kunden einen Bericht in zwei unterschiedlichen Formaten oder nach unterschiedlichen Vorgaben aufbereitet liefert. Der Abgleich von Datenverzeichnissen und die Vermeidung der doppelten Datenhaltung steigert die Effizienz und reduziert operative Fehler auf beiden Seiten.

Institutionelle Anleger wünschen sich zudem mehr Autonomie, um eigene Reports und Analysen erstellen zu können. Kenntnis der verfügbaren Daten, ihrer Qualität und Einsatzmöglichkeiten ermöglicht es Unternehmen, flexibler auf Veränderungen zu reagieren und Kundenanforderungen – z. B. hinsichtlich individueller Reports – effizient zu erfüllen. Außerdem sinkt der Aufwand im Vorfeld von Audits und behördliche Kontrollen.

Genaues Wissen darüber, welche Daten in die Systeme gelangen, verhindert Dauerprobleme   „Garbage in, Garbage out“.

Je strukturierter die Daten sind und je besser Unternehmen diese verstehen und vertrauen können, desto leichter lässt sich die Automatisierung von Prozessen vorantreiben.

Um KI-Modelle zu optimieren und Vertrauen in deren Ergebnisse zu gewährleisten, sind detaillierte Metadaten über Datensätze besonders wichtig. Dabei müssen Anbieter Daten innerhalb einer Organisation qualifizieren können, um Modelle ausschließlich mit autorisierten Daten zu trainieren und gegenüber ihren Kunden vollständig transparent agieren zu können.

Data Qualification zahlt sich auch im Risikomanagement aus: Je genauer und verlässlicher die Daten sind und je mehr Vertrauen Portfoliomanagement- und Risikoteams in sie haben, desto besser lassen sich Risiken einschätzen und passende Maßnahmen gezielt ergreifen.

Wie erfolgt Data Qualification?

An Data Qualification führt heute kein Weg vorbei. Regulierungsbehörden fordern zunehmend klare und präzise Angaben zu den Daten von Unternehmen. Gleichzeitig erwarten institutionelle Anleger von ihren Dienstleistern mehr Reaktionsfähigkeit, um ihrerseits den Service für Endkunden optimieren zu können. Professionelle Data Qualification kann Untersuchungszeiten von Stunden auf Minuten verkürzen und das Serviceniveau enorm steigern.

Leistungsfähige Data Qualification stützt sich auf drei zentrale Säulen:

Dokumentation

Eine geeignete Struktur zur Speicherung und Dokumentation von Metadaten – also Daten über Daten – ist entscheidend, aber zugleich mit Herausforderungen verbunden. Ebenso wichtig ist eine klare Abgrenzung: Durch die Identifikation der kritischsten Daten mit dem größten Nutzen vermeidet man einen endlosen Dokumentationsaufwand.

Qualitätssicherung

Robuste Kontrollmechanismen gewährleisten eine gute Datenqualität. Sind Qualitätskontrollen jedoch zu stark auf das jeweilige Unternehmen zugeschnitten, fallen auch die Ergebnisse firmenspezifisch aus, was die Analyse erschwert.

Bei BNP Paribas bewerten wir Daten anhand mehrerer Qualitätsdimensionen, um den Nutzen zu bestimmen: Genauigkeit, Konsistenz, Vollständigkeit, Integrität, Aktualität, Eindeutigkeit und Gültigkeit. Derart industrialisierte Kontrollstrukturen schaffen ein einheitliches Qualitätsniveau und ermöglichen die Nutzung von Analyseergebnissen in aggregierter Form. Durch die Umsetzung von Datenqualität „by design“ lässt sich außerdem die Erfassung fehlerhafter Daten bereits im Vorfeld verhindern.

Informationszugriff

Die Dokumentation der Daten sowie die Kontrollergebnisse müssen für alle relevanten Personen, sowohl intern als auch auf Kundenseite, leicht zugänglich sein. Angesichts der Fülle an Informationen ist es wichtig, geeignete Werkzeuge und Methoden zu wählen, um die Daten entsprechend präsentieren und deren Nutzung erläutern zu können.

Fallstricke der Data Qualification

Fehlerhaft umgesetzt, kann Data Qualification schnell zu einer Sisyphusaufgabe werden.

In einer Welt wachsender Datenmengen und zunehmender Komplexität muss man bei der Qualifizierung von Daten die richtige Balance zwischen einfacher Handhabung und Verständlichkeit einerseits und ausreichender Detailtiefe zur Sicherstellung eines Mehrwerts andererseits finden. Die Anforderungen unterscheiden sich je nach Datenkonsumenten, was beim Qualifizierungs-Service adäquat berücksichtigt werden muss.

Die Wahl der richtigen Datenmanagement-Tools stellt eine weitere Herausforderung dar. Diese müssen ausreichend flexibel sein, um eine Anpassung an die eigenen Anforderungen zu ermöglichen und gleichzeitig leistungsstark genug, um die gewünschten Ergebnisse zu liefern.

Systematisierung der Datenqualifizierung bei BNP Paribas´ Securities Services

Tech talk with Thomas Durif