Zum Inhalt springen
Start  › ... Verband › LAFVaktuell

Daten als Fundament moderner Fondsdienstleistungen

Daten als Fundament moderner Fondsdienstleistungen

In der modernen Fondsbranche sind Daten weit mehr als Zahlen: Sie bilden die Grundlage für fundierte Entscheidungen, regulatorische Sicherheit und das Vertrauen der Kundinnen und Kunden. Täglich werden grosse Datenmengen aus unterschiedlichsten Quellen verarbeitet – von Stammdaten über Marktpreise bis hin zu Transaktions- und Positionsdaten. Diese Informationen müssen konsolidiert, validiert und für regulatorische Zwecke wie PRIIP-KIDs, Jahresberichte oder die NAV-Berechnung aufbereitet werden.

Mit der zunehmenden Komplexität von Fondsprodukten und der stetigen Ausweitung regulatorischer Anforderungen steigen die Anforderungen an Datenqualität, -verfügbarkeit und -konsistenz. Regulatorische Rahmenwerke wie SFDR, EU-Taxonomie, PRIIP-RTS oder AIFMD II erfordern eine hohe Granularität der Daten sowie nachvollziehbare Berechnungs- und Prüfprozesse. Unvollständige oder fehlerhafte Daten können unmittelbare Auswirkungen auf operative Abläufe, regulatorische Meldungen und die Qualität der Berichterstattung haben. 

Vor diesem Hintergrund entwickelt sich Datamanagement von einer unterstützenden Funktion zu einem fundamentalen Bestandteil der Wertschöpfung von Fondsdienstleistern.

Die Herausforderung: Datenmenge und Komplexität
Die steigenden Anforderungen spiegeln sich auch im Umfang der täglich zu verarbeitenden Daten wider. Bei der VP Fund Solutions (Liechtenstein) AG zum Beispiel werden jährlich rund 90’000 Nettoinventarwerte berechnet und mehr als 140’000 Reports für unterschiedliche Anspruchsgruppen erstellt, darunter Kundinnen und Kunden, Datenprovider, Aufsichtsbehörden sowie weitere institutionelle Abnehmer. Diese Volumina verdeutlichen die operative Komplexität datenbasierter Prozesse: Eine Vielzahl von Datenpunkten muss täglich verarbeitet, geprüft und in teilweise sehr komplexe Reportingstrukturen überführt werden.

Zusätzliche Herausforderungen ergeben sich aus spezifischen regulatorischen Vorgaben. Die Einführung der Transaktionskostenberechnung nach der Arrival-Price-Methode im Rahmen der PRIIP-KIDs erfordert beispielsweise die Verarbeitung exakter Order-Zeitstempel sowie entsprechender Intraday-Marktdaten. Auch im Bereich der Liquiditätsrisikosteuerung führen regulatorische Anforderungen zu erhöhten Ansprüchen an die Verfügbarkeit, Vollständigkeit und Aktualität von Asset-Stammdaten, etwa in Bezug auf Rücknahmebedingungen von Zielfonds oder Liquiditätsprofile einzelner Instrumente.

Die Antwort: Weiterentwicklung des Datamanagements
Angesichts zunehmender regulatorischer Anforderungen, wachsender Datenvolumina und der steigenden Komplexität von Geschäftsmodellen gewinnt ein leistungsfähiges Datamanagement zunehmend an Bedeutung. Es bildet die Grundlage für stabile und nachvollziehbare operative Prozesse und ist zugleich Voraussetzung für eine konsistente, belastbare Datenbasis über alle relevanten Geschäftsbereiche hinweg.

Ein zentraler Ansatzpunkt ist die weitgehende Automatisierung wiederkehrender datenverarbeitender Prozesse. Wo immer fachlich sinnvoll, sollten manuelle Eingriffe reduziert werden, um Fehlerquellen zu minimieren und die Effizienz der Abläufe zu erhöhen. Damit einher geht die Notwendigkeit, interne und externe Schnittstellen konsequent zu standardisieren und zu optimieren. Klar definierte Schnittstellen und einheitliche Datenformate sind entscheidend, um Daten und Reports konsistent, medienbruchfrei und entlang verbindlicher Qualitätsstandards zu verarbeiten. Dies betrifft insbesondere die tägliche Datenanlieferung, die systematische Preisvalidierung sowie die automatisierte Erstellung und Übermittlung regulatorischer Meldungen an Aufsichtsbehörden.

Automatisierung allein ist jedoch nicht ausreichend. Ebenso erforderlich ist ein mehrstufiges Kontroll- und Qualitätssicherungskonzept, das die Datenqualität kontinuierlich überwacht. Dazu gehört eine umfangreiche, regelbasierte Prüfung der Daten an jedem Bewertungstag. Ergänzend sollte eine organisatorisch unabhängige Kontrollinstanz die Ergebnisse plausibilisieren und fachlich beurteilen. Der Fokus liegt dabei auf der Einhaltung regulatorischer Vorgaben und definierter Qualitätsstandards sowie auf einer konsistenten Behandlung von Sonder- und Ausnahmefällen, die in komplexen Datenlandschaften unvermeidlich auftreten.

Ein nachhaltiges Datamanagement erfordert darüber hinaus einen strukturierten Umgang mit Abweichungen. Werden Fehler oder Inkonsistenzen festgestellt, sollte die Reaktion nicht auf eine reine Datenkorrektur beschränkt bleiben. Vielmehr ist eine systematische Ursachenanalyse entlang der gesamten Prozesskette notwendig, um strukturelle Schwachstellen zu identifizieren. Darauf aufbauend können gezielte und nachhaltige Prozessanpassungen vorgenommen werden, mit dem Ziel, vergleichbare Fehler künftig zu vermeiden. Dieser Ansatz trägt wesentlich zur langfristigen Stabilisierung operativer Prozesse und zur kontinuierlichen Verbesserung der Datenqualität bei.

Das Ergebnis: Qualität, Sicherheit und Effizienz
Die Investitionen in das Datamanagement zahlen sich aus. Kundinnen und Kunden profitieren von hoher Datenqualität, regulatorischer Sicherheit und einer verlässlichen Basis für fundierte Entscheidungen. Gleichzeitig reduziert konsistentes und vollständiges Datenmaterial das Risiko von Sanktionen und Reputationsschäden erheblich.

Automatisierte Prozesse und klare Verantwortlichkeiten beschleunigen die Tagesproduktionen und die Report-Erstellung. Daten stehen früher zur Verfügung, die Transparenz steigt, und der manuelle Aufwand sinkt deutlich. Zudem konnte die Datenqualität bei externen Datenanbietern spürbar verbessert und die Anzahl kundenbezogener Rückfragen zu Daten- oder Reporting-Themen signifikant reduziert werden.

Daten als strategischer Erfolgsfaktor
Die Zukunft der Fondsbranche bleibt datengetrieben – und die Anforderungen wachsen kontinuierlich. Neue regulatorische Vorgaben wie SFDR 2.0, AIFMD II sowie erweiterte Liquiditäts- und ESG-Reportingpflichten erhöhen die Komplexität ebenso wie die stetig steigenden Datenvolumina. Gleichzeitig eröffnen technologische Entwicklungen wie Künstliche Intelligenz, Big-Data-Plattformen und automatisierte Validierungsprozesse neue Chancen.

Wer heute in eine robuste Data Governance und intelligente Automatisierung investiert, legt den Grundstein für fehlerfreie Prozesse, regulatorische Sicherheit und nachhaltiges Wachstum.

Die Botschaft ist eindeutig: Datamanagement ist kein optionaler Bestandteil mehr, sondern eine zentrale Voraussetzung für Vertrauen, Stabilität und Wettbewerbsfähigkeit in einer zunehmend datengetriebenen Welt.

Dr. Daniel Siepmann
Chief Executive Officer (CEO) VP 
Fund Solutions (Liechtenstein) AG