Zum Inhalt springen
OZD.news - News und Nachrichten zum Nachschlagen

Big Data in der Finanzindustrie

Der Balanceakt zwischen Innovation und Regulierung

Rede auf der Veranstaltung „Europa im Gespräch“ der Hessischen Landesvertretung

26.09.2023 Brüssel Joachim Wuermeling

Es gilt das gesprochene Wort.

1 Einleitung

2 Was sind die starken Treiber und das Potential für die Nutzung von Big Data in der Finanzindustrie?

3 Wie nutzt der Finanzsektor insgesamt und insbesondere die Bundesbank Big Data?

4 Was ist die Rolle und Funktion der Regulierung im Umgang mit Big Data?

5 Fazit


1 Einleitung

Meine sehr geehrten Damen und Herren!

Der Zukunftsforscher und Autor John Naisbitt prägte folgenden bemerkenswerten Satz: Wir ertrinken in Informationen, aber hungern nach Wissen. Wenn wir dieses Bild weiterverfolgen, dann können wir uns die heutige Informationswelt als einen gewaltigen Ozean an Informationen vorstellen, gespeist durch Daten von sozialen Medien über Wetterdaten bis hin zu Finanztransaktionen.

Die Menge der produzierten Daten belief sich laut Statistischem Bundesamt 2022 auf beachtliche 104 Zettabyte weltweit. Das ist eine Zahl mit 22 Nullen! Und dieser Datenozean wächst: Für 2027 prognostizieren Experten etwa 284 Zettabyte an Daten.[1]

Doch welchen Nutzen können die Akteure des Finanzsystems aus dieser Flut an großen Datenmengen – Big Data – ziehen? Ähnlich wie ein erfahrener Fischer, der mit seinem Netz in den Tiefen des Ozeans nach wertvollen Fischen sucht, können Unternehmen durch gezielte Analyse dieser Datenströme mit Hilfe von Künstlicher Intelligenz (KI) und maschinellem Lernen wichtige Erkenntnisse für Prognosen, Risikobewertungen und Entscheidungen gewinnen. 

Diese Metapher unterstreicht die enormen Möglichkeiten und den unermesslichen Wert, die in der modernen Datenlandschaft stecken. 

Gleichzeitig wirft sie Fragen nach den Bedingungen und Herausforderungen auf, die mit der Erschließung dieser Ressource verbunden sind. 

Dies führt uns zu unserem Hauptthema, dem 'Potential von Big Data in der Finanzindustrie und ihrer Regulierung'. In einer Ära, in der Daten immer mehr an Bedeutung gewinnen, ist es entscheidend zu verstehen, wie wir das Potenzial von Big Data optimal nutzen. Gleichzeitig muss ein angemessenes Regulierungsmaß aufrechterhalten werden, um sowohl die Risikominderung und Wahrung von datenschutzrechtlichen Grundrechten der Kunden als auch die Förderung von Innovationen zu gewährleisten. 

Der Gesetzgeber läuft dabei im Moment Gefahr, bei der Regulierung „zu weit zu gehen“. Dadurch riskieren wir, die mit dem Potenzial verbundenen Chancen ein Stück weit zu vergeben. Ich würde mich gerne auf die Seite derjenigen schlagen, die einen vorsichtigen Ansatz bei der Regulierung verfolgen. Bei der Gesetzgebung sollte man behutsam vorgehen, um das Innovationspotenzial nicht unnötig einzuschränken. Kurz gesagt: Man sollte bei der Regulierung nicht das Kind mit dem Bade ausschütten.

Bei den folgenden Überlegungen stehen drei Fragen im Fokus:

- Was sind die starken Treiber und das Potential für die Nutzung von Big Data in der Finanzindustrie?

- Wie nutzt der Finanzsektor insgesamt und insbesondere die Bundesbank Big Data?

- Was ist die Rolle und Funktion der Regulierung im Umgang mit Big Data?

2 Was sind die starken Treiber und das Potential für die Nutzung von Big Data in der Finanzindustrie?

Als ein zentrales Organ der Finanzstabilität obliegt der Bundesbank nicht nur die Aufgabe, den Finanzsektor zu überwachen, sondern auch die Entwicklungen und Herausforderungen der modernen Datenlandschaft zu durchdringen.

Ich möchte mit einer Definition von Big Data beginnen, einem Begriff, der allzu oft als bloßes Buzzword missverstanden wird. Viele Menschen können nicht präzise artikulieren, was an Big Data im Vergleich zu traditionellen Daten tatsächlich 'neu' ist.

Big Data ist in der heutigen Zeit ein omnipräsenter Begriff, der im Kern den rasanten Anstieg und die Vielfalt von Daten beschreibt, die für konventionelle Analysemethoden oft zu umfangreich sind. Diese Welt der Daten ist durch drei Hauptelemente charakterisiert.

Erstens, die explosionsartige Zunahme der Daten. Wie das Statistische Bundesamt mitteilte, ist das Volumen der jährlich generierten oder replizierten digitalen Datenmenge weltweit zwischen 2010 und 2022 um das 51-fache gestiegen.[2]

Zweitens, innovative Speichertechnologien wie Cloud-Dienste, die die zügige Verarbeitung dieser enormen Datenmengen ermöglichen.

Drittens, Fortschritte in der Künstlichen Intelligenz, die die Analyse komplexester Daten ermöglichen. So werden heute in der Finanzindustrie beispielsweise automatisierte Systeme zur Betrugserkennung eingesetzt, die Transaktionen in Echtzeit überprüfen und somit dazu beitragen, Finanzbetrug zu verhindern.

Ein weiteres signifikantes Charakteristikum dieses Datenzeitalters ist der Übergang bei der Nutzung von aggregierten zu granularen, also sehr detaillierten Daten. Diese Daten stammen aus einer Vielzahl von Quellen, von Smartphones bis hin zu komplexen Unternehmenssystemen. Jeder Klick generiert wertvolle Daten und betont damit unsere Verantwortung für einen sicheren und ethischen Umgang mit diesen Informationen.

Ein anschauliches Beispiel für den Übergang bei der Betonung von aggregierten zu granularen Daten stellt AnaCredit dar: AnaCredit ist eine Regulierung durch die Europäischen Zentralbank, die granulare Kredit- und Kreditrisikodaten von Banken in der gesamten Eurozone sammelt. Dies dient dazu, die Kreditvergabepraktiken genauer zu überwachen und unsere makroprudenziellen Analysen zu unterstützen.

Eine in diesem Zusammenhang zu berücksichtigende Herausforderung ist, dass AnaCredit die Weitergabe bestimmter granularer Daten an andere staatliche Stellen einschränken könnte. Es wäre ein Grund dafür, dass das bewährte nationale System – das Millionenkreditmeldesystem –, welches diese Beschränkung nicht aufweist, möglicherweise weiterhin bestehen muss. Kurz gesagt: Der Wunsch, alte Zöpfe abzuschneiden, kann durch zu enge europäische Vorschriften erschwert werden. 

Abseits von solchen spezifischen Beispielen ist ein zusätzliches, markantes Merkmal unserer Ära der Datenflut die Transformation von strukturierten Daten hin zu komplexen, unstrukturierten Informationsmengen. Jahrzehntelang haben wir in der Bundesbank mit strukturierten Daten gearbeitet, wie sie etwa bei Finanzmarktdaten zu finden sind. In jüngerer Zeit haben wir unser Portfolio um semi-strukturierte Datenquellen erweitert, wie sie in Finanzberichten mit ihren Tabellen und Textpassagen vorkommen. Darüber hinaus haben wir uns der Herausforderung gestellt, unstrukturierte Daten zu integrieren, die in vielfältigen Formaten wie Zeitungsartikeln und anderen Medien vorliegen.

Für die Bundesbank stellt der Übergang von einer Welt mit aggregierten und strukturierten Daten hin zu einer Datenlandschaft mit umfangreichen, granularen und unstrukturierten Datenmengen einen signifikanten Paradigmenwechsel dar. Unstrukturierte Daten repräsentieren somit sowohl eine Herausforderung als auch ein enormes Potenzial für unsere Arbeit.


Meine Damen und Herren, 

insbesondere wenn wir über europäische Fortschritte im Bereich Big Data sprechen, dann dürfen wir ein Schlüsseldokument nicht übersehen: die Digital Finance Strategie der EU-Kommission.

Diese Strategie skizziert, wie wir in Europa die digitale Transformation der Finanzbranche in den kommenden Jahren nicht nur fördern, sondern auch sicher und verantwortungsvoll gestalten können.

Und lassen Sie mich hinzufügen: Diese Strategie zeigt uns die enormen Möglichkeiten, die Big Data in der Finanzwelt bietet.

Erstens, meine Damen und Herren, hebt die EU-Strategie die entscheidende Rolle eines gemeinsamen Finanzdatenraums für datengestützte Innovationen hervor. Dieser Finanzdatenraum wird durch den Einsatz von standardisierten, maschinenlesbaren Formaten den Datenaustausch und die Datenverfügbarkeit im Finanzsektor signifikant verbessern.

Diese Verbesserungen haben das Potenzial, Barrieren zwischen und innerhalb der Wirtschaftssektoren abzubauen. Ein solches offenes Finanzsystem wird als Katalysator für die Entwicklung innovativer Finanzprodukte und Dienstleistungen dienen, die sowohl für Verbraucher als auch für Unternehmen von Nutzen sind. In dieser Strategie werden Daten, in Kombination mit fortschrittlicher IT-Infrastruktur, immer mehr zu einer zentralen Säule der Innovation in unserem Sektor.

Dies führt uns nahtlos zum zweiten Punkt: In einem offenen Finanzsystem, das durch den gemeinsamen Finanzdatenraum ermöglicht wird, können wir die Erbringung von maßgeschneiderten, oder wenn Sie so wollen, personalisierten Finanzdienstleistungen, deutlich vorantreiben. Durch den Zugang zu einer umfangreicheren Datenbasis können Finanzdienstleister einerseits Muster und Trends erkennen, die es ihnen ermöglichen, ihre Angebote individuell auf den Kunden zuzuschneiden.

Andererseits erlaubt diese Datenfülle den Unternehmen, präzisere Vorhersagen über die Präferenzen, Verhaltensmuster und Trends der Verbraucher zu treffen. Stellen Sie sich vor, ein Finanzberater könnte durch die Nutzung von Erkenntnissen aus Big Data-Analysen die Investitionsgewohnheiten und ‑vorlieben eines Kunden besser verstehen. Auf dieser Grundlage könnte er dann einen Investitionsplan entwickeln, der exakt auf die finanziellen Ziele und die Risikobereitschaft des Kunden abgestimmt ist.

Drittens ermöglicht die Kombination von Big Data und verbesserter IT-Infrastruktur die Durchführung von hochwertigeren und umfangreicheren Datenanalysen. Bedenken Sie, die Analyse eines umfassenden, zusammengeführten Datensatzes bietet tiefere Einblicke als die isolierte Betrachtung einzelner Datenpunkte. 

Um den maximalen Wert der gesammelten Daten zu realisieren, ist der Einsatz von Verbundtechnologien unumgänglich. Solche Technologien ermöglichen es, Daten und Ressourcen aus verschiedenen Quellen zu kombinieren und gemeinsam zu nutzen, die unterschiedliche Datenströme in einer einzigen Anwendung vereinen. Diese modernen Technologien, oft in der Cloud angesiedelt, bieten nicht nur ein hohes Maß an operativer Flexibilität, sondern erleichtern auch den Zugang zu fortschrittlichen Datenverarbeitungsmethoden. Und hier kommt der praktische Nutzen ins Spiel: Dank dieser modernen Verbundtechnologien könnten unsere Banken und Finanzinstitute zum Beispiel Muster schneller erkennen, die auf Geldwäsche hindeuten könnten. Überlegen Sie mal, mehrere Banken würden ihre Informationen über Transaktionen, die mit Hochrisikoländern in Verbindung stehen – Ländern also, die bekanntermaßen ein hohes Risiko für Geldwäsche und Terrorismusfinanzierung darstellen, in einer sicheren Cloud-Umgebung poolen. Durch die Analyse dieses konsolidierten Datensatzes könnten sie deutlich schneller und effektiver Geldwäscheaktivitäten identifizieren und verfolgen.

Sie sehen, meine Damen und Herren, Big Data hat enormes Potenzial. In diesem Kontext eröffnet uns die Digital Finance Strategie der EU neue, spannende Möglichkeiten. Sie hat das Potenzial, dass Big Data als echter „Katalysator für ein datengesteuertes Finanzwesen“ wirkt.

3 Wie nutzt der Finanzsektor insgesamt und insbesondere die Bundesbank Big Data?

Neben den gerade umrissenen vielfältigen Potenzialen von Big Data stellen die praktischen Anwendungsfälle selbst einen Schatz an Möglichkeiten dar, für deren Erschließung KI unverzichtbar geworden ist. 

Betrachten Sie die Entwicklung der letzten Jahre: Die Analyse von Big Data mittels KI hat sich vom Front-End, der Kundenschnittstelle, bis in den Kern der Banken, den Maschinenraum, ausgeweitet. Im Front-End stärken kunden- und produktorientierte Anwendungen wie Chatbots nicht nur die Kundenbeziehung, sondern auch die Innovationskraft. 

Im Back-End fördern analytische und risikoorientierte Anwendungen Prozessoptimierungen und das Risikomanagement, insbesondere in Bereichen wie Kreditwürdigkeitsprüfung und Betrugserkennung. Um Ihnen ein noch klareres Bild zu vermitteln, möchte ich Ihnen entlang dieses Trends einige konkrete Beispiele aus der Bundesbank und der Finanzwirtschaft vorstellen.

In der Bundesbank nutzen wir künstliche Intelligenz in verschiedenen Zentralbereichen zur Analyse von Big Data. Ein besonderer Fokus liegt auf analytischen Anwendungen wie der Nachrichtenanalyse, bei der aktuelle Nachrichten automatisiert auf eine Vielzahl von Aspekten, von Bankrisiken bis zu Markt- und Trendthemen, überwacht werden.  

Einer dieser Anwendungsfälle findet sich etwa im Zentralbereich Märkte. Stellen Sie sich ein System vor, das täglich Tausende von Nachrichtenartikeln durchforstet, die meisten mit wirtschaftlichem oder politischem Bezug. Dieses System, das wir „BUBA-Bot“ nennen, nutzt neuronale Netze und Webscraping, um wertvolle Marktinformationen zu liefern. Das Tool ist schon seit einigen Jahren in Betrieb. Es durchsucht Webseiten und lädt Nachrichtenartikel herunter. Durch Sentimentanalysen, einem Prozess zur Ermittlung der Meinung, des Urteils oder der Emotion hinter einer Aussage, werden diese Artikel bewertet und mittels KI thematisch klassifiziert. Die Daten kombinieren wir anschließend mit Finanzmarktdaten und werden für Fragestellungen, die im Bereich „Market Intelligence“ und Marktanalyse relevant sind, nutzbar gemacht. Und hier kommt der spannendste Teil: Der BUBA-Bot integriert aktuell eine ChatGPT KI. Dies ermöglicht es den Nutzern, mit der KI über aktuelle weltweite Entwicklungen zu diskutieren und Einschätzungen der KI zur Nachrichtenlage zu erhalten.   

Schließlich möchte ich Ihnen noch ein weiteres, äußerst interessantes Beispiel für analytische Anwendungen aus unserem Hause präsentieren, den Prototypen "Medienanalyse" aus dem Zentralbereich Bankenaufsicht. Dieses Werkzeug dient uns zur Analyse unstrukturierter Daten, speziell in der Bankenaufsicht. Wir können mittels modernster maschineller Textanalyse aus einer Flut tagesaktueller Informationen – seien es Nachrichten, Unternehmensmitteilungen, Artikel in Fachzeitschriften oder sogar Handelsregistereintragungen – Entwicklungen von Bankrisiken und aufkommende Trendthemen identifizieren. Mit Hilfe von gezielten Stichwörtern können wir einzelnen Dokumenten verschiedene Risiken zuordnen, übergeordnete Themen herausfiltern und sogar feststellen, welche Finanzinstitute in dem jeweiligen Dokument Erwähnung finden. Der wirkliche Mehrwert dieses Ansatzes? Er ermöglicht uns, Informationen zu erfassen, die im herkömmlichen Meldewesen entweder verspätet auftauchen oder gar nicht erfasst werden.


Meine Damen und Herren, 

obwohl wir in der Bundesbank bereits Fortschritte erzielt haben, stehen wir noch am Anfang eines spannenden Weges. Zahlreiche vielversprechende Möglichkeiten prägen bereits unseren Arbeitsalltag und werden dies auch in Zukunft tun. Wir sind zwar bereits unter die Wasseroberfläche des Datenozeans vorgedrungen, aber bis hin zum Meeresgrund ist es noch ein weiter Weg. 

Lassen Sie uns nun einen Blick auf zwei Anwendungsfälle in der Finanzwirtschaft werfen: 

(1) Die Kreditwürdigkeitsprüfung und 

(2) die Betrugsprävention.

In der modernen Finanzwelt spielt die Kreditwürdigkeitsprüfung eine zentrale Rolle, und Big Data hat das Potenzial, diesen Prozess erheblich zu optimieren. Durch die Analyse großer Datenmengen können Banken und Finanzinstitute präzisere und individuellere Einschätzungen der Kreditwürdigkeit eines Antragstellers vornehmen. Big Data ermöglicht es, eine Vielzahl von Faktoren zu berücksichtigen, darunter finanzielle Historie und Kaufgewohnheiten, um ein umfassenderes Bild der finanziellen Zuverlässigkeit einer Person zu erhalten. Darüber hinaus kann die Nutzung von Big Data die Entscheidungszeit verkürzen und somit zu einer schnelleren und effizienteren Kreditvergabe führen. Insgesamt trägt Big Data dazu bei, das Kreditrisiko besser zu managen und fundierte Entscheidungen zu treffen, die sowohl für die Finanzinstitute als auch für die Kreditnehmer vorteilhaft sind.

Und dann gibt es die Betrugsprävention. Stellen Sie sich vor, wir könnten den digitalen Ozean von E-Mails, Dokumenten, Transaktionsaufzeichnungen und Webprotokollen auf Muster und Anomalien durchforsten, die auf verdächtige Aktivitäten oder gar Betrug hindeuten könnten.

Als Beispiel dafür, dass diese Technologien bereits in anderen Wirtschaftssektoren Fuß fassen, möchte ich die Versicherungsbranche hervorheben. Dort gibt es Schadensversicherer, die sich auf die Analyse dieser Art von Daten spezialisiert haben. Sie kombinieren unterschiedliche Datenquellen und setzen fortschrittliche Analysemethoden ein. Und die Ergebnisse? Eine beeindruckende Reduzierung der Betrugsfälle und die Enttarnung organisierter Betrugsringe. KI wird darüber hinaus auch in der Versicherungsbranche eingesetzt, um Schadensfälle besser zu bewerten, die Preisgestaltung zu optimieren und den Versicherungsschutz zu personalisieren.

Meine Damen und Herren, sie sehen: Es besteht also eine zunehmende Risikorelevanz, die sich aus der Verwendung von Big Data ergibt. Banken treffen dadurch fundiertere Entscheidungen, was zur Erhöhung ihrer Stabilität beiträgt. Big Data betrifft also nicht nur Einzelaspekte wie Diskriminierung, sondern hat weitreichende Auswirkungen auf Finanzinstitutionen und die gesamte Stabilität des Finanzsystems.


4 Was ist die Rolle und Funktion der Regulierung im Umgang mit Big Data?

Nun, meine Damen und Herren, wir stehen vor einer wichtigen Frage: Welche Rolle und Funktion hat die Regulierung im Umgang mit Big Data? Inwiefern unterstützt die Regulierung die angestrebten Ziele der Risikominderung und des Schutzes des Gemeinwohls einerseits und der Förderung von Innovationen andererseits? Um die Rolle und Funktion der Regulierung im Umgang mit Big Data zu ergründen, werden wir uns drei Gesetzesinitiativen genauer ansehen: 

(1) Die Datenschutzgrundverordnung (DSGVO), 

(2) den Artificial Intelligence Act (AI-Act) und

(3) den EU-Vorschlag zum digitalen Euro.

Lassen Sie uns als erstes ein Augenmerk auf die Datenschutzgrundverordnung legen. Diese wurde im Jahr 2018 von der EU auf den Weg gebracht und harmonisiert den Umgang von Unternehmen und öffentlichen Einrichtungen mit personenbezogenen Daten. 

Die DSGVO stellt eine starke Schutzmauer für die persönlichen Daten jedes Einzelnen von uns dar, legt strenge Regeln für Unternehmen fest und verleiht uns klare Rechte – vom Zugang zu unseren Daten bis hin zu deren Löschung und dem Widerspruch gegen ihre Verarbeitung.

Aber wir müssen auch die andere Seite der Medaille betrachten. Während wir die unbestreitbaren Vorteile der DSGVO anerkennen, dürfen wir die Kritikpunkte nicht ignorieren, besonders wenn es um das Ziel der Innovationsförderung geht.

Ein Kritikpunkt ist, dass die DSGVO strenge Regulierungen für die Verarbeitung personenbezogener Daten aufstellt. Diese könnten die Innovationskraft unserer Unternehmen einschränken, gerade wenn es um fortschrittliche Technologien wie KI und Machine Learning geht. Tatsächlich könnten solche Regelungen die Entwicklung neuer Produkte und Dienstleistungen behindern, die auf der Analyse großer Datenmengen basieren. Das trifft zum Beispiel auf Bereiche wie die Kreditrisikobewertung und die Betrugserkennung zu.

Denken Sie auch an unsere Unternehmen, die auf globaler Ebene agieren. In einer Zeit, in der Grenzen in der digitalen Welt immer unsichtbarer werden, erschwert die DSGVO durch ihre Verfahrensregeln paradoxerweise den internationalen Datentransfer. Dieses Hindernis kann die Entfaltung von Innovationen in unseren multinationalen Unternehmen bremsen. Wenn diese Unternehmen auf weltweite Datenströme angewiesen sind, um neue Produkte oder Dienstleistungen zu entwickeln, stellt sich die Frage: Behindern wir sie unnötig? Und nicht zu vergessen: Unsere Abhängigkeit von Cloud-Diensten, die ihre Datenzentren oft jenseits der EU-Grenzen haben. Ein Nachdenken hierüber ist unerlässlich.

Aber es ist nicht nur die Wirtschaft, die diese Bedenken äußert. Auch in politischen Kreisen werden kritische Stimmen laut. Nehmen wir beispielsweise Axel Voss, den rechtspolitischen Sprecher der EVP-Fraktion. Er hat erst kürzlich die EU-Kommission zwar für ihre Ansätze zur Überarbeitung der Verfahrensregelungen der DSGVO gelobt. Aber er machte auch unmissverständlich klar: Das reicht nicht aus. Seine Sicht ist, dass die DSGVO in mancher Hinsicht technisch veraltet ist. Er spricht nicht nur von Herausforderungen im grenzüberschreitenden Datenaustausch, sondern fordert eine umfassende Modernisierung der Verordnung. Dabei denkt er an neueste Entwicklungen wie Blockchain und künstliche Intelligenz und spricht sich für eine Ermöglichung von Datenverarbeitung aus, ohne die Grundrechte des Einzelnen zu verletzen. Axel Voss warnt eindringlich: Der vielgepriesene Goldstandard der DSGVO könnte uns in der Welt der Dateninnovation zurückhalten. Und daher, so seine Forderung, muss die bevorstehende Überprüfung der DSGVO zu einer echten Reform führen. Nur dann kann die EU in einer immer mehr datengetriebenen Welt wettbewerbsfähig bleiben.

Meine Damen und Herren, wir kommen zum Kern der Sache. Ja, die DSGVO dient dem Gemeinwohl, indem sie unseren Datenschutz stärkt. Aber wir dürfen nicht übersehen, dass sie in einigen Fällen auch ein Bremsklotz für Innovationen sein kann.

Lassen Sie uns nun ein zweites Beispiel in der Welt der Regulierung im Kontext von Big Data und Künstlicher Intelligenz beleuchten: den AI-Act. Dieser in der Welt bislang einzigartige Vorschlag, welcher am 14. Juni 2023 von der Europäischen Union abgesegnet wurde, wird einen einheitlichen und festen rechtlichen Rahmen für KI etablieren.

Der AI-Act fungiert als ein Leuchtturm des Gemeinwohls, indem er potenzielle Risiken minimiert. Wir dürfen aber nicht außer Acht lassen, dass er stellenweise als unpraktikabel erscheinen könnte und möglicherweise ein Hemmnis für die sprudelnde Quelle der Innovationen darstellt.

Die Notwendigkeit und Akzeptanz dieser Regulierung der Risiken in der deutschen Bevölkerung wird eindrücklich durch eine Umfrage des Meinungsforschungsinstituts Allensbach unterstrichen. Sie zeigt, dass 67 % der Deutschen den Verlust von Arbeitsplätzen durch KI befürchten und 62 % eine Manipulation der öffentlichen Meinung durch gefälschte Medieninhalte sowie Überwachung fürchten. Daher befürworten 56 % der Befragten eine solche Regulierung.

Der europäische Gesetzgeber tritt diesen Ängsten entgegen, indem das Gesetz die AI-Systeme in drei klare Risikokategorien unterteilt: verbotene Praktiken, Hochrisikosysteme und andere KI-Systeme.

Die verbotenen Praktiken nach dem EU-KI-Gesetz umfassen KI-Anwendungen, die Menschen heimlich manipulieren, die Schwächen schutzbedürftiger Gruppen ausnutzen oder „Social Scoring“ durch öffentliche Behörden ermöglichen.

Auf der anderen Seite haben wir die Hochrisikosysteme, das sind KI-Anwendungen, die erhebliche Bedrohungen für unsere Gesundheit, Sicherheit und Grundrechte darstellen. Diese müssen vor ihrer Markteinführung oder bei wesentlichen Änderungen eine Konformitätsbewertung durchlaufen, die sowohl eine Selbstbewertung als auch, unter bestimmten Umständen, eine Prüfung durch eine externe Stelle umfasst. Als Beispiele für kritische Hochrisiko-KI-Systeme können wir solche nennen, die in Bewerbungsprozessen, bei der Zulassung zu Bildungseinrichtungen oder bei Kreditwürdigkeitsprüfungen zum Einsatz kommen.

Allerdings müssen wir auch die Kritikpunkte berücksichtigen: Die Einordnung der Kreditwürdigkeitsprüfung als Hochrisiko-Anwendung im Rahmen der KI-Verordnung erscheint in der Praxis etwas unpraktikabel und wird von Bankenverbänden oft kritisch und als ein Beispiel für überzogene Regulierung gesehen. 

Die Kreditwürdigkeitsprüfungen entwickeln sich kontinuierlich weiter; die Bankenaufsicht behält diesen Entwicklungsprozess im Auge. Es wäre für die Banken nicht praktikabel, bei jeder Anpassung der Kreditwürdigkeitsprüfungen eine neue Genehmigung einholen zu müssen.

Doppelte Regulierung und doppelte Aufsichtsprozesse – das birgt die Gefahr, dass Innovationen eingeschränkt werden und der Sinn für das Angemessene und Machbare, den die Aufsicht in ihrer täglichen Arbeit entwickelt, verloren gehen könnte.

So zeigt es sich also insgesamt, dass der AI-Act zwar das Gemeinwohl fördert, aber auch teilweise für Innovationen hinderlich sein kann.

Lassen Sie uns nun, meine Damen und Herren, zum dritten Beispiel übergehen: Den Datenschutzelementen des EU-Vorschlags zum digitalen Euro. Dieser Vorschlag bietet eine Gelegenheit, einem großen Bedenken entgegenzuwirken, nämlich, dass der digitale Euro zum „gläsernen Bürger“ führt.

Datenschutz und die eventuell fehlende Anonymität im Vergleich zum Bargeld sind laut einer EZB-Umfrage zum Thema digitaler Euro die größten Bedenken der EU-Bürger. Darin bewerteten 43 % der Befragten den Datenschutz als den wichtigsten Aspekt des digitalen Euro, weit vor anderen Funktionen.

Dass sich niemand Sorgen um den Datenschutz machen muss, zeigen die Datenschutzelemente des EU-Vorschlags zum digitalen Euro.

Erstens wird der Datenschutz bereits durch die Technik selbst gewährleistet. Dies zeigt sich etwa durch die Anonymität der Nutzer bei Transaktionen. Die Abwicklung von Transaktionen in digitalem Euro soll so gestaltet sein, dass weder die Europäische Zentralbank noch die nationalen Zentralbanken die Daten einem identifizierten oder identifizierbaren Nutzer des digitalen Euro zuordnen können. Ein Bürger kann zum Beispiel also ohne Sorge verschreibungspflichte Medikamente mit dem digitalen Euro kaufen, da seine Käufe nicht zurückverfolgt werden können.

Zweitens wird der Datenschutz durch datenschutzfreundliche Voreinstellungen gewährleistet. So wird etwa die Menge der durch die Zentralbanken und Zahlungsdienstleister gesammelten persönlichen Daten auf das für das reibungslose Funktionieren des digitalen Euro erforderliche Maß beschränkt. Ein Bürger muss sich keine Sorgen machen, dass er etwa aufgrund seiner finanziellen Situation diskriminiert wird, z.B. bei der Beantragung eines Kredits oder einer Versicherung, da der digitale Euro keine umfassenden finanziellen Daten erfasst, die solche Diskriminierungen ermöglichen könnten.

Der Vorschlag zeigt, dass der „gläserne Bürger“ im Zusammenhang mit dem digitalen Euro ein Mythos ist.

EZB-Präsidentin Christine Lagarde brachte dies auf den Punkt: Central banks have no interest in using consumers' personal data when offering digital cash.

Im Kern unterstreicht der Entwurf zum digitalen Euro, dass die EU sich unermüdlich dafür einsetzt, höchste Vertraulichkeit, Anonymität und den Schutz persönlicher Daten bei der Verwendung des digitalen Euros zu gewährleisten. Dies stellt nicht nur ein signifikantes Anliegen des europäischen Regulators dar, sondern wird nun auch konkret realisiert und überwacht – hierauf legen wir Wert. Kurzum: Um den Datenschutz braucht sich niemand zu sorgen. 

Man kann also insgesamt schlussfolgern, dass die Rolle und Funktion der Regulierung im Umgang mit Big Data zweischneidig ist. Einerseits trägt sie zur Risikominderung und zum Schutz von Grundrechten bei. Andererseits kann sie – wie im Fall der DSGVO und des AI-Act – eine Bremse darstellen für die Förderung von Innovation und Effizienz in der Nutzung der KI.


5 Fazit

Zusammenfassend: Wie wir zu Beginn festgestellt haben, gleicht die Welt der Daten einem Ozean, in dem wir nach wertvollen Erkenntnissen fischen können. Aber wie jeder erfahrene Seefahrer weiß, kann der Ozean sowohl eine Quelle des Reichtums als auch der Gefahr sein. Deswegen ist eine kluge Regulierung wie der AI-Act nicht nur für die Minimierung von Risiken unerlässlich, sondern auch, um die Grundrechte unserer Bürger zu schützen. Der AI-Act zeigt, dass Datenschutz nicht nur ein Anliegen des europäischen Regulators bleibt, sondern nun auch tatsächlich umgesetzt wird. 

Auf der anderen Seite offenbart die Nutzung von Big Data und Artifical Intelligence ein erhebliches Innovationspotenzial, das vom europäischen Gesetzgeber möglicherweise noch nicht vollumfänglich gewürdigt wird. Dieses Potenzial manifestiert sich in einer Vielzahl von Anwendungsbeispielen sowohl bei der Bundesbank als auch in der Finanzwirtschaft. Es deutet viel darauf hin, dass wir an einem Wendepunkt stehen, an dem Big Data und KI nicht nur das Potenzial für zukünftige Innovationen bieten, sondern auch die Kraft haben, die Finanzwelt grundlegend zu verändern – ein Schritt, der greifbare Vorteile für Volkswirtschaften auf der ganzen Welt bringen könnte.

Während wir uns in diesen unerforschten Gewässern bewegen, sollten wir nicht vergessen, dass übermäßige Regulierung uns daran hindern könnte, die Schätze zu heben, die der Datenozean zu bieten hat. Es wäre, als würden wir uns selbst die Netze zerschneiden, die wir ausgeworfen haben, um wertvolle Fische zu fangen. Der Gesetzgeber läuft im Moment Gefahr, bei der Regulierung „zu weit zu gehen“. Dadurch riskieren wir, die mit dem Potenzial verbundenen Chancen ein Stück weit zu vergeben. In diesem Sinne wäre mein Vorschlag, das Gleichgewicht zwischen Risikominderung und Innovationsförderung neu zu kalibrieren. Es wäre unklug, das immense Innovationspotenzial dieser Technologien durch übermäßige gesetzliche Einschränkungen zu dämpfen. Oder wie der amerikanische Autor und Aphoristiker John A. Shedd es anders ausdrückte: Ein Schiff im Hafen ist sicher, aber dafür werden Schiffe nicht gebaut.

Man sollte daher bei der Gesetzgebung mit Bedacht vorgehen, sich „langsam herantasten“ und nicht „mit der Regulierungskeule alles erdrücken“. Um im Bild zu bleiben: Unsere „Schiffe“ sollten die Möglichkeit haben, hinauszufahren, um die „wertvollen Fische“, die der Datenozean zu bieten hat, auch zu fangen.

Dann können wir Teil einer effizienten digitalen Transformation sein, die durch Big Data und KI angestoßen wird.

Lassen Sie uns gemeinsam eine Route in eine Zukunft kartieren, in der Technologie als Katalysator für Wachstum und Wohlstand dient, ohne dabei die Sicherheit und das Wohlergehen unserer Bürger aus den Augen zu verlieren. Eine Zukunft, in der wir die unermesslichen Tiefen des Datenozeans erforschen, ohne dabei das ökologische Gleichgewicht zu stören.

Vielen Dank für Ihre Aufmerksamkeit!
 

Fußnoten:

Statistisches Bundesamt (2023)

Statistisches Bundesamt (2023)


Foto: Frank Rumpenhorst