Kaum ein Modewort hat in der Finanzbranche derzeit so viel Gewicht wie künstliche Intelligenz (KI). Mit dem öf­fentlichkeitswirksamen Durchbruch von Sprachmodellen wie ChatGPT ging ein ­regelrechtes Raunen durch die Branche. Vereinzelt waren sogar Jubelrufe zu vernehmen. So beschreibt Jamie Dimon, CEO von JP Morgan, die Entwicklung im Aktionärsbrief vom 8. April 2024 als bahnbrechend: "Wir sind fest davon überzeugt, dass die Folgen außerordentlich sein werden und möglicherweise ebenso umwälzend sein werden wie einige der wichtigsten technologischen Erfindungen der letzten hundert Jahre."

Auch die heimische Finanzbranche teilt diese Einschätzung. Laut einer aktuellen Marktstudie des IT-Dienstleisters Tietoevry Austria erwarten mehr als drei Viertel der Entscheidungsträger eher starke oder sogar grundlegende Veränderungen durch KI. Neben Datenanalyse, Finanzprognosen und Betrugserkennung soll ein zentraler Anwendungsbereich der neuen Technologie der Anlagevertrieb und die Vermögensverwaltung sein. Doch was ist beim Einsatz von KI-Tools aus rechtlicher Sicht zu beachten, und wie können Haftungsfälle vermieden werden?

Verhaltenspflichten nach Mifid II
Dienstleister haben beim Erbringen von Wertpapierdienstleistungen – wie der Anlageberatung und der Portfolioverwaltung – die strengen Anforderungen von Mifid II einzuhalten. Das Stichwort lautet: Wohlverhaltenspflichten. Dienstleister müssen stets im besten Kundeninteresse handeln und anleger- und objektgerecht beraten. Dafür sind unter anderem die persönlichen Umstände der Anleger wie deren finanzielle Situation, Risikobereitschaft, Kenntnisse und Erfahrungen mit Finanzprodukten, Anlageziele und neuerdings auch Nachhaltigkeitspräferenzen zu erheben.

Zudem muss der Berater auch das Anlageprodukt selbst genau erläutern und über die Funktionsweise, Chancen, Risiken, Kosten und sonstige wesentliche Merkmale des Produkts umfassend und verständlich informieren. Diese Punkte sind umfassend bekannt und bedürfen keiner weiteren Erläuterung. Neu und bislang weitgehend unerforscht ist, ob und wie diese Grundsätze beim Einsatz von KI-Tools eingehalten werden sollen. 

Stellungnahme der ESMA
Unlängst hat die ESMA eine erste Stellungnahme veröffentlicht, um Anlagebe­rater und Vermögensverwalter über die wichtigsten Aspekte beim Einsatz von KI zu informieren. Gleich zu Beginn wird betont, dass die Bestimmungen von Mifid II durch den Einsatz von KI nicht umgangen werden können. Das ist auch nach österreichischem Recht so. Wie ein Mitarbeiter ist die Maschine dem Dienstleister haftungsrechtlich zuzurechnen. Ob der Beratungsfehler von einem Menschen oder einer Maschine verursacht wird, ist daher unerheblich. Der Dienstleister haftet. Die ESMA beschäftigt sich jedoch nicht nur damit, "ob" KI bei der Beratung eingesetzt werden darf, sondern auch "wie". Dabei zeigt sich: Transparenz steht im Vordergrund.

Um die Einhaltung von Mifid II bei der Nutzung von KI sicherzustellen, müssen Banken und Wertpapierdienstleister ihre Kunden und Kundinnen über den Einsatz und die Rolle der KI im Anlageentscheidungsprozess informieren. Diese Informationen müssen klar, fair und nicht irreführend sein. Zudem ist es erforderlich, Kunden und Kundinnen auch im "normalen" Kontakt darauf hinzuweisen, wenn Chatbots oder andere KI-basierte automatisierte Systeme eingesetzt werden.

Kompetenzprofil der KI-Anwendungen
Die Stellungnahme der ESMA thematisiert außerdem das Kompetenzprofil der KI-Anwendungen. Wie menschliche Berater müssen diese über bestimmte Fachkompetenzen verfügen. Dienstleister, die KI zur Information der Anleger über Anlageprodukte einsetzen, haben dabei erhöhte Sorgfalt walten zu lassen, um das gleiche Maß an Qualitätsstandards zu gewährleisten wie bei einer rein analogen Dienstleistung. Konkret bedeutet dies, dass strenge Kontrollen vorzusehen sind, um vorab (ex ante) die Richtigkeit der an KI-Systeme ­gelieferten und von ihnen genutzten Informationen sicherzustellen. Damit soll verhindert werden, dass fehlerhafte Informationen verbreitet oder eine irreführende Anlageberatung erbracht wird.

Wertpapierdienstleister haben außerdem regelmäßig Ex-post-Kontrollen durchzuführen, um alle Prozesse zu überwachen und zu bewerten, bei denen Informationen direkt oder indirekt über KI-gesteuerte Mechanismen ­bereitgestellt werden. Diese nachträglichen Kontrollen sollen die Einhaltung der ­Mifid-II-Verpflichtungen gewährleisten und Anleger vor unrichtigen oder irreführenden Informationen über Anlageprodukte und -dienstleistungen schützen. Mitarbeiter in entsprechenden Kontrollfunktionen sind über die operativen Aspekte der KI, potenzielle Risiken, ethische Überlegungen und regulatorische Auswirkungen zu schulen.

Fokus auf Transparenz
Zusätzlich widmet sich die Stellungnahme der ESMA speziell der Geeignetheitsprüfung. Auch hier liegt der Fokus auf Transparenz. Es ist zunächst klar darzu­legen, in welchem Umfang menschliche Mitarbeiter einbezogen sind und ob und wie die Kunden und Kundinnen Unterstützung durch menschliche Mitarbeiter erhalten können. Zudem muss den Anlegern erklärt werden, dass ihre Angaben die Auswahl der geeigneten oder in ihrem ­Namen getroffenen Anlageentscheidungen unmittelbar beeinflussen. Weiterhin ist zu erläutern, wie und wann die Informationen über die Situation und persönlichen Verhältnisse der Kunden und Kundinnen aktualisiert werden. Schließlich sind jene Informationsquellen zu beschreiben, die für die Anlageberatung oder Vermögensverwaltung genutzt werden. 


Den vollständigen Artikel von Christian Lenz, Associated Partner, und Fabian Schinerl, Legal Expert in der auf ­Finanzmarktrecht ­spezialisierten Kanzlei Brandl Talos, lesen Sie in der Heftausgabe 4/2024 von FONDS professionell, die den Abonnenten in den kommenden Tagen zugestellt wird, ab Seite 248 oder nach Anmeldung hier im E-Magazin.