Für die KI-Visionärin Sandra Wachter ist es "immer sehr, sehr schön, nach Hause zu kommen", wie sie am FONDS professionell KONGRESS in Wien sagt. Die gebürtige Österreicherin lebt seit elf Jahren in Großbritannien und ist dort leitende Forscherin am Oxford Internet Institute. Sie ist daher für ihren Vortrag nach Wien gereist und will das Publikum über Mythen und Fakten in Sachen künstliche Intelligenz (KI) aufklären.

Denn das Wissen rund um das Thema KI ist auch für Anlageberater entscheidend. Schließlich gibt es kaum mehr einen Lebensbereich, in dem KI nicht eine Rolle spielt. So eben auch im Finanzbereich. KI kann viele Vorteile mit sich bringen. Doch neben den Chancen gibt es auch zahlreiche Risiken, über die Wachter in ihrem Vortrag sprechen möchte – und sie hat auch einige Lösungsvorschläge mit im Gepäck. "Ich möchte einmal ein bisschen darüber sprechen, was so die Dinge sind, über die wir uns Gedanken machen müssen", kündigt Wachter an.

Wenn künstliche Intelligenz lügt
Zunächst rät sie dazu, sich Gedanken über das Problem der Halluzinationen bei KI zu machen: "Also wenn KI Dinge anfängt, wie zu erfinden, die nichts mit Realität und Wahrheit zu tun haben." Muss KI immer die Wahrheit sagen? Und oft bemerken nicht einmal echte Profis, wenn die KI nicht die Wahrheit sagt. Es gab etwa eine Studie im Jahr 2023, bei der man Wissenschaftlern Artikel vorgesetzt hat. Die einen Artikel waren von anderen Wissenschaftlern geschrieben, die andere Hälfte war künstlich generiert. Und die Wissenschaftler sollten herausfinden, welche Artikel echt sind. Sie scheiterten zu 86 Prozent.

Doch das ist nicht das einzige Problem, denn wenn KI halluziniert, kann das auch rechtliche Folgen haben, wie etwa Rufschädigung. "Das ist ein Problem. Das ist ein großes, großes Problem, vor dem eigentlich schon vor vielen, vielen Jahren gewarnt wurde."

"Das ist fast unfassbar"
Das zweite Problem sieht Wachter bei KI und Umwelt. Sie erinnert daran, dass Datencenter gewartet werden müssen, Elektrizität und immer mehr Platz brauchen. Sie müssen gekühlt werden, und das bedeutet wiederum steigenden Wasserverbrauch. So hat beispielsweise die "New York Times" errechnet, dass Servercenter ab dem Jahr 2027 so viel Elektrizität benötigen werden, wie der gesamte Energieverbrauch von Argentinien oder den Niederlanden beträgt. "Das sind Zahlen, die kann man sich überhaupt nicht mehr vorstellen. Das ist fast unfassbar."

Das führt Wachter zum dritten Problem, der Frage zur Haftung. "Wir haben diese Systeme, die lügen, die betrügen können, die Rufschädigung betreiben können, die auch sonst nicht gut für die Umwelt sind und problematisch sein können. Wer haftet dann, wenn so ein Ding Fehler macht?" Hier helfe auch der Artificial Intelligence Act (AI-Act) wenig weiter. Der bringe zwar viel Gutes mit sich, dennoch geht das Regelwerk Wachter nicht weit genug: "Er hat in Bezug auf die Halluzination relativ wenig bis gar nichts geregelt." Doch regelt der AI-Act nur materielle Schäden wie Tod, Körperverletzung oder Zerstörung von Sachen. "Das bedeutet, wenn Sie KI einsetzen, um Anlageberatung zu betreiben, haften Sie dafür. Sie verlieren Geld, wenn etwas schiefgeht", warnt Wachter.

KI gezielt nutzen
Doch Wachter will nicht nur über die negativen Seiten von KI sprechen. "Lassen Sie uns darüber diskutieren, welche Lösungen wir finden können, mit diesen Dingen besser umzugehen." Sie rät dazu, KI gezielt einzusetzen, um die Umwelt nicht unnötig zu belasten. Außerdem plädiert sie dafür, KI nur dann zu nutzen, wenn man auch bereits die Antwort auf seine Frage weiß. "Wenn ich nicht weiß, was die Antwort ist, dann ist es besser, es nicht zu nutzen." (cf)