Immer mehr KI-Systeme übernehmen Aufgaben, die zuvor von Menschen erledigt wurden, wie beispielsweise die Zahlungsabwicklung und die Durchführung von Finanztransaktionen. Dies wirft ernsthafte Bedenken hinsichtlich der finanziellen Risiken auf, denen Menschen im Falle eines Systemausfalls ausgesetzt sind. Forscher führender Technologieunternehmen und Universitäten – darunter Microsoft und Google DeepMind – argumentieren, dass die bestehenden Sicherheitsmaßnahmen für KI unzureichend sind. Sie betonen den Bedarf an neuen Methoden, die diese Risiken robuster managen können.
In einer kürzlich veröffentlichten Studie schlagen diese Forscher den „Agentic Risk Standard“ vor. Dieser Rahmen soll Nutzer entschädigen, die durch Fehler eines KI-Agenten Schaden erleiden, beispielsweise durch die fehlerhafte Ausführung einer Aufgabe oder die verspätete Bereitstellung einer Dienstleistung. Die Studie betont, dass technische Schutzmaßnahmen lediglich eine Wahrscheinlichkeitssicherheit bieten, während Nutzer in kritischen Situationen oft durchsetzbare Garantien hinsichtlich der Ergebnisse benötigen. Dies ist ein entscheidender Aspekt, insbesondere für Investoren und Analysten, die sich fragen, welche Auswirkungen diese Entwicklungen auf den Kryptomarkt und den Finanzsektor insgesamt haben.
Der Agentic Risk Standard führt finanzielle Sicherheitsvorkehrungen bei der Ausführung von KI-Aufgaben ein. Bei weniger risikoreichen Aufgaben, bei denen der Nutzer primär eine Servicegebühr entrichtet, wird die Zahlung auf einem Treuhandkonto verwahrt und erst nach Abnahme der Arbeit freigegeben. Im Gegensatz dazu kommt bei risikoreicheren Aufgaben wie dem Handel oder dem Währungsumtausch ein Underwriter zum Einsatz. Dieser Underwriter bewertet das Risiko, verlangt von den Dienstleistern Sicherheiten und erstattet dem Nutzer im Falle eines versicherten Fehlers den Schaden. Dies schafft nicht nur ein Gefühl der Sicherheit, sondern kann auch den Weg für eine strukturelle Reform im Umgang mit Finanztransaktionen ebnen.
Obwohl der Agentic Risk Standard ein fortschrittlicher Schritt ist, muss unbedingt anerkannt werden, dass nichtfinanzielle Schäden wie Halluzinationen in KI-Systemen, Verleumdung oder psychische Verletzungen nicht unter diesen Rahmen fallen. Die Risikomanagementpraxis für diese Art von Schäden ist weiterhin ungeklärt. Die Forscher betonen, dass ihr System in einer Simulation mit 5.000 Durchläufen getestet wurde, weisen aber auch auf die Grenzen dieses Designs hin, das nicht die tatsächlichen Ausfallraten in der Praxis abbilden sollte.
Die Ergebnisse der Simulation unterstreichen den Bedarf an weiterer Forschung zur Risikomodellierung und zur empirischen Messung von Ausfallraten unter realitätsnahen Bedingungen. Die Entwicklung von Underwritern und Sicherheitensystemen, die gegenüber Erkennungsfehlern und strategischem Verhalten robust sind, ist für die Zukunft von entscheidender Bedeutung. Diese Herausforderungen können erhebliche Auswirkungen auf Investoren und Analysten haben, insbesondere angesichts der zunehmenden Integration von KI in die Finanzmärkte und der damit verbundenen Haftungsrisiken.
Was beinhaltet der Agentic Risk Standard?
Der Agentic Risk Standard ist ein neuer Rahmen, der finanzielle Absicherungen für Benutzer von KI-Systemen bietet, wobei das Risiko von Verlusten aufgrund fehlerhafter Aufgabenausführung durch Versicherer und Treuhandkonten gemindert wird.
Warum reichen die technischen Sicherheitsvorkehrungen nicht aus?
Technische Sicherheitsvorkehrungen bieten lediglich probabilistische Gewissheit, während Anwender in kritischen Situationen oft verlässliche und durchsetzbare Garantien hinsichtlich der Ergebnisse von KI-gestützten Diensten benötigen.
Welche Einschränkungen weist das aktuelle System auf?
Die derzeitigen Rahmenbedingungen befassen sich primär mit finanziellen Risiken und ignorieren nicht-finanzielle Schäden wie psychologische Auswirkungen oder Halluzinationen, die nach wie vor ein erhebliches Problem für das Risikomanagement in KI-Systemen darstellen.