Öffentlicher Sektor kämpft mit KI-Betrug

Diese Entwicklung überrascht Insider kaum: Cyberkriminelle setzen zunehmend auf Künstliche Intelligenz. Die Gegenmaßnahmen scheitern hingegen oft an mangelnden Ressourcen. Das untermauert eine weltweit durchgeführte Untersuchung.

Eine weltweit durchgeführte Studie verdeutlicht, dass Betrugsermittler der öffentlichen Verwaltung mit KI und Generative AI gegen Cyberkriminelle angehen könnten. (Foto: SAS)

85 Prozent der Entscheider in der öffentlichen Verwaltung sehen Betrugsbekämpfung als eine Top-Priorität. Nur ein Zehntel verfügt jedoch über die Mittel, effektive Gegenmaßnahmen zu ergreifen. Dies ergibt eine Studie, die Coleman Parkes im Auftrag des US-amerikanischen KI-Lösungsanbieters SAS durchgeführt hat. Fast alle Befragten (95 Prozent) geben an, dass ihre Einrichtung bereits Opfer von KI-gestützten Betrugsdelikten wurde, 70 Prozent registrieren einen Anstieg dieser Vorfälle in den vergangenen fünf Jahren.

Mithilfe von KI erstellen Betrüger künstliche Identitäten, hyperpersonalisierte Phishing-Kampagnen und entwickeln Malware, die nur schwer zu entlarven ist. Die Technologie analysiert riesige Datenbestände und kann mit den Ergebnissen menschliches Verhalten nachahmen, Dokumente fälschen und Schwachstellen in Echtzeit ausnutzen.

Schwindendes Vertrauen durch KI

Umfrageteilnehmer schätzen, dass Betrug und Missbrauch staatlicher Leistungen 16 Prozent ihres Gesamtbudgets verschlingen. Doch der Schaden beschränkt sich nicht auf das Budget: 96 Prozent der Befragten meinen, dass Angriffe und deren Folgen negative Auswirkungen auf das Vertrauen der Bürger in ihre Behörde haben.

Die Gefahr ist also bekannt, allerdings scheitern wirksame Gegenmaßnahmen laut einem Drittel oft noch an mangelnden Ressourcen. Als limitierende Faktoren nennen die Fraud-Experten vor allem analytische Fähigkeiten (46 Prozent), zu geringes Budget (41 Prozent) und fehlende technische Ausstattung (40 Prozent).

KI kommt erst noch

KI bekämpft kriminelle KI? Fehlanzeige! Bislang setzt lediglich etwa jede zweite Behörde KI ein, um Betrug und Missbrauch anzugehen; Generative AI kommt sogar erst bei gut einem Viertel zum Einsatz. Die Aussichten sind jedoch besser: Die Studie weist darauf hin, dass der Einsatz von Netzwerkanalyse für Betrugserkennung in den kommenden Jahren von 32 auf 87 Prozent steigen wird. 98 Prozent gehen davon aus, dass sie innerhalb der nächsten zwei Jahre mindestens ein KI-Tool nutzen werden, um kriminelle Aktivitäten zu unterbinden. Für Generative AI sind das 97 Prozent.

Wird KI bereits verwendet, erkennen Behörden positive Auswirkungen in Form von Produktivitätssteigerungen bei der Betrugsbekämpfung: Jeweils knapp 40 Prozent nennen eine bessere Priorisierung von Fraud-Meldungen und eine größere Aufklärungsquote bei Betrugsversuchen. Der größte Vorteil ist jedoch nach Ansicht von 57 Prozent der Umfrageteilnehmer eine höhere Effizienz der Belegschaft.

Wendepunkt erreicht

Gleichzeitig stellt KI das Vertrauen der Bürger auf die Probe. Entsprechend stehen Datenschutz und -sicherheit (48 Prozent) sowie die Sicherstellung eines ethisch vertretbaren KI-Einsatzes (43 Prozent) oben auf der Liste der anzugehenden Herausforderungen. Um Transparenz machen sich immerhin 35 Prozent Gedanken.

"Kriminelle, die sich KI zunutze machen, ganz unbelastet von Regulatorik und Gesetzen, scheinen aktuell die Oberhand zu haben", sagt SAS Deutschland Director Sales Public Frank Gramüller. "Die Studie weist jedoch darauf hin, dass wir uns gerade an einem Wendepunkt befinden. Behörden weltweit planen signifikante Investitionen in intelligente Technologien, die durch Betrug verursachte Verluste eindämmen könnten – und nicht zuletzt das Vertrauen in die öffentliche Verwaltung stärken." Für die aktuelle Untersuchung "Trust and transparency: Combating fraud to maximize public program efficiency" wurden 1.100 Betrugsermittler der öffentlichen Verwaltung befragt.

CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden