Schwerpunkte

CRN-Interview

»Bestimmte Malware-Mutationen sind ohne KI schwer zu erkennen«

30. März 2020, 06:30 Uhr   |  Daniel Dubsky

»Bestimmte Malware-Mutationen sind ohne KI schwer zu erkennen«
© Mateso

Sascha Martens, CTO von Mateso

In der IT-Security werde KI derzeit vor allem bei der Verarbeitung großer Datenmengen in der Angriffserkennung eingesetzt, erklärt Sascha Martens, CTO von Mateso, im CRN-Interview. Die Frage sei nicht, ob man der KI Entscheidungen überlassen, sondern welche.

CRN: Um künstliche Intelligenz und Machine Learning ist in den vergangenen Monaten ein regelrechter Hype entstanden, auch im Security-Business. Geht IT-Sicherheit heute noch ohne KI/ML?

Sascha Martens: Definitiv nicht. Denn jeder, der mit Cybersecurity zu tun hat, muss sich auch mit Künstlicher Intelligenz und Machine Learning auseinandersetzen. Die Steigerung der Effizienz beim Lösen eines Problems oder die Gewinnung neuer Erkenntnisse durch Verarbeitung extrem großer Datenmengen und vollkommen neuer Interpretationsmöglichkeiten kann dabei auf allen Seiten ausgenutzt werden.

CRN: In welchen Bereichen der Security ist der Einsatz von KI/ML sinnvoll und wie kann sie zu einem höheren Sicherheitsniveau beitragen?

Martens: Aktuell liegt die größte Chance in der Verarbeitung und Interpretation von sehr vielen Daten, zum Beispiel zur Angriffserkennung oder auch -abwehr. Sicher ist: Wird KI falsch eingesetzt, kann sie sich auch gegen das Unternehmen wenden und selbst zum Sicherheitsrisiko avancieren.

Richtig angewandt, kann KI heute schon in der Beurteilung von Sicherheitsvorfällen oder der Planung von Abwehrtechniken eingesetzt werden. Damit lassen sich komplexe Probleme schnell lösen und bisher gut getarnte Muster erkennen. Ein allgemeines Beispiel ist die Erkennung von sich selbst verändernder Schadsoftware – diese Mutationen sind ohne KI extrem schwer zu erkennen und zu verfolgen.

CRN: Sollte man Entscheidungen – noch dazu sicherheitsrelevante – tatsächlich einer Maschine überlassen?

Martens: Die spannende Frage ist nicht, ob wir bestimmte Entscheidungen einer Maschine überlassen können oder nicht. Vielmehr geht es darum, zu entscheiden, welche Fragen überhaupt automatisiert beantwortet werden können! Immer, wenn es um eine möglichst objektive Bewertung geht, sind Maschinen Menschen gegenüber klar im Vorteil. Stehen der Maschine allerdings nicht alle Informationen lesbar zur Verfügung, ist diese Regel natürlich aufgehoben. Deshalb müssen KI-Systeme als Hilfestellungen für den Menschen verstanden werden und nicht als eine Art Kontrollabgabe, die diesen völlig ausklammert.

CRN: Ist KI/ML eine Ergänzung zu bestehenden Sicherheitsmechanismen und Sicherheitstechnologien oder hat sie auch das Zeug, etablierte Konzepte abzulösen?

Martens: Jedes System und jede Technologie ist im ersten Schritt eine Ergänzung und ein Baustein. Und für jedes dieser Systeme gibt es auch den passenden Gegenspieler. Dabei sind alle Konzepte im InfoSec-Bereich ständig im Wandel und müssen immer wieder erneuert werden.

CRN: Birgt der Einsatz von KI/ML auch Risiken? Wo liegen die Grenzen der neuen Technologien?

Martens: Mögliche Risiken beim Einsatz von KI sind genau so zahlreich vorhanden wie deren Einsatzmöglichkeiten – sowie bei allen anderen Technologien auch. Beispiel Mustererkennung: Hier hätte etwa die Injektion von Fehlinformationen fatale Auswirkungen! Auch stehen Datenschutz und KI im Spannungsverhältnis zueinander. Für Unternehmen bedeutet dies, dass strenge Compliance-Vorgaben und Sicherheitsrichtlinien dadurch noch essentieller werden.

CRN: Welches Potenzial hat KI/ML im Security-Bereich und wo wird die Entwicklung in den kommenden Monaten und Jahren Ihrer Einschätzung nach noch hingehen?

Martens: Das Potenzial ist riesig und es wird mit Sicherheit in der nächsten Zeit weiterhin stark ausgeschöpft werden. Und das nicht immer sichtbar: Schon heute verwenden viele Hersteller im Hintergrund bereits KI und ML – völlig verdeckt für Anwender, Kunden und Administratoren. Die Verfügbarkeit von geeigneter Hardware – etwa Mobile Devices – ist dabei natürlich noch ein weiterer Antrieb.

CRN: Auch Cyberkriminelle nutzen neue Technologien – wie setzen sie KI/ML ein?

Martens: Das Allianz Risk Barometer 2019 beurteilt KI gleichermaßen nützlich als auch bedrohlich. Denn Cyberkriminelle nutzen KI beispielsweise schon längst, um dadurch Schwachstellen in Systemen aufzuspüren oder als unterstützende Technik zu Social Engineering. Spear-Phishing-Attacken lassen Phishing-Mails durch das Auslesen persönlicher Daten mittlerweile erschreckend echt erscheinen! Generell können sich Hacker durch Daten-Leaks riesige Datenbanken von Unternehmen zunutze machen und verarbeiten. Es bleibt also auch hier immer ein Wettlauf zwischen Angreifern und Verteidigern.

Auf Facebook teilenAuf Twitter teilenAuf Linkedin teilenVia Mail teilen

Das könnte Sie auch interessieren

KI in der Cybersecurity

Verwandte Artikel

Mateso

IT-Security

Künstliche Intelligenz