Scraper-Bots bombardieren Websites
Scraper-Bots mit generativer KI greifen Websites 24 Stunden am Tag mit bis zu einer halben Million Informationsanfragen an. Das zeigen aktuelle Erkennungsdaten des kalifornischen IT-Sicherheitsanbieters Barracuda.
Die Threat-Analysten von Barracuda haben im Rahmen eines neuen Reports das hartnäckige Verhalten von Bots mit generativer KI (Gen AI) hervorgehoben, die Teil einer neueren Kategorie von Bots sind, die Barracuda als "Gray Bots" bezeichnet. Dabei handelt es sich um automatisierte Programme, die nicht offensichtlich schädlich sind, aber das Internet mit dem Ziel durchsuchen, Informationen von Websites und anderen Web-Anwendungen zu extrahieren.
"Gray Bots mit generativer KI verwischen die Grenzen legitimer Online-Aktivitäten", erklärt Barracuda Senior Principal Software Engineer Rahul Gupta. "Sie sind in der Lage, riesige Mengen sensibler, geschützter oder kommerzieller Daten abzugreifen sowie den Datenverkehr von Web-Anwendungen zu überlasten und Betriebsabläufe zu stören. Häufiges Scraping durch Gray Bots kann die Web-Performance beeinträchtigen und ihre Präsenz auf Websites kann Website-Analysen verzerren, was zu irreführenden Erkenntnissen führt und die Entscheidungsfindung beeinträchtigt. Für viele Organisationen ist die Verwaltung von Gray-Bot-Traffic zu einem wichtigen Teil ihrer Strategien zur Anwendungssicherheit geworden."
Vermeintlich einfacher Schutz
Um sich gegen Gray Bots mit generativer KI und das Auslesen von Informationen zu schützen, können Websites die Datei robots.txt nutzen. Dabei handelt es sich um eine Code-Zeile, die der Website hinzugefügt wird und einem Scraper signalisiert, dass er keine Daten aus der Website extrahieren darf. Die Datei robots.txt ist jedoch nicht rechtsverbindlich, der spezifische Name des Scraper-Bots muss ihr hinzugefügt werden und nicht jeder Nutzer eines Bots mit generativer KI hält sich an diese Vorgabe.
Organisationen können ihren Schutz vor unerwünschten Gray Bots mit generativer KI verbessern, indem sie einen Bot-Schutz implementieren, der in der Lage ist, die Aktivitäten von Scraper-Bots mit generativer KI zu erkennen und zu blockieren. KI- und Machine-Learning-Funktionen unterstützen dabei, die schnell wachsende Bedrohungen durch Gray Bots mithilfe von verhaltensbasierter Erkennung, adaptivem Machine Learning, umfassendem Fingerprinting und Echtzeit-Blockierung unter Kontrolle zu halten.
Weitere Beispiele für Gray Bots sind Web-Scraper-Bots und automatisierte Content-Aggregatoren, die Web-Inhalte wie Nachrichten, Rezensionen, Reiseangebote und weitere Informationen sammeln.
CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden
Die renommierten CRN Channel Award 2025 für Hersteller, Distributoren, IT-Dienstleister, Managerinnern und Manager: Jetzt bewerben – alle Infos hier