Eine mysteriöse Welle automatisierten Web-Verkehrs, der hauptsächlich aus Lanzhou, China, stammt, überschwemmt Websites auf der ganzen Welt, sodass Betreiber verwirrt sind und nach Lösungen suchen. Ab September wurde von Websitebesitzern aus verschiedenen Bereichen – von paranormalen Blogs bis zu Domains der US-Regierung – ein Anstieg der Bot-Aktivitäten gemeldet, der Analysen verfälschte, die Bandbreitenkosten in die Höhe trieb und möglicherweise die Werbeeinnahmen beeinträchtigte.
Die geisterhaften Besucher aus Lanzhou
Alejandro Quintero, ein Datenanalyst, der eine Website zum Thema Paranormales betreibt, bemerkte die Anomalie erstmals im Oktober. Seine Website verzeichnete einen plötzlichen Anstieg des Traffics aus China und Singapur, der inzwischen über die Hälfte seiner gesamten Besuche ausmacht. Die Besucher, die scheinbar alle in Lanzhou ansässig waren, zeigten unnatürliches Verhalten: keine Verweildauer, kein Scrollen, keine Klicks. Dies bestätigte seinen Verdacht – der Verkehr war nicht menschlich.
Andere wiederholten schnell Quinteros Erfahrung. Ein Lifestyle-Magazin in Indien, ein kanadischer Inselblog, persönliche Portfolio-Websites, eine Wetterplattform mit Millionen von Seiten und sogar Domains der US-Regierung waren von demselben Muster betroffen. Analysen von Analytics.usa.gov zeigen, dass Lanzhou und Singapur in den letzten 90 Tagen mit 14,7 % bzw. 6,6 % der Besuche zu den beiden Städten geworden sind, die angeblich Informationen der amerikanischen Regierung konsumieren.
Wer steckt hinter der Flut?
Obwohl der Datenverkehr von chinesischen und singapurischen IP-Adressen stammt, ist die Identifizierung der Akteure weiterhin schwer zu ermitteln. Die Bots wurden nicht mit Cyberangriffen oder Schwachstellenscans in Verbindung gebracht, aber ihre schiere Menge sorgt für Störungen. Die plausibelste Erklärung ist das Sammeln von KI-Daten: Unternehmen durchsuchen das Internet, um große Sprachmodelle zu trainieren.
Diese Bots unterscheiden sich jedoch von typischen KI-Crawlern. Sie sind weitaus zahlreicher – sie machen auf einigen Websites 22 % des Datenverkehrs aus, verglichen mit weniger als 10 % bei allen anderen KI-Bots zusammen – und sie tarnen sich aktiv und umgehen gängige Bot-Erkennungsmechanismen. Im Gegensatz zu etablierten KI-Laboren, die ihre Bots häufig identifizieren, scheinen diese Akteure entschlossen zu sein, der Blockierung zu entgehen.
Gavin King, Gründer von Known Agents, verfolgte den Datenverkehr über Server großer chinesischer Cloud-Anbieter, darunter Tencent (ASN 132203), Alibaba und Huawei. Ob die Bots von Eigenbetrieben oder von Kunden stammen, die diese Server nutzen, bleibt unklar.
Die Kosten sind real
Die Bots sehen nicht bösartig aus, aber ihre Wirkung ist erheblich. Websitebesitzer machen sich Sorgen über Urheberrechtsverletzungen, erhöhte Bandbreitenkosten und verzerrte Analysen. Für diejenigen, die auf Werbeeinnahmen angewiesen sind, kann der Bot-Traffic ihre Einnahmen beeinträchtigen, da Plattformen wie Google AdSense Websites, die mit künstlichem Engagement überflutet sind, möglicherweise entwerten.
„Das zerstört meine AdSense-Strategien“, sagt Quintero. „Sie sagen, dass [Ihre Website] nur von Bots besucht wird, sodass Ihr Inhalt für den Betrachter nicht wertvoll ist.“
Behelfslösungen und eine ungewisse Zukunft
Da keine unmittelbare Lösung in Sicht ist, greifen Website-Betreiber zu Ad-hoc-Maßnahmen. Das Blockieren chinesischer und singapurischer IPs, das Herausfiltern alter Windows-Versionen und das Erkennen ungewöhnlicher Bildschirmauflösungen gehören zu den provisorischen Strategien, die online verbreitet werden. Einige haben ganze ASNs großer Cloud-Anbieter blockiert.
Obwohl diese Lösungen bis zu einem gewissen Grad wirksam sind, sind sie vorübergehend. Mit zunehmender Verbreitung autonomer KI-Tools werden Website-Besitzer wahrscheinlich vor immer größeren Herausforderungen stehen, wenn es darum geht, legitimen Datenverkehr von automatisiertem Scraping zu unterscheiden. Mit anderen Worten: Die Kosten für die Aufrechterhaltung einer Online-Präsenz steigen und die Unterscheidung zwischen menschlicher und maschineller Aktivität verschwimmt.
Die Verbreitung von KI-gesteuertem Scraping unterstreicht eine grundlegende Wahrheit des modernen Internets: Offenheit hat ihren Preis. Das Web ist öffentlich, und wie Brent Maynard von Akamai es ausdrückt: „Sie sind offen und öffentlich sichtbar.“





























