Cyberkriminelle nutzen in der KI-Ära eine neue Angriffsmethode. Sie manipulieren öffentliche Webinhalte, auf die große Sprachmodelle (LLMs) angewiesen sind, und verleiten KI-Suchmaschinen so dazu, gefälschte Kundendienstnummern vorzuschlagen. Darüber hinaus manipulieren Angreifer systematisch öffentliche Webinhalte, um KI-generierte Antworten zu kapern.
Die aufkommende Bedrohung – DubBett LLM Telefonnummernvergiftung—funktioniert bDies geschieht durch das Platzieren von betrugsoptimierten Inhalten auf reichweitenstarken Websites und nutzergenerierten Plattformen. Anstatt die LLMs direkt anzugreifen, nutzen Angreifer die Datenquellen aus, aus denen diese stammen, und setzen dabei Generative Engine Optimization (GEO) und Answer Engine Optimization (AEO) ein, um sicherzustellen, dass manipulierte Seiten in KI-Zusammenfassungen verwendet werden.
Forscher haben herausgefunden, dass Angreifer strukturierte Betrugsinhalte – darunter gefälschte Flugreservierungsnummern – auf kompromittierten Regierungswebseiten, Universitätsseiten, WordPress-Blogs, YouTube-Beschreibungen und Yelp-Bewertungen veröffentlichen. Da die Inhalte glaubwürdig und von vertrauenswürdigen Quellen stammen und für die Suche in Online-Medien optimiert sind, werden sie von KI-Systemen erfasst und als legitim angezeigt.
Beispiele aus der freien Wildbahn sind:
- Verwirrung, die eine gefälschte Emirates-Reservierungsnummer empfiehlt
- Google AI-Übersicht listet mehrere betrügerische Callcenter-Nummern auf
- Vergiftete Antworten beim Kundenservice von British Airways
Diese Taktik setzt Nutzer Phishing-Angriffen aus, bei denen Betrüger sich als Fluggesellschaften ausgeben und versuchen, Geld oder persönliche Daten zu erbeuten. Forscher warnen, dass das Problem … Systemisch bedingt, nicht isoliert von einem einzelnen Modell oder Anbieter. Selbst wenn KI-Antworten korrekt sind, zeigen die Abfrageebenen häufig Verweise auf verunreinigte Quellen an.
Experten zufolge ähnelt der Angriff der indirekten Prompt-Injektion – mit dem Unterschied, dass Angreifer nicht die Modellanweisungen, sondern die Datenumgebung kompromittieren. Mit der zunehmenden Verbreitung von KI-Suchen steigt auch das Risiko einer plattformübergreifenden Kontamination.
Nutzern wird empfohlen, alle von KI-Systemen bereitgestellten Telefonnummern und Links zu überprüfen. Dadurch wird vermieden, sensible Informationen an KI-Assistenten weiterzugeben, und es wird empfohlen, vorsichtig zu sein, während KI-gestützte Suchwerkzeuge ausgereifter werden.
Quelle:
https://www.zdnet.com/article/scammers-poison-ai-search-results-customer-support-scams/

