Vorgetäuschte Entführungen durch KI

In den USA häufen sich vorgetäuschte Entführungen, bei denen die Täter ahnungslose Angehörige telefonisch kontaktieren und mittels Künstlicher Intelligenz die Stimme der angeblich entführten Person täuschend echt imitieren. Sowohl Stimmfarbe und Schnelligkeit als auch Betonungen stimmen durch die KI inzwischen mit dem Original präzise überein. Dafür wird lediglich eine Stimmprobe von wenigen Sekunden benötigt.

Um die angebliche Entführung noch echter aussehen zu lassen, wird bei der Tatvorbereitung sehr genau darauf geachtet, dass sich das vermeintliche Opfer zu diesem Zeitpunkt nicht in der Nähe der Angehörigen befindet. Solche Informationen lassen sich ohne großen Aufwand über Social Media, Social Engineering oder klassisches Ausbaldowern herausfinden. Es gibt zahlreiche Aktivitäten, bei denen Smartphones keinen Empfang haben oder man anderweitig nicht erreichbar ist, wie z.B. beim Sport, im Kino oder beim Wandern in den Bergen.

Wie bei einer realen Entführung kommt es dabei zu einer Lösegeldforderung, die oft aus emotionalen Gründen vorschnell bezahlt wird.

Vor allem Vermögensinhaber sind gefährdet, da die Täter davon ausgehen, dass die betroffenen Personen ohne großen Aufwand der Lösegeldforderung nachkommen können. Da es oft eine der Bedingungen ist keine Polizei hinzuzuziehen, empfiehlt es sich, zuerst einen Sicherheitsspezialisten mit einzubeziehen. Der „Krisenberater“ sollte jederzeit erreicht werden können, der die Situation objektiv beurteilt und beratend zur Seite steht.

Das Teilen privater Informationen mit der Öffentlichkeit über Aufenthaltsorte oder Aktivitäten sollte daher gut überlegt sein. Nicht nur Entführern erleichtert man ihr Handeln, auch potenzielle Einbrecher können dadurch mühelos herausfinden, wann eine Wohnung oder ein Haus leer steht und somit die Tat unbemerkt durchgeführt werden kann.

Künstliche Intelligenz wird sich zukünftig weiterentwickeln und immer komplexer werden. Deepfake-Videos könnten dabei der nächste Schritt sein, um Straftaten nicht nur mit Ton, sondern auch bildlich zu simulieren. Erste Deepfake-Interviews hat es bereits gegeben, wie z.B. mit Berlins Oberbürgermeisterin Franziska Giffey und Vitali Klitschko.

Kriminelle werden weiterhin jeden technischen Vorschritt zu ihrem Vorteil nutzen, daher ist es wichtig, über den aktuellen Stand der Technik stets informiert zu sein, um Betrügern nicht zum Opfer zu fallen.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s