3 Sekunden Audio reichen — KI-Voice-Cloning und der neue Enkeltrick — SOVERIA Blog

McAfee-Studie: KI klont jede Stimme aus drei Sekunden Audio. 70 % hören keinen Unterschied, 77 % der Betroffenen verlieren Geld. So schützt du dich und deine Familie.

3 Sekunden Audio reichen — wie KI-Voice-Cloning den Enkeltrick ins Jahr 2026 holt

McAfee-Forscher zeigten bereits 2023: Drei Sekunden Audio reichen für einen Voice-Clone mit 85 % Trefferquote, mit etwas mehr Material 95 %. 1 von 4 Erwachsenen kennt einen Voice-Clone-Scam. 70 % können Original und Clone nicht unterscheiden. 77 % der Betroffenen verlieren Geld — 36 % zwischen 500 und 3.000 USD.

Ablauf: Audio-Sammlung aus Podcasts, Reels, Sprachnachrichten → KI-Clone in Minuten → fingierte Notlage (Unfall, Raub, gestohlenes Portemonnaie) → Druck auf schwer rückverfolgbare Zahlung (Geschenkkarten, Krypto, Sofort-Überweisung).

Selbstschutz: Codewort in der Familie vereinbaren, niemals direkt reagieren, über bekannte Nummer zurückrufen, keine Geschenkkarten oder Krypto auf Zuruf, Profile abschotten, Datenbroker bereinigen.

Wo SOVERIA ansetzt: Audit zeigt öffentliches Audio-Material und Telefonnummern bei Datenbrokern; Clean reduziert beides aktiv. Quelle: McAfee Labs, Beware the Artificial Imposter Report.