Betrüger nutzten künstliche Intelligenz, um die Stimme von Andreas Gabalier detailgetreu zu imitieren.
Sie veröffentlichten ein gefälschtes Interview, in dem Gabalier angeblich Krypto-Investments empfiehlt.
Die Täter gaben das manipulierte Gespräch auf einer Webseite aus, die orf.at stark ähnelt.
Dabei wirkte die Seite täuschend echt und sprach gezielt potenzielle Anleger an.
Promi-Stimmen werden gezielt missbraucht
Kriminelle setzen Voice Cloning gezielt ein, um Vertrauen zu erschleichen und Geldflüsse umzuleiten.
In Österreich tauchten bereits Fälschungen der Stimmen von Alexander Van der Bellen, Armin Assinger und Mirjam Weichselbraun auf.
Die Täter hoffen, mit bekannten Stimmen mehr Glaubwürdigkeit zu erzeugen und ihre Opfer zur Investition zu verleiten.
Polizei warnt vor neuen Betrugsmethoden
Behörden warnen vor der neuen Dimension digitaler Täuschung durch KI-generierte Stimmen.
Sie raten zur Vorsicht bei Investitionsempfehlungen, die angeblich von Prominenten stammen.
Fälle wie jener von Gabalier zeigen, wie professionell die Fälscher mittlerweile arbeiten.
Sicherheitsexperten fordern strengere Kontrollen und schnellere Aufklärung bei Deepfake-Fällen.