„Der Präsident hat angerufen“: KI als Stimmenfälscher
2024-04-11
„Traue keinem Nachruf, den Du nicht selbst gefälscht hast“, so das aktuelle Motto dank KI, wir berichteten.
In den USA waren mit KI gefälschte Stimmen bereits ein Problem, in denen vermeintlich Präsident Biden seine Wähler anrief und dazu aufforderte, nicht zur Wahl zu gehen. Doch nun hat AI, das Unternehmen hinter ChatGPT, auch einen KI-Stimmengenerator im Angebot, Voice Engine. Zunächst gedacht, um Texte „vorlesen“ zu lassen, auch übersetzt. Als Stimmvorlage reichen 15 Sekunden eines beliebigen Sprechers, also auch eine aufgezeichnete Sprachnachricht oder die Stimme von Oma auf der Handy-Mailbox. Schon könnte ein Anruf von „Oma“ beim ungeliebten Bruder „Du bist enterbt!!!“ generiert werden.
Wäre das nur ein sehr derber Scherz, so sind gefälschte Stimmen von öffentlichen Personen, ob Politiker oder Radiosprecher, ein großes Problem. Auch gefälschte Pornografie, ob mit Stars oder der Ex-Freundin, sorgt für großen Ärger. Am 21. März verabschiedeten die Vereinten Nationen deshalb eine Resolution zur besseren Kontrolle von KI und AI wird das neue Angebot ebenso wie sein Video-Angebot SORA erstmal nicht öffentlich freischalten. Doch mit noch mehr Fälschungen ist zukünftig definitiv zu rechnen und man kann weder seinen Augen noch Ohren mehr trauen.
DL2MCD