|
|
|
Deepfake
- News täuschen alle Sinne
Mit
wenigen Klicks können Videos und Tonspuren täuschend echt manipuliert
werden, nun droht die "Informationsapokalypse" Man stelle sich
zwei Videos vor: In einem singen hochrangige Regierungsmitglieder ein
Nazi-Lied. Ihre Gesichter, ihre Stimmen wirken komplett authentisch. In
dem anderen Video, das offenbar heimlich aufgenommen wurde, scherzt ein
sozialdemokratischer Parteichef herablassend über arme Mitbürger. Auch
da: Mimik, Gestik und Stimme wirken real. Beide Videos hätten das
Potenzial, die heimische Innenpolitik auf den Kopf zu stellen – und in
naher Zukunft soll die Fälschung derartiger Clips mühelos möglich sein.
-
derstandard.at/2000074430944/Deepfake-News-taeuschen-alle-Sinne-und-koennten-Kriege-ausloesen
"Informationsapokalypse"
"Wir
sind hoffnungslos aufgeschmissen, und je weiter man in die Zukunft blickt,
desto schlimmer wird es", warnte der Technologieforscher Aviv Ovadya
vor kurzem. Er war einer der Ersten, die Mitte 2016 vor einer Welle an
Fake-News warnten. Doch die gefälschten Zeitungsartikel und angeblich
unterdrückten Bilder waren nur der Anfang, sagt Ovadya zu
"Buzzfeed". Aus den Fake-News werden in Kürze Deepfake-News,
die zu einer "Informationsapokalypse" führen werden.
Das
alles ist nur der Beginn. Denn bald könnten unterschiedliche
technologische Neuerungen ineinanderfließen, um den perfekten Fake zu
produzieren. Adobe arbeitet etwa an "Voco", einem
"Photoshop für Audio". Dieser könnte genutzt werden, um die
passende Tonspur zu einem gefälschten Video zu produzieren. Gefälschte
Clips vermeintlicher Reden von US-Präsident Donald Trump oder dem
nordkoreanischen Diktator Kim Jong-un sind in Kürze kein Problem mehr.
Man stelle sich vor, was passiert, wenn diese Videos im Netz landen und
sich dort in Windeseile verbreiten. Sicherheitsforscher haben für
derartige Vorfälle schon einen Namen: diplomacy
manipulation.

Illustration
Dabei
will ein "negativer Akteur" geopolitische Ereignisse fälschen,
um bestimmte Ziele zu erreichen. Sprachassistenten treiben an Durch den
aktuellen Hype um digitale Sprachassistenten entwickeln sich künstliche
Stimmen immer rasanter weiter, um einen natürlicheren Umgang zwischen
Mensch und Maschine zu ermöglichen. Adobe versprach bei einer Vorstellung
von Voco, dass das Unternehmen auch daran forsche, wie man unechte
Aufnahmen erkennt. Ein anderes Szenario sind "sachpolitische
Simulationen". Denn nicht nur Fälschungstools
für Audio und Video werden besser, sondern auch sogenannte Bots, also
automatisch agierende Fake-Profile in sozialen Medien. Vor allem im
US-Präsidentschaftswahlkampf bewiesen russische Bots, welches negative
Potenzial sie aufweisen. Sie können den Eindruck erwecken, dass bestimmte
Stimmungen im Land vorherrschen, woraufhin Politiker ihre Positionen
adaptieren. Bislang sind Bots aber mit etwas Mühe identifizierbar, etwa
durch ihre Sprache oder ihren unglaubwürdigen Themenmix. Mit
Fortschritten im Bereich der künstlichen Intelligenz könnten echte
Wählerschaft und Fake-Profile jedoch kaum mehr unterscheidbar sein.
Grassroot-Kampagnen – etwa für Volksbegehren – könnten so ihren Wert
verlieren, da Manipulationen nicht mehr erkennbar sind. Im
Sicherheitsbereich bereitet Laser Phishing Forschern Kopfzerbrechen. So
bezeichnet man mittels künstlicher Intelligenz maßgeschneiderte
"Lock"-E-Mails, die Nutzer zum Verraten ihrer Passwörter oder
anderer wichtiger Daten verführen sollen. Computerprogramme könnten bald
in der Lage sein, soziale Medien automatisiert nach Informationen über
Personen abzugrasen, um diesen dann eine zielgenau entworfene
Fake-Nachricht zukommen zu lassen. Das könnte auch genutzt werden, um
rasch Gerüchte zu verbreiten. Nichts ist echt. Langfristig könnten
derartige Propagandawerkzeuge dazu führen, dass Menschen gar keinen
Nachrichten mehr vertrauen, befürchtet Ovadya. Denn auch
"echte" Videos und Tonspuren könnten mit Verweis auf die
Omnipräsenz von Fakes vom Tisch gewischt werden. So behauptete Donald
Trump vor einigen Monaten, der berüchtigte "Access
Hollywood"-Videoclip, in dem er sich sexistisch äußert, sei digital
manipuliert worden. Ovayda ruft Technologiekonzerne dazu auf, möglichst
rasch funktionierende Tools zu entwickeln, um Fälschungen zu
identifizieren. Möglichkeiten, um den echten Ursprung eines Bildes zu
beweisen, wären etwa kryptografische Anwendungen wie die Blockchain.
Außerdem könnten Lokalmedien, die vor Ort berichten, an Bedeutung
gewinnen.
Bericht
vom Stand 13.05 2018
|
|
|
|
|