Fraunhofer-Institut erforscht, wie man Fakes aufdeckt
Mit ihrer Übersicht zu „Deepfakes: Mit KI-Systemen Audio- und Videomanipulationen verlässlich entlarven“ führt das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit in das Thema ein. Was recht gut gelungen ist.
Dann folgen Infos, wie man mit den Risiken umgeht bzw. wie man den Fakes begegnen kann. Neben (Awareness-)Schulungen, die schon eine Menge bringen, kann man die Sicherheit im eigenen (betrieblichen) Umfeld checken lassen.
Außerdem forscht das Institut an Systemen und zu Maßnahmen, die Deepfakes entlarven können: Wissenschaftlerinnen und Wissenschaftler arbeiten daran, die hinter dem Betrug steckende Technologie umfassend zu verstehen, mögliche Schwachstellen auszumachen und Schutzmaßnahmen zu entwerfen. Dafür wechseln sie in Simulationen zunächst auf die Seite der Fälscher:innen. Hier generieren sie überzeugend gefälschte Audio- und Video-Daten, anhand derer sie dann Algorithmen zur Aufdeckung von Fälschungen entwickeln.
Auf Kika findet man einen gut aufbereiteten Beitrag zur Arbeit des Fraunhofer AISEC (Video 12:35 Min / Ausstrahlung war am 10. Sep. 2022):
www.kika.de/roadtrip-fuer-techfans/videos/richtig-fake-fuenf-100
Ein Ergebnis der Forschung ist diese Arbeit zum Zusammenspiel von (Sinnes-)Wahrnehmung und Audio-Fälschungen:
Human Perception of Audio Deepfakes
Mehr Infos:
www.aisec.fraunhofer.de/de/das-institut/wissenschaftliche-exzellenz/Deepfakes.html
Maria