KI-Modell "Emo" lässt jedes Bild täuschend echt sprechen oder singen

Ein Bild, eine Tonspur - fertig ist der lippensynchrone Deepfake, der von einem echten Video kaum zu unterscheiden ist. Noch ist das KI-Modell "EMO" nicht verfügbar, aber die Folgen sind absehbar.

Forscherinnen und Forscher der Alibaba Group haben ein neuartiges Framework namens EMO entwickelt, das die Realitätsnähe und Ausdruckskraft bei der Erstellung sprechender Videoköpfe verbessert.

Quelle: the Decoder, Jonathan Kemper

Bildnachweis: the Decoder

 

Bernhard: 24.03.2024

 

Mitgliedschaften

didacta.logo             fww.logo

Copyright © 1991 - 2024 trainertreffen.de