VideoReTalking: Audio-gesteuertes Lippensynchronisations- und Videobearbeitungssystem

Neueste AI-ToolsAktualisiert vor 6 Monaten Sharenet.ai
1.2K 0
Trae

Allgemeine Einführung

VideoReTalking ist ein innovatives System, das es dem Benutzer ermöglicht, lippensynchrone Gesichtsvideos auf der Grundlage von Eingangsaudiosignalen zu erzeugen, wobei qualitativ hochwertige und lippensynchrone Ausgangsvideos auch bei unterschiedlichen Emotionen entstehen. Das System unterteilt dieses Ziel in drei aufeinanderfolgende Aufgaben: Erzeugung von Gesichtsvideos mit typischen Ausdrücken, audiogestützte Lippensynchronisation und Gesichtsverbesserung zur Verbesserung des Fotorealismus. Alle drei Schritte werden mit einem lernbasierten Ansatz bearbeitet, der ohne Benutzereingriff nacheinander ausgeführt werden kann. Erkunden Sie VideoReTalking und seine Anwendung zur audiogesteuerten Lippensynchronisation bei der Videobearbeitung von Talking Heads über den angegebenen Link.

 

VideoReTalking:音频驱动的嘴唇同步和视频编辑系统

 

 

(undeutlich, Videoqualität muss zweimal verbessert werden, etwas schlechte Lippensynchronisation auf Chinesisch)

 

 

Funktionsliste

Generierung von Gesichtsvideos: Generierung von Gesichtsvideos mit typischen Gesichtsausdrücken auf der Grundlage der Audioeingabe.
Audiogesteuerte Lippensynchronisation: Erzeugt lippensynchrones Video auf der Grundlage des vorgegebenen Audios.
Gesichtsverbesserung: Verbesserung des Fotorealismus von synthetischen Gesichtern durch ein identitätsbewusstes Gesichtsverbesserungsnetzwerk und Post-Processing.

 

Hilfe verwenden

Laden Sie das trainierte Modell herunter und speichern Sie es in `. /checkpoints`.
Führen Sie `python3 inference.py` aus, um eine schnelle Inferenz des Videos zu erhalten.
Ausdrücke können durch Hinzufügen der Argumente `--exp_img` oder `--up_face` kontrolliert werden.

 

 

Online-Erlebnis-Adresse

replicate体验地址

VideoReTalking Colab 运行地址

© urheberrechtliche Erklärung
AiPPT

Ähnliche Artikel

Keine Kommentare

keine
Keine Kommentare...