EchoMimic: Audiogestützte Porträts zur Erzeugung sprechender Videos (EchoMimicV2 beschleunigtes Installationsprogramm)

Neueste AI-ToolsAktualisiert vor 5 Monaten Sharenet.ai
1.3K 0
Trae

Allgemeine Einführung

EchoMimic ist ein Open-Source-Projekt zur Erzeugung realistischer Porträtanimationen, die durch Audio gesteuert werden. Das von der Abteilung Terminal Technologies der Ant Group entwickelte Projekt nutzt editierbare Markerpunktbedingungen, um dynamische Porträtvideos zu generieren, die Audio- und Gesichtsmarkerpunkte kombinieren. EchoMimic wurde umfassend mit mehreren öffentlichen und proprietären Datensätzen verglichen und hat seine überlegene Leistung sowohl in quantitativen als auch in qualitativen Bewertungen bewiesen.

Die Version EchoMimicV2 optimiert die Inferenzgeschwindigkeit und fügt Gestenaktionen hinzu, empfohlen.

EchoMimic:音频驱动人像照片生成说话视频(EchoMimicV2加速版安装包)

Demo-Adresse: https://www.modelscope.cn/studios/BadToBest/BadToBest V2: https://huggingface.co/spaces/fffiloni/echomimic-v2

 

Funktionsliste

  • Audio-Treiber-AnimationGenerieren Sie realistische Porträtanimationen mit Audioeingabe.
  • Markierungspunktgesteuerte AnimationGenerieren Sie stabile Porträtanimationen mit Hilfe von Gesichtsmarkierungspunkten.
  • Audio + Marker-TreiberKombinieren Sie Audio und ausgewählte Gesichtsmarker, um natürlichere Porträtanimationen zu erstellen.
  • Unterstützung mehrerer SprachenUnterstützt die Audioeingabe in Chinesisch, Englisch und anderen Sprachen.
  • Effizientes ReasoningOptimierte Modelle und Pipelines verbessern die Inferenzgeschwindigkeit erheblich.

 

Hilfe verwenden

Einbauverfahren

  1. Code herunterladen::
    git clone https://github.com/BadToBest/EchoMimic
    cd EchoMimic
    
  2. Einrichten der Python-Umgebung::
    • Es wird empfohlen, conda zur Erstellung einer virtuellen Umgebung zu verwenden:
      conda create -n echomimic python=3.8
      conda activate echomimic
      
    • Installieren Sie die Abhängigkeitspakete:
      pip install -r requirements.txt
      
  3. ffmpeg-static herunterladen und entpacken::
    • Laden Sie ffmpeg-static herunter und entpacken Sie es, dann setzen Sie die Umgebungsvariable:
      export FFMPEG_PATH=/path/to/ffmpeg-4.4-amd64-static
      
  4. Download Gewichte vor dem Training::
    • Laden Sie die entsprechenden vortrainierten Modellgewichte gemäß der Projektbeschreibung herunter.

Verwendungsprozess

  1. Ausführen der Webschnittstelle::
    • Starten Sie das Webinterface:
      python webgui.py
      
    • Besuchen Sie den lokalen Server, um die Benutzeroberfläche anzuzeigen und Audiodateien für die Erstellung von Animationen hochzuladen.
  2. Befehlszeilenargumentation::
    • Verwenden Sie die folgenden Befehle für die Erstellung von audio-gesteuerten Porträtanimationen:
      python infer_audio2vid.py --audio_path /path/to/audio --output_path /path/to/output
      
    • Begründungen in Verbindung mit Wegweisern:
      python infer_audio2vid_pose.py --audio_path /path/to/audio --landmark_path /path/to/landmark --output_path /path/to/output
      
  3. Modell-Optimierung::
    • Die Verwendung des optimierten Modells und der Pipeline kann die Inferenzgeschwindigkeit erheblich verbessern, z. B. von 7 min/240 fps auf 50 sec/240 fps auf V100 GPUs.

caveat

  • Stellen Sie sicher, dass die verwendete Python-Version und CUDA-Version mit den Projektanforderungen übereinstimmen.
  • Wenn Sie bei der Verwendung auf Probleme stoßen, können Sie in der README-Datei des Projekts nachlesen oder auf GitHub eine Anfrage stellen.

 

Windows Ein-Klick-Installationsprogramm

链接:https://pan.quark.cn/s/cc973b142d41
提取码:5T57

 

EchoMimicV2加速版下载

夸克:https://pan.quark.cn/s/12acd147a758

百度:https://pan.baidu.com/s/1z8tiuGtN29luQ7Cg2zHJ8Q?pwd=9e8x

© urheberrechtliche Erklärung
AiPPT

Ähnliche Artikel

Keine Kommentare

keine
Keine Kommentare...