UltraLight Digital Human: quelloffenes, endseitig in Echtzeit laufendes, ultraleichtes Digital Human mit Ein-Klick-Installationspaket

Neueste AI-ToolsAktualisiert vor 5 Monaten Sharenet.ai
1.2K 0
Trae

Allgemeine Einführung

Ultralight Digital Human ist ein Open-Source-Projekt mit dem Ziel, ein ultraleichtes digitales Menschmodell zu entwickeln, das in Echtzeit auf mobilen Geräten laufen kann. Das Projekt ermöglicht einen reibungslosen Betrieb auf mobilen Geräten, indem Algorithmen und Modellstrukturen für eine Vielzahl von Szenarien wie soziale Anwendungen, Spiele und virtuelle Realität optimiert werden. Die Nutzer können ihre eigenen digitalen Menschmodelle leicht trainieren und einsetzen, um personalisierte und immersive Erfahrungen zu machen.

Was die Tatsache anbelangt, dass es auf dem Handy gut funktioniert, ändern Sie einfach die Anzahl der Kanäle des aktuellen Modells ein bisschen kleiner und verwenden Sie Wenet für die Audiofunktionen und Sie werden gut sein.

UltraLight Digital Human:开源端侧实时运行的超轻量级数字人,附一键安装包

 

Funktionsliste

  • EchtzeitbetriebModelle können in Echtzeit auf mobilen Geräten laufen und sind responsiv.
  • Leichte KonstruktionOptimierte Modellstruktur für ressourcenbeschränkte mobile Geräte.
  • Open-Source-ProjektDer Code und das Modell sind vollständig quelloffen und können von den Nutzern frei verändert und verwendet werden.
  • Multi-Szenario-AnwendungGeeignet für eine Vielzahl von Szenarien wie soziale Anwendungen, Spiele und virtuelle Realität.
  • Extraktion von AudiomerkmalenUnterstützt sowohl Wenet- als auch Hubert-Audio-Feature-Extraktionsverfahren.
  • SynchronnetzVerbesserte Lippensynchronisation mit Syncnet-Technologie.
  • Ausführliches TutorialAusführliche Schulungs- und Nutzungsanleitungen helfen den Anwendern, sich schnell zurechtzufinden.

 

Hilfe verwenden

Einbauverfahren

  1. Vorbereitung der Umwelt::
    • Installieren Sie Python 3.10 und höher.
    • Installieren Sie PyTorch 1.13.1 und andere Abhängigkeiten:
      conda create -n dh python=3.10
      conda activate dh
      conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia
      conda install mkl=2024.0
      pip install opencv-python transformers numpy==1.23.5 soundfile librosa onnxruntime
      
  2. Modelldateien herunterladen::
    • Laden Sie die Datei wenet encoder.onnx von folgendem Link herunter und platzieren Sie sie im Verzeichnis data_utils/ Katalog: Download-Link

Verwendungsprozess

  1. Das Video vorbereiten::
    • Bereiten Sie ein 3- bis 5-minütiges Video vor. Achten Sie darauf, dass jedes Bild eine vollständige Gesichtsbelichtung aufweist und dass der Ton klar und rauschfrei ist.
    • Legen Sie das Video in einem neuen Ordner ab.
  2. Extrahieren von Audiomerkmalen::
    • Verwenden Sie die folgenden Befehle, um Audio-Features zu extrahieren:
      cd data_utils
      python process.py YOUR_VIDEO_PATH --asr hubert
      
  3. Ausbildungsmodelle::
    • Trainieren Sie das Syncnet-Modell für bessere Ergebnisse:
      cd ..
      python syncnet.py --save_dir ./syncnet_ckpt/ --dataset_dir ./data_dir/ --asr hubert
      
    • Trainieren Sie das digitale Menschmodell anhand des Kontrollpunkts mit dem geringsten Verlust:
      python train.py --dataset_dir ./data_dir/ --save_dir ./checkpoint/ --asr hubert --use_syncnet --syncnet_checkpoint syncnet_ckpt
      
  4. Inferenz::
    • Extrahieren von Test-Audiomerkmalen:
      python extract_test_audio.py YOUR_TEST_AUDIO_PATH --asr hubert
      
    • Running Reasoning:
      python inference.py --dataset ./data_dir/ --audio_feat ./your_test_audio_hu.npy --save_path ./output.mp4 --checkpoint ./checkpoint/best_model.pth
      

caveat

  • Vergewissern Sie sich, dass die Videobildrate mit dem gewählten Schema für die Extraktion der Audiomerkmale übereinstimmt: 20fps für wenet und 25fps für hubert.
  • Während des Trainings- und Inferenzprozesses wird der Verlustwert des Modells regelmäßig überwacht und der optimale Kontrollpunkt für das Training ausgewählt.

 

Monkey One Click Integration Pack

https://pan.baidu.com/s/19DcRlR0kJVg4bLb7snUrBQ?pwd=tct1

为方便大家实操,我把上述流程进行了整合和封装(包括模型权重和测试用例):

UltraLight Digital Human:开源端侧实时运行的超轻量级数字人,附一键安装包

 

你只需傻瓜式操作:

step 0:安装依赖:

conda create -n udh python=3.10
conda activate udh
pip install -r requirements.txt

step 1:数据准备:

python data_prepare.py

step 2:模型训练:

python train.py

step 3:模型推理:

python inference.py

© urheberrechtliche Erklärung
AiPPT

Ähnliche Artikel

Keine Kommentare

keine
Keine Kommentare...