AI Engineering Institute: 3Fine-tuning (Feinabstimmung von großen Sprachmodellen)

AI-WissensdatenbankAktualisiert vor 6 Monaten Sharenet.ai
894 0
Trae

📚 Aufbau der Datenbank

Modelle/KatalogBeschreibung und Inhalt
AxolotlEin Rahmen für die Feinabstimmung von Sprachmodellen
GemmaGoogles neueste Implementierung des Big Language Model
finetune-gemma.ipynb - gemma-sft.py - Gemma_finetuning_notebook.ipynbFeinabstimmung von Notizbüchern und Skripten
LLama2Metas Open-Source-Modell für große Sprachen
generate_response_stream.py - Llama2_finetuning_notebook.ipynb - Llama_2_Fine_Tuning_using_QLora.ipynbLeitlinien für die Umsetzung und Feinabstimmung
Llama3Kommende Experimente mit Meta Large Language Modelling
Llama3_finetuning_notebook.ipynbErste Versuche zur Feinabstimmung
LlamaFactoryEin Rahmen für das Training und den Einsatz großer Sprachmodelle
LLMArchitektur/ParameterZahlTechnische Details der Modellarchitektur
Mistral-7bMistral AI Das Modell mit 7 Milliarden Parametern
LLM_evaluation_harness_for_Arc_Easy_and_SST.ipynb - Mistral_Colab_Finetune_ipynb_Colab_Final.ipynb - notebooks_chatml_inference.ipynb - notebooks_DPO_fine_tuning.ipynb - notebooks_SFTTrainer TRL.ipynb - SFT.pyIntegriertes Notizbuch für Bewertung, Feinabstimmung und Argumentation
MixtralMixtrals Modell der Expertenmischung
Mixtral_fine_tuning.ipynbFeinabstimmung der Umsetzung
VLMvisuelles Sprachmodell
Florence2_finetuning_notebook.ipynb - PaliGemma_finetuning_notebook.ipynbImplementierung des visuellen Sprachmodells

🎯 Modulübersicht

1. die LLM-Architektur

  • Untersuchen Sie die folgenden Modellimplementierungen:
    • Llama2 (das quelloffene Modell von Meta)
    • Mistral-7b (effizientes Modell mit 7 Milliarden Parametern)
    • Mixtral (Expert Mixture Architecture)
    • Gemma (der neueste Beitrag von Google)
    • Llama3 (bevorstehendes Experiment)

2. 🛠️ Feinabstimmungstechnologie

  • Umsetzungsstrategie
  • LoRA-Methodik (Low Rank Adaptation)
  • Fortgeschrittene Optimierungsmethoden

3. 🏗️ Analyse der Modellarchitektur

  • Eine eingehende Untersuchung der Struktur des Modells
  • Methode zur Berechnung der Parameter
  • Überlegungen zur Skalierbarkeit

4. 🔧 Berufliche Entfaltung

  • Code Llama für Programmieraufgaben
  • Visuelle Sprachmodellierung:
    • Florenz2
    • PaliGemma

5. 💻 Praktische Anwendungen

  • Integriertes Jupyter-Notebook
  • Pipeline zur Erzeugung von Reaktionen
  • Leitfaden zur Implementierung von Reasoning

6. 🚀 Erweiterte Themen

  • DPO (Optimierung der Direktpräferenz)
  • SFT (überwachte Feinabstimmung)
  • Methodik der Bewertung
© urheberrechtliche Erklärung
AiPPT

Ähnliche Artikel

Keine Kommentare

keine
Keine Kommentare...