Ollama: Native Ein-Klick-Bereitstellung von Open Source Big Language-Modellen

Neueste AI-ToolsAktualisiert vor 3 Monaten Sharenet.ai
2.1K 0
Trae

Ollama Allgemeine Einführung

ollama ist ein leichtgewichtiges Framework für die Ausführung von nativen Sprachmodellen, mit dem Benutzer problemlos große Sprachmodelle erstellen und ausführen können. Es bietet mehrere Schnellstart- und Installationsoptionen, unterstützt Docker und enthält eine Vielzahl von Bibliotheken, aus denen die Benutzer auswählen können. Es ist einfach zu bedienen, bietet eine REST-API und verfügt über eine Vielzahl von Plugins und Erweiterungen, die sich in die Community integrieren lassen.

ollama ist ein reines Befehlszeilentool für PCs, das für die Bereitstellung lokaler Chat-Schnittstellen empfohlen wird, wie z. B. Open WebUI, Lobe Chat, NextChat.

Ollama:本地一键部署开源大语言模型

Ändern Sie das Standard-Installationsverzeichnis: https://github.com/ollama/ollama/issues/2859

 

Ollama:本地一键部署开源大语言模型

 

 

Ollama Funktionsliste

Große Sprachmodelle schnell zum Laufen bringen
Unterstützt macOS, Windows, Linux System
Stellt Bibliotheken wie ollama-python, ollama-js, etc. zur Verfügung.
Einschließlich Llama 2. MistralGemma et al. Vorkonstruiertes Modell
Unterstützt sowohl lokale als auch Docker-Installationen
Bereitstellung maßgeschneiderter Modellfunktionen
Unterstützung für die Konvertierung von Modellen aus GGUF und PyTorch
Bereitstellung einer CLI-Bedienungsanleitung
REST-API-Unterstützung bereitstellen

 

Häufig verwendete ollama-Befehle

Pull-Modell: ollama pull llama3.1

Laufendes Modell: llama run llama3.1

Modell löschen: llama rm llama3.1

Liste aller verfügbaren Modelle: ollama list

Abfrage der API-Dienstadresse: ollama serve (Standard http://localhost:11434/)

 

 

Ollama Hilfe

Installationsskripte und Anleitungen sind über die ollama-Website und die GitHub-Seite verfügbar
Installation mit dem mitgelieferten Docker-Image
Erstellen, Ziehen, Entfernen und Kopieren von Modellen über CLI-Operationen
Initialisierung und Ausführung eines lokalen Builds
Das Modell ausführen und mit ihm interagieren

 

 

Einige der von Ollama unterstützten Modelle

 

ModellParameterGrößeHerunterladen
Lama 27B3,8 GBollama run llama2
Mistral7B4,1 GBollama run mistral
Delfin Phi2.7B1,6 GBollama run dolphin-phi
Phi-22.7B1,7 GBollama run phi
Neural Chat7B4,1 GBollama run neural-chat
Starling7B4,1 GBollama run starling-lm
Code Llama7B3,8 GBollama run codellama
Llama 2 Unzensiert7B3,8 GBollama run llama2-uncensored
Llama 2 13B13B7,3 GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1,9 GBollama run orca-mini
Vicuna7B3,8 GBollama run vicuna
LLaVA7B4,5 GBollama run llava
Gemma2B1,4 GBollama run gemma:2b
Gemma7B4,8 GBollama run gemma:7b

 

 

Ollama herunterladen

© urheberrechtliche Erklärung
AiPPT

Ähnliche Artikel

Keine Kommentare

keine
Keine Kommentare...