Ollama:オープンソースのビッグ言語モデルをワンクリックでネイティブ導入

Trae

オッラマの紹介

ollamaはネイティブ言語モデルを実行するための軽量フレームワークで、大規模な言語モデルを簡単に構築し、実行することができます。複数のクイック・スタートとインストール・オプションを提供し、Dockerをサポートし、ユーザーが選択できる豊富なライブラリ・セットを含んでいます。使いやすく、REST APIを提供し、コミュニティと統合する様々なプラグインや拡張機能を備えています。

ollamaはパーソナルコンピュータ用の純粋なコマンドラインツールで、Open WebUI、Lobe Chat、NextChatのようなローカルチャットインターフェースのデプロイにお勧めします。

Ollama:本地一键部署开源大语言模型

デフォルトのインストール・ディレクトリを変更する: https://github.com/ollama/ollama/issues/2859

 

Ollama:本地一键部署开源大语言模型

 

 

Ollama機能リスト

大規模言語モデルの迅速な立ち上げと実行
macOS、Windows、Linuxシステムをサポート
ollama-python、ollama-jsなどのライブラリを提供。
ラマ2を含む。 ミストラルジェンマ他、事前構成モデル
ローカルとDockerの両方のインストールに対応
カスタマイズされたモデル機能を提供する
GGUFとPyTorchからのモデル変換のサポート
CLI操作ガイドの提供
REST API サポートの提供

 

よく使われるollamaコマンド

プルモデル: ollama pull llama3.1

実行モデル: llama run llama3.1

削除モデル: llama rm llama3.1

利用可能なすべてのモデルをリストアップ: ollama list

クエリ API サービスアドレス: ollama serve (デフォルト http://localhost:11434/)

 

 

Ollamaヘルプ

インストールスクリプトとガイドは、ollamaのウェブサイトとGitHubページから入手できます。
提供されたDockerイメージを使用したインストール
CLI操作によるモデルの作成、引き出し、削除、コピー
ローカルビルドの初期化と実行
モデルの実行と対話

 

 

Ollamaがサポートしているモデルの一部

 

モデルパラメータサイズダウンロード
ラマ27B3.8GBollama run llama2
ミストラル7B4.1GBollama run mistral
ドルフィン・ファイ2.7B1.6GBollama run dolphin-phi
ファイ22.7B1.7GBollama run phi
ニューラル・チャット7B4.1GBollama run neural-chat
スターリング7B4.1GBollama run starling-lm
コード・ラマ7B3.8GBollama run codellama
ラマ2無修正7B3.8GBollama run llama2-uncensored
ラマ2 13B13B7.3GBollama run llama2:13b
ラマ2 70B70B39GBollama run llama2:70b
オルカ・ミニ3B1.9GBollama run orca-mini
ビキューナ7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
ジェマ2B1.4GBollama run gemma:2b
ジェマ7B4.8GBollama run gemma:7b

 

 

Ollama ダウンロード

© 著作権表示
AiPPT

関連記事

コメントなし

なし
コメントはありません