Ollamaのインストールと使い方のチュートリアル

Trae

については、これまでにも多くの問題があった。 オーラマ インストールとデプロイのチュートリアルの情報はかなり分散しているので、今回はローカルのコンピュータでOllamaを使用する方法について、完全なワンステップのチュートリアルをまとめました。チュートリアルは間違ったつま先を踏まないように初心者を対象にしているので、できる人はOllamaの公式ドキュメントを読むことをお勧めします。そして、Ollamaのインストールと使い方をステップ・バイ・ステップで説明していきます。

Ollama 安装与使用详细教学

 

大型モデルの現地設置にOllamaを選ぶ理由

多くの新参者は、私がそうであったように、大規模なモデルをデプロイするためのもっと優れたツールがオンライン上にあることを理解していない:Ollamaに似たLLMフレームワークの棚卸し:大規模モデルをローカルに展開するための複数の選択肢 なぜ最後にOllamaをインストールすることを勧めるのですか?

まず第一に、もちろんパソコンへのインストールが簡単であることは言うまでもないが、最も重要なポイントのひとつは、スタンドアロン展開のモデルの性能がパラメータに対してより最適化され、インストールにエラーが発生しにくいことである。例えば、同じ構成のコンピュータのインストール QwQ-32B スムーズな使用が可能なオラマを使用し、「よりパワフル」に変更。 ラマ.cpp 動かなくなったり、出力された答えが正しくなかったりします。Ollamaはllama.cppを一番下に含んでおり、より良い最適化により、llama.cppよりも安定して動作する。

 

Ollamaはどのような大きなモデルファイルを実行できますか?

Ollamaは、推論エンジンが異なる以下の2つの形式のモデルファイルをサポートしています:

  1. GGUFフォーマットスルー llama.cpp 理由
  2. セーフセンサー形式スルー vllm 理由

ということだ:

  • GGUF形式のモデルが使用される場合、Ollamaは llama.cpp CPU/GPUによる効率的な推論を行う。
  • safetensors フォーマットのモデルを使用する場合、Ollama は vllmGPUに加えて、GPUはしばしば高性能な推論にも利用される。

もちろん気にする必要はない。ただ、インストールするファイルのほとんどがGGUFフォーマットであることを知っておいてほしい。なぜGGUFを強調するのですか?

GGUFサポート 定量的(例:Q4、Q6_K)能力非常に少ないグラフィックスとメモリフットプリントで優れた推論性能を維持セーフティセンサーは通常FP16/FP32のフルモデルですが、より大きく、より多くのリソースを消費します。詳しくはこちらをご覧ください:モデル量子化とは:FP32、FP16、INT8、INT4データ型の説明.

 

Ollama 最小構成要件

オペレーティングシステム: Linux: Ubuntu 18.04以降、macOS: macOS 11 Big Sur以降

RAM: 8GB(3Bモデル用)、16GB(7Bモデル用)、32GB(13Bモデル用

ディスク容量: Ollamaとベースモデルのインストールに12GB、モデルデータの保存にモデルによって追加容量が必要です。

CPUだ: 少なくとも4コアの最新のCPUを使用することが推奨され、13Bモデルを実行するには、少なくとも8コアのCPUを使用することが推奨されます。

GPU(オプション): Ollamaの実行にGPUは必要ありませんが、特に大きなモデルを実行する場合、パフォーマンスを向上させることができます。GPUをお持ちであれば、カスタムモデルのトレーニングを高速化するために使うことができます。

 

Ollamaをインストールする

https://ollama.com/download

コンピュータの環境に応じて選択するだけで、インストールは非常に簡単だが、ここで注意しなければならないのは、ネットワーク環境によっては正しくインストールできない場合があるということだ。

macOS インストール: https://ollama.com/download/Ollama-darwin.zip

Windows インストール: https://ollama.com/download/OllamaSetup.exe

Linuxのインストール:curl -fsSL https://ollama.com/install.sh | sh

Dockerイメージ:(公式サイトでご自身で勉強してください)

CPUまたはNvidia GPU:docker pull ollama/ollama

AMD GPU:docker pull ollama/ollama:rocm

Ollama 安装与使用详细教学

 

インストールが完了すると、デスクトップの右下にOllamaのアイコンが表示されます。アイコンに緑色のアラートが表示されている場合は、アップグレードが必要なことを意味します。

Ollama 安装与使用详细教学

 

オーラマのセットアップ

Ollamaのインストールは非常に簡単だが、ほとんどの設定は "環境変数 "を変更する必要があり、初心者には非常に不親切である:

パラメトリックラベリングと設定
OLLAMA_MODELSモデルファイルが保存されているディレクトリを示します。現在のユーザーディレクトリ務める  C:\Users%username%.ollama\models
Windowsシステム Cドライブに置くことはお勧めしません。ディスクは他のディスク(例えば E:\ollama\models)
OLLAMA_HOSTはollamaサービスがリッスンするネットワークアドレスで、デフォルトは127.0.0.1
他のコンピュータ(LAN上の他のコンピュータなど)からOllamaへのアクセスを許可したい場合は推奨設定大丈夫 0.0.0.0
OLLAMA_PORTollamaサービスがリッスンするデフォルトのポートを示す。11434
ポートの競合がある場合は、他のポートに設定を変更することができる(例えば、以下のように)。8080など)
OLLAMA_ORIGINSHTTPクライアントのリクエスト元を、カンマで区切られたハーフカラムのリストで示します。
ローカルでの使用が制限されていない場合は、アスタリスクに設定できます。 *
ollama_keep_aliveラージモデルがメモリにロードされた後の生存時間を示す。5mこれで5分だ。
(例えば、プレーンな数字300は300秒を意味し、0はリクエストに対するレスポンスが処理されると同時にモデルがアンインストールされることを意味し、マイナスの数字はモデルが維持されていることを意味する)
を設定することをお勧めします。 24h このモデルは24時間メモリに残るため、アクセス速度が向上する。
ollama_num_parallel同時に処理されるリクエスト数を示す。1 (すなわち、リクエストの単一同時シリアル処理)
提言は実際のニーズに合わせて調整される
ollama_max_queueリクエストキューの長さを示す。512
キュー長を超えるリクエストは破棄されます。
OLLAMA_DEBUGはデバッグ・ログの出力を表します。1 (トラブルシューティングのための詳細なログ情報を出力する)。
ollama_max_loaded_models同時にメモリにロードされるモデルの最大数を示す。1 (つまり、1つのモデルしかメモリーできない)

 

1.大きなモデルファイルのダウンロードディレクトリを変更する

Windowsシステムでは、Ollamaによってダウンロードされたモデルファイルは、デフォルトでユーザーフォルダ下の特定のディレクトリに保存されます。具体的には、デフォルトのパスは通常C:\Users\<用户名>\.ollama\models.ここだ。<用户名>は、現在のWindowsシステム・ログイン・ユーザー名を指す。

Ollama 安装与使用详细教学

例えば、システム・ログイン・ユーザー名がyangfanその場合、モデルファイルのデフォルトの保存パスは次のようになります。C:\Users\yangfan\.ollama\models\manifests\registry.ollama.ai.このディレクトリには、Ollamaを通じてダウンロードされたすべてのモデルファイルがあります。

注:新しいシステムのインストール・パスは一般的にC:\Users\<用户名>\AppData\Local\Programs\Ollama

Cドライブの空き容量が少ない場合、最初に行うべきことは、大きなモデルファイルのダウンロードディレクトリを変更することです。

 

1.環境変数のエントリーポイントを探す

最も簡単な方法:Win+Rで実行ウィンドウを開き、次のように入力します。 sysdm.cplこのオプションを使いたい場合は、「システムのプロパティ」を開き、「詳細設定」タブを選択し、「環境変数」をクリックします。

Ollama 安装与使用详细教学

その他の方法

1.スタート->設定->詳細システム設定->システムのプロパティ->環境変数。

2.このコンピュータ -> 右クリック -> プロパティ -> 詳細システム設定 -> 環境変数。

3.スタート->コントロールパネル->システムとセキュリティ->システム->システムの詳細設定->システムのプロパティ->環境変数。

4.デスクトップ下部の検索ボックス->入力->環境変数

入力すると、以下の画面が表示されます:

Ollama 安装与使用详细教学

2.環境変数の変更

システム変数からOLLAMA_MODELSという変数を探し、なければNewをクリックする。

Ollama 安装与使用详细教学

Ollama 安装与使用详细教学

OLLAMA_MODELS が既に存在する場合は、それを選択してマウスの左ボタンをダブルクリックするか、選択し て "Edit "をクリックする。

Ollama 安装与使用详细教学

変数の値は新しいディレクトリに変更され、ここではCドライブから、よりディスク容量のあるEドライブに変更している。

Ollama 安装与使用详细教学

保存後、コンピュータを新しいスタートアップから起動し、より安全な結果を得るために再度使用することをお勧めします。

2.デフォルトのアクセスアドレスとポートを変更する

ブラウザでURLを入力: http://127.0.0.1:11434/ 、あなたはそれが実行されていることを示す、次のメッセージが表示されます、まだ環境変数で、変更する必要があるいくつかのセキュリティリスクがここにある。

Ollama 安装与使用详细教学

 

1.OLLAMA_HOSTの変更

エクストラネットへのアクセスを許可するために0.0.0.0になっている場合は、127.0.0.1に変更します。

Ollama 安装与使用详细教学

2.OLLAMA_PORTの変更

もしそれがなければ、追加し、11434を以下のような任意のポートに変更する。:11331(ポートの変更範囲は1~65535)、ポートの衝突を避けるために1000から始めてください。英語の": "に注意してください。

Ollama 安装与使用详细教学

Ollamaのセキュリティに関する推薦図書を読むために、コンピュータを再起動することを忘れないでください:DeepSeekがOllamaを炎上させる。盗まれた」算数には要注意

 

大型モデルの設置

URLへ:https://ollama.com/search

 

Ollama 安装与使用详细教学

 

モデル選択、モデルサイズ選択、コピーコマンド

Ollama 安装与使用详细教学

 

コマンドラインツールへのアクセス

Ollama 安装与使用详细教学

 

コマンドを貼り付けると自動的にインストールされます。

Ollama 安装与使用详细教学

 

こちらでダウンロードしていますので、遅いようでしたら、より快適なインターネット環境に切り替えることをご検討ください!

Ollama 安装与使用详细教学

 

もしOllamaが提供していない大きなモデルをダウンロードしたいのであれば、それは可能だ。 ディープシーク-R1 32Bを装着デモの例として使用。

 

1.huggingface定量的バージョニングモデルの基本コマンド形式のインストール

次のインストール・コマンドの書式を覚えておいてください。

 

ollama run hf.co/{username}:{reponame}

 

2.定量版の選択

すべての量的バージョンのリスト: https://huggingface.co/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF/tree/main

このインストレーションではQ5_K_Mを使用します。

 

3.スプライス取り付けコマンド

Ollama 安装与使用详细教学

 

{ユーザー名}=unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF

{レポ名}=Q5_K_M

完全なインストール・コマンドを取得するためにスプライスする:ollama run hf.co/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q5_K_M

 

4.Ollamaでインストールを実行する

インストール・コマンドを実行する

Ollama 安装与使用详细教学

ネットワーク障害が発生するかもしれない(幸運を祈る)。

まだ動かない?次のコマンドを試してみてください。hf.co/セクションを次のように修正する。https://hf-mirror.com/(国内のミラーアドレスに切り替える)、完全なインストール・コマンドの最終的なパッチワークは以下のようになる:

ollama run https://hf-mirror.com/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q5_K_M

このセクションの完全なチュートリアルが用意されている:ローカルGPUなしのプライベート展開 DeepSeek-R1 32B

 

Ollama基本コマンド

命令説明
ollama serveオッラマの立ち上げ
ollama createモデルファイルからモデルを作成する
ollama showモデル情報の表示
ollama run運用モデル
ollama stop実行中のモデルを停止する
ollama pullレジストリからモデルを引き出す
ollama pushモデルをレジストリにプッシュする
ollama list全モデルをリストアップ
ollama ps走行モデル一覧
ollama cpレプリケーション・モデル
ollama rmモデルの削除
ollama help任意のコマンドのヘルプ情報を表示する
シンボライズ説明
-h, --helpOllamaのヘルプ情報を表示する
-v, --versionバージョン情報の表示

複数行にコマンドを入力する場合は """ 改行を行う。

Ollama 安装与使用详细教学

利用する """ 終端改行。

Ollama 安装与使用详细教学

Ollamaモデル推論サービスを終了するには /bye.

Ollama 安装与使用详细教学

ネイティブAI対話ツールでOllamaを使う

主流のネイティブAI対話ツールのほとんどは、デフォルトですでにOllamaに適応しており、何の設定も必要ない。例えば ページアシスト OpenwebUI。

ただし、一部のローカルAI対話ツールでは、APIアドレスを自分で入力する必要がある。http://127.0.0.1:11434/: (ポートが変更されている場合は注意)

Ollama 安装与使用详细教学

ウェブベースのAI対話ツールの中には、設定をサポートしているものもある。 ネクストチャット :

Ollama 安装与使用详细教学

ローカル・コンピューター上で動作するOllamaを完全に外部に公開したい場合は、cpolarやngrokを独学する必要があるが、これは初心者が使う範囲を超えている。

この記事は非常に長いように見えるが、実は非常にシンプルな4つの知識ポイントの中で、基本的に支障のないOllamaの今後の使い方を学び、もう一度おさらいしてみよう:

1.環境変数の設定

2.大型モデルを設置する2つの方法

3.基本的なモデルの実行と削除コマンドを覚える

4.異なるクライアントでの使用

© 著作権表示
AiPPT

関連記事

コメントなし

なし
コメントはありません