Deepseek R1エンタープライズ・ローカル展開完全マニュアル

吐司AI

I. はじめに

ディープシーク R1 は、複雑な推論、マルチモーダル処理、技術文書生成をサポートする高性能汎用大規模言語モデルです。本マニュアルは、671B MoEモデル全体のハードウェア構成、国内チップの適応、定量化ソリューション、異種ソリューション、クラウド代替案、および展開方法を網羅し、技術チーム向けの完全なローカル展開ガイドを提供します。

II.ローカル展開に必要なコア構成

1.モデルパラメータとハードウェアの対応表

モデルパラメータ(B)Windows 構成要件Macの構成要件適用シナリオ
1.5B- RAM: 4GB- GPU: 統合グラフィックス/最新CPU- ストレージ: 5GB- メモリー:8GB(M1/M2/M3) - ストレージ:5GBシンプルなテキスト生成、基本的なコード補完
7B- RAM:8~10GB●GPU:GTX 1680(4ビット量子化)●ストレージ:8GB- メモリー:16GB(M2 Pro/M3) - ストレージ:8GB中級複雑度クイズ、コード・デバッグ
8B- RAM: 16GB - GPU: RTX 4080 (16GB VRAM) - ストレージ: 10GB- メモリー:32GB(M3マックス) - ストレージ:10GB中程度の複雑さの推論、文書生成
14B- ラム:24GB-GPU:RTX 3090(24GB VRAM)- メモリー:32GB(M3マックス) - ストレージ:20GB複雑な推論、技術文書の作成
32Bエンタープライズ展開(複数のカードを並行して使用する必要がある)現時点ではサポートされていない科学計算、大規模データ処理
70Bエンタープライズ展開(複数のカードを並行して使用する必要がある)現時点ではサポートされていない大規模推論、超複雑タスク
671Bエンタープライズ展開(複数のカードを並行して使用する必要がある)現時点ではサポートされていない超大規模研究用コンピューティング、ハイパフォーマンス・コンピューティング

2.コンピューティング・パワー要件の分析

モデルバージョンパラメータ(B)計算精度モデルサイズ必要VRAM容量 (GB)参考GPU構成
ディープシーク-R1671BFP8~1,342GB≥1,342GB以上マルチGPU構成(例:NVIDIA A100 80GB * 16)
ディープシーク-R1-ディスティル-ラマ-70B70BBF1643GB~32.7GBマルチGPU構成(例:NVIDIA A100 80GB * 2)
ディープシーク-R1-ディスティル-クウェン-32B32BBF1620GB~14.9GBマルチGPU構成(例:NVIDIA RTX 4090 * 4)
ディープシーク-R1-ディスティル-クウェン-14B14BBF169GB~6.5GBNVIDIA RTX 3080 10GB以上
ディープシーク-R1-ディスティル-ラマ-8B8BBF164.9GB~3.7GBNVIDIA RTX 3070 8GB以上
ディープシーク-R1-ディスティル-クウェン-7B7BBF164.7GB~3.3GBNVIDIA RTX 3070 8GB以上
ディープシーク-R1-ディスティル-クウェン-1.5B1.5BBF161.1GB~0.7GBNVIDIA RTX 3060 12GB以上
Deepseek R1 企业本地部署完全手册

特記事項

  1. VRAM要件表に記載されている VRAM 要件は最低要件であり、モデルのロード中および操作中のピーク需要に対応するため、実際の配備には 20%-30% の追加ビデオメモリを確保することを推奨します。
  2. マルチGPU構成大規模モデル(例えば32B以上)の場合、計算効率と安定性を向上させるために、複数のGPUを並列に使用することが推奨されます。
  3. 計算精度FP8とBF16は現在主流となっている高効率な計算精度であり、グラフィックスメモリの使用量を抑えながらモデルの性能を保証することができます。
  4. 適用シナリオパラメータスケールの異なるモデルは、複雑さの異なるタスクに適しており、ユーザーは実際のニーズに応じて適切なモデルのバージョンを選択することができます。
  5. エンタープライズ展開671Bのような非常に大規模なモデルでは、高性能コンピューティングの要件を満たすために、プロフェッショナルグレードのGPUクラスタ(NVIDIA A100など)を導入することを推奨します。

III.国内チップ・ハードウェア適応プログラム

1.国内エコ・パートナーシップのダイナミクス

企業適応内容性能ベンチマーク(対NVIDIA)
ファーウェイの台頭Rise 910Bは、R1ファミリーをフルネイティブでサポートし、エンドツーエンドの推論最適化を提供する。
無錫GPUMXNシリーズが70BモデルBF16推論をサポートし、メモリ使用量が30%増加RTX 3090相当
シーライトDCUV3/R1モデルに適応し、NVIDIA A100に対するパフォーマンスを発揮等価A100(BF16)

2.各国ハードウェアの推奨構成

モデルパラメータ推奨プログラム適用シナリオ
1.5BT100 アクセラレーターカード開発者個人のプロトタイプ検証
14B崑崙コアK200クラスタ企業レベルの複雑なタスクの推論
32Bウォールチャーチ・コンピューティング・パワー・プラットフォーム + Rise 910Bクラスタ科学的コンピューティングとマルチモーダル処理

IV.クラウド展開の選択肢

1.国内のおすすめクラウドサービスプロバイダー

テラスコアの強み適用シナリオ
シリコンベースのフロー公式推奨API、低レイテンシー、マルチモーダルモデル対応エンタープライズクラスの高通貨推論
テンセントクラウドワンクリックデプロイメント+期間限定無料トライアル、VPCプライベート化対応中小規模のモデルが迅速に稼動
PPIO パイオクラウドOpenAIの20分の1の価格、5000万人の登録無料。 トークン低コストの試飲とテスト

2.海外からのアクセス(マジックまたは海外企業のインターネットアクセスが必要)

  • NVIDIA NIM: エンタープライズGPUクラスタの展開 (リンク)
  • Groq: 超低遅延推論 (リンク)

V.オーラマ+ウンスロス展開

1.定量化プログラムとモデルの選択

数値化バージョンファイルサイズ最小RAM + VRM要件適用シナリオ
ディープシーク-R1-UD-IQ1_M158GB≥200GBコンシューマーグレードのハードウェア(Mac Studioなど)
ディープシーク-R1-Q4_K_M404 GB≥500GB高性能サーバー/クラウド GPU

ダウンロードアドレス

2.推奨ハードウェア構成

ハードウェア・タイプ推奨構成パフォーマンス・パフォーマンス(短いテキスト生成)
民生用機器Mac Studio(192GBユニファイドメモリ)10トークン/秒以上
高性能サーバー4 RTX 4090 (96GB VRAM + 384GB RAM)7~8トークン/秒(混合推理)

3.展開手順(Linuxの例)

1.依存ツールのインストール:

# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp

2.モデリングピースをダウンロードし、統合する:

llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf

3.Ollamaをインストールする:

curl -fsSL https://ollama.com/install.sh | sh

4.モデルファイルを作成する:

FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28  # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"

5.モデルを実行する:

ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile

4.パフォーマンス・チューニングとテスト

  • 低いGPU使用率高帯域幅メモリ(例:DDR5 5600+)のアップグレード。
  • 拡張スワップ・スペース::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

全血 671B 配備命令

  • ブイエルエルエム::
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
  • SGLang::
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2

VI.注意事項とリスク

1.コスト警告

  • 70Bモデル3枚以上の80G RAMグラフィックカード(例:RTX A6000)が必要です。
  • 671Bモデル8xH100クラスタが必要で、スーパーコンピューティング・センターへの配備のみ。

2.代替プログラム

  • 個人ユーザーには、メンテナンスフリーでコンプライアンスに準拠したクラウドベースのAPI(シリコンフローなど)の利用が推奨される。

3.国内ハードウェアの互換性:

  • フレームワークのカスタマイズ版が必要(例:Rise CANN、MXMLLM)。

付録:技術サポートとリソース

  • ファーウェイの台頭ライズ・クラウド・サービス
  • 無錫GPU無料API体験
  • イ・ソクハン ブログチュートリアル

VIII.ヘテロジニアスGPUStackプログラム

GPUStackオープンソースプロジェクト

https://github.com/gpustack/gpustack/

モデル資源測定ツール

  • GGUFパーサー(https://github.com/gpustack/gguf-parser-go)を使用して、手動で必要なビデオメモリを計算する。

GPUStack

DeepSeekフルプラットフォーム・プライベートデプロイメント

モデルコンテクスト・サイズVRAM要件推奨GPU
R1-ディスティル-クウェン-1.5B (Q4_K_M)32K2.86 GiBRTX 4060 8GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-1.5B(Q8_0)32K3.47GiBRTX 4060 8GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-1.5B (FP16)32K4.82GiBRTX 4060 8GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-7B (Q4_K_M)32K7.90GiBRTX 4070 12GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-7B(Q8_0)32K10.83ギガバイトRTX 4080 16GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-7B(FP16)32K17.01ギガバイトRTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-ラマ-8B (Q4_K_M)32K10.64ギガバイトRTX 4080 16GB、MacBook Pro M4 Max 36G
R1-ディスティル-ラマ-8B(Q8_0)32K13.77GiBRTX 4080 16GB、MacBook Pro M4 Max 36G
R1-ディスティル-ラマ-8B (FP16)32K20.32ギガバイトRTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-14B (Q4_K_M)32K16.80ギガバイトRTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-14B(Q8_0)32K22.69ギガバイトRTX 4090 24GB、MacBook Pro M4 Max 36G
R1-ディスティル-クウェン-14B(FP16)32K34.91ギガバイトRTX 4090 24GB x2、MacBook Pro M4 最大48G
R1-ディスティル-クウェン-32B (Q4_K_M)32K28.92ギガバイトRTX 4080 16GB x2、MacBook Pro M4 Max 48G
R1-ディスティル-クウェン-32B(Q8_0)32K42.50ギガバイトRTX 4090 24GB x3、MacBook Pro M4 Max 64G
R1-ディスティル-クウェン-32B(FP16)32K70.43ギガバイトRTX 4090 24GB x4、MacBook Pro M4 最大128G
R1-ディスティル-ラマ-70B (Q4_K_M)32K53.41ギガバイトRTX 4090 24GB x5、A100 80GB x1、MacBook Pro M4 Max 128G
R1-ディスティル-ラマ-70B(Q8_0)32K83.15ギガバイトRTX 4090 24GB x5、MacBook Pro M4 最大128G
R1-ディスティル-ラマ-70B(FP16)32K143.83ギガバイトA100 80GB x2、Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_S)32K225.27ギガバイトA100 80GB x4、Mac Studio M2 Ultra 192G
R1-671B (UD-IQ1_M)32K251.99ギガバイトA100 80GB x4、Mac Studio M2 Ultra 192G x2
R1-671B (UD-IQ2_xxs)32K277.36ギガバイトA100 80GB x5、Mac Studio M2 Ultra 192G x2
R1-671B(UD-Q2_K_XL)32K305.71ギガバイトA100 80GB x5、Mac Studio M2 Ultra 192G x2
R1-671B(Q2_K_XS)32K300.73ギガバイトA100 80GB x5、Mac Studio M2 Ultra 192G x2
R1-671B(Q2_K/Q2_K_L)32K322.14ギガバイトA100 80GB x6、Mac Studio M2 Ultra 192G x2
R1-671B(Q3_K_M)32K392.06ギガバイトA100 80GB x7
R1-671B(Q4_K_M)32K471.33ギガバイトA100 80GB x8
R1-671B (Q5_K_M)32K537.31ギガバイトA100 80GB x9
R1-671B (Q6_K)32K607.42 GBA100 80GB x11
R1-671B(Q8_0)32K758.54 GiBA100 80GB x13
R1-671B (FP8)32K805.2 GBH200 141GB x8

結語

ディープシーク R1 ローカライズされた展開には、非常に高いハードウェア投資と技術的しきい値が必要となるため、個人ユーザーは慎重に、企業ユーザーはニーズとコストを十分に見極める必要がある。ローカライズされた適応とクラウドサービスによって、リスクを大幅に軽減し、効率を向上させることができる。テクノロジーに限界はなく、合理的な計画によってコストを削減し、効率を高めることができる!

グローバル・エンタープライズ・パーソナル・チャンネル・スケジュール

  1. シークレット・タワー捜索
  2. 360ナノAI検索
  3. シリコンベースのフロー
  4. バイトジャンプ火山エンジン
  5. バイドゥ・クラウド・チファン、バーチャル・バーチャル・リアリティ・サイト
  6. エヌビディア・ニム
  7. グロック
  8. 花火
  9. シュート
  10. ギズブ
  11. POE
  12. カーソル
  13. モニカ
  14. ラムダ
  15. セレブラ
  16. 当惑
  17. Alibaba Cloud 100 リファインメント

魔法または外国企業のインターネットアクセスが必要な環境向け

チップ事業サポートスケジュール

表 1: DeepSeek-R1 をサポートするクラウドベンダー

日付氏名/ウェブサイト関連情報の公開
1月28日天空のコア・ドームを知らず異種クラウドの素晴らしい組み合わせ
1月28日PPIO パイオクラウドDeepSeek-R1がPPIO Paioコンピューティングクラウドで稼働開始!
1 2月シリコンベースのモビリティ×ファーウェイ初公開!シリコンモビリティ×ファーウェイクラウド、ライズクラウドをベースとしたDeepSeekR1&V3推論サービスを共同で提供開始
2 2月Zスターク(クラウド・アクシス・テクノロジー)ZStackはDeepSeekV3/R1/JanusPro、プライベートデプロイメント用の複数の自作CPU/GPUをサポートしている。
3 2月バイドゥ インテリジェント クラウド 知帆百度インテリジェントクラウド「知帆」、超低価格でDeepSeek-R1/V3通話に完全対応
3 2月スーパーコンピューティング・インターネットスーパーコンピューティング・インターネット、スーパーインテリジェントな核融合演算をサポートするDeepSeekシリーズを発表
4 2月ファーウェイ(ライズ・コミュニティ)ライズコミュニティでDeepSeekシリーズの新モデルが正式に発表されました。
4 2月ルーチェン×ファーウェイ・ライズLU Chen × Huawei Rise、国産演算力をベースにしたDeepSeekR1シリーズの推論APIとクラウドミラーリングサービスを共同で発表
4 2月グリーンクラウド・テクノロジーズ期間限定無料、ワンクリック展開!Keystone Wise Computing、DeepSeek-R1シリーズを正式発表
4 2月テネシー・インテリジェント・コア(TIC)、コンピューティング技術一日適応!DeepseekR1モデルサービス、GiteeAiで正式スタート!
4 2月分子生物学ディープシークに捧ぐ:国産GPUで中国のアル・エコロジーに火をつける
4 2月海広情報DeepSeekV3とR1、トレーニングはSeaLight DCUの適応を完了し、ライブに入る
5 2月初日の出DeepSeek-V3本格版が国内初の無錫GPU体験で稼働開始
5 2月海広情報Haidu Ang DcCU Chen GongによるDeepSeek-Janus-proマルチモーダル・マクロモデルの適応
5 2月中国最大のクラウド・プロバイダー、京東雲(2008年北京生まれワンクリック導入!Jingdongクラウド、DeepSeek-R1/V3を本格稼動
5 2月小節DeepSeekR1壁連国内Ai演算プラットフォームをリリースし、モデルの完全な範囲は、ワンストップの開発者に力を与える
5 2月ユニコム・クラウド(中国聯通)"海の中のネ申"!クラウドシェルフDeepSeek-R1シリーズを接続!
5 2月モバイルクラウド(チャイナモバイル)フルバージョン、フルサイズ、フル機能!モバイルクラウドがDeepSeekで本格稼動
5 2月ユーコテックスUXTECH、国産チップをベースにDeepSeekの全機種に対応
5 2月台湾系アメリカ人作家エイサーTaichu T100アクセラレータカードに基づいて2時間DeepSeek-R1シリーズモデル、ワンクリックの経験、無料のAPIサービスを適応させるために
5 2月リード・ユン・ティエンフェイ(1931-)台湾の政治家、2008年より中華民国総統DeepEdge10はDeepSeek-R1シリーズのモデル化を完了しました。
6 2月スカイクラウド(チャイナテレコム)国産アル生態系に新機軸!"ハイビスカス"+ディープシーク、キングボム!
6 2月水原テクノロジー独自技術、全国のスマートコンピューティングセンターでDeepSeekの推論サービスの本格展開を実現
6 2月崑崙山脈(カラコルム)、新疆で使われる山脈国内アルカDeepseekトレーニング推論フルバージョン適応、優れたパフォーマンス、ワンクリック展開などあなたに!
2月7日ウェーブクラウド671BDeepSeekビッグモデル・オールインワン・ソリューションをWave Cloudが初めてリリース
2月7日北京スーパーコンピューター北京スーパーコンピューティング xDeepSeek:デュアルエンジンが炎上、1000億アル・イノベーションの嵐が吹き荒れる
2月8日中国Eクラウド中国eクラウド、DeepSeek-R1/V3フルボリュームモデルで本番稼動 プライベート展開の新章を開く
2月8日キングソフトクラウドキングソフトクラウドがDeepSeek-R1/V3をサポート
2月8日シャン・タンの大仕掛けShangtangビッグデバイスは、限られた経験とアップグレードされたサービスを持つDeepSeekシリーズのモデルを棚に並べる!

表 2: DeepSeek-R1 をサポートしている企業

日付氏名/ウェブサイト関連情報の公開
1月30日360ナノAI検索ナノAI検索、大型モデル「DeepSeek-R1」本格始動
2月3日シークレット・タワー AI検索シークレットタワーAIがDeepSeekR1推論モデルの完全版にアクセス
5 2月シャオイ・アシスタント(ファーウェイ)Huawei CloudがRise Cloudサービスに基づいてDeepSeekR1/V3推論サービスを開始すると発表した後、Huawei Xiaoyi AssistantはDeepSeekにアクセスできるようになった。
5 2月作家アシスタント(読書会)業界初!ReadWriteがDeepSeekを導入、"Writer's Assistant "が3つのクリエイティブ補助機能をアップグレード
5 2月万興科技株式会社万星科技:DeepSeek-R1大型モデル適応を完了し、複数の製品を着地させる
6 2月アルド P. (1948-) 香港の実業家、政治家、2007~2010年首相DeepSeekを代表的な推論ビッグモデルとして採用し、NetEaseはAI教育の着地を加速させた
6 2月クラウドスクールDeepSeek製品のAI機能へのクラウドラーニングアクセスが包括的にアップグレード
2月7日ステープルネイルAIアシスタントがDeepSeekにアクセス、ディープシンキングをサポート
2月7日買う価値があるもの購入する価値:DeepSeekモデル製品へのアクセス
2月7日フラッシュ(株取引)フラッシュアスクマネー2.0アップグレード:「スローシンキング」の知恵を注入し、より合理的な投資意思決定アシスタントを作成する。
2月8日スカイワークスAI(崑崙万偉)崑崙万威の天宮AIがDeepSeekR1+コネクテッドサーチを正式発表
2月8日ファントム・オブ・ザ・スターズFlymeAIOSがDeepSeek-R1のビッグモデルアクセスを完了しました!
2月8日讃えるプライドはDeepSeekにアクセスできる

表 3: DeepSeek-R1 をサポートする企業の概要

氏名/ウェブサイト関連情報の公開
ディープシークDeepSeek-R1がリリースされ、OpenAI o1リリースとの性能ベンチマークが行われた。
天空のコア・ドームを知らずInfini-Alヘテロジニアス・クラウドは、DeepSeek-R1-Distillで利用可能になりました。
PPIO パイオクラウドDeepSeek-R1がPPIO Paioコンピューティングクラウドで稼働開始!
シリコンベースのフロー・ファーウェイ初公開!シリコンモビリティ×ファーウェイクラウド、ライズクラウドを活用したDeepSeekR1&V3推論サービスを共同で提供開始!
Zスターク(クラウド・アクシス・テクノロジー)ZStackはDeepSeekV3/R1/JanusPro、プライベートデプロイメント用の複数の自作CPU/GPUをサポートしている!
バイドゥ インテリジェント クラウド 知帆百度インテリジェントクラウド「知帆」、超低価格でDeepSeek-R1/V3通話に完全対応
スーパーコンピューティング・インターネットスーパーコンピューティング・インターネットがDeepSeekシリーズを稼動、スーパーインテリジェントな核融合演算をサポート
ファーウェイ(ライズ・コミュニティ)ライズコミュニティでDeepSeekシリーズの新モデルが正式に発表されました。
ルーチェン×ファーウェイ・ライズLU Chen×Huawei Rise、国産演算力をベースにした推論API「DeepSeekR1」シリーズとクラウド配信サービスを開始
グリーンクラウド・テクノロジーズ期間限定無料、ワンクリック展開!コーナーストーンコンピューティングがDeepSeek-R1シリーズを発表!
中国最大のクラウド・プロバイダー、京東雲(2008年北京生まれワンクリック導入!Jingdongクラウド、DeepSeek-R1/V3を本格稼動
ユニコム・クラウド(中国聯通)"海の中のネ申"!クラウドシェルフDeepSeek-R1シリーズを接続!
モバイルクラウド(チャイナモバイル)フルバージョン、フルサイズ、フル機能!モバイルクラウドが本格稼動 DeepSeek
ユーコテックスUQD、国産チップをベースにDeepSeekの全モデルに対応
スカイクラウド(チャイナテレコム)国内AIエコシステムに新機軸!"ハイバネート"+DeepSeek、王者の爆弾!
デジタル・チャイナ高性能AIモデル「DeepSeek」を3分で導入、デジタルチャイナが企業の知的変革を支援
カプランCape Cloud Enlightened大規模モデルアプリケーションとエンドサイドオールインワンがDeepSeekに完全対応
金蝶雲ドームKingdeeは、DeepSeekビッグモデルへのフルアクセスにより、企業のAIアプリケーションの高速化を支援します!
パラレルテクノロジーサーバーが混雑していますか?パラレルテクノロジーがDeepSeekの自由をサポートします!
キャピタル・オンライン(CAPITAL)キャピタル・オンライン・クラウド・プラットフォームがDeepSeek-R1ファミリーを搭載して稼動開始
ウェーブクラウド671Bディープシーク・ビッグモデル・オールインワン・ソリューションをウェーブクラウドが初めてリリース
北京スーパーコンピューター北京スーパーコンピューティング×DeepSeek:2つのエンジンが爆発、数千億規模のAIイノベーションを牽引する
ライノセラス・イネーブルメント(紫光)Ziguang社: Rhinocerosイネーブルメント・プラットフォームがDeepSeekV3/R1モデルのナノチューブとシェルビングを実現
中国EクラウドChina eCloudがDeepSeek-R1/V3フルボリュームモデルで稼動、プライベートデプロイメントの新章を開く
キングソフトクラウドキングソフトクラウドサポート DeepSeek-R1/V3
シャン・タンの大仕掛けShangtangビッグデバイスは、限られた経験とアップグレードされたサービスを持つモデルのDeepSeekシリーズを棚に並べる!
360ナノAI検索ナノAIサーチ、大型モデル全血バージョン「DeepSeek-R1」を公開
シークレット・タワー AI検索ミナレット AIは、DeepSeek R1推論モデルの完全版にアクセスできる。
シャオイ・アシスタント(ファーウェイ)Huawei CloudがRise Cloudサービスに基づくDeepSeek R1/V3推論サービスの開始を発表した後、Huawei Xiaoyi AssistantはDeepSeekにアクセスできるようになった。
作家アシスタント(読書会)業界初!ReadWriteがDeepSeekを導入、"Writer's Assistant "が3つのクリエイティブ支援機能をアップグレード
万興科技株式会社万星科技:DeepSeek-R1大型モデル適応を完了し、複数の製品を着地させる
アルド P. (1948-) 香港の実業家、政治家、2007~2010年首相DeepSeekの大きな推論モデルを取り入れ、NetEaseYouDaoはAI教育の着地を加速する
クラウドスクールDeepSeek製品のAI機能へのクラウドラーニングアクセスが包括的にアップグレード
ステープルネイルAIアシスタント「DeepSeek」にアクセス、ディープシンキングをサポート
買う価値があるもの購入する価値:DeepSeekモデル製品へのアクセス
Flybook×DeepSeek(公開版)に関連するAI機能の概要
フラッシュ(株取引)フラッシュQ&C 2.0アップグレード:「スローシンキング」の知恵を注入し、より合理的な投資判断アシスタントを作る
天職 AI(クンルン・ワンウェイ)崑崙MSI傘下の天宮AIがディープシークR1+ネットワーク検索を正式発表
ファントム・オブ・ザ・スターズFlyme AI OSはDeepSeek-R1のビッグモデルアクセスを完了した!
讃えるプライドはDeepSeekにアクセスできる
© 著作権表示
AiPPT

関連記事

コメントなし

なし
コメントはありません