I. はじめに
ディープシーク R1 は、複雑な推論、マルチモーダル処理、技術文書生成をサポートする高性能汎用大規模言語モデルです。本マニュアルは、671B MoEモデル全体のハードウェア構成、国内チップの適応、定量化ソリューション、異種ソリューション、クラウド代替案、および展開方法を網羅し、技術チーム向けの完全なローカル展開ガイドを提供します。
II.ローカル展開に必要なコア構成
1.モデルパラメータとハードウェアの対応表
モデルパラメータ(B) | Windows 構成要件 | Macの構成要件 | 適用シナリオ |
---|
1.5B | - RAM: 4GB- GPU: 統合グラフィックス/最新CPU- ストレージ: 5GB | - メモリー:8GB(M1/M2/M3) - ストレージ:5GB | シンプルなテキスト生成、基本的なコード補完 |
7B | - RAM:8~10GB●GPU:GTX 1680(4ビット量子化)●ストレージ:8GB | - メモリー:16GB(M2 Pro/M3) - ストレージ:8GB | 中級複雑度クイズ、コード・デバッグ |
8B | - RAM: 16GB - GPU: RTX 4080 (16GB VRAM) - ストレージ: 10GB | - メモリー:32GB(M3マックス) - ストレージ:10GB | 中程度の複雑さの推論、文書生成 |
14B | - ラム:24GB-GPU:RTX 3090(24GB VRAM) | - メモリー:32GB(M3マックス) - ストレージ:20GB | 複雑な推論、技術文書の作成 |
32B | エンタープライズ展開(複数のカードを並行して使用する必要がある) | 現時点ではサポートされていない | 科学計算、大規模データ処理 |
70B | エンタープライズ展開(複数のカードを並行して使用する必要がある) | 現時点ではサポートされていない | 大規模推論、超複雑タスク |
671B | エンタープライズ展開(複数のカードを並行して使用する必要がある) | 現時点ではサポートされていない | 超大規模研究用コンピューティング、ハイパフォーマンス・コンピューティング |
2.コンピューティング・パワー要件の分析
モデルバージョン | パラメータ(B) | 計算精度 | モデルサイズ | 必要VRAM容量 (GB) | 参考GPU構成 |
---|
ディープシーク-R1 | 671B | FP8 | ~1,342GB | ≥1,342GB以上 | マルチGPU構成(例:NVIDIA A100 80GB * 16) |
ディープシーク-R1-ディスティル-ラマ-70B | 70B | BF16 | 43GB | ~32.7GB | マルチGPU構成(例:NVIDIA A100 80GB * 2) |
ディープシーク-R1-ディスティル-クウェン-32B | 32B | BF16 | 20GB | ~14.9GB | マルチGPU構成(例:NVIDIA RTX 4090 * 4) |
ディープシーク-R1-ディスティル-クウェン-14B | 14B | BF16 | 9GB | ~6.5GB | NVIDIA RTX 3080 10GB以上 |
ディープシーク-R1-ディスティル-ラマ-8B | 8B | BF16 | 4.9GB | ~3.7GB | NVIDIA RTX 3070 8GB以上 |
ディープシーク-R1-ディスティル-クウェン-7B | 7B | BF16 | 4.7GB | ~3.3GB | NVIDIA RTX 3070 8GB以上 |
ディープシーク-R1-ディスティル-クウェン-1.5B | 1.5B | BF16 | 1.1GB | ~0.7GB | NVIDIA RTX 3060 12GB以上 |

特記事項
- VRAM要件表に記載されている VRAM 要件は最低要件であり、モデルのロード中および操作中のピーク需要に対応するため、実際の配備には 20%-30% の追加ビデオメモリを確保することを推奨します。
- マルチGPU構成大規模モデル(例えば32B以上)の場合、計算効率と安定性を向上させるために、複数のGPUを並列に使用することが推奨されます。
- 計算精度FP8とBF16は現在主流となっている高効率な計算精度であり、グラフィックスメモリの使用量を抑えながらモデルの性能を保証することができます。
- 適用シナリオパラメータスケールの異なるモデルは、複雑さの異なるタスクに適しており、ユーザーは実際のニーズに応じて適切なモデルのバージョンを選択することができます。
- エンタープライズ展開671Bのような非常に大規模なモデルでは、高性能コンピューティングの要件を満たすために、プロフェッショナルグレードのGPUクラスタ(NVIDIA A100など)を導入することを推奨します。
III.国内チップ・ハードウェア適応プログラム
1.国内エコ・パートナーシップのダイナミクス
企業 | 適応内容 | 性能ベンチマーク(対NVIDIA) |
---|
ファーウェイの台頭 | Rise 910Bは、R1ファミリーをフルネイティブでサポートし、エンドツーエンドの推論最適化を提供する。 | |
無錫GPU | MXNシリーズが70BモデルBF16推論をサポートし、メモリ使用量が30%増加 | RTX 3090相当 |
シーライトDCU | V3/R1モデルに適応し、NVIDIA A100に対するパフォーマンスを発揮 | 等価A100(BF16) |
2.各国ハードウェアの推奨構成
モデルパラメータ | 推奨プログラム | 適用シナリオ |
---|
1.5B | T100 アクセラレーターカード | 開発者個人のプロトタイプ検証 |
14B | 崑崙コアK200クラスタ | 企業レベルの複雑なタスクの推論 |
32B | ウォールチャーチ・コンピューティング・パワー・プラットフォーム + Rise 910Bクラスタ | 科学的コンピューティングとマルチモーダル処理 |
IV.クラウド展開の選択肢
1.国内のおすすめクラウドサービスプロバイダー
テラス | コアの強み | 適用シナリオ |
---|
シリコンベースのフロー | 公式推奨API、低レイテンシー、マルチモーダルモデル対応 | エンタープライズクラスの高通貨推論 |
テンセントクラウド | ワンクリックデプロイメント+期間限定無料トライアル、VPCプライベート化対応 | 中小規模のモデルが迅速に稼動 |
PPIO パイオクラウド | OpenAIの20分の1の価格、5000万人の登録無料。 トークン | 低コストの試飲とテスト |
2.海外からのアクセス(マジックまたは海外企業のインターネットアクセスが必要)
- NVIDIA NIM: エンタープライズGPUクラスタの展開 (リンク)
- Groq: 超低遅延推論 (リンク)
V.オーラマ+ウンスロス展開
1.定量化プログラムとモデルの選択
数値化バージョン | ファイルサイズ | 最小RAM + VRM要件 | 適用シナリオ |
---|
ディープシーク-R1-UD-IQ1_M | 158GB | ≥200GB | コンシューマーグレードのハードウェア(Mac Studioなど) |
ディープシーク-R1-Q4_K_M | 404 GB | ≥500GB | 高性能サーバー/クラウド GPU |
ダウンロードアドレス
2.推奨ハードウェア構成
ハードウェア・タイプ | 推奨構成 | パフォーマンス・パフォーマンス(短いテキスト生成) |
---|
民生用機器 | Mac Studio(192GBユニファイドメモリ) | 10トークン/秒以上 |
高性能サーバー | 4 RTX 4090 (96GB VRAM + 384GB RAM) | 7~8トークン/秒(混合推理) |
3.展開手順(Linuxの例)
1.依存ツールのインストール:
# 安装 llama.cpp(用于合并分片文件)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp
2.モデリングピースをダウンロードし、統合する:
llama-gguf-split --merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf
3.Ollamaをインストールする:
curl -fsSL https://ollama.com/install.sh | sh
4.モデルファイルを作成する:
FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28 # 每块 RTX 4090 加载 7 层(共 4 卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE "<|end▁of▁thinking $|>{{{ .Prompt }}}<|end▁of▁thinking|>"
5.モデルを実行する:
ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile
4.パフォーマンス・チューニングとテスト
- 低いGPU使用率高帯域幅メモリ(例:DDR5 5600+)のアップグレード。
- 拡張スワップ・スペース::
sudo fallocate -l 100G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
全血 671B 配備命令
vllm serve deepseek-ai/deepseek-r1-671b --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager
python3 -m sglang.launch_server --model deepseek-ai/deepseek-r1-671b --trust-remote-code --tp 2
VI.注意事項とリスク
1.コスト警告
- 70Bモデル3枚以上の80G RAMグラフィックカード(例:RTX A6000)が必要です。
- 671Bモデル8xH100クラスタが必要で、スーパーコンピューティング・センターへの配備のみ。
2.代替プログラム
- 個人ユーザーには、メンテナンスフリーでコンプライアンスに準拠したクラウドベースのAPI(シリコンフローなど)の利用が推奨される。
3.国内ハードウェアの互換性:
- フレームワークのカスタマイズ版が必要(例:Rise CANN、MXMLLM)。
付録:技術サポートとリソース
- ファーウェイの台頭ライズ・クラウド・サービス
- 無錫GPU無料API体験
- イ・ソクハン ブログチュートリアル
VIII.ヘテロジニアスGPUStackプログラム
GPUStackオープンソースプロジェクト
https://github.com/gpustack/gpustack/
モデル資源測定ツール
- GGUFパーサー(https://github.com/gpustack/gguf-parser-go)を使用して、手動で必要なビデオメモリを計算する。
GPUStack
DeepSeekフルプラットフォーム・プライベートデプロイメント
モデル | コンテクスト・サイズ | VRAM要件 | 推奨GPU |
---|
R1-ディスティル-クウェン-1.5B (Q4_K_M) | 32K | 2.86 GiB | RTX 4060 8GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-1.5B(Q8_0) | 32K | 3.47GiB | RTX 4060 8GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-1.5B (FP16) | 32K | 4.82GiB | RTX 4060 8GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-7B (Q4_K_M) | 32K | 7.90GiB | RTX 4070 12GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-7B(Q8_0) | 32K | 10.83ギガバイト | RTX 4080 16GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-7B(FP16) | 32K | 17.01ギガバイト | RTX 4090 24GB、MacBook Pro M4 Max 36G |
R1-ディスティル-ラマ-8B (Q4_K_M) | 32K | 10.64ギガバイト | RTX 4080 16GB、MacBook Pro M4 Max 36G |
R1-ディスティル-ラマ-8B(Q8_0) | 32K | 13.77GiB | RTX 4080 16GB、MacBook Pro M4 Max 36G |
R1-ディスティル-ラマ-8B (FP16) | 32K | 20.32ギガバイト | RTX 4090 24GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-14B (Q4_K_M) | 32K | 16.80ギガバイト | RTX 4090 24GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-14B(Q8_0) | 32K | 22.69ギガバイト | RTX 4090 24GB、MacBook Pro M4 Max 36G |
R1-ディスティル-クウェン-14B(FP16) | 32K | 34.91ギガバイト | RTX 4090 24GB x2、MacBook Pro M4 最大48G |
R1-ディスティル-クウェン-32B (Q4_K_M) | 32K | 28.92ギガバイト | RTX 4080 16GB x2、MacBook Pro M4 Max 48G |
R1-ディスティル-クウェン-32B(Q8_0) | 32K | 42.50ギガバイト | RTX 4090 24GB x3、MacBook Pro M4 Max 64G |
R1-ディスティル-クウェン-32B(FP16) | 32K | 70.43ギガバイト | RTX 4090 24GB x4、MacBook Pro M4 最大128G |
R1-ディスティル-ラマ-70B (Q4_K_M) | 32K | 53.41ギガバイト | RTX 4090 24GB x5、A100 80GB x1、MacBook Pro M4 Max 128G |
R1-ディスティル-ラマ-70B(Q8_0) | 32K | 83.15ギガバイト | RTX 4090 24GB x5、MacBook Pro M4 最大128G |
R1-ディスティル-ラマ-70B(FP16) | 32K | 143.83ギガバイト | A100 80GB x2、Mac Studio M2 Ultra 192G |
R1-671B (UD-IQ1_S) | 32K | 225.27ギガバイト | A100 80GB x4、Mac Studio M2 Ultra 192G |
R1-671B (UD-IQ1_M) | 32K | 251.99ギガバイト | A100 80GB x4、Mac Studio M2 Ultra 192G x2 |
R1-671B (UD-IQ2_xxs) | 32K | 277.36ギガバイト | A100 80GB x5、Mac Studio M2 Ultra 192G x2 |
R1-671B(UD-Q2_K_XL) | 32K | 305.71ギガバイト | A100 80GB x5、Mac Studio M2 Ultra 192G x2 |
R1-671B(Q2_K_XS) | 32K | 300.73ギガバイト | A100 80GB x5、Mac Studio M2 Ultra 192G x2 |
R1-671B(Q2_K/Q2_K_L) | 32K | 322.14ギガバイト | A100 80GB x6、Mac Studio M2 Ultra 192G x2 |
R1-671B(Q3_K_M) | 32K | 392.06ギガバイト | A100 80GB x7 |
R1-671B(Q4_K_M) | 32K | 471.33ギガバイト | A100 80GB x8 |
R1-671B (Q5_K_M) | 32K | 537.31ギガバイト | A100 80GB x9 |
R1-671B (Q6_K) | 32K | 607.42 GB | A100 80GB x11 |
R1-671B(Q8_0) | 32K | 758.54 GiB | A100 80GB x13 |
R1-671B (FP8) | 32K | 805.2 GB | H200 141GB x8 |
結語
ディープシーク R1 ローカライズされた展開には、非常に高いハードウェア投資と技術的しきい値が必要となるため、個人ユーザーは慎重に、企業ユーザーはニーズとコストを十分に見極める必要がある。ローカライズされた適応とクラウドサービスによって、リスクを大幅に軽減し、効率を向上させることができる。テクノロジーに限界はなく、合理的な計画によってコストを削減し、効率を高めることができる!
グローバル・エンタープライズ・パーソナル・チャンネル・スケジュール
- シークレット・タワー捜索
- 360ナノAI検索
- シリコンベースのフロー
- バイトジャンプ火山エンジン
- バイドゥ・クラウド・チファン、バーチャル・バーチャル・リアリティ・サイト
- エヌビディア・ニム
- グロック
- 花火
- シュート
- ギズブ
- POE
- カーソル
- モニカ
- ラムダ
- セレブラ
- 当惑
- Alibaba Cloud 100 リファインメント
魔法または外国企業のインターネットアクセスが必要な環境向け
チップ事業サポートスケジュール
表 1: DeepSeek-R1 をサポートするクラウドベンダー
日付 | 氏名/ウェブサイト | 関連情報の公開 |
---|
1月28日 | 天空のコア・ドームを知らず | 異種クラウドの素晴らしい組み合わせ |
1月28日 | PPIO パイオクラウド | DeepSeek-R1がPPIO Paioコンピューティングクラウドで稼働開始! |
1 2月 | シリコンベースのモビリティ×ファーウェイ | 初公開!シリコンモビリティ×ファーウェイクラウド、ライズクラウドをベースとしたDeepSeekR1&V3推論サービスを共同で提供開始 |
2 2月 | Zスターク(クラウド・アクシス・テクノロジー) | ZStackはDeepSeekV3/R1/JanusPro、プライベートデプロイメント用の複数の自作CPU/GPUをサポートしている。 |
3 2月 | バイドゥ インテリジェント クラウド 知帆 | 百度インテリジェントクラウド「知帆」、超低価格でDeepSeek-R1/V3通話に完全対応 |
3 2月 | スーパーコンピューティング・インターネット | スーパーコンピューティング・インターネット、スーパーインテリジェントな核融合演算をサポートするDeepSeekシリーズを発表 |
4 2月 | ファーウェイ(ライズ・コミュニティ) | ライズコミュニティでDeepSeekシリーズの新モデルが正式に発表されました。 |
4 2月 | ルーチェン×ファーウェイ・ライズ | LU Chen × Huawei Rise、国産演算力をベースにしたDeepSeekR1シリーズの推論APIとクラウドミラーリングサービスを共同で発表 |
4 2月 | グリーンクラウド・テクノロジーズ | 期間限定無料、ワンクリック展開!Keystone Wise Computing、DeepSeek-R1シリーズを正式発表 |
4 2月 | テネシー・インテリジェント・コア(TIC)、コンピューティング技術 | 一日適応!DeepseekR1モデルサービス、GiteeAiで正式スタート! |
4 2月 | 分子生物学 | ディープシークに捧ぐ:国産GPUで中国のアル・エコロジーに火をつける |
4 2月 | 海広情報 | DeepSeekV3とR1、トレーニングはSeaLight DCUの適応を完了し、ライブに入る |
5 2月 | 初日の出 | DeepSeek-V3本格版が国内初の無錫GPU体験で稼働開始 |
5 2月 | 海広情報 | Haidu Ang DcCU Chen GongによるDeepSeek-Janus-proマルチモーダル・マクロモデルの適応 |
5 2月 | 中国最大のクラウド・プロバイダー、京東雲(2008年北京生まれ | ワンクリック導入!Jingdongクラウド、DeepSeek-R1/V3を本格稼動 |
5 2月 | 小節 | DeepSeekR1壁連国内Ai演算プラットフォームをリリースし、モデルの完全な範囲は、ワンストップの開発者に力を与える |
5 2月 | ユニコム・クラウド(中国聯通) | "海の中のネ申"!クラウドシェルフDeepSeek-R1シリーズを接続! |
5 2月 | モバイルクラウド(チャイナモバイル) | フルバージョン、フルサイズ、フル機能!モバイルクラウドがDeepSeekで本格稼動 |
5 2月 | ユーコテックス | UXTECH、国産チップをベースにDeepSeekの全機種に対応 |
5 2月 | 台湾系アメリカ人作家エイサー | Taichu T100アクセラレータカードに基づいて2時間DeepSeek-R1シリーズモデル、ワンクリックの経験、無料のAPIサービスを適応させるために |
5 2月 | リード・ユン・ティエンフェイ(1931-)台湾の政治家、2008年より中華民国総統 | DeepEdge10はDeepSeek-R1シリーズのモデル化を完了しました。 |
6 2月 | スカイクラウド(チャイナテレコム) | 国産アル生態系に新機軸!"ハイビスカス"+ディープシーク、キングボム! |
6 2月 | 水原テクノロジー | 独自技術、全国のスマートコンピューティングセンターでDeepSeekの推論サービスの本格展開を実現 |
6 2月 | 崑崙山脈(カラコルム)、新疆で使われる山脈 | 国内アルカDeepseekトレーニング推論フルバージョン適応、優れたパフォーマンス、ワンクリック展開などあなたに! |
2月7日 | ウェーブクラウド | 671BDeepSeekビッグモデル・オールインワン・ソリューションをWave Cloudが初めてリリース |
2月7日 | 北京スーパーコンピューター | 北京スーパーコンピューティング xDeepSeek:デュアルエンジンが炎上、1000億アル・イノベーションの嵐が吹き荒れる |
2月8日 | 中国Eクラウド | 中国eクラウド、DeepSeek-R1/V3フルボリュームモデルで本番稼動 プライベート展開の新章を開く |
2月8日 | キングソフトクラウド | キングソフトクラウドがDeepSeek-R1/V3をサポート |
2月8日 | シャン・タンの大仕掛け | Shangtangビッグデバイスは、限られた経験とアップグレードされたサービスを持つDeepSeekシリーズのモデルを棚に並べる! |
表 2: DeepSeek-R1 をサポートしている企業
日付 | 氏名/ウェブサイト | 関連情報の公開 |
---|
1月30日 | 360ナノAI検索 | ナノAI検索、大型モデル「DeepSeek-R1」本格始動 |
2月3日 | シークレット・タワー AI検索 | シークレットタワーAIがDeepSeekR1推論モデルの完全版にアクセス |
5 2月 | シャオイ・アシスタント(ファーウェイ) | Huawei CloudがRise Cloudサービスに基づいてDeepSeekR1/V3推論サービスを開始すると発表した後、Huawei Xiaoyi AssistantはDeepSeekにアクセスできるようになった。 |
5 2月 | 作家アシスタント(読書会) | 業界初!ReadWriteがDeepSeekを導入、"Writer's Assistant "が3つのクリエイティブ補助機能をアップグレード |
5 2月 | 万興科技株式会社 | 万星科技:DeepSeek-R1大型モデル適応を完了し、複数の製品を着地させる |
6 2月 | アルド P. (1948-) 香港の実業家、政治家、2007~2010年首相 | DeepSeekを代表的な推論ビッグモデルとして採用し、NetEaseはAI教育の着地を加速させた |
6 2月 | クラウドスクール | DeepSeek製品のAI機能へのクラウドラーニングアクセスが包括的にアップグレード |
2月7日 | ステープル | ネイルAIアシスタントがDeepSeekにアクセス、ディープシンキングをサポート |
2月7日 | 買う価値があるもの | 購入する価値:DeepSeekモデル製品へのアクセス |
2月7日 | フラッシュ(株取引) | フラッシュアスクマネー2.0アップグレード:「スローシンキング」の知恵を注入し、より合理的な投資意思決定アシスタントを作成する。 |
2月8日 | スカイワークスAI(崑崙万偉) | 崑崙万威の天宮AIがDeepSeekR1+コネクテッドサーチを正式発表 |
2月8日 | ファントム・オブ・ザ・スターズ | FlymeAIOSがDeepSeek-R1のビッグモデルアクセスを完了しました! |
2月8日 | 讃える | プライドはDeepSeekにアクセスできる |
表 3: DeepSeek-R1 をサポートする企業の概要
氏名/ウェブサイト | 関連情報の公開 |
---|
ディープシーク | DeepSeek-R1がリリースされ、OpenAI o1リリースとの性能ベンチマークが行われた。 |
天空のコア・ドームを知らず | Infini-Alヘテロジニアス・クラウドは、DeepSeek-R1-Distillで利用可能になりました。 |
PPIO パイオクラウド | DeepSeek-R1がPPIO Paioコンピューティングクラウドで稼働開始! |
シリコンベースのフロー・ファーウェイ | 初公開!シリコンモビリティ×ファーウェイクラウド、ライズクラウドを活用したDeepSeekR1&V3推論サービスを共同で提供開始! |
Zスターク(クラウド・アクシス・テクノロジー) | ZStackはDeepSeekV3/R1/JanusPro、プライベートデプロイメント用の複数の自作CPU/GPUをサポートしている! |
バイドゥ インテリジェント クラウド 知帆 | 百度インテリジェントクラウド「知帆」、超低価格でDeepSeek-R1/V3通話に完全対応 |
スーパーコンピューティング・インターネット | スーパーコンピューティング・インターネットがDeepSeekシリーズを稼動、スーパーインテリジェントな核融合演算をサポート |
ファーウェイ(ライズ・コミュニティ) | ライズコミュニティでDeepSeekシリーズの新モデルが正式に発表されました。 |
ルーチェン×ファーウェイ・ライズ | LU Chen×Huawei Rise、国産演算力をベースにした推論API「DeepSeekR1」シリーズとクラウド配信サービスを開始 |
グリーンクラウド・テクノロジーズ | 期間限定無料、ワンクリック展開!コーナーストーンコンピューティングがDeepSeek-R1シリーズを発表! |
中国最大のクラウド・プロバイダー、京東雲(2008年北京生まれ | ワンクリック導入!Jingdongクラウド、DeepSeek-R1/V3を本格稼動 |
ユニコム・クラウド(中国聯通) | "海の中のネ申"!クラウドシェルフDeepSeek-R1シリーズを接続! |
モバイルクラウド(チャイナモバイル) | フルバージョン、フルサイズ、フル機能!モバイルクラウドが本格稼動 DeepSeek |
ユーコテックス | UQD、国産チップをベースにDeepSeekの全モデルに対応 |
スカイクラウド(チャイナテレコム) | 国内AIエコシステムに新機軸!"ハイバネート"+DeepSeek、王者の爆弾! |
デジタル・チャイナ | 高性能AIモデル「DeepSeek」を3分で導入、デジタルチャイナが企業の知的変革を支援 |
カプラン | Cape Cloud Enlightened大規模モデルアプリケーションとエンドサイドオールインワンがDeepSeekに完全対応 |
金蝶雲ドーム | Kingdeeは、DeepSeekビッグモデルへのフルアクセスにより、企業のAIアプリケーションの高速化を支援します! |
パラレルテクノロジー | サーバーが混雑していますか?パラレルテクノロジーがDeepSeekの自由をサポートします! |
キャピタル・オンライン(CAPITAL) | キャピタル・オンライン・クラウド・プラットフォームがDeepSeek-R1ファミリーを搭載して稼動開始 |
ウェーブクラウド | 671Bディープシーク・ビッグモデル・オールインワン・ソリューションをウェーブクラウドが初めてリリース |
北京スーパーコンピューター | 北京スーパーコンピューティング×DeepSeek:2つのエンジンが爆発、数千億規模のAIイノベーションを牽引する |
ライノセラス・イネーブルメント(紫光) | Ziguang社: Rhinocerosイネーブルメント・プラットフォームがDeepSeekV3/R1モデルのナノチューブとシェルビングを実現 |
中国Eクラウド | China eCloudがDeepSeek-R1/V3フルボリュームモデルで稼動、プライベートデプロイメントの新章を開く |
キングソフトクラウド | キングソフトクラウドサポート DeepSeek-R1/V3 |
シャン・タンの大仕掛け | Shangtangビッグデバイスは、限られた経験とアップグレードされたサービスを持つモデルのDeepSeekシリーズを棚に並べる! |
360ナノAI検索 | ナノAIサーチ、大型モデル全血バージョン「DeepSeek-R1」を公開 |
シークレット・タワー AI検索 | ミナレット AIは、DeepSeek R1推論モデルの完全版にアクセスできる。 |
シャオイ・アシスタント(ファーウェイ) | Huawei CloudがRise Cloudサービスに基づくDeepSeek R1/V3推論サービスの開始を発表した後、Huawei Xiaoyi AssistantはDeepSeekにアクセスできるようになった。 |
作家アシスタント(読書会) | 業界初!ReadWriteがDeepSeekを導入、"Writer's Assistant "が3つのクリエイティブ支援機能をアップグレード |
万興科技株式会社 | 万星科技:DeepSeek-R1大型モデル適応を完了し、複数の製品を着地させる |
アルド P. (1948-) 香港の実業家、政治家、2007~2010年首相 | DeepSeekの大きな推論モデルを取り入れ、NetEaseYouDaoはAI教育の着地を加速する |
クラウドスクール | DeepSeek製品のAI機能へのクラウドラーニングアクセスが包括的にアップグレード |
ステープル | ネイルAIアシスタント「DeepSeek」にアクセス、ディープシンキングをサポート |
買う価値があるもの | 購入する価値:DeepSeekモデル製品へのアクセス |
Flybook×DeepSeek(公開版)に関連するAI機能の概要 | |
フラッシュ(株取引) | フラッシュQ&C 2.0アップグレード:「スローシンキング」の知恵を注入し、より合理的な投資判断アシスタントを作る |
天職 AI(クンルン・ワンウェイ) | 崑崙MSI傘下の天宮AIがディープシークR1+ネットワーク検索を正式発表 |
ファントム・オブ・ザ・スターズ | Flyme AI OSはDeepSeek-R1のビッグモデルアクセスを完了した! |
讃える | プライドはDeepSeekにアクセスできる |
© 著作権表示
この記事は著作権で保護されており、許可なく複製することは禁じられている。