シャレーネット

ポーンをアーチにしてキングをシェアするデイ!
Open MCP Client:网页版MCP客户端,快速连接任意MCP服务

オープンMCPクライアント:ウェブベースのMCPクライアントで、あらゆるMCPサービスに素早く接続できます。

概要 Open MCP Clientはオープンソースのツールで、最大の特徴はMCP(Model Context Protocol)クライアントのウェブバージョンを提供することです。また ...
3ヶ月前
0826
生成简单产品需求文档(PRD)的提示词

簡単な製品要件文書(PRD)を作成するためのヒントワード

提示词 你是一名高级产品经理,你的目标是根据以下说明创建一份全面的产品需求文档(PRD)。 <prd_instructions> {{PROJECT_DESCRIPTION}} <...
3ヶ月前
0489
DeepSearch/DeepResearch中最优文本段选择和URL重排

DeepSearch/DeepResearchにおける最適なテキストセグメントの選択とURLの再配置

如果你已经读过 Jina 上一篇经典长文《DeepSearch/DeepResearch 的设计与实现》,那么不妨再深挖一些能大幅提升回答质量的细节。这次,我们将重点关注两个细节: 从长网页提取最优文...
3ヶ月前
0527
VACE:视频创作和编辑的开源模型(未开放)

VACE: ビデオ制作・編集のためのオープンソースモデル(オープンではない)

総合紹介 VACEはAlitongyi Visual Intelligence Lab (ali-vilab)によって開発されたオープンソースプロジェクトで、ビデオの作成と編集に焦点を当てています。リファレンスに基づいた動画の生成、既存の動画コンテンツの編集、ローカライズの修正など、様々な機能を統合したオールインワンツールです。
3ヶ月前
0546
带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力

Gemini 2.0 Flashのネイティブな画像生成および編集機能を体験してください。

在 去年 12 月,Gemini 2.0 Flash 首次向部分测试人员展示了其原生图像输出功能。目前,开发者可以在 Google AI Studio 支持的所有区域 体验这项新功能。开发者可以通过 ...
3ヶ月前
0584
Ollama API 使用指南

Ollama API ユーザーガイド

简介 Ollama 提供了强大的 REST API,使开发者能够方便地与大语言模型进行交互。通过 Ollama API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。本文将...
3ヶ月前
0579
Ollama 自定义在 GPU 中运行

GPUで動作するOllamaのカスタマイズ

Windows 以下以 Windows 系统为例,介绍如何自定义在 GPU 中运行 Ollama。 Ollama 默认情况下使用 CPU 进行推理。为了获得更快的推理速度,可以配置 Ollama 使用...
3ヶ月前
0561
Ollama 自定义模型存储位置

Ollamaカスタマイズモデル保管場所

以 Windows 系统为例,Ollama 拉取的模型默认存储在 C 盘中,若需要拉取多个模型,则让 C 盘爆满,影响 C 盘存储空间。 因此,本节将介绍如何在 Windows、Linux 和 Mac...
3ヶ月前
0583
Ollama 自定义导入模型

Ollamaカスタムインポートモデル

简介 本节学习如何使用 Modelfile 来自定义导入模型,主要分为以下几个部分: 从 GGUF 导入 从 Pytorch 或 Safetensors 导入 由模型直接导入 自定义 Prompt ...
3ヶ月前
0466
Ollama 安装与配置 - docker 篇

Ollamaのインストールと設定 - dockerの記事

简介 本节学习如何在 Docker 中完成 Ollama 的安装与配置。 Docker是一种虚拟化的容器技术,其基于镜像,可以秒级启动各种容器。其中的每一种容器都是一个完整的运行环境,可以实现容器之间...
3ヶ月前
0544