Sharenet.ai

日拱一卒,分享为王!
Open MCP Client:网页版MCP客户端,快速连接任意MCP服务

Open MCP Client:网页版MCP客户端,快速连接任意MCP服务

综合介绍 Open MCP Client 是一个开源工具,最大的亮点是提供网页版 MCP(Model Context Protocol)客户端,让用户无需安装即可连接任意 MCP 服务器进行聊天。它还...
3个月前
0826
生成简单产品需求文档(PRD)的提示词

生成简单产品需求文档(PRD)的提示词

提示词 你是一名高级产品经理,你的目标是根据以下说明创建一份全面的产品需求文档(PRD)。 <prd_instructions> {{PROJECT_DESCRIPTION}} <...
3个月前
0489
DeepSearch/DeepResearch中最优文本段选择和URL重排

DeepSearch/DeepResearch中最优文本段选择和URL重排

如果你已经读过 Jina 上一篇经典长文《DeepSearch/DeepResearch 的设计与实现》,那么不妨再深挖一些能大幅提升回答质量的细节。这次,我们将重点关注两个细节: 从长网页提取最优文...
3个月前
0527
VACE:视频创作和编辑的开源模型(未开放)

VACE:视频创作和编辑的开源模型(未开放)

综合介绍 VACE 是由阿里通义视觉智能实验室(ali-vilab)开发的一个开源项目,专注于视频创作与编辑。它是一个全能型工具,集成了多种功能,比如根据参考生成视频、编辑已有视频内容、本地化修改等...
3个月前
0546
带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力

带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力

在 去年 12 月,Gemini 2.0 Flash 首次向部分测试人员展示了其原生图像输出功能。目前,开发者可以在 Google AI Studio 支持的所有区域 体验这项新功能。开发者可以通过 ...
3个月前
0584
Ollama API 使用指南

Ollama API 使用指南

简介 Ollama 提供了强大的 REST API,使开发者能够方便地与大语言模型进行交互。通过 Ollama API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。本文将...
3个月前
0579
Ollama 自定义在 GPU 中运行

Ollama 自定义在 GPU 中运行

Windows 以下以 Windows 系统为例,介绍如何自定义在 GPU 中运行 Ollama。 Ollama 默认情况下使用 CPU 进行推理。为了获得更快的推理速度,可以配置 Ollama 使用...
3个月前
0561
Ollama 自定义模型存储位置

Ollama 自定义模型存储位置

以 Windows 系统为例,Ollama 拉取的模型默认存储在 C 盘中,若需要拉取多个模型,则让 C 盘爆满,影响 C 盘存储空间。 因此,本节将介绍如何在 Windows、Linux 和 Mac...
3个月前
0583
Ollama 自定义导入模型

Ollama 自定义导入模型

简介 本节学习如何使用 Modelfile 来自定义导入模型,主要分为以下几个部分: 从 GGUF 导入 从 Pytorch 或 Safetensors 导入 由模型直接导入 自定义 Prompt ...
3个月前
0466
Ollama 安装与配置 - docker 篇

Ollama 安装与配置 - docker 篇

简介 本节学习如何在 Docker 中完成 Ollama 的安装与配置。 Docker是一种虚拟化的容器技术,其基于镜像,可以秒级启动各种容器。其中的每一种容器都是一个完整的运行环境,可以实现容器之间...
3个月前
0544