Open MCP Client:网页版MCP客户端,快速连接任意MCP服务
综合介绍 Open MCP Client 是一个开源工具,最大的亮点是提供网页版 MCP(Model Context Protocol)客户端,让用户无需安装即可连接任意 MCP 服务器进行聊天。它还...
生成简单产品需求文档(PRD)的提示词
提示词 你是一名高级产品经理,你的目标是根据以下说明创建一份全面的产品需求文档(PRD)。 <prd_instructions> {{PROJECT_DESCRIPTION}} <...
DeepSearch/DeepResearch中最优文本段选择和URL重排
如果你已经读过 Jina 上一篇经典长文《DeepSearch/DeepResearch 的设计与实现》,那么不妨再深挖一些能大幅提升回答质量的细节。这次,我们将重点关注两个细节: 从长网页提取最优文...
VACE:视频创作和编辑的开源模型(未开放)
综合介绍 VACE 是由阿里通义视觉智能实验室(ali-vilab)开发的一个开源项目,专注于视频创作与编辑。它是一个全能型工具,集成了多种功能,比如根据参考生成视频、编辑已有视频内容、本地化修改等...
带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力
在 去年 12 月,Gemini 2.0 Flash 首次向部分测试人员展示了其原生图像输出功能。目前,开发者可以在 Google AI Studio 支持的所有区域 体验这项新功能。开发者可以通过 ...
Ollama API 使用指南
简介 Ollama 提供了强大的 REST API,使开发者能够方便地与大语言模型进行交互。通过 Ollama API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。本文将...
Ollama 自定义在 GPU 中运行
Windows 以下以 Windows 系统为例,介绍如何自定义在 GPU 中运行 Ollama。 Ollama 默认情况下使用 CPU 进行推理。为了获得更快的推理速度,可以配置 Ollama 使用...
Ollama 自定义模型存储位置
以 Windows 系统为例,Ollama 拉取的模型默认存储在 C 盘中,若需要拉取多个模型,则让 C 盘爆满,影响 C 盘存储空间。 因此,本节将介绍如何在 Windows、Linux 和 Mac...
Ollama 自定义导入模型
简介 本节学习如何使用 Modelfile 来自定义导入模型,主要分为以下几个部分: 从 GGUF 导入 从 Pytorch 或 Safetensors 导入 由模型直接导入 自定义 Prompt ...
Ollama 安装与配置 - docker 篇
简介 本节学习如何在 Docker 中完成 Ollama 的安装与配置。 Docker是一种虚拟化的容器技术,其基于镜像,可以秒级启动各种容器。其中的每一种容器都是一个完整的运行环境,可以实现容器之间...