Sharenet.ai

Day arching a pawn and sharing for the king!
Open MCP Client:网页版MCP客户端,快速连接任意MCP服务

Open MCP Client: Web-based MCP client to quickly connect to any MCP service.

综合介绍 Open MCP Client 是一个开源工具,最大的亮点是提供网页版 MCP(Model Context Protocol)客户端,让用户无需安装即可连接任意 MCP 服务器进行聊天。它还...
3mos ago
0825
生成简单产品需求文档(PRD)的提示词

Tip words for generating a simple product requirements document (PRD)

Prompt Words You are a senior product manager and your goal is to create a comprehensive product requirements document (PRD) based on the following instructions. {{PROJECT_DESCRIPTION}} &lt...
3mos ago
0489
DeepSearch/DeepResearch中最优文本段选择和URL重排

Optimal Text Segment Selection and URL Rearrangement in DeepSearch/DeepResearch

If you have read Jina's last classic article "Design and Implementation of DeepSearch/DeepResearch", then you may want to dig deeper into some details that can greatly improve the quality of answers. This time, we will focus on two details: extracting optimal text from long web pages...
3mos ago
0526
VACE:视频创作和编辑的开源模型(未开放)

VACE: Open source model for video authoring and editing (not open)

Comprehensive Introduction VACE is an open source project developed by Alitongyi Visual Intelligence Lab (ali-vilab), focusing on video creation and editing. It is an all-in-one tool that integrates a variety of functions, such as generating videos based on references, editing existing video content, localization modifications, and other...
3mos ago
0546
带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力

Take a tour of Gemini 2.0 Flash's native image generation and editing capabilities.

在 去年 12 月,Gemini 2.0 Flash 首次向部分测试人员展示了其原生图像输出功能。目前,开发者可以在 Google AI Studio 支持的所有区域 体验这项新功能。开发者可以通过 ...
3mos ago
0584
Ollama API 使用指南

Ollama API User's Guide

简介 Ollama 提供了强大的 REST API,使开发者能够方便地与大语言模型进行交互。通过 Ollama API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。本文将...
3mos ago
0579
Ollama 自定义在 GPU 中运行

Ollama customization running in GPUs

Windows 以下以 Windows 系统为例,介绍如何自定义在 GPU 中运行 Ollama。 Ollama 默认情况下使用 CPU 进行推理。为了获得更快的推理速度,可以配置 Ollama 使用...
3mos ago
0560
Ollama 自定义模型存储位置

Ollama Custom Model Storage Locations

以 Windows 系统为例,Ollama 拉取的模型默认存储在 C 盘中,若需要拉取多个模型,则让 C 盘爆满,影响 C 盘存储空间。 因此,本节将介绍如何在 Windows、Linux 和 Mac...
3mos ago
0583
Ollama 自定义导入模型

Ollama Custom Import Model

简介 本节学习如何使用 Modelfile 来自定义导入模型,主要分为以下几个部分: 从 GGUF 导入 从 Pytorch 或 Safetensors 导入 由模型直接导入 自定义 Prompt ...
3mos ago
0466
Ollama 安装与配置 - docker 篇

Ollama Installation and Configuration - docker article

简介 本节学习如何在 Docker 中完成 Ollama 的安装与配置。 Docker是一种虚拟化的容器技术,其基于镜像,可以秒级启动各种容器。其中的每一种容器都是一个完整的运行环境,可以实现容器之间...
3mos ago
0544