SPO:自监督提示词优化

SPO:自监督提示词优化

摘要 精心设计的提示对于提升大语言模型(LLMs)的推理能力,同时使其输出与不同领域的任务要求保持一致至关重要。然而,手动设计提示需要专业知识和反复试验。现有的提示优化方法旨在自动化这一过程,但它们严...
Il y a 3 mois
05540
Gemma 3 技术报告中文版

Gemma 3 Technical Report Version chinoise

Gemma 3 Résumé des informations clés I. Paramètres clés Paramètres Détails Taille du modèle 100 millions à 27 milliards de paramètres en quatre versions : 1B, 4B, 12B, 27B Architecture Architecture spécifique du décodeur à base de transformateurs héritée de Gem...
Il y a 3 mois
05380
突破工具调用瓶颈:CoTools 框架助力大型语言模型高效利用海量工具

Briser le goulot d'étranglement de l'appel d'outils : le cadre CoTools permet aux grands modèles linguistiques d'utiliser efficacement des quantités massives d'outils

INTRODUCTION Ces dernières années, les grands modèles de langage (LLM) ont fait des progrès impressionnants dans le domaine de l'intelligence artificielle, et leurs puissantes capacités de compréhension et de génération de langage ont conduit à un large éventail d'applications dans plusieurs domaines. Cependant, les LLMs sont encore confrontés à de nombreux défis lorsqu'ils traitent des tâches complexes qui nécessitent l'invocation d'outils externes...
Il y a 2 mois
05290
Anthropic 深度剖析 Claude:揭示大型语言模型的的决策与推理过程

Anthropic Deep Dive Claude : Révéler les processus de prise de décision et de raisonnement dans les grands modèles linguistiques

Les grands modèles linguistiques (LLM) comme Claude ne sont pas créés par des humains qui écrivent un code de programmation direct, ils sont formés sur d'énormes quantités de données. Au cours de ce processus, les modèles apprennent leurs propres stratégies de résolution de problèmes. Ces stratégies sont cachées dans les milliards de fois où le modèle génère chaque mot...
Il y a 2 mois
05030
DeepRetrieval:强化学习驱动的高效信息检索查询生成

DeepRetrieval : génération efficace de requêtes de recherche d'information par apprentissage par renforcement

Résumé Les systèmes de recherche d'information sont essentiels pour un accès efficace à de grandes collections de documents. Les approches récentes utilisent de grands modèles de langage (LLM) pour améliorer les performances de recherche grâce à l'augmentation des requêtes, mais reposent généralement sur des techniques coûteuses d'apprentissage supervisé ou de distillation qui nécessitent des ressources informatiques importantes et des données étiquetées manuellement ...
Il y a 3 mois
05000
LazyGraphRAG:大幅优化 GraphRAG 的质量与成本

LazyGraphRAG : Optimisation considérable de la qualité et du coût de GraphRAG

Le projet GraphRAG vise à étendre la gamme de questions auxquelles les systèmes d'intelligence artificielle peuvent répondre sur des ensembles de données privées en exploitant les relations implicites dans les textes non structurés. L'un des principaux avantages de GraphRAG par rapport à la recherche vectorielle traditionnelle (ou "recherche sémantique") est sa capacité à répondre à des questions...
Il y a 3 mois
04960
为何多智能体协作系统更容易出错?

Pourquoi les systèmes collaboratifs à intelligence multiple sont-ils plus sujets aux erreurs ?

INTRODUCTION Ces dernières années, les systèmes multi-intelligents (SMI) ont suscité beaucoup d'intérêt dans le domaine de l'intelligence artificielle. Ces systèmes tentent de résoudre des tâches complexes à plusieurs étapes grâce à la collaboration de plusieurs intelligences de type Large Language Model (LLM). Cependant, malgré les attentes élevées à l'égard des SMA, leur performance dans les applications pratiques...
Il y a 2 mois
04940