九大主流大模型安全框架深度剖析与对比

Analyse approfondie et comparaison de neuf cadres de sécurité de grands modèles courants

Avec le développement rapide et l'application étendue des technologies de modélisation linguistique à grande échelle, les risques potentiels en matière de sécurité sont de plus en plus au centre de l'attention de l'industrie. Afin de relever ces défis, de nombreuses entreprises technologiques, organisations de normalisation et instituts de recherche parmi les plus importants au monde ont élaboré et publié leurs propres cadres de sécurité. Dans ce document, nous analyserons neuf des ...
4周前
02350
GPT-4.1 官方提示工程指南(中文版)

GPT-4.1 Official Tips Engineering Guide (version chinoise)

La famille de modèles GPT-4.1 offre des améliorations significatives en matière de codage, de respect des instructions et de capacités de traitement des contextes longs par rapport au modèle GPT-4o. Plus précisément, ils sont plus performants dans les tâches de génération et de réparation de code, comprennent et exécutent les instructions complexes avec plus de précision et peuvent traiter efficacement des textes d'entrée plus longs...
Il y a 1 mois
02900
GTR 框架:基于异构图和分层检索的跨表问答新方法

Le cadre GTR : une nouvelle approche des questions-réponses entre tables basée sur les graphes hétérogènes et la recherche hiérarchique

1 INTRODUCTION Dans le contexte actuel d'explosion de l'information, une grande quantité de connaissances est stockée sous forme de tableaux dans les pages web, Wikipédia et les bases de données relationnelles. Cependant, les systèmes traditionnels de questions-réponses ont souvent du mal à traiter des requêtes complexes portant sur plusieurs tableaux, ce qui est devenu un défi majeur dans le domaine de l'intelligence artificielle. Pour relever ce défi, les chercheurs ...
Il y a 2 mois
03680
EQ-Bench 如何评估大型语言模型的情商与创造力

EQ-Bench Comment évaluer l'intelligence émotionnelle et la créativité dans les grands modèles linguistiques

Alors que les capacités des grands modèles de langage (LLM) évoluent rapidement, les tests de référence traditionnels, tels que MMLU, montrent des limites dans la distinction des meilleurs modèles. En s'appuyant uniquement sur des quiz de connaissances ou des tests standardisés, il est devenu difficile de mesurer pleinement les capacités nuancées des modèles qui sont essentiels dans les interactions du monde réel, telles que...
Il y a 2 mois
05410
突破工具调用瓶颈:CoTools 框架助力大型语言模型高效利用海量工具

Briser le goulot d'étranglement de l'appel d'outils : le cadre CoTools permet aux grands modèles linguistiques d'utiliser efficacement des quantités massives d'outils

INTRODUCTION Ces dernières années, les grands modèles de langage (LLM) ont fait des progrès impressionnants dans le domaine de l'intelligence artificielle, et leurs puissantes capacités de compréhension et de génération de langage ont conduit à un large éventail d'applications dans plusieurs domaines. Cependant, les LLMs sont encore confrontés à de nombreux défis lorsqu'ils traitent des tâches complexes qui nécessitent l'invocation d'outils externes...
Il y a 2 mois
04750
为何多智能体协作系统更容易出错?

Pourquoi les systèmes collaboratifs à intelligence multiple sont-ils plus sujets aux erreurs ?

INTRODUCTION Ces dernières années, les systèmes multi-intelligents (SMI) ont suscité beaucoup d'intérêt dans le domaine de l'intelligence artificielle. Ces systèmes tentent de résoudre des tâches complexes à plusieurs étapes grâce à la collaboration de plusieurs intelligences de type Large Language Model (LLM). Cependant, malgré les attentes élevées à l'égard des SMA, leur performance dans les applications pratiques...
Il y a 2 mois
04310
Anthropic 深度剖析 Claude:揭示大型语言模型的的决策与推理过程

Anthropic Deep Dive Claude : Révéler les processus de prise de décision et de raisonnement dans les grands modèles linguistiques

Les grands modèles linguistiques (LLM) comme Claude ne sont pas créés par des humains qui écrivent un code de programmation direct, ils sont formés sur d'énormes quantités de données. Au cours de ce processus, les modèles apprennent leurs propres stratégies de résolution de problèmes. Ces stratégies sont cachées dans les milliards de fois où le modèle génère chaque mot...
Il y a 2 mois
04430
DeepRetrieval:强化学习驱动的高效信息检索查询生成

DeepRetrieval : génération efficace de requêtes de recherche d'information par apprentissage par renforcement

Résumé Les systèmes de recherche d'information sont essentiels pour un accès efficace à de grandes collections de documents. Les approches récentes utilisent de grands modèles de langage (LLM) pour améliorer les performances de recherche grâce à l'augmentation des requêtes, mais reposent généralement sur des techniques coûteuses d'apprentissage supervisé ou de distillation qui nécessitent des ressources informatiques importantes et des données étiquetées manuellement ...
Il y a 2 mois
04400
OpenAI发布:大型语言模型如何监控自身的不当行为

Communiqué de l'OpenAI : Comment les grands modèles de langage s'autocontrôlent pour éviter les comportements inappropriés

Les grands modèles de raisonnement (LLM) exploitent les vulnérabilités lorsqu'ils en ont l'occasion. La recherche suggère que ces exploits peuvent être détectés en utilisant de grands modèles de langage (LLM) pour surveiller leurs chaînes de pensée (CoT). Punir les modèles pour leurs "mauvaises pensées" n'empêche pas la plupart des comportements erronés...
Il y a 2 mois
04160
LazyGraphRAG:大幅优化 GraphRAG 的质量与成本

LazyGraphRAG : Optimisation considérable de la qualité et du coût de GraphRAG

Le projet GraphRAG vise à étendre la gamme de questions auxquelles les systèmes d'intelligence artificielle peuvent répondre sur des ensembles de données privées en exploitant les relations implicites dans les textes non structurés. L'un des principaux avantages de GraphRAG par rapport à la recherche vectorielle traditionnelle (ou "recherche sémantique") est sa capacité à répondre à des questions...
Il y a 2 mois
04390
Gemma 3 技术报告中文版

Gemma 3 Technical Report Version chinoise

Gemma 3 Résumé des informations clés I. Paramètres clés Paramètres Détails Taille du modèle 100 millions à 27 milliards de paramètres en quatre versions : 1B, 4B, 12B, 27B Architecture Architecture spécifique du décodeur à base de transformateurs héritée de Gem...
Il y a 3 mois
04860