九大主流大模型安全框架深度剖析与对比

Eingehende Analyse und Vergleich von neun Mainstream Big Model Security Frameworks

Mit der raschen Entwicklung und breiten Anwendung von Technologien zur Sprachmodellierung in großem Maßstab rücken deren potenzielle Sicherheitsrisiken zunehmend in den Mittelpunkt des Interesses der Branche. Um diesen Herausforderungen zu begegnen, haben viele der weltweit führenden Technologieunternehmen, Standardisierungsorganisationen und Forschungsinstitute eigene Sicherheitsrahmenwerke entwickelt und veröffentlicht. In diesem Papier werden neun dieser ...
vor 3 Wochen
02240
GPT-4.1 官方提示工程指南(中文版)

GPT-4.1 Offizielles Handbuch für technische Tipps (chinesische Version)

Die GPT-4.1-Modellfamilie bietet im Vergleich zu GPT-4o erhebliche Verbesserungen bei der Codierung, der Einhaltung von Anweisungen und der Verarbeitung von langem Kontext. Insbesondere ist die Leistung bei der Codegenerierung und bei Reparaturaufgaben besser, das Verständnis und die Ausführung komplexer Anweisungen sind genauer, und längere Eingabetexte können effizient verarbeitet werden.
vor 1 Monat
02780
GTR 框架:基于异构图和分层检索的跨表问答新方法

Der GTR-Rahmen: ein neuer Ansatz für tabellenübergreifende Fragen und Antworten auf der Grundlage heterogener Graphen und hierarchischer Abfragen

1 EINLEITUNG In der heutigen Informationsexplosion wird eine große Menge an Wissen in Form von Tabellen in Webseiten, Wikipedia und relationalen Datenbanken gespeichert. Herkömmliche Frage- und Antwortsysteme haben jedoch oft Schwierigkeiten, komplexe Abfragen über mehrere Tabellen hinweg zu bearbeiten, was zu einer großen Herausforderung im Bereich der künstlichen Intelligenz geworden ist. Um diese Herausforderung zu bewältigen, haben Forscher ...
vor 2 Monaten
03590
EQ-Bench 如何评估大型语言模型的情商与创造力

EQ-Bench Wie man emotionale Intelligenz und Kreativität in großen Sprachmodellen bewertet

Da sich die Fähigkeiten von Large Language Models (LLMs) rasch weiterentwickeln, stoßen herkömmliche Benchmark-Tests wie MMLU bei der Unterscheidung von Spitzenmodellen an ihre Grenzen. Wenn man sich nur auf Wissensquizze oder standardisierte Tests verlässt, ist es schwierig geworden, die nuancierten Fähigkeiten von Modellen vollständig zu messen, die in realen Interaktionen entscheidend sind, wie z. B....
vor 2 Monaten
05330
突破工具调用瓶颈:CoTools 框架助力大型语言模型高效利用海量工具

Überwindung des Engpasses beim Aufruf von Werkzeugen: Das CoTools-Framework ermöglicht großen Sprachmodellen die effiziente Nutzung einer großen Anzahl von Werkzeugen

EINLEITUNG In den letzten Jahren haben Large Language Models (LLMs) beeindruckende Fortschritte auf dem Gebiet der Künstlichen Intelligenz (KI) gemacht, und ihre leistungsstarken Sprachverstehens- und -generierungsfähigkeiten haben zu einer Vielzahl von Anwendungen in verschiedenen Bereichen geführt. Allerdings stehen LLMs immer noch vor vielen Herausforderungen, wenn sie komplexe Aufgaben bewältigen müssen, die den Einsatz externer Werkzeuge erfordern...
vor 2 Monaten
04660
uv常用命令大全

gemeinsame uv-Befehle

Im Python-Ökosystem hat es noch nie an Werkzeugen für die Paket- und Umgebungsverwaltung gefehlt, von den klassischen pip und virtualenv über pip-tools und conda bis hin zu den modernen Poetry, PDM und so weiter. Jedes Werkzeug hat sein eigenes Fachgebiet, aber oft...
vor 2 Monaten
05150
为何多智能体协作系统更容易出错?

Warum sind kollaborative Systeme mit mehreren Intelligenzen fehleranfälliger?

EINLEITUNG In den letzten Jahren haben multi-intelligente Systeme (MAS) auf dem Gebiet der künstlichen Intelligenz viel Aufmerksamkeit auf sich gezogen. Diese Systeme versuchen, komplexe, mehrstufige Aufgaben durch die Zusammenarbeit mehrerer Large Language Model (LLM) Intelligenzen zu lösen. Trotz der hohen Erwartungen, die an MAS geknüpft werden, ist ihre Leistung in praktischen Anwendungen jedoch...
vor 2 Monaten
04210
Anthropic 深度剖析 Claude:揭示大型语言模型的的决策与推理过程

Anthropic Deep Dive Claude: Aufdeckung von Entscheidungsfindungs- und Argumentationsprozessen in großen Sprachmodellen

Große Sprachmodelle (Large Language Models, LLMs) wie Claude werden nicht von Menschen erstellt, die direkten Programmiercode schreiben, sondern sie werden anhand großer Datenmengen trainiert. In diesem Prozess lernen die Modelle ihre eigenen Problemlösungsstrategien. Diese Strategien sind in den Milliarden von Malen, die das Modell jedes Wort erzeugt, versteckt...
vor 2 Monaten
04340
DeepRetrieval:强化学习驱动的高效信息检索查询生成

DeepRetrieval: Effiziente Generierung von Informationsabfragen durch verstärkendes Lernen

Abstrakt Information Retrieval Systeme sind entscheidend für den effizienten Zugang zu großen Dokumentensammlungen. Jüngste Ansätze verwenden Large Language Models (LLMs), um die Suchleistung durch Abfrageerweiterung zu verbessern. Sie beruhen jedoch in der Regel auf teuren überwachten Lern- oder Destillationstechniken, die erhebliche Rechenressourcen und manuell gelabelte Daten erfordern...
vor 2 Monaten
04290
OpenAI发布:大型语言模型如何监控自身的不当行为

OpenAI release: Wie große Sprachmodelle sich selbst auf Fehlverhalten überwachen

Large Reasoning Models (LLMs) nutzen Schwachstellen aus, wenn sie die Gelegenheit dazu haben. Forschungsergebnisse deuten darauf hin, dass diese Schwachstellen aufgedeckt werden können, indem große Sprachmodelle (LLMs) zur Überwachung ihrer Gedankenketten (CoT) eingesetzt werden. Die Bestrafung von Modellen für "schlechte Gedanken" verhindert die meisten Fehlverhaltensweisen nicht...
vor 2 Monaten
04060
LazyGraphRAG:大幅优化 GraphRAG 的质量与成本

LazyGraphRAG: Drastische Optimierung der Qualität und der Kosten von GraphRAG

Das GraphRAG-Projekt zielt darauf ab, das Spektrum der Fragen zu erweitern, die KI-Systeme auf privaten Datensätzen beantworten können, indem sie implizite Beziehungen in unstrukturiertem Text ausnutzen. Ein wesentlicher Vorteil von GraphRAG gegenüber der traditionellen Vektor-RAG (oder "semantischen Suche") ist die Fähigkeit, Fragen zu...
vor 2 Monaten
04270
DeepSearch/DeepResearch中最优文本段选择和URL重排

Optimale Textsegmentauswahl und URL-Umordnung in DeepSearch/DeepResearch

Wenn Sie den letzten klassischen Artikel von Jina, "Design und Implementierung von DeepSearch/DeepResearch", gelesen haben, möchten Sie vielleicht tiefer in die Details einsteigen, die die Qualität Ihrer Antworten dramatisch verbessern können. Dieses Mal werden wir uns auf zwei Details konzentrieren: die Extraktion von optimalem Text aus langen Webseiten...
vor 3 Monaten
03820
Gemma 3 技术报告中文版

Gemma 3 Technischer Bericht Chinesische Version

Gemma 3 Zusammenfassung der wichtigsten Informationen I. Wichtige Parameter Details Modellgröße 100 Millionen bis 27 Milliarden Parameter in vier Versionen: 1B, 4B, 12B, 27B Architektur Transformator-basierte decoder-spezifische Architektur, die von Gem...
vor 3 Monaten
04760
IDProtector:保护人像照片免受AI生成技术滥用的方法

IDProtector: ein Weg, um Porträts vor dem Missbrauch von KI-Technologie zu schützen

1 Hintergrund und Probleme Mit der rasanten Entwicklung von Technologien der Künstlichen Intelligenz (KI), insbesondere der Weiterentwicklung von Diffusionsmodellen, ist die KI in der Lage, sehr realistische Porträtbilder zu erzeugen. Beispielsweise benötigen Technologien wie InstantID nur ein Foto, um mehrere neue Bilder mit denselben Identifikationsmerkmalen zu erzeugen...
vor 3 Monaten
03590