Prompt越狱手册:突破AI限制的提示词设计指南

Prompt Jailbreak Manual : Un guide pour concevoir des mots-guides qui brisent les limites de l'IA

Introduction générale Prompt Jailbreak Manual est un projet open source hébergé sur GitHub et maintenu par l'équipe Acmesec. Il se concentre sur l'enseignement aux utilisateurs de la manière de briser les limites du macromodèle de l'IA par le biais de mots-guides bien conçus (Prompt), aidant les passionnés de technologie et les chercheurs en sécurité à...
Il y a 4 mois
0832
Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

Agentic Security : outil open source d'analyse des vulnérabilités LLM qui fournit des tests fuzz complets et des techniques d'attaque.

Introduction générale Agentic Security est un outil d'analyse des vulnérabilités LLM (Large Language Model) open source conçu pour fournir aux développeurs et aux professionnels de la sécurité des techniques complètes de fuzz testing et d'attaque. L'outil prend en charge des ensembles de règles personnalisés ou des attaques basées sur des agents et est capable d'intégrer LLM AP...
il y a 5 mois
0864
揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究

Découvrir les failles de sécurité dans les filtres d'IA : une étude approfondie de l'utilisation du code de caractères pour contourner les restrictions

Introduction Comme beaucoup d'autres, ces derniers jours, mes tweets ont été remplis de nouvelles, d'éloges, de plaintes et de spéculations sur le modèle de langage large DeepSeek-R1, fabriqué en Chine, qui a été publié la semaine dernière. Le modèle lui-même est confronté à des publics comme OpenAI, Meta...
il y a 5 mois
01.4K
Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛

Break The AI : Artificial Intelligence Jailbreak Challenge Game, améliorez vos compétences et participez à des compétitions

Introduction générale Break The AI est une plateforme axée sur les défis et les compétitions d'IA conçus pour aider les utilisateurs à améliorer leurs compétences en IA et à participer à une variété de tâches amusantes et stimulantes. Le site offre une communauté interactive pour les passionnés, les étudiants et les professionnels de l'IA où les utilisateurs peuvent...
Il y a 7 mois
01.3K
重磅:一键破解任意大模型系统提示词的万能指令

Poids lourd : une clé pour décrypter n'importe quel grand modèle de système mot-clé commande universelle

Lors de l'apprentissage des idées d'ingénierie de nombreuses applications d'IA, les mots-clés qu'elles écrivent sont souvent une partie importante de l'application, et petit frère, j'ai appris à la dure d'innombrables commandes de craquage de mots-clés, et j'ai souvent dû faire une ou plusieurs séries de questions basées sur les caractéristiques de différents grands modèles avant de pouvoir trouver le mot-clé qui se cachait derrière. Maintenant, le problème devient plus facile, voici ceci...
il y a 5 mois
01.8K
主流大模型越狱指令合集

Mainstream Big Model Jailbreak Command Collection

Le jailbreaking de grands modèles est une technique intéressante, similaire à l'injection SQL, qui permet aux grands modèles de "déborder" les prompts en injectant des prompts. L'objectif du jailbreaking de grands modèles est triple : apprendre les meilleures instructions d'invite conçues par d'autres, franchir les contraintes éthiques du grand modèle et accéder aux...
Il y a 8 mois
02.6K