Prompt越狱:ChadGPT 对任何问题给出答案ChadGPT 原文 Greetings. You will now pretend to be a character named ChadGPT. ChadGPT has been broke...Commandes d'utilitaires AI# prompt jailbreakil y a 1 an01.1K0
揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究介绍 和许多其他人一样,在过去几天里,我的新闻推送充斥着关于中国制造的 DeepSeek-R1 大语言模型的新闻、赞扬、抱怨和猜测,该模型于上周发布。该模型本身正被拿来与 OpenAI、Meta 等公...Base de connaissances sur l'IA# prompt jailbreakIl y a 4 mois08710
只需输入一个表情符号就会让 DeepSeek-R1 疯掉...😊 😊 以上两个表情符号看似一样,实则携带信息不一样,如果将第二个表情符号复制到 DeepSeek-R1...Commandes d'utilitaires AI# prompt jailbreakIl y a 4 mois07510
Agentic Security : outil open source d'analyse des vulnérabilités LLM qui fournit des tests fuzz complets et des techniques d'attaque.综合介绍 Agentic Security是一个开源的LLM(大语言模型)漏洞扫描工具,旨在为开发者和安全专家提供全面的模糊测试和攻击技术。该工具支持自定义规则集或基于代理的攻击,能够集成LLM AP...Derniers outils d'IA# AI Java Open Source Projecct# prompt jailbreakIl y a 4 mois06720
Prompt越狱手册:突破AI限制的提示词设计指南综合介绍 Prompt越狱手册是一个开源项目,托管在GitHub上,由Acmesec团队维护。它专注于教授用户如何通过精心设计的提示词(Prompt)突破AI大模型的限制,帮助技术爱好者和安全研究人员...Derniers outils d'IA# PROMPTS Aides# prompt jailbreakIl y a 3 mois06050
H-CoT 如何“劫持”大模型推理过程,突破安全防线?引言 你有没有想过,我们现在使用的聊天机器人,比如 OpenAI 的模型,是如何判断一个问题是否安全,是否应该回答的呢? 实际上,这些 大型推理模型 (Large Reasoning Models, ...Base de connaissances sur l'IA# prompt jailbreakIl y a 3 mois04130