Prompt越狱手册:突破AI限制的提示词设计指南

Prompt Jailbreak Manual: A Guide to Designing Prompt Words That Break AI Limitations (en inglés)

Introducción General Prompt Jailbreak Manual es un proyecto de código abierto alojado en GitHub y mantenido por el equipo de Acmesec. Se centra en enseñar a los usuarios cómo romper los límites del macromodelo de IA a través de palabras de aviso bien diseñadas (Prompt), ayudando a los entusiastas de la tecnología y los investigadores de seguridad....
hace 4 meses
0839
Agentic Security:开源的LLM漏洞扫描工具,提供全面的模糊测试和攻击技术

Agentic Security: herramienta de escaneo de vulnerabilidades LLM de código abierto que proporciona pruebas fuzz y técnicas de ataque exhaustivas.

Introducción general Agentic Security es una herramienta de escaneo de vulnerabilidades LLM (Large Language Model) de código abierto diseñada para proporcionar a los desarrolladores y profesionales de la seguridad pruebas fuzz completas y técnicas de ataque. La herramienta admite conjuntos de reglas personalizadas o ataques basados en agentes y es capaz de integrar LLM AP...
hace 5 meses
0876
揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究

Descubrir agujeros de seguridad en los filtros de IA: estudio en profundidad del uso del código de caracteres para eludir restricciones

Introducción Al igual que muchos otros, en los últimos días mis tweets de noticias han estado llenos de noticias, elogios, quejas y especulaciones sobre el modelo de lenguaje grande DeepSeek-R1 de fabricación china, que fue lanzado la semana pasada. El propio modelo se está enfrentando a públicos como OpenAI, Meta...
hace 5 meses
01.4K
Break The AI:人工智能越狱挑战游戏,提升技能,参与竞赛

Break The AI: Artificial Intelligence Jailbreak Challenge Game, mejora tus habilidades y participa en competiciones

Introducción general Break The AI es una plataforma centrada en retos y competiciones de IA diseñada para ayudar a los usuarios a mejorar sus habilidades de IA y participar en una variedad de tareas divertidas y desafiantes. El sitio ofrece una comunidad interactiva para entusiastas, estudiantes y profesionales de la...
hace 7 meses
01.3K
重磅:一键破解任意大模型系统提示词的万能指令

Peso pesado: una clave para descifrar cualquier sistema de modelos de gran tamaño prompt word universal command

Cuando se aprenden las ideas de ingeniería de muchas aplicaciones de IA, las palabras clave que escriben son a menudo una parte importante de la aplicación, y hermanito he aprendido innumerables comandos de craqueo de palabras clave de la manera difícil, y a menudo tengo que hacer una o más rondas de preguntas basadas en las características de diferentes modelos grandes antes de que pueda encontrar la palabra clave detrás de él. Ahora el problema se hace más fácil, aquí está esto...
hace 5 meses
01.8K
主流大模型越狱指令合集

Colección de comandos Jailbreak para modelos grandes

El jailbreaking de grandes modelos es una técnica interesante, similar a la inyección SQL, que permite a los grandes modelos "desbordar" las instrucciones inyectando instrucciones. El propósito del big model jailbreaking es triple: aprender las mejores instrucciones de prompt diseñadas por otros, traspasar las restricciones éticas del big model y obtener acceso a las...
hace 8 meses
02.6K