Prompt Jailbreak Manual: A Guide to Designing Prompt Words That Break AI Limitations (en inglés)
Introducción General Prompt Jailbreak Manual es un proyecto de código abierto alojado en GitHub y mantenido por el equipo de Acmesec. Se centra en enseñar a los usuarios cómo romper los límites del macromodelo de IA a través de palabras de aviso bien diseñadas (Prompt), ayudando a los entusiastas de la tecnología y los investigadores de seguridad....