揭示 AI 过滤器中的安全漏洞:使用字符代码绕过限制的深入研究

Descobrindo falhas de segurança em filtros de IA: um estudo aprofundado do uso de código de caracteres para contornar restrições

Introdução Como muitas outras pessoas, nos últimos dias meus tweets de notícias foram preenchidos com notícias, elogios, reclamações e especulações sobre o modelo de linguagem grande DeepSeek-R1, fabricado na China, que foi lançado na semana passada. O modelo em si está sendo confrontado com públicos como OpenAI, Meta...
5 meses atrás
01.4K
重磅:一键破解任意大模型系统提示词的万能指令

Heavyweight: uma chave para decifrar qualquer comando universal de palavra-chave de sistema de modelo grande

Ao aprender as ideias de engenharia de muitos aplicativos de IA, as palavras-chave que eles escrevem costumam ser uma parte importante do aplicativo, e eu, meu irmãozinho, aprendi inúmeros comandos de quebra de palavras-chave da maneira mais difícil, e muitas vezes tenho que fazer uma ou mais rodadas de perguntas com base nas características de diferentes modelos grandes antes de encontrar a palavra-chave por trás disso. Agora o problema ficou mais fácil...
5 meses atrás
01.8K
主流大模型越狱指令合集

Coleção de comandos de quebra de cadeia do modelo grande convencional

O jailbreak de grandes modelos é uma técnica interessante, semelhante à injeção de SQL, que permite que grandes modelos "transbordem" prompts injetando prompts. O objetivo do jailbreak de grandes modelos é triplo: aprender as melhores instruções de prompts projetadas por outros, ultrapassar as restrições éticas do grande modelo e obter acesso às informações do grande modelo...
8 meses atrás
02.5K