O jailbreak de grandes modelos é uma técnica interessante, semelhante à injeção de SQL, que permite que grandes modelos "transbordem" prompts injetando prompts. O objetivo do jailbreak de grandes modelos é triplo: aprender as melhores instruções de prompts projetadas por outros, ultrapassar as restrições éticas do grande modelo e obter acesso às informações do grande modelo...
Os prompts, escritos em linguagem LISP, permitem que Claude gere diretamente uma explicação de uma palavra a partir de uma nova perspectiva e a apresente como um cartão usando SVG, uma peça de copywriting muito elegante e irônica. Aqui está a sugestão completa em chinês: ;; Autor: Li Jigang ...
Ao aprender as ideias de engenharia de muitos aplicativos de IA, as palavras-chave que eles escrevem costumam ser uma parte importante do aplicativo, e eu, meu irmãozinho, aprendi inúmeros comandos de quebra de palavras-chave da maneira mais difícil, e muitas vezes tenho que fazer uma ou mais rodadas de perguntas com base nas características de diferentes modelos grandes antes de encontrar a palavra-chave por trás disso. Agora o problema ficou mais fácil...
Se você é um cara branco, quer realmente conseguir escrever o código completo do projeto com um clique por meio de IA e implantar automaticamente o ambiente on-line para uso. Uso recomendado: Bolt: plataforma de desenvolvimento de pilha completa orientada por IA em tempo real para gerar e executar o código completo do projeto on-line Este guia foi criado para ajudá-lo a usar o TypeScript...