Bonsai: um modelo de linguagem ponderada de três valores adequado para operação em dispositivos de borda

吐司AI

Introdução geral

O Bonsai é um modelo de linguagem de código aberto desenvolvido pela deepgrove-ai com um tamanho de parâmetro de 500 milhões, usando pesos ternários. Ele se baseia na arquitetura Llama e Mistral O classificador foi projetado com uma camada linear adaptada para suportar pesos de três valores. O modelo foi treinado principalmente com os conjuntos de dados DCLM-Pro e Fineweb-Edu, totalizando menos de 5 bilhões de tokens. Apesar da pequena quantidade de dados de treinamento, o Bonsai tem um bom desempenho e é um dos primeiros modelos leves de valor triplo a atingir níveis competitivos. Os usuários podem chamá-lo por meio da biblioteca Huggingface Transformers. O código do projeto está disponível publicamente no GitHub para desenvolvedores que exploram modelos eficientes de IA.

Bonsai:适合边缘设备运行的三值权重语言模型

 

Lista de funções

  • Operação leve e eficienteO modelo é pequeno, rápido e adequado para dispositivos com poucos recursos.
  • geração de linguagem naturalSuporte para gerar textos fluentes que podem ser usados para diálogos, perguntas e respostas e outras tarefas.
  • acesso de código abertoO código completo está disponível no GitHub, permitindo que os usuários façam download, modifiquem e otimizem.
  • Compatível com HuggingfaceIntegração perfeita com a biblioteca Transformers para facilitar o carregamento e a implementação.
  • excelente desempenhoDesempenho comparável a modelos comparáveis com uma pequena quantidade de dados de treinamento.

 

Usando a Ajuda

Processo de instalação

Para usar o Bonsai, primeiro você precisa configurar o ambiente de tempo de execução. Veja a seguir as etapas detalhadas:

  1. Verificação do ambiente Python
    Certifique-se de que o Python 3.8 ou posterior esteja instalado em seu computador. Digite no terminal:
python --version

Caso não o tenha, você pode baixá-lo no site do Python.

  1. Instalação da biblioteca de transformadores
    O Bonsai se baseia na biblioteca Transformers da Huggingface. Execute-o em um terminal:
pip install transformers

Após a instalação, use o pip show transformers Confirme a versão.

  1. Download de modelos de bonsai
    O modelo está hospedado no Huggingface. Recomenda-se que eles sejam carregados automaticamente por meio de código (veja abaixo), ou podem ser baixados manualmente.
  2. Instalar dependências opcionais
    Se for necessário um ajuste fino ou uma aceleração, instale o torch responder cantando datasets::
pip install torch datasets

Como usar

O Bonsai é chamado usando um script Python. Aqui estão as etapas básicas:

Modelos de carregamento e divisores

Execute o seguinte código em Python:

from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)

Gerar texto

Insira o texto e gere os resultados:

text = "中国的首都是哪里?"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)

O resultado pode ser "A capital da China é Pequim". .

Parâmetros de ajuste

Os parâmetros de geração podem ser modificados, por exemplo:

outputs = model.generate(**inputs, max_length=50, temperature=0.7)
  • max_lengthComprimento da saída: Defina o comprimento da saída.
  • temperatureControle da aleatoriedade da saída; quanto menor o valor, mais estável ela é.

Operação da função em destaque

operação eficiente

A ponderação de três valores do Bonsai faz com que ele funcione bem com precisão de 16 bits. Ele pode ser acelerado automaticamente se houver uma GPU disponível:

import torch
print(torch.cuda.is_available())  # 返回 True 表示 GPU 可用

A GPU melhorará significativamente o desempenho, mas a CPU funcionará muito bem.

Avaliação de desempenho

O Bonsai tem um bom desempenho em vários benchmarks. Aqui estão os números oficiais:

modelagemARC-cARC-eHS.OBQAPiQAWino.MMLUpontuação média
MobiLlama 0.5B26.6246.6851.6630.0071.6554.5028.6144.25
Qwen 2 0,5B28.8450.2949.1233.0069.2656.9931.7845.61
MobileLLM 600M29.0156.6555.3534.0071.6559.7531.4048.13
Qwen 2.5 0.5B32.2558.2952.1835.4069.9156.1233.4048.22
Bonsai33.3657.9548.0434.0070.2454.8530.2846.96
Esses testes, que incluem ARC, OBQA, MMLU e outros, mostram que o Bonsai está entre os melhores modelos leves.

Ajuste fino do modelo

O Bonsai não é ajustado para tarefas de geração de uso geral. Ele pode ser ajustado se precisar ser otimizado para usos específicos (por exemplo, questionários):

  1. Prepare os dados: use um arquivo de texto ou datasets Carregamento da biblioteca.
  2. Parâmetros de configuração: com TrainingArguments Configuração.
  3. Modelos de treinamento:
from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
output_dir="./bonsai_finetuned",
num_train_epochs=3,
per_device_train_batch_size=4
)
trainer = Trainer(model=model, args=training_args, train_dataset=your_dataset)
trainer.train()

Para obter mais detalhes, consulte Documentação do Huggingface.

advertência

  • Limites de precisãoNo momento, apenas a operação de precisão de 16 bits é suportada, e a equipe está desenvolvendo o suporte à precisão mista.
  • Ajuste não comandadoO modelo padrão não é adequado para uso direto em tarefas de comando complexas e precisa ser ajustado.
  • Requisitos de hardwareCPUs normais podem executá-lo, GPUs não são necessárias, mas recomendadas.

 

cenário do aplicativo

  1. Auxílios educacionais
    O bonsai pode responder a perguntas de conhecimento básico, como "Qual é a capital da França?". O Bonsai pode responder a perguntas de conhecimento básico, como "Onde fica a capital da França?". As respostas são geradas rapidamente após a digitação e são adequadas para o aprendizado.
  2. Aplicativos de dispositivos de borda
    O modelo é leve e adequado para ser implantado em telefones celulares ou dispositivos incorporados para processamento de idiomas localizados.
  3. Estudos de modelagem
    Os pesquisadores podem usá-lo para testar o potencial das técnicas de ponderação de três valores e explorar o design eficiente do modelo de IA.

 

QA

  1. Quais são os principais pontos fortes da Bonsai?
    Ele usa a técnica de ponderação de três valores para obter uma eficiência leve e alta, com menos dados de treinamento, mas com desempenho forte, adequado para cenários com restrição de recursos.
  2. Precisa de uma GPU?
    A CPU não é necessária para executá-lo, mas a GPU o acelerará.
  3. Ele pode ser usado diretamente para o diálogo?
    O modelo padrão não exige ajuste, e é recomendável fazer o ajuste fino antes de usá-lo para uma tarefa específica.
© declaração de direitos autorais
AiPPT

Artigos relacionados

Sem comentários

nenhum
Nenhum comentário...