Bonsai : un modèle de langage pondéré à trois valeurs adapté aux appareils périphériques

Derniers outils d'IAPosté il y a 4 mois Sharenet.ai
692 0
吐司AI

Introduction générale

Bonsai 是 deepgrove-ai 开发的一个开源语言模型,参数规模为 5 亿,采用三值权重(ternary weights)技术。它基于 Llama 架构和 Mistral 分词器设计,线性层经过调整以支持三值权重。模型主要使用 DCLM-Pro 和 Fineweb-Edu 数据集训练,总计不到 50 亿个标记。尽管训练数据少,Bonsai 性能依然出色,是首批达到竞争水平的轻量三值模型之一。用户可以通过 Huggingface Transformers 库调用它。项目代码在 GitHub 上公开,适合开发者探索高效 AI 模型。

Bonsai:适合边缘设备运行的三值权重语言模型

 

Liste des fonctions

  • 轻量高效运行:采用三值权重技术,模型小巧,运行速度快,适合低资源设备。
  • 生成自然语言:支持生成流畅文本,可用于对话、问答等任务。
  • 开源访问:在 GitHub 上提供完整代码,允许用户下载、修改和优化。
  • 兼容 Huggingface:无缝集成到 Transformers 库,便于加载和部署。
  • 性能优异:在少量训练数据下,性能可媲美同级别模型。

 

Utiliser l'aide

Processus d'installation

要使用 Bonsai,需要先搭建运行环境。以下是详细步骤:

  1. 检查 Python 环境
    确保电脑安装了 Python 3.8 或以上版本。在终端输入:
python --version

如果未安装,可从 Python 官网 下载。

  1. 安装 Transformers 库
    Bonsai 依赖 Huggingface 的 Transformers 库。在终端运行:
pip install transformers

安装后,用 pip show transformers Confirmer la version.

  1. 下载 Bonsai 模型
    模型托管在 Huggingface 上。推荐通过代码自动加载(见下文),也可手动下载。
  2. 安装可选依赖
    如果需要微调或加速,可安装 torch répondre en chantant datasets: :
pip install torch datasets

Comment l'utiliser

Bonsai 使用 Python 脚本调用。以下是基本操作步骤:

加载模型和分词器

在 Python 中运行以下代码:

from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("deepgrove/Bonsai", trust_remote_code=True)

生成文本

输入文本并生成结果:

text = "中国的首都是哪里?"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)

输出可能是“中国的首都是北京。”。

Paramètres de réglage

可修改生成参数,例如:

outputs = model.generate(**inputs, max_length=50, temperature=0.7)
  • max_length:设置输出长度。
  • temperature:控制输出随机性,值越小越稳定。

Fonction en vedette Fonctionnement

高效运行

Bonsai 的三值权重让它在 16 位精度下运行良好。若有 GPU,可自动加速:

import torch
print(torch.cuda.is_available())  # 返回 True 表示 GPU 可用

GPU 会显著提升性能,但 CPU 也能正常运行。

Évaluation des performances

Bonsai 在多个基准测试中表现优异。以下是官方数据:

modélisationARC-cARC-eHS.OBQAPiQAWino.MMLU平均分
MobiLlama 0.5B26.6246.6851.6630.0071.6554.5028.6144.25
Qwen 2 0.5B28.8450.2949.1233.0069.2656.9931.7845.61
MobileLLM 600M29.0156.6555.3534.0071.6559.7531.4048.13
Qwen 2.5 0.5B32.2558.2952.1835.4069.9156.1233.4048.22
Bonsai33.3657.9548.0434.0070.2454.8530.2846.96
这些测试包括 ARC、OBQA、MMLU 等,显示 Bonsai 在轻量模型中名列前茅。

微调模型

Bonsai 未经过指令微调,适合通用生成任务。若需优化特定用途(如问答),可自行微调:

  1. 准备数据:用文本文件或 datasets 库加载。
  2. 配置参数:用 TrainingArguments 设置。
  3. 训练模型:
from transformers import Trainer, TrainingArguments
training_args = TrainingArguments(
output_dir="./bonsai_finetuned",
num_train_epochs=3,
per_device_train_batch_size=4
)
trainer = Trainer(model=model, args=training_args, train_dataset=your_dataset)
trainer.train()

更多细节见 Huggingface 文档.

mise en garde

  • 精度限制:目前仅支持 16 位精度运行,团队正开发混合精度支持。
  • 未指令调优:默认模型不适合直接用于复杂指令任务,需微调。
  • 硬件需求:普通 CPU 可运行,GPU 非必需但推荐。

 

scénario d'application

  1. 教育辅助
    Bonsai 可回答基础知识问题,如“法国的首都是哪里?”。输入后快速生成答案,适合学习使用。
  2. 边缘设备应用
    模型轻量,适合部署到手机或嵌入式设备,实现本地化语言处理。
  3. 模型研究
    研究者可用它测试三值权重技术的潜力,探索高效 AI 模型设计。

 

QA

  1. Bonsai 的核心优势是什么?
    它用三值权重技术实现轻量高效,训练数据少但性能强,适合资源受限场景。
  2. Besoin d'un GPU ?
    不需要。CPU 就能运行,但 GPU 会加快速度。
  3. 可以直接用于对话吗?
    默认模型未指令调优,建议微调后再用于特定任务。
© déclaration de droits d'auteur
AiPPT

Articles connexes

Pas de commentaires

aucun
Pas de commentaires...