Tokenization(分词标记化)

トークン化

各位好,今天我们要探讨大型语言模型(LLM)中的分词技术。遗憾的是,分词在当前顶尖的LLM中是一个比较复杂且棘手的部分,但理解它的某些细节非常必要,因为很多人将LLM的一些缺点归咎于神经网络或其他显得...
4ヶ月前
01.5K0
OpenAI 函数调用(Function calling)

OpenAI 関数呼び出し

OpenAI関数呼び出しV2の特徴 関数呼び出しV2の中核的な目標は、OpenAIのモデルに外界と相互作用する能力を与えることです。
4ヶ月前
07610
多样本(示例)越狱攻击

マルチブック(例)脱獄攻撃

研究人员研究了一种“越狱攻击”技术——这种方法可以被用来绕过大语言模型 (LLM) 开发者设置的安全护栏。这项技术被称为“多样本越狱攻击”,在 Anthropic 自身模型以及其他 AI 公司生产的模...
4ヶ月前
06180
ChatGPT自定义指令常见问题解答

ChatGPT カスタムコマンド FAQ

概述 自定义指令功能让您可以分享您希望ChatGPT在回应中考虑的任何信息。 您的指令将应用于新的对话中。 可用性 所有终端 网络、iOS 和 Android 您的数据的使用方式 您可以随时为...
4ヶ月前
01.2K0
LangGraph:基于有向无环图拓扑的AI Agent构建与执行框架

LangGraph: 有向非循環グラフトポロジーに基づくAIエージェント構築・実行フレームワーク

人工知能(AI)は急速に成長している分野である。言語モデルは、AIエージェントが複雑なタスクを実行し、複雑な意思決定を行えるように進化してきた。しかし、これらのエージェントのスキルが成長し続けるにつれ、それをサポートするインフラは追いつくのに苦労している。 LangGraphは...
4ヶ月前
01.2K0
一文说清楚 知识蒸馏 (Distillation):让“小模型”也能拥有“大智慧”

分かりやすい記事 知識の蒸留(ディスティレーション):「小さなモデル」にも「大きな知恵」を持たせよう。

知識蒸留は、事前に訓練された大きなモデル(すなわち「教師モデル」)から、より小さな「生徒モデル」へと学習を移行させることを目的とした機械学習技術である。蒸留技術は、知的対話、コンテンツ作成、その他の分野のための軽量な生成モデルの開発に役立つ。 最近 ...
4ヶ月前
01.1K0
什么是 Transformer?

トランスフォーマーとは?

Transformer 是一种用于自然语言处理 (NLP) 的深度学习模型架构, 由 Vaswani 等人在 2017 年提出. 它主要用于处理序列到序列的任务, 如机器翻译, 文本生成等. 简单...
4ヶ月前
09320
CoD:密度链

CoD:密度の連鎖

原文:https://arxiv.org/pdf/2309.04269 速读:《从稀疏到密集:使用链式密度提示的GPT-4摘要生成》 收录到:总结知识常用prompts 摘要 在自动文本摘要中,确...
4ヶ月前
07180