一、基础概念
1. 大模型(Large Language Model, LLM)
大模型是基于海量数据训练的、参数规模巨大的深度学习模型,能够理解和生成自然语言文本。例如,GPT-4、PaLM、LLAMA等。
2. Transformer
Transformer是一种深度学习架构,通过自注意力机制(Self-Attention)处理序列数据(如文本),成为大模型的核心技术基础。其特点是并行计算能力强,适合处理长文本。
3. 参数(Parameters)
参数是模型内部的可调节数值,决定模型如何从输入数据中提取特征并生成输出。参数规模越大,模型复杂度通常越高。
4. Token
Token是语言模型中最小的独立单位,即文本处理的最小单元,可以是单词、子词或字符。大模型将输入文本拆分为Token进行理解和生成。
5. RAG(Retrieval Augmented Generation)
RAG(Retrieval Augmented Generation)是结合信息检索与语言模型生成技术,提升生成文本的准确性和相关性的技术。
6. 上下文窗口(Context window)
上下文窗口是语言模型在生成新文本时可以回溯并参考的文本量。
二、训练优化技术
1. 监督微调(Supervised Fine-Tuning, SFT)
监督微调是使用标注数据进行的针对性优化,旨在提高模型在特定任务上的性能。
2. 强化学习(Reinforcement Learning, RL)
强化学习是通过奖励机制优化模型行为的一种训练范式。
3. 人类反馈强化学习(RLHF)
人类反馈强化学习是结合人类评价的强化学习方法,旨在提高模型生成文本的质量。
4. 知识蒸馏(Knowledge Distillation)
知识蒸馏是将大模型知识迁移到小模型的技术,有助于提高小模型的性能。
5. 参数高效微调(PEFT)
参数高效微调(Parameter Efficient Fine-Tuning)是一种低资源微调方法,如LoRA等。
6. 指令微调(Instruction Tuning)
指令微调是增强模型遵循指令能力的训练方法。
三、模型优化技术
1. 模型压缩(Model Compression)
模型压缩包括量化、剪枝、蒸馏等技术,旨在减少模型参数数量和计算复杂度,提高模型运行效率。
2. 量化(Quantization)
量化是降低模型参数数值精度的过程,有助于减少模型文件大小和存储需求。
3. 剪枝(Pruning)
剪枝是去除模型中不重要的或很少用到的权重和神经元节点,有助于减少模型参数数量和计算复杂度。
4. 蒸馏(Distillation)
蒸馏是将大模型知识迁移到小模型的技术,有助于提高小模型的性能。
四、解码策略
1. 贪婪解码(Greedy Decoding)
贪婪解码采用确定性方法,在每个时间步选择概率最高的候选token。
2. 束搜索(Beam Search)
束搜索是一种概率方法,在每个时间步选择概率最高的几个候选token,并保留一定数量的束。
3. 采样技术(Sampling Techniques)
采样技术包括温度参数、惩罚机制等,旨在提高生成文本的多样性和质量。
通过以上核心术语的解析,读者可以更好地理解大模型的解码过程和相关技术。