RLHF
复制页面
文心一言-千帆大模型平台
体验中心
常见问题
大模型技术测试服务协议
账号与权限管理
账号创建与权限分配
通过子账户隔离实现账单隔离
产品简介
什么是百度智能云千帆大模型平台
百度智能云千帆大模型平台产品优势
百度智能云千帆大模型平台常用概念
新手指南
SFT调优快速手册
SFT最佳实践
平台使用快速开始
导入并部署第三方模型
快速导入并部署第三方模型
SQLCoder自定义模型导入·详细操作
模型广场
查看与管理预置模型
预置调用免费模型列表
我的模型
创建我的模型
查看与管理我的模型
Prompt 工程
什么 Prompt 工程
Prompt 模板
Prompt 优化
Prompt 工程使用技巧
Prompt 的使用技巧
基础的 Basic Prompt Framework
丰富的 CRISPE Prompt Framework
轻量化的 Few-shot Prompt
模型服务
应用接入
在线服务
调用统计
模型调优
模型精调
Post-pretrain
什么是 Post-pretrain
创建 Post-pretrain 任务
查看与管理 Post-pretrain
SFT
创建 SFT 任务
查看与管理 SFT 运行
RLHF
什么是 RLHF 训练
创建奖励模型训练任务
查看与管理奖励模型训练运行
创建强化学习训练任务
查看与管理强化学习训练运行
模型评估
创建模型评估任务
查看与管理模型评估任务
模型压缩
创建模型压缩任务
查看模型压缩任务
数据管理
数据回流
数据集对应关系说明
数据集管理
创建数据集
数据分析
导入文本对话数据
导入泛文本无标注数据
导入 query 问题集数据
导入文生图数据
管理数据集版本
导出数据
数据集的其他操作
数据标注
在线标注
众测标注
数据处理
数据清洗
数据增强
知识库
什么是千帆大模型知识库
知识库管理
命中测试
系统配置
计算资源
计费管理
插件编排
什么是插件应用
插件编排使用说明
应用创建
对话场景类应用
生成场景类应用
插件
插件列表
自定义插件
插件开发者文档
API 鉴权及调用
API 介绍
API 列表
API 调用指南
API 调用流程
错误码
API 在线调试
鉴权认证
鉴权介绍
使用网页调试工具获取 access_token
获取 access_token
对话 Chat
Llama-2
Llama-2-7b-chat
Llama-2-13b-chat
Llama-2-70b-chat
ERNIE-Bot 4.0
ERNIE-Bot
ERNIE-Bot-turbo
BLOOMZ-7B
Qianfan-BLOOMZ-7B-compressed
Mistral-7B-Instruct
Qianfan-Chinese-Llama-2-7B
Qianfan-Chinese-Llama-2-13B
Linly-Chinese-LLaMA-2-7B
Linly-Chinese-LLaMA-2-13B
ChatGLM2-6B
ChatGLM2-6B-32K
ChatGLM2-6B-INT4
Baichuan2-13B-Chat
XVERSE-13B-Chat
Falcon-7B
Falcon-40B-Instruct
AquilaChat-7B
RWKV-4-World
RWKV-4-pile-14B
RWKV-Raven-14B
OpenLLaMA-7B
Dolly-12B
MPT-7B-Instruct
MPT-30B-instruct
OA-Pythia-12B-SFT-4
Falcon-180B-Chat
RWKV-5-World
Flan-UL2
续写 Completions
SQLCoder-7B
CodeLlama-7b-Instruct
AquilaCode-multi
Cerebras-GPT-13B
Pythia-12B
GPT-J-6B
GPT-NeoX-20B
GPT4All-J
StarCoder
StableLM-Alpha -7B
Pythia-6.9B
Cerebras-GPT-6.7B
向量 Embeddings
Embedding-V1
bge-large-zh
bge-large-en
图像 Images
Stable-Diffusion-XL
自定义模型调用 API
自定义模型调用 API
续写模式
模型服务
创建服务
查询服务详情
模型管理
获取模型版本详情
获取模型详情
训练任务发布为模型
模型调优
创建训练任务
创建任务运行
获取任务运行详情
停止任务运行
数据管理
创建数据集
发起数据集发布任务
发起数据集导入任务
获取数据集详情
获取数据集状态详情
发起数据集导出任务
删除数据集
获取数据集导出记录
获取数据集导入错误详情
Prompt 工程
Prompt 模板
插件应用
知识库
智慧图问
天气
SDK 参考
千帆 SDK 介绍
SDK 安装及使用流程
对话 Chat
续写 Completions
向量 Embeddings
模型服务
创建服务
查询服务详情
模型管理
获取模型详情
获取模型版本详情
训练任务发布为模型
模型调优
创建训练任务
创建任务运行
获取任务运行详情
停止任务运行
数据管理
创建数据集
发起数据集发布任务
发起数据集导入任务
获取数据集详情
获取数据集状态详情
发起数据集导出任务
删除数据集
获取数据集导出记录
获取数据集导入错误详情
插件应用
知识库
智能图问
天气
价格说明
千帆大模型平台价格文档
RLHF
复制页面
什么是 RLHF 训练
RLHF(Reinforcement Learning from Human Feedback,基于人类反馈的强化学习),一种机器学习方法,它使智能系统能够从环境中学习并最大化特定目标。在RLHF中,通过对同一输入的多个生成结果进行人工排序,获得包含人类偏好反馈的标注数据,从而训练出一个奖励模型(Reward Model)。在强化学习的过程中,奖励模型将对大语言模型的多个生成结果的排序进行判定。最终,强化学习通过更新大模型的参数,使得输出结果符合奖励模型的判定要求。这种方法减轻了传统强化学习中需要大量试错的问题,也降低了完全依赖于人工对所有大模型生成结果进行排序调整反馈的成本,使得智能系统更加高效、快速地学习任务。
RLHF已成功应用于百度智能云千帆大模型平台, 能够生成类似人类的文本并执行各种 语言任务。RLHF使模型能够在大量文本数据语料库上进行训练,并在复杂的语言任务(如语言理解和生成)上取得令人印象深刻的结果。
RLHF的成功取决于人类提供的反馈的质量,根据任务和环境,反馈的质量可能是主观的和可变的。因此,开发有效且可扩展的收集和处理反馈的方法非常重要。
总的来说,RLHF 比传统的机器学习和强化学习提供了更多的指导,能够捕捉到人类偏好的全部内容,从而驱使人工智能系统与人类价值观相一致。即使 RLHF 不能完全解决对内部调整的担忧,它所识别的失败以及它赋予奖励和政策模型的知识也适用于提高社会和合作环境中人工智能的安全性、可靠性和可信度。
收集人类反馈
#
收集人类反馈为RLHF的基础步骤,千帆平台接入多轮对话-排序类和prompt语料数据集,作为奖励模型和强化模型训练的人类反馈。这部分内容主要产生两类模型:
预训练模型:只经过语料库训练而未经过fine-tune的模型;
监督基线模型:在预训练模型基础上使用测试数据集的fine-tune模型。
在初始模型被训练之后,人类训练者提供对模型表现的反馈。他们根据质量或正确性排名不同的模型生成的输出或行为。这些反馈被用来创建强化学习的奖励信号。
奖励模型训练
#
奖励模型(Reward Model, RM)训练的最终目的是刻画模型的输出是否在人类看来表现不错:
输入【提示(prompt),模型生成的文本】,输出表明文本质量的标量数字。
奖励模型接收一系列文本并返回标量的奖励值,数值和人类的偏好相对应。您可以采用端对端的方式用大语言模型建模,或者用模块化的系统建模(如对输出进行排名,再将排名转换为奖励)。奖励数值将用于接入强化模型训练中。
关于千帆的更多操作步骤详细可见
奖励模型训练
。
强化学习训练
#
强化学习(Reinforcement Learning, RL)又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。至少需要以下三个基本要素:
策略(policy):基于该语言模型,接收prompt作为输入,然后输出一系列文本(或文本的概率分布)。
动作空间(action space):词表所有token在所有输出位置的排列组合(单个位置通常有50k左右的token候选)。
奖励函数(reward):基于奖励模型计算得到初始reward,再叠加上一个约束项。
代理(agent)通过与环境的交互来学习策略。代理采取行动(含无动作行动),这些行动会影响代 理所处的环境,而环境进而转换到新的状态并返回奖励。奖励是使强化学习代理能够调整其行动策略的反馈信号,当代理进行训练时,它会调整自己的策略,并采取一系列行动,使其回报最大化。
关于千帆的更多操作步骤详细可见
强化学习训练
。
修改于
2023-11-15 02:43:02
上一页
查看与管理 SFT 运行
下一页
创建奖励模型训练任务