文心一言-千帆大模型平台
  1. 导入并部署第三方模型
文心一言-千帆大模型平台
  • 体验中心
  • 常见问题
  • 大模型技术测试服务协议
  • 账号与权限管理
    • 账号创建与权限分配
    • 通过子账户隔离实现账单隔离
  • 产品简介
    • 什么是百度智能云千帆大模型平台
    • 百度智能云千帆大模型平台产品优势
    • 百度智能云千帆大模型平台常用概念
  • 新手指南
    • SFT调优快速手册
    • SFT最佳实践
    • 平台使用快速开始
    • 导入并部署第三方模型
      • 快速导入并部署第三方模型
      • SQLCoder自定义模型导入·详细操作
  • 模型广场
    • 查看与管理预置模型
    • 预置调用免费模型列表
  • 我的模型
    • 创建我的模型
    • 查看与管理我的模型
  • Prompt 工程
    • 什么 Prompt 工程
    • Prompt 模板
    • Prompt 优化
    • Prompt 工程使用技巧
      • Prompt 的使用技巧
      • 基础的 Basic Prompt Framework
      • 丰富的 CRISPE Prompt Framework
      • 轻量化的 Few-shot Prompt
  • 模型服务
    • 应用接入
    • 在线服务
    • 调用统计
  • 模型调优
    • 模型精调
      • Post-pretrain
        • 什么是 Post-pretrain
        • 创建 Post-pretrain 任务
        • 查看与管理 Post-pretrain
      • SFT
        • 创建 SFT 任务
        • 查看与管理 SFT 运行
      • RLHF
        • 什么是 RLHF 训练
        • 创建奖励模型训练任务
        • 查看与管理奖励模型训练运行
        • 创建强化学习训练任务
        • 查看与管理强化学习训练运行
    • 模型评估
      • 创建模型评估任务
      • 查看与管理模型评估任务
    • 模型压缩
      • 创建模型压缩任务
      • 查看模型压缩任务
  • 数据管理
    • 数据回流
    • 数据集对应关系说明
    • 数据集管理
      • 创建数据集
      • 数据分析
      • 导入文本对话数据
      • 导入泛文本无标注数据
      • 导入 query 问题集数据
      • 导入文生图数据
      • 管理数据集版本
      • 导出数据
      • 数据集的其他操作
    • 数据标注
      • 在线标注
      • 众测标注
    • 数据处理
      • 数据清洗
      • 数据增强
    • 知识库
      • 什么是千帆大模型知识库
      • 知识库管理
      • 命中测试
  • 系统配置
    • 计算资源
    • 计费管理
    • 插件编排
      • 什么是插件应用
      • 插件编排使用说明
      • 应用创建
        • 对话场景类应用
        • 生成场景类应用
      • 插件
        • 插件列表
        • 自定义插件
        • 插件开发者文档
  • API 鉴权及调用
    • API 介绍
    • API 列表
    • API 调用指南
      • API 调用流程
      • 错误码
      • API 在线调试
    • 鉴权认证
      • 鉴权介绍
      • 使用网页调试工具获取 access_token
      • 获取 access_token
    • 对话 Chat
      • Llama-2
        • Llama-2-7b-chat
        • Llama-2-13b-chat
        • Llama-2-70b-chat
      • ERNIE-Bot 4.0
      • ERNIE-Bot
      • ERNIE-Bot-turbo
      • BLOOMZ-7B
      • Qianfan-BLOOMZ-7B-compressed
      • Mistral-7B-Instruct
      • Qianfan-Chinese-Llama-2-7B
      • Qianfan-Chinese-Llama-2-13B
      • Linly-Chinese-LLaMA-2-7B
      • Linly-Chinese-LLaMA-2-13B
      • ChatGLM2-6B
      • ChatGLM2-6B-32K
      • ChatGLM2-6B-INT4
      • Baichuan2-13B-Chat
      • XVERSE-13B-Chat
      • Falcon-7B
      • Falcon-40B-Instruct
      • AquilaChat-7B
      • RWKV-4-World
      • RWKV-4-pile-14B
      • RWKV-Raven-14B
      • OpenLLaMA-7B
      • Dolly-12B
      • MPT-7B-Instruct
      • MPT-30B-instruct
      • OA-Pythia-12B-SFT-4
      • Falcon-180B-Chat
      • RWKV-5-World
      • Flan-UL2
    • 续写 Completions
      • SQLCoder-7B
      • CodeLlama-7b-Instruct
      • AquilaCode-multi
      • Cerebras-GPT-13B
      • Pythia-12B
      • GPT-J-6B
      • GPT-NeoX-20B
      • GPT4All-J
      • StarCoder
      • StableLM-Alpha -7B
      • Pythia-6.9B
      • Cerebras-GPT-6.7B
    • 向量 Embeddings
      • Embedding-V1
      • bge-large-zh
      • bge-large-en
    • 图像 Images
      • Stable-Diffusion-XL
    • 自定义模型调用 API
      • 自定义模型调用 API
      • 续写模式
    • 模型服务
      • 创建服务
      • 查询服务详情
    • 模型管理
      • 获取模型版本详情
      • 获取模型详情
      • 训练任务发布为模型
    • 模型调优
      • 创建训练任务
      • 创建任务运行
      • 获取任务运行详情
      • 停止任务运行
    • 数据管理
      • 创建数据集
      • 发起数据集发布任务
      • 发起数据集导入任务
      • 获取数据集详情
      • 获取数据集状态详情
      • 发起数据集导出任务
      • 删除数据集
      • 获取数据集导出记录
      • 获取数据集导入错误详情
    • Prompt 工程
      • Prompt 模板
    • 插件应用
      • 知识库
      • 智慧图问
      • 天气
  • SDK 参考
    • 千帆 SDK 介绍
    • SDK 安装及使用流程
    • 对话 Chat
    • 续写 Completions
    • 向量 Embeddings
    • 模型服务
      • 创建服务
      • 查询服务详情
    • 模型管理
      • 获取模型详情
      • 获取模型版本详情
      • 训练任务发布为模型
    • 模型调优
      • 创建训练任务
      • 创建任务运行
      • 获取任务运行详情
      • 停止任务运行
    • 数据管理
      • 创建数据集
      • 发起数据集发布任务
      • 发起数据集导入任务
      • 获取数据集详情
      • 获取数据集状态详情
      • 发起数据集导出任务
      • 删除数据集
      • 获取数据集导出记录
      • 获取数据集导入错误详情
    • 插件应用
      • 知识库
      • 智能图问
      • 天气
  • 价格说明
    • 千帆大模型平台价格文档
  1. 导入并部署第三方模型

快速导入并部署第三方模型

为了便于您快速了解自定义模型的导入及发布,您可以按照以下步骤进行相关操作。

前提准备#

1.
需要您提前开通对象存储BOS服务。
2.
平台支持HuggingFace>Transformers架构的文生文模型,需要您提前在https://huggingface.co/ 下载,并上传至BOS,需注意:transformers库的版本是须为4.31版本。
3.
平台支持您在本地全量参数微调以后的chatglm2-6b模型导入。

导入模型#

登录到千帆大模型操作台,在左侧功能列模型管理中选择我的模型,进入创建模型的主任务界面。
1.
点击“创建模型”按钮,进行模型新建,填写以下基本信息:
image.png
2.选择已完成的训练任务及运行,创建一个新的模型版本,具体字段包括:
模型版本:平台自动生成,版本号从V1起递增。
模型版本描述:非必填项,自定义的版本描述,记录模型的业务场景、使用方式等信息。
模型来源选择BOS,填写相应的Bucket和模型地址。
image.png
输入输出模式多轮对话chat模型选择【对话模式】,单轮问答模型选择【续写模式】
如果您选择对话模式还需配置历史对话和当前问题的prompt:平台将根据此配置自动拼接当前用户问题和历史轮次问答,方便用户在线测试或接入对话类应用。
两种模式都支持【高级配置】,默认示例如下:
{
    "load_model_class": "AutoModelForCausalLM",
    "load_tokenizer_class": "AutoTokenizer",
    "enable_auto_batch": true,
    "custom_end_str": "",
    "token_decode_return_blank": true,
    "tokenizer_special_tokens": {}
}
注:高级参数说明
load_model_class:模型加载类,用于加载transformers模型;默认值 AutoModelForCausalLM
load_tokenizer_class:tokenizer加载类,用于加载模型;默认值 AutoTokenizer
enable_auto_batch:处理请求时,是否支持auto batch;是否开启auto batch推理,增加服务吞吐;若模型batch推理不兼容,开启后可能导致效果有误;默认值:true;
custom_end_str:自定义生成结束字符串;防止模型不断生成;默认为空值,表示不设置;
token_decode_return_blank: 指定英文token解码后是否带有空格,设置为false时,平台会在英文单词间加入空格;默认值为true;
tokenizer_special_tokens:选填,需要添加到tokenizer的特殊token;例如 {"pad_token": "[PAD]"}

多轮对话chat模型导入示例-chatglm2-6b-int4#

详细信息可参考示例模型。
在输入输出模式中选择【对话模式】,prompt配置如下
当前问题拼接规范: [Round {round}]\n\n问:{question}\n\n答:
历史问答拼接规范: [Round {round}]\n\n问:{question}\n\n答:{answer}\n\n
外层Prompt模板: {input}
高级配置:
{
    "load_model_class": "AutoModel",
    "token_decode_return_blank": false
}
image.png

单轮问答模型导入示例-sqlcoder#

详细信息可参考示例模型。
在输入输出模式中选择【续写模式】。
其中高级配置使用默认配置。
image.png

本地全量参数微调后的chatglm2-6b模型导入示例#

1.
在我的模型中选择创建模型,按照下图所示填写基本信息。
image.png
1.
模型配置项,填写模型上传BOS的Bucket地址,本地全量参数微调以后的chatglm2-6b模型应该提前上传至此文件夹。
image.png
1.
选择输入输出模式为对话模式,保存对话模式的默认配置。
image.png
1.
打开高级配置,并输入以下配置内容。
image.png
{
    "custom_end_str": "",
    "enable_auto_batch": true,
    "load_model_class": "AutoModelForCausalLM",
    "load_tokenizer_class": "AutoTokenizer",
    "token_decode_return_blank": true,
    "tokenizer_special_tokens": {}
}
以上步骤完成后,点击“确定”即可。
image.png
更多操作可查看BOS导入模型。

部署服务#

部署完毕后进入【模型仓库】点击刚导入的模型进入【模型详情】页,模型【版本状态】变成“就绪”说明模型导入成功; 点击【部署】按钮进入【创建服务】。
image.png
按下图流程完善服务部署,将服务部署至私有资源池。
image.png
更多服务部署操作内容可参考在线服务使用说明。

在线测试#

进入【体验中心】页,左上角【选择服务】选择部署的服务,输入框输入请求数据,获取结果。
image.png
更多在线测试操作内容可参考体验中心使用说明。
上一页
平台使用快速开始
下一页
SQLCoder自定义模型导入·详细操作
Built with