查看与管理预置模型
登录到千帆大模型操作台,在左侧功能列模型管理中选择模型广场,查看平台预置模型列表。平台预置了多款大语言模型供您直接使用,包括文心一言及业内知名的开源大模型,部分展示如下:
模型名称 | 模型类型 | 模型描述 |
---|---|---|
ERNIE-Bot | 大语言模型 | 百度⾃⾏研发的⼤语⾔模型,覆盖海量中⽂数据,具有更强的对话问答、内容创作⽣成等能⼒。 |
ERNIE-Bot-turbo | 大语言模型 | 百度自行研发的高效语言模型,基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
BLOOMZ-7B「体验」 | 大语言模型 | 业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。 |
Stable-Diffusion-XL「体验」 | 文生图大模型 | 业内知名的跨模态大模型,由Stability AI研发并开源,有着业内领先的图像生成能力。 |
Mistral-7B「体验」 | 大语言模型 | 由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。 |
Llama-2-7B「体验」 | 大语言模型 | 由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 |
Llama-2-13B「体验」 | 大语言模型 | 由Meta AI研发并开源的13B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 |
Llama-2-70B「体验」 | 大语言模型 | 由Meta AI研发并开源的70B参数大语言模型,在编码、推理及知识应用等场景表现优秀。 |
RWKV-4-world「体验」 | 大语言模型 | 由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。 |
ChatGLM2-6B「体验」 | 大语言模型 | 智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 |
Baichuan2-13B「体验」 | 大语言模型 | 百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。 |
XVERSE-13B「体验」 | 大语言模型 | 由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。 |
SQLCoder-7B「体验」 | 大语言模型 | 由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。 |
OpenLLaMA-7B「体验」 | 大语言模型 | 在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。 |
Falcon-7B「体验」 | 大语言模型 | 由TII研发、在精选语料库增强的1500B tokens上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。 |
Dolly-12B「体验」 | 大语言模型 | 由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。 |
MPT-7B「体验」 | 大语言模型 | MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 |
RWKV-14B「体验」 | 大语言模型 | 由香港大学物理系校友彭博研发并开源的14B参数模型,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。 |
Aquila-7B「体验」 | 大语言模型 | 由智源研究院研发的中英双语语言模型,继承了GPT-3和LLaMA的架构优点,基于中英文高质量语料训练,实现了高效训练,获得了比其他开源模型更优的性能,并符合国内数据合规需要。 |
Falcon-40B「体验」 | 大语言模型 | 由TII研发的仅使用解码器的模型,并在Baize的混合数据集上进行微调,具备优异的推理效果。 |
MPT-30B「体验」 | 大语言模型 | MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。 |
Cerebras-GPT-13B「体验」 | 大语言模型 | 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 |
Pythia-12B「体验」 | 大语言模型 | 由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。 |
GPT-J-6B「体验」 | 大语言模型 | EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。 |
GPT-NeoX-20B「体验」 | 大语言模型 | 由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。 |
CodeLlama-7B「体验」 | 大语言模型 | 是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。 |
StarCoder「体验」 | 大语言模型 | 由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。 |
StableLM-Alpha-7B「体验」 | 大语言模型 | Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。 |
其中,以下模型有2个及以上的版本:
ERNIE-Bot-turbo
当前有以下三个版本(均支持详情查看和部署):
- ERNIE-Bot-turbo-0725:支持6K输入+1K输出,支持系统设置,新增推理参数,并支持模型评估。
- ERNIE-Bot-turbo-0704:优化推理效果,修复部分问题,并支持模型评估。
- ERNIE-Bot-turbo-0516:初始版本。
BLOOMZ-7B
当前有以下两个版本(均支持详情查看、部署和评估):
- Qianfan-BLOOMZ-7B-compressed:千帆团队在BLOOMZ-7B基础上的压缩版本,融合量化、稀疏化等技术,显存占用降低30%以上
- BLOOMZ-7B:业内知名的⼤语⾔模型,由BigScience研发并开源,能够以46种语⾔和13种编程语⾔输出⽂本。
Llama-2-7B
当前有以下三个版本(均支持详情查看和部署):
- Qianfan-Chinese-Llama-2-7B:千帆团队在Llama-2-7b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异。
- Linly-Chinese-LLaMA-2-7B:由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。
- Llama-2-7b-chat:Llama-2-7b-chat是高性能原生开源版本,适用于对话场景,并支持模型评估。
Llama-2-13B
当前有以下三个版本(均支持详情查看和部署):
- Qianfan-Chinese-Llama-2-13B:千帆团队在Llama-2-13b基础上的中文增强版本,在CMMLU、C-EVAL等中文数据集上表现优异.
- Linly-Chinese-LLaMA-2-13B:由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。
- Llama-2-13b-chat:由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡版本,并且支持模型评估。
ChatGLM2-6B
当前有以下三个版本(均支持详情查看和部署):
- chatglm2-6b-int4:在ChatGLM2-6B的基础上进行INT4 量化,6G 显存支持的对话长度由 1K 提升到了 8K。
- chatglm2-6b-32k:在ChatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。
- chatglm2-6b:初始预训练版本。
RWKV-14B
当前有以下两个版本(均支持详情查看和部署):
- rwkv-raven-14b:RWKV架构的Chat版本,在Pile数据集上训练,并在Alpaca、CodeAlpaca等上进行微调。
- rwkv-4-pile-14b:在 Pile 数据集上训练的 L40-D5120 因果语言模型。
Aquila-7B
当前有以下两个版本(均支持详情查看和部署):
- AquilaCode-multi:基于Aquila-7B训练的代码生成模型,使用经过高质量过滤且有合规开源许可的代码数据进行训练,数据量约为其他开源代码生成模型的10~40%。
- AquilaChat-7B:基于Aquila-7B训练的对话模型,支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
Pythia-12B
当前有以下两个版本(均支持详情查看和部署):
- oasst-sft-4-pythia-12b-epoch-3.5:基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。该模型在https://open-assistant.io/ 收集的人类反馈的对话数据上进行微调。
- pythia-12b:由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
GPT-J-6B
当前有以下两个版本(均支持详情查看和部署):
- gpt4all-j:由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
- gpt-j-6b EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。
以下API目前面向测试企业用户开放,如需使用请填写申请表单,我们将尽快评估您的需求并与您取得联系:
模型名称 | 描述 |
---|---|
RWKV-5-World | 由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。 |
Flan-UL2 | 由Google研发并开源,基于T5架构的tranformer模型,使用UL2模型相同的配置,在“Flan”数据集上进行微调。 |
Cerebras-GPT-6.7B | 由Cerebras研发并开源,使用 Chinchilla 公式进行训练的6.7B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。 |
Pythia-6.9B | 由EleutherAI研发并开源,在Pile数据集上训练的6.9B参数transformer语言模型。 |
Falcon-180B-Chat | 由TII研发的仅使用解码器的18B模型,在Ultrachat,Platypus和Airoboros的混合数据集上进行微调,具备优异的推理效果。 |
更多优质模型即将上线,敬请期待!
详情
点击模型名称或“详情”按钮,查看预置模型的基本信息、任务列表、接口信息和部署记录等内容,与“我的模型”类似:
- 基本信息
基本信息包含模型名称、模型类型、模型描述和部署资源池等信息。
- 任务列表
任务列表下展示预置模型各类任务的记录,如模型评估、模型压缩和删除版本等。
- 接口信息
(点击模型版本名称或查看版本详情)展示预置模型的接口信息,作为服务部署、调用的参考。
- 部署记录
支持查看预置模型部署的记录,在本页面支持直接部署模型版本。
评估
当前仅支持对BLOOMZ、ERNIE-Bot-turbo-0704和Llama-2-7b-chat预置模型进行评估,可点击“评估”直接发起评估任务,详情参考模型评估相关内容。
部署
预置模型支持通过特定资源池部署为预测服务,点击“部署”跳转至预测服务进行模型部署,详情操作参考服务管理相关内容。
最后修改时间: 1 年前