Qwen大模型简介
Qwen是由阿里云通义千问团队推出的一系列超大规模语言模型,具备强大的自然语言处理和多模态交互能力。2023 年 8 月,Qwen 模型首次亮相,发布了 7B 版本,这一初始版本的发布,标志着阿里云正式进军大语言模型领域,凭借其基于 Transformer 架构的设计和在大规模语料上的预训练,展现出了处理自然语言任务的潜力。通义千问是由阿里云自主研发的大模型,用于理解和分析用户输入的自然语言,以及图片、音频、视频等多模态数据。在不同领域和任务为用户提供服务和帮助。您可以通过提供尽可能清晰详细的指令,来获取符合您预期的结果。
qwen大模型官网: https://qwen2.org/
qwen大模型github项目地址: https://github.com/QwenLM
2024 年 2 月,Qwen 迎来了重要的升级,推出了 Qwen1.5 系列。该系列不仅在模型规模上有所扩展,还引入了分组查询注意力(GQA)技术,显著提升了模型的推理效率和性能表现。其中,Qwen1.5-110B 更是成为该系列的旗舰版本,突破千亿参数大关,成为业界首款公开的超 1000 亿参数语言模型。这一成就使得 Qwen 在处理复杂语言任务时具备更强的能力,能够学习到更深层次的语言结构和语境理解,为用户提供更加精准、流畅且自然的交互体验。同时,Qwen1.5 系列在多语言支持方面也有了显著提升,涵盖了英语、中文、法语、西班牙语、德语等多国语言,真正实现了跨文化的无障碍交流。
2024 年 6 月 7 日,阿里云再次发布开源模型 Qwen2-72B,这是 Qwen 模型发展历程中的又一重要里程碑。Qwen2 系列在多个方面实现了代际飞跃,包含了 5 个尺寸的预训练和指令微调模型,从 Qwen2-0.5B 到 Qwen2-72B,满足了不同场景和用户的需求。所有尺寸模型都使用了 GQA 机制,让用户能够体验到推理加速和显存占用降低的优势。在训练数据方面,增加了 27 种语言相关的高质量数据,进一步提升了模型的多语言能力。此外,Qwen2 还增大了上下文长度支持,Qwen2-72B-Instruct 能够完美处理 128k 上下文长度内的信息抽取任务,在代码、数学、推理、指令遵循等能力上都有了大幅提升。在多个权威评测中,Qwen2-72B 取得了优异的成绩,超越了包括美国 Llama3-70B 在内的多个模型,展现出了强大的实力。
1. 模型架构与版本
Qwen系列模型基于Mixture of Experts(MoE)架构,通过智能选择适当的“专家”模型来优化计算资源,提高推理速度和效率。目前,Qwen已经推出了多个版本,包括:Qwen2.5-Max:这是Qwen系列的旗舰模型,采用超过20万亿tokens的预训练数据,展现出卓越的综合性能。Qwen2.5-VL:专注于视觉语言多模态任务,能够处理图像、视频等多模态输入。Qwen2.5-Coder:专注于编程辅助,支持多种编程语言。Qwen2.5-Math:专注于数学问题的解决。
2. 功能特性
多模态交互:Qwen2.5-VL能够识别和分析图像、视频中的文本、图表、图标等,并支持长视频理解和事件捕捉。指令跟踪与生成:Qwen2.5系列模型在指令跟踪、长文本生成、结构化数据理解等方面有显著提升。强大的推理能力:Qwen2.5-Max在知识测试、编程、推理等多个基准测试中表现突出,超越了DeepSeek V3、Llama-3.1-405B等模型。灵活的定制化应用:支持根据企业需求进行定制化开发,适用于智能客服、自动化办公、编程辅助等多种应用场景。
3. 性能与评测
超大规模预训练数据:Qwen2.5-Max采用超过20万亿tokens的预训练数据,确保模型具备卓越的学习和推理能力。基准测试表现:在MMLU-Pro、LiveCodeBench、LiveBench等多个权威评测中,Qwen2.5-Max展现出与DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩甚至领先的性能。多模态能力:Qwen2.5-VL在视觉理解、多模态交互以及自动化任务执行等方面表现出色,支持多种输入方式和结构化输出。
4. 使用与体验
在线体验:用户可以通过Qwen Chat平台直接与模型进行对话。API服务:企业可以通过阿里云大模型服务平台的API服务集成Qwen模型。
应用场景
通义千问凭借其强大的语言及多模态数据处理能力,为用户带来高效、智能的语言服务体验,其能力包括但不限于文字创作、翻译服务和对话模拟等,具体应用场景如下:
文字创作:撰写故事、公文、邮件、剧本和诗歌等。
文本处理:润色文本和提取文本摘要等。
编程辅助:编写和优化代码等。
翻译服务:提供各类语言的翻译服务,如英语、日语、法语或西班牙语等。
对话模拟:扮演不同角色进行交互式对话。
数据可视化:图表制作和数据呈现等。
文本生成-通义千问
以下是通义千问模型的商业版。相较于开源版,商业版具有最新的能力和改进。
各模型会不定期更新升级。如需使用固定版本,请选择快照版本。快照版本通常维护至下个快照版本发布时间的后一个月。
通义千问-Max
通义千问系列效果最好的模型,适合复杂、多步骤的任务。使用方法 | API参考 | 在线体验
公共云金融云
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-max
当前等同qwen-max-2024-09-19
稳定版
32,768
30,720
8,192
0.0112元
Batch调用:0.0056元
0.0448元
Batch调用:0.0224元
100万Token
有效期:百炼开通后180天内
qwen-max-latest
始终等同最新快照版
最新版
0.0112元
0.0448元
qwen-max-2025-01-25
又称qwen-max-0125
快照版
qwen-max-2024-09-19
又称qwen-max-0919
0.02元
0.06元
qwen-max-2024-04-28
又称qwen-max-0428
8,000
6,000
2,000
0.04元
0.12元
qwen-max-2024-04-03
又称qwen-max-0403
qwen-max-2024-01-07
又称qwen-max-0107
最新的qwen-max-0125模型:通义千问系列效果最好的模型,代码编写与理解能力、逻辑能力、多语言能力显著提升,回复风格面向人类偏好进行大幅调整,模型回复详实程度和格式清晰度明显改善,内容创作、JSON格式遵循、角色扮演能力定向提升。
通义千问-Plus
能力均衡,推理效果、成本和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。使用方法 | API参考 | 在线体验
公共云金融云
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-plus
当前等同qwen-plus-2024-11-25
稳定版
131,072
129,024
8,192
0.0008元
Batch调用:0.0004元
0.002元
Batch调用:0.001元
100万Token
有效期:百炼开通后180天内
qwen-plus-latest
始终等同最新快照版
最新版
0.0008元
0.002元
qwen-plus-2025-01-12
又称qwen-plus-0112
快照版
qwen-plus-2024-12-20
又称qwen-plus-1220
qwen-plus-2024-11-27
又称qwen-plus-1127
qwen-plus-2024-11-25
又称qwen-plus-1125
qwen-plus-2024-09-19
又称qwen-plus-0919
qwen-plus-2024-08-06
又称qwen-plus-0806
128,000
0.004元
0.012元
qwen-plus-2024-07-23
又称qwen-plus-0723
32,000
30,000
8,000
qwen-plus-2024-06-24
又称qwen-plus-0624
qwen-plus-2024-02-06
又称qwen-plus-0206
最新的qwen-plus-2025-01-12模型:相对于qwen-plus-2024-12-20模型,中英文整体能力有提升,中英常识、阅读理解能力提升较为显著,在不同语言、方言、风格之间自然切换的能力有显著改善,中文指令遵循能力显著提升。
通义千问-Turbo
通义千问系列速度最快、成本极低的模型,适合简单任务。使用方法 | API参考 | 在线体验
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-turbo
当前等同qwen-turbo-2024-11-01
稳定版
1,000,000
1,000,000
8,192
0.0003元
Batch调用:0.00015元
0.0006元
Batch调用:0.0003元
100万Token
有效期:百炼开通后180天内
qwen-turbo-latest
始终等同最新快照版
最新版
0.0003元
0.0006元
qwen-turbo-2024-11-01
又称qwen-turbo-1101
快照版
1000万Token
有效期:百炼开通后180天内
qwen-turbo-2024-09-19
又称qwen-turbo-0919
131,072
129,024
100万Token
有效期:百炼开通后180天内
qwen-turbo-2024-06-24
又称qwen-turbo-0624
8,000
6,000
2,000
0.002元
0.006元
qwen-turbo-2024-02-06
又称qwen-turbo-0206
最新的qwen-turbo-2024-11-01模型:在qwen-turbo-2024-09-19模型的能力之上扩展了上下文长度,模型支持的最大上下文长度从128k扩展到1M。
Qwen-Long
通义千问系列上下文窗口最长,能力均衡且成本较低的模型,适合长文本分析、信息抽取、总结摘要和分类打标等任务。使用方法 | 在线体验
公共云金融云
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-long
10,000,000
10,000,000
6,000
0.0005元
Batch调用:0.00025元
0.002元
Batch调用:0.001元
100万Token
有效期:百炼开通后180天内
通义千问VL
通义千问VL是具有视觉(图像)理解能力的文本生成模型,不仅能进行OCR(图片文字识别),还能进一步总结和推理,例如从商品照片中提取属性,根据习题图进行解题等。使用方法 | API参考 | 在线体验
通义千问VL模型按输入和输出的总Token数进行计费。
图像转换为Token的规则:512×512像素的图像约等于334个Token,其他分辨率图像按比例换算;最小单位是28×28像素,即每28×28像素对应一个Token,如果图像的长或宽不是28的整数倍,则向上取整至28的整数倍;一张图最少4个Token。
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-vl-max
相比qwen-vl-plus再次提升视觉推理和指令遵循能力,在更多复杂任务中提供最佳性能。
当前等同qwen-vl-max-2024-11-19
稳定版
32,768
30,720
单图最大16384
2,048
0.003元
Batch调用:0.0015元
0.009元
Batch调用:0.0045元
100万Token
有效期:百炼开通后180天内
qwen-vl-max-latest
始终等同最新快照版
最新版
0.003元
0.009元
qwen-vl-max-2024-12-30
又称qwen-vl-max-1230
快照版
qwen-vl-max-2024-11-19
又称qwen-vl-max-1119
qwen-vl-max-2024-10-30
又称qwen-vl-max-1030
0.02元
qwen-vl-max-2024-08-09
又称qwen-vl-max-0809
此版本扩展上下文至32k,增强图像理解能力,能更好地识别图片中的多语种和手写体。
qwen-vl-max-2024-02-01
又称qwen-vl-max-0201
8,000
6,000
单图最大1280
2,000
qwen-vl-plus
大幅提升细节识别和文字识别能力,支持超百万像素分辨率和任意宽高比的图像。在广泛的视觉任务中提供卓越性能。
稳定版
8,000
6,000
单图最大1280
0.0015元
Batch调用:0.00075元
0.0045元
Batch调用:0.00225元
qwen-vl-plus-latest
始终等同最新快照版
最新版
32,000
30,000
单图最大16384
2,048
0.0015元
0.0045元
qwen-vl-plus-2025-01-02
又称qwen-vl-plus-0102
大幅提升指令跟随、图像理解和数学能力。
快照版
qwen-vl-plus-2024-08-09
又称qwen-vl-plus-0809
qwen-vl-plus-2023-12-01
8,000
6,000
2,000
0.008元
通义千问OCR
通义千问OCR模型是专用于文字提取的模型。相较于通义千问VL模型,它更专注于文档、表格、试题、手写体文字等类型图像的文字提取能力。它能够识别多种语言,包括英语、法语、日语、韩语、德语、俄语和意大利语等。使用方法 | API参考|在线体验
模型名称
版本
上下文长度
最大输入
最大输出
输入输出单价
免费额度
(注)
(Token数)
(每千Token)
qwen-vl-ocr
当前等同qwen-vl-ocr-2024-10-28
稳定版
34096
30000
单图最大30000
4096
0.005元
100万Token
有效期:百炼开通后180天内
qwen-vl-ocr-latest
始终等同最新快照版
最新版
qwen-vl-ocr-2024-10-28
又称qwen-vl-ocr-1028
快照版
通义千问Audio
通义千问Audio是音频理解模型,支持输入多种音频(人类语音、自然音、音乐、歌声)和文本,并输出文本。该模型不仅能对输入的音频进行转录,还具备更深层次的语义理解、情感分析、音频事件检测、语音聊天等能力。使用方法
通义千问Audio模型按输入和输出的总Token数进行计费。
音频转换为Token的规则:每一秒钟的音频对应25个Token。若音频时长不足1秒,则按25个Token计算。
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-audio-turbo
当前等同qwen-audio-turbo-2024-08-07
稳定版
8,000
6,000
1,500
目前仅供免费体验。
免费额度用完后不可调用,敬请关注后续动态。
10万Token
有效期:百炼开通后180天内
qwen-audio-turbo-latest
始终等同最新快照版
最新版
8,192
6,144
2,048
qwen-audio-turbo-2024-12-04
又称qwen-audio-turbo-1204
较上个快照版本大幅提升语音识别准确率,且新增了语音聊天能力。
快照版
qwen-audio-turbo-2024-08-07
又称qwen-audio-turbo-0807
8,000
6,000
1,500
通义千问ASR(Beta版本)
通义千问ASR是基于Qwen-Audio训练,专用于语音识别的模型。目前支持的语言有:中文和英文。使用方法
通义千问Audio与通义千问ASR(Beta版本)的区别
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-audio-asr
当前等同qwen-audio-asr-2024-12-04
稳定版
8,192
6,144
2,048
目前仅供免费体验。
免费额度用完后不可调用,敬请关注后续动态。
10万Token
有效期:百炼开通后180天内
qwen-audio-asr-latest
始终等同最新快照版
最新版
qwen-audio-asr-2024-12-04
又称qwen-audio-asr-1204
快照版
通义千问数学模型
通义千问数学模型是专门用于数学解题的语言模型。使用方法 | API参考 | 在线体验
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-math-plus
当前等同qwen-math-plus-2024-09-19
稳定版
4,096
3,072
3,072
0.004元
0.012元
100万Token
有效期:百炼开通后180天内
qwen-math-plus-latest
始终等同最新快照版
最新版
qwen-math-plus-2024-09-19
又称qwen-math-plus-0919
快照版
qwen-math-plus-2024-08-16
又称qwen-math-plus-0816
qwen-math-turbo
当前等同qwen-math-turbo-2024-09-19
稳定版
0.002元
0.006元
qwen-math-turbo-latest
始终等同最新快照版
最新版
qwen-math-turbo-2024-09-19
又称qwen-math-turbo-0919
快照版
通义千问Coder
通义千问代码模型。使用方法 | API参考 | 在线体验
模型名称
版本
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-coder-plus
当前等同qwen-coder-plus-2024-11-06
稳定版
131,072
129,024
8192
0.0035元
0.007元
100万Token
有效期:百炼开通后180天内
qwen-coder-plus-latest
等同qwen-coder-plus最新的快照版本
最新版
qwen-coder-plus-2024-11-06
又称qwen-coder-plus-1106
快照版
qwen-coder-turbo
当前等同qwen-coder-turbo-2024-09-19
稳定版
131,072
129,024
8,192
0.002元
0.006元
100万Token
有效期:百炼开通后180天内
qwen-coder-turbo-latest
等同qwen-coder-turbo最新的快照版本
最新版
qwen-coder-turbo-2024-09-19
又称qwen-coder-turbo-0919
快照版
通义千问翻译模型
基于通义千问模型优化的机器翻译大语言模型,擅长中英互译、中文与小语种互译、英文与小语种互译,小语种包括日、韩、法、西、德、葡(巴西)、泰、印尼、越、阿等26种。在多语言互译的基础上,提供术语干预、领域提示、记忆库等能力,提升模型在复杂应用场景下的翻译效果。使用方法
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-mt-plus
2,048
1,024
1,024
0.015元
0.045元
50万Token
有效期:百炼开通后180天内
qwen-mt-turbo
0.001元
0.003元
50万Token
有效期:百炼开通后180天内
文本生成-通义千问-开源版
模型名称中,xxb表示参数规模,例如qwen2-72b-instruct表示参数规模为72B,即720亿。
百炼支持调用通义千问的开源版,您无需本地部署模型。对于开源版,建议使用Qwen2.5或Qwen2模型。
QwQ
QwQ模型是由 Qwen 团队开发的实验性研究模型,专注于增强 AI 推理能力,尤其是数学和编程领域。QwQ模型的局限性请参见QwQ官方博客。使用方法 | API参考|在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwq-32b-preview
32,768
30,720
16,384
0.0035元
Batch调用:0.00175元
0.007元
Batch调用:0.0035元
100万Token
有效期:百炼开通后180天内
Qwen2.5
Qwen2.5是Qwen大型语言模型的最新系列。针对Qwen2.5,我们发布了一系列基础语言模型和指令调优语言模型,参数规模从5亿到720亿不等。Qwen2.5在Qwen2基础上进行了以下改进:
在我们最新的大规模数据集上进行预训练,包含多达18万亿个Token。
由于我们在这些领域的专业专家模型,模型的知识显著增多,编码和数学能力也大幅提高。
在遵循指令、生成长文本(超过8K个标记)、理解结构化数据(例如表格)和生成结构化输出(尤其是JSON)方面有显著改进。对系统提示的多样性更具弹性,增强了聊天机器人的角色扮演实现和条件设置。
支持超过29种语言,包括中文、英语、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。
使用方法 | API参考 | 在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen2.5-14b-instruct-1m
1,000,000
1,000,000
8,192
0.001元
0.003元
100万Token
有效期:百炼开通后180天内
qwen2.5-7b-instruct-1m
0.0005元
0.001元
qwen2.5-72b-instruct
131,072
129,024
0.004元
0.012元
qwen2.5-32b-instruct
0.0035元
0.007元
qwen2.5-14b-instruct
0.001元
0.003元
qwen2.5-7b-instruct
0.0005元
0.001元
qwen2.5-3b-instruct
32,768
30,720
0.0003元
0.0009元
qwen2.5-1.5b-instruct
限时免费
qwen2.5-0.5b-instruct
Qwen2
阿里云的通义千问2-开源版。使用方法 | API参考 | 在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen2-72b-instruct
131,072
128,000
6,144
0.004元
0.012元
100万Token
有效期:百炼开通后180天内
qwen2-57b-a14b-instruct
65,536
63,488
0.0035元
0.007元
qwen2-7b-instruct
131,072
128,000
0.001元
0.002元
qwen2-1.5b-instruct
32,768
30,720
限时免费
qwen2-0.5b-instruct
Qwen1.5
阿里云的通义千问1.5-开源版。使用方法 | API参考 | 在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen1.5-110b-chat
32,000
30,000
8,000
0.007元
0.014元
100万Token
有效期:百炼开通后180天内
qwen1.5-72b-chat
2,000
0.005元
0.01元
qwen1.5-32b-chat
0.0035元
0.007元
qwen1.5-14b-chat
8,000
6,000
0.002元
0.004元
qwen1.5-7b-chat
0.001元
0.002元
qwen1.5-1.8b-chat
32,000
30,000
限时免费
qwen1.5-0.5b-chat
Qwen
阿里云的通义千问-开源版。使用方法 | API参考 | 在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen-72b-chat
32,000
30,000
2,000
0.02元
0.02元
100万Token
有效期:百炼开通后180天内
qwen-14b-chat
8,000
6,000
0.008元
0.008元
qwen-7b-chat
7,500
1,500
0.006元
0.006元
qwen-1.8b-chat
8,000
2,000
限时免费
qwen-1.8b-longcontext-chat
32,000
30,000
限时免费(需申请)
QVQ
QVQ模型是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力,尤其在数学推理领域。QVQ模型的局限性请参见QVQ官方博客。使用方法 | API参考
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qvq-72b-preview
32,768
16,384
单图最大16384
16,384
0.012元
0.036元
10万Token
有效期:百炼开通后180天内
Qwen-VL
阿里云的通义千问VL开源版。使用方法 | API参考
其中,Qwen2.5-VL在Qwen2-VL的基础上做了如下改进:
在指令跟随、数学计算、代码生成、结构化输出(JSON输出)等方面的能力有显著提升。
支持对图像中的文字、图表、布局等视觉内容进行统一解析,并增加了精准定位视觉元素的能力,支持检测框(矩形框的左上角和右下角坐标)和点坐标(矩形框的中心点坐标)的表示方式。
结合强大的定位和推理能力,模型的Agent能力大幅增强,可与手机、电脑、机器人等设备集成,根据视觉环境和文本指令进行自动操作。
支持对长视频文件(最长10分钟)进行理解,具备秒级别的事件时刻定位能力,能理解时间先后和快慢。
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen2.5-vl-72b-instruct
131,072
129,024
单图最大16384
2,048
0.016元
0.048元
100万Token
有效期:百炼开通后180天内
qwen2.5-vl-7b-instruct
0.002元
0.005元
qwen2.5-vl-3b-instruct
0.0012元
0.0036元
qwen2-vl-72b-instruct
32,768
30,720
单图最大16384
2,048
0.016元
0.048元
qwen2-vl-7b-instruct
32,000
30,000
单图最大16384
2,000
目前仅供免费体验。
免费额度用完后不可调用,敬请关注后续动态。
10万Token
有效期:百炼开通后180天内
qwen2-vl-2b-instruct
限时免费
qwen-vl-v1
8,000
6,000
单图最大1280
1,500
目前仅供免费体验。
免费额度用完后不可调用,敬请关注后续动态。
qwen-vl-chat-v1
Qwen-Audio
阿里云的通义千问Audio开源版。使用方法
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen2-audio-instruct
相比qwen-audio-chat提升了音频理解能力,且新增了语音聊天能力。
8,000
6,000
1,500
目前仅供免费体验。
免费额度用完后不可调用,敬请关注后续动态。
10万Token
有效期:百炼开通后180天内
qwen-audio-chat
Qwen-Math
基于Qwen模型构建的专门用于数学解题的语言模型。Qwen2.5-Math相比Qwen2-Math有了实质性的改进。Qwen2.5-Math支持中文和英文,并整合了多种推理方法,包括CoT(Chain of Thought)、PoT(Program of Thought)和 TIR(Tool-Integrated Reasoning)。使用方法 | API参考| 在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen2.5-math-72b-instruct
4,096
3,072
3,072
0.004元
0.012元
100万Token
有效期:百炼开通后180天内
qwen2.5-math-7b-instruct
0.001元
0.002元
qwen2.5-math-1.5b-instruct
限时免费
qwen2-math-72b-instruct
0.004元
0.012元
qwen2-math-7b-instruct
0.001元
0.002元
qwen2-math-1.5b-instruct
目前仅供免费体验。
免费额度用完后不可调用,敬请关注后续动态。
Qwen-Coder
通义千问代码模型开源版。Qwen2.5-Coder相比CodeQwen1.5有了实质性的改进。Qwen2.5-Coder在包含5.5万亿Token的编程相关数据上进行了训练,使即使较小的编程专用模型也能在编程评估基准测试中表现出媲美大型语言模型的竞争力。API参考 | 在线体验
模型名称
上下文长度
最大输入
最大输出
输入成本
输出成本
免费额度
(注)
(Token数)
(每千Token)
qwen2.5-coder-32b-instruct
131,072
129,024
8,192
0.0035元
0.007元
100万Token
有效期:百炼开通后180天内
qwen2.5-coder-14b-instruct
0.002元
0.006元
qwen2.5-coder-7b-instruct
0.001元
0.002元
qwen2.5-coder-3b-instruct
32,768
30,720
限时免费
限时免费
qwen2.5-coder-1.5b-instruct
100万Token
有效期:百炼开通后180天内
qwen2.5-coder-0.5b-instruct
限时免费
基础限流
关于模型的限流条件,请参见限流。