Skip to content

产品介绍

模型

DeepSeek-R1-Distill-Qwen-14B 系列大语言模型

DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 模型,经过知识蒸馏优化而来的高性能模型,主要用于复杂推理任务。

DeepSeek-R1-Distill-Qwen-14B

  • 规模:140亿参数(14B)。
  • 特点:通过 DeepSeek-R1 系统生成的 80 万个精选样本进行微调,模型在推理能力上得到了显著增强,特别在处理复杂的数学、编程和逻辑推理任务时展现了优异的性能。

该模型在多个知名基准测试中表现出色,取得了令人瞩目的成绩。例如:

  • 在 MATH-500 基准测试中,DeepSeek-R1-Distill-Qwen-14B 达到了 93.9% 的准确率,展现了其卓越的数学推理能力。
  • 在 AIME 2024 测试中,模型的通过率为 69.7%,证明了其在复杂问题求解中的出色表现。
  • 在 CodeForces 上,DeepSeek-R1-Distill-Qwen-14B 取得了 1481 的高评分,进一步验证了其在编程和算法挑战方面的强大实力。

这些成果不仅凸显了该模型在多领域推理任务中的应用潜力,还展现了它在数学和编程领域的深厚实力。

产品价格

大语言模型

模型名称 算力点/M tokens 金额(¥)/M tokens 备注
DeepSeek-R1(NV) 1600 16
DeepSeek-R1-Distill-Qwen-14B(NV) 1600 16

注意:模型默认输入输出token价格一致。

限速策略

定义

  • 速率限制:用户API在指定时间内访问 QC-MaaS平台服务次数的限制。

目的

  • 资源公平使用:防止某些用户过多请求,影响其他用户的正常使用体验。
  • 防止请求过载:提高服务可靠性,避免因请求激增而导致服务器出现性能问题。
  • 安全防护:防止恶意性攻击,避免平台过载甚至服务中断。

限速指标

  • RPM(requests per minute):一个账户一分钟内最多发起的请求数。
  • TPM(tokens per minute):一个账户一分钟内最多消耗的token数。
  • TPD(tokens per day):一个账户一天内最多消耗的token数。

限速详情

  • RPM: 20
  • TPM: 10k
  • TPD: 150k

Token计算

大语言模型在处理文本时,会将输入的句子分解成多个 Token 进行分析和生成。Token 是模型用来处理文本的最小单位,也是大语言模型的计费单元。有的 token 表示完整的中文词、英文单词,有的只是词的一部分,或者标点符号。

模型中的 token 与实际字数之间的换算比例大致如下:

  • 一个英文字符大约等于 0.3 个 token。
  • 一个中文字符大约等于 0.6 个 token。

注意:由于不同模型采用的分词方式并不相同,具体的换算比例也有所差异。实际处理时的 token 数量以模型返回的结果为准。

参数设定

语言模型参数

参数 描述
model* 模型名称
max_tokens* 生成的最大 Tokens 数量
messages* 对话消息
temperature 控制生成文本的多样性。值越高,生成的文本越有创意或随机性
top_k 采样参数
top_p 采样参数
frequency_penalty 对重复出现的词降低其生成概率,以减少重复内容
stream 是否流式响应

注意:以上参数中,带有 * 标记的参数为必填参数。