在AI技术爆发的黄金时代,阿里云百炼平台重磅推出「开发者启航计划」:免费领取价值万元的100万Tokens算力包,更可一键部署性能对标国际顶尖水平的DeepSeek-R1满血版大模型!无论您是初探AI的新手开发者,还是寻求企业级解决方案的技术团队,只需10分钟完成模型部署,即刻解锁多模态推理、复杂代码生成、超长文本解析等前沿能力。搬主题分享的图文教程将带您三步走通「福利领取→模型部署→实战应用」全流程,让DeepSeek-R1满血版大模型成为您唾手可得的开发利器。什么是阿里云百炼?作为阿里云推出的企业级大模型开发平台,百炼重新定义了AI应用的构建范式。该平台深度融合了低代码开发与专业模型训练两大能力矩阵,为不同技术背景的用户提供了一站式解决方案:业务人员:通过可视化界面5分钟生成AI应用原型开发者:支持完整生命周期管理,3小时完成专属模型微调企业客户:提供私有化部署方案,满足数据安全合规需求1、技术架构的三大突破算力调度引擎智能分配CPU/GPU/NPU混合算力资源,训练效率提升300%模型蒸馏工场独创的渐进式知识蒸馏框架,支持从千亿参数到十亿参数的灵活压缩插件生态体系预置200+行业适配器,涵盖金融风控、医疗问诊、智能制造等场景2、DeepSeek全家桶的饕餮盛宴百炼平台与深度求索(DeepSeek)的战略合作,带来了前所未有的技术红利:模型类型免费额度核心能力适用场景DeepSeek-R1100万tokens多模态推理、复杂逻辑处理智能客服、数据分析DeepSeek-V3100万tokens超长文本理解、知识图谱构建法律文书分析、研报生成R1-Distill-Qwen限时免费轻量化部署、边缘计算优化移动端应用、IoT设备R1-Distill-Llama限时免费领域知识增强、垂直行业适配医疗诊断、金融预测技术亮点:满血版DeepSeek-R1开放完整API权限,支持16K超长上下文处理蒸馏版模型经百炼平台二次优化,推理速度提升5倍以上动态量化压缩技术使模型体积缩小80%,内存占用降低65%3、从概念到落地的加速通道零代码应用工坊通过模块化组件拖拽,快速搭建具备以下能力的AI应用:智能文档解析(合同/财报自动摘要)多轮对话引擎(24小时在线客服)知识库增强系统(企业专属GPT)专业开发者模式提供完整SDK工具链:from bailian import ModelFactory
# 加载预训练模型
model = ModelFactory.load("DeepSeek-R1")
# 注入领域数据
model.fine_tune(
dataset="industry_data.zip",
epochs=3,
lr=2e-5
)
# 部署为API服务
model.deploy(
endpoint="https://api.example.com",
auth_key="YOUR_API_KEY"
)成本控制利器智能流量预测:自动缩放计算资源,避免资源闲置Token消耗看板:实时监控各模型调用成本预算告警系统:设置用量阈值,防止意外超支4、企业级安全保障采用军事级安全防护体系:数据沙箱隔离:训练过程全链路加密模型防火墙:实时检测对抗性攻击审计追踪系统:满足GDPR/等保2.0要求活动地址:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms尤其是阿里云百炼平台提供了满血版DeepSeek-R1模型如图我们可以在该平台上找到并部署DeepSeek-R1满血版模型,享受其强大的数学、代码、自然语言等推理能力, 还可以找到特定尺寸的DeepSeek-R1蒸馏版模型的限时免费服务。这些服务旨在降低用户的使用门槛,促进AI技术的普及和应用!更多具体内容大家可以参考阿里云官网文档https://help.aliyun.com/zh/model-studio/getting-started/what-is-model-studio如图阿里云账号注册如果你还没有阿里云的账号,那你要先去注册一个阿里云的账号吧!注册完成后才能使用账号登录百炼平台,否则你还怎么玩? 对吧!阿里云首页官网注册地址https://www.aliyun.com这里大家直接用手机邮箱自行注册即可,就不过多赘述了!注册完成直接登录!然后在阿里云官网,搜索关键字百炼平台并进入!如图如图开通模型100万免费tokens服务首先我们点击管理控制台进入到阿里云百炼登录阿里云百炼大模型服务平台后,如果页面顶部显示如下消息,那么我们需要开通百炼的模型服务,以获得免费额度。开通百炼不会产生费用,仅调用、部署、调优模型会产生相应费用(超出免费额度后)!如图确认开通,领取一下!如图获取API KeyAPI Key是用于访问阿里云百炼平台上的DeepSeek-R1模型等服务的身份验证凭证,它允许我们的应用程序或客户端安全地与平台通信并执行请求的操作!我们在阿里云百炼平台上鼠标悬停于页面右上角的用户图标,在下拉菜单中单击API-KEY如图然后点击创建我的API-KEY如图然后点击查看我们就可以获取到API KEY了!如图注意不要将API Key以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。API Key是我们的重要资产,请务必妥善保管。如果你单击操作列的删除将已有API Key删除,将无法继续通过该Key访问百炼大模型提供的各项服务,如果之前在某些应用程序或服务中集成了这个API Keys,那么这些应用将会因为认证失败而无法正常工作!安装 OpenAI SDK那么接下来,我们就可以使用获取到的API Key在阿里云百炼平台或相应的客户端中配置账户,以便开始调用DeepSeek-R1模型并消耗的免费tokens那么这里我们通过SDK调用大模型,所需还需要再本地安装一下OpenAI阿里云百炼官方提供了Python与Java编程语言的SDK,也提供了与OpenAI兼容的调用方式!参考文档https://help.aliyun.com/zh/model-studio/developer-reference/install-sdk我们需要确保已安装Python3.8或以上版本, 如果你还没有安装Python建议去看看我前面的教程,都有介绍!我这里安装的为Python 3.10.7如图然后开始安装或更新OpenAI,执行以下命令!pip install -U openai
如图等它安装完成..将API Key配置到环境变量然后建议你把API Key配置到环境变量,从而避免在代码里显式地配置API Key,降低泄漏风险!这里我们以Windows系统为例,我们可以通过系统属性进行配置环境变量,具体步骤如下:在Windows系统桌面中按Win+Q快捷键,在搜索框中搜索编辑系统环境变量关键字,单击打开系统属性界面如图在系统属性窗口,单击环境变量,然后在系统变量区域下单击新建,变量名填入DASHSCOPE_API_KEY,变量值填入我们的API Key然后依次单击三个窗口的确定,关闭系统属性配置页面,完成环境变量配置!把这个DASHSCOPE_API_KEY名字记住了!最后我们可以测试一下,打开CMD(命令提示符)窗口执行如下命令检查环境变量是否生效echo %DASHSCOPE_API_KEY%
如图特别注意我们配置环境变量后不会立即影响已经打开的命令窗口、IDE或其他正在运行的应用程序,所以需要重新启动这些程序或者打开新的命令行使环境变量生效!快速体验 本地API远程调用DeepSeek-R1满血版大模型一切都做好了之后,现在我们可以先来体验一下DeepSeek-R1满血大模型了!大家可以参考官网文档https://bailian.console.aliyun.com找到模型广场,然后筛选一下deepseek如图然后点击API调用案例进行使用!这里我们使用Python去进行调用!https://help.aliyun.com/zh/model-studio/developer-reference/deepseek把代码复制到自己的编辑器中,这里我使用的是PyCharm没有安装的朋友可以去jetbrains官网免费去下载一个PyCharm社区版下载地址:https://www.jetbrains.com.cn/pycharm/download/?section=windows如图安装过程就不过多赘述了,就和平常安装其他软件一样,无脑下一步实在清楚的,去看看我前面的教程,都有讲解!安装好之后,打开编辑器,新建一个Python文件,把官网给出的代码粘贴过来!如图把代码粘贴到PyCharm中代码如下import os
from openai import OpenAI
client = OpenAI(
# 若没有配置环境变量,请用百炼API Key将下行替换为:api_key="sk-xxx",
api_key=os.getenv("DASHSCOPE_API_KEY"), # 如何获取API Key:https://help.aliyun.com/zh/model-studio/developer-reference/get-api-key
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="deepseek-r1", # 此处以 deepseek-r1 为例,可按需更换模型名称。
messages=[
{'role': 'user', 'content': '9.9和9.11谁大'}
]
)
# 通过reasoning_content字段打印思考过程
print("思考过程:")
print(completion.choices[0].message.reasoning_content)
# 通过content字段打印最终答案
print("最终答案:")
print(completion.choices[0].message.content)
如图这里可能要等待一会..因为官网这里给出了DeepSeek-R1类模型的思考过程可能较长,可能导致响应慢或超时!最后显示出结果如图但是这里官网文档告诉我们响应太慢了,建议我们优先使用流式输出方式调用DeepSeek-R1 模型如图复制官网给出的案例代码到编辑器执行即可!代码如下import os
from openai import OpenAI
client = OpenAI(
# 若没有配置环境变量,请用百炼API Key将下行替换为:api_key="sk-xxx",
api_key=os.getenv("DASHSCOPE_API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="deepseek-r1", # 此处以 deepseek-r1 为例,可按需更换模型名称。
messages=[
{'role': 'user', 'content': '9.9和9.11谁大'}
],
stream=True,
# 解除以下注释会在最后一个chunk返回Token使用量
# stream_options={
# "include_usage": True
# }
)
# 定义完整思考过程
reasoning_content = ""
# 定义完整回复
answer_content = ""
# 判断是否结束思考过程并开始回复
is_answering = False
print("n"+"="*20+"思考过程"+"="*20+"n")
for chunk in completion:
# include_usage 设置为 True 会使得最后一个chunk返回 Token 使用量,而choices为空列表,此处进行判断
if chunk.choices == []:
print("n"+"="*20+"Token 使用情况"+"="*20+"n")
print(chunk.usage)
# 以下为思考与回复的步骤
else:
# include_usage 设置为 True 时,倒数第二个chunk会不包含 reasoning_content 字段,因此需要进行判断
if hasattr(chunk.choices[0].delta, 'reasoning_content') == False:
pass
else:
# 有时可能会出现思考过程与回复皆为空的情况,此时忽略即可
if chunk.choices[0].delta.reasoning_content == "" and chunk.choices[0].delta.content == "":
pass
else:
# 如果思考结果为空,则开始打印完整回复
if chunk.choices[0].delta.reasoning_content == "" and is_answering == False:
print("n"+"="*20+"完整回复"+"="*20+"n")
# 防止打印多个“完整回复”标记
is_answering = True
# 如果思考过程不为空,则打印思考过程
if chunk.choices[0].delta.reasoning_content != "":
print(chunk.choices[0].delta.reasoning_content,end="")
reasoning_content += chunk.choices[0].delta.reasoning_content
# 如果回复不为空,则打印回复。回复一般会在思考过程结束后返回
elif chunk.choices[0].delta.content != "":
print(chunk.choices[0].delta.content,end="")
answer_content += chunk.choices[0].delta.content
# 如果您需要打印完整思考过程与完整回复,请将以下代码解除注释后运行
# print("="*20+"完整思考过程"+"="*20+"n")
# print(f"{reasoning_content}")
# print("="*20+"完整回复"+"="*20+"n")
# print(f"{answer_content}")
如图那么这就简单的实现了在本地PyCharm开发环境中,通过编程接口API对部署于云端服务的阿里云百炼平台的DeepSeek-R1大模型的远程程序化访问与调用!以上代码中,我们都可以对有免费额度以及限时免费的模型名称进行调用详情参考文档给出的代码案例和模型名称!如图这么多福利难道还不够你使用吗!如图查看token使用情况那我们怎么知道现在使用了多少token呢例如查看DeepSeek-R1的 token消耗 我们可以在阿里云百炼平台的控制台中,找到与DeepSeek-R1模型相关的token消耗信息!定期检查token的消耗情况,以确保在免费tokens用完之前能够及时调整或续费!~如图最后阿里云百炼平台震撼发布DeepSeek系列等大模型,并且慷慨赠送百万级免费tokens,满满诚意,点燃自然语言处理领域创新火花,所以大家还不赶紧来领取使用起来,以上就是搬主题分享的安装DeepSeek-R1满血版,免费领取阿里云百炼AI大模型100万Tokens图文教程。
THE END