在 AI 开发浪潮中,Anthropic 旗下的 Claude Code 以其强大的代码生成和理解能力,成为众多开发者的得力助手。然而,API 调用成本一直是不少团队的考量。好消息来了!近日,国内领先的 AI 模型开源社区——魔搭(ModelScope) 传来重磅消息:其免费 API 接口已正式支持 Anthropic API 协议!

这意味着,开发者现在可以直接通过魔搭的免费额度,调用兼容 Anthropic 协议的模型,并无缝集成到你的 Claude Code 环境中!这无疑是给广大 AI 开发者,特别是 Claude Code 用户送上的一份大礼!🎉

图片

第一章:准备工作——获取魔搭 Access Token

要开始使用魔搭的 Anthropic 兼容 API 服务,你首先需要拥有一个魔搭账号,并获取你的专属访问令牌(Access Token)。这个令牌是你在魔搭平台上的身份凭证,用于验证你的 API 请求。

操作步骤:

  1. 1. 注册与登录: 访问魔搭官网(modelscope.cn),点击右上角的“注册”或“登录”按钮。你可以选择手机号注册、邮箱注册或通过阿里云账号登录。

  2. 2. 绑定阿里云账号(重要): 魔搭的免费推理 API 由阿里云提供算力支持。为了确保你能正常使用,你的 ModelScope 账号必须绑定阿里云账号。如果尚未绑定,系统会引导你完成绑定流程。

  3. 3. 获取 Access Token: 登录成功后,点击页面右上角的头像,进入“个人中心”或直接访问“我的 Access Token”页面(https://modelscope.cn/my/myaccesstoken)。在这里,你可以生成、查看和管理你的 Access Token。请妥善保管你的 Token,因为它相当于你的 API 密钥。

重要提示: 你的 Access Token 通常以ms-开头。在配置 Claude Code 时,请务必去掉ms-前缀,只保留实际的密钥部分!例如,如果你的 Token 是ms-abcdef123456,那么在配置时只填写abcdef123456。

第二章:核心:Anthropic API 兼容接口的使用

魔搭 API-Inference 现在也支持与 Anthropic API 兼容的调用方式,为 Anthropic 生态的用户提供了极大的便利。

重要提示: 魔搭官方声明,Anthropic API 兼容调用方式当前正处于 Beta 测试阶段。这意味着功能可能仍在完善中,如果你在使用过程中遇到任何问题,请务必联系魔搭官方提供反馈,共同推动其成熟。

2.1 安装 Anthropic SDK

在使用 Python 进行调用之前,你需要安装 Anthropic 的官方 SDK:

pip install anthropic
2.2 Anthropic 兼容接口调用范例详解

Anthropic API 的设计哲学与 OpenAI 略有不同,它更强调messages的结构和max_tokens的明确限制。魔搭的兼容接口完美复刻了这些特性。

2.2.1 流式调用(Streaming)

流式调用能够实时获取模型生成的内容,提升用户体验。

python

import anthropic# 1. 初始化Anthropic客户端client = anthropic.Anthropic(    api_key="MODELSCOPE_ACCESS_TOKEN", # 请替换成您的ModelScope Access Token    base_url="https://api-inference.modelscope.cn" # 指向魔搭API-Inference服务)# 2. 发送流式消息请求with client.messages.stream( # 使用stream方法进行流式调用    model="Qwen/Qwen2.5-7B-Instruct", # 魔搭上的模型ID,例如Qwen/Qwen2.5-7B-Instruct    messages=[ # 消息列表,遵循Anthropic的role/content格式{"role": "user", "content": "write a python quicksort"}],    max_tokens = 1024 # 明确指定最大生成token数,Anthropic API的强制要求) as stream:for text in stream.text_stream: # 遍历流中的文本块print(text, end="", flush=True)
2.2.2 非流式调用(Non-Streaming)

非流式调用会等待模型生成完整响应后一次性返回。

python

import anthropic# 1. 初始化Anthropic客户端client = anthropic.Anthropic(    api_key="MODELSCOPE_ACCESS_TOKEN", # 请替换成您的ModelScope Access Token    base_url="https://api-inference.modelscope.cn" # 指向魔搭API-Inference服务)# 2. 发送非流式消息请求message = client.messages.create( # 使用create方法进行非流式调用    model="Qwen/Qwen2.5-7B-Instruct", # 魔搭上的模型ID    messages=[{"role": "user", "content": "write a python quicksort"}],    max_tokens = 1024 # 明确指定最大生成token数)print(message.content[0].text) # 访问响应内容

关键适配点与详解:

  1. 1. base_url: 这是魔搭 API-Inference 的 Anthropic 兼容服务地址,固定为https://api-inference.modelscope.cn。请注意,不带/v1/后缀。

  2. 2. api_key: 替换为你从魔搭个人中心获取的 Access Token。

  3. 3. model: 使用魔搭上开源模型的 Model ID,例如Qwen/Qwen2.5-7B-Instruct。你可以在魔搭的模型详情页右侧找到对应的 Model ID。

  4. 4. messages: 遵循 Anthropic 的Messages API格式。Anthropic API 通常只支持user和assistant两种角色,且消息序列必须以user角色开始,并交替出现。

  5. 5. max_tokens: 这是 Anthropic API 的一个重要特性,它强制要求你明确指定模型生成响应的最大 token 数量。这有助于控制成本和响应长度。

更多 Anthropic API 用法: 魔搭的兼容接口旨在尽可能地模拟 Anthropic 官方 API 的行为。因此,如果你需要了解更多高级用法、参数设置或错误处理,强烈建议参考 Anthropic API 官方文档。

第三章:手把手教你配置 Claude Code,免费调用魔搭 API!

这正是本文的核心!对于依赖 Anthropic API 的 AI 编程助手,如 Claude Code,魔搭的 Anthropic 兼容接口意味着你可以免费、无缝地将其后端切换到魔搭平台。

Claude Code 通常会通过读取环境变量或配置文件来获取 Anthropic API 的配置信息。魔搭的兼容性正是利用了这一点。

配置步骤详解:
  1. 1. 获取魔搭 API Key: 确保你已经从魔搭平台获取了你的 Access Token。重要:在配置 Claude Code 时,请注意去掉 Access Token 开头的ms-前缀! 例如,如果你的 Token 是ms-abcdef123456,那么在配置时只填写abcdef123456。

  2. 2. 找到 Claude Code 的配置文件 settings.json: 这个文件通常位于你的用户目录下。

    • Windows 平台: 打开文件管理器,在地址栏输入: notepad C:\Users\你的用户名\.claude\settings.json (请将“你的用户名”替换为你的实际 Windows 用户名)
    • Linux/Mac 平台: 打开终端,输入命令: vim ~/.claude/settings.json (你也可以使用其他文本编辑器,如nano或code)
  3. 3. 如果文件不存在,系统可能会提示你创建。

  4. 4. 修改 settings.json 文件内容: 打开 settings.json 文件后,复制粘贴以下内容到文件中。如果文件已存在内容,请确保将其合并,特别是"env"部分。

{"env": {"ANTHROPIC_API_KEY": "你自己的魔搭API Key(注意:去掉ms-前缀!)","ANTHROPIC_BASE_URL": "https://api-inference.modelscope.cn","ANTHROPIC_MODEL": "Qwen/Qwen3-Coder-480B-A35B-Instruct","ANTHROPIC_SMALL_FAST_MODEL": "Qwen/Qwen3-Coder-480B-A35B-Instruct"},"permissions": {"allow": [],"deny": []}}

或者修改环境变量配置文件

export ANTHROPIC_BASE_URL="https://api-inference.modelscope.cn"export ANTHROPIC_MODEL="Qwen/Qwen3-Coder-480B-A35B-Instruct"export ANTHROPIC_API_KEY="376f0201-***你自己的魔搭API Key(注意:去掉ms-前缀!"

  1. 1. 参数详解:

    • "ANTHROPIC_API_KEY": 填写你从魔搭获取的 Access Token,务必去掉开头的ms-前缀。Claude Code 会将其作为 API 密钥发送给后端。
    • "ANTHROPIC_BASE_URL": 这是魔搭 API-Inference 的 Anthropic 兼容服务地址,固定为https://api-inference.modelscope.cn。Claude Code 会向这个 URL 发送 API 请求。
    • "ANTHROPIC_MODEL": 指定 Claude Code 在进行主要代码生成或复杂任务时使用的模型。这里默认配置的是 Qwen/Qwen3-Coder-480B-A35B-Instruct。你也可以根据魔搭平台支持的 Anthropic 兼容模型列表,替换成其他模型,例如GLM-4.5等。
    • "ANTHROPIC_SMALL_FAST_MODEL": 通常用于快速响应或轻量级任务的模型。为了简化配置,这里我们暂时与主模型保持一致。在某些场景下,你可以配置一个更小、更快的模型来处理简单的请求,以节省资源。
  2. 2. 保存并重启 Claude Code: 保存 settings.json 文件后,务必完全关闭并重新启动 Claude Code,以确保新的配置能够被正确加载和生效。

验证是否成功:

重启 Claude Code 后,尝试在 Claude Code 中进行代码生成、补全或提问。如果一切正常,并且响应速度符合预期,那么恭喜你,你的 Claude Code 已经成功通过魔搭的免费 API 接口调用了 Anthropic 兼容模型!

你也可以登录魔搭平台,查看你的 API 调用记录,确认是否有新的调用产生。


第四章:为什么这很重要?——免费、高效、模型多样性

魔搭免费 API 接口支持 Anthropic 协议,并能直接用于 Claude Code,这无疑是 AI 开发领域的一大福音。它带来了多重显著优势:

  • 降低开发成本: 魔搭为注册用户提供了慷慨的免费 API 调用额度。每日总计 2000 次的免费 API 调用额度,其中 Qwen3-Coder 模型每日有 500 次的专属免费额度。这对于日常开发、测试和调优来说,是巨大的成本节约,让个人开发者和小型团队也能轻松使用先进的 AI 能力。
  • 提升开发效率: 结合 Claude Code 的强大代码辅助功能和魔搭提供的免费高性能模型算力,你的编程效率将得到显著提升,让你更专注于核心业务逻辑。
  • 模型选择与性能: 魔搭平台上的 Qwen3-Coder、GLM-4.5 等模型在代码理解和生成方面表现出色,为 Claude Code 提供了强大的后端支持。你可以根据具体需求灵活切换模型。
  • 促进 AI 普惠: 更多开发者能够接触和使用先进的 AI 模型,推动 AI 技术的普及和创新。

第五章:重要提示与使用限制

尽管魔搭 API-Inference 提供了极大的便利和免费额度,但作为一项公共服务,它也存在一些使用限制和注意事项,开发者在使用前务必了解。

  • 服务定位: 魔搭推理 API-Inference 旨在为开发者提供迅速免费的便捷模型调用方式,主要面向开发、测试、学习和原型验证等场景。请勿将免费 API 用于需要高并发、低延迟以及严格 SLA(服务等级协议)保障的线上生产任务。
  • 阿里云账号绑定: 免费推理 API 由阿里云提供算力支持,因此,你的 ModelScope 账号必须绑定阿里云账号后才能正常使用。
  • 每日调用额度: 每位魔搭注册用户,当前每天允许进行总数为 2000 次的 API-Inference 调用,平台后续可能随时调整此额度。
  • 模型特定限制: 出于资源等考虑,平台可能对于部分模型进行单独的限制,这包括单个模型的单天调用总数限制(例如,Qwen3-Coder 是 500 次),以及并发限制。实际单模型可用次数以及允许的并发,以平台实时调整为准。
  • 模型迭代与下架: 随着新模型的不断推出,比较早的模型可能逐渐从 API-Inference 服务中下架。在下架过程中,平台会进一步降低这些模型的使用额度,直至完全下架。建议开发者关注魔搭社区的最新模型动态,及时更新所使用的模型。

魔搭免费 API 接口支持 Anthropic 协议,并能直接用于 Claude Code,这无疑是 AI 开发领域的一大福音。它不仅为开发者提供了免费、高效的 AI 能力,更展现了国内 AI 社区开放共享的姿态。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐