七月流火,这个夏天火热的开场已然揭开。6月30号,我们在北京举办了首届魔搭开发者大会(ModelScope DevCon 2025),邀请了国内外知名的开源模型,以及头部开源工具的研发团队,与广大开发者共聚一堂进行分享。顶尖的AI 模型首次从线上 Hub走进线下盛会,为大家呈现了一场“模型全明星”盛会。同时我们还邀请了社区开发者参加我们的“搭友之夜”(aka 大规模面基大会)。大会分享场场爆满,现场只能用一句话来描述:“好~多~人~啊”,不提前占位根本挤不进去~~

 

不能来现场的,以及来了现场挤不进去的同学们,会议的直播回放已上线官方站点,可以在线观看各个技术分享的回放:

https://modelscope.cn/activity/DevCon2025-live

左右滑动查看更多

大会不仅给社区开发者提供了交流的机会,也让我们听到了更多来自社区的真实的声音,我们接下来也会把这些声音反馈到平台服务与社区建设中去,希望继续和大家一起建设更好的魔搭!

过去一个月里,大家熟悉的模型“老朋友们”依旧活跃,同时也有更多的“新朋友”加入到模型开源的浪潮中来。文心ERNIE4.5系列模型的开放,让我们看到了百度更积极的参与到开源的决心,同样来自科技大厂的腾讯混元,则推出了首个混合推理MoE模型。而出自初创公司的模型同样层出不穷,MiniMax-M1的推出,进一步推动了大模型长上下文能力的发展,GLM-4.1V则在多模态推理领域另辟蹊径,获得了社区的广泛欢迎,而来自月暗的Kimi-K2,则将开源大模型的规模卷到了1T,展现出了较好的代码以及Agentic能力。此外,稳扎稳打的“黑森林”终于开放了Flux-Kontext模型,为文图生成的开源生态注入了新的活力,ModelScope的AIGC专区也第一时间接入了Kontext生态的支持。同时更多小而美的模型,也继续在社区群星闪耀,包括Jina-Embedding-V4, Nanonets-OCR,OmniGen2,Jan-Nano等在内的模型,都在社区受到了不少关注。

ModelScope在持续做好平台服务的同时,也在不断为广大开发者提供更多在ModelScope上社区交流以及学习的便利。在魔搭开发者大会上,我们正式对外公布了为广大开发者设计的勋章体系和激励机制,同时在包括MCP广场,论文,研习社,竞赛等多个板块上,都推出了更便利的交流反馈入口。论文板块在最近引入了论文对比翻译,以及论文与模型等元素自动关联等能力,并支持了论文自主上传和claim的能力,方便大家进行更深入的模型相关技术探索。同时ModelScope上模型与MCP的生态,正在以开放的形态进行结合和互通,MCP在搜索、合集、收藏点赞、标签展示等方面的功能被不断的补齐,同时平台托管的MCP服务在上线2个月时间里,总调用次数迅速超过1亿门槛,日调用量峰值当前已经超过400万,这些数字背后,是模型借助MCP生态,更好的基于工具实现能力落地的实践。AIGC专区在借助Kontext生态进一步补齐能力的同时,其客户端ModelScope-FlowBench已进入beta评测阶段,期望给大家带来更好的工作流创作体验。

 

· 站点更新

1. 魔搭开发者激励体系-勋章板块正式登场:为激励社区优秀开发者,我们也在开发者大会上正式推出全新的勋章体系,为不同等级的勋章用户提供升级权益体验。未来,各类勋章将持续迭代,敬请期待!


 


 

 

2. AIGC专区依托DiffSynth(https://github.com/modelscope/DiffSynth-Engine)引擎,第一时间上线对于Flux.1 Kontext模型的推理支持。

 

3. MCP广场补齐收藏点赞功能,并支持MCP标签显示、调用量显示,同时合集支持MCP元素的添加。


 

4. 自主创建的MCP,支持在个人主页或组织主页上透出。

5. 论文板块新增支持用户自主认领论文,并可手动创建新的论文内容。
 


 

6. 论文板块新增 AI解析翻译功能,并支持译文与原文的自动关联跳转。不仅玩模型轻松,读模型相关的paper更加轻松。

7. 支持在AIGC创意广场、模型返图及资源库等功能模块中批量发布作品集,并新增本地文件上传能力,提升内容发布效率。

8. AIGC 生图项优化

    • LoRA模型训练-完成数据上传的视觉组件优化。

    • Kontext生图拆分图像编辑tab,支持根据input图片自适应output图片尺寸。

    • 各处翻译组件支持中/英提示词互译。

9. 模型下载入口已调整至页面顶部并保持常驻显示,所有 tab 均可访问;同时,原文/译文切换按钮支持全程滚动吸顶操作,提升用户使用效率。

10. 研习社改版上线,支持用户自由创建并分享文章内容,共建高质量AI知识生态与互动社区。

11. 竞赛页面改版上线,支持更多赛事类型,让你轻松了解并参与到社区的各类AI竞赛活动中来。

12. 创空间完成Gradio v5.34.1 升级。

13. Notebook DSW个人账号实例购买链路切换新版API,支持默认RAM角色创建等功能。同时,免费额度提示交互也完成同步优化,提升用户使用流畅度。

14. 合集广场以及合集详情等页面的模型元素样式完成与模型页面的对齐。


 

· 开源SDK与工具链更新

1. SWIFT 3.6.0 版本发布。

    • 添加ERNIE-4.5-21B-A3B,dots.llm1.inst,Hunyuan-A13B-Instruct,MiniMax-M1,Kimi-Dev-72B等LLM支持,以及GLM-4.1V-9B-Thinking,Kimi-VL-A3B-Thinking-2506,gemma-3n-E2B-it,Keye-VL-8B-Preview等多模态模型支持。
    • 在Megatron框架上支持了更多的 Dense 模型结构,包括:MiMoForCausalLM、InternLM3ForCausalLM 和Ernie4_5_ForCausalLM等,提供了FP8精度训练,以及DPO训练的支持。在RoPE scaling上完善了包括default、linear、yarn、dynamic、longrope、llama3 等支持。
    • GRPO 对多轮训练进行整体重构,支持使用 AsyncEngine 加速多轮推理;提供 offload_model 选项支持对参考模型卸载。 channel loss 在CPT/SFT训练时,兼容 padding_free 与 packing。 reward_funcs 增加通过 trainer_state 入参,获取训练步数和总步数。
    • 训练:提供了Reranker模型的训练微调支持。CPT/SFT/DPO/GRPO LLM训练支持使用 ring-attention 切分序列长度优化显存占用。channel loss 在CPT/SFT训练时,兼容 padding_free 与 packing。支持额外数据集传递至 Trainer 内,实现自定义损失函数定义。
    • RLHF:纯文本/多模态模型支持 GKD 训练。reward model 训练支持 margin 参数支持。
    • 全链路:通过--infer_backend sglang参数,引入 SGLang 推理引擎对 ms-swift 推理/部署/评测/ui模块进行加速。

2. EvalScope更新到0.17。

    • 重构了竞技场模式,支持自定义模型对战,输出模型排行榜,以及对战结果可视化,使用。优化自定义数据集评测,以及LLM裁判的使用。
    • 重构结果可视化,支持两个模型评测结果对比、支持竞技场模式结果可视化。

    • 更新文档:

支持的数据集:https://evalscope.readthedocs.io/zh-cn/latest/get_started/supported_dataset/index.html
 

自定义模型评测:https://evalscope.readthedocs.io/zh-cn/latest/advanced_guides/custom_model.html#
 

添加评测基准:https://evalscope.readthedocs.io/zh-cn/latest/advanced_guides/add_benchmark.html

 

3. 主库1.28版本发布。新增通配符批量删除文件功能。新增 Hub 下载进度回调支持,支持自定义下载进度更新回调函数。增加 Hub 上传相关的参数配置,包括 LFS 的文件大小阈值的调整等。 提供对 datasets 库 3.6 版本的兼容。 优化 VAE 分块处理流程并减少显存占用。修复了 AutoProcessor 和 AutoTokenizer 使用 from_pretrained 方法时可能出现的文件下载不完全的问题。

4. ModelScope-Agent: Agentic框架重构升级,以及Code Scratch + DeepResearch等垂直功能完善并行进行中。

5. DiffSynth:完成对AIGC模型整体训练/推理框架的重构,并更好的支持了训练框架服务化接口。第一时间接入Kontext模型,包括推理、现存和训练优化等,支持LoRA热加载以及多LoRA融合能力。


 

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐