登录社区云,与社区用户共同成长
邀请您加入社区
随着大模型的持续演进,研发重心正从“预训练”显著转向“后训练”。要充分挖掘模型在各类场景下的应用潜力,针对性的训练微调至关重要。不可否认,以强化学习(RL)为代表的后训练范式,是模型生命周期中复杂度最高的环节之一:其实现方式高度定制化,难以通用;组件耦合度高,导致源码层面的理解门槛极高;此外,多模型协作的架构也极大地增加了代码编写的难度。 除了 OpenAI 提供的“数据进,模型出”
AI4S(AI for Science,科学智能)正日益成为科研工作者必须掌握的关键能力与新型科研范式。 3月5日晚,上海科学智能研究院(上智院 SAIS)、复旦大学、魔搭社区、Datawhale 联合策划的《AI4S 实战派》正式启航。首场直播邀请到浙江大学百人计划研究员、前微软亚洲研究院高级研究员、RD-Agent(GitHub 1.3w+ Star项目)核心作者——方榯楷。 他
图像编辑领域迎来重大升级,在 1.0 版本发布不到一个月的时间,小红书 Super Intelligence 团队推出 FireRed-Image-Edit-1.1 。 作为小红书 Super Intelligence Team 在图像生成与编辑领域的又一次重要探索,该模型在处理 ID 一致性编辑 、多元素融合 、人像美妆 、字体风格参考等方面展现出更强实力。同时,支持训练、部署优化全家桶,4.5
Lightricks的开源续作 LTX-2.3正式开源,这是 LTX-2 音视频基础模型的重大版本更新,在视频质量以及提示词遵循方面均有提升。LTX-2.3重建了 VAE 架构、扩容文本连接器,同时改进 I2V 训练,也更换音频声码器,并首次支持原生竖版视频生成。 ltx2-3-hero-fin-opt1.mp4 开源地址: 模型权重: https://modelscope.cn/
很高兴和大家宣布,继 Step 3.5 Flash 模型开源,阶跃团队又开源了这款 Agent 基座模型的预训练/中训练/训练框架! Base 权重: https://www.modelscope.cn/models/stepfun-ai/Step-3.5-Flash-Base Midtrain 权重: https://www.modelscope.cn/models/stepfun
来自小红书超级智能团队的 FireRed-OCR,以仅 20 亿参数的轻量模型,在权威文档解析基准 OmniDocBench v1.5 上拿下端到端方案第一,综合得分 92.94%,超越 Gemini 3.0 Pro、DeepSeek-OCR 2 和 Qwen3-VL-235B。 模型已在ModelScope 开源,感兴趣可以直接体验 Demo 或下载权重本地部署,采用Apache 2.0协议,代
大模型推理太慢、显存不够用?腾讯混元团队开源的 AngelSlim,一套工具解决量化、加速、剪枝三大难题。 为什么需要模型压缩? 近年来,大语言模型(LLM)和多模态大模型(MLM)的能力发展速度很快——复杂推理、零样本泛化、跨模态理解,样样精通。但这些能力的背后,是一道绕不过去的"推理墙"(Inference Wall): 自注意力机制的计算复杂度是 O(n²),序列越长,消
在代码大模型(Code LLMs)的持续演进中,竞赛级编程(Competitive Programming)是考验其极限算法思维与长逻辑推理的核心高地。然而,当前在该领域性能领先的模型,往往高度依赖有限的真实世界竞赛数据,这不仅带来了真实数据枯竭问题,也引发了严重的数据污染担忧。 能否仅依靠纯合成数据,将大模型的代码推理能力提升至专家水平? 近日,来自微软和清华大学的研究团队联合发表了一项最新研究
本地运行、零 API 成本、结构化输出 100% 准确 —— LocoOperator-4B 是一个专为代码库探索设计的蒸馏模型,或许会改变你使用 AI 辅助编程的方式。 背景:Code Agent的"贵"从哪来? Code Agent 是目前最受开发者欢迎的Vibe Coding方式,很多Code Agent核心工作模式是主智能体 + 子智能体的两层架构:主模型负责决策和代码
更好的架构、更高质量的数据、更大规模的强化学习,才是推动智能进步的真正引擎。 一句话读懂 Qwen3.5 今天,Qwen团队正式发布 Qwen3.5 中等规模模型系列,包含四款各有侧重的模型: 模型定位Qwen3.5-Flash生产级托管版,对应 35B-A3B,默认 100 万上下文Qwen3.5-35B-A3B小体积,超强能力,已超越 Qwen3-235B-A22BQwen3.5-122B