登录社区云,与社区用户共同成长
邀请您加入社区
七月流火,这个夏天火热的开场已然揭开。6月30号,我们在北京举办了首届魔搭开发者大会(ModelScope DevCon 2025),邀请了国内外知名的开源模型,以及头部开源工具的研发团队,与广大开发者共聚一堂进行分享。顶尖的AI 模型首次从线上 Hub走进线下盛会,为大家呈现了一场“模型全明星”盛会。同时我们还邀请了社区开发者参加我们的“搭友之夜”(aka 大规模面基大会)。大会分享场场爆满,现
AI 科学家时代正加速到来,但科研智能体真的做好准备了吗?真实科研场景中,多模态智能体能否在推理、规划与执行等关键能力上达到人类科研人员的水平?我们又该如何准确评估它们的科学认知能力和数据分析表现? 为了解开这些谜题,由 OpenMMLab、司南评测体系、Hugging Face、ModelScope、知乎、MLNLP、北京超算、机智流、GDG 等社区联合发起的 AI Insight Talk
语言模型正迎来划时代的技术跃迁!传统Transformer架构依赖分词器(tokenizer)的范式即将被颠覆,一种全新的端到端建模方式正在崛起。 近期,Mamba 的作者之一 Albert Gu 在发表最新研究《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》中提出了一个分层网络 H-Net,其用模型内部的动态分块
01.背景 近年来,大型语言模型(LLMs)发展迅速,比如 ChatGPT、Qwen、Claude、 Llama。这些模型最初的能力来自预训练规模的扩展(pre-training scaling),即通过 “next-token prediction” 的任务,在海量语料上训练,从而获得通用能力。但是面对具体场景,由于场景任务目标不一定和通用能力匹配(比如对齐场景),所以预训练模型表现会有一些不足
♦引言 黑森林的Kontext 模型已经开源了一段时间,社区生态迅猛发展,Kontext LoRA已经层出不穷。就在今天,魔搭社区的开发者开源了4种全新的Kontext LoRA,blingbling的雕像风格、拿捏氛围感的图像美学提升神器... 本期文章,魔搭带你玩转这几个Kontext 的 LoRA,解锁新奇的图像编辑新玩法! LoRA案例效果 超低分辨率图像的高清化:让表情包重新焕发生机 图
今天,月之暗面正式发布 Kimi K2 模型,并同步开源。 Kimi K2 是一款具备更强代码能力、更擅长通用 Agent 任务的 MoE 架构基础模型,总参数 1T,激活参数 32B。 在 SWE Bench Verified、Tau2、AceBench 等基准性能测试中,Kimi K2 均取得开源模型中的 SOTA 成绩,展现出在代码、Agent、数学推理任务上的领先能力。 Kimi K2
GPT-4o 所展示对话式 AI 的新高度,正一步步把我们在电影《Her》中看到的 AI 语音体验变成现实。AI 的语音交互正在变得更丰富、更流畅、更易用,成为构建多模态智能体的重要组成部分。 但是,“最后一公里”的挑战仍然存在:Voice Agent 依然不像真人一样交谈。 在真实对话里,插话、停顿、甚至讲话重叠都很常见。如果语音 AI 的回应太早、太晚、或者干脆没有回应,整个用户体验就会
魔搭ModelScope本期社区进展: 1481个模型:Kimi K2系列、SmolLM3-3B、Skywork-R1V3-38B、Phi-4-mini-flash-reasoning、Devstral-Small-2507、WebSailor-3B等; 324个数据集:arXiv-abstract-model2vec、SadeedDiac-25、opendebate等; 528个创新应
01 引言 6月底,Google正式开源发布了全新端侧多模态大模型Gemma 3n!相较此前的预览版,最新的 Gemma 3n 完整版进一步提升性能表现,支持在 2GB 内存的硬件上本地运行,重点提升了编码和推理方面的能力。 Gemma是来自Google的一系列轻量级、最先进的开放模型, 它们基于创建Gemini模型所用的相同研究和技术构建。 Gemma 3n模型专为在资源有限的设备上高效执行而设