登录社区云,与社区用户共同成长
邀请您加入社区
在 Coding Agent 的实际应用中,我们观察到一个反复出现,却常被忽略的的现象:用户对 Agent 的不满,往往不是因为它“做不到”,而是因为它“做得不好”。 通过整理用户体感反馈,我们发现最高频的抱怨集中在:Agent 不遵循明确给出的指令。比如用户在系统提示中明确要求“不要使用 emoji”,Agent 却在代码注释里加上笑脸;用户要求“先备份再修改”,Agent 直接 [rm-rf
今天,智谱联合华为开源新一代图像生成模型GLM-Image,模型基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的SOTA多模态模型。 GLM-Image采用自主创新的「自回归+扩散解码器」混合架构,实现了图像生成与语言模型的联合,是智谱面向以Nano Banana Pro为代表的新一代「认知型生成」技术范式的一次重要
当全行业还在争论 30B 能否挑战万亿参数时,OpenBMB给出了一个更激进的答案: 4B。没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分
前段时间,我们发布了 Qwen-Image 的 Image-to-LoRA 模型(https://modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L),它可以直接将图片数据转化为 LoRA 模型,从而生成相似的图像。 在发布这个模型之后,我们一直在思考能否将这样的能力赋予图像编辑模型。很遗憾,我们没能训练出图像编辑模型的 Image-to-L
2025年6月,通义千问Qwen团队开源了面向文本的Qwen3-Embedding和Qwen3-ReRanker 模型系列,在多语言文本检索、聚类和分类等多项下游任务中取得了业界领先的性能,被社区开发者广泛使用。 1月8日,Qwen团队再推出家族最新成员:Qwen3-VL-Embedding 和 Qwen3-VL-Reranker模型系列。基于其最近开源的Qwen3-VL模型构建,专为多模态信息检
当仿真环境的真实性逼近物理世界,当场景构建的效率以“自然对话”和“分钟”来衡量,具身智能的研发范式将发生根本性改变。智元机器人在CES国际消费电子展首日正式发布首个大语言模型驱动的开源仿真平台——Genie Sim 3.0。基于NVIDIA Isaac Sim , Genie Sim 3.0 融合三维重建与视觉生成,打造数字孪生级的高保真环境;首创大语言模型驱动,让万级场景的生成只需几分钟;同步开
在当前大模型动辄数十亿、数百亿参数的“军备竞赛”中,轻量级模型常被视为“能力有限”的代名词。然而,腾讯 Youtu 团队最新开源的 Youtu-LLM(1.96B)却打破了这一偏见:它在参数不到 2B 的前提下,不仅在通用能力上媲美 4B 级别模型,更在智能体(Agentic)任务中大幅超越同规模甚至更大模型,首次系统验证了轻量模型也能拥有强大的“原生智能体能力”。它不依赖 “蒸馏”(模仿大尺寸模
大家一定非常熟悉这个场景:每当一个新的模型发布时,总会有一张张华丽的雷达图或条形图来展示其强大的性能。 这些图表中,我们经常都能看到那些耳熟能详的评测基准名字: MMLU:涵盖几十个学科,代表“通识教育”水平;AIME25:数学竞赛题,代表“数学推理”能力;LiveCodeBench:Python 代码生成,代表“编程能力”。 这些榜单就像是模型的“高考成绩单”,它们当然重要,因为它们确立了模
2026第一天,由九坤投资创始团队成立的至知创新研究院(IQuest Research)开源了其最新工作 IQuest-Coder-V1 系列代码大模型,包含从 7B 到 40B 参数规模的模型,并提供标准版和 Loop 版本,并覆盖不同使用场景: 每个参数规模都提供Base、Instruct和Thinking三个版本40B版本额外提供Loop变体,专为高效部署优化所有模型均支持128K上下文长度
元象正式开源聚焦泛娱乐场景的底座大模型 XVERSE-Ent,包含中、英文双版本。模型深度适配泛娱乐(Entertainment)核心领域,覆盖社交互动、游戏叙事、文化创作(含小说、剧本)等关键场景,支持轻量化部署与垂直场景深度落地,填补了泛娱乐领域专属开源大模型的空白。 XVERSE-Ent 在通用大模型能力基础上,依托元象 AI 泛娱乐产品服务全球千万级用户的实践经验,经稀缺的垂直领域数据深