在上海的一间小工作室里,两位从未碰过硬件的搭友,决定用胶带蒙住双眼,戴上自己手搓的 AI 眼镜,走上街头,当一天“盲人”。

 

这不是行为艺术,而是一场关于“AI能否真正帮助视障群体”的校验。

https://www.bilibili.com/video/BV1THstzuEZ9/?spm_id_from=333.337.search-card.all.click

 

 

从一条评论开始的公益之旅

2022年,魔搭社区的搭友“帆哥”开始探索 AI 视觉能力。今年,他做了许多展示Qwen-VL(通义千问多模态模型)能力的视频,评论区总会看到类似这样的评论:

“既然 AI 这么强,那为什么街上看不到盲人用它?”

这句话像一根刺,扎进了他的心里。

帆哥和他的伙伴国宇决定:要让AI成为视障人士的“第三只眼”。

 

 

100多元、3D打印:做一款“真能用”的AI眼镜

市面上的导盲设备要么笨重,要么昂贵,动辄上千元。 他们给自己定下四个硬指标:轻便、便宜、小巧、低延时。

 

经过不断的实践、踩坑,最终帆哥终于研发出一种方案,初步符合这个严苛的要求:

他们基于云端大模型 Qwen-Omni API,构建了一套高性价比的实时环境感知系统,其硬件成本仅100元出头。

 

所有数据通过ESP32连接手机热点上传至云端服务器,由 Qwen 理解用户语音意图,调度不同“工作流”——比如:“帮我找西瓜”“过马路”“识别盲道”。每个工作流中都有一个小模型来做接近实时的路径和物体的检测。

 

系统以20帧/秒的频率进行语音实时反馈:“向左”“右移”“保持直行”……

这些声音,成了黑暗中唯一的导航。

 

 

被盲协主席“泼冷水”后,他们重做了一版

项目初期,帆哥满怀期待地带着AI眼镜去见上海市杨浦区盲人协会赵主席——一位体验过无数视障产品的资深用户。

 

结果?

产品频频出bug、指令混乱、设计“没戳中痛点”。

赵主席委婉地指出问题,帆哥意识到产品需要回炉重造。

没有气馁,他们连夜重构系统,提升鲁棒性,优化语音交互逻辑。

“而且这次我们得自己亲身实测!一定要让他靠谱”帆哥如是说。

 

 

蒙眼实测:恐惧、崩溃,也有温暖

第一次上街测试,帆哥蒙上双眼,心跳加速。

“闭上眼站在马路中间,电瓶车从耳边呼啸而过——那种恐惧,无法形容。”

 

还好AI眼镜真的在工作:

  • 精准识别灰色盲道,哪怕被落叶覆盖
  • 检测盲道上的电瓶车、摊位、行人
  • 在斑马线前识别红绿灯,提示“绿灯,可以通行”
  • 实时纠偏:“左转,左转,右移!”

 

经过练习后,帆哥连续走过4个街区、3个红绿灯,仅用27分钟——而过去走1/4路程就要30分钟。

 

更让他动容的是路人的善意:

  • 有大叔默默挪开占用盲道的电瓶车
  • 有小女孩在看到帆哥走偏以后,小声提醒“往右边走”
  • 有学生主动询问:“需要我带你过去吗?”

“技术能导航,但人心才是真正的光。”他说。

 

 

开源,为了让更多人加入这场“照亮”行动

目前,AI眼镜项目的全部代码、硬件清单、3D外壳模型和部署教程,均已在魔搭社区开源。

 

 

 

 

帆哥说:“我们开源出来,是希望有人能在此基础上做出更好的版本——哪怕只帮到一个人,也值得。”

 

他同时呼吁更多开发者可以关注魔搭社区发起的AI公益赛事,用AI传递ai!

 

开源项目:

https://www.modelscope.cn/models/archifancy/AIGlasses_for_navigation

 

魔搭「小有可为」AI 开源公益创新挑战赛:

https://www.modelscope.cn/competition/136

 

魔搭作为AI开源社区,我们致敬的不仅是乐于分享技术的人,更是那些愿意走进黑暗、倾听无声需求,并坚持用技术点亮微光的开发者。

 

帆哥说:“测试完撕下眼罩那一刻,那种感觉很复杂——但我可以和你保证,如果你是一个拥有健全身体的“普通人”,那么你已经足够幸运了。”

 

 

点击了解魔搭「小有可为」AI 开源公益创新挑战赛,四大赛道

「小有可为」AI 开源公益创新挑战赛modelscope.cn/active/small-but-promising?=pr

欢迎报名参加~

ModelScope 魔搭社区www.modelscope.cn/competition/136/%E6%AF%94%E8%B5%9B%E7%AE%80%E4%BB%8B

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐