最后的四小时冲刺,像一场无声的战役。207工作间里只剩下机器风扇的嗡鸣和偶尔压抑的咳嗽。林筱筱觉得自己的太阳穴在突突地跳,眼皮沉得要用牙签才能撑开,但大脑却异常亢奋,反复演练着演示的每一个字、每一个手势。
陆星辰完成了最后的代码提交和文档整理,靠在椅背上闭目养神,但微蹙的眉头显示他仍在思考着什么。周子豪趴在桌上,发出轻微的鼾声,被姜楠毫不留情地一巴掌拍醒。
“醒醒!最后检查设备!”姜楠自己也困得不行,用力掐了下胳膊。
离演示还有一小时。他们需要提前十五分钟到演示大厅外等候。四人最后一次联调了“瞳伴”系统的演示流程,确认在断网情况下也能基本运行。
“识别率还是不太稳定,”周子豪看着测试数据,“特别是光线暗的时候,容易把垃圾桶认成花坛。”
“我们的演示环境光线充足。”陆星辰平静地说,“重点展示核心流程和设计理念。技术局限性可以坦诚说明,这是原型阶段的正常情况。”
林筱筱点点头,深吸一口气:“我准备好了。”
她的声音有些沙哑,但眼神坚定。
演示大厅外已经聚集了不少队伍。每个人都面带倦容,但眼神里都燃烧着最后关头的斗志或忐忑。楚然团队也在,他们看起来状态相对更好一些,楚然正在和队员低声做着最后的叮嘱。秦朗站在队伍边缘,目光不时瞟向林筱筱他们这边,尤其在看到林筱筱略显苍白却依旧挺直的背影时,眼神复杂。
按照抽签顺序,“星辰大海”排在第七位,楚然的“智绘”团队排在第九位。不算太差,也不算太好。
进入大厅等候区,气氛更加凝重。前面队伍的演示隐约可闻,有的激昂,有的沉稳,也有的能听到评委尖锐的提问和选手略显仓促的回答。每一次掌声或沉默,都牵动着外面等待者的神经。
轮到他们了。
工作人员示意他们进入。林筱筱走在最前面,陆星辰紧随其后,周子豪和姜楠拿着演示设备跟在最后。踏进演示区的瞬间,明亮的灯光和评委席上五道审视的目光,让林筱筱的心跳骤然加速。
评委席上坐着三男两女,都是业界知名的专家或企业高管,表情严肃。长条展示台上摆放着他们的演示平板和那个小小的呼叫按钮原型(这次没带,但林筱筱提了一句)。
“各位评委老师好,我们是来自A大的‘星辰大海’团队,复赛项目是‘瞳伴’——一款为视障人士设计的实时环境感知与语音辅助系统。”林筱筱开口,声音虽然有点干涩,但清晰平稳。
她没有急于展示技术,而是像初赛一样,先播放了一段只有三十秒的短视频。视频里没有人物,只有一些第一视角的晃动画面——模糊的街道、难以辨认的招牌、突然出现的障碍物,配上嘈杂的环境音和略带不安的呼吸声。视频最后黑屏,浮现一行字:“如果这是你‘看’到的世界……”
这个简短的开场,瞬间将评委和观众带入了视障者的视角,营造出强烈的共情感。
接着,林筱筱开始讲解“瞳伴”的设计初衷和核心功能。她从自己之前在“守望”项目中积累的对特定人群需求的思考讲起,提到姜楠的义工经历带来的启发,强调他们团队的目标不是做最炫酷的技术,而是做“最可靠的眼睛”。
演示环节,由陆星辰操作。他打开“瞳伴”APP(一个极其简洁的界面),启动语音指令:“瞳伴,帮我看看前面。”
手机摄像头对准了评委席方向(事先沟通过,避开人脸特写)。经过略微延迟,生硬的电子音响起:“正前方约三米处,有桌子。桌上有……电脑,水瓶,纸张。左侧有绿色植物。右侧有……门。”
识别并不完全准确(把评委的名牌识别成了“纸张”),延迟也明显,但基本流程清晰。
陆星辰又演示了文字识别功能,对准手里一张准备好的、印有大字体的纸板:“瞳伴,读一下这段文字。”
电子音逐字读出,虽然语调平淡,但准确无误。
最后,他演示了障碍物预警模拟,用一个玩具小车代表移动车辆,当摄像头捕捉到小车进入特定区域时,系统发出急促的语音警告:“注意!左前方有移动物体接近!”
整个演示过程,技术上的“不完美”显而易见——识别速度慢、准确率有待提升、语音生硬。但评委们看得很专注,尤其是那位戴眼镜的女评委(资料显示她曾主导过多个信息无障碍项目),听得格外认真。
演示结束,进入提问环节。气氛陡然紧张。
一位头发花白的男评委率先提问:“你们的系统延迟很明显,识别准确率也不够高。在实际使用中,这样的体验可能无法满足视障人士快速反应的需求。你们如何看待这个问题?”
问题很尖锐。周子豪和姜楠屏住了呼吸。
陆星辰上前一步,语气平稳:“您说得非常对。这是我们当前原型的主要局限。延迟主要来自手机端复杂模型的计算负担,我们通过模型裁剪和优化,已经将延迟从最初的超过一秒降低到目前的水平,但仍有很大提升空间。我们的策略是分阶段推进:当前原型旨在验证核心流程和交互模式的可行性;下一步将探索专用硬件加速、边缘计算与云端的协同,以及更高效的模型架构,目标是将延迟控制在300毫秒以内,达到可用级别。”
这章没有结束,请点击下一页继续阅读!