近几年,AI领域对于残障人士的关注越来越多,很多企业正致力于通过AI赋能信息无障碍。近日,在「Google Solve with AI」活动上,Google 介绍了Google AI 针对听障和言语障碍患者人群推出的应用的新进展和覆盖情况。
在智能手机流行的当下,语音界面比以往任何时候都更常见,但或许很多人在享受语音界面带来便利的同时,并没有想到,在同一片苍穹下,语音界面并无法得到平等的访问。
据Sagar Savla介绍,目前全球有4.66亿人患耳聋或听力障碍,这一数字在2055年可能会增加至9亿。听力受损使得人们很难与周围的世界沟通交流,这是人类社会中一项严峻的挑战。也就是说,还有很多人没有机会或资格享受语音界面带来的方便。
而语音识别 (speech recognition) 功能Live Transcribe的出现,就是为听障人群解决现实问题。该功能可以实时自动转录对话,让无法参与对话中的听障人群真正意义上地加入进来。
言语障碍患者是一个较大的群体。Google AI 产品经理Julie Cattiau在接受新浪科技采访时提到,Google今年启动的Euphonia项目,正在通过招募志愿者,积累更大的残障人士语言数据库,希望最终帮助所有的言语障碍患者进行交流。目前,Live Transcribe应用程序支持超过70种语言,通过在手机屏幕上把现实生活中的语音转录为文本,帮助耳聋和听障人士与他人沟通。
据悉,该功能通过为言语障碍患者建立语音识别模型,和能够识别其他沟通方式( 如手势,眨眼等)的基于计算机视觉的模型,让机器去理解他们说话的方式,用AI语音技术帮这些患者“说话沟通”。
在活动现场,Julie Cattiau通过一段视频,展示了通过该功能,可以相对准确地读取出有语言障碍人士的表达。
Julie Cattiau在采访中表示,现在一般的语言识别已经有大量的数据了,也有很多人在使用这个平台了。但是在Euphonia这个项目中,其实并没有想象中那么美好,很多有语言障碍的人很少愿意来参与。目前,正在通过招募更多言语障碍志愿者,让他们朗读一些词汇,积累表达,这样就能建立一些数据。
“这些数据实际上没有那么多,虽然我们在语音识别方面取得了很大的进展,但依然存在这样的挑战。”Julie Cattiau坦言。
据了解,通过和这些非营利组织的合作,Euphonia项目团队需要记录更多患者的声音,然后将这些声音来训练人工智能,从而创建能够识别这些语音的算法和频谱图。目前,由于没有人收集到足够大的数据集,语音识别技术可能不适用于有语言障碍的人士,而这将是Euphonia着手研究的部分。