昨天下午,搜狗召开发布会,正式推出全新语音交互引擎“知音”。官方称,“知音”引擎能够在用户说话的过程中对语音识别提供纠错功能,使人机交互在语音层面上更加自然。
据介绍,“知音”引擎的语音识别错误率相对下降了30%以上,语音识别速度则提升3倍;其次,该技术还能在语音交互的过程中支持用户通过语音修正错误的识别结果,用户告诉“知音”引擎需要修改哪里,例如可以说:“把‘张’修改为立早‘章’,或者把‘张’修改为文章的‘章’;此外,“知音”引擎还能支持多轮对话,主动询问用户更加精确的搜索条件。
8月1日,搜狗发布了2016年第二财季财报,数据显示,搜狗第二季度收入达到11.5亿元,同比增长27%,而净利润为2.2亿元,同比增长30%。
——“我要去机场。”
——“T1还是T2?”“出发还是接人?”
这是手机用户在使用搜狗语音交互的一个场景。
8月3日,搜狗正式对外发布了语音交互引擎——知音。搜狗CTO杨洪涛对包括第一财经在内的媒体透露,此前,不少语音识别停留在“能听会说”的阶段,借助人工智能,现在搜狗的语音识别还具有“能理解会思考”的能力。
而在杨洪涛身侧的PPT大屏幕上,同步了搜狗语音识别对他演讲内容的文字,第一财经记者看到,同步速记虽然偶有错误,但大意基本正确。
杨洪涛对媒体介绍,搜狗的“知音”引擎可以做到识别速度更快、纠错能力更强、支持更加复杂多轮的交互以及更加完善的服务能力。
具体而言,在技术上,“知音”解决了用户在说话过程中因语速过快而导致的吞音问题,语音识别错误率相对下降30%以上,语音识别速度提升3倍。
此外,“知音”能够在语音交互的过程中支持用户修正错误的识别结果,用户可以使用自然语言即可修改之前的输入文字。例如,说出“把(男)他改成女字旁的她”、“弓长张换成立早章”等,输入法便可以马上理解并正确执行指令。
在支持多轮对话上,“知音”能够处理更复杂的用户交互逻辑,用更自然并且用户更容易接受和理解的方式进行交互,更好地感知用户语音请求背后的真正需求,从而提供更为便捷的人性化服务。例如,当用户说我要去首都机场,它会问T1还是T2,当用户确定航站楼后,它会问是出发还是接人。
而在这背后,搜狗借助的是多年来的数据和技术积累。
杨洪涛介绍,搜狗从12年开始研发智能语音技术,并在13年开始进行深度学习,目前搜狗的智能语音技术已经成功应用到搜狗的全线产品中。
数据显示,搜狗搜索日均语音搜索次数增长超过4倍,搜狗手机输入法日均语音输入超过1.4亿次。
杨洪涛透露,自然交互和知识计算是搜狗在人工智能领域的两大战略方向,目前搜狗在AI领域的研发已经全面展开,并在智能语音领域取得了重大突破,“知音”引擎就是搜狗在自然交互方面的重要成果。而未来随着搜狗在自然交互与知识计算方面的不断完善,“知音”将会在更多场景为用户提供服务。
在搜狗CEO
王小川看来:“搜索本身就是一种AI,随着人工智能时代的到来,搜狗将不断增强自身技术实力的积累。搜狗目前已在语音识别领域取得了重大突破,未来一方面将通过与清华合作进行人工智能领域前沿技术研发,另一方面也将在自然交互与知识计算上不断完善自身产品与服务。”
而在商业化方面,根据搜狐刚刚发布的截至6月30日的2016财年第二季度财报显示,搜狗第二季度非美国通用会计准则下净利润达到2.2亿元人民币,同比增长30%;收入达11.5亿元人民币,同比增长27%。
进入
【新浪财经股吧】讨论