谷歌着手落地“张嘴就能付钱”的语音支付功能
2020-05-29 19:54:01 时小峰

  原标题:谷歌着手落地“张嘴就能付钱”的语音支付功能

 

  随着技术的进步,如今移动支付的手段也早已呈现出日新月异的景象,从早前输入繁琐的密码,现在已经有了更加方便安全的指纹与人脸识别。不过现在在智能手机上已经很常见的声纹识别,却很少被应用到支付领域。而在近日有消息显示,谷歌方面已经开始着手在旗下产品中,落地这项“张嘴就能付钱”的语音支付功能。

  据相关媒体的报道显示,目前谷歌已经正在测试一项新功能,将允许消费者使用语音匹配(Voice Match)进行授权确认支付。而谷歌方面也证实,并不是所有的购买都会提供语音识别,现阶段这项功能仅适用于APP内购与餐厅订单,并不适用于谷歌购物(Google Shopping)。

 

  按照该报道中的说法,这一语音支付功能原本计划在今年I/O开发者大会上发布,但由于疫情的原因只能跳过发布直接开始测试。目前在位于Google Assistant (谷歌语音助手)的支付界面中,就能看到“Confirm with Voice Match”的选择。

 

  事实上,语音支付这项技术其实并不新潮,甚至于比语音助手所依赖的自然语言处理(NLP)更加古老。没错,语音支付与自然语言处理尽管说都与语音相关,但二者却有着天壤之别,语音支付的本质是进行声纹识别,但声纹识别显然并不等于语音识别。

 

  而声波传输是利用声音作为传输方式的一种数据通信模式,比如我们说话的过程,就可以理解为把信号编码成声音的过程。而聆听的过程,则是把音频信号解码成语言文字的过程,所使用的汉字与拼音之间的对应关系,其实就相当于是音频协议。

 

  但声纹识别则是个性识别,需要通过提取语音中的声纹特性,判断说话的人是谁,也就是解决“谁在说话”的问题。而语音识别是共性识别,判断的是说话的内容,解决“说了什么”的问题。显而易见,在语音支付中最重要的,是判断说出支付命令的人是谁。

 

  由于每个人的发声器官在尺寸与形态方面大概率不会完全一致,因此这些差异也导致了发声气流的改变,进而产生了声纹的差异。所以我们才能“未见其人,先闻其声”,通过音色、音调和说话习惯,可以判断声音主人的身份,因此同理也能用算法提取语音信息中明显的、抽象高维的声纹特征,并用深度学习来训练模型,进而利用具备独特性的生物特征,来证明“我是我自己”这样的命题。

 

  事实上,使用声纹识别来完成语音支付的过程很简单。就是用户发出带有确定命令的声波,终端设备获取这一声波并转化为会话(Session),并将具体的商品信息以及交易号发送到谷歌后台,其在服务器端匹配了声纹信息后就能开始进行交易操作,最后再将完成交易的信息,推送到谷歌语音助手中。

 

  而在谷歌此次确认测试语音支付之前,亚马逊方面在去年秋天就已经开始允许用户使用语音命令在自家的Alexa上支付账单,一旦用户使用类似“ Alexa,支付我的移动账单”来批准交易,Alexa将使用Amazon Pay支付账单金额,并通过用户注册的手机号码发送确认。此外,国内市场的天猫精灵也早已可以使用语音支付,根据阿里方面公布的数据显示,仅在去年双十一期间,天猫精灵上就共有105万笔订单是通过说话的方式支付成功。

 

  不过谷歌想要实现的,显然并不仅仅是在自家Google Home智能音箱上使用语音支付,而是瞄准了适配场景更为广阔的智能语音助手。不过谷歌能想到的,亚马逊与阿里难道想不到吗?在智能语音助手上全面接入语音支付,毫无疑问会大幅度提升用户的使用体验,毕竟相比于人脸与指纹识别,声纹识别的便捷性要高得多。

投稿:lukejiwang@163.com
点击展开全文
Copyright © 2002-2024 鹿科技