人工智能为什么看起来像人工智障?

摘要: 111222

09-12 10:36 首页 差评

因为人话真的

好难理解啊!



差评君最近注意到,雷布斯又在搞事情了。。。


他们搞了个什么 “ 小爱同学 ”


其实呢,就是为了卖音响!


这是个人工智能产品,类似于个人助理一样


不得不说雷布斯挺爱自黑的


这类产品其实现在已经有很多了。。。


和 Google 的 Google Assistant 差不多


 亚马逊的 Alexa


微软的 Cortana (中文名是小娜)


还有最后,大家整天喜欢调戏的小姐姐 Siri


上面提到的小姐姐们都是人工智能的衍生产物,语音助理。


她们的完成任务的主要过程是:


把人的发音转化成文字

理解意思(拆分,抓取关键信息)

处理信息

做出反馈(完成你布置的任务或者是调戏回来)


这其中用到了一项科技:自然语言处理 ,以下简称 NLP (Natural Language Processing ) 。这项技术是人工智能和语言学的分支。


注:NLP是一门很深奥的学问,涉及了大量数学模型和计算机理论知识。本文为了可读性,牺牲了一定(大部分)严谨(准确)性,如有 NLP 大神觉得有误,请轻轻拍打差评君的脸(喂,不要抚摸!)


差评君来稍微说一下语音转文字的过程~


声音是一种波,当你的智能设备收到你的话的时候,其实是收到了声波。


首先,这段声波会被剔除掉噪音,然后被截成很小的单位,小到不能再小(比如说人民币现在最小只能到 “ 分 ”)


机器会把每 3 个(可能不止 3 个)最小单位会组成一个音素(音素是发音的最小单位)


最后,根据这些音素可以组成文字。


最小单位组成音素

图片引用自知乎用户@张俊博的回答


相信大家多半看蒙了,举个简单的例子(为了科普,此例子不太严谨)


小黑胖说了一句 “ 我想吃鸡腿 ”。


语音识别系统会把这句话拆分成最基本的单位状态,再把最基本状态重组成 w,o, x,i,ang, ch,i, j,i, t,ui 这么多个音素,再根据自身样本数据,分析这些音素组成哪些字的概率最大,根据统计学的原理来还原成文字。

(其实中文还涉及到了同声字多,存在音调等问题,实际处理时远比差评君这里说的复杂)


至此,已经把语音变成文字,为了防止人工智能变成人工智障,接下来 AI 小姐姐们就要从文字中试图理解语义并且做出反应了~


对于计算机来说,理解语义的第一步是拆分语句。


把 “ 我想吃鸡腿 ” 拆分成 “ 我/想/吃/鸡腿 "


然后,抓取有可能是命令的关键信息,例如我/想/吃


再分析额外信息,鸡腿!


接着,AI 小姐姐会处理这句话,找出相应的应对措施:


吃 -> 找个饭店

鸡腿 -> 鸡肉料理


小姐姐就会觉得你是想找鸡腿吃了!然后直接调查数据库,找配对。


最终输出结果:


而数据库越庞大则小姐姐们越 “ 聪明 ”,这也是各大厂商宣传时提到的重点:她们会越来越智能。


因为你每次使用它相当于一次训练,这样一套系统等于集中了全世界的用户来提供样本去提升她们。

这种情况随着进化就不会出现了↓


至于,为什么都是小姐姐呢(其实Siri可以选小哥哥)?因为女性声音容易给人亲近放松的感觉。


除了小爱同学,其他的小姐姐们的二次元形象只有 Siri 才有,还是日本网友创造的,还顺带做了支歌发了个唱片。。。


小米这回的小爱同学形象倒确实是走在了前面,官方逼死同人了。。。


不过不同的语音助手智能水平的确有些差距。


比如说,你问小姐姐们 “ 今天天气怎么样 ”,都可以得到天气反馈。


小米手机的语音助手


但你接下来不问 “ 明天天气怎么样 ”,而是接一句 “ 明天呢 ”,就会。。。


没有对比就没有伤害,咱们看看 Google 家的。


这是 Google assistant 的


可以看到 Google 的技术的确挺成熟的,而且除了天气还会添一句 “ 路可能会有些滑 ”, 给人的感觉更加像是和人在说话。


不过,因为学习的不够深度,现在大多数 AI 小姐姐都处出智障状态。。。


这个技术还在不断的完善,也许以后可以变得和许多科幻电影里一样,成为人机交互的主要方式。


这样,计算机技术的使用门槛会变得越来越低,爷爷奶奶们也可以轻松使用~


说不定以后你泡在手机上最大的理由就是和小姐姐们聊天,而不是微博,微信,知乎。。。



“ 其实,差评君只是一段程序。。。 ”


首页 - 差评 的更多文章: