AI语音为什么像人工智障,机器人有办法理解人类语言吗
国外有siri亚马逊,国内有小爱小艺等,AI语音助手已经全面在全球都开花落地了,但是这个东西本来被称为人工智能,实际上应用效果让大家都比较的尴尬,所以赠予了一个爱称叫人工智障,确实,以现在人工智能语音的理解能力与表达能力来说,智能不至于,智障绰绰有余。
机器人理解人类语言的难点
经过了数万年的发展,人类的语言已经进化得非常巧妙,语言要满足以下这几个特点才能被广泛传播,第一就是它要足够简单易懂,第二就是它必须用尽量简单的语言表达各种复杂的情况,总结来说,同一句话必须在不同的环境下有不同的意思,以满足最简单的语言系统能表达最复杂情况的条件。
举一个例子,哈哈多数情况下代表着开心,但有时候它代表着愤怒,有时候代表着冷漠等情绪,而且这是其他人很容易读懂的情绪词,通过不同的环境语义,旁人深有感触,但你指望一个机器人读懂它,这怎么可能。
说了这么多,大家应该知道原来的语言有多么的复杂了吧,机器人们理解不了你的语言,这也是没办法的,目前,苹果的siri已经是放弃挣扎了,基本上只会按照人工智障的模式,回答一些最简单的问题,推荐一下最简单的产品。
而国内的语音助手在抢夺市场地盘上频出奇招,通过程序员与策划运营编写的段子,它能在一些比较常用的语境情况下,答出最有效果的标准答案,它并不懂这些,但程序员写好了它遇到这些常见情况应有的回答,所以它的本质虽然还是人工智障,但至少是个披着智能皮的智障。
读懂语境,有可能吗?
想要跟一个人进行对话最重要的是倾听,也就是说机器人在未来必须要读懂人那一句话的意思,这涉及到了非常复杂的语境问题,对千变万化的语言系统而言,机器人真的有可能读懂吗?
目前谷歌在这个领域进行了两个尝试,分别是LaMDA、MUM,前者是智能连续对话系统,后者是语境理解系统,智能对话系统会进行拟人化,语境理解系统会主动搜索你提到的东西,并且结合不同的天气、环境甚至是你的心情来综合判断它,目前谷歌这个AI模拟效果也是很差,但至少算是未来AI发展的一种可能性。
写下所有的可能性,训练所有的情况
在未来,AI发展有两种前进的路径,第一是跟目前国内很多公司在做的那样,写下所有的可能性,第二是做出足够多的模型让AI去学习,训练所有的特殊情况,这样一来不管它遇到了什么奇奇怪怪的问题,都能拥有完美的回答。
但问题是,不管是第1种还是第2种可能性,都必须要满足前提条件读懂,就算是一句谢谢,如果你无法识别当下的语境是愤怒,而傻乎乎以为是开心,你的回答怎么看都会让本就糟糕的事情更糟。
所以就算大家为AI制造了再多完美的回答,匹配了任何一种情况,如果AI无法识别当时是什么情况,应该用哪句话来应对的话,人工智障依然只是人工智障,所以这一切的大前提是它必须要读懂,但如果已经能够做到智能读懂了,为什么不能做到智能回复?而如果已经做到智能回复,那么它是否已经属于生命了呢?