网站优化案例

网站优化之人工智能是个黑盒子

来源:本站日期:2018-2-5

用不太严格但容易理解的方式说,深度学习就是给现有数据(大量数据)打标签,然后系统自己总结数据和结果(也就是所打的标签)之间的关系,面对新数据时,就能依据自己总结的规律给出判断。对围棋来说,无论历史棋局还是自我对弈,AlphaGo知道盘面,也知道结局(也是一种标签),系统就会总结规律,面对新盘面时判断赢棋的概率。但AI系统找到的是数据的哪些特征,与结果之间是怎样的关系,连创造AI的工程师也不知道。

所以,现在的人工智能系统是个黑盒子。我们知道AI判断的正确率高,但不知道为什么,不知道是怎么判断的。

搜索算法中的AI也是如此。百度搜索工程师的说法很少见到,只是知道百度现在All In AI了。Google工程师明确表示过,他们对RankBrain到底是怎么工作的也不太清楚。在这种情况下,在算法中大量使用人工智能就比较麻烦了,一旦出现异常结果,不知道是什么原因,也无法debug。

前些天看到一篇纽约时报的文章“AI能学会解释它自己吗?”,非常有意思。一位心理学家Michal Kosinski把 20 万社交网络账号(是个约会网站)的照片及个人信息(包括很多内容,如性向)输入面部识别人工智能系统,发现人工智能在只看到照片的情况下判断性向准确率很高。人工通过照片判断一个人是否同性恋的准确率是60%,比扔硬币高一点,但人工智能判断男性是否同性恋准确率高达91%,判断女性低一些,也有83%。

从照片里是看不到音色语调、体态、日常行为、人际关系之类帮助判断的信息的。同性恋有纯相貌方面的特征吗/?靠相貌判断不大靠谱。我以前认识一对男同,他们都是很man的那种,常年健身,待人彬彬有礼但绝没有女气,从外表是看不出来的。也可能是依靠某种服饰特点?表情?背景?人工智能从照片中到底看到了什么我们人类很可能忽略了的特征,或者人类根本看不到的特征,并达到91%的准确率呢?不得而知,反正只是知道AI看得挺准。

首页
电话
短信
联系