<b></b>人工智能还是人工智障?
这是一个问题。
近二十年,人工智能技术逐渐与计算机技术、互联网进行深入融合。
得益于大规模并行计算、大数据、深度学习算法和人脑芯片这四大催化剂的发展,以及计算成本的降低,使得人工智能技术突飞猛进。
它利用计算机和互联网的发展机遇,化名为商业智能、数据分析、信息化、自动化等等,渗透到社会发展的每个角落。
一方面,互联网的推广为人工智能创造了很多落地应用的场景,体现出真正的价值。
另一方面,计算机软硬件的升级为人工智能提供了强大的运算力,以前在理论上才能实现的算法得以落地,让人工智能在越来越多赛事上创造奇迹,甚至超越人类。
但是到了实际应用中,人工智能被人们诟病最多的地方是人工智能体现不出智能。
很多人对人工智能的认知都是分裂的。
一方面媒体不断报道人工智能又取得了什么样的新成果、国外各路大咖让人们要警惕人工智能的发展、人工智能被纳入我国发展规划等各种大新闻。
另一方面,新闻里也总是传出自动驾驶发生事故、家里的智能家具表现地像个智障一样、资讯平台总是傻傻地推同样类型的新闻……
这些现象都让人们疑惑,人工智能到底智能在哪里?
就比如当初的无人驾驶汽车加速撞向翻到的大货车事件。
因为货车车顶反白光,让无人车的摄像头产生致盲反应,在没有任何信息的情况下ai是不会有什么反应的,甚至可能给出错误结论,错认成一片坦途,一个加速怼上去。
而且“反光”什么的也是交通事故发生后根据事故过程推断的,而不是ai直接得出的结论。
ai可不会告诉你,“我之所以撞上去,是因为大意了,没有闪。”
还有交通方面的人工智能,只能准确的识别到红绿灯,但是无法识别公交车上的广告海报,直接把海报上的明星框了起来,认为他们闯红灯。
还有某网站的智能识别图片直接把黑人识别成了大猩猩,被起诉了种族歧视,还差点引发零元购行动。
这种图像识别技术,它的工作原理就是将图案变成数字编码,再从这些数字编码中找到特征,查找“字典”,找到对应的解释然后显示出来。
实际上,计算机压根不知道自己识别的到底是黑人还是大猩猩,只是“字典”告诉它这个特征很大概率对应的是“大猩猩”这个单词。
绝大部分算法在本质上都是在玩概率的游戏,不同的只是在模型训练时需要的信息不同,以及计算出来对应“大猩猩”的判定方式不同。
当前所有被广泛应用的知名模型,都是通过矩阵运算训练数据来获得某种概率分布。
复杂模型的概率分布通常是高维的,这里又会引申出各种数学方法,但本质的思想依旧是想通过概率分布来描述训练数据的特征。
有了这些,就可以使用相同的概率分布去描述同类的数据,从而实现所谓的“识别”或“预测”。
实际上,并非模型真的像人类一样理解了什么是“大猩猩”,只是通过这种方式,模型能够大概率得把长得像某些特定目标的图片识别出来。
现在很多人把人工智能分为强人工智能和弱人工智能。
其中强人工智能就是“传说中”的人工智能,甚至不少人追求让计算机拥有人类的心智与意识,具有自主选择行为。