【财新网】(记者 叶展旗)在人工智能(AI)发展过程中,真正的风险并不是人们想象的超级智能,而是现已涌现的安全、伦理问题。10月31日,在2019北京智源大会上,中国科学院自动化研究所研究员曾毅接受财新等采访时表示,实际上很多企业对存在的风险视而不见,人工智能的健康发展,一定是治理和发展双轮驱动,要保证它向着正确的方向发展。
曾毅举例称,当用对抗神经网络生成一个乌龟的3D模型,谷歌的分类系统就有80%的几率,把这个乌龟的模型识别成来福枪,另外20%的几率识别为其它的东西,但也绝对不会是乌龟。这也就是说,系统没有一次能把3D乌龟模型成功识别出来。因为对抗神经网络改变了3D乌龟模型的局部纹理,使得基于统计意义的分类系统,没有办法把它识别出来。