中国科学院院士姚期智:人工智能存在三大技术瓶颈

2020-11-26 16:44:27 白姐娱乐站

人工智能目前存在哪些技术瓶颈?未来是否可能对人类带来威胁?图灵奖获得者、中国科学院院士姚期智做了题为《人工智能面对的一些挑战》的演讲。在他看来,人工智能有三大技术瓶颈亟待突破,需要科学家“从0到1”的原创研究。

人工智能的脆弱性

在姚期智看来,脆弱性是人工智能面临的第一大技术瓶颈。人眼识别十分稳定,一个图像如有微小改变,人仍能一眼看出它是什么。然而,人工智能在图像识别方面有点“人工智障”,比如将一只小猪的照片加入一些图像“杂音”,一些机器视觉系统居然会把它识别为飞机。“小猪变飞机”这种漏洞会给人工智能应用带来安全隐患,比如黑客可以攻击汽车自动驾驶系统,诱导它将马路上的“停止”标识当作“通行”,从而引发交通事故。

第二大技术瓶颈是机器学习算法缺乏可解释性,很多算法处于“黑盒子”状态。例如一个科研团队开发了一个房地产估价系统,这个系统通过一套算法学习了有关各地房地产价格的大数据,从而能自动评估房地产价格。然而,这套算法像黑盒子一样,很难给出估价的完整依据。这在商业应用上是一块很大的短板,房地产商会怀疑:人工智能系统是否低估了价格?是不是有利益相关方对系统做了手脚,故意压价?因此,算法的可解释性问题亟待科研突破,否则会大幅限制人工智能的商业应用进程。

人工智能的对抗性较弱

第三大技术瓶颈是人工智能的对抗性较弱。如今,一个无人机群可以轻松完成灯光秀、农林作业等任务,但要看到,这些任务都是在自然环境下完成的,如果是处于高对抗的人为环境中呢?比如在电子竞技和军事战斗中,无人机群的协同作战能力就会受到很大考验,要在对抗中胜出,需要计算机科学、数学等领域的科学家进行深入的强化学习、博弈论研究,让无人机群能够在高对抗环境中自主找到最优策略。“这是一个很重要的科研方向,需要从到1的突破。”姚期智说。

随着人工智能技术的快速发展,未来是否会产生“超级人工智能”,进而对人类产生威胁?姚期智引用了人工智能先驱约翰·麦卡锡1977年对这个问题的回答:“我们需要概念上的突破,需要1.7个爱因斯坦和0.3个曼哈顿项目,可能需要5年至500年时间。”这句话意味着,“超级人工智能”是否会产生、何时产生,存在很大的不确定性。

为应对这种潜在的威胁,姚期智给出了制约智能机器的三个原则:一是利他,即人的利益应凌驾于机器利益;二是谦卑,即机器不能自以为是;三是尽心,即机器能学懂人的偏好。“每个原则都要用严格的算法来实现,并贯穿于设计之中,这样就能有效驾驭人工智能。”

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐

热门新闻