首页  >  媒体动态  >  媒体动态详情

2018软博会 中国工程院院士方滨兴:要为人工智能戴上“紧箍咒”

2018-07-01     阅读量:17

  6月30日,第二十二届中国国际软件博览会(简称“2018软博会”)第四场全球软件产业发展高峰论坛在北京展览馆举行。本场高峰论坛以“聚焦人工智能畅享美好未来”为主题,与会嘉宾共同探讨了人工智能和美好未来两个相关话题。

  中国工程院院士方滨兴在题为“人工智能安全之我见”的演讲中指出,未来出厂的任何人工智能系统,只要是一个行为体,可运动、具有破坏力、具有智能,甚至有失控风险,都要“加上保险箍”。

2018软博会 中国工程院院士方滨兴:要为人工智能戴上“紧箍咒”

  2017年被称为人工智能元年,从算法到芯片,从提升到应用,人们见证了人工智能进入全面爆发新周期。

  但是,在方滨兴看来,任何一个新技术,都会出现安全问题。作为新技术的人工智能,它的安全主要是两个方面,一是人工智能应用于安全领域,它既可以用于网络防御,也可以用到网络攻击上;二是人工智能自身带来的安全问题,这表现在人工智能自身存在的脆弱性和人工智能对人可能产生的威胁。

  据悉,美国针对50款机器人做了研究,发现10款机器人出现近50个安全漏洞,出现漏洞意味着这个机器人就具有风险,比如它会泄露你家的信息、异常运行引发的未知风险。

2018软博会 中国工程院院士方滨兴:要为人工智能戴上“紧箍咒”

  根据他的介绍,一个AI行为体有四大要素。首先是需要感知外部环境,其次是需要内部算法,要有决策体系,第三是它要有驱动,能够自我移动和运动,最后是具有自制能力,能自己决定自己做的事情,“但这也被视为一种失控状态,人类对它无法控制”。

  “人工智能对人的威胁,在三种条件下就对人有威胁,我们称之为三要素:第一个是行为能力,比如AlphaGo再聪明,也无法危害人类;第二个是具有自治能力,也称之为能自我设定目标函数,可以自己决定想做什么事情;第三是破坏力,一旦有破坏力,这个时候就有威胁性。”他说。

  事实上,从霍金到马斯克和比尔·盖茨,他们都认为人工智能存在很大风险,应该采取一些措施“防患于未然”。比如,国际上有一个ISO 15066标准,它是规范机器人和机器物体之间的协同。

2018软博会 中国工程院院士方滨兴:要为人工智能戴上“紧箍咒”

  但是,方滨兴表示,“在协同中,尤其是人机在一起的时候,首先需要考虑保护人类。”这有四大要素,第一是在功率力方面要有限制,人工智能不能对人施加大力去伤害。第二是速度和距离,机器人要和人保持安全距离。第三是手动引导,第四是安全级的监控停止,当人处于不安全的时候,能够要求机器随时停止。

  “我们提出了一个叫人工智能保险箍的系统,我们叫做保险箍,就像紧箍咒。它必须串联在AI的决策系统中,能发挥作用,可以起到四个作用,远程控制,自己不能摘除,安全策略和监控系统。”他说。

作者:骨傲天责任编辑:万佳)

请关注天极网

天极新媒体 最酷科技资讯

扫码赢大奖

评论

* 网友发言均非本站立场,本站不在评论栏推荐任何网店、经销商,谨防上当受骗!