首页 > 在线阅读 > 详情
“终结者”? 霍金与马斯克都对人工智能表示担忧
《华东科技》     发布时间:2015-04-10 13:59:32.0    

近日,特斯拉创始人埃隆·马斯克、著名物理学家斯蒂芬·霍金等百余位科学家、企业家联名签署了一封公开信。

据悉,这封公开信是由名为生命未来研究所的主旨发出的。公开信表示,随着人工智能研究的发展,它对社会的影响可能也会越来越大。由于人工智能具有巨大的潜力,研究如何在规避潜在威胁的同时从中获益便十分重要。

“我们的人工智能系统必须按照我们的意愿工作。”信中称。它提醒人们需要关注人工智能的安全性与社会效益。

近年来,随着人工智能的发展,越来越多的的人开始担心机器的智能会超越人类,从而抢走人们的工作,乃至威胁到人类的生存。

前文提到的两位公众人物便是其中的代表。早在去年,霍金就曾发出过警告。他称人类正面临来自智能技术的威胁,随着技术体自身开始学会自我思考,并学会适应环境,我们人类将面对不确定的未来。

霍金认为,智能电子助手如Siri,Google Now,以及Cortana等都仅仅是一个开端,在未来将会出现的技术面前这些都将显得苍白无力。不过霍金也承认这类电子技术的发展也将对人类产生助益,甚至可以帮助根绝战争、疾病以及贫困。

他表示:“成功制造出一台人工智能机器人将是人类历史上的里程碑。但不幸的是,它也可能会成为我们历史上最后的一个里程碑,除非我们能学会如何去规避这种风险。”

同样,马斯克也曾多次公开表示过对人工智能的担忧,他认为不受控制的人工智能比核武器还危险。

当然,与霍金等人持相反观点的人也不占少数。百度首席科学家吴恩达就提到,对人工智能的负面担心,是毫无必要的炒作。

那么,人工智能是否会进化、衍生为“终结者”?现在来看,谁都给不了答案。


联系我们
欢迎洽谈内容、广告等各项合作业务
投稿邮箱:hdkj_sh@163.com
投稿热线:021-53080015
服务热线:021-53082351

2021年11月刊

电子刊物订阅渠道

请扫描上方二维码

上海《华东科技》杂志社有限公司 版权所有 沪ICP备12026464号-1 沪公网安备 31010402008474号 电子营业执照