故事

就目前而言人工智能还算不上什么威胁

2019-05-15 04:53:39来源:励志吧0次阅读

近年来,人工智能这个话题大热。一些科幻电影中,人工智能的发展终究没法抑制,成为了人类文明的终结者。一些大牛们,如比尔盖茨、霍金,都对人工智能的发展提出了正告;不过也有人认为,人工智能在现在阶段并不是什么威胁。

2014年,SpaceX的CEO Elon Musk发推说:Bostrom的《超级智慧(Superintelligence)》非常值得1读。对待AI,我们需要小心翼翼。同年,剑桥大学的宇宙学家史蒂芬霍金(Stephen Hawking)在接受BBC的访问时说:完全的人工智能(full artificial intelligence)的发展可能会导致人类的终结。微软联合创始人比尔盖茨(Bill Gates)也警告说:关于AI,我持谨慎怀疑态度。

关于AI带来的世界末日将如何展开,计算机科学家Eliezer Yudkowsky在2008年发表的《全球灾害风险(Global Catastrophic Risks)》中提出:AI在未来从单细胞生物发展到人类智力水平的可能性有多大呢?他回答道:形成一个物理意义上的大脑是可能的,其计算的速度是人类大脑的一百万倍....如果人脑因此而加速,主观上一年的思考将在31秒内就完成了,一千年将在八个半小时内就过去了。Yudkowsky认为,如果我们不这么做就太晚了:人工智能所运行的时间维度与我们不同,当你的神经元完成思考说我应该做这件事情时,你已经错过时机了。

牛津大学哲学家尼克博斯特罗姆(Nick Bostrom)在他的《超级智慧(Superintelligence)》中提出所谓的回形针化的思想实验:一个AI被设计来制造回形针,并且在耗尽其初的原材料供应之后,它将利用在其可达范围内的任何可用原子,包括人类。正如他在2003年的一篇论文中所描述的那样,从那时开始首先转化整个地球,为回形针制造设施增加空间。短时间内,全部宇宙都由回形针和回形针制造器组成。

对此,我表示怀疑。首先,所有这样的末日情景都涉及一长串的如果-那末(if-then)意外事件,在任何点的失败都会推到所谓的世界末日。西英格兰布里斯托大学的电气工程教授艾伦温菲尔德(Alan Winfield)在2014年的一篇文章中这样说:如果我们成功地构建与人类相同的AI,如果AI对它如何工作有着充分理解,如果它成功地改善自身成为超智能AI,如果这个超级AI意外或恶意地开始消耗资源,如果我们不能拔插头断电,那么,是的,我们可能有问题。这类危险,不是不可能,是不太可能发生。

第二,如果按照时间段来检查的话,会发现人工智能的发展远低于预期。正如Google执行主席埃里克施密特(Eric Schmidt)在回应马斯克(Musk)和霍金(Hawking)时所说:你认为人类不会注意到这种情况吗?你认为人类不会关闭这些电脑吗?谷歌自己的DeepMind开发了一个AI关闭开关的概念,被戏称为大红色按钮,可以用来接收AI。正如百度副总裁吴安民(Andrew Ng)所说的那样(回应Musk),这就像是我们甚至还没有踏上火星,就在担心火星上会人口多余。

第三,AI的末日情景通常基于自然智能和人工智能之间的错误对比。哈佛大学实验心理学家Steven Pinker在对2015年年度问题你对机器思考有甚么看法的回答中阐明:AI反乌托邦项目将一个狭隘的阿尔法男性心理学投射到智力概念上。他们认为,超人类的智能机器人将放弃他们的主人或接管世界作为自己的发展目标。同样地,Pinker说道,人工智能将沿着雌系自然发展能够完全解决问题,但不会想要消灭无辜或安排文明。

第四,暗示计算机将想要做某事(例如将世界变成回形针)就等同于AI有情感。正如科学作家Michael Chorost所言:AI真的想要做某事时,它将会生活在一个有奖励和惩罚的宇宙中,这其中就包括来自我们对不良行为的惩罚。

鉴于历史上对世界末日的几乎为0的预测率,加上人工智能在几十年来缓慢发展,我们有足够的时间建立故障安全系统,避免任何这样的人工智能所带来的世界末日。

益母颗粒什么时候喝
妇科千金片作用与功效
妇科千金片功效
分享到: