来源:倍可亲(backchina.com)
史蒂芬·霍金宣称,如果没有适当的防卫措施,人工智能将对人类造成难以控制的威胁。他警告称,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。
随着人工智能的发展,机器能独立选择并针对目标开火的可能性也逐渐增高。未来的自动武器或“杀人机器人”,或许很快就能从科幻电影(图中为《终结者》电影画面)走向现实。
这并不是霍金第一次警告机器人“起义”的危险。就在去年,他警告称随着人工智能逐渐学习着为自己考虑,并且更加适应环境,人类正面临着不确定的未来。
北京时间7月9日消息,据国外媒体报道,按照史蒂芬·霍金教授的说法,一场潜藏的威胁正在硅谷的技术实验室中悄悄酝酿。人工智能伪装成数字辅助设备和自动驾驶的交通工具,正在人类社会中逐渐站稳脚跟,它们或许有朝一日将导致人类的终结。
这位世界知名的物理学家警告称,机器人会以比人类快得多的速度进化,它们的最终目标将无法预测。在接受采访时,霍金表达了对人类未来的担忧,“我不认为人工智能领域的进步一定是有益的。”
霍金于近日参加了在加那利群岛举行的“斯塔尔慕斯节”(Starmus Festival),该活动的宗旨是使公众更加接近科学。他在采访中说:“一旦机器达到了能够自我进化的关键步骤,我们就无法预测它们的目标是否会和我们一样。人工智能具有比人类更快进化的潜力。我们需要确保人工智能的设计符合伦理,并且有到位的防护措施。”
这并不是霍金第一次警告机器人“起义”的危险。就在去年,他警告称随着人工智能逐渐学习着为自己考虑,并且更加适应环境,人类正面临着不确定的未来。这位物理学家在参加伦敦的一次活动时说:“人工智能的全面发展可能意味着人类的终结。”
去年早些时候,霍金表示人工智能领域的成功“将是人类历史上最重大的事件,不幸的是,这可能是最后一次。”他认为,数字个人助理如Siri、Google Now和Cortana等的发展,仅仅是一支数字技术大军的先兆,而这支大军会在接下来几十年里涌现出来。
在谈到电影《超验骇客》(Transcendence)时,霍金表示将这部电影误认为只是科幻故事将是“历史上最严重的错误”。
2015年,伊隆·马斯克将人工智能的发展比作“召唤恶魔”。这位特斯拉的创始人此前就发出警告,称人工智能技术有朝一日会比核武器更加可怕。
霍金也不是唯一持有悲观态度的人2015年,伊隆·马斯克将人工智能的发展比作“召唤恶魔”。这位特斯拉的创始人此前就发出警告,称人工智能技术有朝一日会比核武器更加可怕。
不过,在接受英国(专题)广播公司的采访时,霍金教授指出人工智能技术也会有巨大的潜在好处,能帮助人类消除战争、疾病和贫穷。在最近接受拉里·金的采访中,他表示人类最大的威胁其实是自己的软弱。早在2010年接受拉里·金的采访时,霍金就提出人类两个最大的危险是贪婪和愚蠢,而在最近的这次采访中,他表示一切并没有太大改变。
“我们当然没有变得少点贪婪或少点愚蠢,”霍金说,“六年前,我曾经警告过污染和人口过度拥挤。在那之后,情况变得更糟。以这种速率,2100 年时人口将达到110亿。空气污染在过去五年变得更加严重。”说到人类面临的最严重问题,霍金表示,是“空气污染的增加……以及二氧化碳水平的上升。”