请选择 进入手机版 | 继续访问电脑版
×

QQ登录

只需一步,快速开始

韩国高校开发杀手机器人,遭全球AI专家抵制

[复制链接]
fdcff4715a2ab112abe3bb4e0ebb2f86.jpg

credit: 锐景创意

机器人可以用来干家务,也可以用于暴力目的。如何划定机器人的用途界限?针对这个问题,人工智能(AI)领域产生了很大分歧。
韩国科学技术院(KAIST)是一所知名学府,拥有首屈一指的科学实验室。从液态电池到疾病传感器,他们开发了各式各样的东西。如今,KAIST和韩华集团签署协议,为后者研发人工智能武器。韩华集团曾无视联合国禁令,开发“集束弹药”这种毁灭性武器。如果加上人工智能,武器恐怕会更加致命。
目前,联合国正在商讨如何控制自主武器对国际安全造成的威胁,而KAIST却在加速这类武器的军备竞赛,这非常令人失望。因此,50多位全球顶尖AI专家决定抵制此举——他们宣布将拒绝和KAIST任何部门进行合作,直到KAIST保证绝不开发缺乏人类控制的自主武器。
对此,KAIST表示否认。院长Sung-Chul Shin发表声明:
作为学术机构,我们高度重视人权和道德标准。KAIST将不会开展任何违背人类尊严的科研活动,包括缺乏人类控制的自主武器。
如今,硬件和软件都发展得很快。许多专家担心,人类迟早会开发出自己无法控制的东西。因此,埃隆·马斯克、史蒂夫·沃兹尼亚克、斯蒂芬·霍金等名人呼吁政府和联合国限制依靠人工智能系统运行的武器。如果导弹、火箭、炸弹能够脱离人类控制而自行操作,那么后果会很恐怖——特别是落入坏人手里时。
如果开发出自主武器,那么它将成为战争史上的第三场革命。自主武器将使战争速度和战争规模达有史以来的最高水平。此外,它也可能成为恐怖分子的武器,摆脱道德约束,伤害无辜人民。潘多拉的魔盒一旦打开,便难以关闭。
联合国曾多次召开会议,商讨针对致命自主武器的禁令,然而收效甚微。原因在于:出于军事目的,个别国家热衷于开发这类技术;此外,私营企业也不想在人工智能方面被规章条例所束缚。尽管我们都知道,杀手机器人是件邪恶的东西;然而,谁也不知道该怎样限制这类玩意的开发。人类陷入了一场所有人都不希望发生的军备竞赛。
目前,许多科学家希望出台有关AI开发和应用的指导方针。不过,即便制定出相关方针,也很难保证所有人都遵守规则。
本文译自 sciencealert,由译者 蛋花 基于创作共用协议(BY-NC)发布。
原作者:DAVID NIELD



免责条款:本站仅提供学习交流的平台,所有资料均来自于网络,版权归原创者所有!本站不提供任何保证,并不承担任何法律责任,如果对您的版权或者利益造成损害,请联系本站处理,我们将于3个工作日内予以删除。
温馨提示:维智网小程序已经上线,欢迎关注维智网微信公众号(可查找"维智网",或"vezhicom"),体验更多基于微信的移动端功能。
       
回复

使用道具 举报

已有(1)人评论

跳转到指定楼层
四眼 发表于 2018-10-24 11:23:41
期待更多合作~
回复

使用道具 举报

*滑块验证:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Powered by Discuz! X3.4  © 2001-2018 北京极瑞科技