搏击

霍金呼吁禁用杀人机器人西方忧中国赢军备竞编制

2020-11-18 01:46:24来源:励志吧0次阅读

霍金呼吁禁用杀人机器人 西方忧中国赢军备竞赛

英国《金融时报》站7月27日发表题为《科学家提醒,要警惕杀人机情形有没有改变。器人军备竞赛》的报道称,科技界的一些大人物呼吁全球禁止 杀人机器人 ,他们提醒说,越过这一界限,将开启新一轮全球军备竞赛。

人工智能领域的1000多位专家在一封公开信中表明了干预态度。在这封信上署名的包括宇宙学家斯蒂芬 霍金教授、特斯拉公司首席执行官埃隆 马斯克,以及苹果公司合伙创始人史蒂夫 沃兹尼亚克。

尽管 机器人士兵 仍处于 纸上谈兵 阶段,可是计算能力和人工智能的迅速进步,增加了军方在20年内把机器人士兵派上战场的可能性。

这封请愿书于28日在布宜诺斯艾利斯举行的国际人工智能联合大会上递交。该信警告说,继火药与核武器的发明之后,可以独立确定和袭击目标且不需人类进行任何干预的武器系统的开发,将会带来 第三次战争革命 。

它描绘了未来冲突的可怕情形,类似于系列电影《终结者》中的场景。

该信说: 对于执行暗杀、破坏国家稳定、征服民众或选择性杀死特定民族等任务,自主式武器是理想选择。

因此,我们认为,人工智能军备竞赛对人类而言是无益的。人工智能可以让战场变得对人类 尤其平民 而言更安全的方式有许多种,不用创造新的杀人工具。

联合国也担心其所谓的 致命性自主式武器 的开发,以至于它去年召开了有史以来第一次此类会议,讨论新科技带来的风险。

加利福尼亚大学伯克利分校的人工智能领域专家、该信的署名者之一斯图尔特 拉塞尔之前曾警告说,机器人武器系统可能使得人类 毫无防御能力 。

该信是今年第二封猛烈抨击将人工智能引入到战场上的信。不过,在呼吁禁止这些武器系统方面,这封最新的请愿书强硬有力得多。该信是由生命未来研究所协调写成的。

生命未来研究所是由包括Skype公司合伙创始人扬 塔林在内的众多志愿者于2014年创建的。马斯克和霍金均是该研究所科学顾问委员会的成员。

自主式杀人机器人的想法对许多军方人士而言具有吸引力,因为它们提供了重要的对敌优势,其部署不会令本国部队的任何人处于危险中,而且长期来看,比起必须支持和保护人员的先进武器,如战斗机,它们的成本应该更加低廉。

五角大楼是机器人研究的最大支持者之一。2013年,其智库之一--海军研究处发给塔夫茨大学、布朗大学、伦斯勒理工学院、乔治敦大学和耶鲁大学等多所大学的研究人员一笔研究经费,高达750万美元,让其研究如何能教会自主式机器人分辨对错。

西方军事规划者担心,如果他们没能致力于研究这一技术,那么他们可能会将新一轮军备竞赛的领导权让给潜在对手,比如中国。

认知功能下降用什么药
TX营养
丹媚避孕药的服用注意事项
社区获得性肺炎诊断与治疗
分享到: