文章资料-情感.机器.认知-电子AI 游客
印度宣布将利用人工智能开发武器
【9339】by1 2018-10-21 最后编辑2018-10-21 22:37:24 浏览708
93391 斥资近6亿美元,欧盟将研发“杀手机器人”

印度宣布将利用人工智能开发武器 系统正制定路线图

AI小哥 人工智能和大数据 5月24日

印度

据VentureBeat北京时间5月22日报道,印度政府官员宣布,该国将利用人工智能(AI)技术开发武器、防御和监视系统。

“世界正朝着人工智能驱动的生态系统发展,而印度也在采取必要的措施,为未来战争打造我们的国防力量,”印度国防部长阿杰伊·库玛(Ajay Kumar)在一份声明中说。

据《印度时报》报道称,目前一个17人的工作组正在为印度军方制定人工智能路线图。未来两年,工作组将向政府推荐将机器学习运用于空军、海军、陆军、网络安全、核、生物资源等的方式。具体而言,它将涉及自主化武器系统和无人监视等领域。

上述17人小组以Tata Sons公司主席纳塔拉詹·钱德拉塞卡兰(Natarajan Chandrasekaran)为首,还包括印度陆军、海军、原子能委员会和财政部成员。预计该小组将在未来三个月内向印度政府提交首份报告。

“工作组将提出建议……在地区建立战术威慑,研究潜在的革命性武器,并开发智能、自主的机器人系统,同时加强网络防御,”一位印度官员向媒体说道。

今年4月,印度总理纳伦德拉·莫迪(Narendra Modi)在钦奈举行的国防博览会上表示,人工智能和机器人将成为未来军事最重要的决定因素。他说,印度将凭借在信息技术领域的领导地位,努力利用人工智能技术。

印度的最新声明将很可能引起全球抨击和抵制。

此前,韩国科学技术院就曾因用人工智能进行武器研发而遭到全球30个国家和地区的研究人员的联合抵制。参与抵制的研究人员说,“像韩国科学技术院这样的著名院校竟然着眼于加速军备竞赛、研发武器,令人遗憾。”

作为抵制的方法,这些研究人员说,以后将拒绝访问韩国科学技术院、接待对方访客或者和对方合作研究项目,直至这所韩国顶尖大学承诺放弃研发高度自动化的人工智能武器

或许现在还是有些朋友不太了解,为什么人工智能可以渗透到生活当中的各个领域,唯独不能是军事领域

去年8月,以硅谷“钢铁侠”马斯克、著名物理学家霍金为代表的上百名业界领袖就已经联名呼吁各国,不要在人工智能武器方面搞军备竞赛,避免这些科技给人类带来毁灭性的后果

为什么自动化武器比如自动追踪导弹、无人驾驶飞机已经大行其道,而再进一步的人工智能武器就一定要禁止了呢?

对于武器来说,无论是自主移动还是自主识别跟踪目标,这都没有问题,但是唯独不能自主开火。就像公开信当中说的,武器不能过分脱离人类的控制。可以自动开火致人死亡的人工智能武器会彻底改变战争的方式,使武力冲突可以无限制扩大到任何一个角落,甚至超出人们能理解的程度。武器可以自主开火,意味着一行代码,就能导致大量伤亡。而且这种技术很容易篡改和被黑客甚至恐怖分子窃取,后果无法想象。而且这种武器一旦开发并泄露出来,根本无法挽回

韩国科学技术院在重压之下马上意识到了问题的严重性,回应称“无意参与研发致命自动武器系统和‘机器人杀手”。但是发起联名抵制的人工智能教授表示,抵制行动还在继续,至于何时取消,要和其他签署联名信的科研人员共同决定。



以下为全球AI专家对韩国科学技术院(KAIST)联名发表的公开信全文:

作为人工智能和机器人技术的研究人员和工程师, 我们对韩国科学技术院(Korea Advanced Institute ofScience and Technology)与韩国军火公司韩华系统(Hanwha Systems)合作建立的“国防与人工智能融合研究中心”(Research Center for the Convergence of National Defense andArtificial Intelligence)表示极大的担忧。据报道, 该中心的目标是“开发可用于军事武器的人工智能技术, 加入全球研发自主武器(autonomous weapon)的军备竞赛”

在联合国正在讨论如何遏制自主武器对国际安全构成的威胁时, 我们非常遗憾的看到, 像韩国科学技术院这样的著名机构似乎在加速军备竞赛, 以发展这种武器。因此, 我们在这里公开宣布, 我们将抵制与韩国科学技术院相关的所有合作, 直到韩国科学技术院负责人向我们保证该中心将不发展完全自主不需要有效人类控制的“机器人杀手”。例如, 我们将不再访问韩国科学技术院, 接待韩国科学技术院的学者, 或参与任何涉及韩国科学技术院的研究项目。

一旦发展出自主武器,我们将面临战争的第三次革命。自主武器(“机器人杀手”)将让战争的规模比以前更大,速度更快。它们很有可能成为恐怖武器。专制统治者和恐怖分子可以利用它们伤害无辜平民,不顾任何伦理束缚。这个“潘多拉的盒子”一旦被打开将很难关闭。正如过去我们曾经禁止的技术(如致盲激光)一样,我们可以直接决定不再开发。我们敦促韩国科学技术院继续沿着这条道路前进,用人工智能技术来改善人类生活,而不是伤害人类生命