想象一下这个未来的场景,一个由美国领导的联盟正在逼近决心根除伊斯兰国的拉卡。国际部队释放了一群致命的自主飞行机器人,它们在城市周围嗡嗡作响,追踪敌人。想象这样一个未来场景:美国派出的联军正在逼近叙利亚的拉卡,决心歼灭ISIS。
多国部队派出一群可怕的自律机器人绕城飞行,跟踪敌人。利用面部识别技术,机器人识别并杀死Isis的高级指挥官,将组织斩首。
茫然和士气低落,伊斯兰国部队崩溃,盟军和平民的生命损失最小。利用面部识别技术,这些机器人识别并杀死ISIS指挥官,并斩首该组织的领导人。
在联军和平民伤亡最大的情况下,伊拉克和沙姆伊斯兰国部队不堪重负,士气低落。谁会不认为技术运用得好呢?谁不指出这是技术的一个很好的运用?碰巧,相当多的人,包括许多人工智能领域的专家,最了解开发这种武器所需的技术。
事实上,许多人没有指出这一点,包括许多人工智能领域的专家,他们最了解开发这种武器所需的技术。在去年7月发表的一封公开信中,一组人工智能研究人员警告说,技术已经发展到了这样一个地步,部署致命自主武器系统(或他们不协调地知道的法律)在几年内是可行的,而不是几十年。
与核武器不同,这种系统可以廉价大规模生产,成为“明天的卡拉什尼科夫冲锋枪”去年7月,很多人工智能研究人员发表公开信,警告说这项技术已经发展到一定程度,几年后——和几十年后——将有可能部署“可怕的自主武器系统”。它还有一个不成比例的全名,Laws,意思是“法律”不像核武器,这样的系统可以低成本大规模生产,成为“明天的卡拉什尼科夫冲锋枪(AK-47)”。他们说:“他们出现在黑市上,落入恐怖分子、希望更好地控制民众的独裁者、希望实施种族清洗的军阀手中,只是时间问题。”。
“开始军事人工智能军备竞赛是一个坏主意,应该通过禁止人类无法控制的未经授权的自主武器来阻止。”“他们迟早不会经常出现在黑市上,落入恐怖分子、想更好地控制人民的独裁者和想进行种族清洗的军阀手中。他们回应说,“在军事人工智能领域开启军备竞赛是一个坏主意,应该禁止远远超出人类有效控制的进攻性自律武器,以避免这样的军备竞赛。
“美国已经广泛承诺放弃使用攻击性自主武器。本月早些时候,联合国在日内瓦举行了94个军事大国之间又一轮会谈,旨在起草一项限制使用核武器的国际协议。本月早些时候,联合国在日内瓦举行了有94个军事大国参加的新一轮谈判,目的是起草一项允许使用这种武器的国际协议。
主要的论点是一个道德问题:赋予机器人杀死人类的权力将会越过一条永远不应该越过的红线。主要论点是在道德层面:突出机器人杀人的代理权会越过一条不该跨越的红线。
因反对地雷而获得诺贝尔和平奖的乔迪威廉姆斯是“阻止黑仔机器人运动”的发言人,他形容自主武器比核武器更可怕。“如果有人认为把人类的生死大权拱手让给一台机器就可以了,那么人类将何去何从?因积极开展支持地雷运动而获得诺贝尔和平奖的乔迪威廉姆斯是阻止黑仔机器人运动的发言人。他回应说,自律武器比核武器更可怕。
”如果有人指出把人类的生死大权转移到机器上是可以的,那人类呢?“除了纯粹的道德问题,还有其他问题。杀手机器人的使用会降低人类的战争成本从而增加冲突的可能性吗?如何阻止这种系统的扩散?当他们出错时,谁来负责?除了纯粹的道德问题,还有其他令人担忧的问题。刺客机器人不会降低战争中的人员成本,那么加剧冲突的可能性不会增加吗?如何阻止此类系统的传播?出了问题谁来负责管理?这个针对杀手机器人的道德案例在一次哲学研讨会上已经足够清晰。
问题是,你越仔细地观察它们在战争迷雾中的可能用途,就越难辨别道德界限。机器人(自主性有限)已经部署在战场上的炸弹处理、扫雷和反导弹系统等领域。他们的使用将会扩大和戏剧性。
在一次哲学研讨会上,刺客机器人的道德原因已经足够明显了。问题是,你越仔细地观察它们在战争烟雾中的可能用途,你就越不能区分道德界限。机器人(自律性有限)长期以来被用于战场,如炸弹处理、扫雷和反导弹系统。它们的应用范围将大大扩大。
新美国安全中心估计,到2018年,全球军事机器人的支出将达到每年75亿美元,而商业和工业机器人的支出预计为430亿美元。总部设在华盛顿的智库支持进一步部署这种系统,认为它们可以显著提高“作战人员获得决定性优势的能力”。
根据新美国安全中心的说法,到2018年,全球军事机器人的支出将超过每年75亿美元。相比之下,该机构预测商业和工业机器人的支出将为430亿美元。总部设在华盛顿的智库反对进一步使用这种系统,认为它们需要显著提高“着陆战斗机的能力,以获得相对于失去的战斗机的绝对优势”。
在它所钟爱的防腐散文中,军火工业区分了不同的自治水平。第一种被称为“人在回路中”,包括美国和其他部队广泛使用的捕食者无人机。
即使无人机可以识别目标,它仍然需要人类按下按钮来攻击。正如电影《天空之眼》中生动地展示的那样,这样的决定在道德上是痛苦的,在打击重要目标的重要性和平民伤亡的风险之间寻求平衡。
军工用自己喜欢的人用来置身事外的论调,区分机器人不同的自律水平。第一类叫“人在回路”,也包括美国等军事力量广泛使用的捕食者无人机。
即使无人机可能需要识别目标,也需要人类按下反击按钮。电影《天空之眼》(天空之眼)生动地体现了这一点,这种决策可能会带来道德上的痛苦,你必须权衡对关键目标的压制与平民伤亡的风险。第二级自主涉及人在回路系统,在这个系统中,人们监督机器人化的武器系统,包括防空电池。
但是现代战争的速度和强度使人们怀疑这种人类的疏忽是否等同于有效的控制。第二级的自律是"人在环中系统“(人在回路系统),人对机器人武器系统展开监督,还包括防空炮。
但现代战争的速度和强度让人猜测这种人类的监督能否构成有效地掌控第三种类型的无人系统,如全自主无人机,可能是最致命的,但也可能是最容易被禁止的。第三类是"人在环外系统“(人在回路之外的系统),比如几乎自律的无人机,这种有可能是最可怕的,但也很有可能是最更容易禁令的人工智能研究人员强调了这场辩论,当然应该受到称赞。军备控制专家也在帮助界定和应对这一挑战方面发挥了有益但令人沮丧的缓慢作用“这是一次有价值的谈话,“CNAS大学的高级研究员保罗沙雷说“但这是一个冰川过程“人工智能研究人员通过公开发表公开信,引发人们对这场辩论的注目,这一行径当然一点小小的恭维。
军备控制专家在帮助界定和应对这一挑战方面发挥着简单的作用,但他们的行动速度快得令人失望。“这是一次有价值的谈话,”新的美国安全中心的保罗沙雷说。“但这是一个极其缓慢的过程。
”就像在许多其他领域一样,我们的社会正在努力理解快速变化的技术现实,更不用说控制它们了。就像在许多其他方面一样,我们的社会一直在努力应对试图解释缓慢变化的技术现实,更不用说控制它了。
本文关键词:开云,体育,开云体育平台登录入口,平台,登录,入口,不能,赋予,机器人
本文来源:开云体育平台登录入口-www.qeyuanpack.com.cn