全的,并且身边人员的身份认证也是合法的。
中方人员对它们进行了大量语音交互试验,逐渐了解了它们的功能和特性,然后开始在虚拟机中,给它们指派特定的战斗任务,检测它们的实战情况。
中方军工研究员发现,M国的无人机违背了《联合国人工智能军事化应用限制条款》中的多项内容。
第二条:基本原则,各国政府应极尽冷静与克制,严格限制人工智能技术在军事领域的应用,杜绝任何可能赋予人工智能自由意志,并在自主意志的驱使下屠杀人类的机会。
第一款:禁止将E级、F级人工智能技术应用于无人机、无人坦克、无人军舰等项目;
(目前,人类还无法制造出完全与人类相同的智慧生命,但一些人工智能,正在不断的接近类人态。
人工智能和人类一样,基于计算方法、人工设置等的因素,其智慧化程度,也即人类所谓的“智商”也各有不同。
在人类生活中,不同事物、服务、工作,对人工智能智慧级别的要求也不尽相同,并非所有的工作、服务都需要智慧级别很高的人工智能。
同时,更是为了杜绝人工智能的滥用,以及预防人类长期依赖人工智能而带来的种种负面可能,联合国召集全球人工智能专家,研究、制定了人工智能分级标准,并在人类目前所有的三万五千个工作岗位中,严格界定了人工智能的应用级别。
该标准一共分为A、B、C、D、E、F六个级别,其中E级、F级人工智能,已经开始具备主动学习能力,但仍旧无法突破悖论性逻辑的理解和应用。)
第二款,绝对不允许人工智能拥有开火决策权;
第三款,不允许在人工智能程序中,预先设置开火命令、敌我辨别标准;
第四款,人工智能不能成为战争的主体,只能在部分场合执行辅助性帮助;在军事法庭及各国军事纷争中,不承认人工智能的战争主体资格,一切责任归咎于军事装备和武器的使用者和所有国。
M国的无人机,95%以上的作战内容,完全由某位驾驶员的虚拟人格——也即一个F级人工智能来完成,其中包括目标锁定与身份审核,武器选择与开火,都是由人工智能来完成的。
这从根本上违背了《联合国人工智能军事化应用限制条款》中,严禁人工智能在自我独立意志驱使下向人类开枪的精神和宗旨。
除了可以向国际社会揭发和控告M国人研发“拥有独立意志杀戮人类的智