在新闻发布会上,美国北方司令部(NORTHCOM)的指挥官Glen VanHerck透露,军方一直在尝试提高将数据运用到关键战略决策时的能力,其中名为“全球信息优势试验”(Global Information Dominance Experiment,GIDE)的项目表现出色。
GIDE旨在增加对实时信息的访问,这些信息可以帮助领导者预测敌人的行动并提前做出反应,而不是在冲突发生后再做出反击。换句话说,美军该项目能够通过人工智能的预测来提前发现事件苗头,及时处置,将损失降低。
一、海、地、空三位一体的信息监测
在五角大楼进行的最新实验中,美国11个司令部模拟了对巴拿马运河等关键地点的监测。VanHerck表示,在模拟测试期间,数据是从遍布全球的军事或民用传感器搜集来的,收集到的数据通过一个人工智能模型来运行,该模型能够检测模式(patterns)并在发现迹象(比如:潜水艇离开港口)时发出警报。
该技术可以将现有卫星、雷达、海底传感器以及网络和情报能力的实时信息整合到一起,并通过云让人工智能模型可以进行处理。提前知道敌人可能会做什么,可以让指挥官针对性的采取措施(例如:部署军队),从而尝试阻止冲突的发生。
二、利用AI及时处理海量数据
VanHerck强调,所有这些信息目前都能够被使用,但需要专门的分析师需要花费数小时甚至数天的时间来浏览搜集到的海量数据,然后才能发觉感兴趣的模式。这显示出,美军的人工智能能代替分析师高效的进行数据分析。
VanHerck说:“我们所做的只是获取和分析这些数据,让数据更早的产生效用。这样一来,我们的关键决策者将有更多的决策时间,而不是被动应对。”例如,VanHerck描述的算法可以查看敌方停车场的平均汽车数量,它可以计算停在坡道上的飞机数量,并在发现飞机数量变化时发出警报,它甚至可以发现准备发射的导弹。根据VanHerck的说法,该人工智能可以在事件发生的前几天就能向五角大楼发出预警。
三、谷歌员工反对参与军方AI项目
自动化工具(例如人工智能的使用)在战争中使用次数的增长,引起了一些倡导组织的严重担忧。他们担心算法可能被授权能够决定(某个人)生死的信息,甚至无需人类监管,就自行做出某些决定。
事实上,GIDE的实验是与美国国防部的其他项目一起进行的,其中包括在2018年引发争议的Maven项目。在谷歌答应协助开发Maven项目后,数千名谷歌员工签署了一份请愿书,要求公司退出这个项目。Maven项目旨在开发能够运用在军用无人机拍摄中的人工智能,该人工智能可以在视频中识别人和物体。员工们表示,他们担心自己会参与到一项有助于辨认潜在目标(identifying potential targets)的计划中。
VanHerck表示人们无需对在军方试验中使用人工智能这件事感到担忧。他说:“所有的决定仍然是由人类做出的。”
据VanHerck称,在GIDE项目中的软件已经通过能力测试,并已经准备好部署在战斗指挥部。他还表示,为了进一步提升这项技术的能力,还需要与国际盟友和伙伴一同合作,预计(让他们)通过全球实时情报交换的方式来参与到此项目。
结语:人工智能应该被限制权限
五角大楼的新人工智能能够对海量数据进行及时分析,可以从中发觉危险信息并第一时间发布预警,帮助美军减少遇袭的可能性。
人工智能自初始就与伦理问题分不开,谷歌员工反对参与美军计划也是因为害怕AI所拥有的权利过大。社会一直在关注着人工智能与伦理的关系,想要自由的使用人工智能恐怕也并不是那么的容易。