军事上会用到AI吗
军事竞争历来有“强者更强、弱者更弱”“一步落后、步步被动”的特征。但智能技术作为一种军民通用技术,开放性更强,一定程度上为所有人提供了大致相同的起点。因此智能技术对后发国家和军队来说,既是挑战也是机遇。
相比于信息化战争,智能化战争作战更加强调体系化。其中,获取网络空间优势仍可能是在其他领域成功实施军事行动的先决制权;“舆论攻击”和“心理打击”将全时域、无孔不入;太空、临近空间将成为谋求军事优势的战略制高点;水下特别是深海作战重要性将越来越强,等等。
未来战场最终决定胜负的是人而不是物。智能化武器和技术的广泛应用,不会改变人是战争主体这一根本,但同时也必将对人的智能水平提出更高要求。当前即使是军事强国的智能化装备,在决策包括操作层面也都离不开人的介入。因此,加强人的信息化、智能化素质培养显得尤为重要。
据外媒报道,为了表示对公司与美国防部展开的人工智能合作项目Maven的抗议,一些职工正在离开谷歌。这部分专家不认同AI参与到战争中的可能性。上个月,数千名谷歌怒职工签署了一份内部请愿书,希望公司解除与五角大楼的合同关系。
而在该项目3月被曝光之后,谷歌的一位发言人表示,Maven将只会被用到“非侵略性”行动中。很显然,谷歌的职工对这种说法并不买账。
请愿书反驳道:“虽然这消除了一套狭隘的直接应用,但这项为军队打造的技术一旦交付使用那么就会很容易被用于协助(军事)任务。这项计划将会给谷歌的品牌以及在人才市场的竞争中带来不可挽回的损害。”
尽管这份请愿书上面签有近4000个职工的名字,但谷歌管理层似乎并不为所动。Gizmodo报道称已经有大量职工选择辞职,理由是公司参与了Maven项目或是过分关注政治决策。
令人感到失望的是,谷歌方面表示,Maven项目实际上是基于开源软件展开。按照谷歌的说法,即便谷歌决定退出合同,那么仍无法阻止五角大楼使用这项技术。
与此同时,机器人武装控制国际组织(ICRAC)也介入了这次事件,它向Alphabet和谷歌高管写了一封公开信对离职的职工表示支持。ICRAC指出,Maven是一个美国军事项目,目的是为了利用机器学习分析大量无人机监控录像并未人类分析员提供感兴趣的对象,“谷歌不仅提供了开源‘深度学习’技术,而且还为国防部提供了工程专业支持和协助。”
ICRAC担心,随着时间的推移,对AI的限制将会被边缘化并最终完全消失。它认为,这是一种无法避免的情况,因为军事指挥官们会意识到如果让AI制定目标决策和其他决定的话,那么这个过程可能会更有效率。
这次事件是否会对谷歌产生影响则还有待观察。对于一家公司来说失去人才不算是一个小问题,特别是当职工们因一个引人注目的项目选择辞职,这就真的值得注意了。
美国AI发现中国地空导弹阵地?人工智能的几个层次和军事上的应用
阿道夫二世 2017-11-25 09:19:30自从AlphaGo击败了职业围棋选手,真要对人工智能另眼相看了。毕竟围棋是人类最复杂的游戏,号称有四千年的历史,却被人工智能一夕尽收,令人唏嘘!
说到AI在军事上的应用,就要说说人工智能的几个层次,或说发展阶段。
第一、自主替代人工
在这个最低的层面上看,人工智能已经应用的非常广泛了。例如,主动制导、“发射后不管”的空空导弹、反舰导弹、巡航导弹、鱼雷,等等,都是应用人工智能的成功事例。对此不要觉得不可思议。一枚主动制导的反舰导弹和一架“神风”特攻机相比,两者的功能架构是相同,区别体现在实现的方式——传感器,雷达和肉眼;处理器,CPU和人的大脑;动作器,自控器件和人的手脚。
近日有报道,密苏里大学的人工智能程序可以在中国东南部的一块面积约为55923平方英里的卫星照片上找到90个地对空导弹阵地,花费时间仅为45分钟;而通常人类判读专家要达到相同的准确度,看完所有的图像需要至少60个小时。
图为一处外军地空导弹阵地——
评价这个人工智能程序,目前看还是处于较低的水平,就是在一定程度上可以替代人工,因为这个AI的识图方法和人类一样,只是比人类速度快而已,而且,具备了一定的模糊识别能力。在这个世界上,比人类看得远、听得清、嗅得灵、跑得快、力气大的物种很多,但都无法取代人类的地位。
第二、自动学习知识这是人工智能更高一点的层次。AlphaGo就达到了这个层次,他不仅掌握人类教授的知识,还通过自我对弈研究了很多新招法。
目前在军事领域的人工智能还没有达到这个境界。在武器装备领域有一个词很常见——“升级”,从人工智能的角度看,这就是进行知识更新,而现有的武器装备显然没有自我更新的能力。例如,电子侦察机,他可以收集大量的电子信号,但也就仅此而已,他并不知道他收集到了什么,除非人类告诉他。
第三、自我完善创新
这是人工智能非常高的层级,目前还人类研发的AI还没有达到这样的水准。
到目前为止,我们人类还可以鄙视AlphaGo,因为这个围棋AI的算法是人类设计的,源程序是人类编写的,所以,AlphaGo的成就体现的还是人类的智慧。同时,我们也还可以鄙视一切现阶段的人工智能,他们同样都是人类智慧的体现。如果AlphaGo发展到这样的程度,他觉得人类设计的算法不好、或源程序编的不好,自己设计了算法,再编写源程序,调试、编译、测试、上线~~~这就有点恐怖了,说明AI开始具备独立于人类智慧的能力。
第四、主动提出>题目/p>
这是人工智能特别高的阶段,因为,AI已经懂哲学了!!!
据说“我是谁”、“我从哪里来”、“我到哪里去”是最基本的哲学问题,如果有一天AI开始思考这些问题,就意味一种全新的、不同于人类的智能开始了进化之路。提出问题看似简单,却是真正智慧的标志,不会提出问题,就不会解决问题。AI在主动学习知识、自我完善创新的基础上,在能够提出问题,那就是真正的可以与人类匹敌的“智能”。
第五、实现高度类人
这才是人工智能最高阶段,也是最可怕的阶段。
即便AI可以提出问题,解决问题,人类还是可以说一切尽在掌握,因为AI还必须依赖人类制造出来的载体而存在。人类智慧之所以强大,关键就在于可以做到知行合一,不仅能想到问题、思考答案,还能按照思维去行动。现在高度类人的机器人已经研发了不少,但是,还不能实现高度智能和类人机能的有效结合。
例如,AlphaGo虽然会“下”围棋,但是,她却不会往棋盘上落子,还需要人类的手代劳;而现在那些各种各样的“机器人”,则智商太低。
制造和使用工具,是人和动物区别的标志,这话太特码在理了。如果AI不能实现像人类那样制造和使用工具,就会被人类永远囚禁在虚拟世界里,成为人类的奴隶。统治全人类?这事儿想都不要想。
当然,话虽这么说,但也不能对人工智能的隐患掉以轻心。尽管在实在高度类人之前,人工智能不会统治人类,但是,却有能力给人类造成很大的、甚至是致命的破坏。一个勒索病毒就可以瘫痪30多万台电脑,如果AI或出于故意、或出于故障动起了歪心思,那后果就不堪设想了。
所以,对人工智能的发展,在不同的领域要提出相应的安全要求。尤其是在军事领域,由于武器拥有巨大的杀伤力,能否赋予武器以高级AI,是很难迈出的一步,因为人类对其学习的结果并无把握。例如,无人机已经在世界范围内普遍装备了——
世界上很多国家在研究战斗机器人——
但是到目前为止,这些家伙只能算是遥控武器,连最低级的人工智能都算不上。问题就在于无论是无人机还是战斗机器人,面对的环境、对象过于复杂,即便是人工设定了敌我识别方法,也很难保证不出错,更何况让他们自己学习如何分辨敌人、友军和平民?由此看来,人工智能在军事领域的运用,可能在非杀伤领域更快一点。