excel学习库

excel表格_excel函数公式大全_execl从入门到精通

军事指挥决策的智能化转型

统是作系的态势功能定作构想指导挥决动智发展迫切

然而,从实际发展情况来看,指挥决策智能化反而是整个军事智能领域中发展速度靠后的。相比之下,智能感知、智能情报、无人自主、智能弹药、智能网络等领域的发展远超过智能决策。导致这一问题的原因,还要归结到指挥决策问题本身的难度上。众所周知,指挥决策是科学与艺术结合的领域。其中,作战构想的设计需要指挥员创造性的思维,而作战行动的规划又涉及大量的精确计算。从指挥决策问题本身来看,其覆盖的问题域极为宽广,纵向覆盖战略、战役、战术、战斗各层级,横向覆盖探测、火力、机动、通信、支援、保障、动员等各种要素。如此庞大的问题域,不可能打包让AI训练掌握,必须分而治之,拆成一个个小问题,分别训练AI掌握。于是带来了研究选点的问题,究竟哪些子问题适合训练AI掌握[1,2]?

另一个重要原因是缺乏数据积累。这一轮人工智能浪潮以数据智能为主,以深度学习、强化学习为代表,这些技术需要从大量的标注数据或探索试错中学习,然而其所需要的数据规模和探索试错的成本是指挥决策领域所无法承受的。历史上没有重复的战争,每次指挥决策面对的都是不同的问题,不同人会给出不同的答案。指 挥领域的探索试错不外乎实兵演练、模拟训练两种方式。实兵演练限于人力物力成本,不可能大规模开展;而模拟训练限于人离不开回路带来的时间成本,也达不到强化学习所需的试错次数。这些条件不具备,也就令智能化技术缺乏落地生根的必备土壤。

同时,指挥决策对于可信度的极高要求,也是一个重要原因。数据智能本质上是从大量数据或试错中学习形成机器的记忆,而非真正的知识。这种记忆不具备可解释性,而且泛化能力也极为有限。指挥决策的失败是以成千上万人的生命为代价的,因此,对可信度要求极高。即便在人机对抗训练中AI拥有极高的胜率,也不能成为指挥员信赖它的理由。不能够解释输出的结果,就意味着无法为指挥员所接受。不敢用也就不可能好用。

极为重要,却又极为困难,这是指挥决策智能化发展面临的现状。因此,将指挥决策智能化誉为军事智能“皇冠上的明珠”并不为过。

在军事智能领域,美军一直走在世界前列,国内也一直没有停止对美军军事智能 发展的跟踪。本系列对美军近五年来在智能指挥决策领域的相关研究进行了跟踪,从项目数量上看确实屈指可数,从成熟度上来看也仅有个别得到了实际应用。即便如此,其中一些研究工作对国内仍有一定指导意义。对其中6个代表性的案例进行了分析,接下来按照时间先后顺序依次介绍。

据《防务快讯》公众号报道,2018年12月,美陆军指挥所计算机环境的任务指挥核心软件“SitaWare总部(HQ)”指挥控制(C2)软件集成了美国科尔工程服务公司(Cole Engineering Services,CESI)研发的行动方案(CoA)分析决策支持工具“作战仿真(OpSim)”。

该工具支持最佳行动方案的生成、评估、比较和选择,帮助形成作战计划。该工具旨在构建一个对用户透明的仿真环境,并与任务指挥系统集成。该工具可协助作战人员根据任务规划,在营级场景下模拟实体环境。它具有强大引擎,可实时以超过100万次的速度比较、分析并选择行动方案。

操作员借助这些工具可以设置评估标准、改变标准权重、设定标准阈值,并根据选定的标准比较行动方案。该工具还具备直观性的特点,帮助操作员研究和理解仿真运行的结果,以提供决策支持。该工具其他优势还包括:基于数据驱动,因此,可通过更新数据文件而不是重写代码来修改系统行为;基于公开的数据模型,任何用 户都可打开一份Excel电子表格,调整数据来反映其设备或装备性能,具有高度定制的特性。

分析认为:OpSim定位在营级场景的方案推演分析,支持最佳行动方案的生成、评估、比较和选择,并以直观的形式帮助操作员研究和理解仿真运行的结果,仿真行为模型和数据可灵活配置。100万次的推演规模表明,其采用的是大样本推演技术路线,相比传统的小样本推演,好处在于能够探索各种各样的选项,寻求最佳的行动方案。但因公开的信息有限,尚不清楚推演中可针对哪些要素设置选项,以及基于如此大规模的数据,能够提供哪些方面的分析结果,并如何让用户便于理解。

2020年,DARPA授予美国光辉科技(Radiance Technologies)公司和科尔工程服务(Cole Engineering Services)公司1930万美元合同,用于“安全高级仿真与建模框架”(SAFE-SiM)项目。

现有仿真通常局限于特定任务区域,不适合多域交互,而创建任务级别的仿真场景非常耗时,且需要专门培训。SAFE-SiM项目旨在创建一个直观的仿真与建模用户界面,提供快速场景构建、高级可视化能力以及能够对模拟数据进行广泛分析的工具。

根据合同,两家公司将开发一种实时系统,建立全战场、多领域、任务级别的模型,提供可视化与数据分析工具,使高级军事指挥官能够实践开发中的作战概念、编排部队结构、分配资源和规划技术插入。

据美国空军首席科学家办公室2019年3月发布的《Autonomous Horizons: The Way Forward(自主地平线:前进之路)》报告[4],美国空军研究实验室开展了一项在基地防御任务中将人-自主系统编队应用到多个异构无人平台的指挥控制中。

该应用被设计为一种“剧本式”的体系结构,扩展后能够在不同控制级别(从手动到完 全自主)之间实现无缝的切换。

在手动级别下,作战人员可以完全手动控制特定无人平台。作战人员也可以应用部分自主能力,即通过大量输人来指定“剧本”的所有细节,一个或多个无人平台按“剧本”自主执行任务。

在完全自主级别下,作战人员可以仅指定两个基本细节(“剧本”的类型和位置)来快速分配无人平台的任务,然后由自主指挥控制系统确定所有其他任务细节。例如,如果作战人员调用一个“剧本”,要求对某一建筑物进行空中监视,则自主指挥控制系统会根据传感器有效载荷、预计途中时间、燃料使用情况、环境条件等提供无人平台 的使用建议,并监控“剧本”的执行状态。

调用“剧本”定义无人平台的动作,需要向自主系统指定两个细节:

①“剧本”执行的位置,通过语音指令,点击地图位置或从下拉菜单中选择预定义的位置。

②“剧本”类型,使用语音指令或在“剧本调用”人机界面上选择相应的图标。接着,自 主系统会根据可用资产和其他相关细节进行推理,以建议一个或多个推荐的“剧 本”计划。

图1的两个人机界面为作战人员提供了自主系统的处理过程信息及自主系统推荐“剧本”的依据。

在左侧的极坐标图中,总结了一些由自主系统识别的可行计划。右侧的人机界面显示出自主系统建议使用“剧本”的理由(图1)。

自主系统的推荐计划还显示在带有虚线符号的地图上,如图2所示,以及在“剧本工作簿”详情中,包括该计划所基于的假设和约束。

通过在“剧本工作簿”上发布语音指令或更改选择,作战人员能够提示自主系统提出修改后的新计划。例如,如果作战人员在工作簿页面上指定了目标的大小,或者将环境 图标更改为“多云”,则自主系统将考虑选择具有更适宜的传感器负载的平台,并更改建议的“剧本”计划。

此外,作战人员可以直接通过语言表述一个问题来进行查询,例如,“致命武器何时可以到达某地?”自主系统将给出经过思考后的结果。如果作战人员回复“让我看 看”,则相应的信息,例如“剧本”计划将显示在地图和“剧本工作簿中。

一旦作战人员同意特定的”剧本”计划,自主系统就会通过控制无人平台动作来执行“剧 本”,以完成“剧本”指定的任务。作战人员可以通过多种方式跟踪自主系统的“剧 本”执行进度:在地图上观看无人平台符号的运动,在活跃的“剧本”表格中检索专用 于每个“剧本”的信息,并查看“剧本”质量矩阵。地图和表格中均用同一种颜色来表示一个正在执行的“剧本”。

分析认为:该软件定位在空军基地防御任务的无人平台战术行动层面,能够根据制 定的任务类型和执行地点,自动推荐行动计划,并具备语音问答交互、备选计划排序、推荐理由呈现、计划动态修改、执行过程监控、计划质量评估等功能。其“剧本”式的结构可以理解为一系列的任务计划模板,可以根据实际任务地点和可用兵力 资源,快速生成行动计划。其中基于任务类型和地点推荐行动计划方面是否使用了 人工智能算法尚不清楚,但其在推荐理由可解释呈现方面做的工作值得借鉴。

在舰艇防空作战过程中,人类操作员通常需要综合考虑成本、时间和作战规则等诸多因素才能决定是发射拦截导弹还是使用射频信号干扰或是其他防御手段来应对来袭导弹。随着战争攻防水平均越来越高,人类操作员面临的舰艇防空作战决策问题的难度越来越高。

针对上述问题,2019年4月,美国麻省理工学院(MIT)林肯实验室防空、反导和海上防御技术分部的研究者开发出一款基于学徒调度的人机协同优化(Collaborative Optimization via Apprenticeship Scheduling,COVAS)系统。该系统使用机器学习算法模仿人类专家在充裕时间内考虑所有可用选项后作出的决策,是目前唯一能够为用户提供实时舰船自防御调度方案的系统。

COVAS技术的核心来自于Matthew Gombolay在MIT的博士论文《Human-Machine Collaborative Optimization via Apprenticeship Scheduling》,该论文提出了这样一种技术:人类领域的专家和专业人士在多年的学徒生涯中成为了专家,而这些知识并不容易以政策的形式被编纂出来,论文基于上述思路开发了一种新的计算技术,通过学徒调度协作优化(Collaborative Optimization via Apprenticeship Scheduling,COVAS),它使机器人通过观察专家解决调度问题来学习策略来获取专家的知识,然后,COVAS可以利用该策略来指导分支和绑定搜索(branch-and-bound search)以比当前最先进的优化算法技术更快地提供全局最优解决方案。

注:方法细节详见Matthew Gombolay论文:

——Developing an apprenticeship learning technique for scheduling is challenging because of the complexities of modeling and solving scheduling problems. Previously, researchers have sought to develop techniques to learn from human demonstration; however, these approaches have rarely been applied to scheduling because of the large number of states required to encode the possible permutations of the problem and relevant problem features (e.g., a job’s deadlines, required resources, etc.).

——My thesis gives robots a novel ability to serve as teammates that can learn from and contribute to coordinating a human-robot team. The key to COVAS’ ability to efficiently and optimally solve scheduling problems is the use of a novel policy learning approach – apprenticeship scheduling – suited for imitating the method an expert uses to generate the schedule. This policy learning technique uses pairwise comparisons between the action taken by a human expert (e.g., schedule agent a to complete task τi at time t) and each action not taken (e.g., unscheduled tasks at time t), at each moment in time, to learn the relevant model parameters and scheduling policies demonstrated in training examples provided by the human experts.

Matthew Gombolay的论文中,已经展示了应用于反舰导弹防御问题的初步效果:通过在正确的地点和时间部署诱饵和对抗措施来保护海军舰艇免受敌人的攻击。COVAS展示了学徒计划可以学会保卫飞船,在大多数海军交战中表现优于人类专家(p < 0.011)。此外,COVAS能够产生比传统的、最先进的优化技术快一个数量级的全局最优解决方案。

如何开发能够协助用户完成技术任务的高效调度软件长以来都是美国海军面临的一项难题。COVAS问世前,软件开发人员必须事先广泛征求行业专家的意见,并理解终端用户必须考虑的相关政策和标准才能开始开发,这个过程非常耗时且软件产 品往往无法正确反映出人类决策。而终端用户很难充分、全面地描述自身的自然决策 过程,也导致工程师和研究者开发出的算法也无法从真正意义上取代用户的决策过程并满足用户需求。

COVAS项目发了一种用于“打击群守卫(SGD)”训练系统的数据集,用于记录和展示受训者对导弹威胁所做出的战术决策。“打击群守卫”是由DARPA和林肯实验室合作研制的一款舰艇自防御训练系统,主要针对目前对美国海军威胁最大的反舰巡航导 弹(ASCM),利用人工智能和机器学习技术建立了一套模拟训练系统,帮助海军学员理解美国海军开发的多型反ASCM系统,使其能够在信息不完整的条件下迅速做出最正确的自防御决策,同时利用学员在训练过程中积累的决策数据不断训练和改进智能决策模型,提高训练效果。

COVAS以分支界定法为基础,在决策树模型中展示基于概率统计的行动方案,每个行动都真实反映了人类的决策过程,确保用户能够理解系统生成这个解决方案的原 因。这种实时生成的解决方案能够为用户提供存在问题的行动计划建议,用户可以根据生成的标准评测分值对解决方案进行评估并最终决定具体的行动方案。

COVAS系统通过观测训练计划中的数据输入内容来学习人类专家的实时操作行为。这些计划详细描述了采取的具体行动(在海战中包括反制措施的时间和地点)和未采取的行动,COVAS将用户在同一时间点采取和未采取的行动进行成对比较,帮助系 统预测用户在给定条件下将会采取的行动选择并实现资源的最优部署。

2018年,COVAS系统获得了《R&D》杂志评选的年度百大创新技术奖。未来,在海军研究办公室(ONR)将COVAS系统纳入海军未来能力(FNC)前,Matthew Gombolay团队将继续完善和改进COVAS系统,提高系统的整体能力。

分析认为:COVAS系统的主要功能定位在舰艇反导拦截手段选择问题。针对用户提炼规则难的本质问题,改为从用户训练数据中学习建立人类专家经验的决策树,是一种典型的“机器通过观察人类行为学习专家经验”的做法。该学习算法具备小样本数据扩增和类似迁移学习的能力。

2021年7月,美国陆军作战能力开发司令部与Rockwell Collins公司研发了火力风暴(FireStorm)统款智辅助决策来自多传感器的数据进行分析,并推荐打击特定目标的最优武器系统,帮助指挥官缩短决策时间。传统的陆军系统需要20分钟将数据回传给作战人员,而该系统只需要20秒。

该系统使用先进计算机算法收集无线电数据链、视频、导航和地形、气象状况、目 标坐标和敌方确切位置的相关信息,通过人工智能算法近实时地对这些数据进行处理和分析,并将所有的变量与数据库进行对比,分析各自之间的关系,近实时地生成分析结果,例如,特定距离、特定气象条件下针对特定的目标组合使用火炮较为合适。随后,该系统将在此基础上确定打击特定目标所需的最优武器,并更新通用作战图 和敌我态势信息。

在2020年陆军“会聚工程”演习中,陆军将目标信息并发送给该系统,其建议使用155mm增程加农炮,位于离敌人坦克30英里地方,随后远程控制这门炮,自动将炮 调到所需的方位角和仰角,并授权炮兵军官开火。其出色表现受了美国陆军未来司 令部司令John Murray将军的高度称赞,称该系统会颠覆未来美国陆军的作战方式。

2020年的“会聚工程”中,该系统只有一个决策节点(Decision Node),后续将有更多决策点来验证决策树,并探索这些决策是否是基于包含许多因素的决策树制定。该系统可为战役级的联合任务部队指挥官提供支持,也可为战术级坦克或直升机操作员提供支持,并且战役级和战术级指挥官可以相同的方式使用该系统。此外,研发人员还将为该系统增加更多先进AI和自动化算法,最终交付的系统可根据指挥官需求进行能力定制。

该系统不仅可将决策时间由20分钟低到20秒,还可以对作战资源进行优化,包括对目标资产和打击工具的优化,以实现用最优的打击工具来打击特定目标。资源优化 目前尚无法量化,研发团队将构建更多的用户使用案例,并在2022财年开展仿真实验。实验中系统将获取大量的目标数据,对各种打击效果进行仿真,最终可获得成本矩阵和最优方案。该系统还可以提供目标冲突消解方案,以确保多个武器系统不会重 复射击相同的威胁。目前,这种冲突只能通过操作员之间的电话沟通完成。系统加快了该过程,并消除了任何潜在的冲突。

另据消息报道,在“会聚工程-2020”演习中,原始版系统在打击单一目标时生成了6种打击方案。“会聚工程-2021”演习中,增强版系统生成了21种“传感器到射手”的打击方案,所有这些工作都在几秒钟内自动完成。

分析认为:FireStorm系统的主要功在战术末端的火力打击器优选层面,可推荐打击特定标所需最优武器。统用在美陆军“会聚工程”演中,配合其他AI系统,将传感器-武器响应时由20分钟降低到20秒。其采用的人工智能技术是决策树(Decision Tree)。然目前其声称包含的决策节点较少,但用在武器资源优选上已经带来了显著的效率提升,展现出人工智能技术在任务规划领域的应用前景。

2021年7月,兰德公发布《探索机器学习辅助指挥控制可行性和实用性》报告。报告中举了一个研究实例空主攻击计划成。中主攻击计划是用于创分阶段机动计划过程。该过程涉及指派驻扎在各个基地非同质机队(例如,打击、压制敌方空、护航、加油机至飞兵力包(工作飞机组合)以 执行各种任务。标是在况下,通过安排最高先级任务尽可任务使成任务的积价值最大化

目前,空中主攻击计划是一个极其耗费人力且主要由人工执行的过程。计划团队中 的两班计划人员工作24h,为每个空中任务指令(ATO)周期制定空中主攻击计划。将计算机用于空中主攻击计划可以减少计划时间,提髙计划质量,并释放人力资本,让计划人员能够考虑更多的方案(COA)。

图4显示了空中主攻击计划题的程式化描述。专用飞机驻扎在不同的基地。一组50个已完成部分计划制定的任务作为输入。部分任务可能来自根据联合部队综合优先目标清单计划的任务。计划的详细信息包括任务开始时间和结束时间、任务持续时间以及任务所需的兵力包组成。在空中主攻击计划期间,将专用飞机分配给各个兵力包和任务。任务包又被分配至锚轨以满足加油需求。在该模型中,机队在锚点进行编组,必要时加油,然后启动任务。完成指定目标后,机队从目标区域离开。报告中做了几个假设以 提高模型的易处理性:①所有飞机和加油机在整个时间范围内都可用;②每次部署加油机被分配给一个锚轨;③ 加油机可以为任何飞机加油;④给飞机加油所需的时间可以忽略不计。

计划问题解决方案包括以内容:①待执行的任务集。在资源有限的情况下,潜在任务的数量可能会超过可以执行的数量。②每个任务的时间窗口。所有任务都必须在24h空中任务指令期限内启动和完成。③将飞机分配给兵力包。提供机数量和类型方面的兵力包构成,但必须将专用飞机分配至兵力包。④ 将机队和加油机分配至加油机轨道(即锚)。锚是固定的,但将组件和加油机分配给这些锚则是灵活的。

解决方案必须满足一组任务限制如兵力包必须包括所有必需的飞机)、加油限制(如加油机必须有足够的卸载能力,飞机必须有足够的燃料来完成任务并返回基地)和调度限制(如飞机只有在返回基地维护、加油和重新装备后才能重新使用)。

报告中将空中主攻击计划问题表述为确定性的混合整数线性计划。每个任务都有一个从战略到任务方法的概念上衍生的价值,其中任务优先级对应于任务的关键性。将计划的质量简单地确定为所有预定任务价值的总和。任务时间表和飞机分配受到任务执行参数、飞机能力、飞 机利用率和等待时间的限制。

报告中研究了两种不同的解决方法。第一是商用求解器(即Gurobi)使用整数规划理论。报告中将此方法称为混合整数规划(Mixed Integer Programming,MIP)。第二种解决方案是贪婪启发式算法。贪婪启发式算法只是按照重要性的降序安排任务,直至所有资源都被使用或执行窗口的持续时间已过。只要具有足够的计算资源和时间,混合整数规划将最终找到最优解(如果存在)。启发式算法不能保证找到最优解甚至是优良解,但式算会很快求出解。

报告中使用的测试案例比较了两种解决方案,该案例涉及五种不同类型的20架飞机 以 及4架加油机。飞机驻扎在8个基地。在24h空中任务令期间提供了50个优先的、部分计划的任务清单,每个任务需要1~7架飞机。混合整数规划将所有实例求解到最优,而启发式算法仅将46%的实例求解至最优。尽管混合整数规划解决了每个实例的最优问题,但其计算成本很高。贪婪启发式算法找到可行(如果不是最佳)解决方案的时间比混合整数规划少几个数量级。

分析认为:该研究定位与空中主攻击计划制定,采用人工智能算法能够将该项工作的耗时降低至秒级,同时能够保证结果的最优性。混合整数规划和贪婪启发式算法并非最新提出的主流AI技术,但依然能够在作战任务规划领域发挥作用。但是报告中并没有指出该技术是否得到了实际应用。

美国空军研究实验室 (AFRL) 于2021年12月宣布了“今夜就战(Fight Tonight)”项目旨在开发游戏环境,利用人类指导下的人工智能生成大量潜在行动计划,允许操作人员在游戏中探索、精选并评估战斗计划,获取对未来战场的见解。项目周期4年半,总经费为9900万美元。

“今夜就战”项目是一项重大的变革性投资,旨在利用人工智能,以及一个用于构建、演练和评估作战计划的交互式游戏引擎,彻底改变空中作战计划。这一能力将使规划 者能够在动态环境下快速探索和访问合理的未来,以选择最佳计划。这将加快规划过程,并允许探索空中作战中心(AOC)战略和作战计划部门的潜在行动方案(COA)。

AOC战略部门将指导转化为目标,执行任务分析、行动方案(COA)制定、分析和选择。AOC作战计划部制定满足作战环境约束的详细执行计划,执行详细分析并形 成分析产品,用于空中任务指令(ATO)产品的准备和重规划。这些活动的复杂性和密切合作的需要是目前用于完成AOC总空袭计划(MAAP)流程的36h的主要驱动因素。

仅仅依靠人工智能无法完成项目目标,需要人类见解来指导并理解自动规划与分析,使规划人员能够在有把握和有信心的情况下输出行动计划。“今夜就战”项目将开发工具,让人类用户能够与人工智能协作,在4h内开展空战规划,并以分钟为单位进行重新规划,同时对多个选项及它们的预期结果之间进行权衡。此外,项目还将开发工具来优化人类与机器的角色:人类提供深层见解和创新性,机器在各种限制下进行推并生成对可用选项的详细分析。

项目致力于集成现有技术以便在以下两个关键领域中快速部署可测试、可用的解决方案原型,如图5所示。

一是交互式计划优化。能力通过用户主导的、探索式资源分配和任务优先设定流程来生成可执行的计划,帮助用户设计兵力分配方案,理解哪些方案是可用的,评估调整优先级带来的影响。系统首先根据用户提供的指导原则输出粗粒度的计划雏形,接着,用户通过自动分析功能快速评估该计划的其他选项,系统同时继续优化候选计划并利用可用计算资源提高计划的精确度。这一迭代过程的早期对自动规划技术的速度要求高于对精确性的要求,然后再根据规划者的持续指导来优化计划元素,直到达到能够模拟执行的精度要求。自动化分析功能将在规划的所有阶段(从统计分析、计划执行到友军和敌方决策制定)提供见解。

二是计划推演与结果分析。游戏平台将为战斗计划提供深层见解和经验,使规划者能 够分析预期表现并根据模拟的结果来更新计划。此处的关键创新点是采用商业游戏技术来构建直观、交互式界面,能够将人类对复杂作战环境的理解最大化。界面提供的能力包括比实时更快的计划执行、关键时空事件的可视化展示、根据事件来描述计划的结果将在何处产生偏差或达成预期。

分析认为:“今夜就战”项目是人机融合理念在作战筹划领域应用的一个典型示范。其定位在战区级的总体空袭计划(MAAP)制定应用场景。核心技术是AI协作规划系统+交互式游戏引擎,实现“人类提供深层见解和创新性,机器在各种限制下进行推理并生成对可用选项的详细分析”这样一种人机融合筹划模式,能够将筹划过程从36h缩短至4h。人机融合是作战指挥智能化发展的重要方向,该项目的技术方案具有一定参考价值。

作为军事智能皇冠上的明珠,指挥决策智能化发展已到了迎难而上的关键阶段。而,极其宽广的问题域、极度缺乏数据积累的现状,以及对可信度极高的要求,导致该领域长期以来智能化研究进展缓慢。论文分析了美军近五年来在智能指挥决策的6代表性研究工作。总体来看,这些研究中体现出未来两个主要的技术方向。

一是学习作战人员经验知识的主动推荐。包括“剧本式”基地防御无人平台行动规划系统、舰艇自防御辅助决策系统、火力风暴系统,都是侧重于对规则的经验学习,包括基地防御行动规则、反舰导弹拦截手段选用规则、武器分配规则等。让机器通过观察作战人员的操作学习经验知识,反过来再利用经验知识在髙实时性场景下,针对新手参谋提供决策建议。这种方式有别于传统的专家系统。专家系统是由人来提炼知识规则,通常只能考虑若干主要因 素,建立的规则体系较粗,难以全面覆盖各种可能的情况。而此方法是在人的作业过程中学习提炼规则。随着遇到的情况越多,规则提炼得就越细致,适用面也就越广,积累到一定程度后可达到了实用化水平。与主流的数据智能技术相 比,该方法对数据规模要求可降至最低,是从零样本或者较粗的初始规则开始,随着用户不断产生新的样本,持续开展增量学习。同时,学到的知识规则采用决策树等可解释的模型表征,在推理生成决策建议的同时,能够让用户清楚地看到背后所依据的规则分支,具有很好的可解释性。

二是人机融合的作战方案探索寻优。包括聚焦作战的仿真系统、今夜就战项目,都是利用一套类似游戏的作战仿真推演系统,将作战人员设计的行动构想代入到模拟对抗环境中去探索试错,并向作战人员反馈大样本分析结果,以加深其对构想实施效果和关键影响因素的理解。这是一个很有前景的研究方向,能够很好地解决当前深度强化学习技术的应用瓶颈问题,同时也能很好地解决人机优化分工的问题。深度强化学习目前仅能够适应战术级以下场景,而在战役级以上,由于决策空间太过庞大,机器探索往往劳而无功。作战人员凭借自身过硬的经验素质和创造性的谋略设计作战构想,为机器探索试错提供了约束,可显著压缩决策空间的大小。作为回馈,机器能够在作战构想加入各种选项,完成数百万次规模的大样本探索,告诉作战人员这套构想多大概率能够达成预定目标、平均会损失多少兵力、各个选项该如何取值能够达最佳效果、影响成败的关键选项或不确定因素有哪些,以及构想在实施过程中可能会遇到哪些风险等。这样,指挥员提出一套构想,不再需要一套庞大的筹划班子花费数天时间去细化,而是由机器在数十分钟内给出细化探索后的“即时反馈”,指挥员可以据此调整构想,再获得反馈,再调整优化。如此人和机器共同探索不断调优,可将作战构想的最优性和完备性提升到极致,也能将人的智慧和机器的算力优势发挥到极致,因此,是非常有潜力的方向。

此外,一些传统的工智能算法,例如,混合整数规划、贪婪启发式算法等,也能针对一些局部问题快速给出最优解,也具有一定应用价值,例如,兰德公司所做的空中主攻击计划智能生成方法研究。

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

«    2024年12月    »
1
2345678
9101112131415
16171819202122
23242526272829
3031
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
搜索
最新留言
    文章归档
      友情链接