军事仿真 AI 原生解决方案

场景 → 想定 → 方案 → 推演 → 评估 · 端到端闭环智能体系
1
场景构建
Scene Construction
2
想定生成
Wargaming Scenario
3
方案生成
Plan Generation
4
仿真推演
Simulation Run
5
仿真评估
Assessment

一、场景构建

Scene Construction

构建战场环境,涵盖地理、气象、电磁、基础设施等多维态势。核心目标:用自然语言快速生成结构化战场场景

NLP 自然语言 → 场景

LLM 将 "红蓝双方在东海某海域对峙,气象条件 XX" 解析为结构化场景参数 (JSON / DSL)

Vision 地理环境生成

多模态模型从卫星图 / 地图自动提取地形特征、道路网络、关键地标

RAG 场景模板推荐

基于历史场景库做 RAG 检索,推荐相似场景作为起点,降低构建成本

Validate 一致性校验

LLM + 规则引擎联合检查参数矛盾,如海拔与水深冲突、时间线逻辑错误

  [自然语言输入]
       │
       ▼
  [场景 DSL 生成器 (LLM)]
       │
       ▼
  [场景参数 JSON Schema] ──→ [场景渲染引擎 (3D / GIS)]
       │
       ▼
  [一致性校验 (规则 + LLM)]
       │
       ▼
  [结构化场景定义]
⚔️

二、想定生成

Wargaming Scenario

在场景基础上定义双方作战目标、兵力编成、交战规则 (ROE)、时间线。核心创新:红蓝对抗博弈 Agent 自动迭代生成想定

Generate 想定自动生成

LLM 基于场景 + 作战意图,生成结构化想定:兵力部署、阶段划分、ROE 规则

Game 对抗性博弈

红蓝两个 Agent 各自独立生成意图,通过多轮对抗迭代完善想定

Review 合理性评估

战术知识库 RAG + LLM 审查,标注兵力不足、后勤断链等风险点

Version 版本管理

每次修改生成 diff,支持分支 / 合并,类 Git 的想定版本管理

        场景描述 + 红方目标
              │
              ▼
  ┌─────────────────────────┐
  │    Red Agent (LLM)       │ ← 战术知识库 (RAG)
  │   生成红方兵力部署方案     │
  └───────────┬─────────────┘
              ▼
  ┌─────────────────────────┐
  │    Blue Agent (LLM)      │ ← 战术知识库 (RAG)
  │   针对红方部署制定对策     │
  └───────────┬─────────────┘
              ▼
  ┌─────────────────────────┐
  │    Referee Agent         │
  │   平衡性审查 + 冲突标注    │
  └───────────┬─────────────┘
              ▼
         最终想定文档

三、方案生成

Plan Generation

基于想定为各作战单元生成具体行动计划。核心价值:多方案并行生成 + 量化比较,突破人工只能覆盖少数方案的局限

Ensemble 多方案并行

LLM + 规划算法 (HTN / MCTS) 并行输出 3-5 个差异化方案,覆盖不同战术风格

Score 多维评价打分

风险、时效、资源消耗、达成概率等维度自动评分,附 LLM 解释

Merge 方案对比与融合

LLM 对多方案做优劣势分析,可融合不同方案的优点生成复合方案

HITL 人在回路修正

指挥员用自然语言修改方案,LLM 实时调整并反馈级联影响

  想定 + 约束条件
       │
       ▼
  ┌────────────────────────────────────────┐
  │          Plan Generator Ensemble        │
  │  ┌──────────┐ ┌──────────┐ ┌─────────┐│
  │  │ 方案 A    │ │ 方案 B    │ │ 方案 C   ││
  │  │(激进突防) │ │(稳健推进) │ │(迂回包围)││
  │  └─────┬────┘ └─────┬────┘ └────┬────┘│
  │        └────────────┼───────────┘     │
  │                     ▼                  │
  │           Plan Evaluator               │
  │      (多维度打分 + LLM 解释)            │
  └─────────────────────┬──────────────────┘
                        ▼
           排序推荐 + 可视化对比
方案 DSL 示例

每个方案以结构化 YAML 描述,包含阶段、兵力、行动指令,便于 LLM 生成、校验和推演引擎执行。

plan_id: PLAN-2026-0320-A
name: "东海封锁作战方案 A — 激进突防"
phases:
  - phase: 1
    name: "电子压制"
    start_time: T+0
    units: [EW-01, EW-02]
    actions:
      - type: jamming
        target: enemy_radar_net
        power: high
  - phase: 2
    name: "第一波突击"
    start_time: T+00:30
    units: [AIR-01, AIR-02, NAV-01]
    actions:
      - type: strike
        target: port_facility_A
        weapon: cruise_missile
        quantity: 12

四、仿真推演

Simulation Execution

按方案驱动各作战单元在仿真环境中执行,产生时序态势数据。核心创新:每个作战单元挂载 LLM Agent,自主感知-决策-行动

Agent 智能体行为决策

每个作战单元挂载 LLM Agent,根据实时态势自主决策,非脚本化行为树

Adaptive 自适应仿真步长

战斗激烈区域用小步长,平静区域用大步长,AI 动态调度提升仿真效率

Inject 意外事件注入

LLM 作为 "战局导演",在关键节点注入意外事件,考验方案鲁棒性

Monitor 实时态势理解

推演过程中 LLM 持续解读态势,自动生成态势报告与异常告警

  ┌──────────────────────────────────────────────────┐
  │               Simulation Engine                   │
  │                                                    │
  │   ┌────────────┐  ┌────────────┐  ┌────────────┐ │
  │   │ Unit Agent  │  │ Unit Agent  │  │ Unit Agent  ││
  │   │  (驱逐舰)   │  │  (战斗机)   │  │  (雷达站)   ││
  │   │            │  │            │  │            │ │
  │   │  观测→推理  │  │  观测→推理  │  │  观测→推理  │ │
  │   │  →决策→行动 │  │  →决策→行动 │  │  →决策→行动 │ │
  │   └──────┬─────┘  └──────┬─────┘  └──────┬─────┘ │
  │          └───────────────┼───────────────┘        │
  │                          ▼                         │
  │               态势融合与冲突仲裁                      │
  │                          ▼                         │
  │               仿真时间推进                           │
  └──────────────────────────┬─────────────────────────┘
                             ▼
                  时序态势数据流 (SSE)
Unit Agent 决策循环

每个 Agent 遵循 观测 (Observe) → 推理 (Reason) → 决策 (Decide) → 行动 (Act) 循环,输出可审计的决策链,支持事后复盘分析。

UNIT_AGENT_SYSTEM_PROMPT = """
  你是 {unit_type} {unit_id} 的指挥 AI。
  当前态势:{current_situation}
  你的任务:{mission_objective}
  ROE 规则:{rules_of_engagement}
  可用武器/资源:{available_resources}

  输出格式:
    1. 态势判断 — 你观察到了什么
    2. 决策依据 — 为什么这么做
    3. 行动指令 — 具体做什么
    4. 预期结果 — 预计产生什么效果
"""

五、仿真评估

Assessment

对推演结果进行多维度评估,输出报告,支持方案迭代优化。核心价值:LLM 自动将海量推演数据转化为可读评估报告 + 可执行的改进建议

Metrics 多维自动评估

从推演数据自动计算战损比、时间达成率、资源效率、态势控制面积等指标

Report 自然语言报告

LLM 将指标数据转化为结构化评估报告,含关键节点叙事与图表引用

Root Cause 根因分析

LLM 分析关键转折点,构建因果链,追溯胜负根本原因

Loop 方案迭代闭环

基于评估结果自动提出改进建议,闭环反馈至方案生成阶段

  推演时序数据
       │
       ▼
  ┌─────────────────────────┐
  │   评估指标计算引擎        │
  │  (战损 / 时间 / 资源 态势)│
  └───────────┬─────────────┘
              ▼
  ┌─────────────────────────┐
  │   LLM 评估报告生成器     │
  │   指标 → 叙事 → 图表 → 建议│
  └───────────┬─────────────┘
              ▼
  ┌─────────────────────────┐
  │   根因分析 Agent         │
  │   关键节点回溯 + 因果链   │
  └───────────┬─────────────┘
              ▼
  ┌─────────────────────────┐
  │   方案优化建议           │
  │   → 反馈至方案生成阶段    │
  └─────────────────────────┘

六、端到端闭环架构

Full Loop
场景构建
LLM 解析 + RAG 模板
想定生成
对抗博弈 Agent
方案生成
多方案并行生成
仿真推演
Agent 化推演引擎
仿真评估
LLM 报告 + 根因分析
闭环迭代:评估结果 → 优化建议 → 回到方案生成
核心设计哲学

让 LLM 承担 "认知" 工作(理解、推理、生成、评估),传统算法承担 "计算" 工作(物理仿真、路径规划、优化求解),两者通过结构化 DSL 桥接。这一分层保证了 AI 的创造性与仿真的精确性互不干扰。

七、关键技术选型

Tech Stack
层级 技术 说明
LLM 编排 LangGraph / 自研 Agent 框架 管理多 Agent 协作、状态流转、对话历史
知识库 Elasticsearch + 向量检索 作战条令、战术案例、历史战例的 RAG 索引
仿真引擎 离散事件仿真 (DES) + Agent 调度 战场事件驱动,Agent 自主决策,支持多时间尺度
态势存储 时序 DB (InfluxDB / TDengine) 高频态势数据写入与时间范围查询
可视化 Cesium (3D GIS) + WebSocket 实时态势可视化,支持 2D/3D 切换
方案 DSL YAML / JSON Schema 结构化方案描述,便于 LLM 生成、校验和引擎执行

八、落地路径

Roadmap

Phase 1 · MVP

  • 跑通场景→想定→单方案→简单推演→评估的最小闭环
  • LLM 做自然语言到 DSL 的转换
  • 基础知识库 RAG 索引(作战条令)
  • 脚本化仿真引擎 + 基础指标评估

Phase 2 · 增强

  • 引入红蓝对抗博弈 Agent
  • 多方案并行生成 + 量化对比
  • Agent 化推演引擎(自主决策)
  • 实时态势可视化 + SSE 推送

Phase 3 · 成熟

  • 自适应仿真步长 + 异常检测
  • 方案自动迭代优化(评估→改进闭环)
  • 跨域多兵种联合作战仿真
  • 历史战例深度挖掘与战术知识图谱