CN111145348A - 自适应作战场景的可视化生成方法 - Google Patents

自适应作战场景的可视化生成方法 Download PDF

Info

Publication number
CN111145348A
CN111145348A CN201911136589.7A CN201911136589A CN111145348A CN 111145348 A CN111145348 A CN 111145348A CN 201911136589 A CN201911136589 A CN 201911136589A CN 111145348 A CN111145348 A CN 111145348A
Authority
CN
China
Prior art keywords
battlefield
environment
situation
terrain
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911136589.7A
Other languages
English (en)
Inventor
李柯材
刘正成
管振辉
马援博
徐鹏涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou Institute Of Marine Electronic Instruments No723 Institute Of China Shipbuilding Industry Corp
Original Assignee
Yangzhou Institute Of Marine Electronic Instruments No723 Institute Of China Shipbuilding Industry Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou Institute Of Marine Electronic Instruments No723 Institute Of China Shipbuilding Industry Corp filed Critical Yangzhou Institute Of Marine Electronic Instruments No723 Institute Of China Shipbuilding Industry Corp
Priority to CN201911136589.7A priority Critical patent/CN111145348A/zh
Publication of CN111145348A publication Critical patent/CN111145348A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提出了一种自适应作战场景的可视化生成方法,通过场景视点得到当前地形可视范围的透视投影,并通过透视投影实时将当前地形的二维矢量数据绘制在与地形绑定的纹理上,形成三维战场地理环境,依据与地形绑定的纹理,对军标网格上的各个顶点进行位移,并渲染到屏幕帧缓存中得到最终军标绘制结果,实现战场态势的可视化,对战场环境和战场态势进行自适应。本发明实现了战场态势的可视化,能够实现非规则军标的三维地形跟随,且运算效率高,能满足交互编辑以及动态推演的实时要求。

Description

自适应作战场景的可视化生成方法
技术领域
本发明属于战场态势技术,具体为一种自适应作战场景的可视化生成方法。
背景技术
数字化战场环境为军队作战提供以数字化与可视化为基础的战场环境保障和决策支持,已成为提高战斗力,保持武器装备优势的关键所在,在军事上有着巨大的需求。然而目前数字化战场环境保障技术的发展尚未成熟,还存在许多关键技术丞待研究,如:
1、战场地理环境信息类型众多,如表征地形的高程数据、表征地貌特征的影像数据以及表征人文特征的矢量数据等,这些环境信息不仅格式各异,而且数据量极为庞大,可视化时需要研究在提高逼真度的前提下,保证战场环境绘制的实时性。目前人们对三维地形实时绘制技术进行了广泛深入的研究,并取得了大量的研究成果。但对于在三维地形上绘制矢量数据的研究却相对较少,目前提出的一些技术还有待改进。
2、战场可视化是以图形、图像的形式直观反映作战区域地理、社会环境和战场态势的方法,可分为战场环境可视化和战场态势可视化两大部分。通过战场环境可视化,指挥人员可以实时了解到战场信息,如:地形、地表环境等重要情报,从而明确战斗力量的部署、作战力量的编成是否合理;通过战场态势可视化,得到兵力位置、人员对比、信息传输等非可视信息,为指挥员正确把握战场态势提供直观、高效的辅助决策手段,将信息优势转化为决策优势,进而提高整体战斗力。但随着机器学习的快速发展,战场环境和战场态势信息更新较慢且不智能化。
发明内容
本发明的目的在于提出了一种自适应作战场景的可视化生成方法。
实现本发明目的的技术解决方案为:一种自适应作战场景的可视化生成方法,具体步骤为:
步骤1、通过场景视点得到当前地形可视范围的透视投影,并通过透视投影实时将当前地形的二维矢量数据绘制在与地形绑定的纹理上,形成三维战场地理环境;
步骤2、由当前非军标控制点集生成军标的二维外轮廓,用二维外轮廓裁剪NURBS表面得到平面军标网格;
依据与地形绑定的纹理,对军标网格上的各个顶点进行位移,并渲染到屏幕帧缓存中得到最终军标绘制结果,实现战场态势的可视化;
步骤3、战场环境和战场态势的自适应:对战场环境和战场态势中的环境、态势图像进行特征提取,将提取的特征作为支持向量机的分类输入参数进行分类器的训练,构造出结构风险最小的分类器模型,利用结构风险最小的分类器模型进行图像识别分类,形成统一的作战态势图。
优选地,所述透视投影是指由视点、视线和视口在地平面上形成的投影。
优选地,对战场环境和战场态势中的环境、态势图像进行特征提取,将提取的特征作为支持向量机的分类输入参数进行分类器的训练,构造出结构风险最小的分类器模型,利用结构风险最小的分类器模型进行图像识别分类,形成统一的作战态势图的具体步骤为:
步骤3-1、将战场环境和战场态势中的环境、态势图像信息分为两部分,分别作为训练集和测试集,采用灰度共生矩阵分别提取训练集和测试集地形的纹理特征;
步骤3-2、将提取的训练集特征作为支持向量机的分类输入参数,进行分类器的训练,构造出结构风险最小的分类器模型;
步骤3-3、利用结构风险最小的分类器模型,对测试集图像进行分类,分类后的图像数据包括地形、影像、矢量数据,利用地形、影像、矢量数据构建三维战场地理环境,并依据地理空间情报动态标绘军标,生成战场态势图。
优选地,采用灰度共生矩阵分别提取训练集和测试集地形的纹理特征,具体方法为:
1)将战场环境的图像转换为灰度图像;
2)对灰度图像进行量化;
3)计算出各灰度级在设定方向单位距离出现的概率p作为pij放入灰度共生矩阵P;
4)根据灰度共生矩阵P计算纹理参数和特征。
优选地,所述纹理参数包括能量、惯性矩、滴以及相关性,分别具体为:
Figure BDA0002279741680000031
Figure BDA0002279741680000032
Figure BDA0002279741680000033
Figure BDA0002279741680000034
式中,F1表示能量,F2表示惯性矩,F3表示滴,F4表示相关性,μ和σ分别表示均值和方差,i,j分别表示p(i,j)在矩阵中的行,列数。
优选地,将提取的训练集特征作为支持向量机的分类输入参数,进行分类器的训练,构造出结构风险最小的分类器模型,具体方法为:
对提取的特征进行归一化和降维处理;
将归一化和降维处理后的特征输入支持向量机进行训练,对权值、偏移量和惩罚系数进行优化,构造出结构风险最小的分类器模型,所述支持向量机选用高斯径向基函数作为核函数。
本发明与现有技术相比,其显著优点为:1)本发明通过场景视点实现战场地理环境可视化,通过视点相关透视投影能够提高纹理的像素利用率,从而减轻走样问题,提高矢量数据的绘制质量,达到将矢量数据精确、高效地叠加在三维多分辨率地形上的目的;且不受地形几何数据的约束,能够与目前大多数多分辨率地形模型以及影像金字塔结合在一起使用;2)本发明实现了战场态势的可视化,能够实现非规则军标的三维地形跟随,且运算效率高,能满足交互编辑以及动态推演的实时要求;3)本发明自适应战场环境和战场态势的创建,有利于作出科学决策。
下面结合附图对本发明做进一步详细的描述。
附图说明
图1是自适应作战场景的可视化生成方法的流程图。
图2是本发明战场地理环境可视化的流程图。
图3是本发明战场态势可视化的流程图。
图4是本发明战场环境和战场态势自适应的流程图。
图5是本发明场景视点得到可视范围的透视投影图。
图6是本发明分类器训练示意图。
具体实施方式
如图1所示,一种自适应作战场景的可视化生成方法,分为战场地理环境可视化、战场态势可视化及战场环境和战场态势的自适应,具体步骤如下:
步骤1、战场地理环境可视化:如图2所示,首先通过场景视点得当前地形可视范围的透视投影,所述场景视点是指远离地理环境实体的一个视点,所述透视投影是指由视点、视线和视口在地平面上形成的投影。设当前场景视景体为S{V,P,α},其中V为视点位置,P为视线方向,α为视景体透视投影张角;设矢量D为地平面铅垂线,方向向下,H为地形最大高程,地形绘制在xz平面上,高程对应y轴,形成图形ABCD的透视投影,如图5所示。对二维矢量数据进行平滑滤波,用该透视投影实时地将当前地形平滑滤波后的二维矢量数据绘制在与地形绑定的纹理上,形成三维战场地理环境。通过本步骤以图形、图像的形式直观反映作战区域地理、社会环境,通过战场地理环境可视化,指挥人员可以实时了解到战场信息,如:地形、地表环境等重要情报,从而明确战斗力量的部署、作战力量的编成是否合理。
步骤2、战场态势可视化:如图3所示,由当前非军标控制点集生成军标的二维外轮廓,用二维外轮廓裁剪NURBS(非均匀比例B样条)表面得到平面军标网格;
最后在图形处理器顶点着色器中依据与地形绑定的纹理,对军标网格上的各个顶点进行位移,再渲染到屏幕帧缓存中得到最终军标绘制结果,实现战场态势的可视化。
步骤3、战场环境和战场态势的自适应:如图4所示,对战场环境和战场态势中的环境、态势图像进行特征提取,将提取的特征作为支持向量机的分类输入参数进行分类器的训练,构造出结构风险最小的分类器模型,利用结构风险最小的分类器模型进行图像识别分类,形成统一的作战态势图,具体步骤为:
步骤3-1、将战场环境和战场态势中的环境、态势图像信息分为两部分,分别作为训练集和测试集,采用灰度共生矩阵分别提取训练集和测试集地形的纹理特征,具体方法为:
1)生成灰度图像,将战场环境的图像转换为灰度图像;
2)灰度进行量化,对灰度图像进行量化;
3)求灰度共生矩阵,灰度共生矩阵P的类型为LxL,L表示了图像的灰度级数,计算出各灰度级在设定方向单位距离出现的概率p作为pij放入灰度共生矩阵P。设定方向w的取值可以是0度,45度,90度,135度4个方向,取单位距离d,距离可以取单位距离。
4)计算纹理参数和特征,所述纹理参数包括能量、惯性矩、滴以及相关性,分别具体为:
a.能量表示纹理的粗细程度,用F1表示,值越大,表示图像纹理脉络越粗壮,值越小,表示图像纹理脉络越细致。
Figure BDA0002279741680000051
b.惯性矩也表示纹理的粗细程度,用F2表示,值越小,表示图像纹理脉络越粗壮,值越大,表示图像纹理脉络越细致。
Figure BDA0002279741680000052
c.滴表示图像纹理的复杂程度,用F3表示,值越小,纹理越简单,值越大,纹理越复杂,纹理越多。
Figure BDA0002279741680000053
d.相关性表示图像行和列的相似程度,用F4表示,μ和σ表示对应参数的均值和方差。
Figure BDA0002279741680000054
将F1,F2,F3和F4的均值和方差作为纹理特征。
步骤3-2、如图6所示,将提取的训练集特征作为支持向量机的分类输入参数,进行分类器的训练,构造出结构风险最小的分类器模型,具体方法为:
对提取的特征进行归一化和降维处理,归一化处理减少数据的范围,降维处理可以减少特征向量的维度进而减少计算量,加快学习,增强泛化能力。
将归一化和降维处理后的特征输入支持向量机进行训练,对权值、偏移量和惩罚系数等参数进行优化,构造出结构风险最小的分类器模型,所述支持向量机选用高斯径向基函数作为核函数;
步骤3-3、利用结构风险最小的分类器模型,对测试集图像进行分类,将图像数据分到正确的类别中,提高分类的准确度,提高图片识别的准确率,分类后的图像数据包括地形、影像、矢量数据,利用大规模地形、高分辨影像、多层多尺度矢量数据构建三维战场地理环境,并依据地理空间情报动态标绘军标,生成生动逼真的战场态势图,以便指挥员作出科学决策。

Claims (6)

1.一种自适应作战场景的可视化生成方法,其特征在于,具体步骤为:
步骤1、通过场景视点得到当前地形可视范围的透视投影,并通过透视投影实时将当前地形的二维矢量数据绘制在与地形绑定的纹理上,形成三维战场地理环境;
步骤2、由当前非军标控制点集生成军标的二维外轮廓,用二维外轮廓裁剪NURBS表面得到平面军标网格;
依据与地形绑定的纹理,对军标网格上的各个顶点进行位移,并渲染到屏幕帧缓存中得到最终军标绘制结果,实现战场态势的可视化;
步骤3、战场环境和战场态势的自适应:对战场环境和战场态势中的环境、态势图像进行特征提取,将提取的特征作为支持向量机的分类输入参数进行分类器的训练,构造出结构风险最小的分类器模型,利用结构风险最小的分类器模型进行图像识别分类,形成统一的作战态势图。
2.根据权利要求1所述的自适应作战场景的可视化生成方法,其特征在于,所述透视投影是指由视点、视线和视口在地平面上形成的投影。
3.根据权利要求1所述的自适应作战场景的可视化生成方法,其特征在于,对战场环境和战场态势中的环境、态势图像进行特征提取,将提取的特征作为支持向量机的分类输入参数进行分类器的训练,构造出结构风险最小的分类器模型,利用结构风险最小的分类器模型进行图像识别分类,形成统一的作战态势图的具体步骤为:
步骤3-1、将战场环境和战场态势中的环境、态势图像信息分为两部分,分别作为训练集和测试集,采用灰度共生矩阵分别提取训练集和测试集地形的纹理特征;
步骤3-2、将提取的训练集特征作为支持向量机的分类输入参数,进行分类器的训练,构造出结构风险最小的分类器模型;
步骤3-3、利用结构风险最小的分类器模型,对测试集图像进行分类,分类后的图像数据包括地形、影像、矢量数据,利用地形、影像、矢量数据构建三维战场地理环境,并依据地理空间情报动态标绘军标,生成战场态势图。
4.根据权利要求1所述的自适应作战场景的可视化生成方法,其特征在于,采用灰度共生矩阵分别提取训练集和测试集地形的纹理特征,具体方法为:
1)将战场环境的图像转换为灰度图像;
2)对灰度图像进行量化;
3)计算出各灰度级在设定方向单位距离出现的概率p作为pij放入灰度共生矩阵P;
4)根据灰度共生矩阵P计算纹理参数和特征。
5.根据权利要求4所述的自适应作战场景的可视化生成方法,其特征在于,所述纹理参数包括能量、惯性矩、滴以及相关性,分别具体为:
Figure FDA0002279741670000021
Figure FDA0002279741670000022
Figure FDA0002279741670000023
Figure FDA0002279741670000024
式中,F1表示能量,F2表示惯性矩,F3表示滴,F4表示相关性,μ和σ分别表示均值和方差,i,j分别表示p(i,j)在矩阵中的行,列数。
6.根据权利要求1所述的自适应作战场景的可视化生成方法,其特征在于,将提取的训练集特征作为支持向量机的分类输入参数,进行分类器的训练,构造出结构风险最小的分类器模型,具体方法为:
对提取的特征进行归一化和降维处理;
将归一化和降维处理后的特征输入支持向量机进行训练,对权值、偏移量和惩罚系数进行优化,构造出结构风险最小的分类器模型,所述支持向量机选用高斯径向基函数作为核函数。
CN201911136589.7A 2019-11-19 2019-11-19 自适应作战场景的可视化生成方法 Pending CN111145348A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911136589.7A CN111145348A (zh) 2019-11-19 2019-11-19 自适应作战场景的可视化生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911136589.7A CN111145348A (zh) 2019-11-19 2019-11-19 自适应作战场景的可视化生成方法

Publications (1)

Publication Number Publication Date
CN111145348A true CN111145348A (zh) 2020-05-12

Family

ID=70517129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911136589.7A Pending CN111145348A (zh) 2019-11-19 2019-11-19 自适应作战场景的可视化生成方法

Country Status (1)

Country Link
CN (1) CN111145348A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541968A (zh) * 2020-12-17 2021-03-23 中国航空工业集团公司成都飞机设计研究所 一种基于网格的三维效果增强可视化方法
CN112581611A (zh) * 2020-10-26 2021-03-30 中国科学院电子学研究所苏州研究院 一种基于模板阴影技术的线标绘贴地方法及系统
CN112597648A (zh) * 2020-12-18 2021-04-02 北京华如科技股份有限公司 一种基于“泛魔”识别模型的仿真想定生成方法及存储介质
CN113222797A (zh) * 2021-04-30 2021-08-06 北京电子工程总体研究所 一种作战方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160342861A1 (en) * 2015-05-21 2016-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for Training Classifiers to Detect Objects Represented in Images of Target Environments
CN107705345A (zh) * 2017-09-30 2018-02-16 南威软件股份有限公司 一种态势标绘之动态军标的标绘方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160342861A1 (en) * 2015-05-21 2016-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for Training Classifiers to Detect Objects Represented in Images of Target Environments
CN107705345A (zh) * 2017-09-30 2018-02-16 南威软件股份有限公司 一种态势标绘之动态军标的标绘方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
于鹏: "高分辨率可见光遥感图像舰船目标识别方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
陈鸿: "战场环境建模与态势生成关键技术研究", 《中国博士学位论文全文数据库信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581611A (zh) * 2020-10-26 2021-03-30 中国科学院电子学研究所苏州研究院 一种基于模板阴影技术的线标绘贴地方法及系统
CN112581611B (zh) * 2020-10-26 2022-11-29 中国科学院电子学研究所苏州研究院 一种基于模板阴影技术的线标绘贴地方法及系统
CN112541968A (zh) * 2020-12-17 2021-03-23 中国航空工业集团公司成都飞机设计研究所 一种基于网格的三维效果增强可视化方法
CN112597648A (zh) * 2020-12-18 2021-04-02 北京华如科技股份有限公司 一种基于“泛魔”识别模型的仿真想定生成方法及存储介质
CN112597648B (zh) * 2020-12-18 2023-09-22 北京华如科技股份有限公司 一种基于“泛魔”识别模型的仿真想定生成方法及存储介质
CN113222797A (zh) * 2021-04-30 2021-08-06 北京电子工程总体研究所 一种作战方法和系统

Similar Documents

Publication Publication Date Title
CN111145348A (zh) 自适应作战场景的可视化生成方法
CN109410307B (zh) 一种场景点云语义分割方法
CN116109798B (zh) 图像数据处理方法、装置、设备及介质
CN110852182A (zh) 一种基于三维空间时序建模的深度视频人体行为识别方法
CN111832655A (zh) 一种基于特征金字塔网络的多尺度三维目标检测方法
CN112598775B (zh) 一种基于对比学习的多视图生成方法
CN110827295A (zh) 基于体素模型与颜色信息耦合的三维语义分割方法
CN116958453B (zh) 基于神经辐射场的三维模型重建方法、设备和介质
CN111489405B (zh) 基于条件增强生成对抗网络的人脸草图合成系统
CN111986108A (zh) 一种基于生成对抗网络的复杂海空场景图像去雾方法
CN116385619B (zh) 对象模型渲染方法、装置、计算机设备和存储介质
CN110136075A (zh) 一种基于边缘锐化循环生成对抗网络的遥感影像去雾方法
CN117095128A (zh) 一种无先验多视角人体服饰编辑方法
CN111402403B (zh) 高精度三维人脸重建方法
CN104463962B (zh) 基于gps信息视频的三维场景重建方法
CN115984439A (zh) 一种伪装目标的三维对抗纹理生成方法和装置
CN113935899B (zh) 一种基于语义信息和梯度监督的船牌图像超分辨方法
CN110889868A (zh) 一种结合梯度和纹理特征的单目图像深度估计方法
CN110348344A (zh) 一种基于二维和三维融合的特殊人脸表情识别的方法
CN114283152A (zh) 图像处理、图像处理模型的训练方法、装置、设备及介质
Li et al. Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems
CN112509110A (zh) 一种陆地对抗智能体的图像数据集自动采取与标注框架
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置
CN115861532A (zh) 基于深度学习的植被地物模型重建方法与系统
CN113781372B (zh) 一种基于深度学习的戏曲脸谱生成方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 225001 No. 26, South River, Jiangsu, Yangzhou

Applicant after: Yangzhou Institute of marine electronic instruments (no.723 Institute of China Shipbuilding Industry Corp.)

Address before: 225001 No. 186 East Wuzhou Road, Yangzhou City, Jiangsu Province

Applicant before: Yangzhou Institute of marine electronic instruments (no.723 Institute of China Shipbuilding Industry Corp.)

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200512