CN115588119A - 雷达图像合作目标真值信息自适应标注方法和装置 - Google Patents

雷达图像合作目标真值信息自适应标注方法和装置 Download PDF

Info

Publication number
CN115588119A
CN115588119A CN202211292945.6A CN202211292945A CN115588119A CN 115588119 A CN115588119 A CN 115588119A CN 202211292945 A CN202211292945 A CN 202211292945A CN 115588119 A CN115588119 A CN 115588119A
Authority
CN
China
Prior art keywords
radar
point cloud
marked
target
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211292945.6A
Other languages
English (en)
Inventor
陈思伟
李铭典
崔兴超
戴林裕
肖顺平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202211292945.6A priority Critical patent/CN115588119A/zh
Publication of CN115588119A publication Critical patent/CN115588119A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请涉及雷达图像合作目标真值信息自适应标注方法和装置,该方法包括:对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;利用人造目标数据模型生成待标注部件的点云数据并标识各部件;根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;获取投影到雷达成像平面中标识的各部件的点云包络;根据各部件的点云包络生成待标注部件的掩膜标注信息。能够高准确性且更低成本地自适应标注人造目标多帧雷达图像中的多种部件结构,综合性能较高。

Description

雷达图像合作目标真值信息自适应标注方法和装置
技术领域
本发明属于雷达遥感技术领域,涉及一种雷达图像合作目标真值信息自适应标注方法和装置。
背景技术
包括合成孔径雷达(Synthetic Aperture Radar,SAR)以及逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)在内的雷达设备能够实现对高价值人造目标全天时与全天候的观测。其中,作为一类典型的成像雷达,逆合成孔径雷达ISAR设备能够发射大带宽信号,对空间目标的探测起着重要作用。
随着深度学习技术的发展,深度神经网络被大量应用于雷达图像目标检测和识别,并且在性能上得到了显著提升。其中,对雷达图像中人造目标结构部件的识别有利于实现目标精细化分类,判断其工作状态等,为后续目标姿态和物理参数反演奠定了基础。目前,基于深度学习的方法通常需要大量且精确的标注数据,如何对人造目标雷达数据进行低成本、高准确性的标注是非常重要的技术问题。然而,在实现本发明的过程中,发明人发现目前相关传统图像标注方法面对该技术问题,综合性能不高。
发明内容
针对上述传统方法中存在的问题,本发明提出了一种雷达图像合作目标真值信息自适应标注方法、一种雷达图像合作目标真值信息自适应标注装置、一种图像处理设备以及一种计算机可读存储介质,能够高准确性且更低成本地自适应标注人造目标多帧雷达图像中的多种部件结构,综合性能较高。
为了实现上述目的,本发明实施例采用以下技术方案:
一方面,提供一种雷达图像合作目标真值信息自适应标注方法,包括步骤:
对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;
利用人造目标数据模型生成待标注部件的点云数据并标识各部件;
根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;
获取投影到雷达成像平面中标识的各部件的点云包络;
根据各部件的点云包络生成待标注部件的掩膜标注信息。
在其中一个实施例中,根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面的步骤,包括:
获取待标注部件的雷达图像帧的成像视角;
根据成像几何关系对点云数据的坐标进行旋转,计算得到成像视角下该图像帧中待标注部件坐标;
根据雷达视线在雷达成像平面中的俯仰角,对待标注部件坐标进行方位向的缩放处理,得到成像视角下待标注部件的最终投影坐标集合。
在其中一个实施例中,利用人造目标数据模型生成待标注部件的点云数据并标识各部件的步骤,包括:
利用人造目标数据模型导出待标注部件的点云数据;
对待标注部件的不同部件进行编码并添加到点云数据中。
在其中一个实施例中,人造目标数据模型的本体坐标系采用坐标系原点为所述人造目标数据模型的质心,所述雷达观测中实际目标的本体坐标系采用坐标系原点为实际目标的质心。
另一方面,还提供一种雷达图像合作目标真值信息自适应标注装置,包括:
模型匹配模块,用于对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;
点云标识模块,用于利用人造目标数据模型生成待标注部件的点云数据并标识各部件;
投影处理模块,用于根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;
包络标识模块,用于获取投影到雷达成像平面中标识的各部件的点云包络;
标注处理模块,用于根据各部件的点云包络生成待标注部件的掩膜标注信息。
在其中一个实施例中,投影处理模块包括:
视角子模块,用于获取待标注部件的雷达图像帧的成像视角;
旋转子模块,用于根据成像几何关系对点云数据的坐标进行旋转,计算得到成像视角下该图像帧中待标注部件坐标;
缩放子模块,用于根据雷达视线在雷达成像平面中的俯仰角,对待标注部件坐标进行方位向的缩放处理,得到成像视角下待标注部件的最终投影坐标集合。
在其中一个实施例中,点云标识模块包括:
导出子模块,用于利用人造目标数据模型导出待标注部件的点云数据;
编码子模块,用于对待标注部件的不同部件进行编码并添加到点云数据中。
在其中一个实施例中,人造目标数据模型的本体坐标系采用坐标系原点为人造目标数据模型的质心,雷达观测中实际目标的本体坐标系采用坐标系原点为实际目标的质心。
又一方面,还提供一种图像处理设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述的雷达图像合作目标真值信息自适应标注方法的步骤。
再一方面,还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述的雷达图像合作目标真值信息自适应标注方法的步骤。
上述技术方案中的一个技术方案具有如下优点和有益效果:
上述雷达图像合作目标真值信息自适应标注方法和装置,通过对待标注部件建立人造目标数据模型,然后利用成像几何关系得到待标注部件的点云在雷达成像平面上的投影,最后根据投影包络即可直接得到待标注部件的掩膜标注信息,从而能够自适应地标注人造目标多帧雷达图像中的多种部件结构,准确性高且能够更好地节省人力成本,综合性能较高。
附图说明
为了更清楚地说明本申请实施例或传统技术中的技术方案,下面将对实施例或传统技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中雷达图像合作目标真值信息自适应标注方法的流程示意图;
图2为一个实施例中利用成像几何关系投影的流程示意图;
图3为一个实施例中空间目标CAD模型本体坐标系的设定示意图;
图4为一个实施例中ISAR设备观测中目标本体坐标系的设定示意图;
图5为一个实施例中目标待标注部件点云的示意图;
图6为一个实施例中设定视角下待标注部件点云在雷达成像平面中的投影示意图;
图7为一个实施例中设定视角下待标注部件点云投影包络示意图;
图8为一个实施例中待标注部件掩膜的示意图;
图9为一个实施例中ISAR图像空间目标部件标注结果示意图;
图10为一个实施例中雷达图像合作目标真值信息自适应标注装置的模块结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
需要说明的是,在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。
本领域技术人员可以理解,本文所描述的实施例可以与其它实施例相结合。在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
下面将结合本发明实施例图中的附图,对本发明实施方式进行详细说明。
请参阅图1,在一个实施例中,本申请实施例提供了一种雷达图像合作目标真值信息自适应标注方法,包括如下处理步骤S12至S20:
S12,对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;
S14,利用人造目标数据模型生成待标注部件的点云数据并标识各部件;
S16,根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;
S18,获取投影到雷达成像平面中标识的各部件的点云包络;
S20,根据各部件的点云包络生成待标注部件的掩膜标注信息。
可以理解,上述方法的设计构思是:待标注部件的形状轮廓可以由稀疏的点云表示,其在雷达图像中的位置可以通过成像几何关系,将该待标注部件从三维坐标空间投影到雷达成像平面计算得到。通过建立人造目标数据模型,即可得到待标注部件的点云数据,利用其在雷达成像平面中投影的包络即可对该部件进行标注。
人造目标数据模型可以是调用现有的CAD应用工具直接参照待标注部件的形状构造和尺寸等进行绘制生成的人造目标CAD模型,也可以使用其他能够导出目标点云的数据模型。如此可以分别建立所有各种不同的待标注部件的人造目标数据模型。人造目标数据模型建立后是在三维坐标空间中的,对应的是模型的本体坐标系,因此需要匹配相应的雷达观测中实际目标的本体坐标系,也即确定雷达成像平面中对应于人造目标数据模型的雷达观测目标本体坐标系。
上述雷达图像合作目标真值信息自适应标注方法,通过对待标注部件建立人造目标数据模型,然后利用成像几何关系得到待标注部件的点云在雷达成像平面上的投影,最后根据投影包络即可直接得到待标注部件的掩膜标注信息,从而能够自适应地标注人造目标多帧雷达图像中的多种部件结构,准确性高且能够更好地节省人力成本,综合性能较高。
在一个实施例中,进一步的,人造目标数据模型的本体坐标系采用坐标系原点为人造目标数据模型的质心,雷达观测中实际目标的本体坐标系采用坐标系原点为实际目标的质心。为便于说明,下面以人造目标CAD模型为例进行展开说明,对于其他数据形式的人造目标数据模型可以同理理解。
具体的,关于上述的步骤S12:建立人造目标CAD模型,其本体坐标系可以记为OCADXCADYCADZCAD。OCAD代表坐标系原点,选取坐标系原点OCAD为模型质心位置。坐标轴与目标的惯量主轴重合,设定最小惯量主轴为YCAD轴,最大惯量主轴XCAD轴,ZCAD轴由右手坐标系原则确定。雷达观测中,目标本体坐标系可以记为OTargetXTargetYTargetZTarget。OTarget代表坐标系原点,OTarget位置选取与OCAD保持一致。XTargetYTargetZTarget三个坐标轴方向与XCADYCADZCAD保持一致。定义雷达视线(Line of Sight,LOS)在XTargetYTarget雷达成像平面中的投影与XTarget轴正方向的夹角为方位角θ,与ZTarget轴正方向的夹角为俯仰角
Figure BDA0003902017690000071
通过上述处理,可以高效完成三维坐标空间与雷达成像平面的匹配,使用效率也更高。需要说明的是,本领域技术人员也可以根据作业需要或者偏好选择其他的坐标系设置方式。
在一个实施例中,进一步的,关于上述的步骤S14,具体可以包括如下处理步骤:
利用人造目标数据模型导出待标注部件的点云数据;
对待标注部件的不同部件进行编码并添加到点云数据中。
具体的,利用人造目标CAD模型,可以直接导出待标注部件的点云数据,该点云数据中可以包含各点云在OCADXCADYCADZCAD中的三维坐标,可以记为[x,y,z]T。对不同待标注部件进行编码并增添进点云数据中,即可准确标识各待标注的部件;其中,编码方式可以采用本领域中现有的图像编码方式。
在一个实施例中,如图2所示,进一步的,关于上述的步骤S16,具体可以包括如下处理步骤:
S162,获取待标注部件的雷达图像帧的成像视角;
S164,根据成像几何关系对点云数据的坐标进行旋转,计算得到成像视角下该图像帧中待标注部件坐标;
S166,根据雷达视线在雷达成像平面中的俯仰角,对待标注部件坐标进行方位向的缩放处理,得到成像视角下待标注部件的最终投影坐标集合。
具体的,获取待标注的雷达图像帧的成像视角,可以记为
Figure BDA0003902017690000081
根据旋转公式(1)进行旋转处理,计算得到成像视角
Figure BDA0003902017690000082
下该图像帧中待标注部件坐标[x1,y1,z1]T
Figure BDA0003902017690000083
然后根据俯仰角进行方位向的缩放处理,得到该成像视角下待标注部件的最终坐标[x2,y2,z2]T
Figure BDA0003902017690000084
根据前述坐标轴的定义和成像几何关系,雷达成像平面为XTargetYTarget平面,亦为XCADYCAD。成像视角
Figure BDA0003902017690000085
下[xproject,yproject]T为雷达成像平面中点云的投影坐标,并满足:
Figure BDA0003902017690000091
利用上述投影关系计算待标注部件所有点云的投影坐标,得到坐标集合{(xproject,yproject)}i。其中,上标i表示第i个待标注部件。
进一步的,关于上述的步骤S18,可以分别计算所有待标注部件坐标集合{(xproject,yproject)}i的点云包络,得到包络集合{(xenvelope,yenvelope)}i
进一步的,关于上述的步骤S20,可以将包络集合{(xenvelope,yenvelope)}i内的元素赋值为i,其余位置的元素赋值为0,即得到所有待标注部件的标注掩膜信息。
上述方案中通过利用人造目标CAD模型,依据成像几何关系得到待标注部件点云在雷达成像平面上的投影,然后根据投影包络即可得到待标注部件的掩膜标注信息。其发明原理简约高效,实现简便,在实际工程应用中能够对大量的人造目标雷达图像进行自适应标注,显著地降低了人工成本。所得标注信息有利于实现目标精细化分类和判断其工作状态等,并为且后续目标姿态和物理参数反演奠定了可靠基础。对于本申请中得到的掩膜标注信息,可进一步得到掩膜的外接多边形框标注信息,以用于部件检测等。
在一个实施例中,为了更好地理解本申请的技术方案,本实施例中提供了其中一种详细的实施示例。需要说明的是,该实施示例并非是对本申请的唯一限定,本领域技术人员可以根据本申请的技术方案的构思实现不同场景下的人造目标雷达图像的自适应标注。
步骤1,以逆合成孔径雷达系统中的空间目标部件标注为例。空间目标CAD模型的本体坐标系设定如图3所示,雷达观测中实际目标的本体坐标系设定如图4所示,两者的坐标系原点以及坐标轴方向保持一致。
步骤2,目标待标注部件为如图3中主体平板部分,其点云如图5所示。
步骤3,成像平面为XCADYCAD,设定雷达的观测视角为方位角45°和俯仰角45°。该视角下,根据上述公式(1)至公式(3),计算待标注部件点云坐标[x2,y2,z2]T,并投影到雷达成像平面XCADYCAD中,得到坐标[xproject,yproject]T。待标注部件所有点云数据在雷达成像平面XCADYCAD中的投影如图6所示。
步骤4,上述方位角45°和俯仰角45°的观测视角下,待标注部件点云的投影的包络如图7中周侧的曲线所示。
步骤5,将包络曲线内的数据赋值为1,其余部分赋值为0,得到如图8所示待标注部件掩膜。进一步,可以基于掩膜生成最小外接四边形,并对该视角下的ISAR图像中待标注部件进行标注,如图9所示。
应该理解的是,虽然图1和图2流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且图1和图2的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
请参阅图10,在一个实施例中,提供一种雷达图像合作目标真值信息自适应标注装置100,包括模型匹配模块11、点云标识模块12、投影处理模块13、包络标识模块14和标注处理模块15。其中,模型匹配模块11用于对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系。点云标识模块12用于利用人造目标数据模型生成待标注部件的点云数据并标识各部件。投影处理模块13用于根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面。包络标识模块14用于获取投影到雷达成像平面中标识的各部件的点云包络。标注处理模块15用于根据各部件的点云包络生成待标注部件的掩膜标注信息。
上述雷达图像合作目标真值信息自适应标注装置100,通过各模块的协作,对待标注部件建立人造目标数据模型,然后利用成像几何关系得到待标注部件的点云在雷达成像平面上的投影,最后根据投影包络即可直接得到待标注部件的掩膜标注信息,从而能够自适应地标注人造目标多帧雷达图像中的多种部件结构,准确性高且能够更好地节省人力成本,综合性能较高。
在一个实施例中,投影处理模块13包括:
视角子模块,用于获取待标注部件的雷达图像帧的成像视角;
旋转子模块,用于根据成像几何关系对点云数据的坐标进行旋转,计算得到成像视角下该图像帧中待标注部件坐标;
缩放子模块,用于根据雷达视线在雷达成像平面中的俯仰角,对待标注部件坐标进行方位向的缩放处理,得到成像视角下待标注部件的最终投影坐标集合。
在一个实施例中,点云标识模块12包括:
导出子模块,用于利用人造目标数据模型导出待标注部件的点云数据;
编码子模块,用于对待标注部件的不同部件进行编码并添加到点云数据中。
在一个实施例中,人造目标数据模型的本体坐标系采用坐标系原点为人造目标数据模型的质心,雷达观测中实际目标的本体坐标系采用坐标系原点为实际目标的质心。
关于雷达图像合作目标真值信息自适应标注装置100的具体限定,可以参见上文中雷达图像合作目标真值信息自适应标注方法的相应限定,在此不再赘述。上述雷达图像合作目标真值信息自适应标注装置100中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于具体数据处理功能的设备中,也可以软件形式存储于前述设备的存储器中,以便于处理器调用执行以上各个模块对应的操作,前述设备可以是但不限于本领域已有的各型雷达图像处理设备。
在一个实施例中,还提供一种图像处理设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现如下处理步骤:对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;利用人造目标数据模型生成待标注部件的点云数据并标识各部件;根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;获取投影到雷达成像平面中标识的各部件的点云包络;根据各部件的点云包络生成待标注部件的掩膜标注信息。
可以理解,上述图像处理设备除上述述及的存储器和处理器外,还包括其他本说明书未列出的软硬件组成部分,具体可以根据不同应用场景下的具体图像处理设备的型号确定,本说明书不再一一列出详述。
在一个实施例中,处理器执行计算机程序时还可以实现上述雷达图像合作目标真值信息自适应标注方法各实施例中增加的步骤或者子步骤。
在一个实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现如下处理步骤:对待标注部件建立人造目标数据模型,匹配人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;利用人造目标数据模型生成待标注部件的点云数据并标识各部件;根据雷达成像视角,对点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;获取投影到雷达成像平面中标识的各部件的点云包络;根据各部件的点云包络生成待标注部件的掩膜标注信息。
在一个实施例中,计算机程序被处理器执行时,还可以实现上述雷达图像合作目标真值信息自适应标注方法各实施例中增加的步骤或者子步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线式动态随机存储器(Rambus DRAM,简称RDRAM)以及接口动态随机存储器(DRDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可做出若干变形和改进,都属于本申请保护范围。因此本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种雷达图像合作目标真值信息自适应标注方法,其特征在于,包括步骤:
对待标注部件建立人造目标数据模型,匹配所述人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;
利用所述人造目标数据模型生成所述待标注部件的点云数据并标识各部件;
根据雷达成像视角,对所述点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;
获取投影到所述雷达成像平面中标识的各部件的点云包络;
根据各部件的点云包络生成所述待标注部件的掩膜标注信息。
2.根据权利要求1所述的雷达图像合作目标真值信息自适应标注方法,其特征在于,根据雷达成像视角,对所述点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面的步骤,包括:
获取所述待标注部件的雷达图像帧的成像视角;
根据成像几何关系对所述点云数据的坐标进行旋转,计算得到所述成像视角下该图像帧中待标注部件坐标;
根据雷达视线在雷达成像平面中的俯仰角,对所述待标注部件坐标进行方位向的缩放处理,得到所述成像视角下所述待标注部件的最终投影坐标集合。
3.根据权利要求1或2所述的雷达图像合作目标真值信息自适应标注方法,其特征在于,利用所述人造目标数据模型生成所述待标注部件的点云数据并标识各部件的步骤,包括:
利用所述人造目标数据模型导出待标注部件的点云数据;
对所述待标注部件的不同部件进行编码并添加到所述点云数据中。
4.根据权利要求3所述的雷达图像合作目标真值信息自适应标注方法,其特征在于,所述人造目标数据模型的本体坐标系采用坐标系原点为所述人造目标数据模型的质心,所述雷达观测中实际目标的本体坐标系采用坐标系原点为实际目标的质心。
5.一种雷达图像合作目标真值信息自适应标注装置,其特征在于,包括:
模型匹配模块,用于对待标注部件建立人造目标数据模型,匹配所述人造目标数据模型的本体坐标系与雷达观测中实际目标的本体坐标系;
点云标识模块,用于利用所述人造目标数据模型生成所述待标注部件的点云数据并标识各部件;
投影处理模块,用于根据雷达成像视角,对所述点云数据的坐标进行旋转与缩放,利用成像几何关系投影到雷达成像平面;
包络标识模块,用于获取投影到所述雷达成像平面中标识的各部件的点云包络;
标注处理模块,用于根据各部件的点云包络生成所述待标注部件的掩膜标注信息。
6.根据权利要求5所述的一种雷达图像合作目标真值信息自适应标注装置,其特征在于,所述投影处理模块包括:
视角子模块,用于获取所述待标注部件的雷达图像帧的成像视角;
旋转子模块,用于根据成像几何关系对所述点云数据的坐标进行旋转,计算得到所述成像视角下该图像帧中待标注部件坐标;
缩放子模块,用于根据雷达视线在雷达成像平面中的俯仰角,对所述待标注部件坐标进行方位向的缩放处理,得到所述成像视角下所述待标注部件的最终投影坐标集合。
7.根据权利要求5或6所述的一种雷达图像合作目标真值信息自适应标注装置,其特征在于,所述点云标识模块包括:
导出子模块,用于利用所述人造目标数据模型导出待标注部件的点云数据;
编码子模块,用于对所述待标注部件的不同部件进行编码并添加到所述点云数据中。
8.根据权利要求7所述的一种雷达图像合作目标真值信息自适应标注装置,其特征在于,所述人造目标数据模型的本体坐标系采用坐标系原点为所述人造目标数据模型的质心,所述雷达观测中实际目标的本体坐标系采用坐标系原点为实际目标的质心。
9.一种图像处理设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4任一项所述的雷达图像合作目标真值信息自适应标注方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4任一项所述的雷达图像合作目标真值信息自适应标注方法的步骤。
CN202211292945.6A 2022-10-21 2022-10-21 雷达图像合作目标真值信息自适应标注方法和装置 Pending CN115588119A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211292945.6A CN115588119A (zh) 2022-10-21 2022-10-21 雷达图像合作目标真值信息自适应标注方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211292945.6A CN115588119A (zh) 2022-10-21 2022-10-21 雷达图像合作目标真值信息自适应标注方法和装置

Publications (1)

Publication Number Publication Date
CN115588119A true CN115588119A (zh) 2023-01-10

Family

ID=84779341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211292945.6A Pending CN115588119A (zh) 2022-10-21 2022-10-21 雷达图像合作目标真值信息自适应标注方法和装置

Country Status (1)

Country Link
CN (1) CN115588119A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116908852A (zh) * 2023-09-06 2023-10-20 中国人民解放军国防科技大学 一种雷达目标语义信息快速标注方法、系统及装置
CN117911658A (zh) * 2023-12-05 2024-04-19 北京天圣华信息技术有限责任公司 公式计算结果的标注方法、装置、设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116908852A (zh) * 2023-09-06 2023-10-20 中国人民解放军国防科技大学 一种雷达目标语义信息快速标注方法、系统及装置
CN116908852B (zh) * 2023-09-06 2023-12-08 中国人民解放军国防科技大学 一种雷达目标语义信息快速标注方法、系统及装置
CN117911658A (zh) * 2023-12-05 2024-04-19 北京天圣华信息技术有限责任公司 公式计算结果的标注方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN115588119A (zh) 雷达图像合作目标真值信息自适应标注方法和装置
CN108062784B (zh) 三维模型纹理贴图转换方法与装置
CN111353969B (zh) 道路可行驶区域的确定方法、装置及计算机设备
CN110264502B (zh) 点云配准方法和装置
CN102721364B (zh) 一种工件的定位方法及其装置
EP3273412B1 (en) Three-dimensional modelling method and device
CN110480075B (zh) 基于点云数据的工件曲面轮廓补偿系统及方法及介质
CN110827202A (zh) 目标检测方法、装置、计算机设备和存储介质
CN109033989B (zh) 基于三维点云的目标识别方法、装置及存储介质
CN109711419A (zh) 图像处理方法、装置、计算机设备及存储介质
US10460472B2 (en) System and method for model adaptation
CN111553949A (zh) 基于单帧rgb-d图像深度学习对不规则工件的定位抓取方法
CN112487923A (zh) 一种人脸头部姿态训练数据的获取方法及系统
CN112651944A (zh) 基于cad模型的3c部件高精度六维位姿估计方法及系统
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
CN111325663A (zh) 基于并行架构的三维点云匹配方法、装置和计算机设备
CN115147499A (zh) 标定参数确定方法、混合标定板、装置、设备和介质
CN112308931A (zh) 相机的标定方法、装置、计算机设备和存储介质
WO2024037562A1 (zh) 三维重建方法、装置及计算机可读存储介质
CN114511894A (zh) 瞳孔中心坐标的获取系统及获取方法
CN115542301B (zh) 激光雷达外部参数的校准方法、装置、设备及存储介质
CN116469101A (zh) 数据标注方法、装置、电子设备及存储介质
CN111179342A (zh) 物体位姿的估计方法、装置、存储介质和机器人
CN113033578B (zh) 基于多尺度特征匹配的图像校准方法、系统、终端及介质
CN115239559A (zh) 一种融合视图合成的深度图超分辨率方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination