CN114332633A - 雷达图像目标检测识别方法、设备和存储介质 - Google Patents
雷达图像目标检测识别方法、设备和存储介质 Download PDFInfo
- Publication number
- CN114332633A CN114332633A CN202210189300.3A CN202210189300A CN114332633A CN 114332633 A CN114332633 A CN 114332633A CN 202210189300 A CN202210189300 A CN 202210189300A CN 114332633 A CN114332633 A CN 114332633A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- tensor
- target
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种雷达图像目标检测识别方法、设备和存储介质。其中方法包括:根据待检测图像中每个像素点的像素值,计算每个像素点的结构张量;对所述待检测图像进行超像素分割,得到多个超像素块;根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,所述显著性特征图中包括所述待检测图像中每个待识别目标的显著性信息;基于所述显著性特征图以及所述待检测图像的深度特征图,进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别。本实施例减小了弱小目标的漏检率。
Description
技术领域
本发明实施例涉及雷达图像目标检测和识别技术领域,尤其涉及一种雷达图像目标检测识别方法、设备和存储介质。
背景技术
雷达作为一种微波遥感探测设备,利用物体的散射强度成像,具有不受光照和气候条件等限制实现全天时、全天候对地观测的特点。雷达图像中像素值的大小反映了目标物体的散射强度信息。雷达图像的目标检测与识别主要利用模版匹配、电磁建模和机器学习等算法对目标(如飞机、坦克、舰船等军事目标)进行检测和识别。
专利CN106250895B、CN106651937B和CN109636784B公开了相关图像处理方法。然而,在真实环境中的雷达图像中,待识别目标的散射强度相对弱且分布密集,而由建筑物、电线塔等人造物引起的杂波散射强度相对高且杂波背景非均匀。同时,在战场环境下,重点目标也会通过隐身材料涂装、主动电磁干扰等方式来进行伪装和隐蔽,减弱自身的散射强度。这些均使得强度弱且尺度小的待识别目标出现大量漏检。
发明内容
本发明实施例提供一种雷达图像目标检测识别方法、设备和存储介质,通过融合多种图像信息来提高弱小目标的显著性响应,并通过显著性信息和深度特征信息的互补融合,减少弱小目标的漏检和错误识别。
第一方面,本发明实施例提供了一种雷达图像目标检测识别方法,包括:
根据待检测图像中每个像素点的像素值,计算每个像素点的结构张量;
对所述待检测图像进行超像素分割,得到多个超像素块;
根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,所述显著性特征图中包括所述待检测图像中每个待识别目标的显著性信息;
基于所述显著性特征图以及所述待检测图像的深度特征图,进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别。
第二方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现任一实施例所述的雷达图像目标检测识别方法。
第三方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一实施例所述的雷达图像目标检测识别方法。
本发明实施例采用超像素分割提取并加强雷达图像中的散射度信息和对比度信息,避免了图像中的弱散射目标被强散射干扰淹没;并将这些信息与结构张量中的几何信息和纹理信息融合进行显著性特征表示,提高了弱散射目标在显著性特征图中的响应;最后利用显著性特征图和深度特征图共同作为图像目标检测识别的约束,进一步提高了弱小目标的识别精度,降低漏检和虚警现象的发生概率。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种雷达图像目标检测识别方法的流程图;
图2是本发明实施例提供的多尺度多方向结构张量计算中周边像素点的示意图;
图3是本发明实施例提供的多尺度显著性特征特征图和多尺度深度特征图融合的示意图;
图4是本发明实施例提供的目标检测识别系统的示意图;
图5是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行清楚、完整的描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明所保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
图1是本发明实施例提供的一种雷达图像目标检测识别方法的流程图,适用于对雷达图像中的弱小目标进行检测识别的情况,本实施例由电子设备执行。结合图1,本实施例提供的方法具体包括:
S10、根据待检测图像中每个像素点的像素值,计算每个像素点的结构张量。
本实施例中的待检测图像指雷达图像,例如合成孔径雷达(Synthetic ApertureRadar,SAR)图像。每个像素点的像素值可以为灰度值,也可以为其他像素数据。根据这些像素值,可以计算每个像素点的结构张量,用于表征每个待识别目标的几何信息和纹理信息。
S20、对所述待检测图像进行超像素分割,得到多个超像素块。
超像素分割是指将待检测图像细分为多个图像子区域,每个图像子区域称为一个超像素块。每个超像素块内的像素点具有相同或相近的颜色、亮度、纹理等特征,视为对应相同的像素值。不同的像素块对应不同的像素值。超像素块不仅能够减少数据处理量,而且能够图像中物体的边界信息,用于表征每个待识别目标的散射强度信息和对比度信息。
散射强度信息表征了物体的微波散射强度,在待检测图像中表现为待识别目标的像素值。对比度信息指不同物体之间的差异度,在待检测图像中表现为待识别目标像素值之间的差异,例如两个待识别目标所在的超像素块的灰度差异。
不同的物体对应的散射强度不同。弱散射目标在图像处理过程中往往容易被背景杂波或人造杂波等强散射干扰淹没,导致漏检。本实施例应用超像素分割方法,可以提取并强化图像中的散射强度信息和对比度信息,用于约束后续的图像处理过程。
为了便于理解,下面举例说明超像素分割方法提取并强化图像中的散射强度信息和对比度信息的原理。例如,待检测图像中存在距离较近的两个像素点,灰度值差异很小但属于不同的待检测目标。这时,利用通常的目标检测识别方法很容易造成识别错误。而进行超像素块分割后,两个像素点采用各自所在超像素块内的平均灰度值作为最终的灰度值,携带了超像素块内其他像素点的灰度信息,同时超像素块分割后的灰度差异要大于原本的灰度差异,从而提取并增强了两个像素点真实的散射强度信息和对比度信息。
S30、根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,所述显著性特征图中包括所述待检测图像中每个待识别目标的显著性信息。
显著性信息用于表征像素点或待识别目标的重要程度或受关注程度。像素点的显著性信息共同构成了待识别目标的显著性信息。本步骤将结构张量中的几何信息和纹理信息,以及超像素块中的散射强度信息和对比度信息进行融合,得到显著性特征图,用于约束后续的图像处理过程。
S40、基于所述显著性特征图以及所述待检测图像的深度特征图,进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别。
显著性特征图中包含了丰富的浅层信息,包括几何信息、纹理信息、散射强度信息和对比度信息,有利于刻画图像的浅层结构细节。深度特征图中包含了高级语义信息,有利于提取图像的深度共性特征。二者是互补的,从不同角度约束图像的目标检测识别过程,能够增强弱小目标在检测识别中的响应强度,提升对弱小目标的检测率和识别准确率。
本实施例的技术效果为:本实施例采用超像素分割提取并加强雷达图像中的散射度信息和对比度信息,避免了图像中的弱散射目标被强散射干扰淹没;并将这些信息与结构张量中的几何信息和纹理信息融合进行显著性特征表示,提高了弱散射目标在显著性特征图中的响应;最后利用显著性特征图和深度特征图共同作为图像目标检测识别的约束,进一步提高了弱小目标的识别精度,降低漏检和虚警现象的发生概率。
在上述实施例和下述实施例的基础上,本实施例对结构张量的计算过程进行细化。可选地,根据待检测图像中每个像素点的像素值,计算每个像素点的结构张量,具体包括如下步骤:
步骤一、根据预设张量尺度范围,确定多个张量尺度。
张量尺度表征结构张量的像素点覆盖范围。不同尺度的结构张量能够反映不同尺度的几何信息和纹理信息。在计算每个像素点对应的结构张量之前,首先根据预设张量尺度范围,确定待计算的多个张量尺度。
本实施例将待计算的像素点作为中心像素点,张量尺度是指用于计算结构张量的周边像素点距离中心像素点的距离。例如,预设张量尺度范围为7,则可以确定多个张量尺度分别为1、2、3,即周边像素点距离中心像素点的距离分别为1、2、3。
步骤二、将每个像素点作为中心像素点,根据多个张量方向的每个张量方向,选取与所述中心像素点的距离为任一张量尺度的四个周边像素点。
张量方向用于描述结构张量表征的结构方向,所述多个张量方向包括:水平-垂直方向和对角线方向。对于任一张量尺度、任一张量方向而言,所述四个周边像素点用于计算中心像素点在所述张量尺度、所述张量方向上对应的结构张量。
具体来说,图2为本发明实施例提供的多尺度多方向结构张量计算中周边像素点的示意图。如图2所示,多个张量尺度分别为1、2、3,在左边的图中沿水平方向和垂直方向选取了距离中心像素点距离为1的四个像素点,作为张量尺度=1、张量方向=水平-垂直方向的四个周边像素点。类似地,右边的图中包括了张量尺度分别=1、2、3时,在水平-垂直方向和对角线方向上选取的四个周边像素点。
步骤三、根据所述四个周边像素点的像素值,确定所述中心像素点在每个张量方向上的结构张量。
(一)当张量尺度=i(i=1、2、3)、张量方向为水平-垂直方向时,四个周边像素点的位置分别为(x-i,y)、(x,y-i)、(x+i,y)和(x,y+i),对应的像素值分别为I x-i,y 、I x,y-i 、I x+i,y 和I x,y+i ,则结构张量计算公式如下:
其中,I i h 和I i v 分别表示当张量尺度=i时,中心像素点沿水平方向和垂直方向的梯度。I i h 和I i v 计算公式如下:
(二)当张量尺度=i(i=1、2、3)、张量方向为对角线方向时,四个周边像素点的位置分别为(x-i,y-i)、(x+i,y-i)、(x+i,y+i)和(x-i,y+i),对应的像素值分别为I x-i,y-i ,I x+i,y-i ,I x+i,y+i 和I x-i,y+i ,则结构张量的计算公式如下:
其中,I i d 和I i a 分别表示当张量尺度=i时,中心像素点沿主对角线和副对角线方向的梯度。I i d 和I i a 的计算公式如下:
本实施例采用多尺度、多方向的结构张量替代单一尺度、单一方向的结构张量,来提取多尺度、多方向上的几何信息和纹理信息,使提取到的信息具有更强的鲁棒性。尤其在具有大量相干斑噪声的雷达图像中,这一方式能够有效降低噪声干扰,提高弱散射目标和小尺寸特征的提取精度。
需要说明的是,除水平-垂直方向和对角线方向外,本实施例中的多个张量方向还可以包括更细分的结构方向,本实施对此不作限制。
在上述实施例和下述实施例的基础上,本实施例对显著性特征图的生成过程进行细化。可选地,根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,具体包括如下步骤:
步骤一、将每个像素点作为中心像素点,根据所述中心像素点所在的超像素块的像素值,构建每个结构张量的显著性权值。
为了便于区分和描述,以下将中心像素点所在的超像素块称为中心像素块。根据中心超像素块的像素值生成的显著性权值中,包含了中心像素块中的散射强度信息和对比度信息。显著性权值用于对所述中心像素点对应的结构张量进行加权平均,以生成中心像素点的显著性信息。
可选地,根据所述中心像素点所在的超像素块的像素值,构建每个结构张量的显著性权值,具体包括如下过程:
首先,获取待识别目标的像素先验阈值,其中,像素先验阈值表征待识别目标的最低散射强度。
雷达图像中的待识别目标多为飞机、坦克、舰船等军事目标。这些物体的散射强度通常比较相近,因此待识别目标的像素值能够保持在一定范围内。可选地,采用测量统计的方式,首先获取飞机、坦克、舰船等常用目标在图像中所有像素点对应的像素值,然后取所有像素值中的最低像素值作为像素先验阈值,例如取最低灰度值。
然后,根据以下公式,构建所述中心像素点的任一结构张量的显著性权值:
其中,A表示所述结构张量的显著性权值,ϵ表示单位阶跃函数,x表示所述中心像素点所在的超像素块的像素值,T表示像素先验阈值,d表示所述结构张量对应的每个周边像素点到所述中心像素点的欧式距离,σ d 表示预设距离权重缩放因子,σ s 表示预设先验阈值权重的缩放因子。
权值A中融合了张量尺度信息、散射强度信息和对比度信息,用于体现这些信息对中心像素点显著性的影响。
具体来说,张量尺度信息在公式(7)中表现为距离d,张量尺度越大,A越小,从而加强临近像素点对中心像素点显著性的影响,减少远距离周边像素点对中心像素点显著性的影响。
散射强度信息和对比度信息在公式(7)中表现为超像素块的像素值x和像素先验阈值T。仍以像素值为灰度值为例,当中心像素点所在超像素块的灰度值x低于先像素验阈值T时,将中心像素点视为低灰度值的背景杂波,这时单位阶跃函数中自变量取值小于0,ϵ=0,A=0,从而抑制背景杂波。当x远高于阈值T时,将中心像素点视为是高灰度值的人造杂波干扰,这时指数函数中的增大,A减小,从而抑制人造杂波。
需要说明的是,引起人造杂波的建筑物、电线塔等的散射强度与其材料和尺寸有关,通常远高于车辆、飞机等待识别目标,因此当x远高于阈值T时,将中心像素点视为高灰度值的人造杂波干扰。另外,单位阶跃函数的自变量取值大于0时,函数值为1;自变量取值小于0时,函数值为0。
步骤二、根据所述显著性权值,对所述中心像素点的每个结构张量的行列式和迹进行加权平均。
具体来说,中心像素点对应多个不同尺度、不同方向的结构张量ST 1、ST 2、…、ST n,ST 1、ST 2、…、ST n分别对应显著性权值A 1、A 2、…、A n,其中n为自然数。
首先,对结构张量进行加权,得到加权后的张量A 1*ST 1、A 2*ST 2、…、A n*ST n。然后,计算A 1*ST 1的行列式K 1和迹H 1 、A 2*ST 2的行列式K 2和迹H 2,…以及A n*ST n的行列式K n和迹H n。最后,对K 1、K 2、…、K n进行加权平均得到K,对H 1、H 2、…、H n进行加权平均得到H。
步骤三、根据加权平均后的行列式和迹,生成所述显著性特征图。
本实施例通过加权平均后K和迹H,确定雷达图像中包含目标结构特征的边缘区域、角点区域以及平坦区域,形成显著性特征图。具体计算公式如下:
R=|K| - 0.04 × H 2 (8)
其中,R表示中心像素点的显著性特征值。当R<0时,中心像素点为边缘区域。当R>0时,如果R大于预设值,中心像素点为角点区域;如果R小于预设值,中心像素点为平坦区域。
本实施例首先通过超像素块的像素值,在显著性权值中引入散射强度信息和对比度信息;然后按照显著性权值对结构张量进行加权平均,实现结构信息、纹理信息、散射强度信息和对比度信息的融合。这些信息综合影响了待识别目标的显著性信息,加强了弱小目标(包括小尺度特征和弱散射目标)在显著性特征图中的响应。同时,本实施例在显著性权值的计算中,通过单位阶跃函数抑制了背景杂波干扰,通过像素先验阈值抑制人造波干扰,进一步加强了待识别目标的显著性响应;通过像素距离调节周边像素点对中心像素点的影响,进一步增强多尺度、多方向结构张量的鲁棒性,也使得到的显著性响应更符合实际。
在上述实施例和下述实施例的基础上,本实施例对超像素分割的过程进行细化。可选地,对所述待检测图像进行超像素分割,得到多个超像素块,具体包括如下步骤:
步骤一、利用Sobel算子加强所述待检测图像的边缘信息,得到加强后图像。
本实施例利用Sobel算子进行边缘信息加强,使得加强后的图像中具有更清晰的边缘信息
步骤二、使用边缘信息约束算法对所述加强后图像进行超像素块初始化和更新,得到所述多个超像素块。
可选地,使用边缘信息约束算法进行超像素块的初始化和更新;在迭代10次运算后,得到超像素分割结果。
本实施例在进行超像素分割前,首先利用Sobel算子提取待检测图像中的边缘信息,使得图像能够在超像素块迭代过程中保持清晰的几何轮廓,提高分割的准确性,进而提取出更精确的散射强度信息和对比度信息。
需要说明的是,此处还可以利用其他边缘加强算法加强待检测图像的边缘信息,本实施例对此不作限制。
在上述实施例和下述实施例的基础上,本实施例对基于显著性特征图和深度特征图进行目标识别的过程进行细化。可选地,基于所述显著性特征图,以及所述待检测图像的深度特征图进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别,具体包括如下步骤:
步骤一、将所述待检测图像输入训练好的深度神经网络模型,由所述训练好的深度神经网络模型的多个卷积层输出多个多尺度深度特征图,其中,所述多个卷积层构成残差结构,所述多个多尺度深度特征图之间的图像尺寸不同。
本实施例使用深度神经网络模型提取雷达图像的深度特征。深度神经网络模型包括构成残差结构的多个卷积层。每个卷积层能够输出一个尺度的深度特征图,每个尺度的深度特征图对应一个图像尺寸。具体来说,随着网络深度的增加,特征深度逐渐增加,能够代表的特征尺度逐渐增大,但特征图的尺寸逐渐减小。
步骤二、对所述显著性特征图进行降采样,得多个多尺度显著性特征图,其中,所述多个多尺度显著性特征图之间的图像尺寸不同,且与所述多个多尺度深度特征图的图像尺寸一一对应。
为了实现显著性特征图和深度特征图的融合,本实施例对显著性特征图进行降采样,得到多个多尺度显著性特征图,与多尺度深度特征图的大小(即尺寸)一一匹配。
步骤三、将图像尺寸相同的多尺度深度特征图和多尺度显著性特征图进行融合,得到多个多尺度融合特征图。
图3为本发明实施例提供的多尺度显著性特征特征图和多尺度深度特征图融合的示意图。如图3所示,将相同尺寸大小的显著性特征图和深度特征图,按照对应像素点相加的方式进行融合,得到多个融合特征图。需要说明的是,由于每个深度特征图均是多通道的,因此在任一深度特征图进行融合之前,首先将相同尺寸的显著性特征图在通道维度上进行复制,扩展成维度通道跟该深度特征图相同的通道数。
步骤四、对所述多个多尺度融合特征图进行图像目标检测识别,得到所述待检测图像中每个待识别目标的预测边界框和预测类别。
具体来说:首先,利用1×1卷积对每个融合特征图进行通道整合。然后,针对整合后特征图上的每个像素点,利用检测头和分类头进行目标边界框的回归和目标类别的分类。最后,采用非极大抑制算法,得到最终的预测边界框和预测类别。
本实施例通过将显著性特征和深度特征进行多级融合,实现了不同尺度特征的融合,进一步增强了弱小目标在融合特征图上的响应强度。
在上述实施例和下述实施例的基础上,本实施例对深度神经网络的训练过程进行细化。所述训练过程发生于上述实施例的预测过程之前,训练对象为基于显著性特征图和深度特征图的整个目标检测识别系统,其中可调整的是深度神经网络中的网络参数。图4为本发明实施例提供的目标检测识别系统的示意图,显示了系统内处理流程。如图4所示,所述系统用于实现上述任一实施例提供的雷达图像目标检测识别方法。
可选地,将所述待检测图像输入训练好的深度神经网络模型,由所述训练好的深度神经网络模型的多个卷积层输出多个多尺度深度特征图之前,还包括如下训练过程:
首先,获取多个训练图像,用于对深度神经网络模型进行训练。可选地,此处的训练图像仍为雷达图像。
然后,对每个训练图像中的每个待识别目标进行标注,得到每个待识别目标的标注边界框和标注类别。标注内容包括目标边界框和目标类别。为了便于区别和描述,将标注的边界框和类别称为“标注边界框”和“标注类别”,将利用训练好的目标检测识别系统预测得到的边界框和类别称为“预测边界框”和“预测类别”。
最后,将每个训练图像依次作为当前训练图像,对所述当前训练图像进行如下操作:
S1-1:根据所述当前训练图像中每个像素点的像素值,计算每个像素点的结构张量。
S1-2:对所述当前训练图像进行超像素分割,得到多个超像素块。
S1-3:根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,所述显著性特征图中包括所述当前训练图像中每个待识别目标的显著性信息。
S1-4:将所述当前训练图像输入待训练的深度神经网络模型,得到所述当前训练图像的深度特征图。
S1-5:基于所述显著性特征图以及所述深度特征图,进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别。
S1-6:根据所述预测边界框和预测类别,以及所述当前训练图像的标注边界框和标注类别,更新所述待训练的深度神经网络模型的网络参数。
重复S1-1至S1-6,直到达到预设训练终止条件,以得到所述训练好的深度神经网络模型。
可选地,在S1-6中,构建整个目标检测识别系统的损失函数,根据损失函数更新待训练深度神经网络模型的网络参数:
Loss = αLoss cls +βLoss bbox (9)
其中,Loss cls 表示类别损失函数,Loss bbox 表示边界框损失函数,α和β表示类别损失函数和边界框损失函数的权重超参数。
可选地,所述训练终止条件包括:训练后的平均精度均值达到预设平均精度均值阈值;或训练后的F 1分数达到预设F 1分数阈值。
本实施例提供两种训练终止条件。其中平均精度均值便于计算,F 1分数可以同时兼顾召回率和精确率,可以根据场景需求选取不同的训练终止条件。
本实施例提供了用于确定深度神经网络参数的训练方法,将整个目标检测识别系统作为训练对象,针对目标识别结果进行标定和损失函数设计,使得训练后的网络参数以最快的速度满足预设的目标识别性能,提高了网络训练效率。
可选地,对每个训练图像中的每个待识别目标进行标注,得到每个待识别目标的标注边界框和标注类别之后,还包括:根据所述标注边界框和所述标注类别,确定待识别目标的像素先验阈值。
本实施例提供了另一种像素先验阈值的确定方法。为了得到稳定训练效果,训练图像的数量往往比较庞大,通过对训练图像的标注,就可以确定像素先验阈值。
具体来说,可选地,根据所述标注边界框和标注类别,确定待识别目标中多个像素点的像素值;取所述多个像素值中的最小值,作为像素先验阈值。本实施例在标注过程中实现了像素先验阈值的确定,省去单独的测量统计过程,提高了整个方法的实现效率。
图5为本发明实施例提供的一种电子设备的结构示意图,如图5所示,该设备包括处理器50、存储器51、输入装置52和输出装置53;设备中处理器50的数量可以是一个或多个,图5中以一个处理器50为例;设备中的处理器50、存储器51、输入装置52和输出装置53可以通过总线或其他方式连接,图5中以通过总线连接为例。
存储器51作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的一种雷达图像目标检测识别方法对应的程序指令/模块。处理器50通过运行存储在存储器51中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的一种雷达图像目标检测识别方法。
存储器51可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器51可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器51可进一步包括相对于处理器50远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置52可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置53可包括显示屏等显示设备。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一实施例的一种雷达图像目标检测识别方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案。
Claims (10)
1.一种雷达图像目标检测识别方法,其特征在于,包括:
根据待检测图像中每个像素点的像素值,计算每个像素点的结构张量;
对所述待检测图像进行超像素分割,得到多个超像素块;
根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,所述显著性特征图中包括所述待检测图像中每个待识别目标的显著性信息;
基于所述显著性特征图以及所述待检测图像的深度特征图,进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别。
2.根据权利要求1所述的方法,其特征在于,根据待检测图像中每个像素点的像素值,计算每个像素点的结构张量,包括:
根据预设张量尺度范围确定多个张量尺度,其中张量尺度表征结构张量的像素点覆盖范围;
将每个像素点作为中心像素点,根据多个张量方向的每个张量方向,选取与所述中心像素点的距离为任一张量尺度的四个周边像素点;
根据所述四个周边像素点的像素值,确定所述中心像素点在每个张量方向上的结构张量;
其中,张量方向用于描述结构张量表征的结构方向,所述多个张量方向包括:水平-垂直方向和对角线方向。
3.根据权利要求2所述的方法,其特征在于,根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,包括:
将每个像素点作为中心像素点,根据所述中心像素点所在的超像素块的像素值,构建每个结构张量的显著性权值;
根据所述显著性权值,对所述中心像素点的每个结构张量的行列式和迹进行加权平均;
根据加权平均后的行列式和迹,生成显著性特征图;
其中,对于所述中心像素点,所述显著性权值用于表征每个结构张量对显著性信息的影响。
5.根据权利要求1所述的方法,其特征在于,对所述待检测图像进行超像素分割,得到多个超像素块,包括:
利用Sobel算子加强所述待检测图像的边缘信息,得到加强后图像;
使用边缘信息约束算法对所述加强后图像进行超像素块初始化和更新,得到所述多个超像素块。
6.根据权利要求1所述的方法,其特征在于,基于所述显著性特征图,以及所述待检测图像的深度特征图进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别,包括:
将所述待检测图像输入训练好的深度神经网络模型,由所述训练好的深度神经网络模型的多个卷积层输出多个多尺度深度特征图,其中,所述多个卷积层构成残差结构,所述多个多尺度深度特征图之间的图像尺寸不同;
对所述显著性特征图进行降采样,得多个多尺度显著性特征图,其中,所述多个多尺度显著性特征图之间的图像尺寸不同,且与所述多个多尺度深度特征图的图像尺寸一一对应;
将图像尺寸相同的多尺度深度特征图和多尺度显著性特征图进行融合,得到多个多尺度融合特征图;
对所述多个多尺度融合特征图进行图像目标检测识别,得到所述待检测图像中每个待识别目标的预测边界框和预测类别。
7.根据权利要求6所述的方法,其特征在于,将所述待检测图像输入训练好的深度神经网络模型,由所述训练好的深度神经网络模型的多个卷积层输出多个多尺度深度特征图之前,还包括:
获取多个训练图像;
对每个训练图像中的每个待识别目标进行标注,得到每个待识别目标的标注边界框和标注类别;
将每个训练图像依次作为当前训练图像,对所述当前训练图像进行如下操作,直到达到预设训练终止条件,得到所述训练好的深度神经网络模型:
S1-1:根据所述当前训练图像中每个像素点的像素值,计算每个像素点的结构张量;
S1-2:对所述当前训练图像进行超像素分割,得到多个超像素块;
S1-3:根据所述结构张量以及所述多个超像素块的像素值,得到显著性特征图,所述显著性特征图中包括所述当前训练图像中每个待识别目标的显著性信息;
S1-4:将所述当前训练图像输入待训练的深度神经网络模型,得到所述当前训练图像的深度特征图;
S1-5:基于所述显著性特征图以及所述深度特征图,进行图像目标检测识别,得到每个待识别目标的预测边界框和预测类别;
S1-6:根据所述预测边界框和预测类别,以及所述当前训练图像的标注边界框和标注类别,更新所述待训练的深度神经网络模型的网络参数。
8.根据权利要求7所述的方法,其特征在于,对每个训练图像中的每个待识别目标进行标注,得到每个待识别目标的标注边界框和标注类别之后,还包括:
根据所述标注边界框和所述标注类别,确定待识别目标的像素先验阈值。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的雷达图像目标检测识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的雷达图像目标检测识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210189300.3A CN114332633B (zh) | 2022-03-01 | 2022-03-01 | 雷达图像目标检测识别方法、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210189300.3A CN114332633B (zh) | 2022-03-01 | 2022-03-01 | 雷达图像目标检测识别方法、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114332633A true CN114332633A (zh) | 2022-04-12 |
CN114332633B CN114332633B (zh) | 2022-06-10 |
Family
ID=81030408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210189300.3A Active CN114332633B (zh) | 2022-03-01 | 2022-03-01 | 雷达图像目标检测识别方法、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332633B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115128570A (zh) * | 2022-08-30 | 2022-09-30 | 北京海兰信数据科技股份有限公司 | 一种雷达图像的处理方法、装置及设备 |
CN116092072A (zh) * | 2022-12-12 | 2023-05-09 | 平湖空间感知实验室科技有限公司 | 一种航天器目标检测方法、系统、存储介质和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250895A (zh) * | 2016-08-15 | 2016-12-21 | 北京理工大学 | 一种光学遥感图像感兴趣区域检测方法 |
CN109685806A (zh) * | 2018-11-14 | 2019-04-26 | 武汉科技大学 | 图像显著性检测方法及装置 |
US20200286208A1 (en) * | 2019-03-08 | 2020-09-10 | International Business Machines Corporation | Neural network based enhancement of intensity images |
CN111783523A (zh) * | 2020-05-19 | 2020-10-16 | 中国人民解放军93114部队 | 一种遥感影像旋转目标检测方法 |
CN112132156A (zh) * | 2020-08-18 | 2020-12-25 | 山东大学 | 多深度特征融合的图像显著性目标检测方法及系统 |
-
2022
- 2022-03-01 CN CN202210189300.3A patent/CN114332633B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250895A (zh) * | 2016-08-15 | 2016-12-21 | 北京理工大学 | 一种光学遥感图像感兴趣区域检测方法 |
CN109685806A (zh) * | 2018-11-14 | 2019-04-26 | 武汉科技大学 | 图像显著性检测方法及装置 |
US20200286208A1 (en) * | 2019-03-08 | 2020-09-10 | International Business Machines Corporation | Neural network based enhancement of intensity images |
CN111783523A (zh) * | 2020-05-19 | 2020-10-16 | 中国人民解放军93114部队 | 一种遥感影像旋转目标检测方法 |
CN112132156A (zh) * | 2020-08-18 | 2020-12-25 | 山东大学 | 多深度特征融合的图像显著性目标检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
LONG MA 等: "Region-of-Interest Detection via Superpixel-to-Pixel Saliency Analysis for Remote Sensing Image", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115128570A (zh) * | 2022-08-30 | 2022-09-30 | 北京海兰信数据科技股份有限公司 | 一种雷达图像的处理方法、装置及设备 |
CN116092072A (zh) * | 2022-12-12 | 2023-05-09 | 平湖空间感知实验室科技有限公司 | 一种航天器目标检测方法、系统、存储介质和电子设备 |
CN116092072B (zh) * | 2022-12-12 | 2024-01-30 | 平湖空间感知实验室科技有限公司 | 一种航天器目标检测方法、系统、存储介质和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114332633B (zh) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hou et al. | Shape-adaptive selection and measurement for oriented object detection | |
KR102414452B1 (ko) | 목표 검출 및 목표 검출 네트워크의 훈련 | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
CN110472627B (zh) | 一种端到端的sar图像识别方法、装置及存储介质 | |
US11670071B2 (en) | Fine-grained image recognition | |
CN109241913B (zh) | 结合显著性检测和深度学习的船只检测方法及系统 | |
CN106909902B (zh) | 一种基于改进的层次化显著模型的遥感目标检测方法 | |
CN114332633B (zh) | 雷达图像目标检测识别方法、设备和存储介质 | |
WO2017020528A1 (zh) | 车道线的识别建模方法、装置、存储介质和设备及识别方法、装置、存储介质和设备 | |
CN108305260B (zh) | 一种图像中角点的检测方法、装置及设备 | |
CN108229675B (zh) | 神经网络的训练方法、物体检测方法、装置和电子设备 | |
CN115546630A (zh) | 基于遥感影像特征目标检测的工地提取方法和系统 | |
CN113095333B (zh) | 无监督特征点检测方法及装置 | |
CN113761999A (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
CN113850783B (zh) | 一种海面船舶检测方法及系统 | |
CN114037640A (zh) | 图像生成方法及装置 | |
CN115937552A (zh) | 一种基于融合手工特征与深度特征的图像匹配方法 | |
CN115019273A (zh) | 一种目标检测方法、装置、汽车及存储介质 | |
CN113850761B (zh) | 一种基于多角度检测框的遥感图像目标检测方法 | |
CN115909255B (zh) | 图像生成、图像分割方法、装置、设备、车载终端及介质 | |
CN116844124A (zh) | 三维目标检测框标注方法、装置、电子设备和存储介质 | |
CN116310832A (zh) | 遥感图像处理方法、装置、设备、介质及产品 | |
CN113033644B (zh) | 一种基于凸包特征自适应的旋转密集目标检测方法 | |
CN115170978A (zh) | 车辆目标检测方法、装置、电子设备及存储介质 | |
CN114549825A (zh) | 目标检测方法、装置、电子设备与存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |