CN116051548B - 一种定位方法及装置 - Google Patents
一种定位方法及装置 Download PDFInfo
- Publication number
- CN116051548B CN116051548B CN202310237878.6A CN202310237878A CN116051548B CN 116051548 B CN116051548 B CN 116051548B CN 202310237878 A CN202310237878 A CN 202310237878A CN 116051548 B CN116051548 B CN 116051548B
- Authority
- CN
- China
- Prior art keywords
- ship
- target
- map
- representing
- target ship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000009432 framing Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 230000001629 suppression Effects 0.000 claims abstract description 11
- 238000004364 calculation method Methods 0.000 claims description 152
- 238000003062 neural network model Methods 0.000 claims description 97
- 230000009466 transformation Effects 0.000 claims description 38
- 239000013598 vector Substances 0.000 claims description 18
- 210000002569 neuron Anatomy 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000238557 Decapoda Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种定位方法及装置,应用于图像识别定位技术领域,该方法包括获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;对所述第二全景图进行多尺度特征提取,得到多尺度特征图;对所述多尺度特征图进行特征图分框,得到分框特征图;对所述分框特征图进行非极大值抑制,得到目标船只图;在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。该方法通过对目标定位区域的第二全景图进行多尺度特征提取,最终得到目标船只图,提高了目标船只图的图片精度,从而提高了基于目标船只图确定目标船只位置的定位方法的准确性。
Description
技术领域
本申请涉及图像识别定位技术领域,尤其涉及一种定位方法及装置。
背景技术
随着船只数量越来越多,对船只进行有效监管是渔业产业健康发展、水域生态环境有效保护的重要途径,对船只进行监管的前提之一就是对船只进行定位。在对船只进行定位时首先要对船只图像进行识别,目前,船只识别技术主要以YOLO算法为主,YOLO算法将输入图像网格化,利用网格直接预测目标,检测速度较快,但是该算法略去候选区域选取,使得选取出来的船只图像精度较低,从而基于船只图像对船只的定位方法的准确性较低。
发明内容
本申请实施例提供一种定位方法及装置,以解决船只的定位方法中定位准确性较低的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种定位方法。该方法包括:
获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;
对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
对所述多尺度特征图进行特征图分框,得到分框特征图;
对所述分框特征图进行非极大值抑制,得到目标船只图;
在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。
可选地,所述对所述多尺度特征图进行特征图分框,得到分框特征图,包括:
基于第一计算公式计算所述多尺度特征图的候选框参数;
基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
;
;
在所述第一计算公式中,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,表示以坐标为中心的矩形的宽度,表示以坐标为中心的矩形的高度,表示所述候选框参数所对应的候选框的尺寸,表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,表示所述多尺度特征图中的多个不同尺度的特征图的数量,表示所述多尺度特征图中的特征图的序号,表示所述多尺度特征图中的第i个特征图,表示的尺寸,,表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
;
在所述第二计算公式中,表示所述变换参数,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型中预先设置的固定的衡量尺度,用于衡量所述候选框参数与所述变换参数之间的映射关系。
可选地,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置之前,所述方法还包括:
分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,其中,N为大于或者等于1的整数;
选取所述N个概率值中的最大概率值;
确定所述最大概率值对应的船只类别为目标船只类别。
可选地,所述分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,包括:
基于第三计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数;
根据所述类别指数,基于第四计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率;
其中,所述第三计算公式为第二神经网络模型的分类层中的计算公式,所述第四计算公式为所述第二神经网络模型的输出层中的计算公式,所述第二神经网络模型为预先训练的用于识别船只类型的模型;
所述第三计算公式为:
;
在所述第三计算公式里,表示所述船只类别指数,表示所述第二神经网络模型中分类层的权重,表示所述第二神经网络模型中分类层的偏置向量,表示由所述目标船只图中的特征向量构成的向量矩阵;
所述第四计算公式为:
;
在所述第四计算公式里,表示所述目标船只图中的目标船只类别为预先选取的船只类别的概率,表示所述类别指数,u表示所述第二神经网络模型中输出层的神经元序号,N表示所述第二神经网络模型中输出层的神经元总数,v表示所述第二神经网络模型中输出层的神经元序号,N。
可选地,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置,包括:
在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;
根据所述第一距离和所述第一偏角,确定所述目标船只的位置。
可选地,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,包括:
基于距离映射比和第二距离,计算所述目标船只图中的目标船只与所述摄像机之间的第一距离,所述距离映射比为所述摄像机拍摄图像的虚拟距离与所述目标定位区域的空间实际距离之比,所述第二距离为所述目标船只在所述第一全景图中与所述摄像机之间的虚拟距离。
可选地,所述根据所述第一距离和所述第一偏角,确定所述目标船只的位置,包括:
根据所述第一距离和第一偏角,确定第一位置,所述第一位置为所述目标船只相对于所述摄像机的位置;
获取第二位置,所述第二位置为所述摄像机在所述目标定位区域内的空间实际位置;
根据所述第一位置和所述第二位置,确定所述目标船只的位置。
第二方面,本申请实施例还提供一种定位装置。该定位装置包括:
第一获取模块,用于获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;
第一确定模块,用于对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
第二确定模块,用于对所述多尺度特征图进行特征图分框,得到分框特征图;
第三确定模块,用于对所述分框特征图进行非极大值抑制,得到目标船只图;
第四确定模块,用于在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。
可选地,所述第二确定模块,包括:
第一计算单元,用于基于第一计算公式计算所述多尺度特征图的候选框参数;
第二计算单元,用于基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
第一确定单元,用于确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
;
;
在所述第一计算公式中,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,表示以坐标为中心的矩形的宽度,表示以坐标为中心的矩形的高度,表示所述候选框参数所对应的候选框的尺寸,表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,表示所述多尺度特征图中的多个不同尺度的特征图的数量,表示所述多尺度特征图中的特征图的序号,表示所述多尺度特征图中的第i个特征图,表示的尺寸,,表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
;
在所述第二计算公式中,表示所述变换参数,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型中预先设置的固定的衡量尺度,用于衡量所述候选框参数与所述变换参数之间的映射关系。
可选地,所述装置还包括:
第一计算模块,用于分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,其中,N为大于或者等于1的整数;
第一选取模块,用于选取所述N个概率值中的最大概率值;
第五确定模块,用于确定所述最大概率值对应的船只类别为目标船只类别。
可选地,所述第一计算模块,包括:
第三计算单元,用于基于第三计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数;
第四计算单元,用于根据所述类别指数,基于第四计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率;
其中,所述第三计算公式为第二神经网络模型的分类层中的计算公式,所述第四计算公式为所述第二神经网络模型的输出层中的计算公式,所述第二神经网络模型为预先训练的用于识别船只类型的模型;
所述第三计算公式为:
;
在所述第三计算公式里,表示所述船只类别指数,表示所述第二神经网络模型中分类层的权重,表示所述第二神经网络模型中分类层的偏置向量,表示由所述目标船只图中的特征向量构成的向量矩阵;
所述第四计算公式为:
;
在所述第四计算公式里,表示所述目标船只图中的目标船只类别为预先选取的船只类别的概率,表示所述类别指数,u表示所述第二神经网络模型中输出层的神经元序号,N表示所述第二神经网络模型中输出层的神经元总数,v表示所述第二神经网络模型中输出层的神经元序号,N。
可选地,所述第四确定模块,包括:
第一获取单元,用于在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;
第二确定单元,用于根据所述第一距离和所述第一偏角,确定所述目标船只的位置。
可选地,所述第一获取单元,包括:
第一计算元件,用于基于距离映射比和第二距离,计算所述目标船只图中的目标船只与所述摄像机之间的第一距离,所述距离映射比为所述摄像机拍摄图像的虚拟距离与所述目标定位区域的空间实际距离之比,所述第二距离为所述目标船只在所述第一全景图中与所述摄像机之间的虚拟距离。
可选地,所述第二确定单元,包括:
第一确定元件,用于根据所述第一距离和第一偏角,确定第一位置,所述第一位置为所述目标船只相对于所述摄像机的位置;
第一获取元件,用于获取第二位置,所述第二位置为所述摄像机在所述目标定位区域内的空间实际位置;
第二确定元件,用于根据所述第一位置和所述第二位置,确定所述目标船只的位置。
第三方面,本申请实施例还提供一种漏泄电缆性能评估装置,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述的定位方法的步骤。
第四方面,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述的定位方法的步骤。
本申请实施例的定位方法,该方法包括获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;对所述第二全景图进行多尺度特征提取,得到多尺度特征图;对所述多尺度特征图进行特征图分框,得到分框特征图;对所述分框特征图进行非极大值抑制,得到目标船只图;在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。该方法通过对目标定位区域的第二全景图进行多尺度特征提取,最终得到目标船只图,提高了目标船只图的图片精度,从而提高了基于目标船只图确定目标船只位置的定位方法的准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的定位方法的流程图;
图2是本申请又一实施例提供的定位装置的结构图;
图3是本申请又一实施例提供的电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种定位方法。参见图1,图1是本申请实施例提供的定位方法的流程图,如图1所示,包括以下步骤:
步骤101、获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;
在该步骤中,前述摄像机可以是全景高速球摄像机,全景高速球摄像机也称为全景凝视摄像机系统,是全景摄像机和高速球摄像机的组合,是同时具备全景摄像机全局宽视角优点和高速球摄像机局部特写凝视优点的高清网络摄像机。当目标定位区域为海域时,前述第一全景图像为摄像机所能拍摄到的所有海面上的图像,包括海面、船只、礁石、鱼类和港口等。
前述对第一全景图像进行图像预处理操作,以用于在保障图像本身的信息不变的前提下,将图像中的像素灰度值的取值范围从0~255之间转换为0~1之间。对第一全景图像进行图像预处理操作的过程可以通过图像归一化实现,其过程为:将第一全景图像中的像素值除以第一全景图像的最大像素值,例如设原图像是8位灰度图像,那么读入的像素矩阵最大值为256,最小值为1,定义图像中的像素矩阵为I,J=I/256,J就是归一化的图像矩阵,就是说归一化之后所有的像素值都在[0,1]区间内。
除此之外,对第一全景图像进行图像预处理的一个重要过程就是图像滤波,利用下述公式对所述第一全景图像进行图像滤波,得到滤波特征图:
;
其中,表示所述滤波特征图中的像素点的像素值,表示第一全景图像中坐标为的像素点的像素值,表示第一全景图像中的像素点的坐标,表示对第一全景图像进行图像滤波时所使用的卷积核中与坐标相对应的坐标,表示卷积核中坐标为的像素点的像素值。再对滤波特征图进行下采样操作,得到下采样特征图,对下采样特征图再进行图像滤波,得到第二全景图像。其中,对下采样特征图进行图像滤波,得到第二全景图像的过程与上述对第一全景图像进行图像滤波,得到滤波特征图的原理类似,在此不做进一步地赘述。
步骤102、对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
在该步骤中,利用多个不同尺度的卷积核对第二全景图进行特征提取,得到多个不同尺度的特征图提取结果。
步骤103、对所述多尺度特征图进行特征图分框,得到分框特征图;
在该步骤中,为了使多尺度特征图能够提供更加细节的信息,从而推断出被遮挡的目标,小目标,模糊或重叠的目标。故对多尺度特征图进行特征图分框,得到分框特征图。
步骤104、对所述分框特征图进行非极大值抑制,得到目标船只图;
在该步骤中,非极大值抑制应用于目标检测算法中,为从一张图片中找出很多个可能是目标物体的矩形框,然后为每个矩形框做类别分类概率,选取概率最高的作为目标物体的矩形框。在本申请实施例的定位方法中,对分框特征图进行非极大值抑制,选取概率最高的矩形框作为目标船只图。
步骤105、在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。
在该步骤中,船只类别可以包括战斗船、辅助船、海洋开发船、油船、化学品船、特种船、液货船、客货船、渔船、橡皮艇与其他等等,其中每个船只的类别又包括多种形态的细分类别,例如渔船又包括渔业监督船、冷藏运输船、捕虾船、钓渔船等等,需要说明的是,当预设船只类别为非法捕捞船只的时候,如果船只类别不在前述提到的船只类别之列的话,就说明目标船只类别为预设船只类别,然后确定该目标船只的位置。
本申请实施例的定位方法通过对目标定位区域的第二全景图进行多尺度特征提取,最终得到目标船只图,提高了目标船只图的图片精度,从而提高了基于目标船只图确定目标船只位置的定位方法的准确性,该方法在一定程度上借鉴的RPN网络的默认候选框机制和回归机制,同时采用多尺度特征表征的思想进行目标检测,使得目标检测的算法还具有速度快的特点,需要说明的是,本申请实施例的定位方法中的摄像机还可以为PTZ摄像机。
可选地,所述对所述多尺度特征图进行特征图分框,得到分框特征图,包括:
基于第一计算公式计算所述多尺度特征图的候选框参数;
基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
;
;
在所述第一计算公式中,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,表示以坐标为中心的矩形的宽度,表示以坐标为中心的矩形的高度,表示所述候选框参数所对应的候选框的尺寸,表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,表示所述多尺度特征图中的多个不同尺度的特征图的数量,表示所述多尺度特征图中的特征图的序号,表示所述多尺度特征图中的第i个特征图,表示的尺寸,,表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
;
在所述第二计算公式中,表示所述变换参数,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型中预先设置的固定的衡量尺度,用于衡量所述候选框参数与所述变换参数之间的映射关系。
在本申请实施例的定位方法中,第一神经网络模型为预先训练的用于船只识别的模型,第一神经网络模型的目标网络层为用于特征图分框的网络层,目标网络层中有用于船只识别的第一计算公式和第二计算公式,第一计算公式用于计算多尺度特征图的候选框参数,前述候选框参数用于从多尺度特征图中确定多个候选框,再基于第二计算公式对候选框参数进行参数变换,得到变换参数,前述变换参数是一种“映射关系”,使得每个候选框通过这种映射关系都能够得到一个和真实边界框更接近的区域,最后确定变换参数对应的候选框为分框特征图。
本申请实施例的定位方法通过预先训练用于船只识别的第一神经网络模型,并利用第一神经网络模型的目标网络层中的第一计算公式和第二计算公式,确定分框特征图,有利于提高最终得到目标船只图的精确度。
可选地,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置之前,所述方法还包括:
分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,其中,N为大于或者等于1的整数;
选取所述N个概率值中的最大概率值;
确定所述最大概率值对应的船只类别为目标船只类别。
在本申请实施例的定位方法中,预先选取有N个船只类别,分别计算目标船只图中的目标船只类别为预先选取的N个船只类别中每一个船只类别的概率,可以得到N个概率值,选取N个概率值中的最大概率值,确定最大概率值对应的船只类别则为目标船只类别。该方法通过根据目标定位区域的特点,预先选取N个船只类别,再通过概率计算确定目标船只的类别,有利于快速识别目标船只。
可选地,所述分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,包括:
基于第三计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数;
根据所述类别指数,基于第四计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率;
其中,所述第三计算公式为第二神经网络模型的分类层中的计算公式,所述第四计算公式为所述第二神经网络模型的输出层中的计算公式,所述第二神经网络模型为预先训练的用于识别船只类型的模型;
所述第三计算公式为:
;
在所述第三计算公式里,表示所述船只类别指数,表示所述第二神经网络模型中分类层的权重,表示所述第二神经网络模型中分类层的偏置向量,表示由所述目标船只图中的特征向量构成的向量矩阵;
所述第四计算公式为:
;
在所述第四计算公式里,表示所述目标船只图中的目标船只类别为预先选取的船只类别的概率,表示所述类别指数,u表示所述第二神经网络模型中输出层的神经元序号,N表示所述第二神经网络模型中输出层的神经元总数,v表示所述第二神经网络模型中输出层的神经元序号,N。
在本申请实施例的定位方法中,预先训练有用于船只识别类型的第二神经网络模型,第二神经网络模型的分类层中有第三计算公式,第三计算公式用于分别计算目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数,在第二神经网络模型的输出层中有第四计算公式,第四计算公式用于通过类别指数分别计算出目标船只图中的目标船只类别为预先选取的N个船只类别的概率,有利于后续通过计算得到的N个概率值确定目标船只的类别。
可选地,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置,包括:
在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;
根据所述第一距离和所述第一偏角,确定所述目标船只的位置。
在本申请实施例的定位方法中,在目标船只图中的目标船只类别为预设船只类别的情况下,根据目标定位区域内的实际情况,获取目标船只与摄像机之间的实际空间距离,即在现实世界中,目标船只与摄像机之间的距离,再根据摄像机拍摄第一全景图像时的旋转偏角,确定目标船只在目标定位区域内的实际位置。该方法根据第一距离和第一偏角,确定目标船只的位置,考虑了摄像机的拍摄角度和实际位置,提高了定位方法的准确性。
可选地,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,包括:
基于距离映射比和第二距离,计算所述目标船只图中的目标船只与所述摄像机之间的第一距离,所述距离映射比为所述摄像机拍摄图像的虚拟距离与所述目标定位区域的空间实际距离之比,所述第二距离为所述目标船只在所述第一全景图中与所述摄像机之间的虚拟距离。
在本申请实施例的定位方法中,虚拟图像中的比例尺度和现实场景的比例尺度是不一样的,故需要对两者做一个映射变换。前述距离映射比为摄像机拍摄图像的虚拟距离与目标定位区域的实际空间距离之比,通过获取目标船只在第一全景图中与摄像机之间的虚拟距离,确定目标船只图中的目标船只与摄像机之间的空间实际距离。该方法通过对虚拟图像中的比例尺度和现实场景的比例尺度作映射变换,提高了定位方法的准确性。
可选地,所述根据所述第一距离和所述第一偏角,确定所述目标船只的位置,包括:
根据所述第一距离和第一偏角,确定第一位置,所述第一位置为所述目标船只相对于所述摄像机的位置;
获取第二位置,所述第二位置为所述摄像机在所述目标定位区域内的空间实际位置;
根据所述第一位置和所述第二位置,确定所述目标船只的位置。
在本申请实施例的定位方法中,通过目标船只图中的目标船只与摄像机之间的空间实际距离,以及摄像机拍摄第一全景图像时的旋转偏角,确定目标船只相对于摄像机的位置,再通过获取摄像机在目标定位区域内的空间实际位置,确定目标船只的位置,该方法以摄像机作为参考点,有利于快速定位出目标船只的位置。
参见图2,图2是本申请又一实施例提供的定位装置的结构图,如图2所示,定位装置200包括:
第一获取模块201,用于获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;
第一确定模块202,用于对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
第二确定模块203,用于对所述多尺度特征图进行特征图分框,得到分框特征图;
第三确定模块204,用于对所述分框特征图进行非极大值抑制,得到目标船只图;
第四确定模块205,用于在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。
可选地,所述第二确定模块,包括:
第一计算单元,用于基于第一计算公式计算所述多尺度特征图的候选框参数;
第二计算单元,用于基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
第一确定单元,用于确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
;
;
在所述第一计算公式中,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,表示以坐标为中心的矩形的宽度,表示以坐标为中心的矩形的高度,表示所述候选框参数所对应的候选框的尺寸,表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,表示所述多尺度特征图中的多个不同尺度的特征图的数量,表示所述多尺度特征图中的特征图的序号,表示所述多尺度特征图中的第i个特征图,表示的尺寸,,表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
;
在所述第二计算公式中,在本申请实施例的定位方法中,预先训练有用于船只识别类型的第二神经网络模型,第二神经网络模型的分类层中有第三计算公式,第三计算公式用于分别计算目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数,在第二神经网络模型的输出层中有第四计算公式,第四计算公式用于通过类别指数分别计算出目标船只图中的目标船只类别为预先选取的N个船只类别的概率,有利于后续通过计算得到的N个概率值确定目标船只的类别。
可选地,所述装置还包括:
第一计算模块,用于分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,其中,N为大于或者等于1的整数;
第一选取模块,用于选取所述N个概率值中的最大概率值;
第五确定模块,用于确定所述最大概率值对应的船只类别为目标船只类别。
可选地,所述第一计算模块,包括:
第三计算单元,用于基于第三计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数;
第四计算单元,用于根据所述类别指数,基于第四计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率;
其中,所述第三计算公式为第二神经网络模型的分类层中的计算公式,所述第四计算公式为所述第二神经网络模型的输出层中的计算公式,所述第二神经网络模型为预先训练的用于识别船只类型的模型;
所述第三计算公式为:
;
在所述第三计算公式里,表示所述船只类别指数,表示所述第二神经网络模型中分类层的权重,表示所述第二神经网络模型中分类层的偏置向量,表示由所述目标船只图中的特征向量构成的向量矩阵;
所述第四计算公式为:
;
在所述第四计算公式里,表示所述目标船只图中的目标船只类别为预先选取的船只类别的概率,表示所述类别指数,u表示所述第二神经网络模型中输出层的神经元序号,N表示所述第二神经网络模型中输出层的神经元总数,v表示所述第二神经网络模型中输出层的神经元序号,N。
可选地,所述第四确定模块,包括:
第一获取单元,用于在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;
第二确定单元,用于根据所述第一距离和所述第一偏角,确定所述目标船只的位置。
可选地,所述第一获取单元,包括:
第一计算元件,用于基于距离映射比和第二距离,计算所述目标船只图中的目标船只与所述摄像机之间的第一距离,所述距离映射比为所述摄像机拍摄图像的虚拟距离与所述目标定位区域的空间实际距离之比,所述第二距离为所述目标船只在所述第一全景图中与所述摄像机之间的虚拟距离。
可选地,所述第二确定单元,包括:
第一确定元件,用于根据所述第一距离和第一偏角,确定第一位置,所述第一位置为所述目标船只相对于所述摄像机的位置;
第一获取元件,用于获取第二位置,所述第二位置为所述摄像机在所述目标定位区域内的空间实际位置;
第二确定元件,用于根据所述第一位置和所述第二位置,确定所述目标船只的位置。
参见图3,图3是本申请又一实施提供的电子设备的结构图,如图3所示,电子设备包括:处理器301、通信接口302、通信总线304和存储器303,其中,处理器301、通信接口302和存储器303通过通信总线304完成相互间的交互。
其中,存储器303用于存放计算机程序;处理器301,用于执行存储器303上所存放的程序,所述计算器程序被处理器301执行时:用于获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
对所述多尺度特征图进行特征图分框,得到分框特征图;对所述分框特征图进行非极大值抑制,得到目标船只图;在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置。
可选地,处理器301,具体用于:
基于第一计算公式计算所述多尺度特征图的候选框参数;
基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
;
;
在所述第一计算公式中,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,表示以坐标为中心的矩形的宽度,表示以坐标为中心的矩形的高度,表示所述候选框参数所对应的候选框的尺寸,表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,表示所述多尺度特征图中的多个不同尺度的特征图的数量,表示所述多尺度特征图中的特征图的序号,表示所述多尺度特征图中的第i个特征图,表示的尺寸,,表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
;
在所述第二计算公式中,表示所述变换参数,表示所述多尺度特征图的候选框参数,表示所述第一神经网络模型中预先设置的固定的衡量尺度,用于衡量所述候选框参数与所述变换参数之间的映射关系。
可选地,处理器301,还用于:
分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,其中,N为大于或者等于1的整数;
选取所述N个概率值中的最大概率值;
确定所述最大概率值对应的船只类别为目标船只类别。
可选地,所述分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,包括:
基于第三计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数;
根据所述类别指数,基于第四计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率;
其中,所述第三计算公式为第二神经网络模型的分类层中的计算公式,所述第四计算公式为所述第二神经网络模型的输出层中的计算公式,所述第二神经网络模型为预先训练的用于识别船只类型的模型;
所述第三计算公式为:
;
在所述第三计算公式里,表示所述船只类别指数,表示所述第二神经网络模型中分类层的权重,表示所述第二神经网络模型中分类层的偏置向量,表示由所述目标船只图中的特征向量构成的向量矩阵;
所述第四计算公式为:
;
在所述第四计算公式里,表示所述目标船只图中的目标船只类别为预先选取的船只类别的概率,表示所述类别指数,u表示所述第二神经网络模型中输出层的神经元序号,N表示所述第二神经网络模型中输出层的神经元总数,v表示所述第二神经网络模型中输出层的神经元序号,N。
可选地,处理器301,具体用于:
在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;
根据所述第一距离和所述第一偏角,确定所述目标船只的位置。
可选地,处理器301,具体用于:
基于距离映射比和第二距离,计算所述目标船只图中的目标船只与所述摄像机之间的第一距离,所述距离映射比为所述摄像机拍摄图像的虚拟距离与所述目标定位区域的空间实际距离之比,所述第二距离为所述目标船只在所述第一全景图中与所述摄像机之间的虚拟距离。
可选地,处理器301,具体用于:
根据所述第一距离和第一偏角,确定第一位置,所述第一位置为所述目标船只相对于所述摄像机的位置;
获取第二位置,所述第二位置为所述摄像机在所述目标定位区域内的空间实际位置;
根据所述第一位置和所述第二位置,确定所述目标船只的位置。
上述电子设备提到的通信总线304可以是外部设备互连标准(PeripheralComponent Interconnect,PCT)总线或宽展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线304可以分为地址总线、数据总线、控制总线等。为了便于标识,图中仅用一条粗线表示,但并不表示仅有一根总线或一种数据类型。
通信接口302用于上述终端与其他设备之间的通信。
存储器303可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器303还可以是至少一个位于远离前述处理器301的存储装置。
上述的处理器301可以是通用处理器,包括中央处理器(Central ProcessingUnit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(DigitalSignal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述定位方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (8)
1.一种定位方法,其特征在于,所述方法包括:
获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;
对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
对所述多尺度特征图进行特征图分框,得到分框特征图;
对所述分框特征图进行非极大值抑制,得到目标船只图;
在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置,包括:在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;根据所述第一距离和所述第一偏角,确定所述目标船只的位置;
所述对所述多尺度特征图进行特征图分框,得到分框特征图,包括:
基于第一计算公式计算所述多尺度特征图的候选框参数;
基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
在所述第一计算公式中,(xi,yi,wi,hi)表示所述多尺度特征图的候选框参数,(xi,yi)表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,wi表示以(xi,yi)坐标为中心的矩形的宽度,hi表示以(xi,yi)坐标为中心的矩形的高度,Si表示所述候选框参数所对应的候选框的尺寸,Smin表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,Smax表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,m表示所述多尺度特征图中的多个不同尺度的特征图的数量,i表示所述多尺度特征图中的特征图的序号,fi表示所述多尺度特征图中的第i个特征图,|fi|表示fi的尺寸,xi、yi∈[0,|fi|],ar表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
在所述第二计算公式中,(Gx,Gy,Gw,Gh)表示所述变换参数,(xi,yi,wi,hi)表示所述多尺度特征图的候选框参数,(tx,ty,tw,th)表示所述第一神经网络模型中预先设置的固定的衡量尺度,用于衡量所述候选框参数与所述变换参数之间的映射关系。
2.根据权利要求1所述的定位方法,其特征在于,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置之前,所述方法还包括:
分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,其中,N为大于或者等于1的整数;
选取所述N个概率值中的最大概率值;
确定所述最大概率值对应的船只类别为目标船只类别。
3.根据权利要求2所述的定位方法,其特征在于,所述分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率,得到N个概率值,包括:
基于第三计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的类别指数;
根据所述类别指数,基于第四计算公式分别计算所述目标船只图中的目标船只类别为预先选取的N个船只类别的概率;
其中,所述第三计算公式为第二神经网络模型的分类层中的计算公式,所述第四计算公式为所述第二神经网络模型的输出层中的计算公式,所述第二神经网络模型为预先训练的用于识别船只类型的模型;
所述第三计算公式为:
au=wx+b
在所述第三计算公式里,au表示所述船只类别指数,w表示所述第二神经网络模型中分类层的权重,b表示所述第二神经网络模型中分类层的偏置向量,x表示由所述目标船只图中的特征向量构成的向量矩阵;
所述第四计算公式为:
在所述第四计算公式里,yu表示所述目标船只图中的目标船只类别为预先选取的船只类别的概率,au表示所述船只类别指数,M表示所述第二神经网络模型中输出层的神经元总数,v表示所述第二神经网络模型中输出层的神经元序号。
4.根据权利要求1所述的定位方法,其特征在于,所述在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,包括:
基于距离映射比和第二距离,计算所述目标船只图中的目标船只与所述摄像机之间的第一距离,所述距离映射比为所述摄像机拍摄图像的虚拟距离与所述目标定位区域的空间实际距离之比,所述第二距离为所述目标船只在所述第一全景图中与所述摄像机之间的虚拟距离。
5.根据权利要求4所述的定位方法,其特征在于,所述根据所述第一距离和所述第一偏角,确定所述目标船只的位置,包括:
根据所述第一距离和第一偏角,确定第一位置,所述第一位置为所述目标船只相对于所述摄像机的位置;
获取第二位置,所述第二位置为所述摄像机在所述目标定位区域内的空间实际位置;
根据所述第一位置和所述第二位置,确定所述目标船只的位置。
6.一种定位装置,其特征在于,所述装置包括:
第一获取模块,用于获取摄像机拍摄的目标定位区域内的第一全景图,并对所述第一全景图进行图像预处理操作,得到第二全景图;
第一确定模块,用于对所述第二全景图进行多尺度特征提取,得到多尺度特征图;
第二确定模块,用于对所述多尺度特征图进行特征图分框,得到分框特征图;
第三确定模块,用于对所述分框特征图进行非极大值抑制,得到目标船只图;
第四确定模块,用于在所述目标船只图中的目标船只类别为预设船只类别的情况下,确定所述目标船只的位置;
所述第四确定模块,包括:
第一获取单元,用于在所述目标船只图中的目标船只类别为预设船只类别的情况下,获取第一距离和第一偏角,所述第一距离为所述目标船只图中的目标船只与所述摄像机之间的空间实际距离,所述第一偏角为所述摄像机拍摄所述第一全景图时的旋转偏角;
第二确定单元,用于根据所述第一距离和所述第一偏角,确定所述目标船只的位置;
所述第二确定模块,包括:
第一计算单元,用于基于第一计算公式计算所述多尺度特征图的候选框参数;
第二计算单元,用于基于第二计算公式对所述候选框参数进行参数变换,得到变换参数;
第一确定单元,用于确定所述变换参数对应的候选框为所述分框特征图;
其中,所述第一计算公式和所述第二计算公式均为第一神经网络模型的目标网络层中的计算公式,所述第一神经网络模型为预先训练的用于船只识别的模型,所述目标网络层为用于特征图分框的网络层;
所述第一计算公式为:
在所述第一计算公式中,(xi,yi,wi,hi)表示所述多尺度特征图的候选框参数,(xi,yi)表示所述第一神经网络模型从所述多尺度特征图中选取的像素点的坐标,wi表示以(xi,yi)坐标为中心的矩形的宽度,hi表示以(xi,yi)坐标为中心的矩形的高度,Si表示所述候选框参数所对应的候选框的尺寸,Smin表示所述第一神经网络模型中初始时设置的候选框最小尺度的参数,Smax表示所述第一神经网络模型中初始时设置的候选框最大尺度的参数,m表示所述多尺度特征图中的多个不同尺度的特征图的数量,i表示所述多尺度特征图中的特征图的序号,fi表示所述多尺度特征图中的第i个特征图,|fi|表示fi的尺寸,xi、yi∈[0,|fi|],ar表示依据所述多尺度特征图的不同大小的尺度所预先设置的宽高比;
所述第二计算公式为:
在所述第二计算公式中,(Gx,Gy,Gw,Gh)表示所述变换参数,(xi,yi,wi,hi)表示所述多尺度特征图的候选框参数,(tx,ty,tw,th)表示所述第一神经网络模型中预先设置的固定的衡量尺度,用于衡量所述候选框参数与所述变换参数之间的映射关系。
7.一种电子设备装置,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的定位方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310237878.6A CN116051548B (zh) | 2023-03-14 | 2023-03-14 | 一种定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310237878.6A CN116051548B (zh) | 2023-03-14 | 2023-03-14 | 一种定位方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116051548A CN116051548A (zh) | 2023-05-02 |
CN116051548B true CN116051548B (zh) | 2023-08-11 |
Family
ID=86120339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310237878.6A Active CN116051548B (zh) | 2023-03-14 | 2023-03-14 | 一种定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116051548B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583369A (zh) * | 2018-11-29 | 2019-04-05 | 北京邮电大学 | 一种基于目标区域分割网络的目标识别方法及装置 |
CN110222787A (zh) * | 2019-06-14 | 2019-09-10 | 合肥工业大学 | 多尺度目标检测方法、装置、计算机设备及存储介质 |
CN110378297A (zh) * | 2019-07-23 | 2019-10-25 | 河北师范大学 | 一种基于深度学习的遥感图像目标检测方法 |
CN110796009A (zh) * | 2019-09-29 | 2020-02-14 | 航天恒星科技有限公司 | 基于多尺度卷积神经网络模型的海上船只检测方法及系统 |
CN111860336A (zh) * | 2020-07-21 | 2020-10-30 | 西北工业大学 | 基于位置感知的高分辨遥感图像倾斜船舶目标检测方法 |
CN111950527A (zh) * | 2020-08-31 | 2020-11-17 | 珠海大横琴科技发展有限公司 | 一种基于yolo v2神经网络的目标检测方法及装置 |
CN112699808A (zh) * | 2020-12-31 | 2021-04-23 | 深圳市华尊科技股份有限公司 | 密集目标检测方法、电子设备及相关产品 |
CN113344148A (zh) * | 2021-08-06 | 2021-09-03 | 北京航空航天大学 | 一种基于深度学习的海上舰船目标识别方法 |
CN113850783A (zh) * | 2021-09-27 | 2021-12-28 | 清华大学深圳国际研究生院 | 一种海面船舶检测方法及系统 |
CN114565764A (zh) * | 2022-03-01 | 2022-05-31 | 北京航空航天大学 | 基于舰船实例分割的港口全景感知系统 |
WO2022160229A1 (zh) * | 2021-01-29 | 2022-08-04 | 华为技术有限公司 | 利用多核处理候选框的装置以及方法 |
-
2023
- 2023-03-14 CN CN202310237878.6A patent/CN116051548B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583369A (zh) * | 2018-11-29 | 2019-04-05 | 北京邮电大学 | 一种基于目标区域分割网络的目标识别方法及装置 |
CN110222787A (zh) * | 2019-06-14 | 2019-09-10 | 合肥工业大学 | 多尺度目标检测方法、装置、计算机设备及存储介质 |
CN110378297A (zh) * | 2019-07-23 | 2019-10-25 | 河北师范大学 | 一种基于深度学习的遥感图像目标检测方法 |
CN110796009A (zh) * | 2019-09-29 | 2020-02-14 | 航天恒星科技有限公司 | 基于多尺度卷积神经网络模型的海上船只检测方法及系统 |
CN111860336A (zh) * | 2020-07-21 | 2020-10-30 | 西北工业大学 | 基于位置感知的高分辨遥感图像倾斜船舶目标检测方法 |
CN111950527A (zh) * | 2020-08-31 | 2020-11-17 | 珠海大横琴科技发展有限公司 | 一种基于yolo v2神经网络的目标检测方法及装置 |
CN112699808A (zh) * | 2020-12-31 | 2021-04-23 | 深圳市华尊科技股份有限公司 | 密集目标检测方法、电子设备及相关产品 |
WO2022160229A1 (zh) * | 2021-01-29 | 2022-08-04 | 华为技术有限公司 | 利用多核处理候选框的装置以及方法 |
CN113344148A (zh) * | 2021-08-06 | 2021-09-03 | 北京航空航天大学 | 一种基于深度学习的海上舰船目标识别方法 |
CN113850783A (zh) * | 2021-09-27 | 2021-12-28 | 清华大学深圳国际研究生院 | 一种海面船舶检测方法及系统 |
CN114565764A (zh) * | 2022-03-01 | 2022-05-31 | 北京航空航天大学 | 基于舰船实例分割的港口全景感知系统 |
Non-Patent Citations (1)
Title |
---|
基于深度学习的遥感图像舰船检测与分类识别研究;虎风林;《中国优秀硕士学位论文全文数据库(电子期刊)工程科技Ⅱ辑》(第02期);正文第10-61页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116051548A (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583369B (zh) | 一种基于目标区域分割网络的目标识别方法及装置 | |
CN114820465B (zh) | 点云检测模型训练方法、装置、电子设备及存储介质 | |
CN111563414B (zh) | 一种基于非局部特征增强的sar图像舰船目标检测方法 | |
CN114359851A (zh) | 无人驾驶目标检测方法、装置、设备及介质 | |
CN110163207B (zh) | 一种基于Mask-RCNN船舶目标定位方法及存储设备 | |
CN110378837B (zh) | 基于鱼眼摄像头的目标检测方法、装置和存储介质 | |
CN110148117B (zh) | 基于电力图像的电力设备缺陷识别方法、装置与存储介质 | |
CN112348116B (zh) | 利用空间上下文的目标检测方法、装置和计算机设备 | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN113850783B (zh) | 一种海面船舶检测方法及系统 | |
CN111179270A (zh) | 基于注意力机制的图像共分割方法和装置 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112633066A (zh) | 一种航拍小目标检测方法、装置、设备及存储介质 | |
CN115272691A (zh) | 一种钢筋绑扎状态检测模型的训练方法、识别方法及设备 | |
CN111582013A (zh) | 一种基于灰度共生矩阵特征船只检索方法及装置 | |
CN111027512B (zh) | 一种遥感图像近岸船检测与定位方法及装置 | |
CN113129298A (zh) | 文本图像的清晰度识别方法 | |
CN116051548B (zh) | 一种定位方法及装置 | |
CN112926426A (zh) | 基于监控视频的船舶识别方法、系统、设备及存储介质 | |
CN114898306B (zh) | 一种检测目标朝向的方法、装置及电子设备 | |
CN115393763A (zh) | 基于图像频域的行人入侵识别方法、系统、介质及装置 | |
US11797854B2 (en) | Image processing device, image processing method and object recognition system | |
CN114648757A (zh) | 三维目标的检测方法及装置 | |
CN115953485B (zh) | 一种摄像机标定方法及装置 | |
CN111582040B (zh) | 一种船舶驾驶舱的人员定位方法、系统和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |