CN109903331A - 一种基于rgb-d相机的卷积神经网络目标检测方法 - Google Patents
一种基于rgb-d相机的卷积神经网络目标检测方法 Download PDFInfo
- Publication number
- CN109903331A CN109903331A CN201910016289.9A CN201910016289A CN109903331A CN 109903331 A CN109903331 A CN 109903331A CN 201910016289 A CN201910016289 A CN 201910016289A CN 109903331 A CN109903331 A CN 109903331A
- Authority
- CN
- China
- Prior art keywords
- prediction block
- convolutional neural
- neural networks
- prediction
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于RGB‑D相机的卷积神经网络目标检测方法。目前越来越多的目标检测算法都利用了卷积神经网络来对目标物体进行定位。然而大部分的卷积神经网络框架都只是利用彩色相机对目标物体的位置进行预测。然而只利用RGB信息,要使卷积神经网络达到较高的检测精度有很大的难度,需要综合考虑卷积神经网络建模,训练方案等诸多方面因素,较难实现。本发明利用了RGB‑D相机采集的深度图,辅助卷积神经网络对目标物体的位置进行预测。利用深度图像中的距离信息,能对目标物体的尺寸大小预先估计,减轻卷积神经网络的建模难度,提升网络的检测精度。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种基于RGB-D相机的卷积神经网络目标检测方法。
背景技术
传统目标检测算法利用人工设计的特征提取器提取图像特征,再使用SVM等机器学习算法,对特定区域内的特征进行分类,得到检测结果。但是由于人工设计的特征提取器具有一定的局限性,只能提取部分物体特征,难以对一个物体的特征进行充分提取,机器学习算法也难以学得物体的所有特征,导致整个算法的泛化能力比较差,识别的精度非常低,难以达到预期要求。
从2012年起,深度学习在计算机领域内得到广泛的应用,解决了诸多计算机视觉领域的难题。尤其是卷积神经网络在图像分类、目标检测、语义分割等计算机视觉问题上表现突出。经过在大量图片数据集上的训练,卷积神经网络能够充分学习目标物体的特征,并将这些特征进行组合得到最后的检测结果。相较传统的目标检测算法,基于卷积神经网络的目标检测算法需要依赖于更大的图片数据集,所以通过卷积层提取出的特征更具有普适性,更能代表物体的通用特征。所以基于卷积神经网络的目标检测算法能达到传统算法难以达到的精度。
而仅仅依赖于彩色图像的卷积神经网络算法在精度上的提升有限,在近几年增长已经趋于平缓。而在实际的目标检测系统中,需要利用深度传感器采集到的深度信息来辅助得到物体的空间坐标。所以本发明提出了一种利用深度信息来辅助目标检测的方法,提升目标检测算法的精度。
发明内容
本发明针对现有技术只利用卷积神经网络来检测目标物体的位置在检测精度上有一定的上限,提出了一种基于RGB-D相机的卷积神经网络目标检测方法。
本发明提出了一种基于RGB-D相机的卷积神经网络目标检测方法,并利用soft-NMS对于传统的NMS(non maximum suppression)算法进行了改进。本方法利用彩色相机和深度相机采集图片,利用RGB-D相机采集的深度图,将彩色图片输入目标检测网络,利用融合深度图信息,调整网络输出结果,达到高检测精度。
本发明目的是利用视觉系统中经常会使用到的深度图像,改变目标检测只利用彩色图像的单一性,从而提高预测的精度。
具体步骤如下:
步骤(1):利用RGB-D相机获取彩色图像和深度图像
使用RGB-D相机对于包含目标物体的场景进行拍摄,得到一张彩色图像和与彩色图像像素一一对应的深度图像。
步骤(2):利用卷积神经网络对于目标物体位置进行预测
(a)先收集包含目标物体的数据集,手工标定目标框,使目标框刚好能包含目标物体。统计数据集中目标框的长宽比,利用k均值聚类产生k个长宽比例值。然后产生k个面积为1的锚框,锚框的长宽比分别对应于聚类产生的k个值,就得到k个形状不一的锚框。
(b)将彩色图片输入卷积神经网络,产生预测结果参数。预测结果参数为若干组五维向量参数,为N×k×(score,cx,cy,dw,dh),其中N表示卷积神经网络最后一层特征图上的像素点的个数,k表示锚框数量,score表示网络输出在当前位置区域的预测框存在物体的置信值,cx和cy分别表示预测框中心点的坐标,dw和dh表示在当前位置对于某个特定锚框长宽的修正量。利用以下公式,对锚框的形状进行修正,就可以得到一个面积为1的预测框:
其中Pw和Ph表示锚框的长和宽,和表示面积为1的预测框的长宽。
经过以上步骤,将彩色图片输入到卷积神经网络,得到一系列的预测框,每个预测框包含置信值,中心坐标和长宽。选取一个阈值,将置信值低于该阈值的预测框除去,就能滤除大量不包含物体的预测结果。
步骤(3):求解从深度值到目标物体尺寸的映射关系模型
利用卷积神经网络得到目标物体中心坐标,将其映射到深度图上。得到物体中心点深度值,也就是物体与摄像头沿相机光轴的距离h。假设摄像头的焦距为f,目标物体的尺寸为l,目标物体在相机成像平面上的投影为s,即为尺度因子。根据相似三角形的性质,得到s如下:
s与h之间存在反比关系,利用步骤(1)中得到的图库,得到多组(s,h)关系对,利用线性回归算法求得f与l的乘积值,得到一个从深度到物体尺寸的反比模型。
步骤(4):产生带尺度的预测框
利用步骤(2)中产生的目标物体的中心位置,找到深度图像上对应位置的深度信息,并利用步骤(3)中的模型关系得到尺度因子s。将s与步骤(2)中的面积为1的预测框的长宽相乘,得到带尺度的预测框。
步骤(5):利用soft-NMS算法去除多余的预测框
经过以上步骤,在同一个物体上容易产生多个带尺度的预测框。利用soft-NMS算法去除多余的带尺度的预测框,保留一个预测结果。设S1和S2分别为两个预测框的面积,ΔS为两个预测框重合的面积,定义IoU为:
将预测结果中所有的预测框按置信值从大到小排序,依次选取目标框,并选取出排在当前预测框之后并且与当前预测框IoU大于设定阈值的预测框,认为他们都是对于同一物体的预测。对所有同一物体的预测框做加权平均,公式如下:
其中boxj表示第j个预测框的参数,包括中心坐标和长宽。利用当前计算的box值作为最终预测框的信息,并去掉其他在当前这一物体上的预测框,就得到最终的预测结果。
步骤(6)得到最终目标物体的空间位置
再在深度图中找到目标框的位置,计算目标框中所有像素点的平均深度值,得到目标物体的深度。利用物体中心坐标和平均深度值,结合相机的内部参数,得到最终物体的空间位置。
本发明的有益效果:本发明结合深度图像的信息,改变了目标检测网络中锚框的结构,使网络的预测更具有针对性,提升了网络的检测精度,具有重要的工程实际意义。
附图说明
图1为本发明流程图;
图2为从深度值到目标物体尺寸的映射关系模型图。
具体实施方式
以下结合图1对本发明作进一步说明,本发明包括以下步骤:
步骤(1):利用RGB-D相机获取彩色图像和深度图像
使用RGB-D相机对于包含目标物体的场景进行拍摄,得到一张彩色图像和与彩色图像像素一一对应的深度图像。
步骤(2):利用卷积神经网络对于目标物体位置进行预测
(a)先收集包含目标物体的数据集,手工标定目标框,使目标框刚好能包含目标物体。统计数据集中目标框的长宽比,利用k均值聚类产生k个长宽比例值。然后产生k个面积为1的锚框,锚框的长宽比分别对应于聚类产生的k个值,就得到k个形状不一的锚框。
(b)将彩色图片输入卷积神经网络,产生预测结果参数。预测结果参数为若干组五维向量参数,为N×k×(score,cx,cy,dw,dh),其中N表示卷积神经网络最后一层特征图上的像素点的个数,k表示锚框数量,score表示网络输出在当前位置区域的预测框存在物体的置信值,cx和cy分别表示预测框中心点的坐标,dw和dh表示在当前位置对于某个特定锚框长宽的修正量。利用以下公式,对锚框的形状进行修正,就可以得到一个面积为1的预测框:
其中Pw和Ph表示锚框的长和宽,和表示面积为1的预测框的长宽。
经过以上步骤,将彩色图片输入到卷积神经网络,得到一系列的预测框,每个预测框包含置信值,中心坐标和长宽。选取一个阈值,将置信值低于该阈值的预测框除去,就能滤除大量不包含物体的预测结果。
步骤(3):求解从深度值到目标物体尺寸的映射关系模型
如图2所示,利用卷积神经网络得到目标物体中心坐标,将其映射到深度图上,得到物体中心点深度值,也就是物体与摄像头沿相机光轴的距离h。假设摄像头的焦距为f,目标物体的尺寸为l,目标物体在相机成像平面上的投影为s,即为尺度因子。根据相似三角形的性质,得到s如下:
s与h之间存在反比关系,利用步骤(1)中得到的图库,得到多组(s,h)关系对,利用线性回归算法求得f与l的乘积值,得到一个从深度到物体尺寸的反比模型。
步骤(4):产生带尺度的预测框
利用步骤(2)中产生的目标物体的中心位置,找到深度图像上对应位置的深度信息,并利用步骤(3)中的模型关系得到尺度因子s。将s与步骤(2)中的面积为1的预测框的长宽相乘,得到带尺度的预测框。
步骤(5):利用soft-NMS算法去除多余的预测框
经过以上步骤,在同一个物体上容易产生多个带尺度的预测框。利用soft-NMS算法去除多余的带尺度的预测框,保留一个预测结果。设S1和S2分别为两个预测框的面积,ΔS为两个预测框重合的面积,定义IoU为:
将预测结果中所有的预测框按置信值从大到小排序,依次选取目标框,并选取出排在当前预测框之后并且与当前预测框IoU大于设定阈值的预测框,认为他们都是对于同一物体的预测。对所有同一物体的预测框做加权平均,公式如下:
其中boxj表示第j个预测框的参数,包括中心坐标和长宽。利用当前计算的box值作为最终预测框的信息,并去掉其他在当前这一物体上的预测框,就得到最终的预测结果。
步骤(6)得到最终目标物体的空间位置
再在深度图中找到目标框的位置,计算目标框中所有像素点的平均深度值,得到目标物体的深度。利用物体中心坐标和平均深度值,结合相机的内部参数,得到最终物体的空间位置。
Claims (1)
1.一种基于RGB-D相机的卷积神经网络目标检测方法,其特征在于该方法的具体步骤是:
步骤(1):利用RGB-D相机获取彩色图像和深度图像
使用RGB-D相机对于包含目标物体的场景进行拍摄,得到一张彩色图像和与彩色图像像素一一对应的深度图像;
步骤(2):利用卷积神经网络对于目标物体位置进行预测
(a)先收集包含目标物体的数据集,手工标定目标框,使目标框刚好能包含目标物体;统计数据集中目标框的长宽比,利用k均值聚类产生k个长宽比例值;然后产生k个面积为1的锚框,锚框的长宽比分别对应于聚类产生的k个值,就得到k个形状不一的锚框;
(b)将彩色图片输入卷积神经网络,产生预测结果参数;预测结果参数为若干组五维向量参数,为N×k×(score,cx,cy,dw,dh),其中N表示卷积神经网络最后一层特征图上的像素点的个数,k表示锚框数量,score表示网络输出在当前位置区域的预测框存在物体的置信值,cx和cy分别表示预测框中心点的坐标,dw和dh表示在当前位置对于某个特定锚框长宽的修正量;利用以下公式,对锚框的形状进行修正,就可以得到一个面积为1的预测框:
其中Pw和Ph表示锚框的长和宽,和表示面积为1的预测框的长宽;
经过以上步骤,将彩色图片输入到卷积神经网络,得到一系列的预测框,每个预测框包含置信值,中心坐标和长宽;选取一个阈值,将置信值低于该阈值的预测框除去,就能滤除大量不包含物体的预测结果;
步骤(3):求解从深度值到目标物体尺寸的映射关系模型
利用卷积神经网络得到目标物体中心坐标,将其映射到深度图上;得到物体中心点深度值,也就是物体与摄像头沿相机光轴的距离h;假设摄像头的焦距为f,目标物体的尺寸为l,目标物体在相机成像平面上的投影为s,即为尺度因子;根据相似三角形的性质,得到s如下:
s与h之间存在反比关系,利用步骤(1)中得到的图库,得到多组(s,h)关系对,利用线性回归算法求得f与l的乘积值,得到一个从深度到物体尺寸的反比模型;
步骤(4):产生带尺度的预测框
利用步骤(2)中产生的目标物体的中心位置,找到深度图像上对应位置的深度信息,并利用步骤(3)中的模型关系得到尺度因子s;将s与步骤(2)中的面积为1的预测框的长宽相乘,得到带尺度的预测框;
步骤(5):利用soft-NMS算法去除多余的预测框
经过以上步骤,在同一个物体上容易产生多个带尺度的预测框;利用soft-NMS算法去除多余的带尺度的预测框,保留一个预测结果;设S1和S2分别为两个预测框的面积,ΔS为两个预测框重合的面积,定义IoU为:
将预测结果中所有的预测框按置信值从大到小排序,依次选取目标框,并选取出排在当前预测框之后并且与当前预测框IoU大于设定阈值的预测框,认为他们都是对于同一物体的预测;对所有同一物体的预测框做加权平均,公式如下:
其中boxj表示第j个预测框的参数,包括中心坐标和长宽;利用当前计算的box值作为最终预测框的信息,并去掉其他在当前这一物体上的预测框,就得到最终的预测结果;
步骤(6)得到最终目标物体的空间位置
再在深度图中找到目标框的位置,计算目标框中所有像素点的平均深度值,得到目标物体的深度;利用物体中心坐标和平均深度值,结合相机的内部参数,得到最终物体的空间位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910016289.9A CN109903331B (zh) | 2019-01-08 | 2019-01-08 | 一种基于rgb-d相机的卷积神经网络目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910016289.9A CN109903331B (zh) | 2019-01-08 | 2019-01-08 | 一种基于rgb-d相机的卷积神经网络目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109903331A true CN109903331A (zh) | 2019-06-18 |
CN109903331B CN109903331B (zh) | 2020-12-22 |
Family
ID=66943720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910016289.9A Active CN109903331B (zh) | 2019-01-08 | 2019-01-08 | 一种基于rgb-d相机的卷积神经网络目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109903331B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399905A (zh) * | 2019-07-03 | 2019-11-01 | 常州大学 | 施工场景中安全帽佩戴情况的检测及描述方法 |
CN110443279A (zh) * | 2019-07-04 | 2019-11-12 | 南京邮电大学 | 一种基于轻量级神经网络的无人机图像车辆检测方法 |
CN110674733A (zh) * | 2019-09-23 | 2020-01-10 | 厦门金龙联合汽车工业有限公司 | 多目标检测识别方法和辅助驾驶方法、系统 |
CN110910450A (zh) * | 2019-09-26 | 2020-03-24 | 西安交通大学 | 一种基于混合特征感知神经网络进行3d目标检测的方法 |
CN111368769A (zh) * | 2020-03-10 | 2020-07-03 | 大连东软信息学院 | 基于改进锚点框生成模型的船舶多目标检测方法 |
CN111401128A (zh) * | 2020-01-16 | 2020-07-10 | 杭州电子科技大学 | 一种提高车辆识别率的方法 |
CN111915640A (zh) * | 2020-08-11 | 2020-11-10 | 浙江大华技术股份有限公司 | 候选框尺度的确定方法及装置、存储介质、电子装置 |
CN112115913A (zh) * | 2020-09-28 | 2020-12-22 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
CN112434583A (zh) * | 2020-11-14 | 2021-03-02 | 武汉中海庭数据技术有限公司 | 车道横向减速标线检测方法、系统、电子设备及存储介质 |
CN112686310A (zh) * | 2020-12-30 | 2021-04-20 | 武汉大学 | 一种基于锚框的目标检测算法中先验框设计方法 |
WO2021101045A1 (en) | 2019-11-20 | 2021-05-27 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
WO2021218201A1 (zh) * | 2020-04-27 | 2021-11-04 | 北京达佳互联信息技术有限公司 | 一种图像处理方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104808685A (zh) * | 2015-04-27 | 2015-07-29 | 中国科学院长春光学精密机械与物理研究所 | 用于无人机自主降落的视觉辅助装置及视觉辅助方法 |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN108332662A (zh) * | 2018-02-06 | 2018-07-27 | 新石器龙码(北京)科技有限公司 | 一种物体测量方法和装置 |
CN108416751A (zh) * | 2018-03-08 | 2018-08-17 | 深圳市唯特视科技有限公司 | 一种基于深度辅助全分辨率网络的新视点图像合成方法 |
CN108447068A (zh) * | 2017-12-22 | 2018-08-24 | 杭州美间科技有限公司 | 三元图自动生成方法及利用该三元图的前景提取方法 |
US20180247117A1 (en) * | 2016-09-30 | 2018-08-30 | Intel Corporation | Human search and identification in complex scenarios |
CN108647573A (zh) * | 2018-04-04 | 2018-10-12 | 杭州电子科技大学 | 一种基于深度学习的军事目标识别方法 |
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
-
2019
- 2019-01-08 CN CN201910016289.9A patent/CN109903331B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104808685A (zh) * | 2015-04-27 | 2015-07-29 | 中国科学院长春光学精密机械与物理研究所 | 用于无人机自主降落的视觉辅助装置及视觉辅助方法 |
US20180247117A1 (en) * | 2016-09-30 | 2018-08-30 | Intel Corporation | Human search and identification in complex scenarios |
CN106709568A (zh) * | 2016-12-16 | 2017-05-24 | 北京工业大学 | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 |
CN108447068A (zh) * | 2017-12-22 | 2018-08-24 | 杭州美间科技有限公司 | 三元图自动生成方法及利用该三元图的前景提取方法 |
CN108332662A (zh) * | 2018-02-06 | 2018-07-27 | 新石器龙码(北京)科技有限公司 | 一种物体测量方法和装置 |
CN108416751A (zh) * | 2018-03-08 | 2018-08-17 | 深圳市唯特视科技有限公司 | 一种基于深度辅助全分辨率网络的新视点图像合成方法 |
CN108647573A (zh) * | 2018-04-04 | 2018-10-12 | 杭州电子科技大学 | 一种基于深度学习的军事目标识别方法 |
CN109064514A (zh) * | 2018-07-03 | 2018-12-21 | 北京航空航天大学 | 一种基于投影点坐标回归的六自由度位姿估计算法 |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
Non-Patent Citations (2)
Title |
---|
HANBO ZHANG等: "A Real-time Robotic Grasp Approach with Oriented", 《ARXIV:1809.03873V2》 * |
杜学丹: "一种基于深度学习的机械臂抓取方法", 《机器人》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399905A (zh) * | 2019-07-03 | 2019-11-01 | 常州大学 | 施工场景中安全帽佩戴情况的检测及描述方法 |
CN110443279A (zh) * | 2019-07-04 | 2019-11-12 | 南京邮电大学 | 一种基于轻量级神经网络的无人机图像车辆检测方法 |
CN110443279B (zh) * | 2019-07-04 | 2022-08-12 | 南京邮电大学 | 一种基于轻量级神经网络的无人机图像车辆检测方法 |
CN110674733A (zh) * | 2019-09-23 | 2020-01-10 | 厦门金龙联合汽车工业有限公司 | 多目标检测识别方法和辅助驾驶方法、系统 |
CN110910450A (zh) * | 2019-09-26 | 2020-03-24 | 西安交通大学 | 一种基于混合特征感知神经网络进行3d目标检测的方法 |
WO2021101045A1 (en) | 2019-11-20 | 2021-05-27 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
EP4004872A4 (en) * | 2019-11-20 | 2022-11-02 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND ASSOCIATED CONTROL METHOD |
CN111401128A (zh) * | 2020-01-16 | 2020-07-10 | 杭州电子科技大学 | 一种提高车辆识别率的方法 |
CN111368769A (zh) * | 2020-03-10 | 2020-07-03 | 大连东软信息学院 | 基于改进锚点框生成模型的船舶多目标检测方法 |
CN111368769B (zh) * | 2020-03-10 | 2024-03-12 | 大连东软信息学院 | 基于改进锚点框生成模型的船舶多目标检测方法 |
WO2021218201A1 (zh) * | 2020-04-27 | 2021-11-04 | 北京达佳互联信息技术有限公司 | 一种图像处理方法及装置 |
JP2023512272A (ja) * | 2020-04-27 | 2023-03-24 | 北京達佳互▲れん▼信息技術有限公司 | 画像処理方法及び装置 |
CN111915640A (zh) * | 2020-08-11 | 2020-11-10 | 浙江大华技术股份有限公司 | 候选框尺度的确定方法及装置、存储介质、电子装置 |
CN112115913A (zh) * | 2020-09-28 | 2020-12-22 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
CN112115913B (zh) * | 2020-09-28 | 2023-08-25 | 杭州海康威视数字技术股份有限公司 | 图像处理方法、装置及设备、存储介质 |
CN112434583A (zh) * | 2020-11-14 | 2021-03-02 | 武汉中海庭数据技术有限公司 | 车道横向减速标线检测方法、系统、电子设备及存储介质 |
CN112686310A (zh) * | 2020-12-30 | 2021-04-20 | 武汉大学 | 一种基于锚框的目标检测算法中先验框设计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109903331B (zh) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109903331A (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
CN107392925B (zh) | 基于超像素编码和卷积神经网络的遥感影像地物分类方法 | |
CN108830285B (zh) | 一种基于Faster-RCNN的加强学习的目标检测方法 | |
CN109508710A (zh) | 基于改进YOLOv3网络的无人车夜间环境感知方法 | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN103985108B (zh) | 一种利用边界检测和多尺度形态学清晰度度量的多聚焦图像融合方法 | |
CN110889398B (zh) | 一种基于相似度网络的多模态图像能见度检测方法 | |
CN108710913A (zh) | 一种基于深度学习的开关柜图像开关状态自动识别方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN105913070B (zh) | 一种基于光场相机的多线索显著性提取方法 | |
CN110866079A (zh) | 一种智慧景区实景语义地图的生成与辅助定位方法 | |
CN113449594A (zh) | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 | |
CN105678318B (zh) | 交通标牌的匹配方法及装置 | |
CN105427309A (zh) | 面向对象高空间分辨率遥感信息提取的多尺度分层处理方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN112036260B (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
CN107578430A (zh) | 一种基于自适应权值和局部熵的立体匹配方法 | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
CN109034233A (zh) | 一种结合OpenStreetMap的高分辨率遥感影像多分类器联合分类方法 | |
CN106780546A (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
CN113191204B (zh) | 一种多尺度遮挡行人检测方法及系统 | |
CN106682684A (zh) | 一种基于k均值聚类的目标识别方法 | |
CN105913451B (zh) | 一种基于图模型的自然图像超像素分割方法 | |
CN116933141B (zh) | 一种基于多核图学习的多光谱激光雷达点云分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |