CN110363803A - 一种结合深度图切片和神经网络的目标检测方法和系统 - Google Patents
一种结合深度图切片和神经网络的目标检测方法和系统 Download PDFInfo
- Publication number
- CN110363803A CN110363803A CN201910650967.7A CN201910650967A CN110363803A CN 110363803 A CN110363803 A CN 110363803A CN 201910650967 A CN201910650967 A CN 201910650967A CN 110363803 A CN110363803 A CN 110363803A
- Authority
- CN
- China
- Prior art keywords
- image
- slice
- depth map
- rgb
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 60
- 230000008569 process Effects 0.000 claims abstract description 41
- 230000011218 segmentation Effects 0.000 claims abstract description 22
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 10
- 238000001914 filtration Methods 0.000 claims description 20
- 230000005484 gravity Effects 0.000 claims description 19
- 238000006116 polymerization reaction Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 7
- 230000002776 aggregation Effects 0.000 claims description 6
- 238000004220 aggregation Methods 0.000 claims description 6
- 238000010030 laminating Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000013456 study Methods 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请实施例公开了一种结合深度图切片和神经网络的目标检测方法和系统,包括:采集包含目标物体的RGB‑D图像;切片处理所述RGB‑D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;将所述RGB‑D图像中的RGB图像卷积处理;将所述切片处理后的目标轮廓图以及所述卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。本申请采用对深度图切割的方法,可以有效的分割出场景中的目标形状,并利用分割好的形状作为目标检测神经网络的输入,有力的弥补了神经网络只关注细节特征而忽略轮廓特征的缺点,极大的提高了目标检测的稳定性和抗干扰能力。
Description
技术领域
本申请涉目标检测领域,尤其涉及一种结合深度图切片和神经网络的目标检测方法和系统。
背景技术
随着卷积神经网络(CNN)在图像特征提取领域取得的巨大成功,很多研究开始将CNN网络移植到3D点云进行试验,比如pointnet++在3D物体分类上取得了成功。但是点云的卷积网络复杂度高,运算量大,且样本收集都非常困难,离产品化还有不小的距离。
利用深度相机很容易获得彩色和深度(RGB-D)数据,但是基于神经网络的图像检测算法中,卷积对于深度图的特征提取能力较弱,常常忽略目标的轮廓,因此,采用传统的CNN网络对深度图片进行卷积对图像的分割和目标识别帮助不大,反而会增加了运算量。对此,传统的图像算法有着很好的效果,比如在深度方向进行切片二值化,往往能很有效的对目标进行分离。但是这个方法的缺点是通用性很差,需要人去进行观察或者根据场景进行参数调整。
发明内容
本申请实施例提供了一种结合深度图切片和神经网络的目标检测方法和系统,解决了现有技术中神经网络不能完整提取目标的整体轮廓信息,反而增加了运算量的技术问题。
有鉴于此,本申请第一方面提供了一种结合深度图切片和神经网络的目标检测方法,所述方法包括:
采集包含目标物体的RGB-D图像;
切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;
将所述RGB-D图像中的RGB图像卷积处理;
将所述切片处理后的目标轮廓图以及所述卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
优选地,在所述采集包含目标物体的RGB-D图像后还包括:
对所述RGB-D图像中的RGB图像进行坐标变换和对齐处理,对所述RGB-D图像中的深度图进行坐标变换和对齐处理。
优选地,所述切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片进行叠加,得到目标轮廓图具体包括:
将所述深度图切片,得到若干切片;
将每个所述切片二值化处理,得到切片二值图;
对所述切片灰度图形态学操作和连通区域分析,得到第一连通图像;
对第一连通图像过滤处理,去除掉小连通区域,得到第二连通图像;
计算每一个第二连通图像的重心;
根据每个所述第二连通图像的重心,对所述第二连通图像聚合处理;
叠加所述聚合处理后的第二连通图像,得到包含有目标物体轮廓的目标轮廓图。
优选地,所述将深度图切片的方法为均匀切片或者百分位切片;
所述均匀切片即等深度切片,相邻切片之间为完全不重叠或者存在部分重叠;
所述百分位切片是按照固定的百分位切片,每个切片包含固定比例的深度信息,相邻切片之间为完全不重叠或者存在部分重叠。
优选地,在所述将深度图切片,得到若干切片之前还包括:
对所述深度图进行平滑滤波处理或者深度阈值分割。
本申请第二方面提供一种结合深度图切片和神经网络的目标检测系统,所述系统包括:
图像采集模块,所述图像采集模块用于采集包含目标物体的RGB-D图像;
切片处理模块,所述切片处理模块用于切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;
图像卷积模块,所述图像卷积模块用于对所述RGB-D图像中的RGB图像卷积处理;
目标检测分割模块,所述目标检测分割模块用于将所述切片处理后的目标轮廓图以及所述卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
优选地,所述系统还包括预处理模块;
所述预处理模块用于对所述RGB-D图像中的RGB图像进行坐标变换和对齐处理,对所述RGB-D图像中的深度图进行坐标变换和对齐处理。
优选地,所述切片处理模块包括:
切片模块,所述切片模块用于将所述深度图切片,得到若干切片;
二值化模块,所述二值化模块用于将每个所述切片二值化处理,得到切片二值图;
连通区域分析模块,所述连通区域分析模块用于对所述切片灰度图形态学操作和连通区域分析,得到第一连通图像;
图像过滤模块,所述图像过滤模块用于对第一连通图像过滤处理,去除掉小连通区域,得到第二连通图像;
重心计算模块,所述重心计算模块用于计算每一个第二连通图像的重心;
聚合模块,所述聚合模块用于根据每个所述第二连通图像的重心,对所述第二连通图像聚合处理;
叠加模块,所述叠加模块用于叠加所述聚合处理后的第二连通图像,得到包含有目标物体轮廓的目标轮廓图。
优选地,所述系统还包括平滑滤波模块或者深度阈值分割模块;
所述平滑滤波模块用于对所述深度图进行平滑滤波处理;
所述深度阈值分割模块用于对所述深度图进行阈值分割处理。
本申请第三方面提供一种结合深度图切片和神经网络的目标检测设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令,执行如上述第一方面所述的结合深度图切片和神经网络的目标检测方法的步骤。
从以上技术方案可以看出,本申请实施例具有以下优点:本申请提供了一种结合深度图切片和神经网络的目标检测方法,包括:采集包含目标物体的RGB-D图像;切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;将所述RGB-D图像中的RGB图像卷积处理;将所述切片处理后的目标轮廓图以及所述卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
本申请实施例中,提供了一种结合深度图切片和神经网络的目标检测方法,通过采用对深度图切割的方法,可以有效的分割出场景中的目标形状,并利用分割好的形状作为目标检测神经网络的输入,有力的弥补了神经网络只关注细节特征而忽略轮廓特征的缺点,极大的提高了目标检测的稳定性和抗干扰能力。
附图说明
图1为本申请一种结合深度图切片和神经网络的目标检测方法的一个实施例的流程图;
图2为本申请一种结合深度图切片和神经网络的目标检测方法的另一个实施例的方法流程图;
图3为本申请一种结合深度图切片和神经网络的目标检测系统的一个实施例的系统框图;
图4为本申请一种结合深度图切片和神经网络的目标检测系统的另一个实施例的系统框图;
图5为本申请一种结合深度图切片和神经网络的目标检测方法的球形坐标切片方式的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应理解,图1为本申请一种结合深度图切片和神经网络的目标检测方法的一个实施例流程图,如图1所示,图1中包括:
101、采集包含目标物体的RGB-D图像。
需要说明的是,采集的包含目标物体的RGB-D图像为三维图像,它包含有深度图和RGB图像,其中深度图中每个像素值是传感器距离物体的实际距离,RGB图像是常见的RGB三通道彩色图像。
102、切片处理RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图。
需要说明的是,将深度图切片处理是根据实际距离的不同,选取不同的距离区间进行切片,再选取包含有目标物体轮廓的切片进行叠加就可以得到目标物体的具体轮廓。
103、将RGB-D图像中的RGB图像卷积处理。
104、将切片处理后的目标轮廓图以及卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
需要说明的是,将切片处理后的深度图以及卷积处理后的RGB图像分别作为深度神经网络的输入,经过神经网络的训练和学习获取轮廓清晰、高精度的目标图像。
本申请实施例中,提供了一种结合深度图切片和神经网络的目标检测方法,通过采用对深度图切割的方法,可以有效的分割出场景中的目标形状,并利用分割好的形状作为目标检测神经网络的输入,有力的弥补了神经网络只关注细节特征而忽略轮廓特征的缺点,极大的提高了目标检测的稳定性和抗干扰能力。
应理解,图2为本申请一种结合深度图切片和神经网络的目标检测方法的另一个实施例的流程图,如图2所示,图2中包括:
201、采集包含目标物体的RGB-D图像。
需要说明的是,采集的包含目标物体的RGB-D图像为三维图像,它包含有深度图和RGB图像,其中深度图中每个像素值是传感器距离物体的实际距离,RGB图像是常见的RGB三通道彩色图像。
202、将RGB-D图像中的RGB图像卷积处理。
进一步的,在对RGB-D图像中的RGB图像卷积处理之前,先要对RGB图像进行坐标变换和对齐处理。
203、将深度图切片,得到若干切片。
需要说明的是,在将深度图切片之前,首先对深度图进行坐标变换和对齐处理;并且为了能够尽可能细致的提取出目标物体所在的深度范围的深度图,需要先将整个深度图进行切片处理。
进一步的,在深度图切片之前,可以先对深度图预处理,预处理包括平滑滤波处理或者深度阈值分割;平滑滤波是为了去除深度图噪声;深度阈值分割即只在一个或者多个给定的深度范围内进行切割。
进一步的,深度切片可以是按照切片图像上每个点到相机镜头所在平面等距离进行切片,也可以按照切片图像上每个像素点到相机镜头等距离进行切片,即以相机镜头为球形坐标原点进行球面切片,具体如图5所示。
进一步的,对深度图切片的方法可以采用均匀切片或者百分位切片;其中,均匀切片即等深度切片,相邻切片之间为完全不重叠或者存在部分重叠;在具体的实施例当中,采用的深度相机采集的RGB-D图像的深度为50cm到500cm,在以相机为原点的3维坐标系,相机镜头所在的平面为xy平面,相机面向的方向为轴。50cm和500cm就相当于2个平面(z=50和z=500),那么如果均匀切片9份,就是将这个空间每隔50cm一个平面,(z=100,150,...,500)将空间分割开,每两个平面之间的物体透过小孔成像为一张WxH的图片;若重叠设置,则可以分成17份,即每相邻两个50cm的深度区间之间包含25cm的重叠部分。
百分位切片是按照固定的百分位切片,每个切片包含固定比例的深度信息,相邻切片之间为完全不重叠或者存在部分重叠;在具体实施例中,将z=50,到z=500之间先用很小的区间均匀切片,计算每个切片里面的成像物体的面积,可以获得一个直方图H(z),然后再在直方图上面寻找一组z来分割,使得每两个切片目标物体的体积是相等的;也可以采用复杂的百分位切片,可以选取动态的百分比输入进行切割。
204、将每个切片二值化处理,得到切片二值图。
需要说明的是,为了便于后续的处理,需要先将深度切片图二值化处理,以减少图像的数据量,并凸显出目标的轮廓。
205、对切片灰度图形态学操作和连通区域分析,得到第一连通图像。
需要说明的是,为了能够更好地凸显出图像的轮廓信息,需要对二值化后的图像进行形态学处理和连通区域分析。
206、对第一连通图像过滤处理,去除掉小连通区域,得到第二连通图像。
需要说明的是,为了减少干扰,凸显出图像的轮廓信息,需要过滤第一连通图像中的小连通区域。
207、计算每一个第二连通图像的重心。
208、根据每个第二连通图像的重心,对第二连通图像聚合处理。
需要说明的是,通过对连通区域的重心计算切片图像的距离,根据切片图像的距离聚合处理,得到目标物体所在深度范围的深度图。
进一步的,切片聚合算法可以采用包括k-means聚合算法,每两个相邻的切片之间的距离就是切片的质心之间的空间距离。
进一步的,切片聚合可以采用神经网络的方式实现。
209、叠加聚合处理后的第二连通图像,得到包含有目标物体轮廓的待检测切片图。
需要说明的是,聚合后的图像需要按照顺序将包含目标物体轮廓的切片依次叠加,得到包含目标物体轮廓的目标轮廓图。
210、将切片处理后的目标深度图以及卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测结果。
需要说明的是,将切片处理后的待测深度图以及卷积处理后的RGB图像分别作为深度神经网络的输入,经过神经网络的训练和学习获取轮廓清晰、高精度的目标图像。
在一种实施例中,RGB图像卷积的输入是3通道(R/G/B)的图像WxH的矩阵,经过N个卷积核之后的输出是N个通道的WxH的矩阵。深度图经过切片聚合等处理后会输出M个通道的WxH的矩阵,这两个矩阵合并为M+N个通道的WxH的矩阵序列作为深度神经网络的输入进行进一步的特征分解合并和提取。需要说明的是,上述深度神经网络可以采用的目标检测神经网络包括:VGG、YOLO以及mobilenet网络等。
本实施例通过对采用多种切片方法对深度图进行切片,以便选出最优的目标物体所在深度范围,大大减少深度切片处理计算量和处理时间,通过二值化处理、形态学操作、连通域分析以及过滤处理更好的选择出目标物体的轮廓,同时将分割好的目标物体轮廓作为目标检测神经网络的输入,有力的弥补了神经网络只关注细节特征而忽略轮廓特征的缺点,极大的提高了目标检测的稳定性和抗干扰能力。
应理解,图3为本申请一种结合深度图切片和神经网络的目标检测系统的一个实施例的系统框图,如图3所示,图3中包括:
图像采集模块301,图像采集模块301用于采集包含目标物体的RGB-D图像。
切片处理模块302,切片处理模块302用于切片处理RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;
图像卷积模块303,图像卷积模块303用于对RGB-D图像中的RGB图像卷积处理;
目标检测分割模块304,目标检测分割模块304用于将切片处理后的目标轮廓图以及卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
需要说明的是,采集的包含目标物体的RGB-D图像为三维图像,它包含有深度图和RGB图像,其中深度图中每个像素值是传感器距离物体的实际距离,RGB图像是常见的RGB三通道彩色图像;将深度图切片处理是根据实际距离的不同,选取不同的距离区间进行切片,再选取包含有目标物体轮廓的切片进行叠加就可以得到目标物体的具体轮廓;将切片处理后的深度图以及卷积处理后的RGB图像分别作为深度神经网络的输入,经过神经网络的训练和学习获取轮廓清晰、高精度的目标图像。
本申请实施例中,提供了一种结合深度图切片和神经网络的目标检测方法,通过采用对深度图切割的方法,可以有效的分割出场景中的目标形状,并利用分割好的形状作为目标检测神经网络的输入,有力的弥补了神经网络只关注细节特征而忽略轮廓特征的缺点,极大的提高了目标检测的稳定性和抗干扰能力。
应理解,图4为本申请一种结合深度图切片和神经网络的目标检测系统的另一个实施例的系统框图,如图4所示,图4中包括:
图像采集模块401,图像采集模块401用于采集包含目标物体的RGB-D图像;
切片处理模块402,切片处理模块403用于切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;
图像卷积模块403,图像卷积模块403用于对RGB-D图像中的RGB图像卷积处理;
目标检测分割模块404,目标检测分割模块404用于将切片处理后的目标轮廓图以及卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
进一步地,系统还包括预处理模块,预处理模块用于对RGB-D图像中的RGB图像进行坐标变换和对齐处理,对RGB-D图像中的深度图进行坐标变换和对齐处理。
进一步地,切片处理模块还包括:
切片模块4031,切片模块4031用于将深度图切片,得到若干切片;
二值化模块4032,二值化模块4032用于将每个切片二值化处理,得到切片二值图;
连通区域分析模块4033,连通区域分析模块4033用于对切片灰度图形态学操作和连通区域分析,得到第一连通图像;
图像过滤模块4034,图像过滤模块4034用于对第一连通图像过滤处理,去除掉小连通区域,得到第二连通图像;
重心计算模块4035,重心计算模块4035用于计算每一个第二连通图像的重心;
聚合模块4036,聚合模块4036用于根据每个第二连通图像的重心,对第二连通图像聚合处理;
叠加模块4037,叠加模块4037用于叠加聚合处理后的第二连通图像,得到包含有目标物体轮廓的目标轮廓图。
进一步地,系统还包括平滑滤波模块或者深度阈值分割模块;平滑滤波模块用于对深度图进行平滑滤波处理;深度阈值分割模块用于对深度图进行阈值分割处理。
本申请实施例还提供一种结合深度图切片和神经网络的目标检测设备,设备包括处理器以及存储器:存储器用于存储程序代码,并将程序代码传输给所述处理器;处理器用于根据程序代码中的指令执行本申请实施例第一方面的一种结合深度图切片和神经网络的目标检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-OnlyMemory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种结合深度图切片和神经网络的目标检测方法,其特征在于,包括:
采集包含目标物体的RGB-D图像;
切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;
将所述RGB-D图像中的RGB图像卷积处理;
将所述切片处理后的目标轮廓图以及所述卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
2.根据权利要求1所述的一种结合深度图切片和神经网络的目标检测方法,其特征在于,在所述采集包含目标物体的RGB-D图像后还包括:
对所述RGB-D图像中的RGB图像进行坐标变换和对齐处理,对所述RGB-D图像中的深度图进行坐标变换和对齐处理。
3.根据权利要求1所述的一种结合深度图切片和神经网络的目标检测方法,其特征在于,所述切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片进行叠加,得到目标轮廓图具体包括:
将所述深度图切片,得到若干切片;
将每个所述切片二值化处理,得到切片二值图;
对所述切片灰度图形态学操作和连通区域分析,得到第一连通图像;
对第一连通图像过滤处理,去除掉小连通区域,得到第二连通图像;
计算每一个第二连通图像的重心;
根据每个所述第二连通图像的重心,对所述第二连通图像聚合处理;
叠加所述聚合处理后的第二连通图像,得到包含有目标物体轮廓的目标轮廓图。
4.根据权利要求3所述的一种结合深度图切片和神经网络的目标检测方法,其特征在于,所述将深度图切片的方法为均匀切片或者百分位切片;
所述均匀切片即等深度切片,相邻切片之间为完全不重叠或者存在部分重叠;
所述百分位切片是按照固定的百分位切片,每个切片包含固定比例的深度信息,相邻切片之间为完全不重叠或者存在部分重叠。
5.根据权利要求3所述的一种结合深度图切片和神经网络的目标检测方法,其特征在于,在所述将深度图切片,得到若干切片之前还包括:
对所述深度图进行平滑滤波处理或者深度阈值分割。
6.一种结合深度图切片和神经网络的目标检测系统,其特征在于,包括:
图像采集模块,所述图像采集模块用于采集包含目标物体的RGB-D图像;
切片处理模块,所述切片处理模块用于切片处理所述RGB-D图像中的深度图,将包含目标物体轮廓的切片图进行叠加,得到目标轮廓图;
图像卷积模块,所述图像卷积模块用于对所述RGB-D图像中的RGB图像卷积处理;
目标检测分割模块,所述目标检测分割模块用于将所述切片处理后的目标轮廓图以及所述卷积处理后的RGB图像输入深度卷积神经网络中,得到目标检测分割结果。
7.根据权利要求6所述的一种结合深度图切片和神经网络的目标检测系统,其特征在于,所述系统还包括预处理模块;
所述预处理模块用于对所述RGB-D图像中的RGB图像进行坐标变换和对齐处理,对所述RGB-D图像中的深度图进行坐标变换和对齐处理。
8.根据权利要求6所述的一种结合深度图切片和神经网络的目标检测系统,其特征在于,所述切片处理模块包括:
切片模块,所述切片模块用于将所述深度图切片,得到若干切片;
二值化模块,所述二值化模块用于将每个所述切片二值化处理,得到切片二值图;
连通区域分析模块,所述连通区域分析模块用于对所述切片灰度图形态学操作和连通区域分析,得到第一连通图像;
图像过滤模块,所述图像过滤模块用于对第一连通图像过滤处理,去除掉小连通区域,得到第二连通图像;
重心计算模块,所述重心计算模块用于计算每一个第二连通图像的重心;
聚合模块,所述聚合模块用于根据每个所述第二连通图像的重心,对所述第二连通图像聚合处理;
叠加模块,所述叠加模块用于叠加所述聚合处理后的第二连通图像,得到包含有目标物体轮廓的目标轮廓图。
9.根据权利要求6所述的一种结合深度图切片和神经网络的目标检测系统,其特征在于,所述系统还包括平滑滤波模块或者深度阈值分割模块;
所述平滑滤波模块用于对所述深度图进行平滑滤波处理;
所述深度阈值分割模块用于对所述深度图进行阈值分割处理。
10.一种结合深度图切片和神经网络的目标检测设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-5任一项所述的一种结合深度图切片和神经网络的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910650967.7A CN110363803B (zh) | 2019-07-18 | 2019-07-18 | 一种结合深度图切片和神经网络的目标检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910650967.7A CN110363803B (zh) | 2019-07-18 | 2019-07-18 | 一种结合深度图切片和神经网络的目标检测方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110363803A true CN110363803A (zh) | 2019-10-22 |
CN110363803B CN110363803B (zh) | 2021-08-27 |
Family
ID=68221294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910650967.7A Active CN110363803B (zh) | 2019-07-18 | 2019-07-18 | 一种结合深度图切片和神经网络的目标检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110363803B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826566A (zh) * | 2019-11-01 | 2020-02-21 | 北京环境特性研究所 | 一种基于深度学习的目标切片提取方法 |
CN110991339A (zh) * | 2019-12-02 | 2020-04-10 | 太原科技大学 | 一种采用循环频谱的三维腭皱识别方法 |
CN112258482A (zh) * | 2020-10-23 | 2021-01-22 | 广东博智林机器人有限公司 | 建筑外墙砂浆流坠检测方法及装置 |
CN112472133A (zh) * | 2020-12-22 | 2021-03-12 | 深圳市德力凯医疗设备股份有限公司 | 一种超声探头的姿态监控方法及装置 |
CN113129468A (zh) * | 2021-04-06 | 2021-07-16 | 深圳市艾赛克科技有限公司 | 基于无人机的地下管廊巡检方法 |
CN114187334A (zh) * | 2021-10-12 | 2022-03-15 | 武汉兰丁云医学检验实验室有限公司 | 基于HE染色、Ki67、P16结合的相邻切片图像叠合对齐方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145889A (zh) * | 2017-04-14 | 2017-09-08 | 中国人民解放军国防科学技术大学 | 基于具有RoI池化的双CNN网络的目标识别方法 |
CN107742297A (zh) * | 2017-09-13 | 2018-02-27 | 西北工业大学 | 一种三维ct图像的局部三维最大类间方差分割方法 |
CN109740460A (zh) * | 2018-12-21 | 2019-05-10 | 武汉大学 | 基于深度残差密集网络的光学遥感图像舰船检测方法 |
CN109886282A (zh) * | 2019-02-26 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 对象检测方法、装置、计算机可读存储介质和计算机设备 |
CN109886307A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像检测方法及系统 |
-
2019
- 2019-07-18 CN CN201910650967.7A patent/CN110363803B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107145889A (zh) * | 2017-04-14 | 2017-09-08 | 中国人民解放军国防科学技术大学 | 基于具有RoI池化的双CNN网络的目标识别方法 |
CN107742297A (zh) * | 2017-09-13 | 2018-02-27 | 西北工业大学 | 一种三维ct图像的局部三维最大类间方差分割方法 |
CN109740460A (zh) * | 2018-12-21 | 2019-05-10 | 武汉大学 | 基于深度残差密集网络的光学遥感图像舰船检测方法 |
CN109886307A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像检测方法及系统 |
CN109886282A (zh) * | 2019-02-26 | 2019-06-14 | 腾讯科技(深圳)有限公司 | 对象检测方法、装置、计算机可读存储介质和计算机设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826566A (zh) * | 2019-11-01 | 2020-02-21 | 北京环境特性研究所 | 一种基于深度学习的目标切片提取方法 |
CN110826566B (zh) * | 2019-11-01 | 2022-03-01 | 北京环境特性研究所 | 一种基于深度学习的目标切片提取方法 |
CN110991339A (zh) * | 2019-12-02 | 2020-04-10 | 太原科技大学 | 一种采用循环频谱的三维腭皱识别方法 |
CN112258482A (zh) * | 2020-10-23 | 2021-01-22 | 广东博智林机器人有限公司 | 建筑外墙砂浆流坠检测方法及装置 |
CN112472133A (zh) * | 2020-12-22 | 2021-03-12 | 深圳市德力凯医疗设备股份有限公司 | 一种超声探头的姿态监控方法及装置 |
CN113129468A (zh) * | 2021-04-06 | 2021-07-16 | 深圳市艾赛克科技有限公司 | 基于无人机的地下管廊巡检方法 |
CN114187334A (zh) * | 2021-10-12 | 2022-03-15 | 武汉兰丁云医学检验实验室有限公司 | 基于HE染色、Ki67、P16结合的相邻切片图像叠合对齐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110363803B (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363803A (zh) | 一种结合深度图切片和神经网络的目标检测方法和系统 | |
JP2020513124A (ja) | 仮想3次元深層ニューラルネットワークを利用する画像解析装置及び方法 | |
KR101932009B1 (ko) | 다중 객체 검출을 위한 영상 처리 장치 및 방법 | |
CN106295502B (zh) | 一种人脸检测方法及装置 | |
Saha et al. | Mutual spectral residual approach for multifocus image fusion | |
CN111275696B (zh) | 一种医学图像处理的方法、图像处理的方法及装置 | |
KR101743270B1 (ko) | 다수의 플랑크톤이 응집 혹은 산재해 있는 현미경 영상에서 딥러닝을 이용하여 개개 플랑크톤을 분리 및 인식하는 방법 | |
CN105718937B (zh) | 多类别对象分类方法及系统 | |
CN111223065B (zh) | 图像矫正方法、不规则文本识别方法、装置、存储介质和设备 | |
CN105869166A (zh) | 一种基于双目视觉的人体动作识别方法及系统 | |
CN103208097A (zh) | 图像多方向形态结构分组的主分量分析协同滤波方法 | |
CN110349167A (zh) | 一种图像实例分割方法及装置 | |
Zhao et al. | Automatic blur region segmentation approach using image matting | |
Devi et al. | Image processing system for automatic segmentation and yield prediction of fruits using open CV | |
Chen et al. | A practical solution for ripe tomato recognition and localisation | |
Meruliya et al. | Image processing for fruit shape and texture feature extraction-review | |
Waleed et al. | An automated method for detection and enumeration of olive trees through remote sensing | |
Michail et al. | Detection of centroblasts in h&e stained images of follicular lymphoma | |
US20030108242A1 (en) | Method and apparatus for processing data | |
CN113252584A (zh) | 基于5g传输的作物生长检测方法及系统 | |
CN116012393A (zh) | 一种纸箱点云分割方法、装置以及处理设备 | |
Díaz et al. | Automatic clump splitting for cell quantification in microscopical images | |
Joshi et al. | An innovative cloud based approach of image segmentation for noisy images using DBSCAN scheme | |
CN107862316A (zh) | 卷积运算方法及装置 | |
Guo et al. | Visual attention based small object segmentation in natual images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 04, 1401 / F, International Students Pioneer Building, No.29, Gaoxin South Ring Road, high tech Zone community, Yuehai street, Nanshan District, Shenzhen, Guangdong 518000 Applicant after: Guanglun Technology (Shenzhen) Co.,Ltd. Address before: Room 1404, phase 1, International Students Pioneer Building, 29 Gaoxin South Ring Road, Nanshan District, Shenzhen, Guangdong 518000 Applicant before: SHENZHEN SEIRIOS TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |