CN111178190A - 基于深度图像的目标检测方法、装置及存储介质 - Google Patents

基于深度图像的目标检测方法、装置及存储介质 Download PDF

Info

Publication number
CN111178190A
CN111178190A CN201911305132.4A CN201911305132A CN111178190A CN 111178190 A CN111178190 A CN 111178190A CN 201911305132 A CN201911305132 A CN 201911305132A CN 111178190 A CN111178190 A CN 111178190A
Authority
CN
China
Prior art keywords
detected
target
image
depth image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911305132.4A
Other languages
English (en)
Other versions
CN111178190B (zh
Inventor
欧勇盛
刘国栋
王志扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201911305132.4A priority Critical patent/CN111178190B/zh
Publication of CN111178190A publication Critical patent/CN111178190A/zh
Application granted granted Critical
Publication of CN111178190B publication Critical patent/CN111178190B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了基于深度图像的目标检测方法、装置及存储介质。该方法包括:确定原始深度图像的待检测目标的中心位置和姿态旋转角;利用待检测目标的中心位置与待检测目标的姿态旋转角对原始深度图像进行仿射变换以获取对应的仿射变换图像;对仿射变换图像进行切割以获取待检测目标子图;对待检测目标子图进行预处理以获取与待检测目标子图对应的一向量;将向量输入到预先训练好的多分类支持向量机,进行图像分类。本申请可提高纯色弱纹理待检测目标的检测精度。对待检测目标做仿射变换能够对任意姿势的待检测目标进行检测。

Description

基于深度图像的目标检测方法、装置及存储介质
技术领域
本申请涉及图像处理技术领域,特别是涉及基于深度图像的目标检测方法、装置及存储介质。
背景技术
在工业生产线中有很多需要进行工件检测的任务,现有技术对于如分拣或分类这类繁琐无聊的任务多是由工人手工操作完成,这样会造成的分类效率较低,且需要较多的人力成本。而近年随着机器人技术的快速发展,可利用机器人在工业生产线上执行部分的工件检测任务。但由于工业场景中的工件大多缺乏必要的纹理特征,因此利用机器人执行检测的效果不佳。
发明内容
本申请主要提供一种基于深度图像的目标检测方法,以解决在现有的工业场景中,利用机器人执行检测的精度不高的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种基于深度图像的目标检测方法。该目标检测方法包括:确定原始深度图像的待检测目标的中心位置和姿态旋转角;利用待检测目标的中心位置与待检测目标的姿态旋转角对原始深度图像进行仿射变换以获取对应的仿射变换图像;对仿射变换图像进行切割以获取待检测目标子图;对待检测目标子图进行预处理以获取与待检测目标子图对应的一向量;将向量输入到预先训练好的多分类支持向量机,进行图像分类。
为解决上述技术问题,本申请采用的又一个技术方案是,提供一种基于深度图像的目标检测装置,包括:存储器,用于存储一个或多个程序;通信电路,耦接所述处理器,用于将所述处理器的指令发送至机器人的机械结构,以使得所述机械结构将所述待检测目标移动至设定区域;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述基于深度图像的目标检测方法。
为解决上述技术问题,本申请采用的另一个技术方案是,提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述基于深度图像的目标检测方法。
本申请的有益效果是:区别于现有技术的情况,本申请将深度图像作为图像检测对象,能够避免使用RGB图像进行目标检测造成的对纯色弱纹理的待检测目标的检测精度不高的问题。并且本申请通过获取原始深度图像中每一个待检测目标的中心位置和姿态旋转角,基于待检测目标的中心位置和姿态旋转角对原始深度图像进行仿射变换,获取姿态矫正后的待检测目标子图。因事先对待检测目标进行了姿态矫正,使得本申请基于深度图像的目标检测方法具有旋转不变性,从而进一步提高目标检测的精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:
图1是本申请提供的基于深度图像的目标检测方法一实施例的流程示意图;
图2为本申请基于深度图像的目标检测方法一实施例步骤S30所调用算法的操作示意图;
图3为本申请提供的对原始深度图像进行实例分割一实施例的像素P的高斯环示意图;
图4为本申请提供的一种基于深度图像的目标检测装置一实施例的结构示意图;
图5为本申请提供存储介质一实施例的结构示意图;
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请所提供的一种基于深度图像的目标检测方法的执行主体可以是机器人,还可以是机器人控制系统。其中,机器人控制系统可以用于控制多个机器人同时执行对待检测目标的检测任务。待检测目标是指当前机器人需要进行检测分类的物件,具体至少包括工业中的工件,在此对于待检测目标的种类以及外观等不做任何限定。
参阅图1,图1是本申请提供的基于深度图像的目标检测方法一实施例的流程示意图。
S10:获取前景目标图像。前景目标图像是指相邻两帧图像中发生变化的部分,对应的未发生变化的部分即为背景。具体地,在一具体实施方式中,S10可按如下步骤执行。
S11:获取一张不放置待检测目标的放置区环境的背景深度图像;本申请一种基于深度图像的目标检测方法,其实施的对象为深度图像。本申请发明人经过长期研究发现,在工业检测过程中,由于与真实场景不同,通常工业场景缺乏一定的纹理特征,如果采用RGB摄像头对工业场景进行拍摄并对其拍摄的RGB图像进行目标检测,其检测精度不高。并且本申请以深度图像作为处理对象,光线不会对本申请所提出的方法产生影响,支持无光环境下的作业。深度图像指将从图像采集器到场景中各点的距离/深度作为像素值的图像,它直接反映了景物可见表面的几何形状,可采用TOF或结构光等深度相机获取。可选地,本实施例采用TOF深度相机采集不放置待检测目标的放置区环境的背景深度图像。对应地,包含待检测目标的原始深度图像即为由TOF深度相机采集的放置有待检测目标的图像。
S12:将包含待检测目标的原始深度图像与背景深度图像逐像素做差并取绝对值,以获取前景目标图像。
S20:利用预设的阈值序列分别对包含待检测目标的原始深度图像的前景目标图像进行分层二值化以获取图像序列。具体地,在一具体实施方式中,S20可按如下步骤执行。
S21:获取待检测目标的高度值序列。此处待检测目标即为待检测工件。具体可以通过人工量取或者从事先建立的关于待检测工件的数据库中获取。关于待检测工件的高度值的获取在此不做限定。
S22:基于待检测目标的高度序列获取阈值序列。
将待检测目标的高度序列按照递增或递减的顺序排列再两两取均值以获取阈值序列。例如相邻两个待检测工件的高度值分别为P和Q,那么设置一阈值为T=(P+Q)/2。若待检测目标类别数目为N,根据N个高度值能够获取N个阈值,将这N个阈值按照递减的顺序设其为T1,…,TN。最终获取与待检测目标类别数目相同的阈值序列。
S23:取T1对前景目标图像进行二值化以获取第1图层;
S24:对第1图层进行膨胀处理以获取第1图像;
S25:取Ts+1对包含待检测目标的原始深度图像的前景目标图像进行二值化并将得到的二值化图层与第s图像进行异或处理以获取第s+1图层。
S26:对第s+1图层进行膨胀处理以获取第s+1图像。
其中,s取1至N-1,N表示在原始深度图像中待检测目标类别个数。
在步骤S20中,图像二值化就是将图像上的像素点的像素值设置为0或1,也就是将整个图像呈现出明显的黑白效果。具体为,对于前景目标图像中的任一像素,若该像素的像素值大于等于某一阈值,则将其像素值重设为1,否则将其像素值重设为0,即可得到二值化图层。本实施例利用N个阈值按照从大到小的顺序对前景目标图像进行二值化,可对应得到N个二值化图像。
异或是一个数学运算符,其应用于逻辑运算。如果两个图像相同位置处的像素值两个值不相同,则异或结果为1,否则异或结果为0。本实施例通过异或处理能够利用阈值Ts+1获取的二值化图层中除去高度Ts的待检测目标,获取的第s+1图层仅包含高度为Ts+1的待检测目标。从而达到有效分离不同高度的待检测目标的目的。
为了使获取的第s+1图层中的待检测目标的大小与真实的待检测目标大小更加贴近,可对获取的第s+1图层进行膨胀处理。膨胀或者腐蚀操作就是将图像A与核B进行卷积。核可以是任何的形状和大小,它拥有一个单独定义出来的参考点,可称其为锚点。多数情况下,核是一个小的中间带有参考点和实心正方形或者圆盘。而膨胀就是求局部最大值的操作,核B与图形A卷积,即计算核B覆盖的区域的像素点的最大值,并把这个最大值赋值给参考点指定的像素。这样就会使图像中的高亮区域逐渐增长。在本实施例中,核的大小跟各待检测目标的分辨率大小成正比,但不做具体限定。
S30:对图像提取待检测目标的轮廓以获取对应的轮廓图像。
具体地,从上述步骤S20中所得的图像中,提取待检测目标的轮廓,提取待检测目标轮廓的操作具体可为将连续的且具有相同像素值的点连接得到曲线。在本实施例中,可调用八向邻域轮廓搜索算法提取待检测目标的轮廓。具体地,请参阅图2,图2为本申请一种基于深度图像的目标检测方法一实施例中步骤S30所调用算法的操作示意图。八向邻域轮廓搜索算法的主要步骤包括:
(1)从第一图像的一个方向,可以是左上开始搜索图像直到在新的区域找到像素点P0,设像素点P0是新区域中所有行所有列的最小像素点。
(2)P0是区域边界的起始像素点。定义一个变量dir来存储之前边界元素到当前边界元素的运动方向。
(3)根据八向邻域搜索算法,假定dir=7,确定了搜索的8个方向,即图2中(a)的0-7对应的方向(如图2中(a)所示)。
(4)根据当前像素点以顺时针方向开始3×3邻域搜索。
(5)若dir是偶数,如图2中(b)所示,其中dir=(dir+7)mod8。若dir是奇数,如图2中(c)所示,其中dir=(dir+6)mod8;找到第一个与当前像素点像素值相等的点即为新的轮廓元素Pn,更新dir。
(6)如果Pn=P1和Pn=P0,其中P1是第二个轮廓元素,Pn-1是之前的轮廓元素。否则,重复步骤4)和5)。
(7)轮廓是由P0,…,Pn-2一系列像素点组成(如图2中(d)所示)。
S40:将从图像中提取的轮廓的面积与预设的面积阈值进行比较,筛选面积大于面积阈值的轮廓作为待检测目标的轮廓。
由于图像中可能存在噪声点,这样会出现部分无用的轮廓。预先设置面积阈值,用于将噪声对应的无意义的轮廓筛选掉,保留面积大于面积阈值的轮廓,作为待检测目标的轮廓。本申请所提供的方法中,通过对轮廓的筛选,能够较好地避免由于噪声点带来的干扰。
S50:确定待检测目标的中心位置和姿态旋转角。在本实施例中,步骤S50具体可通过以下步骤实现。具体地,步骤S50可通过以下具体步骤实现。
S51:采用最小面积外接矩形算法绘制出轮廓图像中的待检测目标轮廓的最小面积外接矩形。
S52:将最小面积外接矩形的几何中心作为待检测目标的中心位置。
S53:将最小面积外接矩形的长边与图像横轴的夹角作为待检测目标的姿态旋转角。
可选地,采用minAreaRect函数拟合轮廓图像中包含的待检测目标轮廓的最小面积外接矩形并返回最小面积外接矩形的四个顶点、中心点坐标以及角度。其中,角度即待检测目标的姿态旋转角θ。
S60:利用待检测目标的中心位置与待检测目标的姿态旋转角对原始深度图像进行仿射变换以获取对应的仿射变换图像。
仿射变换可实现从二维坐标到二维坐标之间的线性变换,且保持二维图形的平直性和平行性。仿射变换可以通过一系列的原子变换的复合来实现,包括平移、缩放、翻转、旋转和剪切。
本实施例一种基于深度图像的目标检测方法中,对待检测目标做仿射变换只需进行平移变换和旋转变换。也就是说,经过仿射变换的待检测目标的大小不会发生变化。平移变换和旋转变换的组合称之为欧式变换或刚体变换。
刚体变换的一般表达式为:
Figure BDA0002322868350000071
其中,
Figure BDA0002322868350000072
为待检测目标坐标点经刚体变换之后的横、纵坐标值,
Figure BDA0002322868350000073
为未经变换之前带检测目标坐标点的横、纵坐标值。
Figure BDA0002322868350000081
A为刚体变换的变换矩阵,该变换矩阵中有3个自由度(θ,tx,ty),θ为待检测目标的姿态旋转角,tx是沿x轴方向平移的距离,ty是沿y轴方向平移的距离。变换矩阵A可利用getRotationMatrix2D函数来获取。
可选地,对原始深度图像进行的刚体变换可以通过以下函数实现:
affine_trans_contour_xld(Contours:ContoursAffinTrans:HomMat2D)
其中,Contours(输入参数):输入原始深度图像的坐标点集,ContoursAffinTrans(输出参数):输出变换的原始深度图像的坐标点集,HomMat2D(输入参数):刚体仿射变换矩阵,如上述矩阵A。
显然,步骤S50能够获取原始深度图像的每一个待检测目标的中心位置和姿态旋转角。此步在对原始深度图像进行刚体变换时,刚体变换的次数与待检测目标个数一一对应,最终得到与待检测目标个数相同的仿射变换图像序列。
S70:对仿射变换图像进行切割以获取待检测目标子图。在本实施例中。此步可根据分辨率最大的待检测目标的分辨率及图像原点坐标对仿射变换图像进行切割以获取待检测目标子图。
可选地,利用cvSetImageROI()函数实现对仿射变换图像的切割操作。该函数的调用格式为void cvSetImageROI(image,CvRect rect),其中,image为待分割的仿射变换图像,CvRect rect为切割矩阵,该矩阵由待检测目标中分辨率最大的待检测目标的分辨率以及原点坐标决定。上述分割过程与仿射变换图像的帧数相等,通过该分割过程能够从仿射变换图像序列中分割出大小相同的待检测目标的子图序列。
基于获取的待检测目标的中心位置和姿态旋转角对原始深度图像进行仿射变换,并将每一个待检测目标分离出来。从而获取姿态矫正后的待检测目标子图,能够使得后续算法对任意姿态的目标进行检测,具有旋转不变性。
S80:对待检测目标子图进行预处理以获取与待检测目标子图对应的一向量。在一具体实施方式中,S80可按如下步骤执行。
S81:选取预设尺寸的滤波器对待检测目标子图进行最大化池化操作以获取对应的特征子图。
最大化池化可以在提取待检测目标子图的显著特征的同时降低过拟合风险。因为最大化池化通过选择子块区域中的最大值,使得待检测目标子图对形变、位置偏移、姿态偏移有一定的抵抗能力。最大化池化操作可以看做是提取了利于识别的有用信息,抛弃了不利于识别的形变、姿态等信息。在本实施例中,对于纹理丰富的待检测目标子图,可仅做2*2最大化池化,对于纹理不丰富的待检测目标子图,可做m*m最大化池化(m>2)。
S82:对特征子图进行扁平化处理,以获取特征子图对应的一向量,向量的维度等于特征子图的像素个数。
S83:对向量进行归一化处理;
归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。可选地,通过简单缩放来实现归一化过程。通过对向量的每一个维度的值进行重新调节,使得向量中每个元素都落在[0,1]的区间内。这对后续的处理十分重要,能够提高后续处理步骤的精度。例如在处理自然图像时,图像的像素值在[0,255]区间内,常用的处理是将这些图像中的像素值除以255,使它们缩放到[0,1]区间内。
其中,简单缩放的归一化公式为:
Figure BDA0002322868350000091
其中,x为向量中任一像素值,min为向量中的最小像素值,max为向量中的最大像素值。
S90:将向量输入到预先训练好的多分类支持向量机,进行图像分类。在一具体实施方式中,S90可按如下步骤执行。
S91:训练多分类支持向量机。
将所有待检测目标子图所对应的向量分为测试集和训练集,设待检测目标总共有N类,测试集和训练集均至少包括每一类别待检测目标中的一个。
由于存在多个类别的待检测目标,因此本实施例可利用为“一对一”多分类算法,也就是对N类待检测目标中的每两类构造一个子分类器,需要构造N(N-1)/2个分类器,每个分类器都对其类别进行判断,并对所属的类别投上一票,得票最多的类别即为所属的类别,训练过程中选择径向基核函数。
S92:采用遗传算法,实现对多分类支持向量机的最优惩罚参数c和最优核函数g参数的自动提取。遗传算法步骤如下:
(1)初始化:随机初始化种群,选择二进制编码方式,将惩罚参数c和核函数g参数进行二进制编码,编码后的c和g形成染色体,设置种群数量K和最大遗传代数M。
(2)适应度估计:将染色体解码,得到惩罚参数c和核函数g参数,将训练样本分为N组,每个子集数据分别做一次验证集,其余的组做训练集,得到N个模型,分别对相应的验证集进行分类并计算分类准确率,将N个模型的分类准确率的平均值作为个体适应度的估计值。
(3)遗传操作:选择、交叉和变异。在所有个体中,选择某些比例适应度比较大的个体保留下来,其余的通过交叉、变异等操作,产生下一代。
(4)判断是否达到最大迭代次数,如果达到了就停止搜索,输出最优的c和g,以及最佳的分类准确率否则就进入第二步,继续搜索。
S93:将测试集中的待检测目标子图所对应的向量输入上述训练好的多分类支持向量机,即可获取该待检测目标所属的类别。
S94:基于待检测目标的分类结果并利用高斯环作为单个像素的特征向量对原始深度图像做实例分割。
实例分割是图像分割的一种,它将场景图像分割成多个区域,每个区域对应一个对象,并注明该区域的类别标签。实例分割是在像素层面识别目标轮廓的任务。本实施例利用基于深度图像的目标检测方法获取的待检测目标的分类标签提供待检测目标的姿态和位置,再通过实例分割对原始深度图像中的每个像素进行分类。
具体而言,在通过上述基于深度图像的图像检测方法获取待检测目标所属的类别的基础上,利用该类别建立和训练与该类别对应的二分类支持向量机。每一个类别对应一个二分类支持向量机。通过二分类支持向量机可对原始深度图像的每一个像素进行实例分割。可选地,利用高斯环作为原始深度图像中单个像素的特征向量对原始深度图像做实例分割,该方法能够获知原始深度图像中任何一个像素是否属于该类别的待检测目标。具体过程如下:
请参阅图3,图3为本申请提供的对原始深度图像进行实例分割一实施例的像素P的高斯环示意图。
(1)选取当前像素p及其半径为3的高斯环上的16个像素;
(2)对高斯环定向:
使用图像积分计算高斯环图像矩:
Figure BDA0002322868350000111
重心C:
Figure BDA0002322868350000112
定向(中心p到重心C的方向):
α=arctan2(m01,m10)
其中,(x,y)表示高斯环上十六个像素的坐标点,I(x,y)表示高斯环上十六个像素的坐标点的像素值,C表示高斯环重心,α为高斯环方向,mpq表示图像矩,p,q取0或1。
(3)以第(2)步的高斯环的方向作为起始位置,顺时针方向对16个像素的像素值进行排列,最后再加像素p的像素值,组成特征向量。
(4)将第(3)步特征向量送入预先训练好的二分类支持向量机进行预测,即可得到p位置的像素分类结果。
本实施例以深度图像作为处理对象,能够避免以RGB图像作为检测对象对纯色弱纹理的待检测目标的检测精度不高的问题,并且由于使用深度图像对待检测目标进行检测而非RGB图像,光线不会对本实施例所提出的方法产生影响,支持无光环境下的作业。本实施例基于获取的待检测目标的中心位置和姿态旋转角对原始深度图像进行仿射变换,将每一个待检测目标进行姿态矫正并分离出来再输入至训练好的多分类支持向量机中,从而获取每个待检测目标的分类标签。本实施例所提供的目标检测方法能够使得多分类支持向量机对任意姿态的待检测目标进行检测,具有旋转不变性。
请参见图4,图4为本申请一种基于深度图像的目标检测装置的结构示意图。在当前实施例中,基于深度图像的目标检测装置100包括处理器101、存储器102以及通信电路103。处理器101与存储器102和通信电路103相互连接。
存储器102用于存储程序数据,该程序数据可被处理器101执行。
处理器101用于运行存储器102中的程序数据,以执行如上的一种基于深度图像的目标检测方法。
通信电路103用于将处理器101的指令发送至机器人的机械结构,以使得机械结构将待检测目标移动至设定区域。
在一应用场景中,本申请所提供的基于深度图像的目标检测装置100可以专用于控制一个机器人。该目标检测装置安装100可安装于机器人上。通信电路103用于获取由深度摄像头拍摄的图像,例如包含待检测目标的原始深度图像或者未放置待检测目标的放置区环境的背景深度图像。通信电路103还可用于将处理器101的指令发送至机器人的机械结构(图未示),以使得机械结构将待检测目标移动至设定区域。具体地,基于深度图像的目标检测装置100在完成识别待检测目标的类型后,由处理器101生成对应的控制指令并通过通信电路103发送至机器人处,以使得机器人上的机械结构旋转对应的角度,完成夹取待检测目标,将待检测目标移送至设定的区域,完成对待检测目标的检测分类。
在另一应用场景中,目标检测装置100还可以用于控制多个机器人,使其完成对原始深度图像的检测分类。即在对待检测目标进行检测分类的过程中,多个机器人是由一个目标检测装置100进行控制,然后执行对待检测目标的检测分类任务。具体地,目标检测装置100在完成识别待检测目标的类型后,由处理器101生成对应的控制指令并由通信电路103发送至多个机器人处,以使得多个机器人上的机械结构旋转对应的角度,完成夹取待检测目标,将待检测目标移送至设定的区域,完成对待检测目标的检测分类。
参见图5,图5为本申请提供一种存储介质的结构示意图。该存储介质200存储有程序数据201,该程序数据201被执行时可实现如上的一种基于深度图像的目标检测方法。具体地,上述具有存储功能的存储介质200可以是存储器、个人计算机、服务器、网络设备,或者U盘等其中的一种。
以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (17)

1.一种基于深度图像的目标检测方法,其特征在于,所述方法包括:
确定原始深度图像的待检测目标的中心位置和姿态旋转角;
利用所述待检测目标的中心位置与所述待检测目标的姿态旋转角对所述原始深度图像进行仿射变换以获取对应的仿射变换图像;
对所述仿射变换图像进行切割以获取所述待检测目标子图;
对所述待检测目标子图进行预处理以获取与所述待检测目标子图对应的一向量;
将所述向量输入到预先训练好的多分类支持向量机,进行图像分类。
2.根据权利要求1所述的方法,其特征在于,所述确定原始深度图像的待检测目标的中心位置和姿态旋转角的步骤包括:
利用预设的阈值序列分别对包含所述待检测目标的所述原始深度图像的前景目标图像进行分层二值化以获取图像序列;
对所述图像提取所述待检测目标的轮廓以获取对应的轮廓图像;
确定所述轮廓图像中的所述待检测目标轮廓的最小面积外接矩形并根据所述矩形的特征获取所述待检测目标的中心位置和姿态旋转角。
3.根据权利要求2所述的方法,其特征在于,所述利用预设的阈值序列分别对包含所述待检测目标的所述原始深度图像的前景目标图像进行分层二值化以获取图像序列步骤之前,还包括:
获取一张不放置所述待检测目标的放置区环境的背景深度图像;
将包含所述待检测目标的所述原始深度图像与所述背景深度图像逐像素做差并取绝对值,以获取所述前景目标图像。
4.根据权利要求2所述的方法,其特征在于,所述利用预设的阈值序列分别对包含所述待检测目标的所述原始深度图像的前景目标图像进行分层二值化以获取图像序列的步骤之前,包括:
基于所述待检测目标的高度序列获取所述阈值序列。
5.根据权利要求4所述的方法,其特征在于,所述基于所述待检测目标的高度序列来获取所述阈值序列的步骤包括:
将所述待检测目标的高度序列按照递增或递减的顺序排列再两两取均值以获取所述阈值序列。
6.根据权利要求2所述的方法,其特征在于,所述利用预设的阈值序列分别对包含所述待检测目标的所述原始深度图像的前景目标图像进行分层二值化以获取图像序列的步骤,包括:
将所述阈值序列按递减的顺序分别设其为T1,…,TN
取所述T1对所述前景目标图像进行二值化以获取第1图层;
对所述第1图层进行膨胀处理以获取第1图像;
取所述Ts+1对所述前景目标图像进行二值化并将得到的二值化图层与第s图像进行异或处理以获取第s+1图层;
对所述第s+1图层进行膨胀处理以获取第s+1图像;
其中,s取1至N-1,N表示在所述原始深度图像中待检测目标类别的个数。
7.根据权利要求2所述的方法,其特征在于,所述对所述图像提取所述待检测目标的轮廓以获取对应的轮廓图像的步骤包括:
提取并连接所述图像中像素值相同且连续的像素点,以获取所述待检测目标的轮廓。
8.根据权利要求2所述的方法,其特征在于,所述对所述图像提取所述待检测目标的轮廓以获取对应的轮廓图像的步骤之后,还包括:
将从所述图像中提取的轮廓的面积与预设的面积阈值进行比较,筛选面积大于所述面积阈值的轮廓作为所述待检测目标的轮廓。
9.根据权利要求2所述的方法,其特征在于,所述确定所述轮廓图像中的所述待检测目标轮廓的最小面积外接矩形并根据所述矩形的特征获取所述待检测目标的中心位置和姿态旋转角的步骤包括:
采用最小面积外接矩形算法绘制出所述轮廓图像中的所述待检测目标轮廓的最小面积外接矩形;
将所述最小面积外接矩形的几何中心作为所述待检测目标的中心位置;
将所述最小面积外接矩形的长边与图像横轴的夹角作为所述待检测目标的姿态旋转角。
10.根据权利要求1所述的方法,其特征在于,所述利用所述待检测目标的中心位置与所述待检测目标的姿态旋转角对所述原始深度图像进行仿射变换以获取对应的仿射变换图像的步骤包括:
利用所述待检测目标的中心位置与所述待检测目标的姿态旋转角对所述原始深度图像进行平移变换和旋转变换。
11.根据权利要求1所述的方法,其特征在于,所述对所述仿射变换图像进行切割以获取所述待检测目标子图的步骤包括:
根据分辨率最大的所述待检测目标的所述分辨率及图像原点坐标对所述仿射变换图像进行切割以获取所述待检测目标子图。
12.根据权利要求1所述的方法,其特征在于,所述对所述待检测目标子图进行预处理以获取与所述待检测目标子图对应的一向量的步骤包括:
选取预设尺寸的滤波器对所述待检测目标子图进行最大化池化操作以获取对应的特征子图;
对所述特征子图进行扁平化处理,以获取与所述特征子图对应的一向量,所述向量的维度等于所述特征子图的像素个数;
对所述向量进行归一化处理;
其中,归一化公式为:
Figure FDA0002322868340000031
其中,x为所述向量中任一像素值,min为所述向量中的最小像素值,max为所述向量中的最大像素值。
13.根据权利要求1所述的方法,其特征在于,所述将所述向量输入到预先训练好的多分类支持向量机,进行图像分类的步骤之前,还包括:
利用训练集对所述多分类支持向量机进行训练;
采用遗传算法,实现对所述多分类支持向量机的最优参数的自动提取。
14.根据权利要求13所述的方法,其特征在于,所述训练集为从所有所述向量中随机抽取的一部分。
15.根据权利要求1所述的方法,其特征在于,所述将所述向量输入到预先训练好的多分类支持向量机,进行图像分类的步骤之后,包括:
基于所述待检测目标的分类结果并利用高斯环作为所述原始深度图像中单个像素的特征向量对所述原始深度图像做实例分割。
16.一种基于深度图像的目标检测装置,其特征在于,包括:
一个或多个处理器;
存储器,耦接所述处理器,用于存储一个或多个程序;
通信电路,耦接所述处理器,用于将所述处理器的指令发送至机器人的机械结构,以使得所述机械结构将所述待检测目标移动至设定区域;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-15中任一项所述的基于深度图像的目标检测方法。
17.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时实现如权利要求1-15中任一项所述的基于深度图像的目标检测方法。
CN201911305132.4A 2019-12-17 2019-12-17 基于深度图像的目标检测方法、装置及存储介质 Active CN111178190B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911305132.4A CN111178190B (zh) 2019-12-17 2019-12-17 基于深度图像的目标检测方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911305132.4A CN111178190B (zh) 2019-12-17 2019-12-17 基于深度图像的目标检测方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN111178190A true CN111178190A (zh) 2020-05-19
CN111178190B CN111178190B (zh) 2023-10-27

Family

ID=70647302

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911305132.4A Active CN111178190B (zh) 2019-12-17 2019-12-17 基于深度图像的目标检测方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN111178190B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111982911A (zh) * 2020-07-10 2020-11-24 深圳先进技术研究院 一种电路板缺陷的检测方法、装置、终端设备及存储介质
CN112528829A (zh) * 2020-12-07 2021-03-19 中国科学院深圳先进技术研究院 一种基于视觉的非结构化道路的居中行驶方法
CN113643208A (zh) * 2021-08-24 2021-11-12 凌云光技术股份有限公司 一种深度图像仿射采样方法及装置
CN114612939A (zh) * 2022-03-25 2022-06-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯
CN116012607A (zh) * 2022-01-27 2023-04-25 华南理工大学 图像弱纹理特征提取方法及装置、设备、存储介质
CN116612043A (zh) * 2023-06-02 2023-08-18 萱闱(北京)生物科技有限公司 一种图像处理方法、装置、设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102792317A (zh) * 2010-03-11 2012-11-21 高通股份有限公司 基于多个特征检测器的应用的图像特征检测
CN104636725A (zh) * 2015-02-04 2015-05-20 华中科技大学 一种基于深度图像的手势识别方法与系统
CN106846324A (zh) * 2017-01-16 2017-06-13 河海大学常州校区 一种基于Kinect的非规则物体高度测量方法
CN108139757A (zh) * 2015-09-11 2018-06-08 深圳市大疆创新科技有限公司 用于检测和跟踪可移动物体的系统和方法
CN108734696A (zh) * 2017-04-18 2018-11-02 三星显示有限公司 用于白点Mura检测的系统及方法
CN109584281A (zh) * 2018-10-30 2019-04-05 江苏大学 一种基于彩色图像和深度图像的重叠颗粒物分层计数方法
CN109815975A (zh) * 2018-12-14 2019-05-28 中国科学院深圳先进技术研究院 一种基于机器人的目标分类方法及相关装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102792317A (zh) * 2010-03-11 2012-11-21 高通股份有限公司 基于多个特征检测器的应用的图像特征检测
CN104636725A (zh) * 2015-02-04 2015-05-20 华中科技大学 一种基于深度图像的手势识别方法与系统
CN108139757A (zh) * 2015-09-11 2018-06-08 深圳市大疆创新科技有限公司 用于检测和跟踪可移动物体的系统和方法
CN106846324A (zh) * 2017-01-16 2017-06-13 河海大学常州校区 一种基于Kinect的非规则物体高度测量方法
CN108734696A (zh) * 2017-04-18 2018-11-02 三星显示有限公司 用于白点Mura检测的系统及方法
CN109584281A (zh) * 2018-10-30 2019-04-05 江苏大学 一种基于彩色图像和深度图像的重叠颗粒物分层计数方法
CN109815975A (zh) * 2018-12-14 2019-05-28 中国科学院深圳先进技术研究院 一种基于机器人的目标分类方法及相关装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏琳;黄鑫材;: "Kinect深度信息的研究及其在检测中的应用", 杭州电子科技大学学报, no. 05 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111982911A (zh) * 2020-07-10 2020-11-24 深圳先进技术研究院 一种电路板缺陷的检测方法、装置、终端设备及存储介质
CN111982911B (zh) * 2020-07-10 2023-08-25 深圳先进技术研究院 一种电路板缺陷的检测方法、装置、终端设备及存储介质
CN112528829A (zh) * 2020-12-07 2021-03-19 中国科学院深圳先进技术研究院 一种基于视觉的非结构化道路的居中行驶方法
CN112528829B (zh) * 2020-12-07 2023-10-24 中国科学院深圳先进技术研究院 一种基于视觉的非结构化道路的居中行驶方法
CN113643208A (zh) * 2021-08-24 2021-11-12 凌云光技术股份有限公司 一种深度图像仿射采样方法及装置
CN116012607A (zh) * 2022-01-27 2023-04-25 华南理工大学 图像弱纹理特征提取方法及装置、设备、存储介质
CN116012607B (zh) * 2022-01-27 2023-09-01 华南理工大学 图像弱纹理特征提取方法及装置、设备、存储介质
CN114612939A (zh) * 2022-03-25 2022-06-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯
CN114612939B (zh) * 2022-03-25 2023-01-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯
CN116612043A (zh) * 2023-06-02 2023-08-18 萱闱(北京)生物科技有限公司 一种图像处理方法、装置、设备和存储介质
CN116612043B (zh) * 2023-06-02 2024-04-02 萱闱(北京)生物科技有限公司 一种图像处理方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN111178190B (zh) 2023-10-27

Similar Documents

Publication Publication Date Title
CN111178190B (zh) 基于深度图像的目标检测方法、装置及存储介质
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
CN109753885B (zh) 一种目标检测方法、装置以及行人检测方法、系统
JP5916886B2 (ja) 画像特徴の類似性に基づく画像索引作成
Quan et al. Lacunarity analysis on image patterns for texture classification
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN109033989B (zh) 基于三维点云的目标识别方法、装置及存储介质
CN107025442B (zh) 一种基于颜色和深度信息的多模态融合手势识别方法
Uchiyama et al. Toward augmenting everything: Detecting and tracking geometrical features on planar objects
Peng et al. Recognition of low-resolution logos in vehicle images based on statistical random sparse distribution
Pervej et al. Real-time computer vision-based bangla vehicle license plate recognition using contour analysis and prediction algorithm
CN109785283B (zh) 一种用于织物分割的纹理特征匹配方法及装置
Mishchenko et al. Model-based chart image classification
Tribak et al. QR code patterns localization based on Hu Invariant Moments
Viet et al. A robust end-to-end information extraction system for Vietnamese identity cards
KR101733288B1 (ko) 방향정보를 이용한 객체 검출기 생성 방법, 이를 이용한 객체 검출 장치 및 방법
US10115195B2 (en) Method and apparatus for processing block to be processed of urine sediment image
US20230410561A1 (en) Method and apparatus for distinguishing different configuration states of an object based on an image representation of the object
CN115830359A (zh) 复杂场景下基于目标检测和模板匹配的工件识别计数方法
Palmer et al. Scale proportionate histograms of oriented gradients for object detection in co-registered visual and range data
Jia et al. Grayscale-projection based optimal character segmentation for camera-captured faint text recognition
CN112434712A (zh) 一种基于尺度和角度自适应选取的局部二值模式纹理图像特征提取方法及系统
US11715222B1 (en) Quasi-rotation-invariant shape descriptor
CN113673363B (zh) 结合表观相似度与奇异点匹配个数的手指静脉识别方法
JP2019021100A (ja) 画像探索装置、商品認識装置および画像探索プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant