CN109615647A - 目标检测方法和装置 - Google Patents
目标检测方法和装置 Download PDFInfo
- Publication number
- CN109615647A CN109615647A CN201811242514.2A CN201811242514A CN109615647A CN 109615647 A CN109615647 A CN 109615647A CN 201811242514 A CN201811242514 A CN 201811242514A CN 109615647 A CN109615647 A CN 109615647A
- Authority
- CN
- China
- Prior art keywords
- mask
- depth
- depth image
- candidate regions
- testing result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标检测方法和装置,涉及计算机技术领域。该方法包括:获取彩色图像;获取深度图像;根据彩色图像,获取检测目标;根据检测目标,获取候选区;根据深度图像和候选区,获取检测结果。本发明中,通过获取深度图像,并结合彩色图像,不仅能够提高检测精度,而且能够提高检测速度。
Description
技术领域
本发明涉及计算机技术领域,特别涉及目标检测方法和装置。
背景技术
利用传统相机进行目标检测是计算视觉中的一个重要领域,是许多计算视觉感知世界的基础算法。目标检测起源算法是模版匹配,利用滑动窗口从左到右、从上到下滑动,进行分类和识别目标。后来,卷积神经网络(Convolutional Neural Network,CNN)替代了原始的滑窗方式,成为分类算法的主流思想。现有技术中,通过进行候选区(Region ofInterest,ROI)的选择,进行CNN分类,通过使用更少且质量更高的ROI,提高滑窗的速度及精度,该方法需要非常多的候选区以提升准确率。
但是,现有技术在选择的候选区中有很多区域彼此重叠,因此该方法对目标检测的精度较低。
发明内容
本发明实施例提供了一种目标检测方法和装置。旨在解决目标检测精度较低的问题。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
根据本发明实施例的第一方面,提供了一种目标检测方法,包括:
获取彩色图像;
获取深度图像;
根据彩色图像,获取检测目标;
根据检测目标,获取候选区;
根据深度图像和候选区,获取检测结果。
可选的,根据深度图像和候选区,获取检测结果,包括:
根据深度图像,获取掩码图;
根据掩码图和候选区,获取检测结果。
可选的,根据深度图像,获取掩码图,包括:
在深度图像上将深度大于深度阈值的像素标记不同的掩码数;
根据掩码数,获取掩码图。
可选的,检测结果包括检测目标的类别和位置。
根据本发明实施例的第二方面,提供了一种目标检测装置,包括:
彩色摄像头,用于获取彩色图像;
深度摄像头,用于获取深度图像;
处理器,用于根据彩色摄像头获取的彩色图像,获取检测目标;
根据检测目标,获取候选区;
根据深度摄像头获取的深度图像和候选区,获取检测结果。
可选的,处理器,还用于根据深度图像,获取掩码图;
根据掩码图和候选区,获取检测结果。
可选的,处理器还用于,在深度图像上将深度大于深度阈值的像素标记不同的掩码数;
根据掩码数,获取掩码图。
可选的,检测结果包括检测目标的类别和位置。
本发明公开的技术方案,通过获取深度图像,可以获取物体与摄像头之间的位置关系,结合彩色图像,可以进一步获取物体的实际位置和大小。还原物体的实际大小后,可以使锚点位置相对固定,且减少锚点的数量,不仅能够提高检测精度,而且能够提高检测速度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是本发明实施例公开的一种目标检测方法的流程图;
图2是本发明实施例公开的一种锚点的示意图;
图3是本发明实施例公开的一种目标检测装置的示意图。
具体实施方式
以下描述和附图充分地示出本发明的具体实施方案,以使本领域的技术人员能够实践它们。实施例仅代表可能的变化。除非明确要求,否则单独的部件和功能是可选的,并且操作的顺序可以变化。一些实施方案的部分和特征可以被包括在或替换其他实施方案的部分和特征。本发明的实施方案的范围包括权利要求书的整个范围,以及权利要求书的所有可获得的等同物。在本文中,各实施方案可以被单独地或总地用术语“发明”来表示,这仅仅是为了方便,并且如果事实上公开了超过一个的发明,不是要自动地限制该应用的范围为任何单个发明或发明构思。本文中,诸如第一和第二等之类的关系术语仅仅用于将一个实体或者操作与另一个实体或操作区分开来,而不要求或者暗示这些实体或操作之间存在任何实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素。本文中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的结构、产品等而言,由于其与实施例公开的部分相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本发明实施例公开了一种目标检测方法,如图1所示,包括:
S101、获取彩色图像;
S102、获取深度图像;
S103、根据彩色图像,获取检测目标;
S104、根据检测目标,获取候选区;
S105、根据深度图像和候选区,获取检测结果。
其中,在S101和S102中,分别获取彩色图像和深度图像,示例性的,彩色图像可以由彩色摄像头获取,如普通RGB摄像头等,深度图像可以由深度摄像头获取,包括但不限于飞行时间(Time of Flight,TOF)成像摄像头、双目成像摄像头、结构光摄像头等深度摄像头,其相对距离精度均可以达到厘米级。在S105中,检测结果可以包括检测目标的类别和位置。
在S103中,如图2所示,可以在彩色图像的每个像素点上,设置k个锚点,每个锚点对应一个特定位置,即,需要以每个位置为中心的k个锚点,对该位置进行k个预测。特别的,每个预测与特定锚点相关联,但不同位置可以共享相同形状的锚点。本领域技术人员可以根据实际需求,设置锚点的形状和位置,以覆盖具有不同比例和宽高比的现实目标。
在S104中,候选区可以根据检测目标,通过深度学习等方式获取。
由于物体在摄像机中成像后,其大小及长宽比等信息都会受到该物体与摄像头之间的距离关系和位置关系等影响。本发明公开的技术方案,通过获取深度图像,可以获取物体与摄像头之间的位置关系,结合彩色图像,可以进一步获取物体的实际位置和大小。还原物体的实际大小后,可以使锚点位置相对固定,且减少锚点的数量,不仅能够提高检测精度,而且能够提高检测速度。
现有技术中,多个候选区的重复性会造成目标检测的假阳率增高,在物体本身之间没有重叠或重叠度较低的情况下效果尚可,但是如果图像中存在物体重叠时则效果并不理想,会造成极大的漏检情况。本发明公开的技术方案中,通过获取并利用深度图像可以很好的解决该问题。当不同的物体在传统摄像头上有重叠时,在深度图像中可以精准的确定相互重叠物体的差别,从而避免由重叠造成的漏检情况。
可选的,S105还可以包括:
S1051、根据深度图像,获取掩码图;
S1052、根据掩码图和候选区,获取检测结果。
可选的,获取掩码图可以包括:在深度图像上将深度大于深度阈值的像素标记不同的掩码数,根据掩码数,获取掩码图。
示例性的,两个像素点的位置分别为1和2,其深度分别为h1和h2,当确定深度阈值为0.2m时,如果|h1-h2|>0.2m,那么1和2两个位置将被标记不同的掩码数。进一步的,可以将掩码图中不同掩码数的区域标记为不同的颜色,如四色掩码图,使用0、1、2、3四个数进行编码,将距离信息大于设定阈值范围的像素位置编码成不同的掩码数,用于画出彼此重叠的物体边界。
本发明实施例还公开了一种目标检测装置30,如图3所示,包括:
彩色摄像头301,用于获取彩色图像;
深度摄像头302,用于获取深度图像;
处理器303,用于根据彩色摄像头301获取的彩色图像,获取检测目标;根据检测目标,获取候选区;根据深度摄像头302获取的深度图像和候选区,获取检测结果。
可选的,检测结果可以包括检测目标的类别和位置。
可选的,处理器303还可以用于:
根据深度图像,获取掩码图;
根据掩码图和候选区,获取检测结果。
可选的,处理器303还可以用于:
在深度图像上将深度大于深度阈值的像素标记不同的掩码数;
根据掩码数,获取掩码图。
本发明实施例公开的目标检测装置30,可以用于执行如图1所示的方法。
上述仅为示例,本领域技术人员还可以在不付出创造性努力的情况下,组合出更多可选的实施方式。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的流程及结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (8)
1.一种目标检测方法,其特征在于,包括:
获取彩色图像;
获取深度图像;
根据所述彩色图像,获取检测目标;
根据所述检测目标,获取候选区;
根据所述深度图像和所述候选区,获取所述检测结果。
2.根据权利要求1所述的方法,其特征在于,根据所述深度图像和所述候选区,获取所述检测结果,包括:
根据所述深度图像,获取掩码图;
根据所述掩码图和所述候选区,获取所述检测结果。
3.根据权利要求2所述的方法,其特征在于,根据所述深度图像,获取所述掩码图,包括:
在所述深度图像上将深度大于深度阈值的像素标记不同的掩码数;
根据所述掩码数,获取所述掩码图。
4.根据权利要求1所述的方法,其特征在于,所述检测结果包括所述检测目标的类别和位置。
5.一种目标检测装置,包括:
彩色摄像头,用于获取彩色图像;
深度摄像头,用于获取深度图像;
处理器,用于根据所述彩色摄像头获取的所述彩色图像,获取检测目标;
根据所述检测目标,获取候选区;
根据所述深度摄像头获取的所述深度图像和所述候选区,获取所述检测结果。
6.根据权利要求5所述的装置,其特征在于,
所述处理器,还用于根据所述深度图像,获取掩码图;
根据所述掩码图和所述候选区,获取所述检测结果。
7.根据权利要求6所述的装置,其特征在于,
所述处理器还用于,在所述深度图像上将深度大于深度阈值的像素标记不同的掩码数;
根据所述掩码数,获取所述掩码图。
8.根据权利要求5所述的装置,其特征在于,所述检测结果包括所述检测目标的类别和位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811242514.2A CN109615647A (zh) | 2018-10-24 | 2018-10-24 | 目标检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811242514.2A CN109615647A (zh) | 2018-10-24 | 2018-10-24 | 目标检测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109615647A true CN109615647A (zh) | 2019-04-12 |
Family
ID=66002492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811242514.2A Pending CN109615647A (zh) | 2018-10-24 | 2018-10-24 | 目标检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109615647A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584297A (zh) * | 2018-10-24 | 2019-04-05 | 北京升哲科技有限公司 | 目标检测方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
US20130148853A1 (en) * | 2011-12-12 | 2013-06-13 | Samsung Electronics Co., Ltd. | Image processing apparatus and image processing method |
CN105374030A (zh) * | 2015-10-12 | 2016-03-02 | 北京深视科技有限公司 | 一种背景模型和运动物体检测方法及系统 |
CN106778614A (zh) * | 2016-12-16 | 2017-05-31 | 中新智擎有限公司 | 一种人体识别方法和装置 |
CN107563347A (zh) * | 2017-09-20 | 2018-01-09 | 南京行者易智能交通科技有限公司 | 一种基于tof相机的客流计数方法和装置 |
CN109584297A (zh) * | 2018-10-24 | 2019-04-05 | 北京升哲科技有限公司 | 目标检测方法和装置 |
-
2018
- 2018-10-24 CN CN201811242514.2A patent/CN109615647A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
US20130148853A1 (en) * | 2011-12-12 | 2013-06-13 | Samsung Electronics Co., Ltd. | Image processing apparatus and image processing method |
CN105374030A (zh) * | 2015-10-12 | 2016-03-02 | 北京深视科技有限公司 | 一种背景模型和运动物体检测方法及系统 |
CN106778614A (zh) * | 2016-12-16 | 2017-05-31 | 中新智擎有限公司 | 一种人体识别方法和装置 |
CN107563347A (zh) * | 2017-09-20 | 2018-01-09 | 南京行者易智能交通科技有限公司 | 一种基于tof相机的客流计数方法和装置 |
CN109584297A (zh) * | 2018-10-24 | 2019-04-05 | 北京升哲科技有限公司 | 目标检测方法和装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109584297A (zh) * | 2018-10-24 | 2019-04-05 | 北京升哲科技有限公司 | 目标检测方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8406510B2 (en) | Methods for evaluating distances in a scene and apparatus and machine readable medium using the same | |
CN111127318B (zh) | 一种机场环境下的全景图像拼接方法 | |
CN108090911B (zh) | 一种光学遥感图像的近岸舰船分割方法 | |
CN104685513B (zh) | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 | |
CN103916654B (zh) | 获得深度信息的方法和显示设备 | |
CN104200461B (zh) | 基于互信息图像选块和sift特征的遥感图像配准方法 | |
CN105488811B (zh) | 一种基于深度梯度的目标跟踪方法与系统 | |
CN109685732A (zh) | 一种基于边界捕捉的深度图像高精度修复方法 | |
CN103198476B (zh) | 一种粗线型十字圆环标记的图像检测方法 | |
CN109446978B (zh) | 基于凝视卫星复杂场景的飞机动目标跟踪方法 | |
CN110390292A (zh) | 基于动态关联模型的遥感视频车辆目标检测与跟踪方法 | |
CN111709968B (zh) | 一种基于图像处理的低空目标探测跟踪方法 | |
KR102098687B1 (ko) | 영상 모서리 정렬 기반 영상 항법 및 장치 | |
CN109584297A (zh) | 目标检测方法和装置 | |
CN104851089A (zh) | 一种基于三维光场的静态场景前景分割方法和装置 | |
CN104813343A (zh) | 具有边缘选择功能的图像处理器 | |
CN106780309A (zh) | 一种合成孔径雷达图像拼接方法 | |
CN103743750A (zh) | 一种大口径光学元件表面损伤分布图的生成方法 | |
Prasad et al. | Epipolar geometry based learning of multi-view depth and ego-motion from monocular sequences | |
CN113129307A (zh) | 图像分割方法以及图像分割装置 | |
JP5900017B2 (ja) | 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム | |
CN112465702B (zh) | 一种多路超高清视频同步自适应拼接显示处理方法 | |
Ramakrishnan et al. | Adaptive window strategy for high-speed and robust KLT feature tracker | |
CN109615647A (zh) | 目标检测方法和装置 | |
KR101777696B1 (ko) | 면적 대칭성을 이용한 에지 위치 결정 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190412 |