CN108537843A - 根据深度图像得到景深距离的方法及装置 - Google Patents
根据深度图像得到景深距离的方法及装置 Download PDFInfo
- Publication number
- CN108537843A CN108537843A CN201810201909.1A CN201810201909A CN108537843A CN 108537843 A CN108537843 A CN 108537843A CN 201810201909 A CN201810201909 A CN 201810201909A CN 108537843 A CN108537843 A CN 108537843A
- Authority
- CN
- China
- Prior art keywords
- depth
- target object
- image information
- information
- field distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请公开了一种根据深度图像得到景深距离的方法及装置。该方法包括:获取深度信息并处理得到景深距离的方式,通过获取包含目标物体的图像信息;对所述图像信息进行处理得到深度图像信息;在所述深度图像信息中分割出所述目标物体的深度图像信息;根据所述目标物体的深度图像信息确定所述目标物体的景深距离。达到了获得跟踪对象的景深距离的目的,从而实现了快速定位跟踪对象,准确实时获得跟踪对象景深距离的技术效果,而且方法简单,计算量小,能有效降低对硬件的要求,易于实现及推广使用。
Description
技术领域
本申请涉及图像识别技术领域,具体而言,涉及一种根据深度图像得到景深距离的方法及装置。
背景技术
随着机器人领域的快速深入发展,人机交互技术也越来越成为研究的热点之一。其中智能人体跟随是移动机器人领域中主要的研究部分,该技术可以更好的服务用户,提高并完善人机交互的智能性,对用户发出的指令做出有效的应答。进行跟随的前提是机器人能够识别出其需要进行跟随的对象以及与跟随对象之间的距离。目前应用于机器人的跟随方法有多种,例如基于超声波处理、基于红外处理、基于视觉图像处理等,其本质都是为了提高测量的准确度。
但是,相关技术中仍然存在跟随过程容易因为受到干扰而跟踪失败以及发生与跟随对象发生碰撞或距离太远等情况。
针对相关技术中存在的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种根据深度图像得到景深距离的方法及装置,以解决相关技术中存在的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种根据深度图像得到景深距离的方法。
根据本申请的根据深度图像得到景深距离的方法包括:
获取包含目标物体的图像信息;
对所述图像信息进行处理得到深度图像信息;
在所述深度图像信息中分割出所述目标物体的深度图像信息;
根据所述目标物体的深度图像信息确定所述目标物体的景深距离。
进一步的,如前述的根据深度图像得到景深距离的方法,所述获取包含目标物体的图像信息,包括:
获取包含所述目标物体的视频信息;
在所述视频信息中确定包括所述目标物体的所述图像信息。
进一步的,如前述的根据深度图像得到景深距离的方法,所述在所述深度图像信息中分割出所述目标物体的深度图像信息,包括:
预先确定目标物体的形状特征;
根据所述形状特征在所述深度图像信息中匹配出对应的目标物体;
分割出所述目标物体的深度图像信息。
进一步的,如前述的根据深度图像得到景深距离的方法,所述根据所述目标物体的深度图像信息确定所述目标物体的景深距离,包括:
获得所述深度图像信息中目标物体上各个像素点i的深度信息pi(x,y);
根据各个像素点i的深度信息pi(x,y)计算出所述目标物体深度信息的均值作为所述景深距离,其中n为所述目标物体上像素点的个数。
为了实现上述目的,根据本申请的另一方面,提供了一种根据深度图像得到景深距离的装置。
根据本申请的根据深度图像得到景深距离的装置包括:
目标图像获取单元,用于获取包含目标物体的图像信息;
深度图像信息确定单元,用于对所述图像信息进行处理得到深度图像信息;
目标信息分割单元,用于在所述深度图像信息中分割出所述目标物体的深度图像信息;
景深距离计算单元,用于根据所述目标物体的深度图像信息确定所述目标物体的景深距离。
进一步的,如前述的根据深度图像得到景深距离的装置,所述目标图像获取单元,包括:
视频信息获取模块,用于获取包含所述目标物体的视频信息;
目标图像确定模块,用于在所述视频信息中确定包括所述目标物体的所述图像信息。
进一步的,如前述的根据深度图像得到景深距离的装置,所述目标信息分割单元,包括:
形状特征确定模块,用于预先确定目标物体的形状特征;
匹配模块,用于根据所述形状特征在所述深度图像信息中匹配出对应的目标物体;
分割模块,用于分割出所述目标物体的深度图像信息。
进一步的,如前述的根据深度图像得到景深距离的装置,所述景深距离计算单元,包括:
像素点获得模块,用于获得所述深度图像信息中目标物体上各个像素点i的深度信息pi(x,y);
景深距离计算模块,用于根据各个像素点i的深度信息pi(x,y)计算出所述目标物体深度信息的均值作为所述景深距离,其中n为所述目标物体上像素点的个数。
在本申请实施例中,采用通过获取深度信息并处理得到景深距离的方式,通过获取包含目标物体的图像信息;对所述图像信息进行处理得到深度图像信息;在所述深度图像信息中分割出所述目标物体的深度图像信息;根据所述目标物体的深度图像信息确定所述目标物体的景深距离。达到了获得跟踪对象的景深距离的目的,从而实现了快速定位跟踪对象,准确实时获得跟踪对象景深距离的技术效果,而且方法简单,计算量小,能有效降低对硬件的要求,易于实现及推广使用。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本申请一种实施例的方法流程示意图;以及
图2是本申请一种实施例的装置结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
根据本申请的一个方面,提供了一种根据深度图像得到景深距离的方法。
如图1所示,该方法包括如下的步骤S1至步骤S4:
S1.获取包含目标物体的图像信息;
S2.对所述图像信息进行处理得到深度图像信息;
S3.在所述深度图像信息中分割出所述目标物体的深度图像信息;
S4.根据所述目标物体的深度图像信息确定所述目标物体的景深距离。
在一些实施例中,如前述的根据深度图像得到景深距离的方法,所述获取包含目标物体的图像信息,包括:
获取包含所述目标物体的视频信息;优选的,通过kinect获得所述视频信息;kinect有三个镜头,中间的镜头是RGB彩色摄像头,左右两边镜头则分别为红外线发射器和红外线CMOS摄像机所构成的3D深度感应器。Kinect通过发射近红外线光源来获取深度图像信息;
在所述视频信息中确定包括所述目标物体的所述图像信息。一般的,对所述视频信息中的每一帧图像进行验证确定,直至在图像中检测到目标物体后启动跟踪行为。
在一些实施例中,如前述的根据深度图像得到景深距离的方法,所述在所述深度图像信息中分割出所述目标物体的深度图像信息,包括:
预先确定目标物体的形状特征;
根据所述形状特征在所述深度图像信息中匹配出对应的目标物体;
分割出所述目标物体的深度图像信息。
具体的,若追踪对象为人体,则优选的将所述目标物体的形状特征设置为大字形;然后系统对实时获取的视频图像进行匹配校验,查询其中是否存在大字形的放入物体,当匹配到大字形物体后,将该物体的深度图像信息分割出来,得到追踪对象人体的深度图像信息。采用此方法进行目标物体的深度图像信息的分割,可以准确分割出相应的目标物体,同时方法简单,可以有效减小硬件处理及计算量,能有效降低对硬件的要求,易于实现及推广使用。
在一些实施例中,如前述的根据深度图像得到景深距离的方法,所述根据所述目标物体的深度图像信息确定所述目标物体的景深距离,包括:
获得所述深度图像信息中目标物体上各个像素点i的深度信息pi(x,y);优选的,可以按照以以所述图像的中心或四角上的任一点作为原点,以所述图像信息的长宽方向为x轴和y轴的方法,将所述图像信息中的每点像素都定义具体的坐标,以便于之后进行计算及定位相应的像素点位置。
根据各个像素点i的深度信息pi(x,y)计算出所述目标物体深度信息的均值作为所述景深距离,其中n为所述目标物体上像素点的个数。采用此方法能够得到所述目标物体的平均景深距离,能够有效避免因为采集了一个非常规点导致的测量距离偏差较大的情况。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本发明实施例,还提供了一种用于实施上述根据深度图像得到景深距离的方法的根据深度图像得到景深距离的装置,如图2所示,该装置包括:
目标图像获取单元1,用于获取包含目标物体的图像信息;
深度图像信息确定单元2,用于对所述图像信息进行处理得到深度图像信息;
目标信息分割单元3,用于在所述深度图像信息中分割出所述目标物体的深度图像信息;
景深距离计算单元4,用于根据所述目标物体的深度图像信息确定所述目标物体的景深距离。
在一些实施例中,如前述的根据深度图像得到景深距离的装置,所述目标图像获取单元,包括:
视频信息获取模块,用于获取包含所述目标物体的视频信息;
目标图像确定模块,用于在所述视频信息中确定包括所述目标物体的所述图像信息。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
在一些实施例中,如前述的根据深度图像得到景深距离的装置,所述目标信息分割单元,包括:
形状特征确定模块,用于预先确定目标物体的形状特征;
匹配模块,用于根据所述形状特征在所述深度图像信息中匹配出对应的目标物体;
分割模块,用于分割出所述目标物体的深度图像信息。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
在一些实施例中,如前述的根据深度图像得到景深距离的装置,所述景深距离计算单元,包括:
像素点获得模块,用于获得所述深度图像信息中目标物体上各个像素点i的深度信息pi(x,y);
景深距离计算模块,用于根据各个像素点i的深度信息pi(x,y)计算出所述目标物体深度信息的均值作为所述景深距离,其中n为所述目标物体上像素点的个数。
具体的,本发明实施例的装置中各模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (8)
1.一种根据深度图像得到景深距离的方法,其特征在于,包括:
获取包含目标物体的图像信息;
对所述图像信息进行处理得到深度图像信息;
在所述深度图像信息中分割出所述目标物体的深度图像信息;
根据所述目标物体的深度图像信息确定所述目标物体的景深距离。
2.根据权利要求1所述的根据深度图像得到景深距离的方法,其特征在于,所述获取包含目标物体的图像信息,包括:
获取包含所述目标物体的视频信息;
在所述视频信息中确定包括所述目标物体的所述图像信息。
3.根据权利要求1所述的根据深度图像得到景深距离的方法,其特征在于,所述在所述深度图像信息中分割出所述目标物体的深度图像信息,包括:
预先确定目标物体的形状特征;
根据所述形状特征在所述深度图像信息中匹配出对应的目标物体;
分割出所述目标物体的深度图像信息。
4.根据权利要求1所述的根据深度图像得到景深距离的方法,其特征在于,所述根据所述目标物体的深度图像信息确定所述目标物体的景深距离,包括:
获得所述深度图像信息中目标物体上各个像素点i的深度信息pi(x,y);
根据各个像素点i的深度信息pi(x,y)计算出所述目标物体深度信息的均值作为所述景深距离,其中n为所述目标物体上像素点的个数。
5.一种根据深度图像得到景深距离的装置,其特征在于,包括:
目标图像获取单元,用于获取包含目标物体的图像信息;
深度图像信息确定单元,用于对所述图像信息进行处理得到深度图像信息;
目标信息分割单元,用于在所述深度图像信息中分割出所述目标物体的深度图像信息;
景深距离计算单元,用于根据所述目标物体的深度图像信息确定所述目标物体的景深距离。
6.根据权利要求1所述的根据深度图像得到景深距离的装置,其特征在于,所述目标图像获取单元,包括:
视频信息获取模块,用于获取包含所述目标物体的视频信息;
目标图像确定模块,用于在所述视频信息中确定包括所述目标物体的所述图像信息。
7.根据权利要求1所述的根据深度图像得到景深距离的装置,其特征在于,所述目标信息分割单元,包括:
形状特征确定模块,用于预先确定目标物体的形状特征;
匹配模块,用于根据所述形状特征在所述深度图像信息中匹配出对应的目标物体;
分割模块,用于分割出所述目标物体的深度图像信息。
8.根据权利要求1所述的根据深度图像得到景深距离的装置,其特征在于,所述景深距离计算单元,包括:
像素点获得模块,用于获得所述深度图像信息中目标物体上各个像素点i的深度信息pi(x,y);
景深距离计算模块,用于根据各个像素点i的深度信息pi(x,y)计算出所述目标物体深度信息的均值作为所述景深距离,其中n为所述目标物体上像素点的个数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810201909.1A CN108537843A (zh) | 2018-03-12 | 2018-03-12 | 根据深度图像得到景深距离的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810201909.1A CN108537843A (zh) | 2018-03-12 | 2018-03-12 | 根据深度图像得到景深距离的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108537843A true CN108537843A (zh) | 2018-09-14 |
Family
ID=63484332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810201909.1A Pending CN108537843A (zh) | 2018-03-12 | 2018-03-12 | 根据深度图像得到景深距离的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537843A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111366916A (zh) * | 2020-02-17 | 2020-07-03 | 北京睿思奥图智能科技有限公司 | 确定交互目标与机器人之间距离的方法、装置及电子设备 |
CN114659450A (zh) * | 2022-03-25 | 2022-06-24 | 北京小米移动软件有限公司 | 机器人跟随方法、装置、机器人及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036483A (zh) * | 2013-03-06 | 2014-09-10 | 北京三星通信技术研究有限公司 | 图像处理系统和图像处理方法 |
US9600898B2 (en) * | 2014-10-23 | 2017-03-21 | Ricoh Company, Ltd. | Method and apparatus for separating foreground image, and computer-readable recording medium |
CN106886216A (zh) * | 2017-01-16 | 2017-06-23 | 深圳前海勇艺达机器人有限公司 | 基于rgbd人脸检测的机器人自动跟踪方法和系统 |
CN107392958A (zh) * | 2016-05-16 | 2017-11-24 | 杭州海康机器人技术有限公司 | 一种基于双目立体摄像机确定物体体积的方法及装置 |
-
2018
- 2018-03-12 CN CN201810201909.1A patent/CN108537843A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036483A (zh) * | 2013-03-06 | 2014-09-10 | 北京三星通信技术研究有限公司 | 图像处理系统和图像处理方法 |
US9600898B2 (en) * | 2014-10-23 | 2017-03-21 | Ricoh Company, Ltd. | Method and apparatus for separating foreground image, and computer-readable recording medium |
CN107392958A (zh) * | 2016-05-16 | 2017-11-24 | 杭州海康机器人技术有限公司 | 一种基于双目立体摄像机确定物体体积的方法及装置 |
CN106886216A (zh) * | 2017-01-16 | 2017-06-23 | 深圳前海勇艺达机器人有限公司 | 基于rgbd人脸检测的机器人自动跟踪方法和系统 |
Non-Patent Citations (2)
Title |
---|
GÜLSÜM NURDAN CAN ETC: "Detection of humans from depth images", 《2016 24TH SIGNAL PROCESSING AND COMMUNICATION APPLICATION CONFERENCE (SIU)》 * |
LU XIA: "Human detection using depth information by Kinect", 《CVPR 2011 WORKSHOPS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111366916A (zh) * | 2020-02-17 | 2020-07-03 | 北京睿思奥图智能科技有限公司 | 确定交互目标与机器人之间距离的方法、装置及电子设备 |
CN111366916B (zh) * | 2020-02-17 | 2021-04-06 | 山东睿思奥图智能科技有限公司 | 确定交互目标与机器人之间距离的方法、装置及电子设备 |
CN114659450A (zh) * | 2022-03-25 | 2022-06-24 | 北京小米移动软件有限公司 | 机器人跟随方法、装置、机器人及存储介质 |
CN114659450B (zh) * | 2022-03-25 | 2023-11-14 | 北京小米机器人技术有限公司 | 机器人跟随方法、装置、机器人及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993793B (zh) | 视觉定位方法及装置 | |
CN108229350A (zh) | 一种机器人装置的面部检测、识别及跟踪方法和系统 | |
Lee et al. | Low-cost 3D motion capture system using passive optical markers and monocular vision | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
CN108322724B (zh) | 图像立体匹配方法以及双目视觉设备 | |
Konstantinou et al. | Matching construction workers across views for automated 3D vision tracking on-site | |
CN110986969B (zh) | 地图融合方法及装置、设备、存储介质 | |
CN104778690A (zh) | 一种基于摄像机网络的多目标定位方法 | |
CN110555879B (zh) | 一种空间定位方法、其装置、其系统及计算机可读介质 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
Hashemifar et al. | Augmenting visual SLAM with Wi-Fi sensing for indoor applications | |
CN110458025A (zh) | 一种基于双目摄像头的人员识别与定位方法 | |
CN110288715B (zh) | 虚拟项链试戴方法、装置、电子设备及存储介质 | |
CN107911680A (zh) | 投影设备校正方法、装置及投影设备 | |
CN106470478B (zh) | 一种定位数据处理方法、装置和系统 | |
CN106651525B (zh) | 一种基于电商平台的增强现实位置导引方法及其系统 | |
CN110796135A (zh) | 目标的定位方法及装置、计算机设备、计算机存储介质 | |
CN108257155A (zh) | 一种基于局部和全局耦合的扩展目标稳定跟踪点提取方法 | |
CN115830675B (zh) | 一种注视点跟踪方法、装置、智能眼镜及存储介质 | |
CN108537843A (zh) | 根据深度图像得到景深距离的方法及装置 | |
CN113301320A (zh) | 图像信息处理方法、装置和电子设备 | |
CN104376323A (zh) | 一种确定目标距离的方法及装置 | |
CN113902856B (zh) | 一种语义标注的方法、装置、电子设备及存储介质 | |
Ailani et al. | Self localization with edge detection in 3D space | |
CN108734098A (zh) | 人体图像识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180914 |