CN111105448A - 深度获取方法、深度获取装置及电子设备 - Google Patents

深度获取方法、深度获取装置及电子设备 Download PDF

Info

Publication number
CN111105448A
CN111105448A CN201811250999.XA CN201811250999A CN111105448A CN 111105448 A CN111105448 A CN 111105448A CN 201811250999 A CN201811250999 A CN 201811250999A CN 111105448 A CN111105448 A CN 111105448A
Authority
CN
China
Prior art keywords
infrared image
current
projector
image
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201811250999.XA
Other languages
English (en)
Inventor
林君翰
李宗政
陈冠宏
周祥禾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang OFilm Biometric Identification Technology Co Ltd
Original Assignee
Nanchang OFilm Biometric Identification Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang OFilm Biometric Identification Technology Co Ltd filed Critical Nanchang OFilm Biometric Identification Technology Co Ltd
Priority to CN201811250999.XA priority Critical patent/CN111105448A/zh
Priority to PCT/CN2019/090822 priority patent/WO2020082752A1/zh
Publication of CN111105448A publication Critical patent/CN111105448A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种深度获取方法、深度获取装置及电子设备。深度获取方法应用于深度获取装置。深度获取装置包括第一投射器、第二投射器和相机模组,深度获取方法包括:第一投射器朝目标物体发射第一激光图案;相机模组接收经目标物体反射的第一激光图案以形成第一红外图像;第二投射器朝目标物体发射第二激光图案;相机模组接收经目标物体反射的第二激光图案以形成第二红外图像;获取第一红外图像与第二红外图像的当前重合区域;及,根据当前重合区域获取目标物体的当前深度信息。本发明的深度获取方法能直接根据当前重合区域相应获取目标物体初步的当前深度信息,而无需经过复杂的深度算法,加快获取初步当前深度信息的速度。

Description

深度获取方法、深度获取装置及电子设备
技术领域
本发明涉及图像处理领域,更具体而言,涉及一种深度获取方法、深度获取装置及电子设备。
背景技术
目前随着识别要求的不断丰富和提高,越来越多的场景中需要涉及到被测物体的深度信息的获取,例如目前比较熟知的3D识别应用中需要利用深度信息来实现更准确的人脸识别,其中,3D感测模组一般是先利用投影模组朝目标物体投射激光图案,然后再利用红外光摄像头采集经目标物体变形后的激光图案以形成红外光图像,最后需要根据红外光图像中的变形像素的位置以及变形程度通过变形前后比较的复杂计算才可得到目标物体各点的深度信息。然而,当前很多情况可能是仅仅需要初步获取一个深度信息即可或者需要先快速得到初步深度信息,上述这种3D感测常见的方式需要最后通过变形像素的变化且采用较复杂的深度算法才能得到深度信息,不仅使得获取深度信息的速度较慢,而且使得运算和设备均需要提高成本,无法满足快速获取初步深度信息的需求。
发明内容
本发明实施方式提供一种深度获取方法、深度获取装置及电子设备。
本发明实施方式的深度获取方法应用于深度获取装置。所述深度获取装置包括第一投射器、第二投射器和相机模组,所述深度获取方法包括:所述第一投射器朝目标物体发射第一激光图案;所述相机模组接收经所述目标物体反射的所述第一激光图案以形成第一红外图像;所述第二投射器朝所述目标物体发射第二激光图案;所述相机模组接收经所述目标物体反射的所述第二激光图案以形成第二红外图像;获取所述第一红外图像与所述第二红外图像的当前重合区域;及,根据所述当前重合区域获取所述目标物体的当前深度信息。其中,目标物体的当前深度信息为目标物体的初步深度信息或者说大致的深度信息,例如,当前深度信息为人脸距离深度获取装置的距离,如为20cm,而并非人脸各个点的所有深度信息。
本发明实施方式的深度获取方法中,第一投射器和第二投射器依次朝目标物体发射激光图案,相机模组接收经目标物体反射的对应激光以分别获得第一红外图像和第二红外图像,通过获取第一红外图像与第二红外图像的当前重合区域,并根据当前重合区域获取目标物体的当前深度信息。因此,本发明在获得当前重合区域后,就能直接根据当前重合区域相应获取目标物体距离深度获取装置初步的当前深度信息,而无需像已有3D识别一样需要经过复杂的深度算法,进而能够加快获取初步当前深度信息的速度,使得后续可以灵活利用这个深度信息实现更加丰富的识别等操作。
在某些实施方式中,所述获取所述第一红外图像与所述第二红外图像的当前重合区域的步骤,包括:提取所述第一红外图像的全图特征点;提取所述第二红外图像的全图特征点;及,匹配所述第一红外图像的全图特征点与所述第二红外图像的全图特征点,以获取所述重合区域。
通过匹配第一红外图像的全图特征点与第二红外图像的全图特征点,可以在第二红外图像中找到与第一红外图像重合的区域,或者在第一红外图像中找到与第二红外图像重合的区域,从而获得当前重合区域。
在某些实施方式中,所述获取所述第一红外图像与所述第二红外图像的当前重合区域的步骤,包括:提取所述第一红外图像的边界特征点及全图特征点;提取所述第二红外图像的边界特征点及全图特征点;及,匹配所述第一红外图像的边界特征点与所述第二红外图像的全图特征点、及匹配所述第二红外图像的边界特征点与所述第一红外图像的全图特征点,以获取所述重合区域。
如此,相较于根据第一红外图像的全图特征点及第二红外图像的全图特征点来获取当前重合区域的方式,仅根据第一红外图像的边界特征点匹配第二红外图像的全图特征点、根据第二红外图像的边界特征点匹配第一红外图像的全图特征点来获取当前重合区域的方式,需要匹配的特征点数量较少,加快了获取当前重合区域的速度,从而更进一步加快了获取深度信息的速度。
在某些实施方式中,所述获取所述第一红外图像与所述第二红外图像的当前重合区域的步骤,包括:提取所述第一红外图像的边界特征点;提取所述第二红外图像的边界特征点;及,根据所述第一红外图像的边界特征点与所述第二红外图像的边界特征点,以获取所述重合区域。
如此,相较于通过匹配第一红外图像的边界特征点与第二红外图像的全图特征点、匹配第二红外图像的边界特征点与第一红外图像的全图特征点来获取当前重合区域的方式,仅根据第一红外图像的边界特征点及第二红外图像的边界特征点来获取当前重合区域的方式,无需进行匹配特征点的步骤,进一步加快了获取当前重合区域的速度,也更进一步加快了获取深度信息的速度。
在某些实施方式中,所述根据所述当前重合区域获取所述目标物体的当前深度信息,包括:计算所述当前重合区域的当前重合参数;获取预设深度信息与预设重合参数的对应关系;及,在所述对应关系中根据所述当前重合参数确定所述当前深度信息。
相较于现有的深度获取方法,本发明的深度获取方法无需使用复杂的算法,只需根据预设深度信息与预设重合参数的对应关系来就能直接获取当前深度信息,加快了获取深度信息的速度。
在某些实施方式中,所述获取预设深度信息与预设重合参数的对应关系,包括:获取所述第一投射器的第一视场范围;获取所述第二投射器的第二视场范围;获取所述第一投射器与所述第二投射器的相对位置;根据所述第一视场范围、所述第二视场范围、及所述相对位置确定不同的所述预设深度信息下的预设重合区域;及,计算所述预设重合区域的预设重合参数。
根据第一投射器的第一视场范围、第二投射器的第二视场范围以及两者的相对位置,就可以确定不同的预设深度信息下的预设重合区域,然后就能根据几何关系计算出预设重合区域的预设重合参数。此外,第一投射器的第一视场范围、第二投射器的第二视场范围、相对位置均在深度获取装置出厂前就可以确定,因此,预设重合参数的获取方式简单,加快了获取预设深度信息与预设重合参数对应关系的速度。
本发明实施方式的深度获取装置包括第一投射器、第二投射器、相机模组和处理器。所述第一投射器用于朝目标物体发射第一激光图案,所述第二投射器用于朝所述目标物体发射第二激光图案,所述相机模组用于接收经所述目标物体反射的所述第一激光图案以形成第一红外图像,还用于接收经所述目标物体反射的所述第二激光图案以形成第二红外图像,所述处理器用于:获取所述第一红外图像与所述第二红外图像的当前重合区域;及,根据所述当前重合区域获取所述目标物体的当前深度信息。
本发明实施方式的深度获取装置中,第一投射器和第二投射器依次朝目标物体发射激光图案,相机模组接收经目标物体反射的对应激光以分别获得第一红外图像和第二红外图像,通过获取第一红外图像与第二红外图像的当前重合区域,并根据当前重合区域获取目标物体的当前深度信息。因此,本发明的深度获取装置在获得当前重合区域后,就能直接根据当前重合区域相应获取目标物体距离深度获取装置初步的当前深度信息,而无需像已有3D识别一样需要经过复杂的深度算法,进而能够加快获取初步当前深度信息的速度,使得后续可以灵活利用这个深度信息实现更加丰富的识别等操作。
在某些实施方式中,所述第一投射器包括第一光源及第一光学元件,所述第二投射器包括第二光源及第二光学元件,所述第一光学元件为包括透光区和不透光区的掩膜,所述第一光源发射的第一激光经过所述第一光学元件的所述透光区和所述不透光区后出射并形成所述第一激光图案;所述第二光学元件为包括透光区和不透光区的掩膜,所述第二光源发射的第二激光经过所述第二光学元件的所述透光区和所述不透光区后出射并形成所述第二激光图案。
第一激光经过第一光学元件的透光区和不透光区后出射并形成第一激光图案,第二激光经过第二光学元件的透光区和不透光区后出射并形成第二激光图案。如此,由掩膜扩束形成的第一激光图案和第二激光图案均为编码结构光图案。
在某些实施方式中,所述第一投射器包括第一光源及第一光学元件,所述第二投射器包括第二光源及第二光学元件,所述第一光学元件为设置有衍射光栅的衍射光学元件,所述第一光源发射的第一激光经过所述第一光学元件的所述衍射光栅出射并形成第一激光图案;所述第二光学元件为设置有衍射光栅的衍射光学元件,所述第二光源发射的第二激光经过所述第二光学元件的所述衍射光栅出射并形成第二激光图案。
第一激光经过第一衍射光学元件的衍射光栅出射并形成第一激光图案,第二激光经过第二衍射光学元件的衍射光栅出射并形成第二激光图案。如此,由具有衍射光栅的衍射光学元件扩束形成的第一激光图案和第二激光图案均为散斑图案或者编码结构光图案等。
在某些实施方式中,所述处理器进一步用于提取所述第一红外图像的全图特征点、提取所述第二红外图像的全图特征点、及匹配所述第一红外图像的全图特征点与所述第二红外图像的全图特征点,以获取所述重合区域。
通过匹配第一红外图像的全图特征点与第二红外图像的全图特征点,可以在第二红外图像中找到与第一红外图像重合的区域,或者在第一红外图像中找到与第二红外图像重合的区域,从而获得当前重合区域。
在某些实施方式中,所述处理器进一步用于提取所述第一红外图像的边界特征点及全图特征点、提取所述第二红外图像的边界特征点及全图特征点、匹配所述第一红外图像的边界特征点与所述第二红外图像的全图特征点、及匹配所述第二红外图像的边界特征点与所述第一红外图像的全图特征点,以获取所述重合区域。
如此,相较于根据第一红外图像的全图特征点及第二红外图像的全图特征点来获取当前重合区域的方式,仅根据第一红外图像的边界特征点匹配第二红外图像的全图特征点、第二红外图像的边界特征点匹配第一红外图像的全图特征点来获取当前重合区域的方式,处理器需要匹配的特征点数量较少,加快了获取当前重合区域的速度,从而更进一步加快了获取深度信息的速度。
在某些实施方式中,所述处理器进一步用于提取所述第一红外图像的边界特征点、提取所述第二红外图像的边界特征点、及根据所述第一红外图像的边界特征点与所述第二红外图像的边界特征点,以获取所述重合区域。
如此,相较于通过匹配第一红外图像的边界特征点与第二红外图像的全图特征点、匹配第二红外图像的边界特征点与第一红外图像的全图特征点来获取当前重合区域的方式,仅根据第一红外图像的边界特征点及第二红外图像的边界特征点来获取当前重合区域的方式,无需进行匹配特征点的步骤,进一步加快了获取当前重合区域的速度,也更进一步加快了获取深度信息的速度。
在某些实施方式中,所述处理器进一步用于计算所述当前重合区域的当前重合参数、获取预设深度信息与预设重合参数的对应关系、及在所述对应关系中根据所述当前重合参数确定所述当前深度信息。
相较于现有的深度获取方法,本发明的处理器无需使用复杂的算法,只需根据预设深度信息与预设重合参数的对应关系来就能直接获取当前深度信息,加快了获取深度信息的速度。
在某些实施方式中,所述处理器进一步用于获取所述第一投射器的第一视场范围,获取所述第二投射器的第二视场范围,获取所述第一投射器与所述第二投射器的相对位置,根据所述第一视场范围、所述第二视场范围、及所述相对位置确定不同的所述预设深度信息下的预设重合区域,及计算所述预设重合区域的预设重合参数。
根据第一投射器的第一视场范围、第二投射器的第二视场范围以及两者的相对位置,就可以确定不同的预设深度信息下的预设重合区域,然后就能根据几何关系计算出预设重合区域的预设重合参数。此外,第一投射器的第一视场范围、第二投射器的第二视场范围、相对位置均在深度获取装置出厂前就可以确定,因此,预设重合参数的获取方式简单,加快了获取预设深度信息与预设重合参数对应关系的速度。
本发明实施方式的电子设备包括壳体及上述任一实施方式所述的深度获取装置,所述深度获取装置设置在所述壳体上。
本发明实施方式的深度获取装置中,第一投射器和第二投射器依次朝目标物体发射激光图案,相机模组接收经目标物体反射的对应激光以分别获得第一红外图像和第二红外图像,通过获取第一红外图像与第二红外图像的当前重合区域,并根据当前重合区域获取目标物体的当前深度信息。因此,本发明的深度获取装置在获得当前重合区域后,就能直接根据当前重合区域相应获取目标物体距离深度获取装置初步的当前深度信息,而无需像已有3D识别一样需要经过复杂的深度算法,进而能够加快获取初步当前深度信息的速度,使得后续可以灵活利用这个深度信息实现更加丰富的识别等操作。
本发明的实施方式的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实施方式的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施方式的描述中将变得明显和容易理解,其中:
图1是本发明某些实施方式的深度获取方法的流程示意图;
图2是本发明某些实施方式的深度获取装置的结构示意图;
图3是本发明某些实施方式的深度获取方法的原理示意图;
图4是本发明其他实施方式的深度获取方法的原理示意图;
图5是本发明某些实施方式的电子设备的结构示意图;
图6是本发明某些实施方式的第一投射器的结构示意图;
图7是本发明其他实施方式的第二投射器的结构示意图;
图8是本发明某些实施方式的第一投射器的结构示意图;
图9是本发明其他实施方式的第二投射器的结构示意图;
图10是本发明其他实施方式的深度获取方法的流程示意图;
图11是本发明某些实施方式的深度获取方法的原理示意图;和
图12至图15是其他实施方式的深度获取方法的流程示意图。
具体实施方式
以下结合附图对本发明的实施方式作进一步说明。附图中相同或类似的标号自始至终表示相同或类似的元件或具有相同或类似功能的元件。另外,下面结合附图描述的本发明的实施方式是示例性的,仅用于解释本发明的实施方式,而不能理解为对本发明的限制。
请一并参阅图1和图2,本发明的深度获取方法应用于深度获取装置100。深度获取装置100包括第一投射器10、第二投射器20和相机模组30。深度获取方法包括:
S10,第一投射器10朝目标物体发射第一激光图案;
S20,相机模组30接收经目标物体反射的第一激光图案以形成第一红外图像;
S30,第二投射器20朝目标物体发射第二激光图案;
S40,相机模组30接收经目标物体反射的第二激光图案以形成第二红外图像;
S50,获取第一红外图像与第二红外图像的当前重合区域;及
S60,根据当前重合区域获取目标物体的当前深度信息。其中,目标物体的当前深度信息为目标物体的初步深度信息或者说大致的深度信息,例如,当前深度信息为人脸距离深度获取装置100的距离,如为20cm,而并非人脸各个点的所有深度信息。
请参阅图2,本发明提供一种深度获取装置100。深度获取装置100包括第一投射器10、第二投射器20、相机模组30和处理器40,第一投射器10用于朝目标物体发射第一激光图案,第二投射器20用于朝目标物体发射第二激光图案,相机模组30用于接收经目标物体反射的第一激光图案以形成第一红外图像,还用于接收经目标物体反射的第二激光图案以形成第二红外图像,处理器40用于获取第一红外图像与第二红外图像的当前重合区域,及根据当前重合区域获取目标物体的当前深度信息。
请结合图3,具体地,第一投射器10和第二投射器20依次朝同一目标物体发射激光,第一投射器10发射第一激光图案,第二投射器20发射第二激光图案。相机模组30依次接受被目标物体反射的第一激光图案,以及接受被目标物体反射的第二激光图案。相机模组30接受第一激光图案以形成第一红外图像,接收第二激光图案以形成第二红外图像。
第一红外图像与第二红外图像的当前重合区域表示第一红外图像上和第二红外图像上具有相同像素的区域。更具体地,如图4,当前重合区域是光线被第一投射器10的第一视场范围(水平视场角α1和垂直视场角β1)与第二投射器20的第二视场范围(水平视场角α2和垂直视场角β2)相重叠的区域内的目标物体反射后形成的红外图像的像素所在的区域。当前重合区域具有对应的当前重合参数,该当前重合参数可以是当前重合区域的面积S大小,也可以是当前重合度,其中,当前重合度是指当前重合区域的面积S占第一红外图像总面积的比例大小或当前重合区域的面积S占第二红外图像总面积的比例大小,由于第一红外图像与第二红外图像均由相同的相机模组30拍摄获得,则第一红外图像总面积与第二红外图像总面积相同,以下简称为红外图像总面积。深度获取装置100与目标物体之间的当前深度信息D与当前重合参数存在对应的正比关系,因此,在获得当前重合区域后,可以根据当前重合区域的当前重合参数来直接获取目标物体当前深度信息。其中,目标物体的当前深度信息D可以是目标物体距离深度获取装置100的当前最大深度、当前最小深度、或当前平均深度,假设目标物体为人脸,人脸的轮廓面是凸凹不平的,比如人鼻子最突出,距离深度获取装置100最近,而额头距离深度获取装置100最远,此时,当前深度信息D可以是鼻子距离深度获取装置100的距离(即,当前最小深度)、也可以是额头距离深度获取装置100的距离(即,当前最大深度)、也可以是综合脸部各个部位的深度的平均深度。
深度获取装置100与目标物体之间的当前深度信息D与当前重合参数存在对应的正比关系,即,当前深度信息D越远,当前重合参数越大;当前深度信息D越近,当前重合参数越小。下面以当前重合参数为当前重合区域的面积S大小为例进行说明,例如,在当前重合区域的面积S1为60mm2时,可以确定目标物体的当前深度信息D1为60cm;在当前重合区域的面积S2为40mm2时,可以确定目标物体的当前深度信息D2为40cm;在当前重合区域的面积S3为20mm2时,可以确定目标物体的当前深度信息D3为20cm。即,在S1>S2>S3时,D1>D2>D3时。
同样地,以当前重合参数为当前重合度为例进行说明,例如,在当前重合区域的当前重合度Q1为60%时,可以确定目标物体的当前深度信息D1为60cm;在当前重合度Q1为40%时,可以确定目标物体的当前深度信息D2为40cm;在当前重合度Q3为20%时,可以确定目标物体的当前深度信息D3为20cm。即,在Q1>Q2>Q3时,D1>D2>D3时。
请参阅图5,本发明实施方式的深度获取装置100可应用于电子设备1000。电子设备1000可以是能够获取深度的电子装置,例如手机、平板电脑、手提电脑、游戏机、头显设备、监控设备、门禁系统等。本发明以电子设备1000是手机为例进行说明。具体地,电子设备1000包括深度获取装置100和壳体200。壳体200可以给设置在壳体200上的深度获取装置100提供保护,例如防尘、防水、隔离电磁波等。在一个例子中,壳体200上开设有与深度获取装置100对应的孔,光线可以从孔中穿出或穿入壳体200。
本发明实施方式的深度获取方法、深度获取装置100及电子设备1000中,第一投射器10和第二投射器20依次朝目标物体发射激光图案,相机模组30接收经目标物体反射的对应激光以分别获得第一红外图像和第二红外图像,通过获取第一红外图像与第二红外图像的当前重合区域,并根据当前重合区域获取目标物体的当前深度信息。因此,本发明在获得当前重合区域后,就能直接根据当前重合区域相应获取目标物体距离深度获取装置1000初步的当前深度信息,而无需像已有3D识别一样需要经过复杂的深度算法,进而能够加快获取初步当前深度信息的速度,使得后续可以灵活利用这个当前深度信息实现更加丰富的识别等操作。
请继续参阅图2,本发明实施方式的深度获取装置100可应用于人脸识别、3D建模等领域。在某些实施方式中,深度获取装置100可以为结构光深度相机。结构光深度相机的第一投射器10及第二投射器20能够投射具有散斑图案或者编码结构光图案的激光,相机模组30接收经目标物体反射后的具有散斑图案或者编码结构光图案的激光,处理器40处理相机模组30拍摄的红外图像,以获取当前重合区域,并根据当前重合区域获得目标物体的深度信息。
具体地,第一投射器10、第二投射器20及相机模组30的基准线(base line)相同,第一投射器10的垂直视场角与第二投射器20的垂直视场角相同,而第一投射器10的水平视场角与第二投射器20的水平视场角可以相同或不同。在一个例子中,第一投射器10和第二投射器20分别位于相机模组30的两侧(如图2)。在另一个例子中,第一投射器10和第二投射器20均位于相机模组30的同一侧。处理器40与第一投射器10、第二投射器20及相机模组30均连接。其中,处理器40可以集成在第一投射器10或第二投射器20上,也可以集成在相机模组30上,还可以为独立于深度获取装置100的处理器40,例如为设置在图5所示的电子设备1000的主板上的处理器。在本实施例中,深度获取装置100上还可以形成有与第一投射器10对应的投射窗口50,与第二投射器20对应的投射窗口60,以及与相机模组30对应的采集窗口70。第一投射器10可以通过投射窗口50向目标空间投射第一激光图案,第二投射器20可以通过投射窗口60向目标空间投射第二激光图案,相机模组30可以通过采集窗口70接收被目标物体反射后的第一激光图案与第二激光图案。
请参阅图6,在某些实施方式中,第一投射器10包括第一光源13及第一光学元件14。第一光学元件14为包括透光区1411和不透光区1412的掩膜(Mask)141,第一光源13发射的第一激光经过第一光学元件14的透光区1411和不透光区1412后出射并形成第一激光图案。
具体地,第一投射器10还包括第一基板11和第一镜筒12。第一基板11与第一镜筒12结合并共同形成第一收容腔121,第一光源13和第一光学元件14收容在第一收容腔121内。第一光源13设置在第一基板11上。第一光源13可以为垂直腔面发射器(Vertical-Cavity Surface-Emitting Laser,VCSEL),或者为边发射型激光器(例如为分布式反馈激光器(Distributed Feedback Laser,DFB))。第一光源13用于发射第一激光。
第一光学元件14为包括透光区1411和不透光区1412的掩膜141。其中,透光区1411和不透光区1412有规律地交错分布。透光区1411采用透光材料制成,透光材料可以是透光率大于等于75%的材料,例如:玻璃、树脂、或者为空气(即透光区1411为镂空结构);不透光区1412采用不透光材料制成,不透光材料为能够反射或者吸收激光的材质,比如金、银、铜、锌、铬、铝等金属材料,或者其他不透光材料。第一激光经过第一光学元件14的透光区1411和不透光区1412后出射并形成第一激光图案。如此,由掩膜141扩束形成的第一激光图案为编码结构光图案。
请参阅图7,在某些实施方式中,第二投射器20包括第二光源23及第二光学元件24。第二光学元件24为包括透光区2411和不透光区2412的掩膜142,第二光源23发射的第二激光经过第二光学元件24的透光区2411和不透光区2412后出射并形成第二激光图案。
具体地,第二投射器20还包括第二基板21和第二镜筒22。第二基板21与第二镜筒22结合并共同形成第二收容腔221,第二光源23和第二光学元件24收容在第二收容腔221内。第二光源23设置在第二基板21上。第二光源23可以为垂直腔面发射器(Vertical-Cavity Surface-Emitting Laser,VCSEL),或者为边发射型激光器(例如为分布式反馈激光器(Distributed Feedback Laser,DFB))。第二光源23用于发射第二激光。
第二光学元件24也为包括透光区2411和不透光区2412的掩膜241。其中,透光区2411和不透光区2412有规律地交错分布。透光区2411采用透光材料制成,透光材料可以是透光率大于等于75%的材料,例如:玻璃、树脂、或者为空气(即透光区2411为镂空结构);不透光区2412采用不透光材料制成,不透光材料为能够反射或者吸收激光的材质,比如金、银、铜、锌、铬、铝等金属材料,或者其他不透光材料。第二激光经过第二光学元件24的透光区2411和不透光区2412后出射并形成第二激光图案。如此,由掩膜241扩束形成的第二激光图案均为编码结构光图案。
在一个例子中,第一投射器10与第二投射器20的结构参数完全相同。在另一个例子中,第一投射器10与第二投射器20的结构参数部分相同,部分不同。例如第一光源13与第二光源23的发光频率、发光强度、激光形成的图案等不同,第一光学元件14与第二光学元件24的种类不同,第一镜筒12与第二镜筒22的形状不同等。本发明以第一投射器10与第二投射器20的结构参数完全相同为例,对第一投射器10和第二投射器20的结构进行说明。
请参阅图8,在某些实施方式中,第一投射器10包括第一光源13及第一光学元件14。第一光学元件14为设置有衍射光栅1421的衍射光学元件(Diffractive OpticalElements,DOE)141,第一光源13发射的第一激光经过第一光学元件14的衍射光栅1421出射并形成第一激光图案。
具体地,第一光学元件14为设置有衍射光栅1421的衍射光学元件142。其中,衍射光学元件142包括衍射光栅1421和衍射本体1422。衍射本体1422包括相背的入射面1423和出射面1424,衍射光栅1421可以设置在入射面1423或者出射面1424上。衍射光栅1421为衍射本体1422上刻蚀产生的台阶型或连续浮雕结构,能够将激光扩束成多束激光,多束激光可以形成散斑图案或者编码结构光图案等。第一激光经过第一光学元件14的衍射光栅1421出射并形成第一激光图案。如此,由具有衍射光栅1421的衍射光学元件142扩束形成的第一激光图案为散斑图案或者编码结构光图案等。请继续参阅图8,在一个例子中,第一投射器10还包括准直透镜15。准直透镜15用于准直光源13发射的激光,衍射光学元件142用于衍射经准直透镜15准直后的激光。准直透镜15可以为单独的透镜,该透镜为凸透镜或凹透镜;或者为多枚透镜,多枚透镜可均为凸透镜或凹透镜,或部分为凸透镜,部分为凹透镜。
请参阅图9,在某些实施方式中,第二投射器20包括第二光源23及第二光学元件24。第二光学元件24为设置有衍射光栅2421的衍射光学元件242,第二光源23发射的第二激光经过第二光学元件24的衍射光栅2421出射并形成第二激光图案。
具体地,第二光学元件24也为设置有衍射光栅2421的衍射光学元件242。其中,衍射光学元件242包括衍射光栅2422和衍射本体2422。衍射本体2422包括相背的入射面2423和出射面2424,衍射光栅2422可以设置在入射面2423或者出射面2424上。衍射光栅2422为衍射本体2422上刻蚀产生的台阶型或连续浮雕结构,能够将激光扩束成多束激光,多束激光可以形成散斑图案或者编码结构光图案等。第二激光经过第二光学元件24的衍射光栅2421出射并形成第二激光图案。如此,由具有衍射光栅2422的衍射光学元件242扩束形成的第二激光图案均为散斑图案或者编码结构光图案等。请继续参阅图9,在一个例子中,第二投射器20还包括准直透镜25。准直透镜25用于准直光源23发射的激光,衍射光学元件242用于衍射经准直透镜25准直后的激光。准直透镜25可以为单独的透镜,该透镜为凸透镜或凹透镜;或者为多枚透镜,多枚透镜可均为凸透镜或凹透镜,或部分为凸透镜,部分为凹透镜。
请参阅图10,在某些实施方式中,获取第一红外图像与第二红外图像的当前重合区域的步骤,即步骤50包括以下子步骤:
S51,提取第一红外图像的全图特征点;
S52,提取第二红外图像的全图特征点;及
S53,匹配第一红外图像的全图特征点与第二红外图像的全图特征点,以获取重合区域。
请参阅图2,在某些实施方式中,处理器40进一步用于提取第一红外图像的全图特征点、提取第二红外图像的全图特征点、及匹配第一红外图像的全图特征点与第二红外图像的全图特征点,以获取重合区域。也即是说,处理器40进一步用于实现子步骤S51、S52及S53。
具体地,在确定第一红外图像与第二红外图像的当前重合区域时,通过提取第一红外图像的全图特征点以及提取第二红外图像的全图特征点,然后通过匹配第一红外图像的全图特征点与第二红外图像的全图特征点,从而可以在第二红外图像中找到与第一红外图像重合的区域,或者在第一红外图像中找到与第二红外图像重合的区域,从而获得当前重合区域。以图11为例,提取第一红外图像的全图特征点(P1、P2、P3、P4、P5、P6、…、P7、P8、P9),并提取第二红外图像中的全图特征点(P4、P5、P6、…、P7、P8、P9、P10、P11、P12)。在第二红外图像中匹配与第一红外图像的全图特征点(P1、P2、P3、P4、P5、P6、…、P7、P8、P9)相似的特征点(P4、P5、P6、…、P7、P8、P9),则P4、P5、P6、P7、P8、P9围成的区域为当前重合区域;或者在第一红外图像中匹配与第二红外图像的全图特征点(P4、P5、P6、…、P7、P8、P9、P10、P11、P12)相似的特征点(P4、P5、P6、…、P7、P8、P9),则P4、P5、P6、P7、P8、P9围成的区域也为当前重合区域。
其中,第一红外图像的特征点和第二红外图像的特征点均可以利用特征提取算法获得,例如HOG特征提取算法、LBP特征提取算法、Haar特征提取算法等。以HOG(Histogramof Oriented Gradient,方向梯度直方图)特征提取算法为例,在红外图像中提取根据HOG特征从而提取所需的特征点,例如全图特征点、边界特征点等。具体提取步骤为:首先将红外图像分成多个小的图像单元;统计每个图像单元中各个像素点的梯度直方图,以形成图像单元特征描述器,其中,每一个图像单元对应一个图像单元特征描述器;再把多个图像单元的梯度直方图组合成一个区间的梯度直方图,以形成HOG特征描述器,其中,每个区间对应一个HOG特征描述器;组合所有区间的HOG特征描述器,以得到该红外图像的HOG特征描述器,其中,红外图像的HOG特征描述器就是可供分类使用的HOG特征向量;最后,可利用支持向量机(Support Vector Machines,SVM)根据红外图像的HOG特征向量进行判断,以在红外图像中提取特征点。
请参阅图12,在某些实施方式中,获取第一红外图像与第二红外图像的当前重合区域的步骤,即步骤50包括以下子步骤:
S54,提取第一红外图像的边界特征点及全图特征点;
S55,提取第二红外图像的边界特征点及全图特征点;及
S56,匹配第一红外图像的边界特征点与第二红外图像的全图特征点、及匹配第二红外图像的边界特征点与第一红外图像的全图特征点,以获取重合区域。
请参阅图2,在某些实施方式中,处理器40进一步用于提取第一红外图像的边界特征点及全图特征点、提取第二红外图像的边界特征点及全图特征点、匹配第一红外图像的边界特征点与第二红外图像的全图特征点、及匹配第二红外图像的边界特征点与第一红外图像的全图特征点,以获取重合区域。也即是说,处理器40进一步用于实现子步骤S54、S55及S56。
具体地,在确定第一红外图像与第二红外图像的当前重合区域时,通过提取第一红外图像的边界特征点及全图特征点,并提取第二红外图像的边界特征点及全图特征点,然后匹配第一红外图像的边界特征点与第二红外图像的全图特征点,及匹配第二红外图像的边界特征点与第一红外图像的全图特征点,从而在第二红外图像中找到与第一红外图像重合的区域,或者在第一红外图像中找到与第二红外图像重合的区域,从而获得当前重合区域。继续以图11为例,提取第一红外图像的边界特征点(P1、P2、P3、P7、P8、P9)及全图特征点(P1、P2、P3、P4、P5、P6、…、P7、P8、P9),并提取第二红外图像中的边界特征点(P4、P5、P6、P10、P11、P12)及全图特征点(P4、P5、P6、…、P7、P8、P9、P10、P11、P12)。在第二红外图像中的全图特征点(P4、P5、P6、…、P7、P8、P9、P10、P11、P12)中匹配与第一红外图像的边界特征点(P1、P2、P3、P7、P8、P9)相似的特征点(P7、P8、P9),及在第一红外图像的全图特征点(P1、P2、P3、P4、P5、P6、…、P7、P8、P9)中匹配与第二红外图像的边界特征点(P4、P5、P6、P10、P11、P12)相似的特征点(P4、P5、P6),则P4、P5、P6、P7、P8、P9围成的区域为当前重合区域。如此,相较于根据第一红外图像的全图特征点及第二红外图像的全图特征点来获取当前重合区域的方式,仅根据第一红外图像的边界特征点匹配第二红外图像的全图特征点、根据第二红外图像的边界特征点匹配第一红外图像的全图特征点来获取当前重合区域的方式,需要匹配的特征点数量较少,加快了获取当前重合区域的速度,也更进一步加快了获取深度信息的速度。
请参阅图13,在某些实施方式中,获取第一红外图像与第二红外图像的当前重合区域的步骤,即步骤50包括以下子步骤:
S57,提取第一红外图像的边界特征点;
S58,提取第二红外图像的边界特征点;及
S59,根据第一红外图像的边界特征点与第二红外图像的边界特征点,以获取重合区域。
请参阅图2,在某些实施方式中,处理器40进一步用于提取第一红外图像的边界特征点、提取第二红外图像的边界特征点、及根据第一红外图像的边界特征点与第二红外图像的边界特征点,以获取重合区域。也即是说,处理器40进一步用于实现子步骤S57、S58及S59。
具体地,在确定第一红外图像与第二红外图像的当前重合区域时,通过提取第一红外图像的边界特征点以及提取第二红外图像的边界特征点,然后根据第一红外图像的边界特征点与第二红外图像的边界特征点,从而获得当前重合区域。再一次以图11为例,提取第一红外图像的边界特征点(P1、P2、P3、P7、P8、P9),并提取第二红外图像中的边界特征点(P4、P5、P6、P10、P11、P12)。再结合第一投射器10与第二投射器20的位置关系能够知道第一红外图像的边界特征点(P7、P8、P9)更靠近第二红外图像,第二红外图像的边界特征点(P4、P5、P6)更靠近第一红外图像,由此可以直接得出P4、P5、P6、P7、P8、P9围成的区域为当前重合区域。如此,相较于通过匹配第一红外图像的边界特征点与第二红外图像的全图特征点、匹配第二红外图像的边界特征点与第一红外图像的全图特征点来获取当前重合区域的方式,仅根据第一红外图像的边界特征点及第二红外图像的边界特征点来获取当前重合区域的方式,无需进行匹配特征点的步骤,进一步加快了获取当前重合区域的速度,也更进一步加快了获取深度信息的速度。
请参阅图14,在某些实施方式中,根据当前重合区域获取目标物体的当前深度信息,即步骤S60包括以下子步骤:
S61,计算当前重合区域的当前重合参数;
S62,获取预设深度信息与预设重合参数的对应关系;及
S63,在对应关系中根据当前重合参数确定当前深度信息。
请参阅图2,在某些实施方式中,处理器40进一步用于计算当前重合区域的当前重合参数、获取预设深度信息与预设重合参数的对应关系、及在对应关系中根据当前重合参数确定当前深度信息。也即是说,处理器40进一步用于实现子步骤S61、S62及S63。
具体地,在深度获取装置100出厂时,预设深度信息与预设重合参数的对应关系就可以通过测试获得,并存储在深度获取装置100、电子设备1000或者服务器中。预设重合参数可以为预设重合区域的面积S’大小,也可以是预设重合度,其中,预设重合度是指预设重合区域的面积S’占第一红外图像总面积的比例大小或预设重合区域的面积S’占第二红外图像总面积的比例大小。在获取预设深度信息与预设重合参数对应关系的测试过程中,不断改变目标物体与深度获取装置100之间的深度信息d,并记录在该深度信息下的预设重合度大小。例如,以5cm为梯度变量,依次增大d值,如d值依次设定为10cm、15cm、20cm、25cm、30cm、…、75cm、80cm、90cm、95cm、100cm等,分别测试每一个d值对应的第一红外图像与第二红外图像的预设重合参数。例如在d=10cm时,测试得到预设重合度为10%;在d=20cm时,测试得到预设重合度为20%;在d=40cm时,测试得到预设重合度为40%;在d=60cm时,测试得到预设重合度为60%。测试的d值梯度越小,获得的预设重合参数也越多,因此预设深度信息与预设重合参数对应关系也更加全面。
在获得重合区域后,处理器40进一步计算当前重合区域的当前重合参数。在获得当前重合参数后,处理器40匹配与当前重合参数对应的预设重合参数,并根据预设深度信息与预设重合参数的对应关系来直接确定目标物体的当前深度信息。例如,获得的当前重合度为60%,通过匹配与当前重合度对应的预设重合度60%,根据对应关系就可以通过查表的方式确定预设深度信息为60cm,则当前深度信息为60cm。因此,相较于现有的深度获取方法,本发明的深度获取方法无需使用复杂的算法,根据预设深度信息与预设重合参数的对应关系来就能直接获取当前深度信息,加快了获取深度信息的速度。
请参阅图4及图15,在某些实施方式中,获取预设深度信息与预设重合参数的对应关系,即步骤S62包括以下子步骤:
S621,获取第一投射器10的第一视场范围;
S622,获取第二投射器20的第二视场范围;
S623,获取第一投射器10与第二投射器20的相对位置L;
S624,根据第一视场范围、第二视场范围、及相对位置L确定不同的预设深度信息下的预设重合区域;及
S625,计算预设重合区域的预设重合参数。
请参阅图2,在某些实施方式中,处理器40进一步用于获取第一投射器10的第一视场范围,获取第二投射器20的第二视场范围,获取第一投射器10与第二投射器20的相对位置L,根据第一视场范围、第二视场范围、及相对位置L确定不同的预设深度信息下的预设重合区域,及计算预设重合区域的预设重合参数。也即是说,处理器40进一步用于实现子步骤S621,S622,S623,S624及S625。
具体地,第一投射器10的第一视场范围包括水平视场角α1和竖直视场角β1,第二投射器20的第二视场范围也包括水平视场角α2和竖直视场角β2。第一投射器10的垂直视场角β1与第二投射器20的垂直视场角β2相同,而第一投射器10的水平视场角α1与第二投射器20的水平视场角α2可以相同或不同。当预设重合参数为预设重合区域的面积时,在获得第一投射器10的水平视场角α1、第二投射器20的水平视场角α2、其中一个垂直视场角(β1或β2)以及两者的相对位置L后,就可以确定不同的预设深度信息下的预设重合区域。而当预设重合参数为预设重合度时,只需获取第一投射器10的水平视场角α1、第二投射器20的水平视场角α2以及两者的相对位置L后,无需获取第一投射器10的垂直视场角β1或第二投射器20的垂直视场角β2,就可以确定不同的预设深度信息下的预设重合区域。因此,根据第一投射器10的第一视场范围、第二投射器20的第二视场范围以及两者的相对位置L,就可以确定不同的预设深度信息下的预设重合区域,然后就能根据几何关系计算出预设重合区域的预设重合参数。此外,第一投射器10的第一视场范围、第二投射器20的第二视场范围、相对位置L均在深度获取装置100出厂前就可以确定,因此,预设重合参数的获取方式简单,加快了获取预设深度信息与预设重合参数对应关系的速度。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器40的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种深度获取方法,应用于深度获取装置,其特征在于,所述深度获取装置包括第一投射器、第二投射器和相机模组,所述深度获取方法包括:
所述第一投射器朝目标物体发射第一激光图案;
所述相机模组接收经所述目标物体反射的所述第一激光图案以形成第一红外图像;
所述第二投射器朝所述目标物体发射第二激光图案;
所述相机模组接收经所述目标物体反射的所述第二激光图案以形成第二红外图像;
获取所述第一红外图像与所述第二红外图像的当前重合区域;及
根据所述当前重合区域获取所述目标物体的当前深度信息。
2.根据权利要求1所述的深度获取方法,其特征在于,所述获取所述第一红外图像与所述第二红外图像的当前重合区域的步骤,包括:
提取所述第一红外图像的全图特征点;
提取所述第二红外图像的全图特征点;及
匹配所述第一红外图像的全图特征点与所述第二红外图像的全图特征点,以获取所述重合区域。
3.根据权利要求1所述的深度获取方法,其特征在于,所述获取所述第一红外图像与所述第二红外图像的当前重合区域的步骤,包括:
提取所述第一红外图像的边界特征点及全图特征点;
提取所述第二红外图像的边界特征点及全图特征点;及
匹配所述第一红外图像的边界特征点与所述第二红外图像的全图特征点、及匹配所述第二红外图像的边界特征点与所述第一红外图像的全图特征点,以获取所述重合区域。
4.根据权利要求1所述的深度获取方法,其特征在于,所述获取所述第一红外图像与所述第二红外图像的当前重合区域的步骤,包括:
提取所述第一红外图像的边界特征点;
提取所述第二红外图像的边界特征点;及
根据所述第一红外图像的边界特征点与所述第二红外图像的边界特征点,以获取所述重合区域。
5.根据权利要求2至4任意一项所述的深度获取方法,其特征在于,所述根据所述当前重合区域获取所述目标物体的当前深度信息,包括:
计算所述当前重合区域的当前重合参数;
获取预设深度信息与预设重合参数的对应关系;及
在所述对应关系中根据所述当前重合参数确定所述当前深度信息。
6.根据权利要求5所述的深度获取方法,其特征在于,所述获取预设深度信息与预设重合参数的对应关系,包括:
获取所述第一投射器的第一视场范围;
获取所述第二投射器的第二视场范围;
获取所述第一投射器与所述第二投射器的相对位置;
根据所述第一视场范围、所述第二视场范围、及所述相对位置确定不同的所述预设深度信息下的预设重合区域;及
计算所述预设重合区域的预设重合参数。
7.一种深度获取装置,其特征在于,所述深度获取装置包括第一投射器、第二投射器、相机模组和处理器,所述第一投射器用于朝目标物体发射第一激光图案,所述第二投射器用于朝所述目标物体发射第二激光图案,所述相机模组用于接收经所述目标物体反射的所述第一激光图案以形成第一红外图像,还用于接收经所述目标物体反射的所述第二激光图案以形成第二红外图像,所述处理器用于:
获取所述第一红外图像与所述第二红外图像的当前重合区域;及
根据所述当前重合区域获取所述目标物体的当前深度信息。
8.根据权利要求7所述的深度获取装置,其特征在于,所述第一投射器包括第一光源及第一光学元件,所述第二投射器包括第二光源及第二光学元件,所述第一光学元件为包括透光区和不透光区的掩膜,所述第一光源发射的第一激光经过所述第一光学元件的所述透光区和所述不透光区后出射并形成所述第一激光图案;所述第二光学元件为包括透光区和不透光区的掩膜,所述第二光源发射的第二激光经过所述第二光学元件的所述透光区和所述不透光区后出射并形成所述第二激光图案;或
所述第一光学元件为设置有衍射光栅的衍射光学元件,所述第一光源发射的第一激光经过所述第一光学元件的所述衍射光栅出射并形成第一激光图案;所述第二光学元件为设置有衍射光栅的衍射光学元件,所述第二光源发射的第二激光经过所述第二光学元件的所述衍射光栅出射并形成第二激光图案。
9.根据权利要求7所述的深度获取装置,其特征在于,所述处理器进一步用于:
提取所述第一红外图像的全图特征点;
提取所述第二红外图像的全图特征点;及
匹配所述第一红外图像的全图特征点与所述第二红外图像的全图特征点,以获取所述重合区域。
10.根据权利要求7所述的深度获取装置,其特征在于,所述处理器进一步用于:
提取所述第一红外图像的边界特征点及全图特征点;
提取所述第二红外图像的边界特征点及全图特征点;及
匹配所述第一红外图像的边界特征点与所述第二红外图像的全图特征点、及匹配所述第二红外图像的边界特征点与所述第一红外图像的全图特征点,以获取所述重合区域。
11.根据权利要求7所述的深度获取装置,其特征在于,所述处理器进一步用于:
提取所述第一红外图像的边界特征点;
提取所述第二红外图像的边界特征点;及
根据所述第一红外图像的边界特征点与所述第二红外图像的边界特征点,以获取所述重合区域。
12.根据权利要求9至11任意一项所述的深度获取装置,其特征在于,所述处理器进一步用于:
计算所述当前重合区域的当前重合参数;
获取预设深度信息与预设重合参数的对应关系;及
在所述对应关系中根据所述当前重合参数确定所述当前深度信息。
13.根据权利要求12所述的深度获取装置,其特征在于,所述处理器进一步用于:
获取所述第一投射器的第一视场范围;
获取所述第二投射器的第二视场范围;
获取所述第一投射器与所述第二投射器的相对位置;
根据所述第一视场范围、所述第二视场范围、及所述相对位置确定不同的所述预设深度信息下的预设重合区域;及
计算所述预设重合区域的预设重合参数。
14.一种电子设备,其特征在于,包括:
壳体;及
权利要求7至13任意一项所述的深度获取装置,所述深度获取装置设置在所述壳体上。
CN201811250999.XA 2018-10-25 2018-10-25 深度获取方法、深度获取装置及电子设备 Withdrawn CN111105448A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811250999.XA CN111105448A (zh) 2018-10-25 2018-10-25 深度获取方法、深度获取装置及电子设备
PCT/CN2019/090822 WO2020082752A1 (zh) 2018-10-25 2019-06-12 深度获取方法、深度获取装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811250999.XA CN111105448A (zh) 2018-10-25 2018-10-25 深度获取方法、深度获取装置及电子设备

Publications (1)

Publication Number Publication Date
CN111105448A true CN111105448A (zh) 2020-05-05

Family

ID=70332157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811250999.XA Withdrawn CN111105448A (zh) 2018-10-25 2018-10-25 深度获取方法、深度获取装置及电子设备

Country Status (2)

Country Link
CN (1) CN111105448A (zh)
WO (1) WO2020082752A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112904482A (zh) * 2021-03-23 2021-06-04 江西欧迈斯微电子有限公司 波导光栅元件及其制造方法和显示设备
CN115102036A (zh) * 2022-08-24 2022-09-23 立臻精密智造(昆山)有限公司 点阵激光发射结构、点阵激光系统及深度计算方法
CN116631022A (zh) * 2023-04-11 2023-08-22 广东德融汇科技有限公司 一种人脸精准识别方法、装置、设备以及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106980143B (zh) * 2016-01-19 2018-11-20 台达电子工业股份有限公司 感测装置安装辅助装置及其辅助调整感测范围的方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112904482A (zh) * 2021-03-23 2021-06-04 江西欧迈斯微电子有限公司 波导光栅元件及其制造方法和显示设备
CN115102036A (zh) * 2022-08-24 2022-09-23 立臻精密智造(昆山)有限公司 点阵激光发射结构、点阵激光系统及深度计算方法
CN116631022A (zh) * 2023-04-11 2023-08-22 广东德融汇科技有限公司 一种人脸精准识别方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
WO2020082752A1 (zh) 2020-04-30

Similar Documents

Publication Publication Date Title
US10521921B2 (en) Image capturing apparatus, system and method
CN111105448A (zh) 深度获取方法、深度获取装置及电子设备
US11189044B2 (en) Method and device for detecting object stacking state and intelligent shelf
CN108333860B (zh) 控制方法、控制装置、深度相机和电子装置
JP4485365B2 (ja) 測距装置
CN108140255B (zh) 用于识别场景中的反射表面的方法和系统
JP2006511895A5 (zh)
CN110133853B (zh) 可调散斑图案的调节方法及其投射方法
WO2016080908A1 (en) Optical pattern projection
US20200293793A1 (en) Methods and systems for video surveillance
JP4402458B2 (ja) 三次元計測における対応ポイントを決定する方法
CN112394365B (zh) 散斑的追踪方法、测距模组、电子设备及可读存储介质
CN111929695A (zh) 一种光学信息检测系统
US11458040B2 (en) Corneal topography mapping with dense illumination
CN113711229B (zh) 电子设备的控制方法、电子设备和计算机可读存储介质
KR102158026B1 (ko) 캘리브레이션 장치 및 카메라 시스템
US20190141312A1 (en) Methods and apparatus for dimensioning an object using proximate devices
CN113034427B (zh) 图像识别方法及图像识别装置
CN110908131A (zh) 投影模组、结构光三维成像装置和电子设备
KR102161488B1 (ko) 3차원 제품 디스플레이 장치 및 방법
US20210325686A1 (en) Diffractive optical element with collimator function
CN114638947A (zh) 数据标注方法、装置、电子设备及存储介质
US11335011B2 (en) Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program
US20150085273A1 (en) Measurement support device, measurement supporting method, and computer program product
CN110519574B (zh) 光学投射系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB02 Change of applicant information

Address after: 330013 No.698 Tianxiang Avenue, high tech Zone, Nanchang City, Jiangxi Province

Applicant after: OFilm Microelectronics Technology Co.,Ltd.

Address before: 330013 No.698 Tianxiang Avenue, high tech Zone, Nanchang City, Jiangxi Province

Applicant before: NANCHANG OFILM BIO-IDENTIFICATION TECHNOLOGY Co.,Ltd.

Address after: 330096 No.699 Tianxiang North Avenue, Nanchang hi tech Industrial Development Zone, Nanchang City, Jiangxi Province

Applicant after: Jiangxi OMS Microelectronics Co.,Ltd.

Address before: 330013 No.698 Tianxiang Avenue, high tech Zone, Nanchang City, Jiangxi Province

Applicant before: OFilm Microelectronics Technology Co.,Ltd.

CB02 Change of applicant information
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200505

WW01 Invention patent application withdrawn after publication