CN106210698B - 深度相机的控制方法 - Google Patents

深度相机的控制方法 Download PDF

Info

Publication number
CN106210698B
CN106210698B CN201510230932.XA CN201510230932A CN106210698B CN 106210698 B CN106210698 B CN 106210698B CN 201510230932 A CN201510230932 A CN 201510230932A CN 106210698 B CN106210698 B CN 106210698B
Authority
CN
China
Prior art keywords
depth
image
processor
sensing unit
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510230932.XA
Other languages
English (en)
Other versions
CN106210698A (zh
Inventor
陈昭宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lite On Electronics Guangzhou Co Ltd
Lite On Technology Corp
Original Assignee
Lite On Electronics Guangzhou Co Ltd
Lite On Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lite On Electronics Guangzhou Co Ltd, Lite On Technology Corp filed Critical Lite On Electronics Guangzhou Co Ltd
Priority to CN201510230932.XA priority Critical patent/CN106210698B/zh
Priority to US14/881,301 priority patent/US10156437B2/en
Publication of CN106210698A publication Critical patent/CN106210698A/zh
Application granted granted Critical
Publication of CN106210698B publication Critical patent/CN106210698B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

一种深度相机的控制方法,包含:一处理器控制一第一影像感测单元及一第二影像感测单元进行感测而产生一第一影像及一第二影像;处理器根据第一、第二影像产生一第一深度图;处理器对第一或第二影像进行边缘侦测以获得一边缘像素数目;当处理器判断边缘像素数目小于一第一默认像素数目,处理器控制一光源发光;处理器控制第二影像感测单元进行感测而产生一第三影像;处理器根据第三影像产生一第二深度图;处理器将第一、第二深度图融合以产生一融合深度图;及处理器将融合深度图与第一或第二影像配准以产生一三维点云数据,借此能避免高功率消耗,且维持高精准度的深度判别。

Description

深度相机的控制方法
技术领域
本发明涉及一种深度相机的控制方法,特别是涉及一种能产生三维点云数据的深度相机的控制方法。
背景技术
一种现有的深度相机为结构化光深度相机,其使用一红外光源发出具有特定图案的红外光,并使用一红外光感测器感测自视野反射回相机的红外光而产生一红外光影像,并透过分析该红外光影像而能获得深度图。结构化光深度相机的优点为其深度图的精准度高,然而当结构化光深度相机视野中的物体的距离较远时,红外光源的操作功率需提高,所发出的红外光才能自视野反射回结构化光深度相机,因此具有消耗功率大的缺点。
另一种现有的深度相机为立体视觉深度相机,其使用二色彩感测器产生不同视角的色彩影像,并透过分析该等色彩影像而能获得深度图。由于立体视觉深度相机不需发出红外光,因此功率消耗较结构化光深度相机低,然而当视野中出现大片平面的景物时,基于色彩影像所获得的边缘像素的数目不足,导致无法有效辨别出景物与深度相机之间的距离。
发明内容
本发明的目的在于提供一种能改善前述现有深度相机缺点的深度相机的控制方法。
本发明深度相机的控制方法,该深度相机包含一光源、一第一影像感测单元、一与该第一影像感测单元相间隔且具有重叠视野的第二影像感测单元,及一电连接于该光源、该第一影像感测单元、该第二影像感测单元的处理器,该第一影像感测单元能针对一第一波长范围的光线进行感测,该第二影像感测单元能针对该第一波长范围的光线及一第二波长范围的光线进行感测,该第二波长范围相异于该第一波长范围,该光源所发出的光线的波长在该第二波长范围内,该深度相机的控制方法包含:(A)该处理器控制该第一影像感测单元及该第二影像感测单元针对该第一波长范围进行感测,使该第一影像感测单元产生一第一影像,并使该第二影像感测单元产生一第二影像;(B)该处理器根据该第一影像及该第二影像产生一第一深度图;(C)该处理器对该第一影像或该第二影像进行边缘侦测以获得一边缘像素数目;(D)该处理器判断该边缘像素数目是否小于一第一默认像素数目;(E)当该处理器判断该边缘像素数目小于该第一默认像素数目,该处理器控制该光源发光;(F)该处理器控制该第二影像感测单元针对该第二波长范围进行感测,使该第二影像感测单元产生一第三影像;(G)该处理器根据该第三影像产生一第二深度图;(H)该处理器将该第二深度图与该第一深度图融合,以产生一融合深度图;及(I)该处理器将该融合深度图与该第一影像或该第二影像配准,以产生一三维点云数据。
在一些实施态样中,所述的深度相机的控制方法还包含:(J)当该处理器判断该边缘像素数目不小于该第一默认像素数目,该处理器根据该第一影像与该第二影像的数个视差值计算出一深度代表值;(K)该处理器判断该深度代表值是否大于一第一默认深度;(L)当该处理器判断该深度代表值不大于该第一默认深度,该处理器判断该边缘像素数目是否小于一第二默认像素数目,该第二默认像素数目大于该第一默认像素数目;(M)当该处理器判断该边缘像素数目小于该第二默认像素数目,该处理器判断该深度代表值是否小于一第二默认深度,该第二默认深度小于该第一默认深度;及(N)当该处理器判断该深度代表值不小于该第二默认深度,该处理器控制该光源发光,并接着执行(F)、(G)、(H)及(I),其中,驱动该光源的一第一驱动电流的电流值与该深度代表值呈正相关。
在一些实施态样中,所述的深度相机的控制方法还包含:(O)当该处理器判断该深度代表值小于该第二默认深度,该处理器控制该光源发光,并接着执行(F)、(G)、(H)及(I),其中,驱动该光源的一第二驱动电流的电流值不大于该第一驱动电流的最小电流值。
在一些实施态样中,所述的深度相机的控制方法还包含:(P)当该处理器判断该深度代表值大于该第一默认深度,该处理器不控制该光源发光,并将该第一深度图与该第一影像或该第二影像配准,以产生一三维点云数据。
在一些实施态样中,所述的深度相机的控制方法还包含:(Q)当该处理器判断该边缘像素数目不小于该第二默认像素数目,该处理器不控制该光源发光,并将该第一深度图与该第一影像或该第二影像配准,以产生一三维点云数据。
本发明的有益的效果在于:借由判断该边缘像素数目及该深度代表值的大小,以决定是否产生第二深度图及光源的操作功率,从而能避免高功率消耗,且维持高精准度的深度判别。
附图说明
图1是本发明深度相机的控制方法的实施例的深度相机的一硬体连接关系示意图;及
图2A及图2B是该实施例的一流程图。
具体实施方式
下面结合附图及实施例对本发明进行详细说明。
参阅图1与图2A、2B,是本发明深度相机的控制方法的实施例。深度相机包含一光源1、一第一影像感测单元2、一与第一影像感测单元相间隔且具有重叠视野的第二影像感测单元3、一记忆体5,及一电连接于光源1、第一影像感测单元2、第二影像感测单元3与记忆体5的处理器4。
第一影像感测单元2能针对一第一波长范围的光线进行感测。第二影像感测单元3能针对该第一波长范围的光线及一第二波长范围的光线进行感测,第二波长范围相异于第一波长范围。光源1所发出的光线的波长在该第二波长范围内。在本实施例中,该第一波长范围内的光线为可见光,该第二波长范围内的光线为不可见光,光源1所发出的光线为红外光。具体来说,本实施例的第一影像感测单元2包含一能感测第一波长范围的光线的RGB感测器,本实施例的第二影像感测单元包含一能感测第一波长范围及第二波长范围的光线的RGB-IR感测器。在另一实施态样中,第一影像感测单元2包含一能感测第一波长范围的光线的RGB感测器,而第二影像感测单元包含一能感测第一波长范围的光线的RGB感测器,及一能感测第二波长范围的光线的IR感测器。
记忆体5存储有一第一默认像素数目、一大于该第一默认像素数目的第二默认像素数目、一第一默认深度,及一小于该第一默认深度的第二默认深度。
深度相机的控制方法首先如步骤S01所示,处理器4控制第一影像感测单元2及第二影像感测单元3针对该第一波长范围进行感测,使第一影像感测单元2产生一第一影像,并使第二影像感测单元3产生一第二影像。接着,如步骤S02所示,处理器4根据该第一影像及该第二影像产生一第一深度图(depth map)。
接着,如步骤S03所示,处理器4对该第一影像或该第二影像进行边缘侦测(edgedetection)以获得一边缘像素(edge-pixel)数目。接着,如步骤S04所示,处理器4判断该边缘像素数目是否小于该第一默认像素数目,若是,则执行步骤S05,若否,则执行步骤S10。
如步骤S05所示,当处理器4判断该边缘像素数目小于该第一默认像素数目,处理器4控制光源1发光。接着,如步骤S06所示,处理器4控制第二影像感测单元3针对该第二波长范围进行感测,使第二影像感测单元3产生一第三影像。接着,如步骤S07所示,处理器4根据该第三影像产生一第二深度图。在本实施例中,光源1能发出一具有预定图案的图案化(patterned)红外光,又可称为结构化光(structured light),由于深度相机视野内不同距离的景物受到结构化光照射时,照射在景物上的预定图案会产生不同的形状改变,处理器4能借由将该第三影像中的各种图案与预先存储于记忆体5内的单个或数个参考图案比对,从而获得该第二深度图。
接着,如步骤S08所示,处理器4将该第二深度图与该第一深度图融合(fusion),以产生一融合深度图。接着,如步骤S09所示,处理器4将该融合深度图与该第一影像或该第二影像配准(registration),以产生一三维点云数据(3D point cloud data)。由于当该边缘像素数目小于该第一默认像素数目时,深度相机会执行步骤S05~S09,使得当该第一深度图的精准度不足时,深度相机会产生精准度高的第二深度图,并将该第二深度图与该第一深度图融合,借此维持深度相机深度感测的精准度。
另一方面,当步骤S04的判断结果为否,也就是说,当处理器4判断该边缘像素数目不小于该第一默认像素数目,则深度相机接着执行步骤S10。步骤S10是处理器4根据该第一影像与该第二影像的数个视差值(disparity)计算出一深度代表值。更明确的说,该第一影像与该第二影像之间具有该等视差值,处理器4能由各视差值计算出一深度,例如将各视差值倒数后乘以第一影像感测单元2与第二影像感测单元3之间的间距(以第一影像感测单元2及第二影像感测单元3的光学中心为准),再乘以第一影像感测单元2或第二影像感测单元3的焦距,再除以该第一影像或该第二影像的像素尺寸,就能求出该深度。处理器4再根据数个使用前述方法求出的深度,计算出该深度代表值。在本实施例中,该深度代表值为该等深度的平均值,但不以此为限,该深度代表值也可以例如是该等深度的中位数。
接着,如步骤S11所示,处理器4判断该深度代表值是否大于该第一默认深度,若是,则执行步骤S16,若否则执行步骤S12。
如步骤S16所示,当处理器4判断该深度代表值大于该第一默认深度,处理器4不控制光源1发光,并将该第一深度图与该第一影像或该第二影像配准,以产生三维点云数据。由于当该深度代表值大于该第一默认深度时,处理器4直接将该第一深度图与该第一影像或该第二影像配准而不产生第二深度图,因此,能避免视野中的景物大都距离过远时,深度相机的光源1以高功率运作而导致高耗能的情况。
又如步骤S12所示,当处理器4判断该深度代表值不大于该第一默认深度,处理器4判断该边缘像素数目是否小于该第二默认像素数目,若是,则接着执行步骤S13;若否,则执行步骤S16,也就是说,当处理器4判断该边缘像素数目不小于该第二默认像素数目,处理器4不控制该光源1发光,并将该第一深度图与该第一影像或该第二影像配准,以产生三维点云数据,借此,当该边缘像素数目十分充足而使第一深度图具有高精准度时,处理器4直接将该第一深度图与该第一影像或该第二影像配准而不产生第二深度图,从而能节省产生第二深度图所需的功耗。
另一方面,如步骤S13所示,当处理器4判断该边缘像素数目小于该第二默认像素数目,处理器4判断该深度代表值是否小于一第二默认深度,若是,则执行步骤S15,若否,则执行步骤S14。
如步骤S14所示,当该处理器4判断该深度代表值不小于该第二默认深度,处理器4控制光源1发光,且由处理器4产生并用于驱动光源1的一第一驱动电流I1的电流值与该深度代表值呈正相关。此处的正相关是指当该深度代表值越大时,该第一驱动电流的电流值也越大,当该深度代表值越小时,该第一驱动电流I1的电流值也越小。于步骤S14之后接着执行步骤S06、S07、S08及S09。借此,当视野内景物与深度相机的距离大致不会过远也没有很近,且第一深度图的精准度不高也不低时,深度相机依据景物与深度相机的距离调整光源1的操作功率以产生第二深度图,并将该第二深度图与该第一深度图融合,从而能维持深度相机深度感测的精准度,且不会造成过大的功耗。
另一方面,当该处理器4判断该深度代表值小于该第二默认深度,处理器4控制光源1发光,且由处理器4产生并用于驱动光源1的一第二驱动电流I2的电流值不大于该第一驱动电流I1的最小电流值。于步骤S14之后接着执行步骤S06、S07、S08及S09。借此,当视野内景物与深度相机的距离很近,且第一深度图的精准度不高也不低时,深度相机以最低的操作功率操作光源1以产生第二深度图,并将该第二深度图与该第一深度图融合,从而能维持深度相机深度感测的精准度,且不会造成过大的功耗。
举例来说,设第一默认像素数目为5000,第二默认像素数目为20000,第一默认深度为10000mm,第二默认深度为500mm。当该边缘像素数目为2000时,由于该边缘像素数目小于该第一默认像素数目,因此深度相机于执行完步骤S04的判断步骤之后会执行步骤S05、S06、S07、S08及S09。
又当该边缘像素数目为12000且该深度代表值为1000000mm时,由于该边缘像素数目不小于第一默认像素数目,且该深度代表值大于第一默认深度,因此,深度相机于执行完步骤S04及S11的判断步骤之后会执行步骤S16。
又当该边缘像素数目为50000且该深度代表值为700mm时,由于该边缘像素数目不小于该第一默认像素数目及该第二默认像素数目,且该深度代表值不大于第一默认深度,因此,深度相机于执行完步骤S04、S11及S12的判断步骤之后会执行步骤S16。
又当该边缘像素数目为10000且该深度代表值为700mm时,由于该边缘像素数目介于该第一默认像素数目及该第二默认像素数目之间,且该深度代表值介于第一默认深度及第二默认深度之间,因此,深度相机于执行完步骤S04、S11、S12及S13的判断步骤之后会执行步骤S14,并接着执行步骤S06、S07、S08及S09。
又当该边缘像素数目为8000且该深度代表值为300mm时,由于该边缘像素数目介于该第一默认像素数目及该第二默认像素数目之间,且该深度代表值小于该第二默认深度,因此,深度相机于执行完步骤S04、S11、S12及S13的判断步骤之后会执行步骤S15,并接着执行步骤S06、S07、S08及S09。
综上所述,本发明深度相机的控制方法借由判断该边缘像素数目及该深度代表值的大小,以决定是否产生第二深度图及光源1的操作功率,从而能避免高功率消耗,且维持高精准度的深度判别,故确实能达成本发明的目的。

Claims (5)

1.一种深度相机的控制方法;其特征在于:该深度相机包含一光源、一第一影像感测单元、一与该第一影像感测单元相间隔且具有重叠视野的第二影像感测单元,及一电连接于该光源、该第一影像感测单元、该第二影像感测单元的处理器,该第一影像感测单元能针对一第一波长范围的光线进行感测,该第二影像感测单元能针对该第一波长范围的光线及一第二波长范围的光线进行感测,该第二波长范围相异于该第一波长范围,该光源所发出的光线的波长在该第二波长范围内,该深度相机的控制方法包含:
(A)该处理器控制该第一影像感测单元及该第二影像感测单元针对该第一波长范围进行感测,使该第一影像感测单元产生一第一影像,并使该第二影像感测单元产生一第二影像;
(B)该处理器根据该第一影像及该第二影像产生一第一深度图;
(C)该处理器对该第一影像或该第二影像进行边缘侦测以获得一边缘像素数目;
(D)该处理器判断该边缘像素数目是否小于一第一默认像素数目;
(E)当该处理器判断该边缘像素数目小于该第一默认像素数目,该处理器控制该光源发光;
(F)该处理器控制该第二影像感测单元针对该第二波长范围进行感测,使该第二影像感测单元产生一第三影像;
(G)该处理器根据该第三影像产生一第二深度图;
(H)该处理器将该第二深度图与该第一深度图融合,以产生一融合深度图;及
(I)该处理器将该融合深度图与该第一影像或该第二影像配准,以产生一三维点云数据。
2.根据权利要求1所述的深度相机的控制方法,其特征在于:在(D)之后,还包含:
(J)当该处理器判断该边缘像素数目不小于该第一默认像素数目,该处理器根据该第一影像与该第二影像的数个视差值计算出一深度代表值;
(K)该处理器判断该深度代表值是否大于一第一默认深度;
(L)当该处理器判断该深度代表值不大于该第一默认深度,该处理器判断该边缘像素数目是否小于一第二默认像素数目,该第二默认像素数目大于该第一默认像素数目;
(M)当该处理器判断该边缘像素数目小于该第二默认像素数目,该处理器判断该深度代表值是否小于一第二默认深度,该第二默认深度小于该第一默认深度;及
(N)当该处理器判断该深度代表值不小于该第二默认深度,该处理器控制该光源发光,并接着执行(F)、(G)、(H)及(I),其中,驱动该光源的一第一驱动电流的电流值与该深度代表值呈正相关。
3.根据权利要求2所述的深度相机的控制方法,其特征在于:在(M)之后,还包含:
(O)当该处理器判断该深度代表值小于该第二默认深度,该处理器控制该光源发光,并接着执行(F)、(G)、(H)及(I),其中,驱动该光源的一第二驱动电流的电流值不大于该第一驱动电流的最小电流值。
4.根据权利要求2所述的深度相机的控制方法,其特征在于:在(K)之后,还包含:
(P)当该处理器判断该深度代表值大于该第一默认深度,该处理器控制该光源不发光,并将该第一深度图与该第一影像或该第二影像配准,以产生一三维点云数据。
5.根据权利要求2所述的深度相机的控制方法,其特征在于:在(L)之后,还包含:
(Q)当该处理器判断该边缘像素数目不小于该第二默认像素数目,该处理器控制该光源不发光,并将该第一深度图与该第一影像或该第二影像配准,以产生一三维点云数据。
CN201510230932.XA 2015-05-08 2015-05-08 深度相机的控制方法 Active CN106210698B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510230932.XA CN106210698B (zh) 2015-05-08 2015-05-08 深度相机的控制方法
US14/881,301 US10156437B2 (en) 2015-05-08 2015-10-13 Control method of a depth camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510230932.XA CN106210698B (zh) 2015-05-08 2015-05-08 深度相机的控制方法

Publications (2)

Publication Number Publication Date
CN106210698A CN106210698A (zh) 2016-12-07
CN106210698B true CN106210698B (zh) 2018-02-13

Family

ID=57222964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510230932.XA Active CN106210698B (zh) 2015-05-08 2015-05-08 深度相机的控制方法

Country Status (2)

Country Link
US (1) US10156437B2 (zh)
CN (1) CN106210698B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10453185B2 (en) * 2015-11-12 2019-10-22 Aquifi, Inc. System and method for high dynamic range depth capture using multiple cameras
US10372974B2 (en) * 2017-01-11 2019-08-06 Microsoft Technology Licensing, Llc 3D imaging recognition by stereo matching of RGB and infrared images
TWI672677B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 用以融合多深度圖的深度圖產生裝置
TWI647661B (zh) * 2017-08-10 2019-01-11 緯創資通股份有限公司 影像深度感測方法與影像深度感測裝置
CN109870116B (zh) * 2017-12-05 2021-08-03 光宝电子(广州)有限公司 深度成像装置及其驱动方法
CN109166125B (zh) * 2018-07-06 2021-03-12 长安大学 一种基于多边缘融合机制的三维深度图像分割算法
CN109410264B (zh) * 2018-09-29 2020-08-25 大连理工大学 一种基于激光点云与图像融合的前方车辆距离测量方法
JP7422454B2 (ja) 2019-02-06 2024-01-26 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN111541840B (zh) * 2019-02-06 2022-03-22 佳能株式会社 确定照明效果候选的信息处理设备、方法及存储介质
CN111989735B (zh) * 2019-03-21 2022-05-17 京东方科技集团股份有限公司 显示装置、电子设备及显示装置的驱动方法
CN110378246A (zh) * 2019-06-26 2019-10-25 深圳前海达闼云端智能科技有限公司 地面检测方法、装置、计算机可读存储介质及电子设备
US11450018B1 (en) * 2019-12-24 2022-09-20 X Development Llc Fusing multiple depth sensing modalities
CN111724404A (zh) * 2020-06-28 2020-09-29 深圳市慧鲤科技有限公司 边缘检测方法及装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004109601A1 (en) * 2003-05-30 2004-12-16 Dreamworks Rendering of soft shadows using depth maps
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN103869973A (zh) * 2012-12-17 2014-06-18 义明科技股份有限公司 感测装置以及感测方法
CN104376323A (zh) * 2013-08-12 2015-02-25 联想(北京)有限公司 一种确定目标距离的方法及装置
CN104604221A (zh) * 2012-09-03 2015-05-06 Lg伊诺特有限公司 用于生成深度图像的设备
CN104604220A (zh) * 2012-09-03 2015-05-06 Lg伊诺特有限公司 图像处理系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201227159A (en) * 2010-12-24 2012-07-01 wen-jin Zhang Method of taking pictures for generating three-dimensional image data
KR20120105169A (ko) * 2011-03-15 2012-09-25 삼성전자주식회사 복수의 거리 픽셀들을 포함하는 3차원 이미지 센서의 구동 방법
US9392262B2 (en) * 2014-03-07 2016-07-12 Aquifi, Inc. System and method for 3D reconstruction using multiple multi-channel cameras
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2016095192A1 (en) * 2014-12-19 2016-06-23 SZ DJI Technology Co., Ltd. Optical-flow imaging system and method using ultrasonic depth sensing
CN105912975B (zh) * 2015-02-20 2021-10-26 空中客车集团印度私人有限公司 使用视频分析来管理在过站期间出现的飞行器舱内行为
US20160255334A1 (en) * 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Generating an improved depth map using a multi-aperture imaging system
US9454820B1 (en) * 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
US9554063B2 (en) * 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9489745B1 (en) * 2015-06-12 2016-11-08 Google Inc. Using depth maps of a scene to identify movement of a video camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004109601A1 (en) * 2003-05-30 2004-12-16 Dreamworks Rendering of soft shadows using depth maps
CN102385237A (zh) * 2010-09-08 2012-03-21 微软公司 基于结构化光和立体视觉的深度相机
CN104604221A (zh) * 2012-09-03 2015-05-06 Lg伊诺特有限公司 用于生成深度图像的设备
CN104604220A (zh) * 2012-09-03 2015-05-06 Lg伊诺特有限公司 图像处理系统
CN103869973A (zh) * 2012-12-17 2014-06-18 义明科技股份有限公司 感测装置以及感测方法
CN104376323A (zh) * 2013-08-12 2015-02-25 联想(北京)有限公司 一种确定目标距离的方法及装置

Also Published As

Publication number Publication date
US20160330434A1 (en) 2016-11-10
CN106210698A (zh) 2016-12-07
US10156437B2 (en) 2018-12-18

Similar Documents

Publication Publication Date Title
CN106210698B (zh) 深度相机的控制方法
CN107944422B (zh) 三维摄像装置、三维摄像方法及人脸识别方法
US11206360B2 (en) Exposure control method for obtaining HDR image, related exposure control device and electronic device
CN107113415B (zh) 用于多技术深度图获取和融合的方法和设备
US9863767B2 (en) Motion sensor device having plurality of light sources
WO2018161466A1 (zh) 深度图像获取系统和方法
US8786679B2 (en) Imaging device, 3D modeling data creation method, and computer-readable recording medium storing programs
US10348945B2 (en) Light field image capturing apparatus including shifted microlens array
US20170059305A1 (en) Active illumination for enhanced depth map generation
TWI577171B (zh) 用於獲得影像深度資訊之系統及方法
JP6302414B2 (ja) 複数の光源を有するモーションセンサ装置
US11644570B2 (en) Depth information acquisition system and method, camera module, and electronic device
JP2016509378A (ja) 関心のある被写体の適応性照明を用いる奥行き撮像方法および装置
US11158086B2 (en) Camera calibration method and apparatus, electronic device, and computer-readable storage medium
CN109936712B (zh) 基于光标签的定位方法及系统
TWI744245B (zh) 產生具有減少過度平滑之視差圖
US10764562B2 (en) Depth generation system with adjustable light intensity
JP7010209B2 (ja) 画像処理装置および方法
KR101523046B1 (ko) 영상처리기반의 거리 측정장치
CN105721854A (zh) 摄像装置及其便携式终端以及使用摄像装置的摄像方法
CN108340405B (zh) 一种机器人三维扫描系统及方法
TWI571099B (zh) 深度估測裝置及方法
US20170332068A1 (en) System for three-dimensional image capture while moving
CN110836647B (zh) 三维扫描系统
KR20120070320A (ko) 스테레오 카메라를 포함하는 디스플레이 시스템 및 이를 이용한 위치검출 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant