CN113573038A - 双目系统及深度图获取方法 - Google Patents
双目系统及深度图获取方法 Download PDFInfo
- Publication number
- CN113573038A CN113573038A CN202010356319.3A CN202010356319A CN113573038A CN 113573038 A CN113573038 A CN 113573038A CN 202010356319 A CN202010356319 A CN 202010356319A CN 113573038 A CN113573038 A CN 113573038A
- Authority
- CN
- China
- Prior art keywords
- image
- image sensing
- sensing chip
- depth
- processing module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种双目系统和深度图获取方法,该双目系统包括第一图像感应组件、第二图像感应组件和逻辑处理模块,第一图像感应组件包括第一图像感应芯片,第二图像感应组件包括第二图像感应芯片,第一图像感应芯片的分辨率大于第二图像感应芯片的分辨率,第一图像感应芯片和第二图像感应芯片分别连接于逻辑处理模块,第二图像感应组件连接于第一图像感应组件。本发明的双目系统及深度图获取方法中,由于第二图像感应芯片采用较低的分辨率,因此可降低双目系统的整体功耗,并且低分辨率的第二图像感应芯片生成的数据所需的带宽更小,可降低系统时延,同时,低分辨率所需的计算资源更少,更够显著提升系统性能。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种双目系统及深度图获取方法。
背景技术
通常,普通人利用双眼观察物体,左眼观察到的物体影像与右眼观察到的物体影像有微小的视差,配合一定的经验,就可以估算出观察到的物体与自己的距离,从而使被观察的物体具备立体感。随着科技的进步,人们需要获得立体的图像。例如,利用结构光进行人脸识别时,需要知道人脸的深度信息。目前,针对图片或者影像的立体显示也大都是利用了人的两眼的视差特性来实现的,利用两台并列安置的摄影机,分别代表人的左眼、右眼,同步拍摄出两条略带水平视差的画面,也就是双目测距系统的工作原理。双目立体视觉基于上述视差原理,从双目相机中获取的多幅图像中恢复被测物体三维几何信息,即获得全部物体或目标物体的深度图像或深度值。然而,如图1所示,目前双目系统采用两个单独的同样大小的图像芯片,如第一图像感应芯片102和第二图像感应芯片104,两者都具有比较大的分辨率,而且需要一块额外的后端处理芯片106来执行双目深度计算的功能,整个系统功耗较高,且数据传输的速度较慢。
前面的叙述在于提供一般的背景信息,并不一定构成现有技术。
发明内容
本发明的目的在于提供一种功耗较低,且延迟较少的双目系统及深度图获取方法。
本发明提供一种双目系统,包括第一图像感应组件、第二图像感应组件和逻辑处理模块,所述第一图像感应组件包括第一图像感应芯片,所述第二图像感应组件包括第二图像感应芯片,所述第一图像感应芯片的分辨率大于所述第二图像感应芯片的分辨率,所述第一图像感应芯片和所述第二图像感应芯片分别连接于所述逻辑处理模块,所述第二图像感应组件连接于所述第一图像感应组件。
本发明还提供一种深度图获取方法,采用上述双目系统,所述深度图获取方法包括以下步骤:
所述第一图像感应芯片和所述第二图像感应芯片同时采集图像,分别获得第一图像和第二图像,其中,所述第一图像的分辨率大于所述第二图像的分辨率;
对所述第一图像和所述第二图像进行预处理;
对预处理后的所述第一图像和所述第二图像进行深度计算得到深度图像。
本发明的双目系统及深度图获取方法中,由于第二图像感应芯片采用较低的分辨率,因此可降低双目系统的整体功耗,并且低分辨率的第二图像感应芯片生成的数据所需的带宽更小,可降低系统时延,同时,低分辨率所需的计算资源更少,更够显著提升系统性能。
附图说明
图1为现有技术中双目测距系统的结构框图。
图2为本发明一实施例的双目系统的结构框图。
图3为本发明一实施例的双目系统更具体的结构框图。
图4为本发明一实施例的深度图获取方法的流程示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
请参图2,本发明一实施例的双目系统具有两个不同分辨率的图像传感器芯片,即第一图像感应芯片114和第二图像感应芯片132,还包括逻辑处理模块112,逻辑处理模块112堆叠在第一图像感应芯片114上。
请参图3,具体地,本发明一实施例的双目系统包括第一图像感应组件11、第二图像感应组件13和逻辑处理模块112,第一图像感应组件11包括第一图像感应芯片114,第二图像感应组件13包括第二图像感应芯片132,第一图像感应芯片114的分辨率大于第二图像感应芯片132的分辨率。第一图像感应芯片112和第二图像感应芯片132分别连接于逻辑处理模块112,第二图像感应组件13连接于第一图像感应组件11。在一个实施例中,所述第一图像感应芯片114的分辨率为8MP,所述第二图像感应芯片的分辨率为1MP。
本发明的双目系统,由于第二图像感应芯片132采用较低的分辨率,因此可降低双目系统的整体功耗,并且低分辨率的第二图像感应芯片132生成的数据所需的带宽更小,可降低系统时延,同时,低分辨率所需的计算资源更少,更够显著提升系统性能。
本实施例中,第一图像感应组件11用于向第二图像感应组件13发送同步信号,以使第一图像感应芯片114和第二图像感应芯片132同时采集图像。
本实施例中,逻辑处理模块112用于接收第一图像感应芯片114采集的第一图像和第二图像感应芯片132采集的第二图像。
本实施例中,第一图像感应组件11还包括该逻辑处理模块112。可以理解,逻辑处理模块112也可单独设置,而不设置于第一图像感应组件11。通过将逻辑处理模块112整合或堆叠在第一图像感应组件11上,因此不需要另外的芯片进行后端处理,能够直接从第一图像感应组件11得到深度信息,可进一步降低时延,系统能更加快速反应;并且系统的集成度更高,体积更小,不需要另外的芯片,可适应各种不同的设备。
本实施例中,逻辑处理模块112包括计算模块116和校准模块117。校准模块117用于对第一图像感应芯片114获取的第一图像和第二图像感应芯片132获取的第二图像进行预处理,预处理包括但限于畸变校正、缩放、对齐、直方图均衡等。计算模块116用于对预处理后的第一图像和第二图像进行深度计算得到深度图像,深度图像的分辨率不大于第二图像的分辨率。计算所述深度图像可以利用三角函数关系,根据公式d=f*b/s进行计算,其中f是焦距,b是双目系统的基线,s是视差,d是深度值。所述深度图像的视差s是由所有每个像素的视差计算得到的。因此所述深度图像包含了图像中所有物体的深度信息。
逻辑处理模块112还可包括检测模块118和匹配模块119。检测模块118可用于对第一图像感应芯片114获取的第一图像进行目标检测或目标跟踪,得到目标的ROI信息。匹配模块119可用于根据ROI信息在第二图像感应芯片132获取的第二图像上的一定范围内进行匹配计算得到目标深度值。因此其中目标深度值的计算由部分像素的视差计算得到。
在另一个实施例中,所述检测模块118可直接对所述深度图像进行目标检测或目标跟踪,得到目标的ROI信息。或者,对所述深度图像结合所述第一图像进行目标检测或目标跟踪,得到目标的ROI信息。这种情况下,由于深度图像中已经包含了目标深度值,因此无需再与所述第二图像进行匹配计算目标深度值。
请参图4,本发明一实施例中提供的深度图获取方法,采用上述双目系统,该深度图获取方法包括以下步骤:
S11,第一图像感应组件11向第二图像感应组件13发送同步信号。具体地,该同步信号可通过MIPI协议发送同步信号。
S13,第一图像感应芯片114和第二图像感应芯片132根据同步信号同时采集图像,分别获得第一图像和第二图像。
S15,对第一图像和第二图像进行预处理。具体地,对第一图像和第二图像的预处理包括但不限于对第一图像和第二图像进行畸变校正、缩放、对齐和直方图均衡。
具体地,在步骤S15中,还包括:第二图像感应组件13将第二图像感应芯片132采集到的图像发送给第一图像感应组件11的逻辑处理模块112,第一图像感应芯片114将采集到的图像发送给逻辑处理模块112。逻辑处理模块112对第一图像和第二图像进行预处理。更具体地,逻辑处理模块112的校准模块117对第一图像和第二图像进行预处理。
S17,对预处理后的第一图像和第二图像进行深度计算得到深度图像。具体地,逻辑处理模块112的计算模块116对预处理后的第一图像和第二图像进行计算得到深度图像。一般地,采用SGM(Semi-Global Matching)或GwcNet(Group-wise Correlation Network)方法计算得到深度图像。深度图像的分辨率不高于第二图像感应芯片132的分辨率。
具体地,SGM方法一般包括:
S171,匹配代价计算(matching cost computation);
一般是基于强度和颜色的绝对差异、平方差异或者采样不敏感差异,因为这些代价对辐射度radiometric差异敏感,也有方法用到基于图像梯度的代价。为了处理图像间的复杂辐射度关系,将互信息引入计算机视觉中,已经用到了立体匹配和近似更快计算中。
S172,匹配代价叠加(cost aggregation);
代价叠加是在某个邻域内连接匹配代价。通常,代价就是在恒定视差上对固定尺寸的窗做简单加和;一些方法还对窗内的每个元素根据与中心像素的颜色相似性和距离赋权重;也可以根据连续强度和颜色的段选择邻域。
S173,视差计算/优化(disparity computation/optimization);
局部算法需要做视差计算,方法是选择最低匹配误差对应的视差。
全局算法跳过第二步代价叠加,直接对匹配代价处理,定义一个包含一个数据项和平滑项的全局能量函数,前者对像素级匹配代价加和,后者支持分段平滑视差选择。一些方法加更多的数据项用来惩罚遮挡,或者用可见性,做图像间的左/右或者对称一致性,或者根据分割信息对平滑性加权。从全局能量函数中找最小值用的策略是不同的。动态规划方法(DP)在1D对每个扫描线单独优化,通常会导致streaking effects,用基于树的DP方法可以避免这个问题。用Graph Cuts或Belief Propagation可以做2D优化。分层方法做图像分割,然后在视差空间对平面建模,做迭代优化。
S174,视差细化(disparity refinement)。
视差细化一般是用来消除peaks,检验一致性,在gap内插值,或者通过亚像素插值增加准确性。因为大多数算法得到的视差都是离散值,为了提高精度,需要对其做细化。
本发明深度图获取方法还可包括以下步骤:对所述第一图像感应芯片114获取的第一图像和/或所述深度图像进行目标检测或目标跟踪,并得到目标在图像上的信息,即ROI信息;以及,当利用所述第一图像进行目标检测或目标跟踪时根据所述ROI信息在所述第二图像感应芯片132获取的图像上的一定范围内进行匹配计算得到目标深度值。
本发明双目系统采用一大一小两个不同分辨率的图像传感器芯片,相对于现有技术采用两个同样大小的芯片而言,低分辨率所需的计算资源更少,可降低系统算力需求,显著提升系统性能,降低系统整体功耗。并且本发明逻辑处理模块与第一图像感应芯片整合,不需要额外的后端处理芯片,可降低系统时延,提高传输数据速率,且集成度更高,可以灵活适用于各种不同用途的设备,在相同功耗下,处理能力也更快。
本发明的深度图获取方法中,由于采用的双目系统的第二图像感应芯片132采用较低的分辨率,因此可降低双目系统的整体功耗,并且低分辨率的第二图像感应芯片132生成的数据所需的带宽更小,可降低系统时延,同时,低分辨率所需的计算资源更少,更够显著提升系统性能。在附图中,为了清晰起见,会夸大层和区域的尺寸和相对尺寸。应当理解的是,当元件例如层、区域或基板被称作“形成在”、“设置在”或“位于”另一元件上时,该元件可以直接设置在所述另一元件上,或者也可以存在中间元件。相反,当元件被称作“直接形成在”或“直接设置在”另一元件上时,不存在中间元件。
在本文中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语的具体含义。
在本文中,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”、“竖直”、“水平”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了表达技术方案的清楚及描述方便,因此不能理解为对本发明的限制。
在本文中,用于描述元件的序列形容词“第一”、“第二”等仅仅是为了区别属性类似的元件,并不意味着这样描述的元件必须依照给定的顺序,或者时间、空间、等级或其它的限制。
在本文中,除非另有说明,“多个”、“若干”的含义是两个或两个以上。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,除了包含所列的那些要素,而且还可包含没有明确列出的其他要素。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (13)
1.一种双目系统,包括第一图像感应组件(11)和第二图像感应组件(13),其特征在于,所述双目系统还包括逻辑处理模块(112),所述第一图像感应组件(11)包括第一图像感应芯片(114),所述第二图像感应组件(13)包括第二图像感应芯片(132),所述第一图像感应芯片(114)的分辨率大于所述第二图像感应芯片(132)的分辨率,所述第一图像感应芯片(112)和所述第二图像感应芯片(132)分别连接于所述逻辑处理模块(112),所述第二图像感应组件(13)连接于所述第一图像感应组件(11)。
2.如权利要求1所述的双目系统,其特征在于,所述第一图像感应组件(11)用于向所述第二图像感应组件(13)发送同步信号,以使所述第一图像感应芯片(114)和所述第二图像感应芯片(132)同时采集图像。
3.如权利要求1所述的双目系统,其特征在于,所述逻辑处理模块(112)用于接收所述第一图像感应芯片(114)采集的第一图像和所述第二图像感应芯片(132)采集的第二图像。
4.如权利要求1所述的双目系统,其特征在于,所述逻辑处理模块(112)设于所述第一图像感应组件(11)内,并与所述第一图像感应芯片(114)堆叠。
5.如权利要求1所述的双目系统,其特征在于,所述逻辑处理模块(112)包括计算模块(116)和校准模块(117),所述校准模块(117)用于对所述第一图像感应芯片(114)采集的第一图像和所述第二图像感应芯片(132)采集的第二图像进行预处理,所述计算模块(116)用于对预处理后的第一图像和第二图像图像进行深度计算得到深度图像,所述深度图像的分辨率不大于所述第二图像的分辨率。
6.如权利要求5所述的双目系统,其特征在于,所述逻辑处理模块(112)还包括检测模块(118),所述检测模块(118)用于对所述第一图像感应芯片(114)获取的第一图像和/或所述深度图像进行目标检测或目标跟踪,得到目标的ROI信息。
7.如权利要求6所述的双目系统,其特征在于,所述逻辑处理模块(112)还包括匹配模块(119),所述匹配模块(119)用于利用所述第一图像进行目标检测或目标跟踪时根据所述ROI信息在所述第二图像感应芯片(132)获取的第二图像上的一定范围内进行匹配计算得到目标深度值。
8.一种深度图获取方法,采用权利要求1-7任意一项所述的双目系统,其特征在于,所述深度图获取方法包括以下步骤:
所述第一图像感应芯片(114)和所述第二图像感应芯片(132)同时采集图像,分别获得第一图像和第二图像,其中,所述第一图像的分辨率大于所述第二图像的分辨率;
对所述第一图像和所述第二图像进行预处理;
对预处理后的所述第一图像和所述第二图像进行深度计算得到深度图像。
9.如权利要求8所述的深度图获取方法,其特征在于,所述深度图获取方法还包括位于所述第一图像感应芯片(114)和所述第二图像感应芯片(132)同时采集图像的步骤之前的步骤:
所述第一图像感应组件(11)向所述第二图像感应组件(13)发送同步信号。
10.如权利要求8所述的深度图获取方法,其特征在于,所述对所述第一图像和所述第二图像进行预处理的步骤中,还包括:
所述第二图像感应组件(13)将所述第二图像感应芯片(132)采集到的图像发送给所述逻辑处理模块(112),所述第一图像感应芯片(114)将采集到的图像发送给所述逻辑处理模块(112),所述逻辑处理模块(112)对所述第一图像和所述第二图像进行预处理。
11.如权利要求8所述的深度图获取方法,其特征在于,所述对所述第一图像和所述第二图像进行预处理的步骤具体包括:对所述第一图像和所述第二图像进行畸变校正、缩放、对齐和/或直方图均衡。
12.如权利要求8所述的深度图获取方法,其特征在于,所述深度图获取方法还包括步骤:对所述第一图像感应芯片(114)获取的第一图像和/或所述深度图像进行目标检测或目标跟踪,得到目标的ROI信息。
13.如权利要求12所述的深度图获取方法,其特征在于,当利用所述第一图像进行目标检测或目标跟踪时根据所述ROI信息在所述第二图像感应芯片(132)获取的图像上的一定范围内进行匹配计算得到目标深度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010356319.3A CN113573038B (zh) | 2020-04-29 | 2020-04-29 | 双目系统及深度图获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010356319.3A CN113573038B (zh) | 2020-04-29 | 2020-04-29 | 双目系统及深度图获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113573038A true CN113573038A (zh) | 2021-10-29 |
CN113573038B CN113573038B (zh) | 2024-08-23 |
Family
ID=78158509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010356319.3A Active CN113573038B (zh) | 2020-04-29 | 2020-04-29 | 双目系统及深度图获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113573038B (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110169921A1 (en) * | 2010-01-12 | 2011-07-14 | Samsung Electronics Co., Ltd. | Method for performing out-focus using depth information and camera using the same |
CN102487444A (zh) * | 2010-12-02 | 2012-06-06 | 上海立体数码科技发展有限公司 | 使用cmos图像传感器的立体成像系统 |
US20140177942A1 (en) * | 2012-12-26 | 2014-06-26 | Industrial Technology Research Institute | Three dimensional sensing method and three dimensional sensing apparatus |
US20150116459A1 (en) * | 2013-10-25 | 2015-04-30 | Lips Incorporation | Sensing device and signal processing method thereof |
KR101516428B1 (ko) * | 2013-12-26 | 2015-05-06 | 홍예브게니 | 로봇의 사물 인식 시스템 |
CN104715238A (zh) * | 2015-03-11 | 2015-06-17 | 南京邮电大学 | 一种基于多特征融合的行人检测方法 |
CN104954776A (zh) * | 2014-03-24 | 2015-09-30 | 宏达国际电子股份有限公司 | 图像校正方法及其图像撷取装置 |
CN105678288A (zh) * | 2016-03-04 | 2016-06-15 | 北京邮电大学 | 目标跟踪方法和装置 |
CN107687841A (zh) * | 2017-09-27 | 2018-02-13 | 中科创达软件股份有限公司 | 一种测距方法及装置 |
CN108496201A (zh) * | 2017-09-27 | 2018-09-04 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
CN108764091A (zh) * | 2018-05-18 | 2018-11-06 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
WO2019054610A1 (ko) * | 2017-09-15 | 2019-03-21 | 삼성전자주식회사 | 복수의 이미지 센서들을 제어하기 위한 전자 장치 및 방법 |
CN109643454A (zh) * | 2016-08-10 | 2019-04-16 | Ux 株式会社 | 集成cmos感应的立体图形整合系统及方法 |
CN109831660A (zh) * | 2019-02-18 | 2019-05-31 | Oppo广东移动通信有限公司 | 深度图像获取方法、深度图像获取模组及电子设备 |
US20190354746A1 (en) * | 2018-05-18 | 2019-11-21 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
CN110782412A (zh) * | 2019-10-28 | 2020-02-11 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN110992424A (zh) * | 2019-11-27 | 2020-04-10 | 苏州智加科技有限公司 | 基于双目视觉的定位方法和系统 |
-
2020
- 2020-04-29 CN CN202010356319.3A patent/CN113573038B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110169921A1 (en) * | 2010-01-12 | 2011-07-14 | Samsung Electronics Co., Ltd. | Method for performing out-focus using depth information and camera using the same |
CN102487444A (zh) * | 2010-12-02 | 2012-06-06 | 上海立体数码科技发展有限公司 | 使用cmos图像传感器的立体成像系统 |
US20140177942A1 (en) * | 2012-12-26 | 2014-06-26 | Industrial Technology Research Institute | Three dimensional sensing method and three dimensional sensing apparatus |
US20150116459A1 (en) * | 2013-10-25 | 2015-04-30 | Lips Incorporation | Sensing device and signal processing method thereof |
KR101516428B1 (ko) * | 2013-12-26 | 2015-05-06 | 홍예브게니 | 로봇의 사물 인식 시스템 |
CN104954776A (zh) * | 2014-03-24 | 2015-09-30 | 宏达国际电子股份有限公司 | 图像校正方法及其图像撷取装置 |
CN104715238A (zh) * | 2015-03-11 | 2015-06-17 | 南京邮电大学 | 一种基于多特征融合的行人检测方法 |
CN105678288A (zh) * | 2016-03-04 | 2016-06-15 | 北京邮电大学 | 目标跟踪方法和装置 |
CN109643454A (zh) * | 2016-08-10 | 2019-04-16 | Ux 株式会社 | 集成cmos感应的立体图形整合系统及方法 |
WO2019054610A1 (ko) * | 2017-09-15 | 2019-03-21 | 삼성전자주식회사 | 복수의 이미지 센서들을 제어하기 위한 전자 장치 및 방법 |
CN108496201A (zh) * | 2017-09-27 | 2018-09-04 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
CN107687841A (zh) * | 2017-09-27 | 2018-02-13 | 中科创达软件股份有限公司 | 一种测距方法及装置 |
CN108764091A (zh) * | 2018-05-18 | 2018-11-06 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
US20190354746A1 (en) * | 2018-05-18 | 2019-11-21 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for detecting living body, electronic device, and storage medium |
CN109831660A (zh) * | 2019-02-18 | 2019-05-31 | Oppo广东移动通信有限公司 | 深度图像获取方法、深度图像获取模组及电子设备 |
CN110782412A (zh) * | 2019-10-28 | 2020-02-11 | 深圳市商汤科技有限公司 | 图像处理方法及装置、处理器、电子设备及存储介质 |
CN110992424A (zh) * | 2019-11-27 | 2020-04-10 | 苏州智加科技有限公司 | 基于双目视觉的定位方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113573038B (zh) | 2024-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106993112B (zh) | 基于景深的背景虚化方法及装置和电子装置 | |
US10116867B2 (en) | Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product | |
EP2064675B1 (en) | Method for determining a depth map from images, device for determining a depth map | |
EP3582488B1 (en) | Autofocus for stereoscopic camera | |
KR100938195B1 (ko) | 스테레오 매칭을 이용한 거리 추정 장치 및 추정 방법 | |
US20180014003A1 (en) | Measuring Accuracy of Image Based Depth Sensing Systems | |
EP2757789A1 (en) | Image processing system, image processing method, and image processing program | |
CN104685513A (zh) | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 | |
JP2009139995A (ja) | ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム | |
WO2012049098A1 (en) | Range image pixel matching method | |
CN110517211B (zh) | 一种基于梯度域映射的图像融合方法 | |
Chen et al. | Variational fusion of time-of-flight and stereo data for depth estimation using edge-selective joint filtering | |
Liu et al. | High quality depth map estimation of object surface from light-field images | |
CN110021055A (zh) | 产生视差图的方法及其图像处理装置与系统 | |
US20140192163A1 (en) | Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system | |
CN110443228B (zh) | 一种行人匹配方法、装置、电子设备及存储介质 | |
EP2913793B1 (en) | Image processing device and image processing method | |
US20230394832A1 (en) | Method, system and computer readable media for object detection coverage estimation | |
CN113573038B (zh) | 双目系统及深度图获取方法 | |
Um et al. | Three-dimensional scene reconstruction using multiview images and depth camera | |
CN113808070B (zh) | 一种双目数字散斑图像相关的视差测量方法 | |
EP3099054A1 (en) | Method and apparatus for determining a focal stack of images from light field data associated with a scene, and corresponding computer program product | |
Loghman et al. | Fast depth estimation using semi-global matching and adaptive stripe-based optimization | |
CN112750157A (zh) | 一种深度图像生成方法及装置 | |
CN113573039A (zh) | 目标深度值获取方法及双目系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |