CN108779978A - 深度感测系统和方法 - Google Patents
深度感测系统和方法 Download PDFInfo
- Publication number
- CN108779978A CN108779978A CN201780014934.2A CN201780014934A CN108779978A CN 108779978 A CN108779978 A CN 108779978A CN 201780014934 A CN201780014934 A CN 201780014934A CN 108779978 A CN108779978 A CN 108779978A
- Authority
- CN
- China
- Prior art keywords
- light
- sensor
- sensor pixel
- visible light
- visible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title description 39
- 238000001228 spectrum Methods 0.000 claims abstract description 59
- 230000003287 optical effect Effects 0.000 claims abstract description 56
- 230000005540 biological transmission Effects 0.000 claims abstract description 18
- 230000033001 locomotion Effects 0.000 claims description 6
- 238000003708 edge detection Methods 0.000 claims description 5
- 239000013307 optical fiber Substances 0.000 claims description 5
- 230000003068 static effect Effects 0.000 claims description 4
- 238000002156 mixing Methods 0.000 description 21
- 230000008859 change Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000003672 processing method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 241000256856 Vespidae Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/10—Beam splitting or combining systems
- G02B27/1006—Beam splitting or combining systems for splitting or combining different wavelengths
- G02B27/1013—Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/208—Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14603—Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
- H01L27/14605—Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/1462—Coatings
- H01L27/14621—Colour filter arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/702—SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/705—Pixels for depth measurement, e.g. RGBZ
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Power Engineering (AREA)
- Optics & Photonics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Electromagnetism (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
一种深度感测系统,包括传感器,所述传感器具有第一传感器像素和第二传感器像素以接收来自表面的光。系统还包括滤光器,所述滤光器允许全光谱光透射到第一传感器像素,以及将可见光透射到第二传感器像素,同时阻止将红外光透射到第二传感器像素。所述系统进一步包括处理器,所述处理器被用于分析全光谱光和可见光以确定表面的深度。滤光器被设置在传感器与表面之间。
Description
相关申请的交叉引用
本申请要求于2016年3月1日提交的序列号为62/301,847,代理案卷号为ML.30066.00,名称为“深度感测系统和方法”的美国临时申请的优先权。本申请涉及于2014年6月14日提交的序列号为62/012,273的美国临时专利申请(代理案卷号ML.30019.00),以及于2013年6月13日提交的序列号为14/738,877的美国实用新型专利申请(代理案卷号ML.20019.00)。前述专利申请的全部内容通过引用明确且完整地并入此文,就像完整阐述一样。在代理序列号为62/012,273和14/738,877的专利申请中描述的是虚拟现实和增强现实系统的各种实施例,其中,投射光被用于深度感测。在此描述投射光深度感测系统和用于深度感测的光传感器的另外的实施例。
技术领域
本公开涉及深度感测系统和方法。
背景技术
深度感测是对三维(“3D”)空间中的已知点(例如传感器)与对象表面上的兴趣点(“POI”)之间的距离的确定。深度感测也称为纹理感测,因为表面上的多个POI的相应距离的确定决定该表面的纹理。深度或纹理感测对于包括混合现实系统的许多计算机视觉系统是有用的。
现代计算和显示技术已经促进了用于所谓“虚拟现实”或“增强现实”体验的混合现实系统的发展,其中,数字再现的图像或其部分以看起来真实或可被感知为真实的方式呈现给用户。虚拟现实或“VR”场景通常涉及以对其他实际的现实世界的视觉输入不透明的方式呈现数字或虚拟图像信息。增强现实或“AR”场景通常涉及数字或虚拟图像信息的呈现,作为对用户周围实际世界的可视化的增强(即,对其他实际的现实世界视觉输入透明)。因此,AR场景涉及以对其他实际的现实世界视觉输入透明的方式呈现数字或虚拟图像信息。
各种光学系统以不同的深度生成图像,以用于显示混合现实(VR和AR)场景。在序列号为14/738,877的美国实用新型专利申请(代理案卷号ML.20019.00)中描述了一些这样的光学系统,该专利的内容先前已经通过引用并入此文。于2014年11月27日提交的序列号为14/555,585的美国实用新型专利申请(代理案卷号ML.20011.00)中描述了用于显示混合现实场景的其他这种光学系统,该专利的全部内容通过引用明确且完整地并入此文,就像完整阐述一样。
AR场景通常包括对与现实世界对象相关的虚拟图像元素的呈现。例如,参考图1,描绘了增强现实场景100,其中,AR技术的用户看到现实世界的公园状的设置102,该设置102以人、树木、背景中的建筑物和混凝土平台104为特征。除了这些项之外,AR技术的用户还感知到他“看到”站在现实世界平台104上的机器人雕像106,以及看起来是大黄蜂的化身的正在飞行的卡通式的化身角色108,尽管这些元素106、108并不存在于现实世界中。为了呈现可信或可传递的AR场景100,必须确定现实世界对象(例如平台104)的深度以呈现与现实世界对象有关的虚拟对象(例如机器人雕像106)。
包括现实世界环境的部分再现的VR场景也可以受益于对现实世界环境的那些部分的深度和纹理的确定。准确的深度和纹理信息将导致更准确的VR场景。AR和VR场景也都可包括面向外的相机来捕获现实世界环境的部分(例如,用于分析或传送)。通过对现实世界环境中那些部分的深度的确定,可以帮助聚焦这些面向外的照相机。
深度感测的一种方法包括测量表面上的单个POI和相应图像上的POI的两个图像(这两个图像在已知取向上被分开已知距离)的光轴之间的相应角度。然后,通过对测量到的角度和图像捕获位置之间的已知距离进行三角测量来确定表面的深度。这种方法的问题包括:(1)对第一图像中的POI(特别是在同质表面上)的识别(“识别问题”),以及(2)对第二图像中的对应POI的识别(“对应问题”)。在此描述的系统和方法被配置为解决这些质疑。
发明内容
本发明的实施例涉及用于促进与一个或多个用户的虚拟现实和/或增强现实交互的设备、系统和方法。
在一个实施例中,深度感测系统包括传感器,所述传感器具有第一传感器像素和第二传感器像素以接收来自表面的光。所述系统还包括滤光器,所述滤光器允许全光谱光透射到所述第一传感器像素,并且允许可见光透射到所述第二传感器像素,同时阻止红外光透射到所述第二传感器像素。所述系统进一步包括处理器,所述处理器被用于分析所述全光谱光和所述可见光以确定所述表面的深度。所述滤光器被设置在所述传感器与所述表面之间。
在一个或多个实施例中,所述传感器具有包括所述第二传感器像素的多个第二传感器像素,所述多个第二传感器像素中的每一者与所述第一传感器像素相邻,以及所述滤光器允许将可见光透射到所述多个第二传感器像素中的每一者,同时防止将红外光透射到所述多个第二传感器像素中的每一者。分析所述全光谱光和所述可见光可包括基于与所述多个第二传感器像素对应的多个检测到的可见光值来计算用于所述第一传感器像素的估计可见光值。计算所述估计可见光值可包括对所述多个检测到的可见光值进行平均。计算所述估计可见光值可包括对所述多个检测到的可见光值执行边缘检测。
在一个或多个实施例中,所述传感器具有包括所述第一传感器像素的多个第一传感器像素,所述多个第一传感器像素中的每一者与所述第一传感器像素相邻,以及所述滤光器允许将可见光透射到所述多个第二传感器像素中的每一者,同时阻止将红外光透射到所述多个第二传感器像素中的每一者。分析所述全光谱光和所述可见光可包括计算用于所述多个第一传感器像素中的每一者计算多个估计可见光值,并且基于所述多个估计可见光值中的至少一些来计算用于所述第一传感器像素的估计可见光值。
在一个或多个实施例中,所述系统还包括空间调制光投射设备,所述空间调制的光投射设备被用于向所述表面投射所述光,其中,所述光从所述表面向所述传感器反射。分析所述全光谱光和所述可见光可包括生成所述表面的红外光图像。分析所述全光谱光和所述可见光可包括对所述表面的所述红外光图像中的POI进行三角测量。
在另一个实施例中,深度感测系统包括空间调制的光投射设备,所述空间调制的光投射设备被用于向表面投射光。所述系统还包括传感器,所述传感器被用于接收从所述表面反射的光的传感器。所述系统进一步包括致动器,所述致动器被用于控制所述光投射设备的空间调制并从所述传感器接收光信息。此外,所述系统包括处理器,所述处理器被用于分析从所述表面反射的所述光以确定所述表面的深度。所述光包括具有从大约700nm到大约1mm的波长的红外光。
在一个或多个实施例中,所述光包括具有从大约390nm到大约700nm的波长的可见光。所述致动器可控制所述光投射设备的空间调制,以形成包括所述红外光和所述可见光的图案。所述致动器可控制所述光投射设备的空间调制,以在所述表面上形成两个相交线段。所述致动器可控制所述光投射设备的空间调制,以在所述表面上形成包括两个相交线段的静态图案。所述致动器可控制所述光投射设备的空间调制,以在所述表面上形成包括两个相交线段的动态图案。所述致动器可控制所述光投射设备的空间调制,以在所述表面上形成包括多个离散相交线段的图案。
在一个或多个实施例中,控制所述光投射设备的空间调制包括控制所述光投射设备的至少一部分的移动。控制所述光投射设备的空间调制可包括控制所述光投射设备投射所述光。所述空间调制的光投射设备可包括光纤扫描显示器。所述空间调制的光投射设备可包括激光源。所述空间调制的光投射设备可包括激光扫描显示器。
在又一个实施例中,深度感测系统包括传感器,所述传感器具有第一传感器像素和第二传感器像素以接收来自表面的光。所述系统还包括滤光器,所述滤光器允许将第一比例的可见光和第二比例的红外光透射到所述第一传感器像素,以及第三比例的可见光和第四比例的红外光透射到所述第二传感器像素。所述第一比例的可见光和所述第二比例的红外光导致在所述第一传感器像素处产生第一感测值。所述第三比例的可见光和所述第四比例的所述红外光导致在所述第二传感器像素处产生第二感测值。所述系统进一步包括处理器,所述处理器被用于分析所述第一感测值和所述第二感测值以确定所述表面的深度。所述滤光器被设置在所述传感器与所述表面之间。
在一个或多个实施例中,分析所述第一感测值和所述第二感测值包括生成所述表面的红外光图像。分析所述第一感测值和所述第二感测值可包括对所述表面的所述红外光图像中的POI进行三角测量。
在具体实施方式、附图和权利要求中描述了本发明的附加的和其他的目的、特征和优点。
附图说明
附图示出了本发明各种实施例的设计和效用。应当注意,附图没有按比例绘制,并且在所有附图中,相似结构或功能的元件由相同的参考标记来表示。为了更好地理解如何获得本发明各种实施例的上述和其它优点和目的,将通过参考在附图中图例示的具体实施例来对上面简要描述的本发明的更详细的描述。应该理解,这些附图仅描绘了本发明的典型实施例,因此不应被视为限制其范围,本发明将通过使用附图以附加的特征和细节来进行描述和解释,在附图中:
图1示出了根据一个实施例的通过可穿戴AR的用户设备的用户视图;
图2至图4是由各种现有技术深度感测系统投射的线段和图案的详细视图;
图3和图4还示出了各种现有技术深度感测系统的扫描区域;
图5至图9是由根据各种实施例的深度感测系统投射的线段和图案的详细视图;
图10是根据一个实施例的深度感测系统的详细示意图;
图11是使用中的图10所示的深度感测系统的详细透视图;
图12是根据另一个实施例的深度感测系统的详细示意图;
图13是现有技术深度感测系统的详细示意图;
图14和图15是根据两个实施例的深度感测系统的详细示意图;
图16至图18是用于根据各种实施例的深度感测系统的光传感器的详细示意图;
图19和图21示出了根据两个实施例的图像处理方法的流程图;
图20是用于根据另一实施例的深度感测系统的光传感器的详细示意图。
具体实施方式
本发明的各种实施例在单个实施例或多个实施例中涉及用于深度感测系统的系统、方法和制品。在具体实施方式、附图和权利要求中描述了本发明的其他目的、特征和优点。
现将参考附图详细描述各种实施例,附图被提供作为本发明的说明性示例,以使本领域技术人员能够实践本发明。值得注意的是,以下附图和示例并不意味着限制本发明的范围。在可以使用已知的部件(或方法或过程)来部分地或全部地实现本发明的某些要素的情况下,将仅描述这样的已知部件(或方法或过程)中的对理解本发明所必需的那些部分,并且将省略这样的已知部件(或方法或过程)中的其他部分的详细描述,以免模糊本发明。此外,各种实施例包含与本文图中以例示的方式提及的部件的现在和未来已知的等同物。
深度感测系统可以独立于混合现实系统来实现,但下面许多实施例仅为了说明的目的而关于AR系统进行描述。
问题和解决方案的概述
存在各种用于光学估计或感测表面深度的方法(即,3D空间中的已知点与表面上的点之间的距离)。深度感测方法可分为两种主要模式:无源和有源。无源系统检测来自由表面反射的系统外部的光源(例如顶灯或太阳)的环境光。有源系统将光投射到表面上并检测由表面反射的投射光。
无源系统通常使用在不同位置捕获的相隔已知距离的两个图像来确定深度。一些无源系统使用多个相机(如以双目配置)捕获两个图像。其他无源系统使用相同的传感器在不同的时间和位置捕获两个图像。在两个图像已经在不同位置被捕获之后,系统处理图像以将一个图像中的POI与另一个图像中对应的POI匹配。然后,系统对两个图像的光轴与表面上的单个POI之间的角度,以及两个图像捕获位置之间的距离进行三角测量,以确定在3D空间中相对于系统已知的两个图像捕获位置的POI位置。
无源系统可以确定POI在3D空间中的位置,但是具有多种故障模式,包括缺少可以在一个图像中被识别(“识别问题”)并且与其他图像中的它们的对应部分相匹配(“对应问题”)的合适的多个POI。这种故障模式的一个示例是对空白墙成像,在如下两方面是非常困难的:(1)在一个图像中识别墙上的点,并且(2)在另一个图像中识别对应的点。同样地,在暗室的情况下,根本没有足够的环境光来清晰地看到对象,因此,识别和匹配它们也非常困难。
一些有源系统通过投射具有图案和纹理的光(例如,来自万花筒的光)来解决这两个问题(即,缺少光以及缺少可辨识的特征)。这样的系统照亮表面并在均匀表面(例如白墙)上投射图案。当使用具有静态照明图案的这样的有源系统(通过同时捕获或者两个具有静态投射的相机)捕获两个图像时,从一个图像到另一个图像匹配表面上的图案(或其部分)要简单得多。因此,对应地,在3D空间中对多个POI的位置进行三角测量就更简单。事实上,使用具有紧密机械公差的先进系统,由单个相机捕获的单个图像可被用于确定多个POI的位置,因为通过对观察到反射的角度,以及相机和光投射仪的位置进行三角测量,可计算3D空间中的POI位置。
然而,即使在有源系统中,可见光的使用也经常是次优选的,因为它可能使用户或表面附近的其他人分散注意力或迷失方向。一些有源系统通过投射红外(“IR”)光来解决此问题,现代原始相机传感器可以检测红外光(例如,近红外光子),但是人眼不可见。
即使使用红外有源系统,场景中的其他图案仍可能干扰深度感测或引起其他深度感测问题。其他系统包括设置在传感器(其本身可以感测可见光和红外光)上的波长滤光器,使得可见光不会到达传感器。添加滤光器导致检测到仅红外图像,该红外图像通常仅由系统(红外)投射仪、太阳和几种其他红外线光源(例如暖灯和遥控器)照亮。
为了获得最准确(即,最接近真实值)和最精确的(即,可再现的)深度信息,需要分辨率非常高的传感器。观看区域上的传感器像素的数量越多,导致每个传感器像素的角度分辨率降低,有效地为三角测量数学运算提供了更高精度的角度输入。如本申请中所使用的,“传感器像素”包括但不限于,用于光强度测量的传感器上的可辨识点。
除了在包括面向外的相机的系统中检测可见光的传感器/传感器像素,红外有源系统需要检测红外光的传感器/传感器像素。这种方法的问题包括:(1)降低包括混合红/绿/蓝/红外传感器的系统中的可见光分辨率,以及(2)包括独立的可见光传感器和红外传感器的系统中进行坐标配准。如下所述,在此公开的实施例通过使用具有增强深度感测的改进的图像传感器来解决这些和其它传感器问题。
无需额外的处理,POI的最大角度精度用单个传感器像素的角度分辨率来取得。然而,图像处理算法可以提供“次像素分辨率”。例如,系统可以在几个传感器像素的处理中观察到一些特征(例如,构成桌角边缘的线),并且以比单个传感器像素更高的精度重建线的方程。
深度感测方法受系统的奈奎斯特(Nyquist)极限的限制,因为深度感测方法是信号处理方法。因此,重建信号需要基于该信号频率的最小数量的采样点(和点密度)。因此,噪声较大的信号比“较简单”(较低带宽)的信号更难采样和重构。如下所述,在此公开的实施例通过使用非混叠图案投射仪/生成器来降低投射光的高频噪声,解决了奈奎斯特极限相关问题和其他投射仪相关问题。
动态非混叠图案投射仪/生成器
光纤扫描投射仪(“FSP”)通过选择性地以高频振动光纤尖端来投射光。FSP也称为扫描光纤显示器(“FSD”)、光纤扫描显示器(“FSD”)。多个FSP可以投射动态图像作为用于人观察的显示。它们非常小的尺寸和低的潜在功耗对于诸如混合现实系统的某些应用是很理想的。在序列号为14/738,877的美国实用新型专利申请(代理案卷号ML.20019.00)和序列号为14/738,877的美国实用新型专利申请(代理案卷号ML.20011.00)中描述了示例性的多个FSP,其内容先前已通过引用并入此文。
与典型的“面板”型显示器(例如LCOS或DLP)相反,在此公开的实施例描述采用FSP投射具有纹理化、图案化或结构化的光以用于深度重建。绝大多数现有的有源深度感测系统使用诸如LCOS和DLP的光子源,这些光子源投射具有像素化图案(例如正方形或矩形)的光。这些系统同时照亮整个帧,并且投射的图像由一次投射的多条直线(或固定形状)显示器像素组成。结果,这些图像由多个重复的(一般是直线/正方形)的形状而不是纯线条来组成。
图2描绘了由面板型显示器以足以显示投射线200中的缺陷的放大率投射的“线”200。在此放大率下,投射线200看起来为一系列的直角形成的一组台阶。然而,在较低的放大率下,投射线200对观看者而言看起来是线性的。每个直角臂由一系列线性显示器像素形成。
由于投射线200的不规则性,检测投射线200的相当(或更高)分辨率的传感器将具有足够的灵敏度以观察投射图案中的高频噪声,导致图像重建工作复杂化。图3描绘了具有来自具有投射仪分辨率低的传感器的重叠的方形扫描区域202的来自图2的投射线200。如图3所示,沿着投射线200的扫描区域202不包含相同数量的投射线200。因此,来自传感器的信号非常嘈杂,导致混叠,即宽的灰色线而不是窄的黑线。
此噪声信号问题使定位两条投射线200a、200b的交叉点204的任务复杂化,如图4所示,此交叉点204可以是用于深度感测系统的POI。然而,在投射线200a、200b中的高频噪声导致交叉点204是线段而不是点。此外,扫描区域202不能足够详细的分辨线200a、200b来以高准确度识别交叉点204。
现有系统或者通过使用具有比对应的传感器的分辨率高得多的投射仪,或者通过使用附加的信号处理算法来将此噪声较大的信号重建为适合于次像素(或者甚至在像素(at-pixel))的精确映射。
在此公开的实施例描述使用FSP投射光以产生更高质量的动态图案来促进图像重建。当使用多个FSP时,由单个行进光束(例如激光)来投射光。光束以相对较高的频率机械地横跨场景进行扫描。而不是将光投射到场景的基本每个像素上(如采用面板型显示器),多个FSP通过将具有窄色散角的光束图案投射到表面上来创建光学上明显的图案,使得投射的光最小化干扰重建工作的混叠(例如图像扭曲或锯齿)和高频噪声。
然而,面板型显示器具有固定的照明图案,多个FSP是动态的。虽然FSP的有效扫描频率可能仅允许(例如)X行进路径和Y行进路径相隔200,但相位偏移、照明图案和扫描频率可以变化,允许提供清晰的非混叠边缘、交叉点,因此容易识别多个POI的动态图案,而不需要分辨率极高的投射仪。
例如,图5描绘了由FSP投射的图案300。该图案通过调制FSP(例如,采用致动器)以“绘制”相位偏移的两个实例/通道的正弦波302a、302b来制成。因此,第一正弦波302a和第二正弦波302b周期性相交,形成交叉304。FSP可投射来自紧密(tight)束光源(例如,激光器)的光,以形成图5所描绘的图案300。因此,来自光的信号具有最小的高频噪声和可忽略的混叠。交叉304形成特别期望的多个POI,因为交叉比点更准确和精确地被图像分析识别,点会随着光的传播而增加直径,需要对点的中心进行估计。形成离散交叉的另一种FSP图案是利萨如(Lissajous)图案。
图6描绘了由FSP投射的另一图案300’。图6所描绘的图案300’与图5所描绘的并在上面描述的图案300类似。事实上,通过调制FSP以形成图6所描绘的图案300’以形成与图5所示的完全相同的第一正弦波302a和第二正弦波302b。然而,通过仅当第一正弦波302a和第二正弦波302b交叉形成交叉304时激活其中的光源来进一步调制FSP。用FSP投射此图案300’导致以下结果:(1)更多有区别且可辨识的交叉304(多个POI),以及(2)通过停用光源降低系统能量使用。
图7描绘了由FSP投射的另一图案300”。图7所描绘的图案300”与图6所描绘并在上面描述的图案300’几乎相同。与图6所示的第一正弦波302a和第二正弦波302b相比,图7所示的第一正弦波302a’和第二正弦波302b’发生相移(相同的量)。因此,与图6所示的由第一正弦波302a和第二正弦波302b形成的交叉304相比,图7所示的由第一正弦波302a’和第二正弦波302b’形成的交叉304’也发生相移。
图8描绘了与交叉304相比的交叉304’的位移,其是图7和以阴影示出的第一正弦波302a和第二正弦波302b以及交叉304(来自图6)。图6所描绘的图案300’(图8以阴影示出的)与图7所描绘的图案300”(图8以实线示出的)之间的时间顺序切换使得交叉304/304’看起来移动。这种移动导致具有更多有区别的和可识别的交叉304/304’(多个POI)的动态图案。
图9描绘了由FSP投射的另一图案300”。图9所描绘的图案300”’与图6所描绘的并在上面描述的图案300类似。与图6所示的第一正弦波302a和第二正弦波302b相比,图9所示的第一正弦波302a”和第二正弦波302b”被修改。因此,与图6所示的由第一正弦波302a和第二正弦波302b形成的交叉304相比,图9所示的由第一正弦波302a”和第二正弦波302b”形成的交叉304”具有修改过的形状。图9中的交叉304”的形状是“+”,而图6中的交叉点304的形状是“×”。然而,图6和图9中的交叉304、304”的位置是相同的。因此,图6所描绘的图案300’与图9所描绘的图案300”’之间的时间顺序切换使得交叉304/304”看起来改变形状(在“×”与“+”之间)。此形状改变导致具有更多有区别的和可识别的交叉304/304”(多个POI)的动态图案。
图5至图9中描绘的图案300、300’、300”、300”’描绘了对于在图案300、300’、300”、300”’中的每个交叉304、304’、304”(POI)的同一改变。在其他实施例中,交叉304、304’、304”的子集可以改变(例如位置、形状、波长等)。在又一其它实施例中,交叉304、304’、304”的各种子集可具有不同的改变。例如,只有用于深度感测的一个或多个交叉304、304’、304”可改变。在其他实施例中,交叉304、304’、304”的数量可动态地从密集变为稀疏。在又一其它实施例中,光源(例如激光)可以脉冲以动态地变化图案300、300’、300”、300”’。
图10描绘了能够投射上面根据一个实施例所述的图案300、300’、300”的有源深度感测系统400。系统400包括空间调制光投射设备402(例如FSP)、两个光传感器404a、404b(例如相机)、以及可操作地耦接到其它部件402、404a、404b的处理器406。空间调制光投射设备402(例如FSP)、光传感器404a、404b(例如相机),以及处理器406可被系统400中的总线(未示出)耦接。可替代地,这些部件402、404a、404b、406中的一些或全部可被网络(例如无线网络)彼此耦接。
图11描绘了在使用中的图10所描绘的有源深度感测系统400。空间调制光投射设备402被调制为将图案408(例如+)投射到基本均匀的表面410(例如白墙)上。图案408可以被用作POI以确定光投射设备402与表面410之间的距离Y。光投射设备402将光412投射到表面410上以形成图案408。从第一光传感器404a和第二光传感器404b检测反射光412’、412”。
系统400测量角度α、β,通过所述角度α、β,图案408从第一光传感器404a和第二光传感器404b的相应的光轴414a、光轴414b移动。使用测量到的角度α以及分隔光投射设备402与相应的第一光传感器404a的距离X1,和测量到的角度β以及分隔光投射设备402与相应的第二光传感器404b的已知距离X2中的一者,系统400可以计算光投射设备402与表面410之间的距离Y。借助测量到的角度α、β,系统400可以提供更准确和精确地计算的距离Y。
图12描绘了根据另一实施例的有源深度感测系统400。图12所描绘的系统400与图10和图11所描绘的系统类似。除了空间调制光投射设备402、两个光传感器404a、404b和处理器406之外,图12所描绘的系统400还包括致动器416,所述致动器416被用于调制光投射设备402。图12所描绘的系统400的处理器406包括图案设计器418和在其上运行的图案检测器420。图案设计器418生成图案并将指定生成的图案的数据发送到致动器416,所述致动器416调制光投射设备402以显示所生成的图案。图案检测器420从第一光传感器404a和第二光传感器404b接收光学数据,并且从所接收到的光学数据中提取关于图案的信息。
此外,因为FSP仅充当用于光束的空间调制导管,具有不同波长的光束可以同时通过FSP传递下去。这不仅允许传输不可见的红外光,而且允许传输各种颜色的可见光。使用多个光束允许FSP以可见图案来增强红外图案,允许通常在类似波长下可能看不到的相机传感器之间的对应。这可以有助于将相机传感器与公共坐标系进行配准,提供额外的深度重建信息(允许来自一个传感器的特征帮助向另一个传感器提供补充信息)。这样的系统还可以执行其他功能,诸如辅助照明以指示目标、用于聚焦的区域、警告等。
包括FSP的有源深度感测系统具有以下特性。多个FSP投射有区别的和动态(即随时间变化)的图案,随时间提供用于深度确定的补充或改进信息。此外,多个FSP可以调整向聚焦区域的能量发射,从而降低功率,并增加传递到预定区域的能量以克服高频噪声。多个FSP还具有最小量的高频图像噪声,从而简化深度确定计算。此外,多个FSP能够同时投射来自两个光源(例如红外和不可见光源)的光。
此外,虽然在此描述的有源深度感测系统包括多个FSP,但其他空间调制光投射设备也可以被用于有源深度感测系统,同时保持期望的系统特性。例如,有源深度感测系统可以包括微机电系统(“MEMS”)反射镜扫描器和激光源。像包括多个FSP的系统一样,包括MEMS反射镜扫描器的系统可以投射并且扫描表面上的光束图案。在其他实施例中,系统还可以投射并且扫描图案以形成可变照明的计算机生成的全息图的一部分。全部空间调制光投射设备(例如多个FSP和多个MEMS反射镜扫描器)投射“光束”或“光弧”,而不是显示器像素,并且能够使那些光束的路径和定时发生变化。
具有增强深度感测的图像传感器
无源和有源深度感测系统两者都包括至少一个传感器(例如相机),所述传感器用于检测从表面反射的光。如上所述,一些检测可见光(例如环境光),而其他深度感测系统检测投射的光图案(例如投射的红外光)。
现有的深度感测系统(无源和有源)通常使用两个相机传感器来检测可见光和投射的红外光。这些相机传感器各自与不同的滤光器相关联,使得一个相机传感器检测可见光(可能具有RGB滤色器),另一个相机传感器检测红外光(通过滤除可见光)。图13描绘了该传感器布置,图13描绘了包括可见光传感器502和红外光传感器504的无源深度感测系统500,该可见光传感器502和该红外光传感器504两者都可操作地耦接到处理器506。红外光传感器504包括光截止滤光器508,该光截止滤光器508阻止除红外光之外的全部光到达红外光传感器504。在来自可见光和红外光传感器502、504的数据可以被一起使用之前,必须配准传感器502、504的坐标系统。当深度感测系统500相对于表面移动时,坐标系的配准是特别困难的。
在此公开的实施例描述用于深度感测系统的混合可见光/全光谱光传感器。如在本申请中所使用的,“全光谱光”包括可见光和红外光(波长从大约390nm到大约1mm)。例如,图14描绘了根据一个实施例的无源深度感测系统600。无源深度感测系统600包括混合可见光/全光谱光传感器602,该混合可见光/全光谱光传感器602可操作地耦接到处理器604可见光/全光谱。如下面详细描述的,可见光/全光谱光传感器602包括混合滤光器606。混合滤光器606仅允许可见光到达可见光/全光谱光传感器602的一些部分(即传感器像素),但是允许全光谱光到达可见光/全光谱光传感器602的其他部分(即传感器像素)。
图15是根据另一实施例的无源深度感测系统600。无源深度感测系统600包括混合可见光/全光谱光传感器602,该混合可见光/全光谱光传感器602可操作地耦接到处理器604。如下面详细描述的,可见光/全光谱光传感器602包括混合滤光器606。处理器604包括在其上运行的图像处理器608。
图16示意性地描绘了用于像图14和图15所描绘的无源深度感测系统一样的无源深度感测系统600的混合可见光/全光谱光传感器602及其混合滤光器606的一部分。图16所描绘的混合可见光/全光谱光传感器602的部分包括五个传感器像素610。就它们各自可以检测全光谱光(即可见光(波长从大约390nm到大约700nm)和红外光(波长从大约700nm到大约1mm))方面而言,位于下面的传感器像素610是相同的。然而,到达一些传感器像素610的光被设置在光源(例如反射表面)与传感器602之间的滤光器606修改。
如图16所示,滤光器606包括设置在对应传感器像素610上的子滤光器或“盖(cap)”F1和V1-V4。全光谱光(“F型”)盖允许全光谱光到达位于F型盖下面的传感器像素610。事实上,F型盖可能根本不具有任何过滤能力。可见光(“V型”)盖仅允许可见光到达位于V型盖下面的传感器像素610。传感器像素/盖610F1在基位置被四个传感器像素/盖610V1-610V4包围,形成具有传感器像素/盖610F1位于中间的“+”号。因此,混合可见光/全光谱光传感器602包括全光谱光(“F型”)传感器像素,该F型传感器像素在相对于全光谱光传感器像素的基位置被四个可见光(“V型”)传感器像素围绕。由于可见和全光谱光传感器像素结合在一个传感器中,并且由于这些传感器像素的布置,混合可见光/全光谱光传感器602不同于其他传感器。
虽然图16所描绘的传感器602和滤光器606包括布置成十字形配置的五个传感器像素610,但是其他实施例包括具有不同数量的像素和/或不同形状的配置。可以修改在此描述的传感器数据分析方法以分析来自不同配置的传感器和过滤器的数据。
图17和图18示意性描绘了图16所描绘的混合可见光/全光谱光传感器602的较大部分及其混合滤光器606。如图17和18所示,V型和F型传感器像素以交替图案布置,使得对于每个传感器像素(V型或F型),全部四个基本相邻区域都是互补型。
在这样的配置中,对于具有P例如(640x480=307,200)个总传感器像素的混合可见光/全光谱光传感器602,传感器像素的一半将是V型,并且一半将是F型。当不做进一步的图像处理而单独地考虑每种类型的传感器像素时,该传感器像素布置导致用于传感器像素类型和应用的有效分辨率降低。增加整体分辨率传感器来补偿这个问题会增加功耗、传感器尺寸和其他系统成本。
根据各种实施例的包括混合可见光/全光谱光传感器602的深度感测系统600通过图像处理(使用图15所描绘的图像处理器608)补偿降低的有效分辨率。虽然这些方法可能无法恢复具有可比较的尺寸的单独可见或红外传感器的100%的分辨率,但是这些方法可以从混合可见光/全光谱光传感器602(例如,50%的可见传感器像素和50%的全光谱传感器像素)的实际传感器像素分辨率恢复将期望的更高分辨率。与混合可见光/全光谱光传感器一起使用的图像处理方法的实施例可以将单独的传感器的分辨率从大约50%恢复到大约100%。其他实施例可以将大约66%的分辨率恢复到大约90%的分辨率。又一其他实施例可以恢复大约75%的分辨率。
在深度感测系统600中使用的光包括在可见光谱中重叠的波长,因为全部传感器像素610检测可见光。F型传感器像素610F也检测红外光。在图16至图18所示的实施例中,每个传感器像素610具有八个邻接的邻近区域,每四个是一个类型。例如,如图17所示,610F1在基方向上具有四个邻接的V型传感器像素610V1-610V4。610F1在基本方向之间还具有四个邻接的F型传感器像素610F2-610F5。
下面是根据一个实施例的图像处理方法的一般描述。全部F型传感器像素610F的F值最初可以近似为由两个值组成—可见的计算值(“CV”)和红外的计算值(“CI”)。在第一轮(pass)中,用于与F型传感器像素610F相邻的V型传感器像素610V的可见光的测量值(“V”)被用于估计用于F型传感器像素610F的第一遍CV。然后,使用第一轮CV来估计用于F型传感器像素610F的第一轮CI。在第二轮中,使用第一轮CI来(更准确地)估计用于F型传感器像素610F的第二轮CV。
对于具有基本上均匀或熟知的多个CI的表面,可以通过从用于F型传感器像素610F的F中减去第一轮CI来估计第二轮CV,从而单独从V型传感器像素610V提供的信息不可用。在没有额外红外光源的室内房间中,并且系统中的任何红外光投射仪被禁用,具有基本上均匀或熟知的多个CI的表面可以被发现。类似地,在室外环境中,环境日光通常在每个表面上主要提供漫射照明(基于该表面的红外反射),因此,用于每个表面的红外照明主要是均匀的或可预测的。
在调制红外投射仪(如上所述)的情况下,可使用关于投射的红外图案的信息来计算可见光图像的有效分辨率,该有效分辨率高于在传感器602中的V型传感器像素610V(例如P/2)。关于在表面的某些区域中动态改变投射的红外图案的信息(如上所述),也可被用来计算增加的有效可见光图像分辨率。此外,当从环境中消除全部红外光源(例如没有红外源的室内)时,传感器602可被用作全分辨率可见光传感器。
根据各种实施例的其他方法可以包括两轮以上,以增加估计CV和CI的准确度。又一其他实施例使用其他测量的计算值来估计F型传感器像素610F的CV和CI。例如,使用由图17所描绘的混合可见光/全光谱光传感器602获取的数据,除了610V1-610V4的V以外,可以使用610F2-610F5的CV和CI来估计610F1的CV和CI。图18示出了被更多的F型和V型传感器像素包围的610F1,这些传感器像素可以提供用于估计610F1的CV和CI的更多的光学数据。使用全部F型和V型传感器像素的估计方法的一个因素是,用于全部F型传感器像素610F的F的总和应该至少与用于全部V型传感器像素610V的V的总和一样明亮(如果不是更亮的话)。
可以使用类似的过程来计算传感器602中的F型传感器像素610F的CI,并且生成估计仅红外光的图像,尽管没有专用的仅红外像素。例如,图19描绘了一种图像处理方法700,其用于根据一个实施例根据由单个混合可见光/全光谱光传感器602获得的光学数据来生成单独的可见光和红外图像。
在步骤702,深度感测系统600接收从表面反射的光。混合可见光/全光谱光传感器602同时在每个V型传感器像素610V处接收可见光,并且在每个F型传感器像素610F处接收全光谱光。
在步骤704,深度感测系统600基于由像素610V接收的可见光来确定用于每个V型传感器像素610V的可见光值(“V”)。在步骤704,深度感测系统600还基于由像素610V接收的全光谱来确定用于每个F型传感器像素610F的全光谱光值(“F”)。
在步骤706,深度感测系统600(例如图像处理器608)计算用于每个F型传感器像素610F的可见光的计算值(“CV”)。图像处理器608可以使用用于与每个F型传感器像素610F相邻的V型传感器像素610V的V来计算CV。在一个简单的实施例中,对与F型传感器像素610F相邻的四个V型传感器像素610V的多个V进行平均以生成CV。例如,图16所描绘的混合可见光/全光谱光传感器602中,对610V1-610V4的多个V进行平均以生成用于610F1的CV。此实施例对于均匀表面(例如白墙)是最准确的,但是随着表面变得更异构,准确度下降。
在另一个实施例中,边缘检测和梯度检测可以在对面的邻近区域上执行,以通过考虑包括边缘的非均匀表面来确定更准确的CV。例如,图16所描绘的混合可见光/全光谱光传感器602中,可以对610V1/610V3和610V2/610V4的多个V执行边缘检测和梯度检测。如果在610V1/610V3的多个V之间找到大的梯度,则当生成用于610F1的CV时,那些多个V可以被给予较少的权重。此实施例对于异构表面(例如,包括边缘的拐角)更准确。
在步骤708,深度感测系统600(例如图像处理器608)计算用于每个F型传感器像素610F的红外光的计算值(“CI”)。图像处理器608可以使用用于F型传感器像素610F的CV来计算CI。在一个简单的实施例中,CI是通过从用于F型传感器像素610F的F中减去CV来计算的。
在步骤710,深度感测系统600(例如图像处理器608)使用来自V型传感器像素610V的多个V和用于F型传感器像素610F的计算的多个CV来生成可见光图像。在步骤712,深度感测系统600(例如图像处理器608)使用用于F型传感器像素610F的计算的多个CI来生成红外光图像。可见光图像、红外光图像或两者都可以用于深度感测。
此外,去马赛克和/或边缘锐化算法可以可选地被应用于图像数据,以在步骤704之前求解V型传感器像素610V的可见光值和的F型传感器像素610F的全光谱光值。求解这些光值V、F增加了方法700的准确度。
在此所述的系统600使用来自单个混合可见光/全光谱光传感器602的光学数据用高于P/2的有效分辨率生成可见光图像,类似地,以近似的较低分辨率在同一物理传感器602上生成红外光图像。因此,用于生成可见光图像和红外光图像的光将穿过同一的透镜堆叠,所以任何微小的缺陷都被反映在可见光图像和红外光图像两者中。此外,这种布置与现有系统相比具有两个优点。首先,将从完全相同的光学优势点获取可见光图像和红外光图像,为相应图像的焦点提供了完美的6-自由度(6-DOF)对应关系。这消除了对配准和校准的需要,配准和校准对于包括在不同波长谱上运行的单独相机的系统来说是特别困难的问题,因为相机可能无法检测到同一校准目标。此外,配准和校准引入额外的误差源,该误差源降低了对图像数据所执行的任何后期操作的次像素准确度。第二,使用完全相同的传感器,因此,两个图像上的曝光时间完全同步。对于处于相对运动(传感器的、表面的或两者的)的表面的图像,可见光图像和红外光图像在时间上(甚至在微秒的时间量级上)以及几何上匹配,允许对图像进行更精确和详细的分析。
在图20所描绘的另一个实施例中,混合可见光/全光谱光传感器802包括两种类型的传感器像素810,A型和B型。A型传感器像素810A、B型传感器像素810B两者都检测可见光和红外光,但以不同的比例检测。在一个实施例中,A型传感器像素810A可检测撞击到像素810A上的75%的可见光(“pV_A”)和25%的红外光(“pI_A”)。在该实施例中,B型传感器像素810B可检测撞击像素810A上的60%的可见光(“pV_B”)和40%的红外光(“pI_B”)。虽然在此实施例中的pV和pI成分合计为100%,但在其他实施例中,pV和pI的成分可以加起来大于或小于100%。例如,图16至图18所描绘的并且在上面描述的具有pV=100%和pI=100%的混合可见光/全光谱光传感器602中的F型(全光谱)传感器像素610F。
在这样的传感器802中,每个传感器像素810具有与所检测到的可见光和红外光相对应的感测的值(“SV”)。因为对于特定A型传感器像素810A(“SV_A”)的SV由两个贡献者(即,由传感器像素810A检测到的每种类型的光的比例所修改的总可见光值“V”和总红外光值“I”)组成,我们知道SV_A=(V*pV_A)+(I*pI_A)。
每个A型传感器像素810A还具有使用来自相邻传感器像素810(例如基本邻近区域)的光学数据来计算的估计值(“EV_A”)。例如,810A1具有根据用于810B1-810B4的SV计算的EV。换句话说,对于810B1-810B4,EV_A=f((V*pV_B)+(I*pI_B))。函数f可以与进行平均一样简单。在其他实施例中,函数f可包括如上所述的边缘检测和梯度检测。
由传感器像素810A确定SV_A,并估计EV_A。从传感器802的设计可知pV_A、pI_A、pV_B、pI_B。采用这些确定值、估计值和已知值,可以求解两个方程SV_A=(V*pV_A)+(I*pI_A)和EV_A=f((V*pV_B)+(I*pI_B))中的用于每个A型传感器像素810A的V和I。可以使用类似的过程来确定用于每个B型传感器像素810A的V和I。
图21描绘了一种图像处理方法900,其用于从由单个根据一个实施例的混合可见光/全光谱光传感器802获取的光学数据生成单独的可见图像和红外图像。
在步骤902,深度感测系统接收从表面反射的光。混合可见光/全光谱光传感器802在每个传感器像素810(A型和B型两者)处同时接收全光谱光,其中检测到的可见光和红外光的百分比取决于每个A型和B型传感器像素810的pV和pI。
在步骤904,深度感测系统确定用于每个传感器像素810的感测的光值(“SV”)。
在步骤906,深度感测系统计算用于每个传感器像素810的总可见光值(“V”)和总红外光值(“I”)。例如,通过使用如上所述已知的pV和pI值和检测到的SV值和估计的EV值来同时求解上述方程对(即,SV_A=(V*pV_A)+(I*pI_A)和EV_A=f((V*pV_B)+(I*pI_B))),深度感测系统可以计算用于每个传感器像素的V和I。
在步骤908,深度感测系统使用用于传感器像素810的计算出的多个V生成可见光图像。在步骤910,深度感测系统使用用于传感器像素810的计算出的多个I生成红外光图像。可见光图像、红外光图像或两者都可以用于深度感测。
虽然图21所描绘的方法900首先生成可见光图像,然后生成红外光图像,但是在其他实施例中,深度感测系统可首先生成红外光图像,然后生成可见光图像。在又一其他实施例中,深度感测系统可生成可见光图像或红外光图像,而不生成其他图像。
虽然在一些实施例中,具有增强深度感测的动态非混叠图案投射仪和图像传感器被描述为一个系统的一部分,但是投射仪和传感器是独立的,并且每个都可以没有另一个的的情况下发挥上述全部优点。
虽然上面提到的传感器被描述为深度感测,但是根据实施例的传感器可用于其它可见光/红外光系统,诸如相机聚焦系统。提供上述深度感测系统作为可从混合传感器受益的各种光学系统的示例。因此,在此描述的光学系统的使用不限于所公开的深度感测系统,而是适用于任何光学系统。
在此描述本发明的各种示例性实施例。在非限制性意义上参考这些示例。提供这些示例是为了示出本发明更广泛可应用的方面。在不脱离本发明的真实精神和范围的情况下,可以对所描述的发明进行各种改变并且可用等同物替换。此外,可以进行很多修改以使特定情形、材料、物质组成、过程、多个过程动作或多个步骤适应本发明的多个目标、精神或范围。此外,如本领域技术人员将理解的,在不脱离本发明的范围或精神的情况下,在此描述和说明的每个单独的变型都具有分立的部件和特征,这些部件和特征可以容易地与其他若干实施例的任意特征分离或组合。全部这样的修改旨在落入与本公开相关联的权利要求的范围内。
本发明包括可使用本主题设备执行的方法。所述方法可包括提供这样的合适的设备的动作。这种提供可由终端用户执行。换句话说,“提供”动作仅需要终端用户的获得、访问、接近、定位、设置、激活、加电或其他动作以,以在本主题方法中提供必要的设备。在此所述的方法可以按照逻辑上可能的所述事件的任何顺序以及按照所述事件顺序来实行。
上面已经阐述了本发明的示例性方面以及关于材料选择和制造的细节。至于本发明的其他细节,这些其他细节可以结合以上引用的专利和出版物以及本领域技术人员通常已知或理解的来理解。对于本发明的基于方法的方面,就通常或逻辑上采用的附加动作方面而言,这同样适用。
此外,尽管已经参考可选地包括各种特征的若干示例描述了本发明,但是本发明并不限于被描述或指示为关于本发明的每个变型所预期。在不脱离本发明的真实精神和范围的情况下,可以对所描述的本发明进行各种改变,并且可以替换等同物(无论是本文所述的还是为了简洁起见而未包括的)。此外,在提供值的范围的情况下,应该理解,在该范围的上限和下限之间的每个中间值和在所述范围内的任何其它所述值或中间值包括在本发明之内。
此外,可预期的是,所描述的发明变型的任何可选特征可以被独立地或者与本文所述的任何一个或多个特征相组合来阐述和要求保护。对单数项的引用包括存在多个相同项的可能性。更具体地,除非另有具体说明,当在本文和与本文相关联的权利要求中所使用的,单数形式“一”、“一个”、“所述”和“该”包括复数指代物。换句话说,所述冠词的使用允许由上述说明书以及与本公开相关联的权利要求中的主题项中的“至少一个”。还应注意,这样的权利要求可以被撰写为排除任何可选元素。因此,本声明旨在作为使用与权利要求要素的叙述相关的如“单独”、“仅”等排他性术语或使用“否定”限制的先行基础。
在不使用这种排他的术语的情况下,与本公开相关联的权利要求中的术语“包括”应当允许包括任何附加要素,而不管在这样的权利要求中是否列举了给定数量的要素,或者添加特征可以被认为是改变了这样的权利要求中阐述的要素的性质。除非本文中具体限定,否则本文所用的全部技术术语和科学术语在保持权利要求的有效性的同时被赋予尽可能宽的通常理解的含义。
本发明的广度不限于所提供的示例和/或主题说明书,而是仅由与本公开相关联的权利要求语言的范围来限定。
在前述说明书中,已经参照本发明的具体实施例描述了本发明。然而,显而易见的是,在不脱离本发明更广泛的精神和范围的情况下,可以对本发明进行各种修改和改变。例如,参考过程动作的特定顺序来描述上述过程的流程。然而,可以改变许多所描述的过程动作的顺序而不影响本发明的范围或操作。因此,说明书和附图被认为是说明性的而非限制性的。
Claims (25)
1.一种深度感测系统,包括:
传感器,具有第一传感器像素和第二传感器像素以接收来自表面的光;
滤光器,允许全光谱光透射到所述第一传感器像素以及允许可见光透射到所述第二传感器像素,同时阻止红外光透射到所述第二传感器像素;以及
处理器,用于分析所述全光谱光和所述可见光以确定所述表面的深度,
其中,所述滤光器被设置在所述传感器与所述表面之间。
2.根据权利要求1所述的系统,所述传感器具有包括所述第二传感器像素的多个第二传感器像素,
其中,所述多个第二传感器像素中的每一者与所述第一传感器像素相邻,
其中,所述滤光器允许可见光透射到所述多个第二传感器像素中的每一者,同时阻止红外光透射到所述多个第二传感器像素中的每一者。
3.根据权利要求2所述的系统,其中,分析所述全光谱光和所述可见光包括:基于与所述多个第二传感器像素对应的多个检测到的可见光值,计算用于所述第一传感器像素的估计可见光值。
4.根据权利要求3所述的系统,其中,计算所述估计可见光值包括对所述多个检测到的可见光值进行平均。
5.根据权利要求3所述的系统,其中,计算所述估计可见光值包括对所述多个检测到的可见光值执行边缘检测。
6.根据权利要求2所述的系统,所述传感器具有包括所述第一传感器像素的多个第一传感器像素,
其中,所述多个第一传感器像素中的每一者与所述第一传感器像素相邻,
其中,所述滤光器允许可见光透射到所述多个第二传感器像素中的每一者,同时阻止红外光透射到所述多个第二传感器像素中的每一者。
7.根据权利要求6所述的系统,其中,分析所述全光谱光和所述可见光包括:
计算用于所述多个第一传感器像素中的每一者的多个估计可见光值;
基于所述多个估计可见光值中的至少一些估计可见光值,计算用于所述第一传感器像素的估计可见光值。
8.根据权利要求1所述的系统,进一步包括:
空间调制光投射设备,用于向所述表面投射所述光,
其中,所述光从所述表面向所述传感器反射。
9.根据权利要求1所述的系统,其中,分析所述全光谱光和所述可见光包括生成所述表面的红外光图像。
10.根据权利要求9所述的系统,其中,分析所述全光谱光和所述可见光包括对所述表面的所述红外光图像中的POI进行三角测量。
11.一种深度感测系统,包括:
空间调制光投射设备,用于向表面投射光;
传感器,用于接收从所述表面反射的光;
致动器,用于控制所述光投射设备的空间调制,并从所述传感器接收光信息;以及
处理器,用于分析从所述表面反射的光以确定所述表面的深度,
其中,所述光包括具有从大约700nm到大约1mm的波长的红外光。
12.根据权利要求11所述的系统,其中,所述光包括具有从大约390nm到大约700nm的波长的可见光。
13.根据权利要求12所述的系统,其中,所述致动器控制所述光投射设备的空间调制,以形成包括所述红外光和所述可见光的图案。
14.根据权利要求11所述的系统,其中,所述致动器控制所述光投射设备的空间调制,以在所述表面上形成两个相交线段。
15.根据权利要求14所述的系统,其中,所述致动器控制所述光投射设备的空间调制,以在所述表面上形成包括两个相交线段的静态图案。
16.根据权利要求14所述的系统,其中,所述致动器控制所述光投射设备的空间调制,以在所述表面上形成包括两个相交线段的动态图案。
17.根据权利要求14所述的系统,其中,所述致动器控制所述光投射设备的空间调制,以在所述表面上形成包括多个离散相交线段的图案。
18.根据权利要求11所述的系统,其中,控制所述光投射设备的空间调制包括控制所述光投射设备的至少一部分的移动。
19.根据权利要求18所述的系统,其中,控制所述光投射设备的空间调制包括控制所述光投射设备对所述光的投射。
20.根据权利要求11所述的系统,所述空间调制光投射设备包括光纤扫描显示器。
21.根据权利要求11所述的系统,所述空间调制光投射设备包括激光源。
22.根据权利要求11所述的系统,所述空间调制光投射设备包括激光扫描显示器。
23.一种深度感测系统,包括:
传感器,具有第一传感器像素和第二传感器像素以接收来自表面的光;
滤光器,允许第一比例的可见光和第二比例的红外光透射到所述第一传感器像素,以及允许第三比例的可见光和第四比例的红外光透射到所述第二传感器像素,
其中,所述第一比例的可见光和所述第二比例的红外光在所述第一传感器像素处导致第一感测值,
其中,所述第三比例的可见光和所述第四比例的红外光在所述第二传感器像素处导致第二感测值;以及
处理器,用于分析所述第一感测值和所述第二感测值以确定所述表面的深度,
其中,所述滤光器被设置在所述传感器与所述表面之间。
24.根据权利要求23所述的系统,其中,分析所述第一感测值和所述第二感测值包括生成所述表面的红外光图像。
25.根据权利要求24所述的系统,其中,分析所述第一感测值和所述第二感测值包括对所述表面的所述红外光图像中的POI进行三角测量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011337750.XA CN112399028A (zh) | 2016-03-01 | 2017-02-28 | 深度感测系统和方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662301847P | 2016-03-01 | 2016-03-01 | |
US62/301,847 | 2016-03-01 | ||
PCT/US2017/020030 WO2017151671A1 (en) | 2016-03-01 | 2017-02-28 | Depth sensing systems and methods |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011337750.XA Division CN112399028A (zh) | 2016-03-01 | 2017-02-28 | 深度感测系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108779978A true CN108779978A (zh) | 2018-11-09 |
CN108779978B CN108779978B (zh) | 2020-12-11 |
Family
ID=59724237
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780014934.2A Active CN108779978B (zh) | 2016-03-01 | 2017-02-28 | 深度感测系统和方法 |
CN202011337750.XA Pending CN112399028A (zh) | 2016-03-01 | 2017-02-28 | 深度感测系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011337750.XA Pending CN112399028A (zh) | 2016-03-01 | 2017-02-28 | 深度感测系统和方法 |
Country Status (10)
Country | Link |
---|---|
US (3) | US10565717B2 (zh) |
EP (2) | EP3902249A1 (zh) |
JP (3) | JP6695440B2 (zh) |
KR (1) | KR20180118189A (zh) |
CN (2) | CN108779978B (zh) |
AU (2) | AU2017227599A1 (zh) |
CA (1) | CA3014766A1 (zh) |
IL (3) | IL288771B2 (zh) |
NZ (2) | NZ785500A (zh) |
WO (1) | WO2017151671A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108779978B (zh) | 2016-03-01 | 2020-12-11 | 奇跃公司 | 深度感测系统和方法 |
US11109006B2 (en) * | 2017-09-14 | 2021-08-31 | Sony Corporation | Image processing apparatus and method |
WO2019127539A1 (en) * | 2017-12-29 | 2019-07-04 | Shenzhen United Imaging Healthcare Co., Ltd. | Systems and methods for determining region of interest in medical imaging |
CN111542827B (zh) | 2017-12-29 | 2021-09-28 | 上海联影医疗科技股份有限公司 | 一种患者定位的系统和方法 |
US11176694B2 (en) * | 2018-10-19 | 2021-11-16 | Samsung Electronics Co., Ltd | Method and apparatus for active depth sensing and calibration method thereof |
TWI720602B (zh) * | 2019-08-27 | 2021-03-01 | 國立中央大學 | 重建物體表面的方法與光學系統 |
CN112532848A (zh) * | 2020-12-16 | 2021-03-19 | 歌尔光学科技有限公司 | 一种摄像机 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110085063A1 (en) * | 2009-10-14 | 2011-04-14 | Dong Ki Min | Color filter array, image sensor having the same, and signal interpolating method |
EP2458424A1 (en) * | 2010-10-29 | 2012-05-30 | Samsung Electronics Co., Ltd. | Beam splitter for 3D camera, and 3D image acquisition apparatus employing the beam splitter |
US20120140099A1 (en) * | 2010-12-01 | 2012-06-07 | Samsung Electronics Co., Ltd | Color filter array, image sensor having the same, and image processing system having the same |
US20120224028A1 (en) * | 2011-03-03 | 2012-09-06 | Samsung Electronics Co., Ltd. | Method of fabricating microlens, and depth sensor including microlens |
CN102685534A (zh) * | 2011-03-15 | 2012-09-19 | 三星电子株式会社 | 操作包括多个深度像素的三维图像传感器的方法 |
CN103582846A (zh) * | 2012-05-28 | 2014-02-12 | 松下电器产业株式会社 | 进深推定摄像装置 |
CN104977785A (zh) * | 2014-04-09 | 2015-10-14 | 全视科技有限公司 | 组合式可见与不可见投影系统 |
CN107667527A (zh) * | 2015-03-30 | 2018-02-06 | X开发有限责任公司 | 用于检测可见光和投影图案的成像器 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5621529A (en) * | 1995-04-05 | 1997-04-15 | Intelligent Automation Systems, Inc. | Apparatus and method for projecting laser pattern with reduced speckle noise |
WO1997047942A1 (en) * | 1996-06-13 | 1997-12-18 | K.U. Leuven Research & Development | Method and system for acquiring a three-dimensional shape description |
JPH10253330A (ja) * | 1997-03-06 | 1998-09-25 | Toshiba Corp | 表面形状測定装置 |
US6563105B2 (en) | 1999-06-08 | 2003-05-13 | University Of Washington | Image acquisition with depth enhancement |
JP2001194114A (ja) * | 2000-01-14 | 2001-07-19 | Sony Corp | 画像処理装置および画像処理方法、並びにプログラム提供媒体 |
US7061628B2 (en) * | 2001-06-27 | 2006-06-13 | Southwest Research Institute | Non-contact apparatus and method for measuring surface profile |
JP4035978B2 (ja) * | 2001-10-05 | 2008-01-23 | コニカミノルタホールディングス株式会社 | 3次元形状モデルの評価方法および生成方法並びに装置 |
JP2004126416A (ja) * | 2002-10-07 | 2004-04-22 | Fuji Photo Film Co Ltd | カメラ |
US20070057946A1 (en) * | 2003-07-24 | 2007-03-15 | Dan Albeck | Method and system for the three-dimensional surface reconstruction of an object |
US8918162B2 (en) | 2007-04-17 | 2014-12-23 | Francine J. Prokoski | System and method for using three dimensional infrared imaging to provide psychological profiles of individuals |
US8757812B2 (en) * | 2008-05-19 | 2014-06-24 | University of Washington UW TechTransfer—Invention Licensing | Scanning laser projection display devices and methods for projecting one or more images onto a surface with a light-scanning optical fiber |
KR101733443B1 (ko) * | 2008-05-20 | 2017-05-10 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
JP5874116B2 (ja) * | 2009-07-30 | 2016-03-02 | 国立研究開発法人産業技術総合研究所 | 画像撮影装置および画像撮影方法 |
US8723118B2 (en) * | 2009-10-01 | 2014-05-13 | Microsoft Corporation | Imager for constructing color and depth images |
KR101648201B1 (ko) * | 2009-11-04 | 2016-08-12 | 삼성전자주식회사 | 영상 센서 및 이의 제조 방법. |
GB0921461D0 (en) | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
US8456521B2 (en) | 2009-12-14 | 2013-06-04 | Berliner Glas Kgaa Herbert Kubatz Gmbh & Co. | Triangulation camera device and triangulation imaging method |
JP2011199798A (ja) * | 2010-03-24 | 2011-10-06 | Sony Corp | 物理情報取得装置、固体撮像装置、物理情報取得方法 |
WO2011127058A2 (en) | 2010-04-09 | 2011-10-13 | The Regents Of The University Of Michigan | Biomarkers for mdm2 inhibitors for use in treating disease |
CN102472892B (zh) * | 2010-04-28 | 2014-07-09 | 松下电器产业株式会社 | 扫描型图像显示装置 |
EP2583312A2 (en) * | 2010-06-18 | 2013-04-24 | Sionyx, Inc. | High speed photosensitive devices and associated methods |
JP5761750B2 (ja) * | 2011-07-19 | 2015-08-12 | 国立研究開発法人産業技術総合研究所 | 画像処理方法および装置 |
US9248457B2 (en) | 2011-07-29 | 2016-02-02 | Homax Products, Inc. | Systems and methods for dispensing texture material using dual flow adjustment |
CN102663725B (zh) * | 2012-03-05 | 2014-07-16 | 西北工业大学 | 基于线特征和控制点的可见光和sar图像配准方法 |
EP2881702B1 (en) * | 2012-07-30 | 2018-09-12 | National Institute of Advanced Industrial Science And Technology | Image processing system, and image processing method |
EP3869797B1 (en) * | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
WO2014041742A1 (ja) * | 2012-09-14 | 2014-03-20 | パナソニック株式会社 | 固体撮像装置及びカメラモジュール |
JP5971050B2 (ja) * | 2012-09-18 | 2016-08-17 | 富士通株式会社 | 形状計測装置及び形状計測方法 |
US9041914B2 (en) * | 2013-03-15 | 2015-05-26 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US9646384B2 (en) * | 2013-09-11 | 2017-05-09 | Google Technology Holdings LLC | 3D feature descriptors with camera pose information |
US8917327B1 (en) * | 2013-10-04 | 2014-12-23 | icClarity, Inc. | Method to use array sensors to measure multiple types of data at full resolution of the sensor |
CN107329259B (zh) | 2013-11-27 | 2019-10-11 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US10051211B2 (en) * | 2013-12-05 | 2018-08-14 | Omnivision Technologies, Inc. | Image sensors for capturing both visible light images and infrared light images, and associated systems and methods |
US9392262B2 (en) | 2014-03-07 | 2016-07-12 | Aquifi, Inc. | System and method for 3D reconstruction using multiple multi-channel cameras |
US9325973B1 (en) * | 2014-07-08 | 2016-04-26 | Aquifi, Inc. | Dynamically reconfigurable optical pattern generator module useable with a system to rapidly reconstruct three-dimensional data |
JP6794981B2 (ja) * | 2015-03-17 | 2020-12-02 | ソニー株式会社 | 情報処理装置および方法 |
US10066933B2 (en) * | 2015-05-04 | 2018-09-04 | Facebook, Inc. | Camera depth mapping using structured light patterns |
CN105049829B (zh) * | 2015-07-10 | 2018-12-25 | 上海图漾信息科技有限公司 | 滤光片、图像传感器、成像装置以及三维成像系统 |
US10503265B2 (en) * | 2015-09-08 | 2019-12-10 | Microvision, Inc. | Mixed-mode depth detection |
US10453185B2 (en) * | 2015-11-12 | 2019-10-22 | Aquifi, Inc. | System and method for high dynamic range depth capture using multiple cameras |
JP2017112169A (ja) * | 2015-12-15 | 2017-06-22 | ソニー株式会社 | イメージセンサ、撮像システム及びイメージセンサの製造方法 |
CN108779978B (zh) | 2016-03-01 | 2020-12-11 | 奇跃公司 | 深度感测系统和方法 |
US10616519B2 (en) * | 2016-12-20 | 2020-04-07 | Microsoft Technology Licensing, Llc | Global shutter pixel structures with shared transfer gates |
JP7418181B2 (ja) * | 2018-11-06 | 2024-01-19 | ミヨシ油脂株式会社 | 分散剤とそれを用いた分散液 |
-
2017
- 2017-02-28 CN CN201780014934.2A patent/CN108779978B/zh active Active
- 2017-02-28 JP JP2018545442A patent/JP6695440B2/ja active Active
- 2017-02-28 AU AU2017227599A patent/AU2017227599A1/en not_active Abandoned
- 2017-02-28 NZ NZ785500A patent/NZ785500A/en not_active IP Right Cessation
- 2017-02-28 EP EP21178691.8A patent/EP3902249A1/en active Pending
- 2017-02-28 CN CN202011337750.XA patent/CN112399028A/zh active Pending
- 2017-02-28 CA CA3014766A patent/CA3014766A1/en active Pending
- 2017-02-28 NZ NZ745309A patent/NZ745309A/en not_active IP Right Cessation
- 2017-02-28 US US15/445,818 patent/US10565717B2/en active Active
- 2017-02-28 IL IL288771A patent/IL288771B2/en unknown
- 2017-02-28 EP EP17760653.0A patent/EP3423784B1/en active Active
- 2017-02-28 KR KR1020187028216A patent/KR20180118189A/ko not_active Application Discontinuation
- 2017-02-28 WO PCT/US2017/020030 patent/WO2017151671A1/en active Application Filing
-
2018
- 2018-08-14 IL IL261149A patent/IL261149B/en active IP Right Grant
-
2020
- 2020-01-08 US US16/737,765 patent/US10964039B2/en active Active
- 2020-04-21 JP JP2020075247A patent/JP6972224B2/ja active Active
-
2021
- 2021-02-24 US US17/184,358 patent/US11475583B2/en active Active
- 2021-03-21 IL IL281676A patent/IL281676B/en unknown
- 2021-11-02 JP JP2021179296A patent/JP7270702B2/ja active Active
- 2021-11-10 AU AU2021266266A patent/AU2021266266A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110085063A1 (en) * | 2009-10-14 | 2011-04-14 | Dong Ki Min | Color filter array, image sensor having the same, and signal interpolating method |
EP2458424A1 (en) * | 2010-10-29 | 2012-05-30 | Samsung Electronics Co., Ltd. | Beam splitter for 3D camera, and 3D image acquisition apparatus employing the beam splitter |
US20120140099A1 (en) * | 2010-12-01 | 2012-06-07 | Samsung Electronics Co., Ltd | Color filter array, image sensor having the same, and image processing system having the same |
US20120224028A1 (en) * | 2011-03-03 | 2012-09-06 | Samsung Electronics Co., Ltd. | Method of fabricating microlens, and depth sensor including microlens |
CN102685534A (zh) * | 2011-03-15 | 2012-09-19 | 三星电子株式会社 | 操作包括多个深度像素的三维图像传感器的方法 |
CN103582846A (zh) * | 2012-05-28 | 2014-02-12 | 松下电器产业株式会社 | 进深推定摄像装置 |
CN104977785A (zh) * | 2014-04-09 | 2015-10-14 | 全视科技有限公司 | 组合式可见与不可见投影系统 |
CN107667527A (zh) * | 2015-03-30 | 2018-02-06 | X开发有限责任公司 | 用于检测可见光和投影图案的成像器 |
Also Published As
Publication number | Publication date |
---|---|
CN108779978B (zh) | 2020-12-11 |
AU2017227599A1 (en) | 2018-08-30 |
US10565717B2 (en) | 2020-02-18 |
EP3423784A1 (en) | 2019-01-09 |
IL288771B2 (en) | 2023-09-01 |
JP2022009902A (ja) | 2022-01-14 |
IL281676B (en) | 2022-01-01 |
JP7270702B2 (ja) | 2023-05-10 |
CN112399028A (zh) | 2021-02-23 |
CA3014766A1 (en) | 2017-09-08 |
EP3423784B1 (en) | 2021-07-28 |
NZ745309A (en) | 2023-03-31 |
JP6972224B2 (ja) | 2021-11-24 |
NZ785500A (en) | 2023-03-31 |
IL281676A (en) | 2021-05-31 |
US20210183087A1 (en) | 2021-06-17 |
JP2020144136A (ja) | 2020-09-10 |
WO2017151671A1 (en) | 2017-09-08 |
JP6695440B2 (ja) | 2020-05-20 |
KR20180118189A (ko) | 2018-10-30 |
US10964039B2 (en) | 2021-03-30 |
EP3902249A1 (en) | 2021-10-27 |
EP3423784A4 (en) | 2019-01-09 |
JP2019512678A (ja) | 2019-05-16 |
AU2021266266A1 (en) | 2021-12-09 |
US11475583B2 (en) | 2022-10-18 |
US20170256069A1 (en) | 2017-09-07 |
US20200143553A1 (en) | 2020-05-07 |
IL288771B1 (en) | 2023-05-01 |
IL261149B (en) | 2021-04-29 |
IL288771A (en) | 2022-02-01 |
IL261149A (en) | 2018-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108779978A (zh) | 深度感测系统和方法 | |
CN106796106B (zh) | 彩色共焦系统 | |
CN110192390A (zh) | 头戴式显示器的光场捕获和渲染 | |
US20030151810A1 (en) | Stereomicroscopy method and stereomicroscopy system | |
JP2018514237A (ja) | 歯科用3dスキャナ用のテクスチャマッピングの装置及び方法 | |
US20150029309A1 (en) | Method, system, apparatus, and computer program for 3d acquisition and caries detection | |
CN103959012A (zh) | 6自由度位置和取向确定 | |
CN105004324B (zh) | 一种具有三角测距功能的单目视觉传感器 | |
US20080074648A1 (en) | Method and Apparatus for Three-Dimensional Measurement of Objects in an Extended angular range | |
US10542875B2 (en) | Imaging device, endoscope apparatus, and imaging method | |
JP2019100995A (ja) | 測量画像表示制御装置、測量画像表示制御方法および測量画像表示制御用プログラム | |
JP2001523827A (ja) | 二波長光を用いた三角測量による三次元画像化 | |
CN117795391A (zh) | 2d扫描显示中的3d映射 | |
JP2011075336A (ja) | 3次元形状計測装置、3次元形状計測方法 | |
WO2016194179A1 (ja) | 撮像装置、内視鏡装置及び撮像方法 | |
CN118105060A (zh) | 根据阴影提供形状的测量系统 | |
JP2006170744A (ja) | 3次元距離計測装置 | |
Tonet et al. | Bioinspired robotic dual-camera system for high-resolution vision | |
Bothe et al. | 3D-camera for scene capturing and augmented reality applications | |
Epskamp | On the influence of stereographic 3D on user dependent direct projected augmented reality in the OR | |
Godber | The development of novel stereoscopic imaging sensors | |
Schaffer et al. | Accurate outdoor 3D shape measurements with structured illumination using narrow spectral filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |