CN107407553B - 距离传感器 - Google Patents
距离传感器 Download PDFInfo
- Publication number
- CN107407553B CN107407553B CN201580070648.9A CN201580070648A CN107407553B CN 107407553 B CN107407553 B CN 107407553B CN 201580070648 A CN201580070648 A CN 201580070648A CN 107407553 B CN107407553 B CN 107407553B
- Authority
- CN
- China
- Prior art keywords
- projection
- proxels
- beams
- light
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- DMSMPAJRVJJAGA-UHFFFAOYSA-N benzo[d]isothiazol-3-one Chemical compound C1=CC=C2C(=O)NSC2=C1 DMSMPAJRVJJAGA-UHFFFAOYSA-N 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 25
- 238000003384 imaging method Methods 0.000 description 37
- 230000003287 optical effect Effects 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/315—Modulator illumination systems
- H04N9/3161—Modulator illumination systems using laser light sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
在一个实施例中,一种距离传感器包括:被定位成捕获视场中的图像的图像捕获装置以及被布置在该图像捕获装置的第一透镜周围的第一多个投影点,其中该第一多个投影点中的每个投影点都被配置成在视场内的不同方向上发射多个投影射束。
Description
相关申请的交叉引用
本申请要求保护2014年10月24日提交的美国临时专利申请序列号62/068,250以及2015年5月10日提交的美国临时专利申请序列号62/159,286的权益。通过引用将这两个申请以它们的整体并入本文。
技术领域
本公开总体上涉及计算机视觉系统,并且更特别地涉及用于测量交通工具和空间中的对象或点之间的距离的传感器。
背景技术
诸如机器人交通工具和无人机之类的无人驾驶交通工具通常依赖于用于周围环境中的障碍物检测和导航的计算机视觉系统。这些计算机视觉系统进而通常依赖于从周围环境获取视觉数据的各种传感器,计算机视觉系统处理该数据以便收集关于周围环境的信息。例如,经由一个或多个成像传感器获取的数据可被用来确定从交通工具到周围环境中的特定对象或点的距离。
发明内容
在一个实施例中,一种距离传感器包括:图像捕获装置,其被定位成捕获视场中的图像;以及第一多个投影点,其被布置在该图像捕获装置的第一透镜周围,其中该第一多个投影点中的每个投影点都被配置成在视场内的不同方向上发射多个投影射束。
在另一实施例中,一种用于计算到对象的距离的方法包括:从多个投影点中的每一个投射多个投影射束,其中该多个投影点被布置在图像捕获装置的透镜周围,并且其中在视场内的不同方向上指引该多个投影射束中的每个射束;捕获视场的图像,其中该对象在图像中可见并且由多个投影射束生成的投影图样也在图像中可见;以及使用该图像中的信息来计算到对象的距离。
在另一实施例中,一种计算机可读存储设备,其存储当被处理器执行时促使该处理器实行用于计算到对象的距离的操作的多个指令。该操作包括:从多个投影点中的每一个投射多个投影射束,其中该多个投影点被布置在图像捕获装置的透镜周围,并且其中在视场内的不同方向上指引该多个投影射束中的每个射束;捕获视场的图像,其中该对象在图像中可见并且由多个投影射束生成的投影图样也在图像中可见;以及使用该图像中的信息来计算到对象的距离。
在另一实施例中,一种用于计算到对象的距离的方法包括:从多个投影点将多个光点投射到视场上;捕获视场的图像,其中该对象在图像中可见并且由多个光点形成的投影图样也在图像中可见;以及根据该多个光点中的至少两个之间的位置关系来计算到对象的距离,其中由多个投影点中的至少两个不同投影点来发射该多个光点中的至少两个。
在另一实施例中,一种计算机可读存储设备存储当被服务器的处理器执行时促使该处理器实行用于计算到对象的距离的操作的多个指令。该操作包括:从多个投影点将多个光点投射到视场上;捕获视场的图像,其中该对象在图像中可见并且由多个光点形成的投影图样也在图像中可见;以及根据该多个光点中的至少两个之间的位置关系来计算到对象的距离,其中由多个投影点中的至少两个不同投影点来发射该多个光点中的至少两个。
附图说明
可以通过结合附图来考虑下面的详细描述来容易地理解本公开的教导,在附图中:
图1A图示本公开的距离传感器的一个实施例的横截面视图;
图1B图示图1A的距离传感器的俯视图;
图2图示图1A和1B的距离传感器的示例视场;
图3图示具有近似360度视场的距离传感器的一个实施例;
图4图示用于计算从传感器到空间中的对象或点的距离的方法的流程图;
图5图示可通过其来计算从传感器到对象或点的距离的三角测量技术;
图6描绘适合于在执行本文中描述的功能中使用的通用计算机的高级框图;
图7A图示被配置成投射环形图样的距离传感器的一个简化示例;
图7B图示可由图7A的距离传感器发射的投影图样的更三维化的视图;
图7C图示在其中倾斜角的概念可见的图7A的距离传感器的另一视图;
图8A和8B图示可以从其导出用于使用图7A-7C的传感器来计算到对象的距离的简单算法的概念;
图9图示扩展至示例距离传感器的图8A-8B的概念;
图10A和10B图示本公开的距离传感器的另一实施例;以及
图11A和11B图示本公开的距离传感器的另一实施例。
为了促进理解,在可能的情况下已经使用相同的参考数字来标出各图中共同的相同元件。
具体实施方式
在一个实施例中,本公开涉及一种距离传感器。可在无人驾驶交通工具中使用距离传感器,以便帮助计算机视觉系统确定从该交通工具到周围环境中的特定对象或点的距离。例如,距离传感器可将一个或多个光射束投射到该对象或点上并且然后根据飞行时间(TOF)、对反射的光的分析(例如激光雷达)或其他装置来计算距离。然而,这种类型的常规距离传感器往往体积大,并且因此可能不适合于在紧凑交通工具中使用。此外,该传感器可能制造起来是非常昂贵的并往往具有有限的视场。例如,即使使用多个常规成像传感器的布置也提供小于360度的视场。
本公开的实施例提供一种制造上经济的紧凑距离传感器,其包括很少移动部件或没有移动部件,并且可以在高达360度的视场中测量距离。在一个实施例中,该传感器使用一组射束分离装置(诸如衍射光学元件(DOE)阵列)来在广角透镜周围生成多个投影点。该多个投影点中的每一个都将多个射束发射到视场中。从射束的外观来说,传感器可以在180度半球视场中测量距离。通过背靠背地安装两个此类传感器,可以在360度视场中测量距离。DOE使得有可能将由单个光源(例如激光器)生成的射束分离成被投射在视场中的对象或点上的多个投影射束。然而,在其他实施例中,通过DOE来使由多个光源发射的射束分离。然后可以在投影和来自多个投影的图像捕获的一个循环中计算从传感器到该对象或点的距离。
图1A和1B图示本公开的距离传感器100的一个实施例。特别地,图1A图示距离传感器100的横截面视图,而图1B图示图1A的距离传感器100的俯视图。距离传感器100可被安装到例如无人机交通工具。
如图1A中所图示的,该距离传感器100包括布置在紧凑外壳102内的多个部件。该部件包括至少一个光源104,第一射束分离装置(在下文中被称为第一衍射光学元件106)、第二射束分离装置阵列(在下文中被称为第二衍射光学元件1081-108n(并且在下文中被统称为“第二衍射光学元件108”))、以及包括广角透镜112的成像传感器110。
基本上围绕中心轴A-A’对称地布置该部件。在一个实施例中,中心轴A-A’与成像传感器110的光轴相一致。在一个实施例中,该光源104被定位在中心轴A-A’的第一端部处。在一个实施例中,该光源104是沿着中心轴A-A’发射单个光射束的激光器光源。在下文中,由光源104发射的单个射束也可被称为“主射束”。在一个实施例中,该光源104发射已知对人类视觉来说相对安全的波长的光(例如红外线)。在另一实施例中,该光源104可以包括用来调整其输出的强度的电路。在另一实施例中,该光源104可以脉冲形式发射光,以便减轻环境光对图像捕获的影响。
该第一衍射光学元件(DOE)106被定位成沿着中心轴A-A’接近光源104(例如相对于由光源104发射的光所传播的方向,在光源104的“前面”)。特别地,该第一DOE 106被定位成拦截由光源104发射的单个光射束并且将单个射束或主射束分离成多个二次射束。在一个实施例中,中心轴A-A’和二次射束中的每一个之间的角度是相等的。该第一DOE 106是能够将主射束分离成多个二次射束(其在不同方向上从该主射束偏离)的任何光学部件。例如,在一个实施例中,该第一DOE 106可包括圆锥形反射镜或全息胶片。在这种情况下,以圆锥形状来布置在该多个二次射束。在另一些实施例中,可通过装置而不是衍射来使该主射束分离。
第二DOE 108的阵列被定位成沿着中心轴A-A’接近第一DOE 106(例如相对于由光源104发射的光所传播的方向,在第一DOE 106的“前面”)。特别地,该第二DOE 108的阵列被定位成使得第一DOE 106被定位在光源104和第二DOE 108的阵列之间。如在图1B中更清楚图示的,在一个实施例中,以环形阵列来布置第二DOE 108,其中中心轴A-A’通过环的中心并且在该环周围以规则间隔将该第二DOE 108隔开。例如,在一个实施例中,在该环周围以近似三十度将该第二DOE 108隔开。在一个实施例中,相对于由光源104发射的光所传播的方向,第二DOE 108的阵列被定位在成像传感器110的主点“后面”(即光轴A—A’与图像面相交处的点)。
每个第二DOE 108都被定位成拦截由第一DOE 106产生的二次射束之一并且将该二次射束分离成以径向方式远离第二DOE 108指引的多个(例如两个或更多个)三次射束。因此,每个第二DOE 108都限定从其将一组投影射束(或三次射束)发射到视场中的传感器100的投影点。在一个实施例中,多个三次射束中的每一个相应地成扇形散开以覆盖近似一百度的范围。第二DOE 108是能够将相应的二次射束分离成多个三次射束(其在不同方向上从该二次射束偏离)的任何光学部件。例如,在一个实施例中,每一个第二DOE可包括圆锥形反射镜或全息胶片。然而,在其他实施例中,通过装置而不是衍射来使该二次射束分离。
在一个实施例中,以扇形或径向图样来布置每多个三次射束,在各射束中的每一个之间具有相等的角度。在一个实施例中,各第二DOE 108中的每一个都被配置成投射在表面上创建不同视觉图样的三次射束。例如,一个第二DOE 108可投射圆点图样,而另一第二DOE 108可以投射线或x图样。
成像传感器110被定位成沿着中心轴A’A’,在第二DOE 108的阵列的中间(例如相对于由光源104发射的光所传播的方向,至少部分在第二DOE 108的阵列的“前面”)。在一个实施例中,该成像传感器110是图像捕获装置,诸如静止或视频相机。如上文所讨论的,该成像传感器110包括创建半球视场的广角透镜,诸如鱼眼透镜。在一个实施例中,该成像传感器110包括用于计算从距离传感器110到对象或点的距离的电路。在另一实施例中,该成像传感器包括用于通过网络将所捕获的图像传达给处理器的网络接口,在这里处理器计算从距离传感器100到对象或点的距离并且然后将所计算的距离传达返回给距离传感器100。
因此,在一个实施例中,该距离传感器100使用单个光源(例如光源104)来产生从其来发射各组投影射束(例如包括圆点图样或线图样)的多个投影点。可以从视场中投影射束的外观来计算从距离传感器100到对象的距离(如下面更详细讨论的)。特别地,第一和第二DOE的使用使得有可能从由光源发射的单个光射束在透镜周围生成多个投影点。这允许距离传感器100当在宽视场内测量距离的同时保持相对紧凑的形状因子。该成像传感器110和光源104还可以被安装在同一面中以便使设计更紧凑;然而,在一个实施例中,第二DOE1081-108n被定位在成像传感器110的主点后面以便增加可以被投影射束覆盖的视场(例如以使得该视场的深度角更靠近全180度,或者在某些情况下甚至更大)。
此外,因为第二DOE 108中的每一个都投射不同图样的三次射束,所以成像传感器中的电路可以容易地确定所捕获的图像中的哪些射束是由第二DOE 108中的哪些创建的。如在下面更详细讨论的,这便利于距离计算。
尽管传感器100被图示为包括仅单个光源104(这降低了传感器100中部件的总数),但是在备选实施例中,传感器可包括多个光源。在这种情况下,第一DOE 106可能不是必须的。反而,在一个实施例中,多个光源中的每个光源可对应于DOE阵列(诸如图1A和图1B中的第二DOE 108的阵列)中的一个DOE。值得注意地,该配置仍产生在成像传感器的透镜周围并且可从发射各组投影射束的多个投影点(例如由阵列中的每个DOE来限定一个投影点)。
图2图示图1A和1B的距离传感器100的示例视场200。在图2中,还以分解视图图示距离传感器100的某些部件。如所示,视场200基本上是半球形形状。此外,由距离传感器100产生的多个三次光射束将光图样投射在“虚拟”半球上。该图样由所图示的一系列同心圆来表示,在这里每个三次射束都会遇到半球。该圆被描绘为随着离距离传感器100的距离的增加而在尺寸上逐渐减小,以便示出由三次射束创建的图样如何在视觉上由于对象距离而改变。
如图2中所示,距离传感器100的视场覆盖近似180度。在一个实施例中,可以通过背靠背地安装两个距离传感器将该视场扩展到近似360度。
图3例如图示具有近似360度的视场的距离传感器300的一个实施例。该距离传感器300实际上包括两个距离传感器3021和3022,它们被配置成类似于图1A和1B的距离传感器100但是以背靠背的布置来安装,即以使得两个距离传感器3021和3022的各自光源3041和3042邻近,但是在相反的方向上投射它们的主射束(即在两个主射束之间存在180度的差)。
如所图示的,两个距离传感器3021和3022可被配置成基本上类似于图1A和1B的距离传感器100。因此,每个距离传感器3021和3022包括各自的光源3041和3042、各自的成像传感器3061和3062、各自的广角透镜3081和3082、各自的第一DOE 3101和3102、以及第二DOE31211-3121n和31221-3122n的各自的圆形阵列。然而,成像传感器3061或3062可共享用于计算从距离传感器300到对象或点的距离的电路或网络接口。
值得注意地,在该实施例中,第二DOE 31211-3121n和31221-3122n被定位在它们的各自成像传感器3061和3062的主点的后面。成像传感器3061和3062(以及尤其透镜3081和3082)和第二DOE 31211-3121n和31221-3122n的该相对定位允许由距离传感器300投射的射束图样覆盖更大的视场(例如更接近对于每个距离传感器3021和3022的全180度,或者更接近对于作为一个整体的传感器300的全360度)。
图4图示用于计算从传感器到空间中的对象或点的距离的方法400的流程图。在一个实施例中,可由集成在成像传感器中的处理器(诸如图1A中图示的成像传感器110)或者如在图5中图示并且在下文所讨论的通用计算设备来执行该方法400。
方法400在步骤402中开始。在步骤404中,激活光源以生成光的主射束。在一个实施例中,由单个光源来生成单个主射束;然而,在其他实施例中,由多个光源来生成多个主射束。在一个实施例中,一个光源或多个光源包括激光器光源。
在可选步骤406中,使用定位在该主射束沿着其传播的路径中的第一射束分离装置(例如衍射光学元件)来将该主射束分离成多个二次射束。该第一射束分离装置可以是例如圆锥反射镜。例如,当距离传感器(成像传感器是其一部分)包括仅单个光源时执行步骤406。
在步骤408中,使用射束分离装置阵列中的第二射束分离装置(例如第二衍射光学元件)将多个二次射束中的每个射束分离成多个投影或三次射束。在一个实施例中,以环形来定位多个第二射束分离装置,以使得每个第二射束分离装置都被定位在二次射束之一沿其传播的路径中。在一个实施例中,第二射束分离装置中的至少一些是圆锥反射镜。在其中距离传感器包括多个光源的一个实施例中,该方法400可直接从步骤404进行到步骤408。在这种情况下,(使用多个光源生成的)该多个主射束中的每一个主射束都被第二射束分离装置之一直接分离成多个投影射束。
在步骤410中,捕获该对象或点的至少一个图像。该图像包括被投射到该对象或点上以及周围空间上的图样。通过将一系列圆点、线或其他形状投射到该对象、点或周围空间上的各投影射束中的每一个来创建图样。
在步骤412中,使用来自在步骤410中捕获的图像的信息来计算从传感器到该对象或点的距离。在一个实施例中,使用三角测量技术来计算该距离。例如,由传感器投射的各图样的各部分之间的位置关系可以被用作用于计算的基础。
该方法400在步骤414中结束。因此,结合在图1A-1B中或图3中描绘的传感器的方法400可以在图像捕获和计算的单个循环中测量从传感器到空间中的对象或点的距离。
图5例如图示三角测量技术,在步骤412中可通过该三角测量技术计算从传感器到对象或点的距离。特别地,图5图示图1的示例成像传感器110以及可用两个第二衍射光学元件1081和1082限定的两个投影点。该各投影点与成像传感器110隔开相等的距离x,以使得在两个投影点之间存在距离s(例如x = s/2)。各投影点中的每一个发射相应的投影射束5001和5002,其被入射在对象上以创建图样中的相应点5021和5022(例如圆点或线)。通过成像传感器110来检测这些点5021和5022并且它们可被用来如下计算成像传感器110和对象之间的距离D:
D = s/(-tanα2 + tanα1 + tanθ2 + tanθ1) (等式1)
在这里α2是在第二衍射光学元件1082的中心轴c2和投影射束5002之间形成的角,α1是在第二衍射光学元件1081的中心轴c1和投影射束5001之间形成的角,θ2是在成像传感器110的中心光轴O和成像传感器110以其来感知由投影射束5002创建的点5022的角之间形成的角,并且θ1是在成像传感器110的中心光轴O和成像传感器110以其来感知由投影射束5001创建的点5021的角之间形成的角。
从下面的关系式来导出等式1:
D* tanα1 + D * tanθ1= x (等式2)
D* tanα2 + D * tanθ2= s-x (等式3)
等式2和3允许计算从投影图样(包括例如圆点图样)的源到将投影图样投射到其上的对象的距离。当用不同投影点在该源周围发射各光点时,基于形成投影图样的各光点(例如圆点)之间的位置关系来计算该距离。在该实施例中,各光点之间的位置关系是先验已知的(即不被测量而作为计算的一部分)。
图6描绘适合于在执行本文所述的功能中使用的通用计算机的高级框图。如在图6中所描绘的,系统600包括一个或多个硬件处理器元件602(例如中央处理单元(CPU)、微处理器、或多核处理器)、存储器604(例如随机存取存储器(RAM)和/或只读存储器(ROM))、用于计算距离的模块605、和各种输入/输出装置606(例如存储装置,包括但不限于磁带驱动器、软盘驱动器、硬盘驱动器或光盘驱动器、接收器、发射器、透镜和光学器件、输出端口、输入端口和用户输入装置(诸如键盘、键区、鼠标、麦克风等等))。尽管示出了仅一个处理器元件,但是应该指出通用计算机可采用多个处理器元件。此外,尽管在图中示出了仅一个通用计算机,但是如果对于特定说明性示例以分布式或并行方式来实施如上文所讨论的(一个或多个)方法(即跨多个通用计算机或并行通用计算机来实施(一个或多个)上述方法或(一个或多个)整个方法的步骤),则意图使该图的通用计算机代表这些多个通用计算机中的每一个。此外,一个或多个硬件处理器可以被利用来支持虚拟化或共享的计算环境。该虚拟化计算环境可支持代表计算机、服务器或其他计算设备的一个或多个虚拟机。在此类虚拟化虚拟机中,诸如硬件处理器和计算机可读存储装置之类的硬件部件可被虚拟化或在逻辑上表示。
应该指出,可以以软件和/或软件和硬件的组合的方式来实施本公开,例如使用专用集成电路(ASIC)、可编程逻辑阵列(PLA)(包括现场可编程门阵列(FPGA)、或部署在硬件设备、通用计算机或任何其他硬件等同物上的状态机,例如关于上文讨论的(一个或多个)方法的计算机可读指令可以被用来配置硬件处理器以执行上文公开的方法的步骤、功能和/或操作。在一个实施例中,针对用于计算距离的本模块或过程605的指令和数据(例如包括计算机可执行指令的软件程序)可以被加载到存储器604中并且由硬件处理器元件602来执行以实施如上文结合示例方法400讨论的步骤、功能或操作。此外,当硬件处理器执行指令来实行“操作”时,这可以包括直接实行操作和/或促进、指引另一硬件装置或部件(例如协处理器等等)或与之合作以实行操作的硬件处理器。
执行与上文描述的(一个或多个)方法有关的计算机可读或软件指令的处理器可以被认为是编程的处理器或专用处理器。照此,用于计算本公开的距离(包括相关联的数据结构)的本模块605可以被存储在有形或物理(概括为非瞬时)计算机可读存储装置或介质(例如易失性存储器、非易失性存储器、ROM存储器、RAM存储器、磁性或光学驱动器、装置或磁盘等等)上。更具体地,该计算机可读存储装置可包括提供存储信息(诸如被处理器或计算装置(诸如计算机或应用程序服务器)访问的数据和/或指令)的能力的任何物理装置。
如上文所讨论的,例如如由诸如衍射光学元件(DOE)之类的射束分离装置限定的投影点集合可以被配置成将各种各样的图样投射到视场上。例如,被投射图样的单独的光点的形状可变化(例如该光点可包括圆点、线等等)。此外,单独的光点可共同形成各种各样的图样,除了其他潜在图样之外还包括环形图样、球形图样、平行线或面的图样、或三角形图样。换言之,成组的单独的光点可以形成具有序类型(ordinality)的一条或多条线(例如具有球形或三角形形状的投影图样或平行线或面的图样)。在一个实施例中,单独的光点之间的序类型是相同的或者共享类似的特性(例如对称、旋转一致、局部一致等等)。此外,各组单独的光点可以形成具有序类型的圆点(例如对于具有环形形状的投影图样)。在一个实施例中,单独的光点之间的序类型是相同的或者共享类似的特性(例如圆点形状、间隔关系等等方面的差异)。
图7A图示被配置成投射环形图样的距离传感器700的一个简化示例。通过线A—A’和成像传感器710的主点702(即光轴A—A’和图像面相交处的点)来指示该距离传感器700的光轴。在一个实施例中,射束分离装置7041-704n的环(在下文中被统称为“射束分离装置704”)被定位在成像传感器710的主点702后面。用“a”来指示从光轴A—A’到每个射束分离装置704的距离,而用“b”来指示从每个射束分离装置704到主点702(沿着光轴A—A’)的距离。
如所图示的,各射束分离装置704中的每一个都发射在多个方向上从射束分离装置704径向向外延伸的多个投影射束706。每一组投影射束706共同地形成投影线708。在图7A中所图示的示例中,每一组投影射束706的投影线708类似于环的至少一部分。
图7B图示可由图7A的距离传感器700发射的投影图样的更三维化的视图。如所图示的,由给定射束分离装置704发射的每一组投影射束7061-706o(在下文中被统称为“投影射束706”)共同形成射束面7141-714m(在下文中被统称为“射束面714”)。在一个实施例中,在垂直方向上对着射束面714投射形成给定射束面714的投影射束706。如所示的那样由不同组的投影射束706创建的各个射束面714可重叠。此外,每个射束面714的视觉外观可基于由相关联的射束分离装置704发射的投影图样来变化。例如,基于由相应的各组投影射束创建的光点的不同图样,射束面7141可在视觉上看上去与射束面714m不同。
图7C图示图7A的距离传感器700的另一视图,在其中倾斜角的概念是可见的。如所图示的,由包括投影射束7060的一组投影射束形成的示例射束面714m的投影方向在射束面714m和从成像传感器的主点径向延伸的轴之间形成倾斜角α。在所图示的示例中,以倾斜角α使射束面倾斜可以最小化多个射束面的重叠。使射束面倾斜还可以使得更容易地区别投射在表面上的单独的光点,这允许使用相对简单的算法来计算从距离传感器700到对象的距离。
例如图8A和8B图示可以从其导出用于使用图7A-7C的传感器来计算到对象的距离的简单算法的概念。参考图8A,可以如下计算从Op到D的矢量r0的高度z、深度y和长度x:
z = r0 sinθ (等式4)
y = r0 cosθ sinα (等式5)
x = r0 cosθ cosα (等式6),
由此,
r0 2 = x2 + y2 + z2 (等式7)。
参考图8B,当高度减小b且长度增加a时,各尺寸可以被计算为:
由此,
R0 2 = (x + a)2 + y2 + (z – b)2 (等式11)。
根据等式4和等式8,可以导出:
根据等式5和等式9,可以导出:
根据等式6和等式10,可以导出:
由此,
图9图示扩展至示例距离传感器900的图8A-8B的概念。该示例距离传感器900包括光源902(包括射束分离装置)、第二射束分离装置的环形阵列904、以及成像传感器906(包括广角透镜)。该示例距离传感器900被配置成投射形成虚拟球908的光的图样。
图10A和10B图示本公开的距离传感器1000的另一实施例。特别地,图10A图示距离传感器1000的简化分解视图,而图10B图示图10A的距离传感器1000的简化横截面视图。
特别地,图10A和10B仅图示用来产生投影射束的部件的子集并且省略例如成像传感器和外壳。因此,该距离传感器1000通常包括至少一个光源(例如激光器光源)1004、第一射束分离装置1006和第二射束分离装置1008。在一个实施例中,该第二射束分离装置1008包括具有能够将单独的光射束分离成各组射束的多个投影点的单个环形装置,诸如全息胶片或其他材料。此外,该距离传感器100包括圆锥反射镜1002。
在这种情况下,该第一射束分离装置1006将由光源1004发射的主射束分离成多个二次射束。然后将该二次射束中的每一个入射在圆锥反射镜1002的表面上,该圆锥反射镜1002重新指引该二次射束中的每一个朝向第二射束分离装置1008。如上文所述,在第二射束分离装置1008上的每个投影点将二次射束分离成多个三次或投影射束。
图11A和11B图示本公开的距离传感器1100的另一实施例。特别地,图11A图示距离传感器1100的简化分解视图,而图11B图示图11A的距离传感器1100的简化横截面视图。
特别地,图11A和11B仅图示用来产生投影射束的部件的子集并且省略例如成像传感器和外壳。因此,类似于图10A和10B中图示的距离传感器1000,该距离传感器1100通常包括至少一个光源(例如激光器光源)1104、第一射束分离装置1106和第二射束分离装置11081-1108n的阵列(并且在下文中被统称为“第二射束分离装置1008”)。在这种情况下,以环形阵列来布置多个单独的第二射束分离装置1008。该阵列被定位在锥体或多面反射镜1102的边缘的周围。
在这种情况下,该第一射束分离装置1106将由光源1104发射的主射束分离成多个二次射束。然后将该二次射束中的每一个入射在锥体反射镜1102的表面上,其朝向第二射束分离装置1108中的一个重新指引该二次射束中的每一个。如上文所述,各第二射束分离装置1008中的每一个将二次射束分离成多个三次或投影射束。
尽管已经在上文描述了各种实施例,但是应该理解已经仅通过示例的方式提出各种实施例,并且不作为限制。因此,不应该通过上述示例性实施例中的任一个来限制优选实施例的广度和范围,而是应该仅根据以下权利要求以及它们的等同物来限定优选实施例的广度和范围。
Claims (24)
1.一种用于计算到对象的距离的设备,包括:
图像捕获装置,其被定位成捕获视场中的图像;
第一多个投影点,其被布置在该图像捕获装置的第一透镜周围;
光源,其被配置成发射单个光射束;
射束分离装置,其被定位成将该单个光射束分离成多个射束,并且将该多个射束中的每个射束引导朝向第一多个投影点中的一个投影点;以及
圆锥形反射镜,其被定位在该射束分离装置和该第一多个投影点之间;
图像捕获装置的第二透镜,其中该第二透镜指向的方向与该第一透镜指向的方向相距180度;以及
第二多个投影点,其被布置在第二透镜周围;
其中该第一多个投影点中的每个投影点都被配置成在视场内的不同方向上发射多个投影射束;
其中该第二多个投影点中的每个投影点都被配置成在视场内的不同方向上发射多个投影射束;以及
其中每多个投影射束中的每个单独的投影射束将可见的图样形状投射到该设备周围的空间中。
2.根据权利要求1所述的设备,其中相对于该多个投影射束中的每一个传播的方向,该多个第一投影点被定位在图像捕获装置的主点后面。
3.根据权利要求1所述的设备,其中该光源是激光器光源。
4.根据权利要求1所述的设备,其中该光源是脉冲光源。
5.根据权利要求1所述的设备,其中该光源包括用来调整单个光射束的强度的电路。
6.根据权利要求1所述的设备,其中该光源是多个光源中的一个,并且其中该多个光源中的每一个光源被配置成发射相应的单个光射束并且指引该相应的单个光射束朝向该第一多个投影点中的一个投影点。
7.根据权利要求6所述的设备,其中该射束分离部件包括:
多个射束分离部件;
并且其中该第一多个投影点中的每个投影点都包括被配置成该多个射束分离部件中的将相应的单个光射束分离成相应的多个投影射束的射束分离装置。
8.根据权利要求7所述的设备,其中该多个射束分离装置中的至少一个射束分离装置包括全息胶片。
9.根据权利要求8所述的设备,其中该该多个射束分离装置以环形阵列布置。
10.根据权利要求6所述的设备,其中该射束分离装置包括单个环形装置,在该单个环形装置周围布置第一多个投影点。
11.根据权利要求1所述的设备,其中对于由该第一多个投影点中的每个投影点发射的多个投影射束,该可见的图样形状会变化。
12.根据权利要求1所述的设备,其中该第一多个投影点被布置成利用由该第一多个投影点中的所有投影点发射的多个投影射束来共同创建球形图样。
13.根据权利要求1所述的设备,其中该第一多个投影点被布置成利用由该第一多个投影点中的所有投影点发射的多个投影射束来共同创建环形图样。
14.根据权利要求1所述的设备,其中该第一多个投影点被布置成利用由该第一多个投影点中的所有投影点发射的多个投影射束来共同创建平行线或平行面的图样。
15.根据权利要求1所述的设备,其中该第一多个投影点被布置成利用由该第一多个投影点中的所有投影点发射的多个投影射束来共同创建三角形图样。
16.根据权利要求1所述的设备,其中该第一透镜是向视场呈现半球形状的广角透镜。
17.根据权利要求1所述的设备,进一步包括:
使用由图像捕获装置捕获的图像来计算该设备和定位在视场中的对象之间的距离的电路。
18.一种用于计算到对象的距离的方法,该方法包括:
使用光源发射单个光射束;
通过射束分离装置将单个光射束分离成多个射束;
通过射束分离装置指引多个射束中的第一子集朝向第一多个投影点,其中该射束分离装置定位在光源和第一多个投影点之间,并且其中该第一子集的每个单独的射束被指引朝向该第一多个投影点中的一个投影点;
从该第一多个投影点中的每一个投影点投射多个投影射束,其中该第一多个投影点被布置在图像捕获装置的第一透镜周围,并且其中在视场内的不同方向上指引该多个投影射束中的每个投影射束,并且其中每多个投影射束中的每个单独的投影射束将一系列形状的可见图样投射到设备周围的空间中,并且其中该第一多个投影点被定位在该光源和该第一透镜之间;
通过射束分离装置将该多个射束的第二子集指引朝向第二多个投影点,其中该射束分离装置被定位在该光源和该第二多个投影点之间,并且其中第二子集的每个单独的射束被指引朝向该第二多个投影点的一个投影点;
从该第二多个投影点的每个投影点投射多个投影射束,其中该第二多个投影点被布置在该图像捕获装置的第二透镜周围,并且其中在视场内的不同方向上指引该多个投影射束中的每个投影射束,并且其中每多个投影射束中的每个单独的投影射束将一系列形状的可见图样投射到该设备周围的空间中,并且其中该第二多个投影点被定位在光源和第二透镜之间;
捕获视场的图像,其中该对象在图像中可见并且由多个投影射束的多重投影射束共同生成的投影图样也在图像中可见;以及
使用该图像中的信息来计算到对象的距离。
19.根据权利要求18所述的方法,其中该光源是多个光源中的一个,并且其中该多个光源中的每一个光源发射相应的单个光射束,并且其中指引每个相应的单个光射束朝向第一多个投影点中的一个投影点。
20.根据权利要求18所述的方法,其中该视场是半球形形状的。
21.一种计算机可读存储设备,其存储当被处理器执行时促使该处理器实行用于计算到对象的距离的操作的多个指令,该操作包括:
使用光源发射单个光射束;
通过射束分离装置将单个光射束分离成多个射束;
通过射束分离装置指引多个射束中的第一子集朝向第一多个投影点,其中该射束分离装置定位在光源和第一多个投影点之间,并且其中该第一子集的每个单独的射束被指引朝向该第一多个投影点中的一个投影点;
从第一多个投影点中的每一个投影点投射多个投影射束,其中该第一多个投影点被布置在图像捕获装置的第一透镜周围,并且其中在视场内的不同方向上指引该多个投影射束中的每个投影射束,并且其中每多个投影射束中的每个单独的投影射束将一系列形状的可见图样投射到设备周围的空间中,并且其中该第一多个投影点被定位在光源和第一透镜之间;
通过射束分离装置将该多个射束的第二子集指引朝向第二多个投影点,其中该射束分离装置被定位在该光源和该第二多个投影点之间,并且其中第二子集的每个单独的射束被指引朝向该第二多个投影点的一个投影点;
从该第二多个投影点的每个投影点投射多个投影射束,其中该第二多个投影点被布置在该图像捕获装置的第二透镜周围,并且其中在视场内的不同方向上指引该多个投影射束中的每个投影射束,并且其中每多个投影射束中的每个单独的投影射束将一系列形状的可见图样投射到该设备周围的空间中,并且其中该第二多个投影点被定位在光源和第二透镜之间;
捕获视场的图像,其中该对象在图像中可见并且由多个投影射束的多重投影射束共同生成的投影图样也在图像中可见;以及
使用该图像中的信息来计算到对象的距离。
22.一种用于计算到对象的距离的方法,该方法包括:
由单个光源发射光;
将该光分离成多个射束,其中该多个射束中的每个射束被指引朝向一组投影点中的一个投影点,其中该组投影点包括布置在图像捕获装置的第一透镜周围的第一多个投影点和布置在图像捕获装置的第二透镜周围的第二多个投影点,该第二透镜指向的方向与该第一透镜指向的方向相距180度;
从该第一多个投影点和该第二多个投影点将多个光点投射到视场上,其中通过来自该多个射束的该第一多个投影点和该第二多个投影点生成该多个光点,并且其中该组投影点中的每个投影点被配置成在视场内的不同方向上投射该多个光点中的光点;
捕获视场的图像,其中该对象在图像中可见并且由多个光点形成的投影图样也在图像中可见;以及
根据该多个光点中的至少两个之间的位置关系来计算到对象的距离,其中由多个投影点中的至少两个不同投影点来发射该组光点中的至少两个。
23.根据权利要求22所述的方法,其中该位置关系是先验已知的。
24.一种计算机可读存储设备,其存储当被处理器执行时促使该处理器实行用于计算到对象的距离的操作的多个指令,该操作包括:
由单个光源发射光;
将该光分离成多个射束,其中该多个射束中的每个射束被指引朝向一组投影点中的一个投影点,其中该组投影点包括布置在图像捕获装置的第一透镜周围的第一多个投影点和布置在图像捕获装置的第二透镜周围的第二多个投影点,该第二透镜指向的方向与该第一透镜指向的方向相距180度;
从该第一多个投影点和该第二多个投影点将多个光点投射到视场上,其中通过来自该多个射束的该第一多个投影点和该第二多个投影点生成该多个光点,并且其中该组投影点中的每个投影点被配置成在视场内的不同方向上投射该多个光点中的光点;
捕获视场的图像,其中该对象在图像中可见并且由多个光点形成的投影图样也在图像中可见;以及
根据该多个光点中的至少两个之间的位置关系来计算到对象的距离,其中由多个投影点中的至少两个不同投影点来发射该组光点中的至少两个。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462068250P | 2014-10-24 | 2014-10-24 | |
US62/068,250 | 2014-10-24 | ||
US201562159286P | 2015-05-10 | 2015-05-10 | |
US62/159,286 | 2015-05-10 | ||
PCT/US2015/056883 WO2016065130A1 (en) | 2014-10-24 | 2015-10-22 | Distance sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107407553A CN107407553A (zh) | 2017-11-28 |
CN107407553B true CN107407553B (zh) | 2020-07-28 |
Family
ID=55761539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580070648.9A Expired - Fee Related CN107407553B (zh) | 2014-10-24 | 2015-10-22 | 距离传感器 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10268906B2 (zh) |
EP (1) | EP3209523A4 (zh) |
JP (2) | JP6648147B2 (zh) |
KR (1) | KR20170072319A (zh) |
CN (1) | CN107407553B (zh) |
HK (1) | HK1247272A1 (zh) |
TW (1) | TWI700508B (zh) |
WO (1) | WO2016065130A1 (zh) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10178374B2 (en) * | 2015-04-03 | 2019-01-08 | Microsoft Technology Licensing, Llc | Depth imaging of a surrounding environment |
US10488192B2 (en) | 2015-05-10 | 2019-11-26 | Magik Eye Inc. | Distance sensor projecting parallel patterns |
US10310284B1 (en) * | 2016-07-09 | 2019-06-04 | Mary Gormley Waldron | Apparatus and method for projecting three-dimensional holographic images |
CN109716161A (zh) * | 2016-07-20 | 2019-05-03 | 深圳市大疆创新科技有限公司 | 用于障碍物检测的圆形光源 |
TWI596360B (zh) * | 2016-08-19 | 2017-08-21 | 光寶電子(廣州)有限公司 | 攝像設備以及攝像方法 |
US10620295B2 (en) * | 2016-09-14 | 2020-04-14 | Htc Corporation | Positioning signal receiver, positioning system and positioning method of the same |
JP2020501156A (ja) | 2016-12-07 | 2020-01-16 | マジック アイ インコーポレイテッド | 平行パターンを投射する距離センサ |
TWI622782B (zh) * | 2016-12-16 | 2018-05-01 | Path detection system for generating laser pattern by diffractive optical element and method thereof | |
US20240027587A1 (en) | 2017-06-19 | 2024-01-25 | Hesai Technology Co., Ltd. | Lidar system and method |
US10473767B2 (en) | 2017-06-19 | 2019-11-12 | Hesai Photonics Technology Co., Ltd. | Lidar system and method |
US10904449B2 (en) * | 2017-07-31 | 2021-01-26 | Disney Enterprises, Inc. | Intrinsic color camera |
JP2020537242A (ja) | 2017-10-08 | 2020-12-17 | マジック アイ インコーポレイテッド | 複数の可動センサを含むセンサシステムの校正 |
KR20200054326A (ko) * | 2017-10-08 | 2020-05-19 | 매직 아이 인코포레이티드 | 경도 그리드 패턴을 사용한 거리 측정 |
CN111512180A (zh) * | 2017-10-22 | 2020-08-07 | 魔眼公司 | 调整距离传感器的投影系统以优化光束布局 |
US10679076B2 (en) * | 2017-10-22 | 2020-06-09 | Magik Eye Inc. | Adjusting the projection system of a distance sensor to optimize a beam layout |
KR102532239B1 (ko) * | 2018-01-15 | 2023-05-16 | 헤사이 테크놀로지 씨오., 엘티디. | 레이저 레이더 및 그 작업방법 |
WO2019182881A1 (en) | 2018-03-20 | 2019-09-26 | Magik Eye Inc. | Distance measurement using projection patterns of varying densities |
CN114827573A (zh) | 2018-03-20 | 2022-07-29 | 魔眼公司 | 调整相机曝光以用于三维深度感测和二维成像 |
JP7292315B2 (ja) | 2018-06-06 | 2023-06-16 | マジック アイ インコーポレイテッド | 高密度投影パターンを使用した距離測定 |
US11475584B2 (en) * | 2018-08-07 | 2022-10-18 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
CN113287001B (zh) * | 2019-01-14 | 2023-04-04 | 奥宝科技有限公司 | 用于光学系统的多重图像获取装置 |
JP7565282B2 (ja) | 2019-01-20 | 2024-10-10 | マジック アイ インコーポレイテッド | 複数個の通過域を有するバンドパスフィルタを備える三次元センサ |
WO2020154288A1 (en) * | 2019-01-21 | 2020-07-30 | Michigan Aerospace Corporation | Imaging lidar |
CN109633675B (zh) * | 2019-01-25 | 2021-04-13 | 广州市慧建科技有限公司 | 一种激光发射装置 |
CN113498473B (zh) * | 2019-02-22 | 2024-08-16 | 普罗费塞公司 | 使用动态视觉传感器和图案投影的三维成像和感测 |
WO2020197813A1 (en) | 2019-03-25 | 2020-10-01 | Magik Eye Inc. | Distance measurement using high density projection patterns |
EP3970362A4 (en) | 2019-05-12 | 2023-06-21 | Magik Eye Inc. | MAPPING THREE-DIMENSIONAL DEPTH MAP DATA TO TWO-DIMENSIONAL IMAGERY |
CN114730010B (zh) | 2019-12-01 | 2024-05-31 | 魔眼公司 | 利用飞行时间信息增强基于三角测量的三维距离测量 |
EP4094181A4 (en) | 2019-12-29 | 2024-04-03 | Magik Eye Inc. | ASSIGNMENT OF THREE-DIMENSIONAL COORDINATES TO TWO-DIMENSIONAL FEATURE POINTS |
EP4097681A4 (en) | 2020-01-05 | 2024-05-15 | Magik Eye Inc. | TRANSFER OF THE COORDINATE SYSTEM OF A THREE-DIMENSIONAL CAMERA TO THE IMPACT POINT OF A TWO-DIMENSIONAL CAMERA |
EP3910286B1 (en) | 2020-05-12 | 2022-10-26 | Hexagon Technology Center GmbH | Improving structured light projection through the minimization of visual artifacts by way of deliberately introduced optical aberrations |
TWI758857B (zh) * | 2020-09-10 | 2022-03-21 | 財團法人金屬工業研究發展中心 | 定位系統以及定位方法 |
JP7215472B2 (ja) * | 2020-12-28 | 2023-01-31 | 株式会社リコー | 撮像装置および撮像方法 |
US12118428B2 (en) | 2022-08-25 | 2024-10-15 | Omron Corporation | Using distance sensor delta to determine when to enter presentation mode |
US11960968B2 (en) * | 2022-08-25 | 2024-04-16 | Omron Corporation | Scanning device utilizing separate light pattern sequences based on target distance |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5980454A (en) * | 1997-12-01 | 1999-11-09 | Endonetics, Inc. | Endoscopic imaging system employing diffractive optical elements |
CN100412501C (zh) * | 2005-06-28 | 2008-08-20 | 富士通株式会社 | 图像获取设备 |
CN100478981C (zh) * | 2006-03-03 | 2009-04-15 | 富士通株式会社 | 具有测距功能的图像捕获装置 |
CN101794065A (zh) * | 2009-02-02 | 2010-08-04 | 中强光电股份有限公司 | 投影显示系统 |
CN103559735A (zh) * | 2013-11-05 | 2014-02-05 | 重庆安钻理科技股份有限公司 | 一种三维重建方法及系统 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4914460A (en) | 1987-05-29 | 1990-04-03 | Harbor Branch Oceanographic Institution Inc. | Apparatus and methods of determining distance and orientation |
US4954962A (en) * | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
JPH0451112A (ja) * | 1990-06-19 | 1992-02-19 | Fujitsu Ltd | マルチスリット投光器 |
JP3141681B2 (ja) | 1994-04-27 | 2001-03-05 | キヤノン株式会社 | 防振機能を有した光学系 |
JPH08555A (ja) | 1994-06-16 | 1996-01-09 | Fuji Photo Optical Co Ltd | 内視鏡の照明装置 |
JP3328111B2 (ja) * | 1995-08-23 | 2002-09-24 | 日本電気株式会社 | 空間距離測定方法及び空間距離測定装置 |
JPH11257953A (ja) * | 1998-03-06 | 1999-09-24 | Koa:Kk | トンネル壁面観察装置 |
US7673803B2 (en) | 1998-03-24 | 2010-03-09 | Metrologic Instruments, Inc. | Planar laser illumination and imaging (PLIIM) based engine |
US7940299B2 (en) | 2001-08-09 | 2011-05-10 | Technest Holdings, Inc. | Method and apparatus for an omni-directional video surveillance system |
DE10308383A1 (de) | 2003-02-27 | 2004-09-16 | Storz Endoskop Produktions Gmbh | Verfahren und optisches System zur Vermessung der Topographie eines Meßobjekts |
JP2006313116A (ja) * | 2005-05-09 | 2006-11-16 | Nec Viewtechnology Ltd | 距離傾斜角度検出装置および該検出装置を備えたプロジェクタ |
US20070091174A1 (en) | 2005-09-30 | 2007-04-26 | Topcon Corporation | Projection device for three-dimensional measurement, and three-dimensional measurement system |
US8471892B2 (en) * | 2006-11-23 | 2013-06-25 | Z. Jason Geng | Wide field-of-view reflector and method of designing and making same |
TWI320480B (en) * | 2007-04-23 | 2010-02-11 | Univ Nat Formosa | One diffraction 6 degree of freedom optoelectronic measurement system |
US8282485B1 (en) * | 2008-06-04 | 2012-10-09 | Zhang Evan Y W | Constant and shadowless light source |
WO2010006081A1 (en) | 2008-07-08 | 2010-01-14 | Chiaro Technologies, Inc. | Multiple channel locating |
US8334900B2 (en) | 2008-07-21 | 2012-12-18 | The Hong Kong University Of Science And Technology | Apparatus and method of optical imaging for medical diagnosis |
JP5484098B2 (ja) * | 2009-03-18 | 2014-05-07 | 三菱電機株式会社 | 投写光学系及び画像表示装置 |
JP5499985B2 (ja) * | 2010-08-09 | 2014-05-21 | ソニー株式会社 | 表示装置組立体 |
TWI428558B (zh) | 2010-11-10 | 2014-03-01 | Pixart Imaging Inc | 測距方法、測距系統與其處理軟體 |
JP5830270B2 (ja) | 2011-05-24 | 2015-12-09 | オリンパス株式会社 | 内視鏡装置および計測方法 |
CN104254768A (zh) | 2012-01-31 | 2014-12-31 | 3M创新有限公司 | 用于测量表面的三维结构的方法和设备 |
KR101630558B1 (ko) * | 2012-03-28 | 2016-06-14 | 후지쯔 가부시끼가이샤 | 촬상 장치 |
US9590122B2 (en) | 2012-05-18 | 2017-03-07 | Siemens Healthcare Diagnostics Inc. | Fish eye lens analyzer |
EP2696590B1 (en) | 2012-08-06 | 2014-09-24 | Axis AB | Image sensor positioning apparatus and method |
US9741184B2 (en) | 2012-10-14 | 2017-08-22 | Neonode Inc. | Door handle with optical proximity sensors |
CN104884862B (zh) | 2012-10-24 | 2019-11-19 | 视瑞尔技术公司 | 照明设备 |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US8768559B1 (en) * | 2013-01-22 | 2014-07-01 | Qunomic Virtual Technology, LLC | Line projection system |
US9364167B2 (en) | 2013-03-15 | 2016-06-14 | Lx Medical Corporation | Tissue imaging and image guidance in luminal anatomic structures and body cavities |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US20140320605A1 (en) | 2013-04-25 | 2014-10-30 | Philip Martin Johnson | Compound structured light projection system for 3-D surface profiling |
WO2015103595A1 (en) | 2014-01-06 | 2015-07-09 | Eyelock, Inc. | Methods and apparatus for repetitive iris recognition |
GB2522248A (en) | 2014-01-20 | 2015-07-22 | Promethean Ltd | Interactive system |
JP6370177B2 (ja) | 2014-09-05 | 2018-08-08 | 株式会社Screenホールディングス | 検査装置および検査方法 |
US20160128553A1 (en) | 2014-11-07 | 2016-05-12 | Zheng Jason Geng | Intra- Abdominal Lightfield 3D Endoscope and Method of Making the Same |
KR20180005659A (ko) | 2015-05-10 | 2018-01-16 | 매직 아이 인코포레이티드 | 거리 센서 |
-
2015
- 2015-10-22 JP JP2017540972A patent/JP6648147B2/ja not_active Expired - Fee Related
- 2015-10-22 US US14/920,246 patent/US10268906B2/en not_active Expired - Fee Related
- 2015-10-22 CN CN201580070648.9A patent/CN107407553B/zh not_active Expired - Fee Related
- 2015-10-22 EP EP15852075.9A patent/EP3209523A4/en not_active Withdrawn
- 2015-10-22 KR KR1020177014017A patent/KR20170072319A/ko not_active Application Discontinuation
- 2015-10-22 WO PCT/US2015/056883 patent/WO2016065130A1/en active Application Filing
- 2015-10-23 TW TW104134927A patent/TWI700508B/zh not_active IP Right Cessation
-
2018
- 2018-05-25 HK HK18106803.4A patent/HK1247272A1/zh unknown
-
2019
- 2019-11-25 JP JP2019212319A patent/JP6876776B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5980454A (en) * | 1997-12-01 | 1999-11-09 | Endonetics, Inc. | Endoscopic imaging system employing diffractive optical elements |
CN100412501C (zh) * | 2005-06-28 | 2008-08-20 | 富士通株式会社 | 图像获取设备 |
CN100478981C (zh) * | 2006-03-03 | 2009-04-15 | 富士通株式会社 | 具有测距功能的图像捕获装置 |
CN101794065A (zh) * | 2009-02-02 | 2010-08-04 | 中强光电股份有限公司 | 投影显示系统 |
CN103559735A (zh) * | 2013-11-05 | 2014-02-05 | 重庆安钻理科技股份有限公司 | 一种三维重建方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3209523A1 (en) | 2017-08-30 |
CN107407553A (zh) | 2017-11-28 |
JP2017532580A (ja) | 2017-11-02 |
TW201621349A (zh) | 2016-06-16 |
JP6876776B2 (ja) | 2021-05-26 |
JP6648147B2 (ja) | 2020-02-14 |
US20160117561A1 (en) | 2016-04-28 |
JP2020024234A (ja) | 2020-02-13 |
WO2016065130A1 (en) | 2016-04-28 |
KR20170072319A (ko) | 2017-06-26 |
HK1247272A1 (zh) | 2018-09-21 |
US10268906B2 (en) | 2019-04-23 |
TWI700508B (zh) | 2020-08-01 |
EP3209523A4 (en) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107407553B (zh) | 距离传感器 | |
CN107850420B (zh) | 距离传感器 | |
KR102543275B1 (ko) | 평행 패턴들을 투사하는 거리 센서 | |
US10488192B2 (en) | Distance sensor projecting parallel patterns | |
TWI758367B (zh) | 投射平行圖案的距離感應器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1247272 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200728 |
|
REG | Reference to a national code |
Ref country code: HK Ref legal event code: WD Ref document number: 1247272 Country of ref document: HK |