CN110234955A - 投影平行图案的距离传感器 - Google Patents
投影平行图案的距离传感器 Download PDFInfo
- Publication number
- CN110234955A CN110234955A CN201780075906.1A CN201780075906A CN110234955A CN 110234955 A CN110234955 A CN 110234955A CN 201780075906 A CN201780075906 A CN 201780075906A CN 110234955 A CN110234955 A CN 110234955A
- Authority
- CN
- China
- Prior art keywords
- line
- dot
- light source
- multiple light
- method described
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/026—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
在一个实施例中,一种用于计算到物体的距离的方法包括:从光源同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及使用图像中的信息计算到物体的距离。
Description
相关申请的交叉引用
本申请是2016年5月9日提交的美国专利申请序列号15/149,323的继续部分,该申请又要求2015年5月10日提交的美国临时专利申请序列号62/159,286的权益。本申请还要求2016年12月7日提交的美国临时专利申请序列号62/430,998的权益。通过引用将所有的这些申请以它们的整体并入本文中。
背景技术
本公开一般地涉及计算机视觉系统,并且更特别地涉及用于测量到空间中的物体或点的距离的传感器。
诸如机器人交通工具和无人机之类的无人驾驶交通工具通常依赖于用于周围环境中的障碍物检测和导航的计算机视觉系统。这些计算机视觉系统通常又依赖于从周围环境获取视觉数据的各种传感器,计算机视觉系统处理该数据以便收集关于周围环境的信息。例如,经由一个或多个成像传感器获取的数据可以被用来确定从交通工具到周围环境中的特定物体或点的距离。
发明内容
在一个实施例中,一种用于计算到物体的距离的方法包括:从光源同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及使用图像中的信息计算到物体的距离。
在另一实施例中,一种存储多个指令的计算机可读存储设备,所述指令当由处理器执行时,使得处理器执行用于计算到物体的距离的操作。所述操作包括:从光源同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及使用图像中的信息计算到物体的距离。
在另一个示例中,一种装置包括:光源,用于同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;成像传感器,用于捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及电路,用于使用图像中的信息计算到物体的距离。
附图说明
通过结合附图考虑以下详细描述,可以容易地理解本公开的教导,其中:
图1A图示了可以被用来产生本公开的光学配置的距离传感器的一个实施例的横截面视图;
图1B图示了图1A的距离传感器的俯视图;
图1C图示了可以由图1A和1B的距离传感器的光源之一投影的图案的第一示例;
图2A图示了投影到表面上的图1C中图示的平行线的示例图案;
图2B图示了由图2A的光源投影的光束的“扇形”的前视图;
图2C图示了图2B的光束的扇形的侧视图;
图3图示了投影到半球形视场中的图1C中图示的平行线的示例图案的另一侧视图;
图4图示了图1A-1C的距离传感器的俯视图,其中光源中的每个被示出为以扇形形状发射多个光束;
图5A图示了可以由图4的所有的光源同时发射多个光束的图案的俯视图;
图5B图示了图5A中描绘的图案的一半的俯视图;
图6A图示了距离传感器的俯视图,该距离传感器类似于图1B中图示的距离传感器,除了图6A的距离传感器包括两个成像传感器;
图7A和7B图示了可以由本公开的距离传感器投影的投影图案的更详细示例;
图8A图示了可以通过多个平行的投影产生的示例球(或半球)坐标结构;
图8B图示了平面投影处的图8A的图案;
图8C其描绘了图8B的图案,其中圆点的轨迹随着到物体的距离而变化;
图9A和9B图示了可以由本公开的距离传感器投影的投影图案的更详细示例;
图10A是示出用于使用一对平行线计算到物体的距离的相关参数的图示,其中线中的每条包括一系列圆点;
图10B图示了用于计算从图10A的成像传感器到图10A的物体的距离D的算法的一个示例;
图11A和11B图示了可以从其导出用于使用本文中公开的距离传感器来计算到物体的距离的简单算法的概念;
图12图示了延伸到示例距离传感器的图11A-11B的概念;
图13图示了用于计算从传感器到空间中的物体或点的距离的方法的流程图;
图14描绘了适用于在执行本文中描述的功能时使用的通用计算机的高级框图;以及
图15描绘了同时投影的两个不同的示例投影图案。
为了便于理解,在可能的情况下,已经使用相同的参考标号来表示图中共同的相同元件。
具体实施方式
在一个实施例中,本公开涉及一种距离传感器。可以在无人驾驶交通工具中使用距离传感器,以便帮助计算机视觉系统确定从该交通工具到周围环境中的特定物体或点的距离。例如,距离传感器可以将一个或多个光束投影到该物体或点上并且然后根据飞行时间(TOF)、对反射光的分析(例如激光雷达)或其他装置来计算距离。然而,这种类型的常规距离传感器往往是庞大的,并且因此可能不适用于在紧凑交通工具中使用。此外,该传感器可能制造起来是非常昂贵的并往往具有有限的视场。例如,即使使用多个常规成像传感器的布置提供小于360度的视场。所公开类型的距离传感器还可以被用于其他应用,包括三维(3D)成像。
本公开的示例为诸如2015年10月22日提交的美国专利申请No. 14/920,246中公开的距离传感器中的任何距离传感器的紧凑距离传感器提供光学配置改进。一个或多个光源投影多个光束,当入射在物体上时,所述光束共同形成线的图案。然后,一个或多个成像传感器捕获物体和图案的二维图像,并且基于图像中物体上的图案的外观,计算到物体的距离。在本公开的上下文中,“光束”或“投影光束”是指由所公开的距离传感器的光源发射的光的形式。“线”或“图案”是指当由光源发射的光束入射在表面或物体上时在该表面或物体上产生的图像。
例如,图1A和1B图示了可以被用来产生本公开的光学配置的距离传感器100的一个示例。特别地,图1A图示了距离传感器100的横截面视图,而图1B图示了图1A的距离传感器100的俯视图。距离传感器100可被安装到例如无人驾驶交通工具。
如图1A中所图示的那样,距离传感器100包括布置在紧凑壳体102内的多个部件。在一个示例中,部件包括围绕包括广角透镜112的成像传感器110布置的多个光源1081-108n(下文统称为“光源108”或单独称为“光源108”)。在一个示例中,多个光源108包括偶数个光源。例如,在图1A中所示的示例中,多个光源108包括四个光源108。在一个示例中,部件关于中心轴A-A'基本对称地布置。例如,在一个示例中,中心轴A-A'与成像传感器110的光轴重合,并且光源108在围绕成像传感器110的环中以规则间隔(例如,每三十度、每九十度或者诸如此类)间隔开。如图1B中所示。然而,在其他示例中,可以仅使用单个光源108。
在一个示例中,光源108中的每个是发射多个光束的激光光源,其中多个光束可以将多条圆点(或其他标记,诸如x、短划或者诸如此类)的线投影到多个光束入射在其上的表面上。因此,每个光源108可以被认为是距离传感器100的投影点,即距离传感器100上的点,多个光束从该点被投影到视场中。为此,每个投影点可以包括相应的衍射光学元件1141-114n(下文统称为衍射光学元件114”或单独称为“衍射光学元件114”),其将由光源108发射的单个光束分裂成多个光束。多个光束中的每个单独光束可以依次将圆点或点投影到表面上,其中多个光束被布置成使得相应的圆点共同形成一系列平行线。线可以由圆点形成,使得它们共同形成矩形的圆点的矩阵。替代地,线可以是连续的,或由短划、x或者诸如此类形成。
每个光源108的投影的方向可以相对于成像传感器110固定。在一个示例中,每个光源108被配置成投影在表面上形成不同视觉图案的多个光束。例如,光源1081可以投影圆点的图案,而光源1082可以投影短划或x的图案等。在另外的示例中,多个光源108中的至少一个光源108可被配置成变化其投影的图案。另外,由光源108中的一个或多个投影的光的强度可以变化。例如,光源1081可以投影第一强度的光,而光源1082可以投影不同的第二强度的光等。替代地,每个光源108可以能够投影其强度可以在某个范围内变化的光。
从每个光源108发射的光具有已知对人类视觉相对安全的波长(例如,红外线)。在另外的示例中,每个光源108可以包括用于调节其输出的强度的电路。在另外的示例中,每个光源108可以以脉冲形式发射光,以便减轻环境光对图像捕获的影响。
在一个示例中,相对于由多个光源108发射的光在其中传播的方向,多个光源108被定位在成像传感器110的主点(即其中光轴A-A’与图像平面相交的点)的“后面”,如图1A中所示。在一个示例中,多个光源108中的至少一个光源108可从距离传感器100拆卸。
如上面所讨论的那样,成像传感器110可以沿着中心轴A-A'被定位在多个光源108的中间。在一个示例中,该成像传感器110是图像捕获设备,诸如静止照相机或视频摄像机。在一个特定示例中,图像捕获设备包括红、绿、蓝红外(RGB-IR)传感器。还如上面所讨论的那样,该成像传感器110包括产生半球形视场的广角透镜112,诸如鱼眼透镜。在一个示例中,透镜112包括除中心投影或自由形状表面光学透镜之外的任何类型的透镜。在一个示例中,该成像传感器110包括用于计算从距离传感器110到物体或点的距离的电路。在另一示例中,该成像传感器包括用于通过网络将所捕获的图像传送给处理器的网络接口,其中处理器计算从距离传感器100到物体或点的距离并且然后将所计算的距离传送返回给距离传感器100。
在另一个示例中,距离传感器100可以采用单个光源108,所述光源108采用衍射光学元件来将其光束分裂成第一多个光束。然后,将第一多个光束中的每个进一步分裂成第二多个光束,所述第二多个光束从距离传感器100的每个投影点发射,如上面讨论的那样(例如,通过衍射光学元件114)。在美国专利申请No. 14/920,246中进一步详细讨论了该示例。
因此,在一个示例中,距离传感器100使用多个光源或投影点来产生多个投影光束,其中由多个投影光束产生的多条线(例如,其可以包括圆点或短划的图案)可以在它们被投影到其上的表面上彼此平行地取向。因此,由距离传感器100投影到表面上的图案可以包括多条平行线,其中所述线中的每条包括圆点、短划、x的线或者诸如此类。然后,可以根据视场中的多条平行线的外观(例如,通过圆点的位置)计算从距离传感器100到物体的距离(例如,如2015年10月22日提交的美国专利申请No. 14/920,246中描述的那样)。例如,可以通过形成平行线的圆点的横向移动来检测到物体的距离,因为即使距离改变,线也总是连续线性的。还可以直接计算物体的大小和尺寸。
当光源108中的每个投影不同图案(例如,圆点、x、短划等)的多条线时,成像传感器110中的电路可以容易地确定捕获的图像中的哪些线由光源108中的哪个产生。这可以促进距离计算,如下面更详细地讨论的那样。在一个示例中,可以结合由光源108中的每个投影的图案使用不同的距离计算技术。
如上面讨论的那样,距离传感器100可以被配置成产生在视场中形成平行图案的投影光束。例如,图1C图示了可以由图1A和1B的距离传感器100的光源1081之一投影的图案102的第一示例。图1C还在分解图中图示了图1A和1B的距离传感器100的部件中的一些,包括成像传感器110、透镜112和光源1081、1082和1083中的三个。
如图示的那样,图案102包括多条平行线1041-104m(下文统称为“线104”或单独称为“线104”),其中每条线104进一步包括一系列圆点。多条平行线104不重叠或相交。多条线104可以共同形成关于中心线(即,图1C的线1043)的对称图案,其中圆点的分布在视场内是高度均匀的(具有最小的盲点,即,其中未投影图案102的区域)。
在一个示例中,多条线104中的每条线104相对于垂直于光源108的平面的线倾斜或偏斜旋转角度ε,以针对角度α对抗缠绕方向,其中角度α从成像传感器的光轴方向的俯视图(即,从视场中的物体的视图)定义,并且旋转角度ε从投影方向的视图(即,围绕投影轴,从投影点到视场中的物体的视图)定义。在一个示例中,角度α至少是三十度,并且角度ε大于零度。在图1B中,旋转角度α的缠绕方向是顺时针方向,而角度ε的缠绕方向是逆时针方向。对于每个光源108,角度α可以是相同的,或者光源中的两个或更多个可以具有不同的角度α。
每个光源108可以相对于光源108的平面倾斜或偏斜角度θ,这产生扇形角,由光源108投影的多条线104在扇形角上展开。此外,每个光源108与移位值b相关联,该移位值b定义从光源108到成像传感器110的距离,如沿着成像传感器110的光轴A-A'测量的那样。
通过投影平行的、不重叠的圆点的线104的图案102,距离传感器100能够计算到成像传感器的视场中的物体的三维中的距离,如下面进一步详细讨论的那样。即使物体是移动的、反射的或形状上弯曲的,也可以测量距离。如果成像传感器110的透镜112不是广角透镜,则甚至可以测量该距离,尽管使用诸如鱼眼透镜的广角透镜允许距离传感器100覆盖更广的(例如,半球形的)视场。
例如,图2A图示了投影到表面200上的图1C中图示的平行线的示例图案102的另一视图。如图示的那样,图案102关于中心线1043基本对称。还如图示的那样,距离传感器的视场204基本上是半球形的。图2A还图示了从一个光源108投影的多个光束如何可以在风扇布置中从光源108展开,以在表面200上产生平行的、非重叠的线的图案102。图2B图示了由图2A的光源108投影的光束的“扇形”的前视图,而图2C图示了图2B的光束的扇形的侧视图。在示出的示例中,由光源108投影的每个光束之间的间距由θ表示,而图案102中的每条线之间的间距由η表示。在一个示例中,光束之间的间距以及线之间的间距是均匀的。
图3图示了投影到半球形视场204中的图1C中图示的平行线的示例图案102的另一侧视图。箭头300指示到视场204中的物体302的距离R。此外,箭头304和306指示从光源1081发射的光束的角度与由成像传感器110以其捕获由光束投影的图案的图像的角度之间的位置关系。
图4图示了图1A-1C的距离传感器100的俯视图,其中光源108中的每个被示出为以扇形形状发射多个光束。每个多个光束产生相应的平行线的图案,诸如图1C和2A中图示的图案102。
此外,在一个示例中,光源中的每个被定位成相对于将光源的投影点连接到成像传感器110的光轴A-A'的线以相同的角度α发射其多个光束。如上面讨论的那样,在一个示例中,角度α至少是三十度。角度α越小,被投影到视场中的集体图案将展开越少(即,当入射在表面上时,投影的平行线的圆点将看起来更靠近在一起)。换句话说,相对于物距的圆点移动可能太小,以至于使距离不能被高效地确定,特别是对于较长的距离。角度α越大,投影到视场中的集体图案将展开越多(即,当入射在表面上时,投影的平行线的圆点将看起来相距更远)。
当光源中的每个同时发射多个光束时,视场可以以平行线的图案被均匀地覆盖,其中平行线中的每条由一系列圆点、短划、x或者诸如此类形成。在这种情况下,由不同的多个光束形成的相应的平行线不重叠。这允许距离传感器100计算到半球形视场内存在的任何物体的距离。
例如,图5A图示了可以由图4的所有的光源同时发射多个光束的图案的俯视图。特别地,图5A中的环示出了对于由共同光源投影的光束之间的各种间距θ(例如,对于θ=0度、θ=30度、θ=60度和θ=90度)的示例图案的外观。在这种情况下,存在四个光源,并且每个光源投影七个光束的扇形,其在距离传感器的视场中的表面上产生七条平行线。四个光源可以共同投影覆盖所有或几乎所有的半球形视场的图案,如示出的那样。因此,可以使用相对少量的光源和单个想象的传感器来测量大约180度的视场。如图5B中所示,其图示了图5A中描绘的图案的一半的俯视图,由彼此间隔开180度的光源产生的相应图案将彼此偏移。这有助于最小化投影图案的重叠,同时确保覆盖所有或几乎所有的半球形视场。
尽管图5图示了其中图4的所有的光源同时发射它们相应的多个光束的示例,但是在其他示例中,光源可以被定时以按顺序发射它们相应的多个光束。在一个示例中,例如,在存在至少两对光源(即,总共至少四个光源)的情况下,第一对光源(例如,如图5B中彼此间隔开180度)被定时以同时发射它们相应的多个光束。然后,第一对光源停止投影它们相应的多个光束,并且第二对光源(例如,也彼此间隔开180度)同时发射它们相应的多个光束。因此,两对光源交替地发射它们相应的多个光束。该示例涉及由光源的脉冲发射,每个脉冲发射之间具有一些时间的间隔。
在一些示例中,本公开的距离传感器可以包括多于一个成像传感器。例如,图6A图示了距离传感器600的俯视图,其类似于图1B中图示的距离传感器100,除了图6A的距离传感器600包括两个成像传感器610A和610B。在一个示例中,不同的成像传感器610A和610B可以具有不同的光学规格(例如,分辨率、光灵敏度、视场等)。
在这种情况下,多个光源6081-608n(下文统称为“光源608”或单独称为“光源608”)围绕一对成像传感器610A和610B的环中布置。如图示的那样,成像传感器610A和610B的光轴A-A'和B-B'分别是不同的,各个光源608与成像传感器610A和610B中的每个的位置关系也是不同的一样(如由光源6083的不同角度αA和αB指示的那样)。
如图6B中图示的那样,由多个光源608投影的图案602仍包括多条平行线6041-604m(下文统称为“线604”或单独称为“线604”),其中每条线604进一步包括一系列圆点。多条平行线604不重叠或相交。多条线604可以共同形成关于中心线(即,图6B的线6043)的对称图案,其中圆点的分布在视场内是高度均匀的(具有最小的盲点,即,其中未投影图案602的区域)。每个成像传感器610A和610B捕获相同图案602的图像,但是图案602的位置特定于相应的成像传感器自身的坐标系(例如,基于相应的光学位置、轴方向和光学主点位置)。
图7A和7B图示了可以由本公开的距离传感器投影的投影图案的更详细示例。特别地,图7A图示了包括由圆点形成的多条平行线(包括圆点的中心线)的第一示例图案700A,而图7B图示了包括由圆点形成的多条平行线(没有圆点的中心线)的第二示例图案700B。
更具体地,在图7A中,图案700A包括多条平行线702A,其中每条线由一系列圆点704A形成。在一个示例中,在相邻的平行线702A之间存在φ的相位差,使得在相邻的平行线702A的圆点704A之间在x和/或y方向上存在一些位移。在一个示例中,针对每隔一条线702A(例如,使得每隔一条线702A具有相同的相位)、针对每三条线702A(例如,使得每第三条线702A具有相同的相位)等,可以改变相位。
多条平行线702A共同形成矩形的圆点704A的矩阵,其可以被旋转角度Δφ并且升高角度Δθ。该矩形的圆点的矩阵关于第一中心线706A对称,第一中心线706A平行于图案700A的x轴取向,并且该矩形的圆点的矩阵还关于平行于图案的y轴的第二中心线708A对称。因此,矩形的圆点的矩阵关于投影中心710A对称。第二中心线708A也可以被认为是成像传感器的透镜712A的法线。在一个示例中,至少第一中心线706A位于成像传感器的光轴的圆的切线的方向上。第一中心线706A和第二中心线708A两者都由圆点704A形成。图案700A的投影中心710A指示从其投影图案700A的光源的投影的轴。如示出的那样,第一中心线706A和第二中心线708A两者都可以穿过光源的投影中心710A。
在该示例中,通过改变物距的图案700A的轨迹变得与第二中心线708A平行或几乎平行。圆点704A的线702A可以以相等的圆点间隔(例如Δθ)或以一些其他规则性平行于第二中心线708A定位。除了圆点间隔中的相移(φ)之外,这些平行线702A具有相同的配置。
在图7B中,图案700B包括多条平行线702B,其中每条线由一系列圆点704B形成。在一个示例中,在相邻的平行线702B之间存在φ的相位差,使得在相邻的平行线702B的圆点704B之间在x和/或y方向上存在一些位移。在一个示例中,针对每隔一条线702B(例如,使得每隔一条线702B具有相同的相位)、针对每三条线702B(例如,使得每第三条线702B具有相同的相位)等,可以改变相位。
多条平行线702B共同形成矩形的圆点704B的矩阵,其可以被旋转角度Δφ并且升高角度Δθ。该矩形的圆点的矩阵关于第一中心线706B对称,第一中心线706B平行于图案700B的x轴取向,并且该矩形的圆点的矩阵还关于平行于图案的y轴的第二中心线708B对称。因此,矩形的圆点的矩阵关于投影中心710B对称。第二中心线708B也可以被认为是成像传感器的透镜712B的法线。在一个示例中,至少第一中心线706B位于成像传感器的光轴的圆的切线的方向上。与图7A的图案700A相比,第一中心线706B不由圆点704B形成。因此,图7B中的平行线704B之间的间距可以大于图7A中的平行线702A之间的间距。图案700B的投影中心710B指示从其投影图案700B的光源的投影的轴。如示出的那样,第一中心线706B和第二中心线708B两者都可以穿过光源的投影中心710B。
图8A图示了可以通过如上面描述的多条平行线的投影产生的示例球(或半球)坐标结构800。特别地,图8A图示了被配置为虚拟球体802的视场。
如图示的那样,距离传感器包括光源804和衍射光学元件,用于将由光源804发射的光束分裂成多个光束。多个光束的中心808(例如,一个光束在其处被分裂成多个光束的点)可以被认为是图案的投影点,并且它对应于图案812的投影中心810(其中该投影中心810的坐标是(φ,θ)=(0,0))。从投影点808延伸到投影中心810的线可以被认为是光源804的投影轴(发射的方向)。
图案812的第一中心线814对应于θ=0(即,仰角θ为零)。平行于第一中心线814的线对应于θ=0p(即,仰角θ为0p,从平行线到平行线恒定)。因此,图案812可以采用如图8B中示出的针垫型(pin cushion-type)形状,其在平面投影处图示了图8A的图案。y方向上的每个圆点的位置可以被描述为φ。因此,第二中心线816对应于φ=0。
通过改变物距,每个圆点的捕获图像可以在平行于第二中心线816的方向上移动。然而,当在相邻的圆点的线之间引入相移时,点的移动区域(轨迹)不应重叠。如图8C中图示的那样,其描绘了图8B的图案812,其中圆点的轨迹818随着到物体的距离而变化,相邻的圆点的线之间的相位差有助于最小化各个圆点轨迹的重叠。这允许图案812的圆点密度增加。
图9A和9B图示了可以由本公开的距离传感器投影的投影图案的更详细示例。特别地,图9A图示了包括由圆点形成的多条平行线(包括圆点的中心线)的第一示例图案900A,而图9B图示了包括由圆点形成的多条平行线(没有圆点的中心线)的第二示例图案900B。图案900A和900B类似于图7A和7B中图示的图案700A和700B;然而,图案900A和900B的第一中心线906A和906B分别相对于成像传感器的透镜912A和912B的光轴的圆的切线方向分别以角度γ倾斜。
更具体地,在图9A中,图案900A包括多条平行线902A,其中每条线由一系列圆点904A形成。多条平行线902A共同形成矩形的圆点904A的矩阵,其可以旋转角度Δφ并且升高角度Δθ。该矩形的圆点的矩阵关于第一中心线906A对称,第一中心线906A平行于图案900A的x轴取向,并且该矩形的圆点的矩阵还关于平行于图案的y轴的第二中心线908A对称。因此,矩形的圆点的矩阵关于投影中心910A对称。第二中心线908A也可以被认为是成像传感器的透镜912A的法线。在一个示例中,至少第一中心线906A相对于透镜912A的光轴的圆的切线方向以角度γ倾斜。
第一中心线906A和第二中心线908A两者都由圆点904A形成。图案900A的投影中心910A指示从其投影图案900A的光源的投影的轴。如示出的那样,第一中心线906A和第二中心线908A两者都可以穿过光源的投影中心910A。
在该示例中,通过改变物距的图案900A的轨迹变得与第二中心线908A平行或几乎平行。圆点904A的线902A可以以相等的圆点间隔(例如Δθ)或以一些其他规则性平行于第二中心线908A定位。除了圆点间隔中的相移(φ)之外,这些平行线902A具有相同的配置。
在图9B中,图案900B包括多条平行线902B,其中每条线由一系列圆点904B形成。多条平行线902B共同形成矩形的圆点904B的矩阵,其可以旋转角度Δφ并且升高角度Δθ。该矩形的圆点的矩阵关于第一中心线906B对称,第一中心线906B平行于图案900B的x轴取向,并且该矩形的圆点的矩阵还关于平行于图案的y轴的第二中心线908B对称。因此,矩形的圆点的矩阵关于投影中心910B对称。第二中心线908B也可以被认为是成像传感器的透镜912B的法线。
在一个示例中,至少第一中心线906B相对于透镜912B的光轴的圆的切线方向以角度γ倾斜。与图7A的图案900A相比,第一中心线906B不由圆点904B形成。因此,图9B中的平行线904B之间的间距可以大于图9A中的平行线902A之间的间距。图案900B的投影中心910B指示从其投影图案900B的光源的投影的轴。如示出的那样,第一中心线906B和第二中心线908B两者都可以穿过光源的投影中心910B。
因此,本文中公开的各种线的图案能够将投影的区域移位。通过在成像传感器周围采用多个光源并以适当的角度和位置布置多个光源,投影图案,从该图案可以在三维中以广角和高密度检测到物体的距离,这是可能的。图案可以如上面描述的那样倾斜或不倾斜。在后者的情况下,多个光源可以被布置成以更高密度集中在特定区域上。
另外,光源(以及可能的相关联的衍射光学元件)的配置可以被改变,例如通过改变投影面积、圆点图案、光强度、圆点点聚焦(dot spot focusing)或者诸如此类,或者通过将宽区域和窄区域与高强度投影组合。成像传感器的配置也可以通过使用多个成像传感器或通过改变焦距、聚焦位置或者诸如此类来改变。例如,图15描绘了同时投影的两个不同的示例投影图案。第一投影图案1500可以从第一光源投影,而第二投影图案1502可以从第二光源投影。如图示的那样,第二投影图案1502的线之间的间距小于第一投影图案1500的线之间的间距。另外,第二投影图案1502的圆点之间的间距小于第一投影图案1500的圆点之间的间距。因此,第二投影图案1502的整体投影面积小于第一投影图案1500的整体投影面积。在图案产生方面中的这样的灵活性可以允许距离传感器在存在成像传感器变化(例如,焦距调节、聚焦位置调节以及诸如此类)的情况下更高效地测量距离。
图10A是示出用于使用一对平行线10001和10002(下文统称为“线1000”或单独称为“线1000”)计算到物体的距离的相关参数的图示,其中线1000中的每条包括一系列圆点。应指出,图10A图示了简化示例;实际上,可以投影多于两条平行线(例如,在一个示例中为七条平行线)。如图示的那样,平行线1000被投影到物体1002上,物体1002被定位在离距离传感器的成像传感器1004的距离D处。平行线1000以投影间隔α被间隔开,其中间隔的中点(或投影中心)由轴B-B'限定。在距离传感器1004的轴B-B'和中心轴A-A'之间存在φ的距离。光源10061-17002(下文统称为“光源1006”或单独称为“光源1006”)被设置在成像传感器1004的前面的距离b处。
图10B图示了用于计算从图10A的成像传感器1004到图10A的物体1002的距离D的算法的一个示例。除了图10A中图示的参数之外,图10B图示了由光源1006(即以投影间隔α分开的圆点的平行线)所发射的光的一部分被物体1002反射并且作为返回光返回到成像传感器1004。该返回光的光束以距离θ分开,该距离θ通过由成像传感器1004所捕获的图像给出。
当已知距离传感器1004的轴B-B'和中心轴A-A'之间的距离φ为零时,(α/2)/D=tan(θ/2)。因此,从成像传感器1004到物体1002的距离D可以被计算为D=(α/2)/tan(θ/2)。此外,当a<<D时,D≈α/tan(θ)。
当已知距离传感器1004的轴B-B'和中心轴A-A'之间的距离φ为非零的数时,当θ=(θ/2+φ)–(-θ/2+φ)时,D≈α/tan(θ)。
图11A和11B图示了可以从其导出用于使用本文中公开的距离传感器来计算到物体的距离的简单算法的概念。参考图11A,可以如下计算从Op到D的矢量r0的高度z、深度y和长度x:
z = r0 sinθ (等式1)
y = r0 cosθ sinα (等式2)
x = r0 cosθ cosα (等式3)
由此,
r0 2 = x2 + y2 + z2 (等式4)。
等式1-4描述由距离传感器所发射的倾斜投影光束的多个参数的位置关系。
参考图11B,当高度减小b且长度增加a时,尺寸可以被计算为:
z - b = R0 sinφ (等式5)
y = R0 cosφ sinβ (等式6)
x + a = R0 cosφ cosβ (等式7)
由此,
R0 2 = (x + a)2 + y2 + (z – b)2 (等式8)。
根据等式1和等式5,可以导出:
R0 sinφ + b = r0 sinθ (等式9)。
根据等式2和等式6,可以导出:
R0 cosφ sinβ = r0 cosθ sinα (等式10)。
根据等式3和等式7,可以导出:
R0 cosφ cosβ - a = r0 cosθ cosα (等式11)。
由此,
(等式12)。
β和φ是从由成像传感器捕获的图像测量的;a、b和α是从成像传感器/投影设置已知的;并且θ是从投影图案已知的。
图12图示了延伸到示例距离传感器1200的图11A-11B的概念。示例距离传感器1200包括光源的环形阵列(包括光源1202)、对应于每个光源(并且可能包括衍射光学元件或其他光束分裂装置)的投影点(诸如投影点1204)以及成像传感器1206(包括广角透镜)。示例距离传感器1200被配置成投影圆点的多条平行线,所述圆点共同形成虚拟球体1208。
如图示的那样,距离传感器1200的投影点(诸如投影点1206)投影在位于离成像传感器1206距离D处的物体1210上形成圆点的多条平行线的多个光束。光束的中心相对于从中心轴径向向外延伸的轴B-B'的角度由α定义。由投影点发射的光的一部分作为返回光的光束被反射回到成像传感器1206。
图13图示了用于计算从传感器到空间中的物体或点的距离的方法1300的流程图。在一个实施例中,可以由集成在成像传感器中的处理器(诸如图1A-1B中图示的成像传感器110)或者如在图14中图示并且在下面讨论的通用计算设备来执行方法1300。
方法1300在步骤1302中开始。在步骤1304中,激活光源以产生光束。在一个示例中,光源是要同时激活的多个光源中的一个。在一个示例中,光源包括激光光源。
在步骤1306中,例如,使用位于在步骤1304中产生的光束沿其传播的路径中的衍射光学元件或其他光束分裂装置将光束分裂成多个光束。所得到的多个光束从投影点被发射到视场中,并将图案投影到视场中的表面和物体上。在一个示例中,图案包括多条平行线,其中所述线中的每条由一系列圆点形成。当多条平行线围绕中心点对称布置时,图案因此可能看起来像矩形的圆点的矩阵。
在步骤1308中,捕获视场的图像。该图像描绘了视场中的物体,以及在步骤1306中投影到视场中的图案的至少一部分。
在步骤1310中,使用来自在步骤1308中捕获的图像的信息来计算从传感器到物体的距离。在一个示例中,使用三角测量技术来计算该距离。例如,由(一个或多个)光源投影的图案的部分(例如,各个圆点)之间的位置关系可以被用作用于计算的基础。
方法1300在步骤1312中结束。因此,结合在图1A-1B中描绘的传感器或结合具有类似能力的传感器,方法1300可以在图像捕获和计算的单个循环中测量从传感器到空间中的物体或点的距离。
图14描绘了适用于在执行本文中所述的功能时使用的通用计算机的高级框图。如在图14中所描绘的那样,系统1400包括一个或多个硬件处理器元件1402(例如中央处理单元(CPU)、微处理器或多核处理器)、存储器1404(例如随机存取存储器(RAM)和/或只读存储器(ROM))、用于计算距离的模块1405和各种输入/输出设备1406(例如存储设备,包括但不限于磁带驱动器、软盘驱动器、硬盘驱动器或压缩盘驱动器、接收器、发射器、透镜和光学器件、输出端口、输入端口和用户输入设备(诸如键盘、小键盘、鼠标、麦克风以及诸如此类))。尽管示出了仅一个处理器元件,但是应该指出通用计算机可以采用多个处理器元件。此外,尽管在图中示出了仅一个通用计算机,但是如果对于特定说明性示例以分布式或并行方式来实现如上文所讨论的(一个或多个)方法,即跨多个或并行通用计算机来实现(一个或多个)上述方法的步骤或(一个或多个)整个方法,则该图的通用计算机旨在表示那些多个通用计算机中的每个。此外,一个或多个硬件处理器可以被利用来支持虚拟化或共享的计算环境。虚拟化计算环境可以支持表示计算机、服务器或其他计算设备的一个或多个虚拟机。在这样的虚拟化虚拟机中,诸如硬件处理器和计算机可读存储设备之类的硬件部件可以被虚拟化或逻辑表示。
应当指出,本公开可以以软件和/或以软件和硬件的组合来实现,例如,使用专用集成电路(ASIC)、包括现场可编程门阵列(FPGA)的可编程逻辑阵列(PLA)、或部署在硬件设备上的状态机、通用计算机或任何其他硬件等同物,例如,与上面讨论的(一个或多个)方法有关的计算机可读指令可以被用于配置硬件处理器以执行以上公开的方法的步骤、功能和/或操作。在一个实施例中,针对用于计算距离的本模块或过程1405的指令和数据(例如,包括计算机可执行指令的软件程序)可以被加载到存储器1404中并由硬件处理器元件1402执行以实现如上面结合示例方法1300所讨论的步骤、功能或操作。此外,当硬件处理器执行指令来执行“操作”时,这可以包括直接执行操作和/或促进、指导另一硬件设备或部件(例如协处理器以及诸如此类)或与另一硬件设备或部件(例如协处理器以及诸如此类)协作以执行操作的硬件处理器。
执行与上面描述的(一个或多个)方法有关的计算机可读或软件指令的处理器可以被认为是编程的处理器或专用处理器。因此,用于计算本公开的距离(包括相关联的数据结构)的本模块1405可以被存储在有形或物理(广义上非暂时性)计算机可读存储设备或介质(例如易失性存储器、非易失性存储器、ROM存储器、RAM存储器、磁性或光学驱动器、设备或磁盘以及诸如此类)上。更具体地,该计算机可读存储设备可以包括提供用于存储信息(诸如要由处理器或计算设备(诸如计算机或应用服务器)访问的数据和/或指令)的能力的任何物理设备。
虽然上面已经描述了各种实施例,但是应该理解,已经仅通过示例而非限制来呈现所述各种实施例。因此,优选实施例的宽度和范围不应受上面描述的示例性实施例中的任何实施例限制,而应仅根据以下权利要求及其等同物来限定。
Claims (22)
1.一种用于计算到物体的距离的方法,所述方法包括:
从光源同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;
捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及
使用图像中的信息来计算到物体的距离。
2.根据权利要求1所述的方法,其中,多条圆点的线形成关于所述多条圆点的线的中心线对称的图案。
3.根据权利要求1所述的方法,其中,光源是多个光源中的一个,并且多个光源中的每个光源投影相应的多个光束,所述多个光束使得相应的多条圆点的线被投影到视场中。
4.根据权利要求3所述的方法,其中,多个光源包括偶数个光源。
5.根据权利要求4所述的方法,其中偶数是四。
6.根据权利要求3所述的方法,其中,多个光源按顺序投影它们相应的多个光束。
7.根据权利要求6所述的方法,其中所述顺序包括:
由第一对多个光源对相应的多个光束的第一投影;以及
在第一投影之后,由第二对多个光源对相应的多个光束的第二投影。
8.根据权利要求3所述的方法,其中,多个光源中的每个光源以相对于捕获图像的成像传感器的光轴的共同角度在物体的方向上投影其相应的多个光束。
9.根据权利要求3所述的方法,其中多个光源中的每个光源被定位在离捕获图像的成像传感器的共同距离处,其中沿着成像传感器的光轴测量共同距离。
10.根据权利要求3所述的方法,其中,多个光源中的每个光源投影被定位成在相应的多个光束的投影的方向与垂直于捕获图像的成像传感器的光轴的线之间产生角度。
11.根据权利要求10所述的方法,其中,对于多个光源中的每个光源,所述角度是相同的。
12.根据权利要求10所述的方法,其中,对于多个光源中的至少两个光源,所述角度是不同的。
13.根据权利要求10所述的方法,其中,所述角度是至少三十度。
14.根据权利要求3所述的方法,其中,多个光源中的至少两个光源发射不同强度的光。
15.根据权利要求3所述的方法,其中,多个光源中的第一光源投影第一多个光束,多个光源中的第二光源投影第二多个光束,并且当入射在物体上时由第一多个光束产生的第一图案不同于当入射在物体上时由第二多个光束产生的第二图案。
16.根据权利要求1所述的方法,其中,多条圆点的线相对于垂直于光源的平面的线偏斜。
17.根据权利要求1所述的方法,其中,使用广角透镜捕获图像。
18.根据权利要求1所述的方法,其中,视场的图像是视场的多个图像中的一个,并且多个图像中的每个图像由相对于光源具有不同的位置关系的不同的成像传感器捕获。
19.根据权利要求18所述的方法,其中,每个不同的成像传感器具有不同的光学规格。
20.一种存储多个指令的计算机可读存储设备,所述指令当由处理器执行时,使得处理器执行用于计算到物体的距离的操作,所述操作包括:
从光源同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;
捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及
使用图像中的信息来计算到物体的距离。
21.一种装置,包括:
光源,用于同时投影多个光束,其中多个光束使得多条圆点的线被投影到物体上,并且其中多条圆点的线彼此平行取向;
成像传感器,用于捕获视场的图像,其中所述物体在图像中是可见的,并且多条圆点的线在图像中也是可见的;以及
电路,用于使用图像中的信息来计算到物体的距离。
22.根据权利要求21所述的装置,其中,光源是多个光源中的一个,并且多个光源中的每个光源投影相应的多个光束,所述多个光束使得相应的多条圆点的线被投影到视场中。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662430998P | 2016-12-07 | 2016-12-07 | |
US62/430998 | 2016-12-07 | ||
PCT/US2017/064680 WO2018106670A1 (en) | 2016-12-07 | 2017-12-05 | Distance sensor projecting parallel patterns |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110234955A true CN110234955A (zh) | 2019-09-13 |
CN110234955B CN110234955B (zh) | 2022-03-29 |
Family
ID=62243302
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780075906.1A Active CN110234955B (zh) | 2016-12-07 | 2017-12-05 | 投影平行图案的距离传感器 |
CN201780075861.8A Active CN110178156B (zh) | 2016-12-07 | 2017-12-05 | 包括可调节焦距成像传感器的距离传感器 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780075861.8A Active CN110178156B (zh) | 2016-12-07 | 2017-12-05 | 包括可调节焦距成像传感器的距离传感器 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10337860B2 (zh) |
EP (2) | EP3551965A4 (zh) |
JP (3) | JP7133554B2 (zh) |
KR (2) | KR102543275B1 (zh) |
CN (2) | CN110234955B (zh) |
TW (1) | TWI758368B (zh) |
WO (2) | WO2018106670A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021212297A1 (en) * | 2020-04-21 | 2021-10-28 | Beijing Voyager Technology Co., Ltd. | Systems and methods for distance measurement |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10337860B2 (en) | 2016-12-07 | 2019-07-02 | Magik Eye Inc. | Distance sensor including adjustable focus imaging sensor |
DE112018004292T5 (de) * | 2017-09-28 | 2020-05-14 | Sony Semiconductor Solutions Corporation | Vorrichtung und verfahren |
JP2020537242A (ja) | 2017-10-08 | 2020-12-17 | マジック アイ インコーポレイテッド | 複数の可動センサを含むセンサシステムの校正 |
JP2020537237A (ja) | 2017-10-08 | 2020-12-17 | マジック アイ インコーポレイテッド | 縦グリッドパターンを使用した距離測定 |
US10931883B2 (en) | 2018-03-20 | 2021-02-23 | Magik Eye Inc. | Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging |
EP3769121A4 (en) | 2018-03-20 | 2021-12-29 | Magik Eye Inc. | Distance measurement using projection patterns of varying densities |
WO2019236563A1 (en) | 2018-06-06 | 2019-12-12 | Magik Eye Inc. | Distance measurement using high density projection patterns |
JP7398658B2 (ja) * | 2018-06-11 | 2023-12-15 | パナソニックIpマネジメント株式会社 | 測距システム及び測距方法 |
WO2020033169A1 (en) | 2018-08-07 | 2020-02-13 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
TWI690719B (zh) * | 2018-11-02 | 2020-04-11 | 大陸商光寶電子(廣州)有限公司 | 誤差校正系統及其方法 |
EP3911920A4 (en) | 2019-01-20 | 2022-10-19 | Magik Eye Inc. | THREE-DIMENSIONAL SENSOR INCLUDING A BANDPASS FILTER WITH MULTIPLE PASSBANDS |
US11474209B2 (en) | 2019-03-25 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
TWI703400B (zh) | 2019-04-01 | 2020-09-01 | 中強光電股份有限公司 | 焦距校正方法及投影裝置 |
CN114073075A (zh) | 2019-05-12 | 2022-02-18 | 魔眼公司 | 将三维深度图数据映射到二维图像上 |
CN110297251A (zh) * | 2019-06-27 | 2019-10-01 | 杭州一隅千象科技有限公司 | 多台tof实现的大幅面空间覆盖的方法及系统 |
KR102432531B1 (ko) * | 2019-10-23 | 2022-08-18 | 세메스 주식회사 | 액적 검사 모듈 및 액적 검사 방법 |
WO2021113135A1 (en) | 2019-12-01 | 2021-06-10 | Magik Eye Inc. | Enhancing triangulation-based three-dimensional distance measurements with time of flight information |
CN114830190A (zh) | 2019-12-29 | 2022-07-29 | 魔眼公司 | 将三维坐标与二维特征点相关联 |
CN113124778B (zh) * | 2019-12-30 | 2023-05-16 | 财团法人工业技术研究院 | 轮廓测量系统和轮廓测量方法 |
EP4097681A4 (en) | 2020-01-05 | 2024-05-15 | Magik Eye Inc | TRANSFER OF THE COORDINATE SYSTEM OF A THREE-DIMENSIONAL CAMERA TO THE IMPACT POINT OF A TWO-DIMENSIONAL CAMERA |
TWI786802B (zh) * | 2021-09-02 | 2022-12-11 | 財團法人中興工程顧問社 | 三維透地雷達的影像解析輔助系統 |
US11360198B1 (en) | 2021-09-27 | 2022-06-14 | Aeva, Inc. | Optical alignment for beam correction |
CN115047433B (zh) * | 2022-08-16 | 2022-11-01 | 杭州宇称电子技术有限公司 | 用于tof距离量测系统光学自动化调整方法及其应用 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100149315A1 (en) * | 2008-07-21 | 2010-06-17 | The Hong Kong University Of Science And Technology | Apparatus and method of optical imaging for medical diagnosis |
US20130314688A1 (en) * | 2012-05-27 | 2013-11-28 | Alexander Likholyot | Indoor surveying apparatus |
CN104515514A (zh) * | 2013-10-01 | 2015-04-15 | 株式会社拓普康 | 测定方法以及测定装置 |
US20160327385A1 (en) * | 2015-05-10 | 2016-11-10 | Magik Eye Inc. | Distance sensor |
Family Cites Families (143)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59109273A (ja) | 1982-12-15 | 1984-06-23 | Matsushita Electric Ind Co Ltd | 回転塗布装置用ノズル |
JP2504944B2 (ja) * | 1986-02-13 | 1996-06-05 | キヤノン株式会社 | 3次元情報処理方法 |
US4914460A (en) | 1987-05-29 | 1990-04-03 | Harbor Branch Oceanographic Institution Inc. | Apparatus and methods of determining distance and orientation |
US4954962A (en) | 1988-09-06 | 1990-09-04 | Transitions Research Corporation | Visual navigation and obstacle avoidance structured light system |
JPH045112A (ja) | 1990-04-23 | 1992-01-09 | Sumitomo Rubber Ind Ltd | 低転がり抵抗タイヤ |
US5061062A (en) * | 1990-07-02 | 1991-10-29 | General Electric Company | Focus spot size controller for a variable depth range camera |
JP3141681B2 (ja) * | 1994-04-27 | 2001-03-05 | キヤノン株式会社 | 防振機能を有した光学系 |
JPH08555A (ja) | 1994-06-16 | 1996-01-09 | Fuji Photo Optical Co Ltd | 内視鏡の照明装置 |
US5699444A (en) | 1995-03-31 | 1997-12-16 | Synthonics Incorporated | Methods and apparatus for using image data to determine camera location and orientation |
JP3328111B2 (ja) | 1995-08-23 | 2002-09-24 | 日本電気株式会社 | 空間距離測定方法及び空間距離測定装置 |
US6038415A (en) | 1997-07-18 | 2000-03-14 | Minolta Co., Ltd. | Image forming apparatus and image-carrier cartridge device which is employed in the same |
EP0898245B1 (en) | 1997-08-05 | 2004-04-14 | Canon Kabushiki Kaisha | Image processing method and apparatus |
US5980454A (en) | 1997-12-01 | 1999-11-09 | Endonetics, Inc. | Endoscopic imaging system employing diffractive optical elements |
US5870136A (en) | 1997-12-05 | 1999-02-09 | The University Of North Carolina At Chapel Hill | Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications |
US7673803B2 (en) | 1998-03-24 | 2010-03-09 | Metrologic Instruments, Inc. | Planar laser illumination and imaging (PLIIM) based engine |
AUPP299498A0 (en) | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
US7193645B1 (en) | 2000-07-27 | 2007-03-20 | Pvi Virtual Media Services, Llc | Video system and method of operating a video system |
JP2002056348A (ja) * | 2000-08-07 | 2002-02-20 | Tohken Co Ltd | オートフォーカス機能を有する手持ち式読取装置及びオートフォーカス方法、並び距離計測方法 |
US6937350B2 (en) | 2001-06-29 | 2005-08-30 | Massachusetts Institute Of Technology | Apparatus and methods for optically monitoring thickness |
US7940299B2 (en) | 2001-08-09 | 2011-05-10 | Technest Holdings, Inc. | Method and apparatus for an omni-directional video surveillance system |
JP3975892B2 (ja) * | 2002-05-02 | 2007-09-12 | 富士ゼロックス株式会社 | 位置計測システム |
US20040041996A1 (en) * | 2002-08-28 | 2004-03-04 | Fuji Xerox Co., Ltd. | Range finder and method |
GB2395261A (en) | 2002-11-11 | 2004-05-19 | Qinetiq Ltd | Ranging apparatus |
TWI247104B (en) | 2003-02-26 | 2006-01-11 | Hon Hai Prec Ind Co Ltd | A measuring method for pattern of light guide plate |
DE10308383A1 (de) | 2003-02-27 | 2004-09-16 | Storz Endoskop Produktions Gmbh | Verfahren und optisches System zur Vermessung der Topographie eines Meßobjekts |
JP2005114847A (ja) * | 2003-10-03 | 2005-04-28 | Mejiro Precision:Kk | 投影露光装置 |
WO2005076198A1 (en) | 2004-02-09 | 2005-08-18 | Cheol-Gwon Kang | Device for measuring 3d shape using irregular pattern and method for the same |
JP4372643B2 (ja) * | 2004-08-24 | 2009-11-25 | 住友大阪セメント株式会社 | 動き検出装置 |
US7191056B2 (en) | 2005-01-04 | 2007-03-13 | The Boeing Company | Precision landmark-aided navigation |
JP2006313116A (ja) | 2005-05-09 | 2006-11-16 | Nec Viewtechnology Ltd | 距離傾斜角度検出装置および該検出装置を備えたプロジェクタ |
JP4644540B2 (ja) * | 2005-06-28 | 2011-03-02 | 富士通株式会社 | 撮像装置 |
US20070091174A1 (en) | 2005-09-30 | 2007-04-26 | Topcon Corporation | Projection device for three-dimensional measurement, and three-dimensional measurement system |
JP4760391B2 (ja) | 2006-01-13 | 2011-08-31 | カシオ計算機株式会社 | 測距装置及び測距方法 |
JP4799216B2 (ja) * | 2006-03-03 | 2011-10-26 | 富士通株式会社 | 距離測定機能を有する撮像装置 |
US7375803B1 (en) | 2006-05-18 | 2008-05-20 | Canesta, Inc. | RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging |
JP4889373B2 (ja) | 2006-05-24 | 2012-03-07 | ローランドディー.ジー.株式会社 | 3次元形状測定方法およびその装置 |
US8471892B2 (en) | 2006-11-23 | 2013-06-25 | Z. Jason Geng | Wide field-of-view reflector and method of designing and making same |
JP2010048553A (ja) * | 2006-12-19 | 2010-03-04 | Panasonic Corp | 複眼測距装置の検査方法およびそれに用いるチャート |
TWI320480B (en) | 2007-04-23 | 2010-02-11 | Univ Nat Formosa | One diffraction 6 degree of freedom optoelectronic measurement system |
US8187097B1 (en) | 2008-06-04 | 2012-05-29 | Zhang Evan Y W | Measurement and segment of participant's motion in game play |
US8531650B2 (en) | 2008-07-08 | 2013-09-10 | Chiaro Technologies LLC | Multiple channel locating |
JP2010091855A (ja) | 2008-10-09 | 2010-04-22 | Denso Corp | レーザビーム照射装置 |
JP5251419B2 (ja) | 2008-10-22 | 2013-07-31 | 日産自動車株式会社 | 距離計測装置および距離計測方法 |
CN101794065A (zh) | 2009-02-02 | 2010-08-04 | 中强光电股份有限公司 | 投影显示系统 |
US20100223706A1 (en) | 2009-03-03 | 2010-09-09 | Illinois Tool Works Inc. | Welding helmet audio communication systems and methods with bone conduction transducers |
JP5484098B2 (ja) | 2009-03-18 | 2014-05-07 | 三菱電機株式会社 | 投写光学系及び画像表示装置 |
JP4991787B2 (ja) | 2009-04-24 | 2012-08-01 | パナソニック株式会社 | 反射型光電センサ |
GB0921461D0 (en) | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
US8320621B2 (en) | 2009-12-21 | 2012-11-27 | Microsoft Corporation | Depth projector system with integrated VCSEL array |
US20110188054A1 (en) | 2010-02-02 | 2011-08-04 | Primesense Ltd | Integrated photonics module for optical projection |
JP5499985B2 (ja) | 2010-08-09 | 2014-05-21 | ソニー株式会社 | 表示装置組立体 |
US8964189B2 (en) | 2010-08-19 | 2015-02-24 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
JP5163713B2 (ja) | 2010-08-24 | 2013-03-13 | カシオ計算機株式会社 | 距離画像センサ及び距離画像生成装置並びに距離画像データ取得方法及び距離画像生成方法 |
US8830637B2 (en) | 2010-08-31 | 2014-09-09 | Texas Instruments Incorporated | Methods and apparatus to clamp overvoltages for alternating current systems |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US8593535B2 (en) | 2010-09-10 | 2013-11-26 | Apple Inc. | Relative positioning of devices based on captured images of tags |
EP2433716A1 (en) | 2010-09-22 | 2012-03-28 | Hexagon Technology Center GmbH | Surface spraying device with a nozzle control mechanism and a corresponding method |
JP5595211B2 (ja) * | 2010-10-12 | 2014-09-24 | キヤノン株式会社 | 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム |
TWI428558B (zh) * | 2010-11-10 | 2014-03-01 | Pixart Imaging Inc | 測距方法、測距系統與其處理軟體 |
JP5815940B2 (ja) | 2010-12-15 | 2015-11-17 | キヤノン株式会社 | 距離計測装置、距離計測方法、およびプログラム |
US9888225B2 (en) | 2011-02-04 | 2018-02-06 | Koninklijke Philips N.V. | Method of recording an image and obtaining 3D information from the image, camera system |
JP5746529B2 (ja) | 2011-03-16 | 2015-07-08 | キヤノン株式会社 | 三次元距離計測装置、三次元距離計測方法、およびプログラム |
WO2012123948A1 (en) | 2011-03-17 | 2012-09-20 | Mirobot Ltd. | System and method for three dimensional teat modeling for use with a milking system |
JP2014122789A (ja) | 2011-04-08 | 2014-07-03 | Sanyo Electric Co Ltd | 情報取得装置、投射装置および物体検出装置 |
US8655094B2 (en) * | 2011-05-11 | 2014-02-18 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Photogrammetry system and method for determining relative motion between two bodies |
JP5830270B2 (ja) | 2011-05-24 | 2015-12-09 | オリンパス株式会社 | 内視鏡装置および計測方法 |
US9325974B2 (en) | 2011-06-07 | 2016-04-26 | Creaform Inc. | Sensor positioning for 3D scanning |
KR101974651B1 (ko) | 2011-06-22 | 2019-05-02 | 성균관대학교산학협력단 | 경계선 상속을 통하여 계층적으로 직교화된 구조광을 디코딩하는 방법 및 이를 이용하는 3차원 거리 영상 측정 시스템 |
US10054430B2 (en) | 2011-08-09 | 2018-08-21 | Apple Inc. | Overlapping pattern projector |
JP2014238259A (ja) * | 2011-09-28 | 2014-12-18 | 三洋電機株式会社 | 情報取得装置および物体検出装置 |
DE102012108567B4 (de) | 2011-10-05 | 2017-04-27 | Electronics And Telecommunications Research Institute | Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters |
KR101605224B1 (ko) | 2011-10-05 | 2016-03-22 | 한국전자통신연구원 | 패턴 광을 이용한 깊이 정보 획득 장치 및 방법 |
TW201329509A (zh) | 2012-01-10 | 2013-07-16 | Walsin Lihwa Corp | 立體掃瞄裝置及其立體掃瞄方法 |
US9986208B2 (en) | 2012-01-27 | 2018-05-29 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
BR112014018573A8 (pt) | 2012-01-31 | 2017-07-11 | 3M Innovative Properties Company | Método e aparelho para medição da estrutura tridimensional de uma superfície |
CN104160243B (zh) | 2012-03-01 | 2017-03-01 | 日产自动车株式会社 | 距离测量装置和距离测量方法 |
CN104220838B (zh) | 2012-03-28 | 2016-12-21 | 富士通株式会社 | 拍摄装置 |
JP6250040B2 (ja) | 2012-05-18 | 2017-12-20 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッドSiemens Healthcare Diagnostics Inc. | 魚眼レンズ・アナライザ |
DK2872030T3 (en) | 2012-07-10 | 2017-03-06 | Wavelight Gmbh | METHOD AND APPARATUS FOR DETERMINING THE OPTICAL ABERRATIONS OF AN EYE |
US20140016113A1 (en) | 2012-07-13 | 2014-01-16 | Microsoft Corporation | Distance sensor using structured light |
JP2014020978A (ja) | 2012-07-20 | 2014-02-03 | Fujitsu Ltd | 照射装置、距離測定装置、照射装置のキャリブレーションプログラム及びキャリブレーション方法 |
US8576390B1 (en) * | 2012-07-31 | 2013-11-05 | Cognex Corporation | System and method for determining and controlling focal distance in a vision system camera |
EP2696590B1 (en) | 2012-08-06 | 2014-09-24 | Axis AB | Image sensor positioning apparatus and method |
JP2014044113A (ja) * | 2012-08-27 | 2014-03-13 | Sanyo Electric Co Ltd | 情報取得装置および物体検出装置 |
US9741184B2 (en) | 2012-10-14 | 2017-08-22 | Neonode Inc. | Door handle with optical proximity sensors |
EP2912369B1 (en) | 2012-10-24 | 2017-05-17 | SeeReal Technologies S.A. | Illumination device |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
WO2014097539A1 (ja) | 2012-12-20 | 2014-06-26 | パナソニック株式会社 | 3次元測定装置および3次元測定方法 |
US10466359B2 (en) | 2013-01-01 | 2019-11-05 | Inuitive Ltd. | Method and system for light patterning and imaging |
US9691163B2 (en) | 2013-01-07 | 2017-06-27 | Wexenergy Innovations Llc | System and method of measuring distances related to an object utilizing ancillary objects |
US8768559B1 (en) | 2013-01-22 | 2014-07-01 | Qunomic Virtual Technology, LLC | Line projection system |
US9142019B2 (en) | 2013-02-28 | 2015-09-22 | Google Technology Holdings LLC | System for 2D/3D spatial feature processing |
US9364167B2 (en) | 2013-03-15 | 2016-06-14 | Lx Medical Corporation | Tissue imaging and image guidance in luminal anatomic structures and body cavities |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US20140320605A1 (en) | 2013-04-25 | 2014-10-30 | Philip Martin Johnson | Compound structured light projection system for 3-D surface profiling |
KR102088280B1 (ko) * | 2013-07-16 | 2020-04-14 | 엘지이노텍 주식회사 | 깊이 정보 추출 장치 및 방법 |
CN103559735B (zh) | 2013-11-05 | 2017-03-01 | 重庆安钻理科技股份有限公司 | 一种三维重建方法及系统 |
CN105981047A (zh) | 2014-01-06 | 2016-09-28 | 眼锁有限责任公司 | 用于重复虹膜识别的方法和设备 |
GB2522248A (en) | 2014-01-20 | 2015-07-22 | Promethean Ltd | Interactive system |
KR102166691B1 (ko) | 2014-02-27 | 2020-10-16 | 엘지전자 주식회사 | 객체의 3차원 형상을 산출하는 장치 및 방법 |
US9526427B2 (en) | 2014-03-21 | 2016-12-27 | Hypermed Imaging, Inc. | Compact light sensors with symmetrical lighting |
US9307231B2 (en) | 2014-04-08 | 2016-04-05 | Lucasfilm Entertainment Company Ltd. | Calibration target for video processing |
WO2015166915A1 (ja) * | 2014-04-30 | 2015-11-05 | シナノケンシ株式会社 | 計測装置 |
JP5829306B2 (ja) | 2014-05-12 | 2015-12-09 | ファナック株式会社 | レンジセンサの配置位置評価装置 |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US9699393B2 (en) | 2014-06-26 | 2017-07-04 | Semiconductor Components Industries, Llc | Imaging systems for infrared and visible imaging with patterned infrared cutoff filters |
KR20160020323A (ko) | 2014-08-13 | 2016-02-23 | 옥은호 | 평행 적외선 투사기와 카메라 모듈로 구성되는 거리 측정 센서 |
JP6370177B2 (ja) | 2014-09-05 | 2018-08-08 | 株式会社Screenホールディングス | 検査装置および検査方法 |
US10268906B2 (en) | 2014-10-24 | 2019-04-23 | Magik Eye Inc. | Distance sensor with directional projection beams |
WO2016070318A1 (en) | 2014-11-04 | 2016-05-12 | SZ DJI Technology Co., Ltd. | Camera calibration |
US20160128553A1 (en) | 2014-11-07 | 2016-05-12 | Zheng Jason Geng | Intra- Abdominal Lightfield 3D Endoscope and Method of Making the Same |
US20160157725A1 (en) | 2014-12-08 | 2016-06-09 | Luis Daniel Munoz | Device, system and methods for assessing tissue structures, pathology, and healing |
KR102369792B1 (ko) | 2015-03-05 | 2022-03-03 | 한화테크윈 주식회사 | 촬영 장치 및 촬영 방법 |
JP6484072B2 (ja) | 2015-03-10 | 2019-03-13 | アルプスアルパイン株式会社 | 物体検出装置 |
CN107407728B (zh) | 2015-03-26 | 2020-05-22 | 富士胶片株式会社 | 距离图像获取装置以及距离图像获取方法 |
DE112015006383B4 (de) | 2015-03-27 | 2019-01-03 | Fujifilm Corporation | Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren |
JP6360621B2 (ja) | 2015-03-30 | 2018-07-18 | 富士フイルム株式会社 | 距離画像取得装置及び距離画像取得方法 |
US9694498B2 (en) | 2015-03-30 | 2017-07-04 | X Development Llc | Imager for detecting visual light and projected patterns |
US10488192B2 (en) | 2015-05-10 | 2019-11-26 | Magik Eye Inc. | Distance sensor projecting parallel patterns |
WO2016194018A1 (ja) | 2015-05-29 | 2016-12-08 | オリンパス株式会社 | 照明装置及び計測装置 |
KR20170005649A (ko) | 2015-07-06 | 2017-01-16 | 엘지전자 주식회사 | 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기 |
DE102015115011A1 (de) | 2015-09-08 | 2017-03-09 | Valeo Schalter Und Sensoren Gmbh | Laserscanner für Kraftfahrzeuge |
US10176554B2 (en) | 2015-10-05 | 2019-01-08 | Google Llc | Camera calibration using synthetic images |
JP6597150B2 (ja) | 2015-10-09 | 2019-10-30 | 富士通株式会社 | 距離測定装置、距離測定方法、距離測定プログラムおよびテーブルの作成方法 |
FR3042610B1 (fr) | 2015-10-14 | 2018-09-07 | Quantificare | Dispositif et procede pour reconstruire en trois dimensions la tete et le corps |
CN108369089B (zh) | 2015-11-25 | 2020-03-24 | 三菱电机株式会社 | 3维图像测量装置及方法 |
KR20170094968A (ko) | 2016-02-12 | 2017-08-22 | 엘지이노텍 주식회사 | 피사체 거리 측정 부재, 이를 갖는 카메라 모듈 |
US11030775B2 (en) | 2016-03-17 | 2021-06-08 | Flir Systems, Inc. | Minimal user input video analytics systems and methods |
CN107438148B (zh) | 2016-05-27 | 2021-08-24 | 松下知识产权经营株式会社 | 摄像系统 |
US9686539B1 (en) | 2016-06-12 | 2017-06-20 | Apple Inc. | Camera pair calibration using non-standard calibration objects |
US10337860B2 (en) | 2016-12-07 | 2019-07-02 | Magik Eye Inc. | Distance sensor including adjustable focus imaging sensor |
US20180227566A1 (en) | 2017-02-06 | 2018-08-09 | Microsoft Technology Licensing, Llc | Variable field of view and directional sensors for mobile machine vision applications |
US11025887B2 (en) | 2017-02-27 | 2021-06-01 | Sony Corporation | Field calibration of stereo cameras with a projector |
US10769914B2 (en) | 2017-06-07 | 2020-09-08 | Amazon Technologies, Inc. | Informative image data generation using audio/video recording and communication devices |
JP2020537237A (ja) | 2017-10-08 | 2020-12-17 | マジック アイ インコーポレイテッド | 縦グリッドパターンを使用した距離測定 |
JP2020537242A (ja) | 2017-10-08 | 2020-12-17 | マジック アイ インコーポレイテッド | 複数の可動センサを含むセンサシステムの校正 |
US10679076B2 (en) | 2017-10-22 | 2020-06-09 | Magik Eye Inc. | Adjusting the projection system of a distance sensor to optimize a beam layout |
EP3769121A4 (en) | 2018-03-20 | 2021-12-29 | Magik Eye Inc. | Distance measurement using projection patterns of varying densities |
US10931883B2 (en) | 2018-03-20 | 2021-02-23 | Magik Eye Inc. | Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging |
WO2019236563A1 (en) | 2018-06-06 | 2019-12-12 | Magik Eye Inc. | Distance measurement using high density projection patterns |
WO2020033169A1 (en) | 2018-08-07 | 2020-02-13 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
US20200182974A1 (en) | 2018-12-08 | 2020-06-11 | Magik Eye Inc. | Vertical cavity surface emitting laser-based projector |
EP3911920A4 (en) | 2019-01-20 | 2022-10-19 | Magik Eye Inc. | THREE-DIMENSIONAL SENSOR INCLUDING A BANDPASS FILTER WITH MULTIPLE PASSBANDS |
-
2017
- 2017-12-05 US US15/832,085 patent/US10337860B2/en active Active
- 2017-12-05 CN CN201780075906.1A patent/CN110234955B/zh active Active
- 2017-12-05 EP EP17877786.8A patent/EP3551965A4/en active Pending
- 2017-12-05 CN CN201780075861.8A patent/CN110178156B/zh active Active
- 2017-12-05 WO PCT/US2017/064680 patent/WO2018106670A1/en unknown
- 2017-12-05 EP EP17877506.0A patent/EP3552180B1/en active Active
- 2017-12-05 JP JP2019530738A patent/JP7133554B2/ja active Active
- 2017-12-05 KR KR1020197019478A patent/KR102543275B1/ko active IP Right Grant
- 2017-12-05 KR KR1020197019486A patent/KR102595391B1/ko active IP Right Grant
- 2017-12-05 JP JP2019530764A patent/JP2020501156A/ja active Pending
- 2017-12-05 WO PCT/US2017/064681 patent/WO2018106671A2/en unknown
- 2017-12-07 TW TW106142945A patent/TWI758368B/zh active
-
2019
- 2019-07-02 US US16/460,685 patent/US11002537B2/en active Active
-
2022
- 2022-01-28 JP JP2022011648A patent/JP2022050708A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100149315A1 (en) * | 2008-07-21 | 2010-06-17 | The Hong Kong University Of Science And Technology | Apparatus and method of optical imaging for medical diagnosis |
US20130314688A1 (en) * | 2012-05-27 | 2013-11-28 | Alexander Likholyot | Indoor surveying apparatus |
CN104515514A (zh) * | 2013-10-01 | 2015-04-15 | 株式会社拓普康 | 测定方法以及测定装置 |
US20160327385A1 (en) * | 2015-05-10 | 2016-11-10 | Magik Eye Inc. | Distance sensor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021212297A1 (en) * | 2020-04-21 | 2021-10-28 | Beijing Voyager Technology Co., Ltd. | Systems and methods for distance measurement |
Also Published As
Publication number | Publication date |
---|---|
JP2022050708A (ja) | 2022-03-30 |
CN110178156A (zh) | 2019-08-27 |
TW201830049A (zh) | 2018-08-16 |
TWI758368B (zh) | 2022-03-21 |
WO2018106671A9 (en) | 2018-07-19 |
EP3552180B1 (en) | 2022-01-26 |
US11002537B2 (en) | 2021-05-11 |
CN110178156B (zh) | 2023-11-14 |
CN110234955B (zh) | 2022-03-29 |
WO2018106670A1 (en) | 2018-06-14 |
KR102595391B1 (ko) | 2023-10-31 |
JP7133554B2 (ja) | 2022-09-08 |
US10337860B2 (en) | 2019-07-02 |
EP3552180A4 (en) | 2020-07-29 |
US20180156609A1 (en) | 2018-06-07 |
JP2020501155A (ja) | 2020-01-16 |
KR102543275B1 (ko) | 2023-06-16 |
US20200003556A1 (en) | 2020-01-02 |
KR20190085150A (ko) | 2019-07-17 |
JP2020501156A (ja) | 2020-01-16 |
EP3551965A4 (en) | 2020-08-05 |
WO2018106671A3 (en) | 2018-08-16 |
EP3552180A2 (en) | 2019-10-16 |
EP3551965A1 (en) | 2019-10-16 |
KR20190085151A (ko) | 2019-07-17 |
WO2018106671A2 (en) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110234955A (zh) | 投影平行图案的距离传感器 | |
US10488192B2 (en) | Distance sensor projecting parallel patterns | |
JP6876776B2 (ja) | 距離センサ | |
JP6761817B2 (ja) | 物体までの距離を算出するための方法 | |
US10571668B2 (en) | Catadioptric projector systems, devices, and methods | |
US20210311171A1 (en) | Improved 3d sensing | |
US20180135965A1 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
US10877622B2 (en) | Detection of structured light for depth sensing | |
JP2019045299A (ja) | 3次元情報取得装置 | |
TWI758367B (zh) | 投射平行圖案的距離感應器 | |
KR102068929B1 (ko) | 3차원 카메라 시스템 | |
KR20200135131A (ko) | 3차원 카메라 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40014149 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |