CN109673159B - 基于多结构化照明的3d传感技术 - Google Patents

基于多结构化照明的3d传感技术 Download PDF

Info

Publication number
CN109673159B
CN109673159B CN201880000669.7A CN201880000669A CN109673159B CN 109673159 B CN109673159 B CN 109673159B CN 201880000669 A CN201880000669 A CN 201880000669A CN 109673159 B CN109673159 B CN 109673159B
Authority
CN
China
Prior art keywords
light
image
ray
structured
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880000669.7A
Other languages
English (en)
Other versions
CN109673159A (zh
Inventor
何毅
皮波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Goodix Technology Co Ltd
Original Assignee
Shenzhen Goodix Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Goodix Technology Co Ltd filed Critical Shenzhen Goodix Technology Co Ltd
Publication of CN109673159A publication Critical patent/CN109673159A/zh
Application granted granted Critical
Publication of CN109673159B publication Critical patent/CN109673159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

一种用于测量物体距离的方法和装置。为了实现这一点,可以将第一光源(102a,202a)和第二光源(102b,202b)配置为向该物体发射第一光线和第二光线,以照射该物体。该第一光线和该第二光线的发射可以被配置为使得两束光线在第一点处会聚并在第二点处发散。可以使用光学传感器(100,200,700)来捕获被该第一光线照射的该物体的第一图像,以及捕获被该第二光线照射的该物体的第二图像。该物体的该第一图像和该第二图像之间的图像差异可以被确定。然后,基于该图像差异和该第一点与该第二点之间的距离差,可以确定该物体相对于该第一点的距离。

Description

基于多结构化照明的3D传感技术
优先权要求和相关申请的交叉引用
本专利文件要求于2017年8月13日递交的第15/675,779号、题为“基于多结构化照明的3D传感技术”的美国非临时专利申请的优先权。
技术领域
这里的实施例总体上涉及确定物体距离的深度测量方法。
背景技术
在3D计算机图形学中,深度图是包含与从视点到场景物体表面的距离相关的信息的图像或图像通道。有许多常见的已知方法用于确定深度图。例如,飞行时间(time offly,TOF)在本领域中是已知的,其用于通过向物体发射光束来测量物体相对于参考点的距离。通常,在TOF下,可以在t1向该物体发射光线,并且(由于该物体的反射)可以在时间t2捕获所返回的光线。可以计算t1与t2之间的时间差。由于光速是已知的,所以基于时间差可以知道该物体相对于该参考点的距离。然而,与确定物体距离的TOF相关的缺点在于,使用单束光线,只能用来测量该物体的一个点(或一个区域)的距离。为了确定该深度图,通常需要将光线“射”到物体上的不同的点上(例如,以扫描线的方式),以确定该物体上的这些点的距离。这可能是低效且耗时的。在一些使用TOF检测器阵列获取3D图像的其它方法中,其性能受到背景光强度和目标表面反射的影响。
另一种已知的距离测量方法是三角测量法,该方法将窄带的结构化光线投射到三维构造的表面上。光投射可以产生从投射点外的其它视角看上去变形的照射线,并且可以用于表面形状(光照区域)的精确几何重建。在这种方法下,可以通过使光线穿过数字空间光调制器来生成光图案,并且可以从观察到的条纹图案中获得深度线索。任何单个条纹的位移都可以直接转换为3D坐标。为此,必须识别和分析该单个条纹。然而,分析条纹在很大程度上依赖于相机相对位置。在一些需要非常小的封装包(硬件)来测量物体距离的情况下(例如,智能手机中的指纹检测),这种限制是不能被接受的。
因此,需要一种改进的确定物体距离的测量方法,其高效且易于实施。
发明内容
各种实施例可以测量物体的距离。为了实现这一点,可以将第一光源和第二光源配置为向该物体发射第一光线和第二光线,以照射该物体。该第一光线和该第二光线的发射可以被配置为使得两束光线在第一点处会聚并在第二点处发散。可以使用光学传感器来捕获被该第一光线照射的该物体的第一图像,以及捕获被该第二光线照射的该物体的第二图像。该物体的该第一图像和该第二图像之间的图像差异可以被确定。然后,基于该图像差异和该第一点与该第二点之间的距离差,可以确定该物体相对于该第一点的距离。
在各种实施例中,可以包括以下特征中的一个或多个特征。在一些实现方式中,准直器可以被配置为使得该第一光线和该第二光线与该第一点完全重叠。所确定的图像差异可以指示在该第一点和该第二点之间的给定点处,该第一光线与该第二光线之间的重叠程度。在一些实现方式中,可以使用光束结构掩模来将该第一光线和该第二光线结构化,使得它们分别包括一组子光点。在这些实现方式中,结构化的第一光线中的每个子光点与结构化的第二光线中的子光点相对应。
在一些实现方式中,确定该物体的该第一图像与该第二图像之间的该图像差异可以包括:比较该结构化的第一光线中的子光点的位置和该结构化的第二光线中的对应子光点的位置。在一些实现方式中,基于该图像差异,可以确定在该给定点处,该第一光线与该第二光线之间的重叠程度。在一些实现方式中,该光学传感器可以被配置为捕获彩色图像,并且该第一光源和该第二光源可以被配置为使得该第一光线和该第二光线具有不同的颜色。在这些实现方式中,由于该彩色图像可以具有与该第一光线和该第二光线相对应的不同的颜色信息,所以可以捕获单个彩色图像,以确定两束光线在给定点处的重叠程度。在一些实现方式中,在确定该图像差异之前,可以从该第一图像和该第二图像中去除背景光线。
所描述的技术的实现方式可以包括硬件、方法或过程、或位于计算机可访问介质上的计算机软件。
附图说明
图1示出了根据本公开的光源和光学传感器的示例配置。
图2示出了根据本公开的光源和能够用于确定物体距离的光学传感器的另一示例配置。
图3概念性地示出了图2中所示的光线A或光线B的示例结构。
图4概念性地示出了图2中所示的两束光线的照射。
图5A示出了当光线照射放置在给定点处的目标物体时,可以使用光学传感器来检测所返回的光线并相应地生成信号。
图5B示出了所返回的光线A和光线B的结构中的两个子光点之间的重叠程度。
图5C示出了图5A中所示的对应位置处的三个示例差分信号。
图6A示出了当光线照射放置在给定点处的目标物体时,由光学传感器捕获的光线可以包括来自背景的光线。
图6B示出了可以被实现以去除由光学传感器捕获的背景光线的示例电路。
图6C示出了针对不具有背景部分的光线A和光线B产生的差分信号。
图7示出了可以利用光源和光学传感器配置获得的深度图像。
图8示出了根据本公开的用于测量物体距离的一种示例性方法。
图9示出了根据本公开的用于测量物体距离的一种示例性方法。
图10示出了根据本公开的用于测量物体距离的又一种示例性方法。
具体实施方式
在以下描述中,将描述各种实施例。为了说明的目的,对具体配置和细节进行阐述,以便提供对实施例的彻底理解。然而,本领域的技术人员还将明白,可以在没有这些具体细节的情况下实施这些实施例。此外,为了不混淆所描述的实施例,可以省略或简化公知特征。
各种实施例可以有助于测量感兴趣物体的距离。该物体的距离可以通过比较该物体的两个图像来确定。在比较物体的图像时,传统的三角测量法通常需要不同位置处观察到的该物体上的条纹或光图案。与传统的三角测量法不同,根据本公开的实施例可以通过简单地向该物体投射若干光线来获得距离信息。在这些实施例中,与照相机需要被放置在特定位置以观察该物体上的条纹图案的传统的三角测量法不同,可以将简单的光学传感器放置在任何位置来捕获被光线照射的该物体的图像。这些实施例中的光源和光学传感器的配置比传统的三角测量法更简单,并且因此可以易于实施。
发明人提供的一种见解在于,基于光传播路径上的各个点之间的空间关系,可以确定被不同光线照射的该物体的图像之间的差异。这在图1中示出,其中示出了根据本公开的光源和光学传感器的示例配置。从图1中可以看出,光源(例如,该图中所示的102a和102b)可以被配置为投射光。在这个示例中,光源102a被配置为投射光线A,光源102b被配置为投射光线B。如图所示,光源102a和光源102b的位置可以被配置为使得光线A和光线B在点104处发散并在点108处会聚,其中该点104相对于光源102a或光源102b具有距离Z1,该点108相对于光源102a或光源102b具有距离Z2。也就是说,在该示例配置中,在点104处,两束光线A和光线B完全不重叠,而在点108处,光线A和光线B完全重叠。在点108之后,光线A和光线B又开始彼此分开。因此,光源102a和光源102b的这种配置可以具有以下特性:点104和点108之间的给定点,例如所示出的点106,被光线A和光线B两者照射;并且光线A和光线B在该给定点处彼此部分重叠。从图1中可以看出,光线A和光线B在点106处的重叠是部分重叠。
假设点104与点108之间的距离(这里也被称为“周期距离”)为R,则光线A和光线B在给定点(例如,这两点之间的点106)处的重叠程度与距离R成比例。然后,可以使用这种空间关系来确定放置在该给定点106处的物体的距离。为了实现这一点,光学传感器(例如,图1中所示的光学传感器100)可以被配置为捕获被光线A和光线B照射的物体的图像。通过比较两个图像,可以确定两个图像之间的图像差异。然后,可以使用该图像差异确定光线A和光线B在该给定点106处的重叠程度;并且所确定的重叠程度可以被用来基于点104、该给定点106和点108之间的上述空间关系,确定该给定点106的位置。
在实现方式中,该光学传感器100可以被配置为在只有光源102a被打开时捕获一个图像(或帧),并在只有光源102b被打开时捕获另一个图像。在一些示例中,该光学传感器100可以被配置为在两个光源102a和102b同时被打开的同时捕获图像。在一些示例中,当两个光源102a和102b同时被打开时,该光学传感器100可以被配置为只捕获该物体的一个图像。在任何情况下,可以“减去”(例如,通过简单的电路或逻辑)由光学传感器100捕获的图像(或者在仅有一个图像被捕获的情况下的RGB通道信息),以获得两个图像之间的差异。
应该理解的是,尽管图1中仅示出了两个光源102a和102b,但这并不意图进行限制。在一些其他示例中,根据本公开的距离测量方法中使用的多个光源可以是两个以上的光源。例如,设想可以配置四个(2对)光源,以捕获放置在点104和点108之间的给定光点处的物体的图像的差异。一般来说,在配置中添加更多的光线对可以促成更多的周期距离R。
图2示出了根据本公开的能够用于确定物体距离的光源和光学传感器的另一示例配置。在该示例配置中,光线A和光线B的空间关系相比于图1所示的配置是相反的。在该示例中,准直透镜被放置在点204处,使得由光源202a和光源202b投射的光线A和光线B在点204处被准直,以使光线A和光线B在点204处完全重叠并在点208处完全分开。为了得到点204与点208之间的给定距离R,可以配置光源202a与光源202b之间的间隔距离、该准直透镜的焦距、准直透镜的孔径大小和/或任何其它相关方面。在点204和点208之间,光线A和光线B在给定点(例如,点206)处的重叠程度关于点204成反比。也就是说,随着两个光的重叠程度降低,给定点206距离点204的距离增加。
使用这种空间关系,可以基于光线A和光线B在给定点206处的重叠程度和距离R来确定该给定点206的距离R1。在该示例配置中,光学传感器200与光线A和光线B对准以捕获被光线A和光线B照射的物体(未示出)的图像。如图所示,可以在点204之后的光线A和光线B传播的路径上配置分束器210。与上面提到的传统的三角测量法不同,光学传感器200的位置和/或布局不必是特定的。可以理解,该示例中所示的该分束器210并不意图进行限制。在实现方式中,该光学传感器200可以仅靠近光源202a和光源202b放置,而没有光束分离器210。
图3概念性地示出了图2中所示的光线A或光线B的示例结构。将参考图2对其进行描述。如该示例中所示,可以靠近光源202a或光源202b放置光束结构掩模302,以将可以包括发散光束306的光线A或光线B结构化。在该示例中,该光束结构掩模302具有可以将光线A或光线B结构化成多条线的图案。为了说明该示例中的光线A或光线B的结构,图3中示出了光线A或光线B在点206处的横截面310。从横截面310可以看出,结构化的光线A或光线B可以包括多个子光点。每个子光点可以被形成为线、正方形、圆形、矩形或任何其他形状。在一些实现方式中,结构化的光线A或光线B中的个别子光点甚至可以通过适当的梯度强度分布来成形,使得整个光束横截面310具有预定义的梯度强度分布。在一些实现方式中,根据本领域中通常已知的3D传感方法,光线A或光线B的结构可以包括单线形状或多线形状。本领域技术人员将理解如何配置光束结构掩模302以获得如上所述的用于将光线A或光线B结构化的各种线形状。
图4概念性地示出了图2中所示的两束光线的照射。将参考图2和图3对其进行描述。如上所述,光源202a发射光线A,光源202b发射光线B,以照射场景。该光束结构掩模302被用来建立相同的光束结构,例如图3中所示的结构。如图所示,在点204处(在该示例中,该光束结构掩模302也被放置在点204处;然而,如上所述,这不一定是唯一的情况;在一些示例中,该光束结构掩模302可以被放置在其它地方,只要它靠近光源202a和光源202b),光线A和光线B中的子光点彼此完全重叠。这由图4中所示的两束光线的横截面402示出。
在点208处,两束光线A和B的子光点开始完全发散(分离)。这由该两束光线的横截面406示出。在点206处,两束光线A和B的子光点部分重叠。这由该两束光线的横截面404示出。因此,使用如上所述的光线A和光线B之间的这种重叠关系,可以通过比较横截面404中来自光线A和光线B的子光点的位置来确定点206相对于204的距离。由于该两束光线A和B通过相同的光束结构掩模302具有相同的结构,所以距离R可以用作从来自该光线的子光点在横截面402(即,点204)中完全重叠的位置,到来自该光线的子光点在横截面406(即,点208)中开始完全分开的位置的距离。在实现方式中,为了得到各种不同的距离R,可以在各种实现方式中以与光线A和光线B类似的方式配置更多的光线。例如,在一些实现方式中可以使用多对光线,使得每对光线具有不同的周期距离R。为了实现R的不同长度,可以调整各个方面例如光源202a和光源202b之间的间隔距离。在各种实现方式中,可以通过调整光线A和光线B的结构来调整该距离R,以使可以被测量的物体距离的有效范围能够实现。例如,可以调整该光束结构掩模302上的线的数量、每条线的宽度和/或任何其它方面,以得到不同的周期距离R。举例来说,20条线的结构化的光线A和光线B将具有与40条线的结构化的光线A和光线B不同的周期距离R。
图5A-5C概念性地示出了被图2中所示的光线照射的物体的图像的可测量差异。将参考图2对它们进行描述。图5A示出了当光线照射放置在点206处的目标物体时,光学传感器200可以检测所返回的光线并相应地生成信号。图形502指示可以在第一时间段内被该光学传感器200捕获到的来自光线A的返回光线(离开该目标物体),并且图形504示出了可以在第二时间段内被该光学传感器200捕获到的返回光线B(离开该目标物体)。本领域技术人员将理解,返回光线A和返回光线B的结构分别与光线A和光线B相同(或基本相似)。如图形502和图形504中所示,当捕获该返回光线A和该返回光线B时,还存在被该光学传感器200捕获到的背景光线。图形506示出了可以在该第一时间段内捕获到该返回光线A时生成的信号,并且图形508示出了可以在该第二时间段内捕获到该返回光线B时生成的另一信号。如图所示,两个信号还可以包括来自该背景光线的信号。
图5B示出了该返回光线A和该返回光线B的结构中的两个子光点之间的重叠程度。在该示例中,子光点510处于返回光线A中,子光点516处于返回光线B中,从而使得子光点510和子光点516的位置相互对应。如图所示,子光点510和子光点516彼此重叠,以形成重叠区域514。如上所述,重叠区域514以及空闲区域512的大小取决于距放置该目标物体的点206的距离。当光线A照射该目标物体时,如图形502和图形506所示,该目标物体的第一图像(帧)可以被该光学传感器200捕获。如上所述,该第一图像中的信号528可以包括从该返回光线A产生的信号518,以及从该背景光线产生的信号520。当光线B照射该目标物体时,如图形504和图形508所示,该目标物体的第二图像(帧)可以被该光学传感器200捕获。如上所述,该第二图像中的信号530可以包括从该返回光线B产生的信号522,以及从该背景光线产生的信号524。通过比较信号528和信号530,可以获得差分信号526。可以看出,可以使用差分信号526来确定照射该目标物体的光线A与光线B之间的重叠程度,以测量该目标物体的距离。如上所述,在一些其他示例中,当两个光源均被打开时,可以同时(或基本上同时)捕获上述物体的该第一图像和该第二图像。
图5C示出了三个示例差分信号。如图所示,当该目标物体被放置在点204处时,可以获得差分信号526a;具有相同的光线结构的光线A和光线B完全重叠;并且该差分信号526a完全是黑暗的。当该目标物体被放置在点206处时,可以获得差分信号526b;光线A和光线B部分重叠;并且该差分信号526b具有明亮区域和黑暗区域。当该目标物体被放置在点208处时,可以获得差分信号526c;光线A和光线B完全分开;并且该差分信号526c完全是明亮的。然后可以比较这些差分信号(例如,通过简单的逻辑或电路),以确定光线A和光线B在点206处的重叠程度。应该理解的是,在一些实现方式中,例如,在黑暗的环境中,可以同时投射光线A和光线B,从而可以在一个图像帧中检测子光点位置。在一些示例中,可以对子光点的图像进行归一化,以记录位置信息,即位置图像。
在各种实现方式中,可以设计简单的逻辑或电路来去除背景光线,以简化差分信号的生成。图6A-图6C示出了这一点。将参考图5对它们进行描述。与图5A类似,图6A示出了与可以在该第一时间段和该第二时间段内被捕获到的光线A和光线B相关的信号。如图所示,最初,所捕获到的信号可以包括背景信号,其可以通过图6B中所示的简单的逻辑600(电路)去除。如图6C所示,针对光线A和光线B所产生的差分信号不具有背景部分(例如,图5B中所示的520和524)。因为该背景光线被去除,所以差分信号602和差分信号604是针对被分别投射到放置在点204和点208处的物体的探测光线而言的。两个图像之间的差分信号606可以携带被放置在点204和点208之间的目标物体的距离信息。光源202a和光源202b可以同时(或基本上同时)被打开,以照射该目标物体,从而可以在一个图像帧中检测光线A和光线B中的子光点位置。
图7示出了可以利用上述光源和光学传感器配置获得的深度图像。如图7所示,在被上述光线A和光线B照射的区域712中放置平板706。如上所述,通过放置在投射光线A和光线B的光源附近的光束结构掩模702,光线A和光线B可以具有相同的结构。在图7所示的配置中,光线A和光线B也具有如上所述的重叠特性。图7中还示出,可以在板706的前面放置物体,例如正方棱柱704。光学传感器700可以被配置为,当光线A由光源(例如光源202a)投射时,捕获图像708。如图所示,图像708包含该板706和该正方棱柱704的示意。尽管图7中仅示出了一个图像708,本领域技术人员将理解,当光线A照射该板706和该正方棱柱704时,可以捕获一个图像,并且当光线B照射该板706和该正方棱柱704时,可以捕获另一个图像。
在实现方式中,当光学传感器700捕获到被光线A照射的图像和被光线B照射的图像后,可以对每个图像的像素亮度进行归一化,以便只保留子光点的位置。使用如上所述的A和B的重叠空间关系,两个图像之间的子光点位置差可以被用来确定该目标物体的深度图像710。在一些实现方式中,如在本示例中,该深度图像710可以使用灰度级来描述目标距离。图像710中较暗的位置意味着该物体更靠近点204。然而,这并不意图进行限制。在一些示例中,可以使用与图7中所示的深度图像相反的表现形式来确定该深度图像710。也就是说,在这些示例中,该深度图像710中较暗的位置意味着该目标物体距点204更远。在一些示例中,也可以使用伪彩色合成图像表示该深度图像710。
图8示出了根据本公开的用于测量物体距离的一种示例性方法800。在图8中呈现并在下面描述的方法是意图进行说明,而非进行限制。图8中所描绘的一系列特定的处理步骤并非意图进行限制。可以理解,可以按照不同于图8中所描绘的顺序来执行这些处理步骤,并且不需要执行图8中描绘的所有步骤。
在一些实施例中,方法800中所描绘的方法可以在一个或多个处理设备(例如,数字处理器、模拟处理器、被设计为处理信息的数字电路、被设计为处理信息的模拟电路、状态机、和/或用于电子地处理信息的其他机制)中实现。该一个或多个处理设备可以包括响应电子地存储在电子存储介质上的指令以执行方法800的部分或全部操作的一个或多个设备。该一个或多个处理设备可以包括通过硬件、固件和/或软件配置以被专门设计用于执行方法800的一个或多个操作的一个或多个设备。
在802,可以打开光源1,以照射物体。图1-图2中示出了这种光源(例如,光源102a或光源202a)的示例配置。如这里所述和所示,该光源1可以向该物体投射光线以照射该物体。在一些示例中,可以使用光束结构掩模(例如图3中所示的302)来形成由该光源1投射的该光线的结构。如以上所述以及所示,该光线的该结构可以具有子光点。
在804,可以打开光源2,以照射该物体。图1-图2中示出了这种光源(例如,光源102b或光源202b)的示例配置。由光源2投射的光线可以具有与在802由光源1投射的该光线相同的结构。这可以通过上述光束结构掩模实现。如上所述,在一些实现方式中,可以同时或基本上同时打开光源1和光源2。在这些示例中,在两个光源均被打开后,当该目标物体同时被两个光源投射的光线照射时,可以捕获该目标物体的一个图像。但是,这不一定是唯一的情况。在一些实现方式中,可以在不同的时间打开光源1和光源2。在这些示例中,当光源1被打开时,可以捕获该目标物体的一个图像,并且当光源2被打开时,可以捕获该目标物体的另一个图像。
在806a,可以捕获物体的第一图像。在806b,可以捕获物体的第二图像。如上所述,806a和806b的时序不受限制。
在808a,可以在806a捕获到的图像中找到由光源1投射的光线中的子光点位置。在808b,可以在806b捕获到的图像中找到由光源2投射的光线中的子光点位置。这在图3中示出。
在810a,可以对在808a找到的子光点的图像进行归一化,以记录位置,从而获得位置图像。在810b,可以对在808b找到的子光点的图像进行归一化,以记录位置,从而获得另一个位置图像。
在812,针对在810a和810获得的位置图像中的一个或多个对应的子光点,可以确定子光点的重叠程度。这在图5B和图6B中示出。
在814,根据在812确定的该重叠度和图2中所示的该距离R,可以获得该目标物体的深度图像。以上描述了并在图5C和图6C中示出了在812确定的该重叠度与该距离R之间的正比例(或反比例)关系。
再次参考图2,在一些实现方式中,该光学传感器200可以被配置为捕获具有RGB信息的彩色图像。在这些示例中,光线A和光线B可以被配置为具有不同的颜色。例如,光线A可以为蓝色光线,光线B可以为红色光线。在这些示例中,因为光线A和光线B具有不同的RGB颜色,所以光源1和光源2可以同时(或基本上同时)被打开,并且只需要捕获该目标物体的一个图像。然后可以分析该图像,以获得该蓝色光线(即光线A)的子光点位置,以及该红色光线(即光线B)的子光点位置;并且根据如上所述的分析,可以确定光线A与光线B的重叠程度。
图9示出了使用被配置为捕获彩色图像的光学传感器和投射不同颜色光线的光源,来测量目标物体距离的示例方法。在图9中呈现并在下面描述的方法是意图进行说明,而非进行限制。图9中所描绘的一系列特定的处理步骤并非意图进行限制。可以理解,可以按照不同于图9中所描绘的顺序来执行这些处理步骤,并且不需要执行图9中描绘的所有步骤。
在一些实施例中,方法900中所描绘的方法可以在一个或多个处理设备(例如,数字处理器、模拟处理器、被设计为处理信息的数字电路、被设计为处理信息的模拟电路、状态机、和/或用于电子地处理信息的其他机制)中实现。该一个或多个处理设备可以包括响应电子地存储在电子存储介质上的指令以执行方法900的部分或全部操作的一个或多个设备。该一个或多个处理设备可以包括通过硬件、固件和/或软件配置以被专门设计用于执行方法900的一个或多个操作的一个或多个设备。
在902,可以打开光源1和光源2,以照射物体。如上所述,由光源1和光源2投射的光线可以具有不同的RGB颜色。图1-图2中示出了光源的示例配置。在一些示例中,可以使用光束结构掩模(例如,图3中所示的302)来形成由该光源1和该光源2投射的该光线的结构。如以上所述以及这里所示,这种结构可以具有子光点。
在904,当物体被在902投射的光线照射时,可以捕获该物体的图像。如上所述,可以使用彩色光学传感器例如彩色相机来捕获该物体的图像,其中该图像可以包含RGB信息。
在906,从在904捕获到的图像中,可以获得由光源1和光源2投射的光线的子光点图像。在908a,从对应于光线A的子光点图像中,可以获得由光源1投射的光线的颜色信息。在908b,从对应于光线B的子光点图像中,可以获得由光源2投射的光线的颜色信息。
在910a,可以在908a捕获到的图像中找到由光源1投射的光线中的子光点位置。在910b,可以在908b捕获到的图像中找到由光源2投射的光线中的子光点位置。这在图3中示出。
在912a,可以对在910a找到的子光点的图像进行归一化,以记录位置,从而获得位置图像。在912b,可以对在910b找到的子光点的图像进行归一化,以记录位置,从而获得另一个位置图像。
在914,对在910a和910b获得的位置图像中的一个或多个对应的子光点,可以确定子光点的重叠程度。这在图5B和图6B中示出。
在916,根据在912确定的该重叠度和图2中所示的该距离R,可以获得该目标物体的深度图像。以上描述了并在图5C和图6C中示出了在914确定的该重叠度与该距离R之间的正比例(或反比例)关系。
图10示出了根据本公开的测量物体距离的另一种示例方法1000。将结合图9对其进行描述。在该示例方法中,方法1000包括操作904和操作906之间的操作1002、操作1004和操作1006。可见,当在904捕获到该物体的图像之后,在一些示例中,如在本示例中,可以在1002关闭两个光源1和2。在1004,可以捕获背景图像。在1006,可以从904中捕获的该图像中减去在1004捕获的该背景图像。这在图6A和图6C中示出。去除在904捕获的该图像中的背景光线,可以简化后续处理,以区分光线A和光线B,以及确定在904捕获的该图像中的不同RGB颜色的两个对应子光点之间的重叠程度。
本公开还提供了一种测量物体距离的装置。该装置包括光学传感器、第一光源、第二光源和/或任何其他部件。该第一光源可以被配置为向该物体发射第一光线;并且该第二光源被配置为向该物体发射第二光线,该第一光线和该第二光线在第一点处会聚并在第二点处发散。该第一光源和该第二光源的配置可以参考图1-图4及其相关文本。该光学传感器被配置为捕获被该第一光线照射的该物体的第一图像,以及捕获被该第二光线照射的该物体的第二图像。该光学传感器的配置可以参考图4-图7及其相关文本。该装置可以被配置为确定该物体的该第一图像和该第二图像之间的图像差异;以及基于该图像差异和该第一点与该第二点之间的距离差,确定该物体相对于该第一点的距离。该装置的这种配置可以参考图8-图10。
虽然本专利文件包含许多特征,但是这些特征不应被解释为对任何发明的范围或可能要求保护的范围的限制,而应被解释为对可能是具体发明的具体实施例所特有的特征的描述。在单独实施例的情景中描述的本专利文件的某些特征也可以以组合的形式在单个实施例中实现。相反,在单个实施例的情景中描述的各种特征也可以分开地或以任何合适的子组合在在多个实施例中实现。此外,尽管这些特征可以在上文中被描述为以某些组合起作用,并且最初甚至以此为其要求保护的对象,但是在某些情况下,所要求保护的组合中的一个或多个特征可以从组合中删除,并且所要求保护的组合可以针对子组合或子组合的变形。
类似地,尽管附图中以特定顺序对操作进行描述,但这不应被理解为要求以所示的特定顺序或按顺序来执行这些操作,或者执行所有示出的操作,以实现期望的结果。此外,本专利文件中所描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这种分离。
本专利文件中仅描述了几种实现方式和示例,其他实现方式、增强和变形可以基于所描述和示出的内容作出。
以上描述的是本公开的优选实施例,在本公开的范围内做出的任何等同修改等都应该被涵盖在本公开的范围之内。
以上所描述的实施例仅仅是本发明的优选实施例,而非意图对本公开进行限制。凡在不背离本发明的精神和原则的情况下作出的任何修改、等同替换和改进,均落在本公开的保护范围之内。

Claims (18)

1.一种测量物体距离的方法,所述方法包括:
第一光源向所述物体发射第一光线;
第二光源向所述物体发射第二光线,其中所述第一光线和所述第二光线在第一点处会聚并在第二点处发散;
使用光学传感器捕获被所述第一光线照射的所述物体的第一图像;
使用所述光学传感器捕获被所述第二光线照射的所述物体的第二图像;
确定所述物体的所述第一图像与所述第二图像之间的图像差异;
基于所述图像差异,确定所述第一光线与所述第二光线之间的重叠程度,其中,所述重叠程度与周期距离成比例,所述周期距离为所述第一点和所述第二点之间的距离;以及
基于所述重叠程度和所述周期距离之间的比例,确定所述物体相对于所述第一点的距离。
2.如权利要求1所述的方法,其中所述第一光线和所述第二光线与所述第一点完全重叠。
3.如权利要求1所述的方法,其中所述第一光线和所述第二光线在所述第二点处完全发散。
4.如权利要求1所述的方法,还包括在所述第一光源和所述第二光源附近放置光束结构掩模,以将所述第一光线和所述第二光线结构化,从而获得结构化的第一光线和结构化的第二光线,其中所述结构化的第一光线和所述结构化的第二光线具有相同的结构。
5.如权利要求1所述的方法,其中所述第一光线为结构化的第一光线,所述第二光线为结构化的第二光线,所述结构化的第一光线和所述结构化的第二光线包括一组子光点,使得所述结构化的第一光线中的每个子光点与所述结构化的第二光线中的子光点相对应。
6.如权利要求1所述的方法,其中所述第一光线为结构化的第一光线,所述第二光线为结构化的第二光线,结构化的第一光线中的第一子光点与结构化的第二光线中的第一子光点相对应,并且其中确定所述物体的所述第一图像与所述第二图像之间的所述图像差异包括:
比较所述结构化的第一光线中的所述第一子光点的位置和所述结构化的第二光线中的所述第一子光点的位置;以及
基于所述比较,确定所述结构化的第一光线中的所述第一子光点与所述结构化的第二光线中的所述第一子光点之间的重叠程度。
7.如权利要求6所述的方法,还包括:
对所述第一图像和所述第二图像进行归一化来获得对应的位置图像,以确定所述结构化的第一光线中的所述第一子光点与所述结构化的第二光线中的所述第一子光点的之间所述重叠程度。
8.如权利要求1所述的方法,其中所述光学传感器被配置为捕获彩色图像,并且所述第一光线和所述第二光线具有不同的颜色。
9.如权利要求8所述的方法,其中所述第一图像和所述第二图像是相同的图像,并且其中所述第一光线和所述第二光线同时或基本上同时照射所述物体。
10.如权利要求1所述的方法,其中所述第一光线和所述第二光线同时或基本上同时照射所述物体,并且其中所述第一图像和所述第二图像被同时捕获。
11.如权利要求1所述的方法,还包括去除所述第一图像和所述第二图像中的背景光,以便确定所述图像差异。
12.一种测量物体距离的装置,所述装置包括光学传感器、第一光源、第二光源,其中:
所述第一光源被配置为向所述物体发射第一光线;
所述第二光源被配置为向所述物体发射第二光线,其中所述第一光线和所述第二光线在第一点处会聚并且在第二点处发散;
所述光学传感器被配置为:
捕获被所述第一光线照射的所述物体的第一图像;以及
捕获被所述第二光线照射的所述物体的第二图像;以及
所述装置被配置为:
确定所述物体的所述第一图像和所述第二图像之间的图像差异;
基于所述图像差异,确定所述第一光线与所述第二光线之间的重叠程度,其中,所述重叠程度与周期距离成比例,所述周期距离为所述第一点与所述第二点之间的距离;以及
基于所述重叠程度和所述周期距离之间的比例,确定所述物体相对于所述第一点的距离。
13.如权利要求12所述的装置,还包括设置在所述第一光源和所述第二光源附近的光束结构掩模,用于将所述第一光线和所述第二光线结构化,以获得结构化的第一光线和结构化的第二光线,其中所述结构化的第一光线和所述结构化的第二光线具有相同的结构。
14.如权利要求12所述的装置,其中结构化的第一光线和结构化的第二光线包括一组子光点,使得所述结构化的第一光线中的每个子光点与所述结构化的第二光线中的子光点相对应,并且其中所述结构化的第一光线中的第一子光点与所述结构化的第二光线中的第一子光点相对应,并且其中确定所述物体的所述第一图像与所述第二图像之间的所述图像差异包括:
比较所述结构化的第一光线中的所述第一子光点的位置和所述结构化的第二光线中的所述第一子光点的位置;以及
基于所述比较,确定所述结构化的第一光线中的所述第一子光点与所述结构化的第二光线中的所述第一子光点之间的重叠程度。
15.如权利要求12所述的装置,其中所述光学传感器被配置为捕获彩色图像,并且所述第一光线和所述第二光线具有不同的颜色。
16.如权利要求15所述的装置,其中所述第一图像和所述第二图像是相同的图像,并且其中所述第一光源和所述第二光源被配置为使得所述第一光线和所述第二光线同时或基本上同时照射所述物体。
17.如权利要求12所述的装置,其中所述第一光源和所述第二光源被配置为使得所述第一光线和所述第二光线同时或基本上同时照射所述物体,并且其中所述光学传感器被配置为同时捕获所述第一图像和所述第二图像。
18.如权利要求12所述的装置,还被配置为去除所述第一图像和所述第二图像中的背景光线,以便确定所述图像差异。
CN201880000669.7A 2017-08-13 2018-04-18 基于多结构化照明的3d传感技术 Active CN109673159B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/675,779 US10489925B2 (en) 2017-08-13 2017-08-13 3D sensing technology based on multiple structured illumination
US15/675,779 2017-08-13
PCT/CN2018/083575 WO2019033774A1 (en) 2017-08-13 2018-04-18 3D DETECTION TECHNOLOGY BASED ON MULTIPLE STRUCTURED LIGHTING

Publications (2)

Publication Number Publication Date
CN109673159A CN109673159A (zh) 2019-04-23
CN109673159B true CN109673159B (zh) 2020-11-24

Family

ID=63840766

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880000669.7A Active CN109673159B (zh) 2017-08-13 2018-04-18 基于多结构化照明的3d传感技术

Country Status (4)

Country Link
US (1) US10489925B2 (zh)
EP (1) EP3465271B1 (zh)
CN (1) CN109673159B (zh)
WO (1) WO2019033774A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102248248B1 (ko) * 2019-11-06 2021-05-04 주식회사 메디트 물체 표면의 3d 데이터를 획득하는 구조광 투영 광학 시스템
CN112929516B (zh) * 2019-12-05 2023-08-08 北京小米移动软件有限公司 图像采集模组、终端设备、图像处理方法及装置
EP3835720B1 (en) 2019-12-10 2023-08-09 Melexis Technologies NV Method for multipath error compensation and multipath error-compensated indirect time of flight range calculation apparatus
CN114608520B (zh) * 2021-04-29 2023-06-02 北京石头创新科技有限公司 一种测距方法、装置、机器人和存储介质
US11853473B2 (en) 2021-08-18 2023-12-26 Meta Platforms Technologies, Llc Differential illumination for corneal glint detection

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107703641A (zh) * 2017-09-08 2018-02-16 深圳奥比中光科技有限公司 一种结构光投影模组和深度相机

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4843565A (en) * 1987-07-30 1989-06-27 American Electronics, Inc. Range determination method and apparatus
JP2001273661A (ja) * 2000-03-28 2001-10-05 Samsung Electro Mech Co Ltd 傾き検出装置
GB2395289A (en) * 2002-11-11 2004-05-19 Qinetiq Ltd Structured light generator
US20040213463A1 (en) * 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
US7420691B2 (en) * 2005-12-22 2008-09-02 Matsushita Electric Industrial Co., Ltd. Method and apparatus for measuring interfacial positions, method and apparatus for measuring layer thickness, and method and apparatus for manufacturing optical discs
DE102006034926A1 (de) 2006-07-28 2008-01-31 Sick Ag Entfernungsmessgerät
JP5073273B2 (ja) * 2006-11-21 2012-11-14 スタンレー電気株式会社 遠近判定方法およびその装置
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US20080231835A1 (en) * 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
US8531650B2 (en) * 2008-07-08 2013-09-10 Chiaro Technologies LLC Multiple channel locating
CN101430377B (zh) * 2008-11-18 2011-06-22 北京航空航天大学 基于apd阵列的非扫描3d成像激光雷达光学系统
EP3015819B1 (en) * 2013-06-27 2019-10-23 Panasonic Intellectual Property Corporation of America Motion sensor device having plurality of light sources
WO2015001770A1 (ja) 2013-07-01 2015-01-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 複数の光源を有するモーションセンサ装置
CN107430187B (zh) * 2014-12-02 2021-06-18 新加坡恒立私人有限公司 深度传感器模块和深度感测方法
US9958758B2 (en) * 2015-01-21 2018-05-01 Microsoft Technology Licensing, Llc Multiple exposure structured light pattern
KR102369792B1 (ko) * 2015-03-05 2022-03-03 한화테크윈 주식회사 촬영 장치 및 촬영 방법
CN106168467A (zh) * 2015-05-20 2016-11-30 上海沸谷自动化科技有限公司 一种三维检测装置及方法
WO2017035498A1 (en) * 2015-08-26 2017-03-02 Olympus Corporation System and method for depth estimation using multiple illumination sources
KR102372088B1 (ko) * 2015-10-29 2022-03-08 삼성전자주식회사 영상 획득 장치 및 영상 획득 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107703641A (zh) * 2017-09-08 2018-02-16 深圳奥比中光科技有限公司 一种结构光投影模组和深度相机

Also Published As

Publication number Publication date
CN109673159A (zh) 2019-04-23
EP3465271B1 (en) 2020-06-03
US10489925B2 (en) 2019-11-26
EP3465271A1 (en) 2019-04-10
EP3465271A4 (en) 2019-04-10
US20190051004A1 (en) 2019-02-14
WO2019033774A1 (en) 2019-02-21

Similar Documents

Publication Publication Date Title
CN109673159B (zh) 基于多结构化照明的3d传感技术
JP7191921B2 (ja) Tofカメラシステムおよび該システムにより距離を測定するための方法
US10282855B2 (en) Determining object properties with respect to particular optical measurement
US10215857B2 (en) Depth sensor module and depth sensing method
KR102046944B1 (ko) 서브-레졸루션 광학 검출
CN107735645B (zh) 三维形状测量装置
US10121246B2 (en) Measurement apparatus that obtains information of a shape of a surface using a corrected image and measurement method
CN105960569B (zh) 使用二维图像处理来检查三维物体的方法
US20140362385A1 (en) Measuring device of measurement object, calculating device, measurement method, and method for producing item
US8823869B2 (en) Method and apparatus for optically inspecting a test specimen having an at least partly reflective surface
US20150098092A1 (en) Device and Method For the Simultaneous Three-Dimensional Measurement of Surfaces With Several Wavelengths
KR20170002409A (ko) 이미지 분석에 의한 신의 3차원 재구성 디바이스 및 방법
US20140009584A1 (en) Device and method for the optical 3d measurement of surfaces
JP2010133934A (ja) 2つの測定ユニットを有する表面測定装置
US20170069110A1 (en) Shape measuring method
TWI428568B (zh) 測距方法、測距系統與其處理軟體
US11037314B1 (en) Method for the non-destructive inspection of an aeronautical part and system thereof
TW201432222A (zh) 立體距離測定方法及其系統
JP2011247690A (ja) コネクターピン検査装置およびその検査方法
US10060733B2 (en) Measuring apparatus
EP3349600B1 (en) Stereoscopic system and method for quality inspection of cigarettes in cigarette packer machines
JP2008275392A (ja) 3次元形状計測方法および装置
JP7071426B2 (ja) 光線三角測量装置
JP2018044863A (ja) 計測装置、計測方法、システム及び物品の製造方法
Mentin et al. Knife Edge Diffraction for Spatially Extended Light Sources

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant