KR20220122645A - 3차원 좌표를 2차원 피처 포인트와 연관 - Google Patents

3차원 좌표를 2차원 피처 포인트와 연관 Download PDF

Info

Publication number
KR20220122645A
KR20220122645A KR1020227021931A KR20227021931A KR20220122645A KR 20220122645 A KR20220122645 A KR 20220122645A KR 1020227021931 A KR1020227021931 A KR 1020227021931A KR 20227021931 A KR20227021931 A KR 20227021931A KR 20220122645 A KR20220122645 A KR 20220122645A
Authority
KR
South Korea
Prior art keywords
dimensional
points
light
feature point
pattern
Prior art date
Application number
KR1020227021931A
Other languages
English (en)
Inventor
아키테루 키무라
Original Assignee
매직 아이 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 매직 아이 인코포레이티드 filed Critical 매직 아이 인코포레이티드
Publication of KR20220122645A publication Critical patent/KR20220122645A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/471Contour-based spatial representations, e.g. vector-coding using approximation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • G06V2201/121Acquisition of 3D measurements of objects using special illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Character Discrimination (AREA)

Abstract

예시적인 방법은 거리 센서의 투광 시스템으로 하여금 객체 상에 광의 3차원 패턴을 투영하게 하는 단계로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 단계, 거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 단계, 상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 단계, 객체의 2차원 이미지에서 피처 포인트를 검출하는 단계, 상기 피처 포인트에 대한 보간 영역을 식별하는 단계, 및 상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 단계를 포함한다.

Description

3차원 좌표를 2차원 피처 포인트와 연관
관련 출원들의 상호 참조
본 출원은 2019년 12월 29일자로 출원된 미국 가특허출원 번호 62/954,533의 우선권을 주장하며, 그 전문이 본원에 참조로 포함된다.
본 발명은 일반적으로 거리 측정에 관한 것으로, 특히 3차원 좌표들을 2차원 피처 포인트들(feature points)과 연관시키는 것에 관한 것이다.
얼굴 인식은 종종 디바이스 및 애플리케이션 인증에 사용된다. 예를 들어, 디바이스 또는 애플리케이션에 인증을 시도하는 사용자의 실시간 얼굴 이미지는 허가된 사용자들의 하나 이상의 저장된 얼굴 이미지들과 비교될 수 있고; 인증을 시도하는 사용자의 얼굴 이미지가 저장된 얼굴 이미지와 일치하면 사용자가 인증될 수 있다.
일부 얼굴 인식 기술들은 사용자 얼굴의 2차원 이미지를 획득하고, 2차원 이미지로부터 피처 포인트들을 추출한 다음, 피처 포인트들의 위치 관계에 기초하여 사용자 식별(user identification)을 생성한다. 피처 포인트들은 2차원 좌표들에 의해 표현되므로, 3차원 측정 값들을 이용하여 보정이 수행될 수 있다. 예를 들어, 2차원 이미지에서 사용자 얼굴까지의 전체 거리를 알면, 사용자 얼굴의 절대 크기를 결정할 수 있어 피처 포인트들의 위치 관계들을 보정하는 데 도움이 된다. 또한, 3차원 맵의 전체 모양을 획득하고 그 모양을 이용하여 피처 포인트들을 보정함으로써 사용자 얼굴의 기울기를 검출할 수 있다.
한 예에서, 적어도 하나의 프로세서를 포함하는 프로세싱 시스템에 의해 수행되는 방법은, 거리 센서의 투광 시스템으로 하여금 객체(object) 상에 광의 3차원 패턴을 투영하게 하는 단계로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 단계, 거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 단계, 상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 단계, 객체의 2차원 이미지에서 피처 포인트(feature point)을 검출하는 단계, 상기 피처 포인트에 대한 보간 영역을 식별하는 단계, 및 상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 단계를 포함한다.
다른 예에서, 비일시적 기계 판독 가능한 저장 매체가 적어도 하나의 프로세서를 포함하는 프로세싱 시스템에 의해 실행 가능한 명령들로 인코딩된다. 실행될 때 상기 명령들은 프로세싱 시스템으로 하여금 동작들을 수행하게 하고, 상기 동작들은 거리 센서의 투광 시스템으로 하여금 객체 상에 광의 3차원 패턴을 투영하게 하는 동작으로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 동작, 거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 동작, 상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 동작, 객체의 2차원 이미지에서 피처 포인트를 검출하는 동작, 상기 피처 포인트에 대한 보간 영역을 식별하는 동작, 및 상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 동작을 포함한다.
다른 예에서, 장치가 적어도 하나의 프로세서를 포함하는 프로세싱 시스템 및 프로세싱 시스템에 의해 실행 가능한 명령들로 인코딩된 비일시적 기계 판독 가능한 저장 매체를 포함한다. 실행될 때 상기 명령들은 프로세싱 시스템으로 하여금 동작들을 수행하게 하고, 상기 동작들은 거리 센서의 투광 시스템으로 하여금 객체 상에 광의 3차원 패턴을 투영하게 하는 동작으로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 동작, 거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 동작, 상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 동작, 객체의 2차원 이미지에서 피처 포인트를 검출하는 동작, 상기 피처 포인트에 대한 보간 영역을 식별하는 동작, 및 상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 동작을 포함한다.
도 1a 및 도 1b는 본 개시의 예시적인 거리 센서의 상이한 구성들을 도시한다.
도 2는 본 개시의 예들에 따른, 3차원 좌표들을 2차원 이미지의 피처 포인트과 연관시키기 위한 예시적인 방법을 예시하는 흐름도이다.
도 3a는 3차원 패턴이 투영되는 얼굴의 예시적인 전방을 향한 이미지를 도시한다.
도 3b는 도 3a에 도시된 얼굴의 비스듬하게 캡처된 이미지의 예를 도시한다.
도 3c는 도 3a에 도시된 얼굴의 측면으로 캡처된 이미지의 예를 도시한다.
도 4a는 피처 포인트 및 피처 포인트를 둘러싸는 보간 영역의 예를 도시한다.
도 4b는 도 4a의 피처 포인트의 3차원 좌표들을 계산하는 대안적인 방법을 도시한다.
도 5는 3차원 패턴의 포인트의 보간 위치를 2차원 피처 포인트와 일치시키기 위한 스플라인 곡선의 사용을 도시한다.
도 6은 3차원 패턴의 포인트의 보간 위치를 2차원 피처 포인트와 일치시키기 위한 베지어 곡선의 사용을 도시한다.
도 7a는 본 개시의 기술들이 경로 인식에 적용될 수 있는 통로의 제1 부분을 도시한다.
도 7b는 도 7a의 통로의 제2 부분을 도시한다.
도 8은 센서로부터 객체까지의 거리를 계산하기 위한 예시적인 전자 디바이스의 하이 레벨 블록도를 도시한다.
본 개시는 3차원 좌표들을 2차원 피처 포인트들과 연관시키기 위한 장치, 방법, 및 비일시적 컴퓨터 판독 가능한 매체를 광범위하게 설명한다. 앞서 논의된 바와 같이, 일부 얼굴 인식 기술들은 사용자 얼굴의 2차원 이미지를 획득하고, 2차원 이미지로부터 피처 포인트들을 추출한 다음, 피처 포인트들의 위치 관계에 기초하여 사용자 식별을 생성한다. 피처 포인트들은 2차원 좌표들에 의해 표시되므로, 3차원 측정 값들을 이용하여 보정이 수행될 수 있다.
또한, 스플라인 계산들(spline calculations)과 같은 기술들을 사용하여 2차원 이미지로부터 3차원 표면을 재구성할 수 있다. 그러나, 이러한 방식으로 전체 3차원 표면을 재구성하는 것은 시간과 계산의 집약적인 프로세스가 될 수 있으며; 따라서, 이러한 기술은 계산 리소스들이 제한되거나 및/또는 결과들이 즉시 필요한 경우 이상적이지 않다.
본 개시의 예들은 2차원 이미지의 특정 포인트에서 보간 연산을 수행함으로써 3차원 거리 검출 패턴을 2차원 이미지에 일치(match)시키는데 필요한 계산의 양 및 시간을 크게 감소시킨다. 특히, 2차원 이미지에서 피처 포인트가 검출될 수 있고, 피처 포인트의 보간 영역 내에 있는 3차원 패턴의 둘 이상의 포인트들이, 둘 이상의 포인트들의 3차원 위치들 사이에서의 보간에 의해 피처 포인트의 3차원 좌표들을 추정하기 위해 이용될 수 있다. 피처 포인트의 유형, 환경/주변 조건들, 및 3차원 패턴의 포인트들의 배열과 같은 다양한 요인들에 따라, 인-플레인(in-plane) 프로세싱, 스플라인(spline) 프로세싱, 베지어 곡선(Bezier curve) 프로세싱과 같은 기술들이 보간을 수행하기 위해 이용된다.
본 개시의 예들이 얼굴 인식의 맥락 내에서 설명되지만, 개시된 예들은 또한 얼굴 이외의 객체들의 피처들 및 거리의 계산을 개선하기 위해 사용될 수 있다는 것을 이해할 것이다. 예를 들어, 본 개시의 예들은 또한 컴퓨팅 시스템 또는 디바이스에 의해 취해질 미리 정의된 액션들과 연관될 수 있는 손 제스처들(hand gestures)을 검출하는 데 유용할 수 있다.
본 개시의 맥락 내에서, "2차원 이미지"는 인간의 눈에 가시적인 스펙트럼의 광을 사용하여 획득된(예를 들어, 통상적인 적색, 녹색, 청색(RGB) 이미지 센서에 의해) 이미지를 지칭하는 것으로 이해된다. 이에 반해, 3차원 패턴의 이미지는 인간의 눈에 비가시적인 스펙트럼의 광을 이용하여 획득된다(예를 들어, 적외선 이미지 센서).
도 1a 및 도 1b는 본 개시의 예시적인 거리 센서(100)의 상이한 구성들을 도시한다. 동일한 구성요소들이 도 1a 및 도 1b에 존재하는 경우, 동일한 참조 번호들이 사용된다. 거리 센서(100)는 미국 특허출원 일련번호들 14/920,246, 15/149,323, 및 15/149,429에 설명된 거리 센서들과 유사한 방식으로 구성될 수 있다.
예를 들어, 도 1a는 투광 시스템(102), 수광 시스템(104), 및 프로세서(126)를 포함하는 거리 센서(100)를 도시한다. 투광 시스템(104)은 표면 또는 객체(108) 상에 패턴(106)을 투영하도록 구성되며, 여기서 패턴(106)은 복수의 광 포인트들을 포함한다. 광 포인트들은 도 1a에 도시된 바와 같이 격자(grid)로 배열될 수 있다(예를 들어, 다수의 행들 및 다수의 열들로 배열됨). 격자의 행들 및 열들은 동일 선상에(in a collinear manner) 정렬되거나 엇갈릴(staggered) 수 있다. 광 포인트들은 사람의 눈에 비가시적이지만, 거리 센서(100)의 이미징 센서에게는 가시적이다(아래에서 더 자세히 설명됨).
따라서, 3차원 패턴(106)의 포인트들은 제1 축(112) 및 제1 축(112)에 수직인 제2 축(114)에 의해 정의되는 좌표 시스템에 배열될 수 있다. 제1 축(112)과 제2 축(114)이 교차하는 기준점(datum point)(110)이 정의될 수 있다.
이를 위해, 투광 시스템(102)은 인간의 눈에 실질적으로 비가시적인 파장(예를 들어, 적외선 파장)의 광 빔들을 투영할 수 있는 하나 이상의 레이저 광원들을 포함할 수 있다. 투광 시스템(104)은 또한 광 빔들을 추가적인 광 빔들로 분할하기 위한 하나 이상의 회절 광학 요소들을 포함할 수 있다. 각각의 광 빔이 표면 또는 객체(108)에 입사할 때, 패턴(106)의 포인트가 표면 또는 객체(108) 상에 생성된다.
수광 시스템(104)은 이미지들을 캡처하기 위한 이미징 센서를 포함할 수 있다. 이미징 센서는 CMOS(Complementary Metal-Oxide-Semiconductor) 센서일 수 있다. 이미지들은 표면 또는 객체(108)의 2차원 이미지뿐만 아니라 표면 또는 객체(108) 상의 3차원 패턴(106)의 이미지를 포함할 수 있다. 따라서, 한 예에서, 수광 시스템(104)이 2차원 이미지들과 3차원 패턴(106)의 이미지들 모두를 캡처하기 위한 단일 이미징 센서(예를 들어, 카메라)를 포함하는 경우, 수광 시스템(104)은 또한 대역통과 필터를 포함할 수 있다. 이 경우 (패턴(106)를 생성하는 데 사용되는 동일한 광원, 예를 들어 적외선 광원에 의한 조명을 사용하여 획득되는) 2차원 이미지들을 캡처할 때 주변광을 제거하기 위해 대역통과 필터가 필요할 수 있다 . 그러나, 2차원 이미지들이 더 어두운 환경에서 획득되는 다른 예들에서는, 주변광을 제거하기 위해 대역통과 필터가 필요하지 않을 수 있다.
표면 또는 객체(108)의 2차원 이미지 및 3차원 패턴(106)의 이미지가 동일한 이미징 센서에 의해 획득되는 예에서, 이미지들에서 위치들 간의 자동 대응은 제1 축(112), 제2 축(114), 및 기준점(110)과 연관된 좌표 시스템을 사용하여 획득될 수 있으며, 이는 아래에서 더 자세히 논의된다.
프로세서(126)는 3차원 패턴(106)을 투영하고 이미지 캡처를 위해 표면 또는 객체(108)를 조명하도록 투광 시스템(106)을 제어하도록 구성될 수 있다. 프로세서(126)는 또한 표면 또는 객체(108)의 2차원 이미지들 및 3차원 패턴(106)의 이미지들을 캡처하도록 수광 시스템(104)을 제어할 수 있다. 프로세서(126)는 또한 아래에서 더 상세히 논의되는 바와 같이, 표면 또는 객체(108)의 2차원 이미지들을 3차원 패턴(106)의 이미지들과 정렬하기 위한 동작들을 수행할 수 있다.
도 1b의 거리 센서(100)는, 도 1b에서 수광 시스템(104)이 2차원 이미지들 및 3차원 패턴(106)의 이미지들을 획득하기 위한 별도의 이미징 센서들을 포함한다는 점을 제외하고는 도 1a에 도시된 거리 센서와 유사한다. 구체적으로, 도 1b의 수광 시스템(104)은 3차원 패턴(106)의 이미지들을 캡처하기 위한 제1 이미징 센서(124) 및 표면 또는 객체(108)의 2차원 이미지들을 캡처하기 위한 제2 이미징 센서(116)를 포함한다. 이 경우, 제1 이미징 센서(124) 및 제2 이미징 센서(116) 모두는 대역통과 필터를 포함하지 않을 수 있다. 제1 이미징 센서(124) 및 제2 이미징 센서(116) 모두는 CMOS 이미징 센서들을 포함할 수 있고, 서로에 대해 고정된 위치들을 가질 수 있다.
그러나, 2차원 이미지 및 3차원 패턴(106)의 이미지는 상이한 이미징 센서들 및 상이한 광학 시스템들에 의해 캡처되기 때문에, 2차원 이미지 및 3차원 패턴(106)의 이미지 사이의 시차(parallax)를 보정할 필요가 있게 된다. 구체적으로, 표면 또는 객체(108)의 피처 포인트들은 제2 이미징 센서(116)에 의해 캡처된 2차원 이미지로부터 획득된다. 그러나, 3차원 좌표들을 피처 포인트들과 정확하게 연관시킬 수 있게 하기 위해서는 2차원 이미지 및 3차원 패턴(106)의 이미지의 위치들이 정렬될 필요가 있다.
한 예에서, 시차 보정은 캘리브레이션 프로세스를 통해 계산될 수 있다. 예를 들어, 제2 이미징 센서(116)는 카메라 기준 위치(예를 들어, 체커보드)에 대해 알려진 크기를 갖는 캘리브레이션 대상(calibration object)의 2차원 이미지를 캡처하는 반면, 제1 이미징 센서(124)는 3차원 패턴(106)의 이미지를 동시에 캡처한다. 캘리브레이션 대상의 2차원 이미지와 3차원 패턴(106)의 이미지 사이의 관계는 관찰되어 저장될 수 있다.
다른 예에서, 미국 특허출원 일련번호 16/869,358에 설명된 방법들은 적외선 조명 및/또는 캘리브레이션 대상에 대한 필요 없이 제1 이미징 센서(124)와 제2 이미징 센서(116) 사이의 관계를 결정하는 데 사용될 수 있다.
한 예에서, 시차 보정은 제2 이미징 센서(116)의 전면 노드 포인트(front nodal point)에 대한 3차원 패턴(106)에 대한 거리 측정 좌표축들의 조정을 초래한다. 도시된 바와 같이, 이는 제1 축(112)이 보정된 제1 축(120)의 위치로 이동되게 하고, 제2 축(114)이 보정된 제2 축(122)의 위치로 이동되게 하고, 기준점(110)이 보정된 기준점(118)의 위치로 이동되게 한다.
도 2는 본 개시의 예들에 따른, 3차원 좌표들을 2차원 이미지의 피처 포인트과 연관시키기 위한 예시적인 방법(200)을 예시하는 흐름도이다. 방법(200)은, 예를 들어, 거리 센서의 프로세싱 시스템(예를 들어, 도 1a 및 도 1b의 프로세서(126))과 같은 적어도 하나의 프로세서를 포함하는 프로세싱 시스템에 의해 수행될 수 있다. 예를 들어, 방법(200)은 프로세싱 시스템에 의해 수행되는 것으로 설명된다.
방법(200)은 단계(202)에서 시작될 수 있다. 단계(204)에서, 프로세싱 시스템은 거리 센서의 투광 시스템이 객체 상에 광의 3차원 패턴을 투영하게 할 수 있고, 여기서 광의 패턴은 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함한다. 예를 들어, 프로세싱 시스템은 전자 신호를 투광 시스템에 보낼 수 있으며, 여기서 전자 신호는 명령(instruction)을 인코딩한다. 위에서 논의된 바와 같이, 광은 인간의 눈에 실질적으로 비가시적인 파장일 수 있지만, 이는 거리 센서의 이미징 센서에 의해 검출될 수 있다(예를 들어, 적외선 광).
광의 패턴은 거리 센서의 투광 시스템에 의해 투영된 복수의 빔들에 의해 생성될 수 있다. 복수의 빔들은 복수의 광 포인트들을 객체에 투영할 수 있으며, 여기서 복수의 광 포인트들은 집합적으로 광의 패턴 또는 "투영 패턴"을 형성한다. 한 예에서, 복수의 광 포인트들은 복수의 행들 및 복수의 열들을 포함하는 격자 패턴으로 배열될 수 있다. 예를 들어, 미국 특허출원 일련번호 16/150,918은 그 전체가 여기에 참조로 포함되며, 멀티-포인트 투영에 의해 3차원 도트 맵을 획득하는 방법을 설명한다.
단계(206)에서, 프로세싱 시스템은 거리 센서의 수광 시스템이 객체 상의 3차원 투영 패턴의 이미지를 획득하게 할 수 있다. 3차원 투영 패턴의 이미지는 또한 "도트 맵(dot map)"이라고도 할 수 있다(광의 포인트들은 도트들과는 다른 모양들을 취할 수도 있음). 예를 들어, 프로세싱 시스템은 전자 신호를 수광 시스템에 보낼 수 있으며, 여기서 전자 신호는 명령을 인코딩한다. 위에서 논의된 바와 같이, 투영 패턴(예를 들어, 투영 패턴을 형성하는 광)이 인간의 눈에는 비가시적일 수 있지만, 수광 시스템의 이미지 센서에는 가시적일 수 있다.
단계(208)에서, 프로세싱 시스템은 거리 센서의 수광 시스템이 (예를 들어, 투영 패턴 없이) 객체의 2차원 이미지를 획득하게 할 수 있다. 한 예에서, 수광 시스템은 2차원 이미지를 획득하기 위해 객체를 조명할 수 있다. 한 예에서, 3차원 투영 패턴의 이미지 및 객체의 2차원 이미지 모두가 동일한 이미징 센서에 의해 캡처되는 경우, 수광 시스템은 투영 패턴을 생성하는 데 사용되는 동일한 광원(예를 들어, 적외선 광원)을 사용하여 객체를 조명할 수 있다.
단계(210)에서, 프로세싱 시스템은 객체의 2차원 이미지에서 피처 포인트를 검출할 수 있다. 한 예에서, 검출되는 피처 포인트의 유형은 객체의 유형에 따라 달라질 수 있고, 피처 포인트의 3차원적 특성들은 피처 포인트의 유형에 따라 달라질 수 있다. 이후의 프로세싱 기술들은 피처 포인트의 유형에 따라 달라질 수 있다.
예를 들어, 객체가 얼굴인 경우(예를 들어, 얼굴 인증 시스템들의 경우와 같이), 2차원 피처 포인트는 입, 코, 눈 등에 있는 포인트를 포함할 수 있다. 그러나, 객체가 손인 경우(예를 들어, 제스처 인식 시스템들의 경우와 같이), 2차원 피처 포인트는 손가락 끝, 손가락 바닥, 손바닥 등에 있는 포인트를 포함할 수 있다.
도 3a는 예를 들어, 3차원 패턴(도 3a에서 검은색 도트들로 표시됨)이 투영되는 얼굴의 예시적인 전방을 향한 이미지(forward facing image)(300)를 도시한다. 이미지(300)는 도 3a에 백색 도트들로 도시된 복수의 피처 포인트들(3021-302n)(이하 개별적으로 "피처 포인트(302)"로 지칭되거나, 집합적으로 "피처 포인트들(302)"로 지칭됨)을 포함한다. 도 3a에서, 3차원 패턴의 각 포인트는 3차원 패턴의 기준점(예를 들어, 도 1a 및 도 1b에 도시된 바와 같이)을 기준으로 사용하여 계산될 수 있는 거리 정보를 포함한다.
도 3b는 도 3a에 예시된 얼굴의 비스듬하게(diagonally) 캡처된 이미지(306)의 예를 나타내는 반면, 도 3c는 도 3a에 예시된 얼굴의 측면으로 캡처된 이미지(308)의 예를 나타낸다. 도 3a 내지 도 3c에서 집합적으로 알 수 있는 바와 같이, 각각의 피처 포인트(302)는 얼굴의 이미지가 캡처되는 방향과 관련하여 상이한 특성들을 갖는다. 예를 들어, 코 끝에 있는 피처 포인트(302n)는 전방을 향한 이미지(300)에서 피처를 명확하게 나타내지 않지만, 측면으로 캡처된 (윤곽(profile)) 이미지(308)에서 피처의 더 명확한 표시를 제공한다. 그러나, 피처 포인트(302n)는 또한 얼굴 윤곽(facial profile) 또는 윤곽선(outline)의 끝 근처에 위치하며, 여기서 얼굴에 입사되는 3차원 패턴의 주변 포인트들은 더 적다. 한편, 눈의 바깥쪽 가장자리(outer corner)에 있는 피처 포인트(3021)는 이미지들(300, 306, 308) 중 어느 것에서도 얼굴 윤곽이나 윤곽선의 끝 근처에 위치하지 않는다. 각각의 피처 포인트(302)와 얼굴 부분(예를 들어, 코 끝, 눈의 바깥쪽 가장자리 등) 사이의 대응은 미리 가정될 수 있고, 아래에서 더 자세히 논의되는 바와 같이 특정 보간 기술의 선택에 동기부여할 수 있다.
도 2를 다시 참조하면, 단계(212)에서, 프로세싱 시스템은 피처 포인트에 대한 보간 영역을 식별할 수 있다. 보간 영역은 피처 포인트를 둘러싸는 미리 정의된 반경을 포함할 수 있다(예를 들어, 피처 포인트에 이웃하거나 바로 접하는 3차원 패턴의 모든 포인트들, 피처 포인트의 x 센티미터 내의 3차원 패턴의 모든 포인트들 등으로 제한됨). 예를 들어, 도 3a 내지 도 3c를 다시 참조하면, 피처 포인트(3021)는 보간 영역(3041)과 연관되고, 피처 포인트(302n)은 보간 영역(304n)과 연관된다.
단계(214)에서, 프로세싱 시스템은, 피처 포인트의 보간 영역 내에 있는 3차원 패턴의 2개(또는 그 이상)의 포인트들의 3차원 좌표들을 사용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산할 수 있다. 3차원 좌표들을 계산하는 것은 복수의 후보 보간 기술들 중에서 보간 기술을 선택하는 것을 포함할 수 있다. 예를 들어, 한 예에서, 보간은 인-플레인(in-plane) 프로세싱 기술들을 사용하여 수행될 수 있다. 다른 예에서, 스플라인 곡선이 3차원 좌표들을 피처 포인트에 일치시키는 데 사용될 수 있다. 다른 예에서, 베지어 곡선이 3차원 좌표들을 피처 포인트에 일치시키는 데 사용될 수 있다.
인-플레인 프로세싱의 경우, 3차원 패턴의 각각의 메쉬 영역(mesh area)(예를 들어, 이웃하는 포인트들에 의해 경계를 이루는 영역)은 평면을 포함한다고 가정할 수 있다. 예를 들어, 도 4a는 예시적인 피처 포인트(400) 및 피처 포인트(400)을 둘러싸는 보간 영역을 도시한다. 구체적으로, 3차원 패턴의 포인트들 P1, P2, P3, P4, P5, 및 P6은 피처 포인트(400)에 이웃하고, 3차원 패턴의 추가적인 포인트들은 포인트들 P1-P6에 이웃할 수 있다. 각각의 포인트 P1-P6은 3차원 좌표들의 세트(예를 들어, xi, yi, zi, si, 여기서 I = {1,…,6})와 연관된다.
도 4의 예에서, 시차(parallax)가 없는 것으로 가정한다(예를 들어, 2차원 이미지 및 3차원 패턴의 이미지를 캡처하는 동일한 이미징 센서에 기초하여, 2차원 이미지와 3차원 패턴의 이미지의 좌표 시스템들이 일치함). 따라서, 이 경우, 피처 포인트(400)의 3차원 좌표들(x0, y0, z0, s0)은 공지된 보간 방법들을 이용하여 포인트들 P1, P2, 및 P3의 3차원 좌표들 사이에 보간함으로써 용이하게 계산될 수 있다.
도 4b는 도 4a의 피처 포인트(400)의 3차원 좌표들을 계산하는 대안적인 방법을 도시한다. 도 4b의 경우, 피처 포인트(400)와 인접한 표면의 평면(2-3-4)의 관계(3차원 패턴의 포인트들 P2, P3, 및 P4 사이에 정의됨)는 또한 알려진 보간 방법들을 사용한 계산에서 고려된다. 따라서, 평면들 1-2-3과 2-3-4 사이의 중간 3차원 좌표 위치는 피처 포인트(400)의 3차원 좌표 위치를 산출할 수 있다.
보다 구체적으로, 피처 포인트(400)을 둘러싸는 변(side)들은 (1-2), (2-3), 및 (3-1)이다(여기서 "변"은 3차원 패턴의 2개의 포인트들을 연결하는 선으로 정의되고, 예를 들어, 변 1-2는 포인트들 P1과 P2를 연결한다). 피처 포인트(400)의 3차원 좌표들을 획득하는 한 가지 방법은 피처 포인트에 대한 주변의 변들의 가장 가까운 변과 가장 가까운 변에 인접한 표면 사이를 보간하는 것일 것이다. 한 예에서, 보간은 보간 계산에 사용되는 좌표들의 3차원 패턴의 포인트들의 수를 최소화한다. 호스 좌표들(hose coordinates)이 활용되는 포인트들은 피처 포인트에 가장 가까운 n개의 포인트들일 수 있다. 예를 들어, 도 4b에 도시된 예는 6개의 포인트들(즉, P1-P6)의 좌표들을 사용하는 반면, 도 4a에 도시된 예는 12개 포인트들(즉, P1-P12)의 좌표들을 사용한다. 이러한 것은 보간 계산의 계산 복잡성을 줄인다.
도 4b에서, 동일한 계산이 평면 1-2-6(포인트들 P1, P2, 및 P6 사이에 정의됨) 및 평면 1-3-5(포인트들 P1, P3, 및 P5 사이에 정의됨)를 사용하여 수행될 수 있다. 한 예에서, 피처 포인트(400)에 대한 가장 정확한 3차원 좌표들은 피처 포인트의 유형(예를 들어, 끝 포인트(end point), 매끄러운 표면의 중앙 표면 등)에 따라 피처 포인트(400)에 기여하는 표면 또는 평면을 선택함으로써 계산될 수 있다.
다른 예들에서, 인-플레인 프로세싱 대신에, 스플라인 프로세싱 및/또는 베지어 곡선 프로세싱이 이용될 수도 있다. 스플라인 프로세싱과 베지어 곡선 프로세싱은 평면에서 도트들을 매끄럽게 연결하는 기술들이다. 예를 들어, 스플라인 곡선들은 나란히 배열된 여러 평면들 상의 3차원 도트 배열들을 연결하는 데 사용될 수 있다. 피처 포인트의 위치를 포함하는 제1 평면(2차원 좌표들(x, y)을 가짐)이 스플라인 곡선(예를 들어, 제1 스플라인 곡선들의 세트)을 포함하는 평면들과 실질적으로 직교한다고 가정하면, 제1 스플라인 곡선들 각각과 제1 평면의 교차점들은 제 2 스플라인 곡선과 연결될 수 있다. 제2 스플라인 곡선 상의 피처 포인트의 위치는 피처 포인트의 3차원 좌표들(예를 들어, (x, y, z))을 나타낼 수 있다. 이러한 접근법은 3차원 패턴의 포인트들이 무작위로 분포되지 않고 실질적으로 직선이고 규칙적인 선들(예를 들어, 행들 또는 열들)로 배열되어 있다고 가정한다.
도 5는 3차원 패턴의 포인트의 보간 위치를 2차원 피처 포인트(500)와 일치시키기 위한 스플라인 곡선의 사용을 도시한다. 위에서 예시되고 논의된 바와 같이, 3차원 패턴의 포인트들은 실질적으로 선형 방식으로 배열될 수 있다. 도시된 예에서, 복수의 스플라인 곡선들(5021-502k)(이하 개별적으로 "스플라인 곡선(502)"으로 지칭되거나, 집합적으로 "스플라인 곡선들(502)"로 지칭됨)은 제1 스플라인(506)의 복수의 평면들(5041-504k)( 이하 개별적으로 "평면(504)"으로 지칭되거나 집합적으6로 "평면들(504)"로 지칭됨) 상에 배열된 포인트들로부터 획득된다. 또한, 평면(508)은 피처 포인트(500)를 통과하고 복수의 평면들(504)에 실질적으로 수직으로 위치된다. 평면(508)과 스플라인 곡선들의 각 교차점은 최종 스플라인 곡선을 획득하기 위해 연결된다. 피처 포인트(500)의 3차원 좌표들(xs, ys, zs)은 피처 포인트(500)의 2차원 좌표들(xp, yp)과 스플라인 곡선으로부터 획득될 수 있다. 또한, 피처 포인트(500)의 방향(510)(벡터, 곡률 등과 같은 표면 피처를 나타냄)은 최종 스플라인 곡선으로부터 그리고 복수의 스플라인 곡선들(502)로부터 획득될 수 있다.
베지어 곡선(Bezier Curve)은 피처 포인트를 둘러싸는 3차원 패턴의 포인트들에 의해 형성되는 제1 평면과 상기 제1 평면에 근접한 제2 평면으로부터 획득될 수 있다. 피처 포인트의 3차원 좌표들은 베지어 곡선으로부터 획득될 수 있다. 2차원 피처 포인트를 포함하는 베지어 곡선은 피처 포인트를 포함하는 삼각형 영역에 인접한 표면의 기울기와 인접한 경계선의 위치를 이용함으로써 그려질 수 있다.
도 6는 3차원 패턴의 포인트의 보간 위치를 2차원 피처 포인트(500)와 일치시키기 위한 베지어 곡선의 사용을 도시한다. 이 경우, 피처 포인트(600)의 3차원 좌표들은 2차원 피처 포인트(600)를 통과하는 임의의 수직 평면(604)과 2차원 피처 포인트(600)를 포함하는 평면에 인접한 평면(602)을 교차하는 선에 의해 획득된 베지어 곡선(608)에 의해 지정될 수 있다.
보간이 인-플레인 프로세싱 기술을 이용하여 계산되든, 스플라인 프로세싱을 이용하여 계산되든, 또는 베지어 곡선 프로세싱을 이용하여 계산되든, 피처 포인트의 주변에 있는 3차원 패턴의 적은 수의 포인트들 사이에 (그리고 피처 포인트의 3차원 위치에 대해서만) 보간하는 것으로 충분하다. 위에서 논의한 바와 같이, 이러한 것은 보간 계산의 계산 복잡성을 줄인다. 또한, 스플라인 프로세싱 또는 베지어 곡선 프로세싱을 이용할 때, 표면 또는 객체의 곡선이 동시에 계산될 수 있기 때문에, 피처 포인트를 포함하는 표면이나 물체가 위치하는 방향을 계산하는 것은 비교적 간단하다.
한 예에서, 피처 포인트에 대한 3차원 좌표들을 계산하는 데 사용되는 기술은, 피처 포인트의 유형(이는 3차원 좌표들을 계산하기 전에 프로세싱 시스템에 의해 결정될 수 있음), 환경 조건들 등과 같이, 선택된 기술의 정확도에 영향을 미칠 수 있는 하나 이상의 요인들을 고려하여 선택될 수 있다.
방법(200)은 단계(216)에서 종료될 수 있다.
방법(200)의 정확도와 특히 2차원 이미지의 피처 포인트와 연관된 3차원 좌표들의 정확도는, 표면 또는 객체까지의 거리, 캘리브레이션의 사양, 및 사용되는 보간 기술과 같은 요인들에 따라 달라질 수 있다. 그러나, 캘리브레이션의 사양 및 표면 또는 객체의 거리는 사전에(즉, 방법(200)을 수행하기 전에) 결정될 수 있는 요인들이며, 따라서 계산된 3차원 좌표들에서의 추정된 신뢰도는 3차원 좌표들과 관련하여 출력될 수 있다.
3차원 좌표들의 요구되거나 원하는 정확도는 애플리케이션에 따라 피처 포인트의 유형에 따라 다를 수 있다. 예를 들어, 얼굴 인증의 경우, 요구되는 정확도는 피처 포인트가 눈, 입, 코, 또는 다른 얼굴 피처 상의 포인트에 따라 다를 수 있다.
일례로, 3차원 패턴의 포인트들이 누락된 경우(예를 들어, 3차원 패턴의 이미지에서 인식되지 않음) 또는 비정상적인 좌표 값들(예를 들어, 포인트들의 알려진 간격과 일치하지 않는 값들)이 3차원 패턴의 포인트들 중에서 검출된 경우, 포인트들의 3차원 좌표들을 검출하는 데 사용된 기술이 수정될 수 있다. 예를 들어, 3차원 패턴의 포인트들의 3차원 좌표들은 연속적으로 검출될 수 있다(예를 들어, 2차원 이미지 캡처 전후 포함). 그런 다음, 포인트들에 대한 3차원 좌표들은 단일 검출들에서의 비정상(abnormalities) 또는 이상(anomalies)을 검출하기 위해 시간에 걸쳐 비교될 수 있다. 이 접근 방식은 또한 포인트의 위치가 불안정한 경우(예를 들어, 불안정한 조명 조건들 및 표면 또는 객체 재료 등으로 인해), 객체의 표면이 상이한 노출 조건들을 필요로 하는 상이한 반사 속성들(예를 들어, 흑색 및 백색)을 갖는 재료들을 포함하는 경우를 보상하는 데 유용할 수 있다.
명시적으로 열거되지는 않았지만, 전술한 방법(200)의 블록들, 기능들, 또는 동작들 중 일부는 특정 애플리케이션에 대한 저장, 디스플레이 및/또는 출력을 포함할 수 있음에 유의해야 한다. 다시 말해서, 방법(200)에서 논의된 임의의 데이터, 기록들, 필드들, 및/또는 중간 결과들은 특정 애플리케이션에 따라 다른 디바이스에 저장, 디스플레이 및/또는 출력될 수 있다. 또한, 결정 동작을 인용하거나 결정을 수반하는 도 2에서의 블록들, 기능들, 또는 동작들은 결정 동작의 양쪽 분기들이 모두 수행되는 것을 의미하지는 않는다. 즉, 결정 동작의 결과에 따라, 결정 동작의 분기들 중 하나가 수행되지 않을 수 있다.
본 개시의 예들이 얼굴 인증의 맥락 내에서 논의되지만, 여기에 개시된 기술들은 3차원 좌표들을 2차원 피처 포인트들과 연관시키는 데 유용할 수 있는 다른 애플리케이션들에 적용될 수 있다는 것을 이해할 것이다. 예를 들어, 본 개시의 예들은 또한 경로 인식, 제스처 인식, 및 다른 애플리케이션들에 적용될 수 있다.
예를 들어, 도 7a 및 도 7b는 본 개시의 기술들이 경로 인식에 적용될 수 있는 통로의 예시적인 이미지들을 예시한다. 특히, 도 7a는 본 개시의 기술들이 경로 인식에 적용될 수 있는 통로의 제1 부분을 도시하며, 도 7b는 도 7a의 통로의 제2 부분을 도시한다. 특히, 알려진 마킹들(7001-700m)(이하 개별적으로 "마킹(700)"이라 지칭되거나, 집합적으로 "마킹들(700)"이라 지칭됨)이 주요 포인트들에서 통로에 부착될 수 있다. 통로의 3차원 인식은 마킹들(700)을 피처 포인트들로 사용함으로써 용이해질 수 있다. 한 예에서, 마킹들(700)은 통로 내의 상이한 유형들의 주요 포인트들(예를 들어, 평면들, 모서리들, 에지들, 바닥 표면들 등)을 나타내기 위해 상이한 형상들 또는 패턴들을 가질 수 있다. 예를 들어, 마킹(7001)은 벽의 평면 부분을 나타내도록 형상화될 수 있고; 마킹(7002)은 벽의 에지 부분을 나타내도록 형상화될 수 있고; 마킹(7003)은 벽의 바닥 표면을 나타내도록 형상화될 수 있고; 마킹(700m)은 벽의 모서리를 나타내도록 형상화될 수 있다. 상이한 유형들의 피처들에 특정한 특수화된 마킹들을 사용하는 것은 3차원 좌표들에 대한 계산의 효율성을 향상시킬 수 있다.
경로 검출의 맥락 내에서, 본 개시의 예들은 예를 들어 무인 차량들(예를 들어, 자동차, 드론 등)에 의한 장애물의 위치를 검출하는 데 사용될 수 있다. 알려진 표면들 상의 마킹들(700)은 피처 포인트들에 대해 계산되는 3차원 좌표들의 신뢰도를 증가시키기 위해 사용될 수 있으며 장애물들과의 충돌을 피하는 차량들의 능력을 향상시킨다.
도 1b를 다시 참조하면, 본 개시의 예들은 또한 손 제스처 인식을 위해 사용될 수 있으며, 이는 특정 손 제스처들이 컴퓨팅 시스템 또는 디바이스의 특정 동작들에 매핑될 수 있는 애플리케이션들에서 유용할 수 있다(예를 들어, 손을 흔들면 이미지가 캡처되게 하고, 엄지손가락을 위로 올리면 애플리케이션이 시작되는 등). 손(객체(108))의 2차원 이미지 상의 피처 포인트들(1301-130k)(이하 개별적으로 "피처 포인트(130)"라 지칭되거나 집합적으로 "피처 포인트들(130)"이라 지칭됨)은 3차원 센서(예를 들어, 제1 이미징 센서(124))의 좌표 시스템으로 표현될 필요가 있을 수 있다. 반대로, 3차원 센서의 좌표 시스템에서 임의의 포인트는 2차원 카메라 좌표(예를 들어, 픽셀 x, y 좌표들)로 대체될 수 있다. 좌표 시스템들 간의 상호 위치 관계를 알고 있는 경우, 2차원으로부터 3차원으로 또는 그 반대로 전환이 가능하다.
3차원 좌표 시스템를 이동하는 프로세스는 그 프로세스가 수학적 계산들에 의해서만 수행될 수 있기 때문에 상대적으로 용이하다. 따라서, 2차원 이미징 센서의 좌표 시스템에 대한 3차원 이미징 센서의 좌표 시스템의 위치를 획득하기 위한 프로세스는, 기계적 기준점(mechanical reference point)에 대한 좌표 시스템에 대한 3차원 이미징 센서 좌표 시스템의 위치를 결정함으로써(3차원 센서 캘리브레이션 프로세스 동안 이미 수행되었을 수 있음) 시작될 수 있다. 3차원 센서와 2차원 센서의 기계적 포지셔닝은 고정될 수 있다. 기계적 기준점(예를 들어, 중심축 편차, 이미지 회전, 이미지 왜곡 등)에 대한 2차원 센서의 좌표들의 위치(광학 위치)는 측정되고 보정될 수 있다.
3차원 센서의 좌표축이 2차원 카메라의 광학축과 부합(congruent)하면, 3차원 센서의 좌표 시스템에서 포인트(x=0, y=0, z)는 2차원 이미지의 중심에 유지될 수 있다. 또한, 2차원 카메라의 입사 포인트(즉, 캡처 렌즈의 전면 노드 포인트)에 3차원 센서의 좌표 시스템의 기준점을 배치함으로써, 3차원 센서의 좌표 시스템은 항상 2차원 이미지 좌표 위치와 부합해야 한다.
도 8은 센서로부터 물체까지의 거리를 계산하기위한 예시적인 전자 디바이스(800)의 하이 레벨 블록도를 도시한다. 그로서, 전자 디바이스(800)는 거리 센서와 같은 전자 디바이스 또는 시스템의 프로세서(예를 들어, 도 1a 및 도 1b의 프로세서(126))로서 구현될 수 있다.
도 8에 도시된 바와 같이, 전자 디바이스(800)는 예를 들어 중앙 처리 장치(CPU), 마이크로프로세서, 또는 멀티-코어 프로세서와 같은 하드웨어 프로세서 요소(802), 예를 들어 랜덤 액세스 메모리(RAM) 및/또는 판독 전용 메모리(ROM)와 같은 메모리(804), 3차원 좌표들을 2차원 피처 포인트들과 연관시키기 위한 모듈(805), 및 예를 들어 제한되지는 않지만 테이프 드라이브, 플로피 드라이브, 하드 디스크 드라이브 또는 컴팩트 디스크 드라이브를 포함하는 저장 디바이스, 수신기, 송신기, 디스플레이, 출력 포트, 입력 포트, 및 사용자 입력 디바이스로서 예컨대 키보드, 키패드, 마우스, 마이크로폰, 카메라, 레이저 광원, LED 광원 등과 같은 다양한 입력/출력 디바이스들(806)을 포함한다.
하나의 프로세서 요소가 도시되어 있지만, 전자 디바이스(800)는 복수의 프로세서 요소들을 활용할 수 있음에 유의해야 한다. 또한, 하나의 전자 디바이스(800)가 도면에 도시되어 있지만, 전술한 바와 같은 방법(들)이 특정한 예시적인 예에 대해 분산 또는 병렬 방식으로 구현되는 경우, 즉 상기 방법(들)의 블록들 또는 전체 방법(들)이 다중 또는 병렬 전자 디바이스들에 걸쳐 구현되는 경우, 이 도면의 전자 디바이스(800)는 이들 다중의 전자 디바이스들 각각을 나타내도록 의도된다.
본 개시는 예를 들어, ASIC(application specific integrated circuit), FPGA(field-programmable gate array)를 포함하는 PLA(programmable logic array), 또는 하드웨어 디바이스, 범용 컴퓨터 또는 임의의 다른 하드웨어 등가물들 상에 배치된 상태 머신을 사용하여 기계 판독 가능한 명령들에 의해 및/또는 기계 판독 가능한 명령들과 하드웨어의 조합으로 구현될 수 있다는 점에 유의해야 하며, 예를 들어 위에서 논의된 방법(들)에 관한 컴퓨터 판독 가능한 명령들은 상기 개시된 방법(들)의 블록들, 기능들 및/또는 동작들을 수행하도록 하드웨어 프로세서를 구성하는 데 사용될 수 있다.
한 예에서, 3차원 좌표들을 2차원 피처 포인트들과 연관시키기 위한 본 모듈 또는 프로세스(805)에 대한 명령들 및 데이터, 예를 들어, 기계 판독 가능한 명령들은 메모리(804)에 로딩되고 하드웨어 프로세서 요소(802)에 의해 실행되어, 방법(200)과 관련하여 위에서 논의된 바와 같은 블록들, 기능들 또는 동작들을 구현할 수 있다. 또한, 하드웨어 프로세서가 "동작들"을 수행하기 위해 명령들을 실행할 때, 이러한 것은 동작들을 직접적으로 수행하거나 및/또는 예를 들어 동작들을 수행하기 위한 보조-프로세서 등과 같은 다른 하드웨어 디바이스 또는 구성요소를 촉진하거나, 지시하거나 또는 함께 협력하는 하드웨어 프로세서를 포함할 수 있다.
전술한 방법(들)과 관련한 기계 판독 가능한 명령들을 실행하는 프로세서는 프로그램된 프로세서 또는 특수화된 프로세서로서 인식될 수 있다. 그로서, 본 개시의 3차원 좌표들을 2차원 피처 포인트들과 연관시키기 위한 본 모듈(805)은 유형의 또는 물리적인(광범위하게는 비일시적) 컴퓨터 판독 가능한 저장 디바이스 또는 매체(예를 들어, 휘발성 메모리, 비휘발성 메모리, ROM 메모리, RAM 메모리, 자기 또는 광학 드라이브, 디바이스 또는 디스켓 등)에 저장될 수 있다. 보다 구체적으로는, 컴퓨터 판독 가능한 저장 디바이스는 안전 센서 시스템의 컨트롤러 또는 컴퓨터와 같은 전자 디바이스 또는 프로세서에 의해 액세스될 데이터 및/또는 명령들과 같은 정보를 저장하는 능력을 제공하는 임의의 물리적 디바이스들을 포함할 수 있다.
상기 기술된 및 다른 특징들 및 기능들의 변형들, 또는 그 대안들이 많은 다른 상이한 시스템들 또는 애플리케이션들에 결합될 수 있음을 이해할 것이다. 다음의 청구 범위에 의해 포함되도록 또한 의도된 다양한 현재 예상되지 않거나 예상치 못한 대안들, 수정들 또는 변형들이 본 명세서에서 후속적으로 이루어질 수 있다.

Claims (20)

  1. 방법에 있어서:
    거리 센서의 프로세싱 시스템에 의해, 거리 센서의 투광 시스템으로 하여금 객체(object) 상에 광의 3차원 패턴을 투영하게 하는 단계로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 단계;
    상기 프로세싱 시스템에 의해, 거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 단계;
    상기 프로세싱 시스템에 의해, 상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 단계;
    상기 프로세싱 시스템에 의해, 객체의 2차원 이미지에서 피처 포인트(feature point)을 검출하는 단계;
    상기 프로세싱 시스템에 의해, 상기 피처 포인트에 대한 보간 영역을 식별하는 단계; 및
    상기 프로세싱 시스템에 의해, 상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 상기 검출하는 단계는:
    상기 프로세싱 시스템에 의해, 피처 포인트의 유형을 검출하는 단계를 더 포함하는, 방법.
  3. 제2항에 있어서, 상기 계산하는 단계는:
    상기 프로세싱 시스템에 의해, 복수의 후보 보간 기술들 중에서 계산을 위한 보간 기술을 선택하는 단계를 더 포함하는, 방법.
  4. 제3항에 있어서, 상기 보간 기술은 인-플레인(in-plane) 보간 기술인, 방법.
  5. 제3항에 있어서, 상기 보간 기술은 스플라인(spline) 프로세싱 기술인, 방법.
  6. 제3항에 있어서, 상기 보간 기술은 베지어 곡선(Bezier curve) 프로세싱 기술인, 방법.
  7. 제1항에 있어서, 상기 보간 영역은 피처 포인트의 미리 정의된 반경 내에 위치되는 3차원 패턴의 복수의 포인트들의 서브세트로 제한되는, 방법.
  8. 제7항에 있어서, 상기 미리 정의된 반경은 피처 포인트에 이웃하는 것들인 복수의 포인트들의 포인트들로 제한하는, 방법.
  9. 제1항에 있어서, 상기 계산하는 단계는:
    상기 프로세싱 시스템에 의해, 상기 보간하는 단계로부터 피처 포인트의 방향을 획득하는 단계를 더 포함하는, 방법.
  10. 제1항에 있어서, 상기 2개의 포인트들의 3차원 좌표들은 상기 프로세싱 시스템에 의해 연속적으로 획득되는, 방법.
  11. 제1항에 있어서, 상기 거리 센서는 얼굴 인증 시스템의 일부인, 방법.
  12. 제1항에 있어서, 상기 거리 센서는 제스처 인식 시스템의 일부인, 방법.
  13. 제1항에 있어서, 상기 거리 센서는 경로 인식 시스템의 일부인, 방법.
  14. 적어도 하나의 프로세서를 포함하는 프로세싱 시스템에 의해 실행 가능한 명령들로 인코딩된 비일시적 기계 판독 가능한 저장 매체로서, 상기 프로세싱 시스템에 의해 실행될 때 상기 명령들은 상기 프로세싱 시스템으로 하여금 동작들을 실행하게 하고, 상기 동작들은:
    거리 센서의 투광 시스템으로 하여금 객체 상에 광의 3차원 패턴을 투영하게 하는 동작으로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 동작;
    거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 동작;
    상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 동작;
    객체의 2차원 이미지에서 피처 포인트을 검출하는 동작;
    상기 피처 포인트에 대한 보간 영역을 식별하는 동작; 및
    상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 동작을 포함하는, 비일시적 기계 판독 가능한 저장 매체.
  15. 제14항에 있어서, 상기 검출하는 동작은:
    피처 포인트의 유형을 검출하는 동작을 더 포함하는, 비일시적 기계 판독 가능한 저장 매체.
  16. 제15항에 있어서, 상기 계산하는 동작은:
    복수의 후보 보간 기술들 중에서 계산을 위한 보간 기술을 선택하는 동작을 더 포함하는, 비일시적 기계 판독 가능한 저장 매체.
  17. 제16항에 있어서, 상기 보간 기술은 인-플레인 보간 기술인, 비일시적 기계 판독 가능한 저장 매체.
  18. 제16항에 있어서, 상기 보간 기술은 스플라인 프로세싱 기술인, 비일시적 기계 판독 가능한 저장 매체.
  19. 제16항에 있어서, 상기 보간 기술은 베지어 곡선 프로세싱 기술인, 비일시적 기계 판독 가능한 저장 매체.
  20. 장치에 있어서,
    프로세싱 시스템: 및
    상기 프로세싱 시스템에 의해 실행 가능한 명령들로 인코딩된 비일시적 기계 판독 가능한 저장 매체를 포함하며,
    실행될 때 상기 명령들은 상기 프로세싱 시스템으로 하여금 동작들을 실행하게 하고, 상기 동작들은:
    거리 센서의 투광 시스템으로 하여금 객체 상에 광의 3차원 패턴을 투영하게 하는 동작으로서, 상기 광의 3차원 패턴은 상기 패턴을 집합적으로 형성하는 복수의 광 포인트들을 포함하는, 상기 3차원 패턴을 투영하게 하는 동작;
    거리 센서의 수광 시스템으로 하여금 객체에 투영된 광의 3차원 패턴의 이미지를 획득하게 하는 동작;
    상기 수광 시스템으로 하여금 객체의 2차원 이미지를 획득하게 하는 동작;
    객체의 2차원 이미지에서 피처 포인트을 검출하는 동작;
    상기 피처 포인트에 대한 보간 영역을 식별하는 동작; 및
    상기 보간 영역 내에 있는 복수의 포인트들 중 2개의 포인트들의 3차원 좌표들을 이용하여 보간함으로써 피처 포인트에 대한 3차원 좌표들을 계산하는 동작을 포함하는, 장치.
KR1020227021931A 2019-12-29 2020-12-22 3차원 좌표를 2차원 피처 포인트와 연관 KR20220122645A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962954533P 2019-12-29 2019-12-29
US62/954,533 2019-12-29
PCT/US2020/066554 WO2021138139A1 (en) 2019-12-29 2020-12-22 Associating three-dimensional coordinates with two-dimensional feature points

Publications (1)

Publication Number Publication Date
KR20220122645A true KR20220122645A (ko) 2022-09-02

Family

ID=76546476

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227021931A KR20220122645A (ko) 2019-12-29 2020-12-22 3차원 좌표를 2차원 피처 포인트와 연관

Country Status (6)

Country Link
US (1) US11580662B2 (ko)
EP (1) EP4094181A4 (ko)
JP (1) JP2023508501A (ko)
KR (1) KR20220122645A (ko)
CN (1) CN114830190A (ko)
WO (1) WO2021138139A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12029004B2 (en) 2020-09-18 2024-07-02 Nubis Communications, Inc. Data processing systems including optical communication modules
EP4356175A1 (en) * 2021-06-17 2024-04-24 Nubis Communications, Inc. Communication systems having pluggable modules
CN114255337A (zh) * 2021-11-03 2022-03-29 北京百度网讯科技有限公司 文档图像的矫正方法、装置、电子设备及存储介质

Family Cites Families (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4914460A (en) 1987-05-29 1990-04-03 Harbor Branch Oceanographic Institution Inc. Apparatus and methods of determining distance and orientation
US4954962A (en) 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
JPH0451112A (ja) 1990-06-19 1992-02-19 Fujitsu Ltd マルチスリット投光器
JPH08555A (ja) 1994-06-16 1996-01-09 Fuji Photo Optical Co Ltd 内視鏡の照明装置
US5699444A (en) 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
JP3328111B2 (ja) 1995-08-23 2002-09-24 日本電気株式会社 空間距離測定方法及び空間距離測定装置
US6038415A (en) 1997-07-18 2000-03-14 Minolta Co., Ltd. Image forming apparatus and image-carrier cartridge device which is employed in the same
DE69823116D1 (de) 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
US5980454A (en) 1997-12-01 1999-11-09 Endonetics, Inc. Endoscopic imaging system employing diffractive optical elements
US5870136A (en) 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
JP3705923B2 (ja) * 1998-04-09 2005-10-12 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法、プログラム提供媒体、並びにデータ提供媒体
AUPP299498A0 (en) 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
US7193645B1 (en) 2000-07-27 2007-03-20 Pvi Virtual Media Services, Llc Video system and method of operating a video system
US6937350B2 (en) 2001-06-29 2005-08-30 Massachusetts Institute Of Technology Apparatus and methods for optically monitoring thickness
US7940299B2 (en) 2001-08-09 2011-05-10 Technest Holdings, Inc. Method and apparatus for an omni-directional video surveillance system
GB2395261A (en) 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
TWI247104B (en) 2003-02-26 2006-01-11 Hon Hai Prec Ind Co Ltd A measuring method for pattern of light guide plate
DE10308383A1 (de) 2003-02-27 2004-09-16 Storz Endoskop Produktions Gmbh Verfahren und optisches System zur Vermessung der Topographie eines Meßobjekts
US7831088B2 (en) * 2003-06-13 2010-11-09 Georgia Tech Research Corporation Data reconstruction using directional interpolation techniques
WO2005076198A1 (en) 2004-02-09 2005-08-18 Cheol-Gwon Kang Device for measuring 3d shape using irregular pattern and method for the same
US7191056B2 (en) 2005-01-04 2007-03-13 The Boeing Company Precision landmark-aided navigation
JP4216824B2 (ja) * 2005-03-07 2009-01-28 株式会社東芝 3次元モデル生成装置、3次元モデル生成方法および3次元モデル生成プログラム
JP2006313116A (ja) 2005-05-09 2006-11-16 Nec Viewtechnology Ltd 距離傾斜角度検出装置および該検出装置を備えたプロジェクタ
JP4644540B2 (ja) 2005-06-28 2011-03-02 富士通株式会社 撮像装置
US20070091174A1 (en) 2005-09-30 2007-04-26 Topcon Corporation Projection device for three-dimensional measurement, and three-dimensional measurement system
JP4760391B2 (ja) 2006-01-13 2011-08-31 カシオ計算機株式会社 測距装置及び測距方法
JP4799216B2 (ja) 2006-03-03 2011-10-26 富士通株式会社 距離測定機能を有する撮像装置
US7375803B1 (en) 2006-05-18 2008-05-20 Canesta, Inc. RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging
JP4889373B2 (ja) 2006-05-24 2012-03-07 ローランドディー.ジー.株式会社 3次元形状測定方法およびその装置
WO2008066742A1 (en) 2006-11-22 2008-06-05 Geng Z Jason Wide field-of-view reflector and method of designing and making same
TWI320480B (en) 2007-04-23 2010-02-11 Univ Nat Formosa One diffraction 6 degree of freedom optoelectronic measurement system
WO2009124601A1 (en) 2008-04-11 2009-10-15 Ecole Polytechnique Federale De Lausanne Epfl Time-of-flight based imaging system using a display as illumination source
US8187097B1 (en) 2008-06-04 2012-05-29 Zhang Evan Y W Measurement and segment of participant's motion in game play
DE102008031942A1 (de) 2008-07-07 2010-01-14 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur 3D-Digitalisierung eines Objekts
DE112009001652T5 (de) 2008-07-08 2012-01-12 Chiaro Technologies, Inc. Mehrkanal-Erfassung
US8334900B2 (en) 2008-07-21 2012-12-18 The Hong Kong University Of Science And Technology Apparatus and method of optical imaging for medical diagnosis
JP2010091855A (ja) 2008-10-09 2010-04-22 Denso Corp レーザビーム照射装置
JP5251419B2 (ja) 2008-10-22 2013-07-31 日産自動車株式会社 距離計測装置および距離計測方法
CN101794065A (zh) 2009-02-02 2010-08-04 中强光电股份有限公司 投影显示系统
US20100223706A1 (en) 2009-03-03 2010-09-09 Illinois Tool Works Inc. Welding helmet audio communication systems and methods with bone conduction transducers
JP5484098B2 (ja) 2009-03-18 2014-05-07 三菱電機株式会社 投写光学系及び画像表示装置
JP4991787B2 (ja) 2009-04-24 2012-08-01 パナソニック株式会社 反射型光電センサ
GB0921461D0 (en) 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US20110188054A1 (en) 2010-02-02 2011-08-04 Primesense Ltd Integrated photonics module for optical projection
JP5612916B2 (ja) 2010-06-18 2014-10-22 キヤノン株式会社 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5499985B2 (ja) 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
WO2012023256A2 (en) 2010-08-19 2012-02-23 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
JP5163713B2 (ja) 2010-08-24 2013-03-13 カシオ計算機株式会社 距離画像センサ及び距離画像生成装置並びに距離画像データ取得方法及び距離画像生成方法
US8830637B2 (en) 2010-08-31 2014-09-09 Texas Instruments Incorporated Methods and apparatus to clamp overvoltages for alternating current systems
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US8593535B2 (en) 2010-09-10 2013-11-26 Apple Inc. Relative positioning of devices based on captured images of tags
EP2433716A1 (en) 2010-09-22 2012-03-28 Hexagon Technology Center GmbH Surface spraying device with a nozzle control mechanism and a corresponding method
TWI428558B (zh) 2010-11-10 2014-03-01 Pixart Imaging Inc 測距方法、測距系統與其處理軟體
JP5815940B2 (ja) 2010-12-15 2015-11-17 キヤノン株式会社 距離計測装置、距離計測方法、およびプログラム
CN103477644B (zh) 2011-02-04 2017-04-12 皇家飞利浦电子股份有限公司 记录图像和从图像获得3d信息的方法、相机系统
JP5746529B2 (ja) 2011-03-16 2015-07-08 キヤノン株式会社 三次元距離計測装置、三次元距離計測方法、およびプログラム
US8794181B2 (en) 2011-03-17 2014-08-05 Mirobot Ltd. System and method for three dimensional teat modeling for use with a milking system
JP2014122789A (ja) 2011-04-08 2014-07-03 Sanyo Electric Co Ltd 情報取得装置、投射装置および物体検出装置
JP5830270B2 (ja) 2011-05-24 2015-12-09 オリンパス株式会社 内視鏡装置および計測方法
EP2718668B1 (en) 2011-06-07 2023-07-26 Creaform Inc. Sensor positioning for 3d scanning
KR101974651B1 (ko) 2011-06-22 2019-05-02 성균관대학교산학협력단 경계선 상속을 통하여 계층적으로 직교화된 구조광을 디코딩하는 방법 및 이를 이용하는 3차원 거리 영상 측정 시스템
US10054430B2 (en) 2011-08-09 2018-08-21 Apple Inc. Overlapping pattern projector
US9142025B2 (en) 2011-10-05 2015-09-22 Electronics And Telecommunications Research Institute Method and apparatus for obtaining depth information using optical pattern
KR101605224B1 (ko) 2011-10-05 2016-03-22 한국전자통신연구원 패턴 광을 이용한 깊이 정보 획득 장치 및 방법
TW201329509A (zh) 2012-01-10 2013-07-16 Walsin Lihwa Corp 立體掃瞄裝置及其立體掃瞄方法
US9986208B2 (en) 2012-01-27 2018-05-29 Qualcomm Incorporated System and method for determining location of a device using opposing cameras
KR20140116551A (ko) 2012-01-31 2014-10-02 쓰리엠 이노베이티브 프로퍼티즈 캄파니 표면의 삼차원 구조를 측정하는 방법 및 장치
WO2013129387A1 (ja) 2012-03-01 2013-09-06 日産自動車株式会社 距離計測装置及び距離計測方法
CN104220838B (zh) 2012-03-28 2016-12-21 富士通株式会社 拍摄装置
US9590122B2 (en) 2012-05-18 2017-03-07 Siemens Healthcare Diagnostics Inc. Fish eye lens analyzer
US8699005B2 (en) 2012-05-27 2014-04-15 Planitar Inc Indoor surveying apparatus
EP2872030B1 (en) 2012-07-10 2016-12-07 WaveLight GmbH Process and apparatus for determining optical aberrations of an eye
US20140016113A1 (en) 2012-07-13 2014-01-16 Microsoft Corporation Distance sensor using structured light
JP2014020978A (ja) 2012-07-20 2014-02-03 Fujitsu Ltd 照射装置、距離測定装置、照射装置のキャリブレーションプログラム及びキャリブレーション方法
EP2696590B1 (en) 2012-08-06 2014-09-24 Axis AB Image sensor positioning apparatus and method
US9741184B2 (en) 2012-10-14 2017-08-22 Neonode Inc. Door handle with optical proximity sensors
EP3211299A1 (en) 2012-10-24 2017-08-30 SeeReal Technologies S.A. Illumination device
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
JP6241793B2 (ja) 2012-12-20 2017-12-06 パナソニックIpマネジメント株式会社 3次元測定装置および3次元測定方法
US10466359B2 (en) 2013-01-01 2019-11-05 Inuitive Ltd. Method and system for light patterning and imaging
US9691163B2 (en) 2013-01-07 2017-06-27 Wexenergy Innovations Llc System and method of measuring distances related to an object utilizing ancillary objects
US8768559B1 (en) 2013-01-22 2014-07-01 Qunomic Virtual Technology, LLC Line projection system
US9142019B2 (en) 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
US9364167B2 (en) 2013-03-15 2016-06-14 Lx Medical Corporation Tissue imaging and image guidance in luminal anatomic structures and body cavities
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US20140320605A1 (en) 2013-04-25 2014-10-30 Philip Martin Johnson Compound structured light projection system for 3-D surface profiling
US9536339B1 (en) 2013-06-13 2017-01-03 Amazon Technologies, Inc. Processing unordered point cloud
US10061028B2 (en) 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
JP6211876B2 (ja) 2013-10-01 2017-10-11 株式会社トプコン 測定方法及び測定装置
CN103559735B (zh) 2013-11-05 2017-03-01 重庆安钻理科技股份有限公司 一种三维重建方法及系统
CN105981047A (zh) 2014-01-06 2016-09-28 眼锁有限责任公司 用于重复虹膜识别的方法和设备
GB2522248A (en) 2014-01-20 2015-07-22 Promethean Ltd Interactive system
KR102166691B1 (ko) 2014-02-27 2020-10-16 엘지전자 주식회사 객체의 3차원 형상을 산출하는 장치 및 방법
US9526427B2 (en) 2014-03-21 2016-12-27 Hypermed Imaging, Inc. Compact light sensors with symmetrical lighting
US9307231B2 (en) 2014-04-08 2016-04-05 Lucasfilm Entertainment Company Ltd. Calibration target for video processing
JP6002275B2 (ja) * 2014-04-30 2016-10-05 シナノケンシ株式会社 計測装置
JP5829306B2 (ja) 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
KR101592405B1 (ko) 2014-05-20 2016-02-05 주식회사 메디트 3차원 영상 획득 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US9699393B2 (en) 2014-06-26 2017-07-04 Semiconductor Components Industries, Llc Imaging systems for infrared and visible imaging with patterned infrared cutoff filters
WO2016025502A1 (en) 2014-08-11 2016-02-18 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
KR20160020323A (ko) 2014-08-13 2016-02-23 옥은호 평행 적외선 투사기와 카메라 모듈로 구성되는 거리 측정 센서
JP6370177B2 (ja) 2014-09-05 2018-08-08 株式会社Screenホールディングス 検査装置および検査方法
US10268906B2 (en) 2014-10-24 2019-04-23 Magik Eye Inc. Distance sensor with directional projection beams
JP6121063B1 (ja) 2014-11-04 2017-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd カメラ較正方法、デバイス及びシステム
US10080004B2 (en) 2014-11-06 2018-09-18 Disney Enterprises, Inc. Method and system for projector calibration
US20160128553A1 (en) 2014-11-07 2016-05-12 Zheng Jason Geng Intra- Abdominal Lightfield 3D Endoscope and Method of Making the Same
EP3229668A4 (en) 2014-12-08 2018-07-11 Luis Daniel Munoz Device, system and methods for assessing tissue structures, pathology, and healing
KR102369792B1 (ko) 2015-03-05 2022-03-03 한화테크윈 주식회사 촬영 장치 및 촬영 방법
JP6484072B2 (ja) 2015-03-10 2019-03-13 アルプスアルパイン株式会社 物体検出装置
WO2016151918A1 (ja) 2015-03-26 2016-09-29 富士フイルム株式会社 距離画像取得装置及び距離画像取得方法
DE112015006383B4 (de) 2015-03-27 2019-01-03 Fujifilm Corporation Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
US9694498B2 (en) 2015-03-30 2017-07-04 X Development Llc Imager for detecting visual light and projected patterns
JP6360621B2 (ja) 2015-03-30 2018-07-18 富士フイルム株式会社 距離画像取得装置及び距離画像取得方法
WO2016172856A1 (zh) * 2015-04-28 2016-11-03 北京旷视科技有限公司 用于识别人脸的装置、系统、方法和计算机程序产品
US10488192B2 (en) 2015-05-10 2019-11-26 Magik Eye Inc. Distance sensor projecting parallel patterns
TWI687652B (zh) 2015-05-10 2020-03-11 美商麥吉克艾公司 距離感測器(二)
DE102015209143B4 (de) 2015-05-19 2020-02-27 Esaote S.P.A. Verfahren zur Bestimmung einer Abbildungsvorschrift und bildgestützten Navigation sowie Vorrichtung zur bildgestützten Navigation
CN107613842B (zh) 2015-05-29 2019-09-24 奥林巴斯株式会社 照明装置和计测装置
KR20170005649A (ko) 2015-07-06 2017-01-16 엘지전자 주식회사 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기
JP6566768B2 (ja) * 2015-07-30 2019-08-28 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
DE102015115011A1 (de) 2015-09-08 2017-03-09 Valeo Schalter Und Sensoren Gmbh Laserscanner für Kraftfahrzeuge
US10176554B2 (en) 2015-10-05 2019-01-08 Google Llc Camera calibration using synthetic images
JP6597150B2 (ja) 2015-10-09 2019-10-30 富士通株式会社 距離測定装置、距離測定方法、距離測定プログラムおよびテーブルの作成方法
FR3042610B1 (fr) 2015-10-14 2018-09-07 Quantificare Dispositif et procede pour reconstruire en trois dimensions la tete et le corps
US10942261B2 (en) 2015-10-21 2021-03-09 Samsung Electronics Co., Ltd Apparatus for and method of range sensor based on direct time-of-flight and triangulation
CN108369089B (zh) 2015-11-25 2020-03-24 三菱电机株式会社 3维图像测量装置及方法
KR20170094968A (ko) 2016-02-12 2017-08-22 엘지이노텍 주식회사 피사체 거리 측정 부재, 이를 갖는 카메라 모듈
US11030775B2 (en) 2016-03-17 2021-06-08 Flir Systems, Inc. Minimal user input video analytics systems and methods
CN113727000A (zh) 2016-05-27 2021-11-30 松下知识产权经营株式会社 摄像系统
US9686539B1 (en) 2016-06-12 2017-06-20 Apple Inc. Camera pair calibration using non-standard calibration objects
JP7133554B2 (ja) 2016-12-07 2022-09-08 マジック アイ インコーポレイテッド 焦点調整可能な画像センサを含む距離センサ
US20180227566A1 (en) 2017-02-06 2018-08-09 Microsoft Technology Licensing, Llc Variable field of view and directional sensors for mobile machine vision applications
US11025887B2 (en) 2017-02-27 2021-06-01 Sony Corporation Field calibration of stereo cameras with a projector
US10769914B2 (en) 2017-06-07 2020-09-08 Amazon Technologies, Inc. Informative image data generation using audio/video recording and communication devices
US10708574B2 (en) * 2017-06-15 2020-07-07 Align Technology, Inc. Three dimensional imaging apparatus with color sensor
WO2019041116A1 (zh) 2017-08-29 2019-03-07 深圳市汇顶科技股份有限公司 光学测距方法以及光学测距装置
US10885761B2 (en) 2017-10-08 2021-01-05 Magik Eye Inc. Calibrating a sensor system including multiple movable sensors
CN111492262B (zh) 2017-10-08 2024-06-28 魔眼公司 使用经向网格图案的距离测量
US10679076B2 (en) 2017-10-22 2020-06-09 Magik Eye Inc. Adjusting the projection system of a distance sensor to optimize a beam layout
KR20200123849A (ko) 2018-03-20 2020-10-30 매직 아이 인코포레이티드 가변 밀도들의 투영 패턴을 사용하는 거리 측정
JP7354133B2 (ja) 2018-03-20 2023-10-02 マジック アイ インコーポレイテッド 三次元深度検知及び二次元撮像のためのカメラ露出調節
US20210158023A1 (en) * 2018-05-04 2021-05-27 Northeastern University System and Method for Generating Image Landmarks
EP3803266A4 (en) 2018-06-06 2022-03-09 Magik Eye Inc. DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS
US11475584B2 (en) 2018-08-07 2022-10-18 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
WO2020117785A1 (en) 2018-12-08 2020-06-11 Magik Eye Inc. Vertical cavity surface emitting laser-based projector
EP3911920B1 (en) 2019-01-20 2024-05-29 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
CN110070564B (zh) * 2019-05-08 2021-05-11 广州市百果园信息技术有限公司 一种特征点匹配方法、装置、设备及存储介质
DE102020007613A1 (de) * 2020-12-11 2021-03-18 Daimler Ag Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung

Also Published As

Publication number Publication date
US20210201529A1 (en) 2021-07-01
WO2021138139A1 (en) 2021-07-08
EP4094181A4 (en) 2024-04-03
JP2023508501A (ja) 2023-03-02
EP4094181A1 (en) 2022-11-30
US11580662B2 (en) 2023-02-14
CN114830190A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
US11475584B2 (en) Baffles for three-dimensional sensors having spherical fields of view
US11039121B2 (en) Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
CN107850420B (zh) 距离传感器
KR102543275B1 (ko) 평행 패턴들을 투사하는 거리 센서
KR102170182B1 (ko) 패턴 프로젝션을 이용한 왜곡 보정 및 정렬 시스템, 이를 이용한 방법
US11580662B2 (en) Associating three-dimensional coordinates with two-dimensional feature points
CN107407553B (zh) 距离传感器
US8452081B2 (en) Forming 3D models using multiple images
US20180143018A1 (en) Distance sensor projecting parallel patterns
US20120177283A1 (en) Forming 3d models using two images
JP2008537190A (ja) 赤外線パターンを照射することによる対象物の三次元像の生成
CN107808398B (zh) 摄像头参数算出装置以及算出方法、程序、记录介质
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
US11019249B2 (en) Mapping three-dimensional depth map data onto two-dimensional images
KR20230065978A (ko) 구조화된 광을 사용하여 장면에서 평면 표면들을 직접 복구하기 위한 시스템, 방법 및 매체
US20200041262A1 (en) Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same
KR102341839B1 (ko) 증강현실을 위한 데이터 수집 장치
KR20200042781A (ko) 입체 모델 생성 방법 및 장치
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
KR20200032442A (ko) 자기보정이 가능한 3차원 정보 생성 장치 및 방법
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
US20240054747A1 (en) Image processing apparatus, image processing method, and storage medium
TWM619722U (zh) 偵測物件深度和水平距離的系統