KR20190082097A - 레이저 거리 측정 및 조명 - Google Patents

레이저 거리 측정 및 조명 Download PDF

Info

Publication number
KR20190082097A
KR20190082097A KR1020180163878A KR20180163878A KR20190082097A KR 20190082097 A KR20190082097 A KR 20190082097A KR 1020180163878 A KR1020180163878 A KR 1020180163878A KR 20180163878 A KR20180163878 A KR 20180163878A KR 20190082097 A KR20190082097 A KR 20190082097A
Authority
KR
South Korea
Prior art keywords
signal
distance
camera
image
illumination
Prior art date
Application number
KR1020180163878A
Other languages
English (en)
Other versions
KR102195525B1 (ko
Inventor
오스카 샌트스트롬
칸 쉬
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20190082097A publication Critical patent/KR20190082097A/ko
Application granted granted Critical
Publication of KR102195525B1 publication Critical patent/KR102195525B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01S17/023
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N5/23212
    • H04N5/23219

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

방법은 송신 신호를 생성하기 위해 기준 신호로 레이저의 특성을 변조하는 단계; 상기 송신 신호로 조명 필드를 조명하도록 상기 송신 신호를 발산시키는 단계를 포함하고, 상기 조명 필드는 객체를 포함한다. 본 방법은 상기 조명 필드 및 상기 객체로부터 반사된 신호를 센서에서 수신하는 단계; 상기 수신된 신호의 위상을 상기 기준 신호의 위상과 비교하는 단계를 포함한다. 본 방법은 상기 비교에 기초하여 상기 객체까지의 거리를 연산하는 단계를 포함한다.

Description

레이저 거리 측정 및 조명{LASER RANGING AND ILLUMINATION}
본 발명은 객체까지의 거리를 계산하는 방법 및 장치에 관한 것이다.
카메라 및 그 외 모니터링 장치가 저렴해짐에 따라, 이들 장치들이 급증하고 있다. 그러나 어둠이 카메라의 시야 내의 객체를 어둡게 하거나 가리는 경우가 있다. 그 결과, 카메라 (또는 컴퓨터 비전)의 운영자는 객체를 식별할 수 없을 수도 있다. 따라서, 객체의 영상을 캡처하는 프로세스는 객체에 초점을 맞추는 것뿐만 아니라 장면을 조명하는 것까지 포함할 수 있다. 조명원이 자연광일 수도 비자연광일 수도 있으며, 카메라에 부착되거나 카메라에서 분리될 수도 있다. 초점을 맞추는 것은 카메라에 의해 자동으로 수행되거나 사진작가에 의해 수동으로 수행될 수 있다. 자동으로 초점을 맞추게 되면, 카메라는 초점을 맞추는 객체까지의 거리를 감지할 수 있다.
방법은 송신 신호를 생성하도록 기준 신호로 레이저의 특성을 변조하는 단계와, 이 송신 신호로 조명 필드를 조명하도록 송신 신호를 발산하는 단계를 포함하며, 상기 조명 필드는 객체를 포함한다. 상기 방법은 센서에서, 상기 조명 필드 및 상기 객체로부터 반사된 신호를 수신하는 단계 및 상기 수신된 신호의 위상을 상기 기준 신호의 위상과 비교하는 단계를 포함할 수 있다. 상기 방법은 상기 비교에 기초하여 상기 객체까지의 거리를 연산하는 단계를 포함할 수 있다. 이 방법은 운영자가 장면을 조명할 수 있게 한다. 이 방법은 또한 (예를 들어, 조명원을 사용하여) 객체까지의 거리를 측정할 수 있게 한다. 거리는 자동 초점과 같은 다른 목적을 위해 사용될 수 있으며, 거리는 조명 자체를 조정하는 데 사용될 수 있다. 이 방법은 예를 들어, 조명원으로 객체까지의 거리를 결정하는 것을 가능하게 한다.
상기 위상을 비교하는 단계는, 상기 수신된 신호와 상기 기준 신호 간의 위상 차를 측정하고, 상기 위상 차에 기초하여 상기 객체까지의 거리를 연산하는 단계를 포함할 수 있다. 이 방법은 연산된 거리가 임계치보다 작으면 송신 신호의 평균 강도를 낮추는 단계를 포함할 수 있다. 레이저의 특성을 변조하는 단계는 레이저의 강도를 변조하는 단계를 포함할 수 있다. 레이저의 강도를 낮추면, 예를 들어 조명 영역 내의 사람들에 대해 조명 조건을 안전하게 유지할 수 있다. 이 방법은 사람에게 위험한 조명 조건을 방지하고 사람의 눈에 대한 손상을 예방할 수 있게 해준다.
상기 센서에서 수신하는 단계는 송신 신호에 의해 조명된 시야를 포함하는 이미지를 카메라에서 캡처하는 단계 및 이미지에서 객체의 경계를 검출하는 단계를 포함할 수 있다. 이 방법은 검출된 경계들에 기초하여 객체와 관련된 수신된 신호의 부분들을 식별하는 단계를 포함할 수 있다. 위상 차를 측정하는 단계는 객체와 관련된 수신된 신호의 부분들과 기준 신호 사이의 위상 차를 측정하는 단계를 포함할 수 있다. 상기 거리를 연산하는 단계는 상기 객체와 관련된 상기 수신 신호의 부분들과 상기 기준 신호 사이의 위상 차에 기초하는 상기 객체까지의 거리를 연산하는 단계를 포함할 수 있다. 이 방법은 예를 들어, 조명원으로 객체까지의 거리를 결정할 수 있다. 거리는 자동 초점과 같은 다른 목적을 위해 사용될 수 있으며, 거리는 조명 자체를 조정하는 데 사용될 수 있다. 이 방법은 예를 들어, 조명원으로 객체까지의 거리를 결정하는 것을 가능하게 한다.
상기 방법은 상기 객체가 사람이라고 결정하고 상기 연산된 거리가 제1 임계치 이하이고 상기 객체가 사람이라고 결정될 때 상기 레이저의 강도를 낮추는 단계를 포함할 수 있다. 객체의 경계를 검출하는 단계는 사람의 얼굴의 경계를 검출하는 단계를 포함할 수 있다. 센서에서의 수신은 객체를 포함하여, 송신 신호에 의해 조명되는 시야의 이미지를 카메라에서 캡처하는 단계를 포함할 수 있으며, 이 때 연산된 거리는 자동 초점 알고리즘을 위한 기준점으로 사용된다. 이 방법은 조명된 영역 내에 있는 사람에 대해 조명 조건을 안전하게 유지할 수 있다. 이 방법은 사람에게 위험한 조명 조건을 방지하고 사람의 눈에 대한 손상을 예방할 수 있게 해준다.
자동 초점 알고리즘은 콘트라스트 기반일 수 있고 연산된 거리는 알고리즘에 대한 하한 및 상한을 설정하는데 사용될 수 있다. 하한과 상한 사이의 차이는 수신된 신호의 신호 강도에 기반을 두므로 낮은 신호 강도는 높은 신호 강도보다 더 큰 차이를 초래하게 된다. 이 방법은 조명뿐만 아니라 자동 초점 (예를 들어, 거리 연산)를 위해 광 조명원이 사용되는 것을 가능하게 한다.
장치는 레이저, 구동기, 렌즈, 센서, 믹서 및 프로세서를 포함할 수 있다. 구동기는 기준 신호로 레이저의 특성을 변조하여 송신 신호를 생성할 수 있다. 렌즈는 송신 신호로 조명 필드를 조명하도록 송신 신호를 발산할 수 있으며, 이때 조명 필드는 객체를 포함한다. 센서는 조명 필드 및 객체로부터 반사된 신호를 수신할 수 있다. 믹서는 수신된 신호의 위상을 기준 신호의 위상과 비교할 수 있다. 프로세서는 비교에 기초하여 객체까지의 거리를 연산할 수 있다. 이 장치는 장면을 조명할 수 있다. 또한, 상기 장치는 (예를 들어, 조명원으로) 객체까지의 거리를 측정하는 것을 가능하게 한다. 거리는 자동 초점과 같은 다른 목적을 위해 사용될 수 있으며, 거리는 조명 자체를 조정하는 데 사용될 수 있다.
상기 믹서는 상기 수신된 신호와 상기 기준 신호 간의 위상 차를 측정하고, 상기 프로세서는 상기 위상 차에 기초하여 상기 객체까지의 거리를 연산할 수 있다. 구동기는 연산된 거리가 임계치 미만일 때 송신 신호의 평균 강도를 낮출 수 있다. 구동기는 레이저의 강도를 변조할 수 있다. 레이저의 강도를 낮추면 예를 들어 조명 영역 내의 사람들에게 조명 조건을 안전하게 유지할 수 있다. 이 방법은 사람에게 위험한 조명 조건을 방지하고 사람 눈에 대한 손상을 예방할 수 있게 해준다.
장치는 송신 신호에 의해 조명된 시야를 포함하는 이미지를 캡처하는 카메라를 포함할 수 있다. 프로세서는 이미지의 객체의 경계를 검출하고 검출된 경계에 기초하여 객체와 관련된 수신된 신호의 부분들을 식별하도록 구성될 수 있다. 믹서는 객체와 관련된 수신 신호의 부분들과 기준 신호 사이의 위상 차를 측정하도록 구성될 수 있다. 프로세서는 객체와 관련된 수신된 신호의 부분들과 기준 신호 사이의 위상 차에 기초하여 객체까지의 거리를 연산하도록 구성될 수 있다. 이 방법은 예를 들어, 조명원으로 객체까지의 거리를 결정할 수 있다. 거리는 자동 초점과 같은 다른 목적을 위해 사용될 수 있으며, 거리는 조명 자체를 조정하는 데 사용될 수 있다. 이 방법은 예를 들어, 조명원으로 객체까지의 거리를 결정할 수 있다.
프로세서는 객체가 사람이라고 결정하도록 구성될 수 있다. 구동기는 연산된 거리가 제1 임계치 미만이고 객체가 사람이라고 프로세서가 결정할 때 레이저의 강도를 낮춘다. 프로세서는 사람의 얼굴의 경계를 검출하도록 구성될 수 있다. 이 방법은 조명된 영역 내의 사람에 대해 조명 조건을 안전하게 유지할 수 있다. 이 방법은 사람에게 위험한 조명 조건을 방지하고 사람 눈에 대한 손상을 예방하게 해준다.
카메라는 객체를 포함하여, 송신 신호에 의해 조명되는 시야의 이미지를 캡처하도록 구성될 수 있으며, 이 때 연산된 거리는 자동 초점 알고리즘을 위한 기준점으로 사용된다. 자동 초점 알고리즘은 콘트라스트 기반일 수 있고 연산된 거리는 알고리즘에 대한 하한 및 상한을 설정하는 데 사용된다. 하한과 상한 사이의 차이는 수신된 신호의 신호 강도에 기반하므로 낮은 신호 강도가 높은 신호 강도보다 큰 차이를 초래하게 된다. 이 방법은 조명뿐만 아니라 자동 초점 (예를 들어, 거리 연산)를 위해 조명원이 사용되는 것을 가능하게 한다.
도 1a는 일 실시예에 따라 객체를 갖는 영역을 모니터하는 카메라를 구비한 예시적인 환경의 블록도이다.
도 1b는 다른 실시예에 따라 다수의 카메라를 포함하는 다른 예시적인 환경의 블록도이다.
도 2a는 일 실시예에 따른 도 1a 및 도 1b의 카메라의 예시적인 구성 요소를 도시한 블록도이다.
도 2b는 도 2a의 카메라 제어기의 예시적인 구성 요소들을 도시하는 블록도이다.
도 3은 일 실시예에 따른 컴퓨팅 모듈의 예시적인 구성 요소들을 도시하는 블록도이다.
도 4는 도 1의 환경과 유사하지만 객체가 사람인 예시적인 환경의 블록도이다.
도 5는 일 실시예에 따라 레이저로 장면을 조명하고 거리를 측정하는 프로세스의 흐름도이다.
도 6은 일 실시예에 따라 객체, 경계 및 사람 인식을 설명하는 도면이다.
도 7은 다른 실시예에 따라 레이저로 거리를 측정하기 위한 프로세스의 흐름도이다.
다음의 상세한 설명은 첨부된 도면을 참조한다. 상이한 도면에서 동일한 참조 번호는 동일하거나 유사한 요소를 식별한다.
상술한 바와 같이, 어둠은 카메라의 시야에서 객체를 보기 어렵게 만든다. 결과적으로, 운영자 (및/또는 컴퓨터 비전)는 객체를 식별할 수 없을 수도 있다. 본 명세서에서 이 용어가 사용되는 것처럼 "운영자"는 컴퓨터 비전을 포함한다. 카메라는 또한 예를 들어 컴퓨터 비전을 위한 광 (예를 들어, 비가시 광)으로 객체를 조명할 수 있다. 아래에 설명된 바와 같이, 방법 및 시스템은 운영자가 장면을 조명하는 것을 허용한다. 또한, 조명 방법은 자동 초점과 같은 다른 목적을 위해 객체까지의 거리가 측정될 수 있게 한다. 또한, 거리를 사용하여 조명 자체를 조정할 수도 있다.
그러나, 일부 유형의 조명은 충분히 높은 강도에서는 사람의 눈에 위험할 수도 있다. 예를 들어, 근적외선은 사람들이 이 광을 인지할 수 없기 때문에 위험할 수 있으며, 사람은 눈이 영구적으로 손상되기 전에 스스로 적절히 보호하는 법을 알지 못할 수도 있다. 이러한 경우에, 조명원이 사람의 눈을 손상시킬 위험을 줄이도록 하는 위치 (예를 들어, 높은 위치)에 배치되도록 규정되기도 한다. 즉, 영구적인 안구 손상의 위험이 허용 가능할 정도로 낮을 (즉, 눈에 도달하는 광의 강도가 충분히 작은) 것으로 생각되는 위치는 사람들로부터 충분히 먼 거리 떨어져 있는 것으로 추정된다.
일 실시예에서, 별개의 거리 센서가 근적외선 조명과 결합되므로 사람이 충분히 가까이 오면 강도를 낮추도록 할 수 있다 (예를 들면, 꺼짐). 그러나 이러한 센서는 값 비쌀 수 있으며 모니터링 시스템을 더욱 복잡하게 만들 수 있다. 다른 실시예에서, 조명원 자체 (예를 들어, 레이저)는 객체까지의 거리를 측정하는데 사용될 수 있다. 그러나 조명에 사용되는 레이저는 거리를 측정하는 적절한 변조 방식이 기술적으로 어려울 수 있기 때문에 "느리게" 진행될 수도 있다. 레이저 (예를 들어, 통상의 발광 다이오드 대신에)를 사용하면 방출된 광이 쉽게 줌되거나 발산될 수 있게 한다. 이 속성은 조명된 장면을 예를 들어, 줌 초점 카메라로 캡처하려고 할 때 유용할 수 있다.
도 1a는 객체(102)를 갖는 영역(106)을 모니터하는 카메라(110)를 구비한 예시적인 환경(100A)의 블록도이다. 환경(100A)은 예를 들어 영역을 모니터하거나 공공 안전을 제공하는 보안 또는 모니터링 시스템일 수 있다. 객체(102)는 문, 사람, 동물, 차량, 번호판 등과 같은 특정 관심 객체를 포함할 수 있다.
카메라(110)는 모니터된 영역(106)에서 이미지와 비디오를 캡처하기 위해 카메라 렌즈 어셈블리(116) 및 관련 센서를 포함한다. 카메라(110)는 예를 들어, 가시광선, 적외선 및/또는 기타 비가시의 전자기 방사선을 사용하여 이미지 데이터를 캡처하는 비디오 카메라를 포함할 수 있다. 캡처된 이미지 데이터는 연속되는 이미지 시퀀스 (예를 들어, 비디오), 제한된 이미지 시퀀스, 정지 이미지, 및/또는 이들의 조합을 포함할 수 있다. 카메라(110)는 이미지를 캡처 및 디지털화하기 위한 디지털 카메라 및/또는 이미지를 캡처하고 이미지 데이터를 아날로그 포맷으로 저장하기 위한 아날로그 카메라를 포함할 수 있다. 본 명세서에 사용된 바와 같이, "비디오 데이터" 및 "비디오"는 보다 일반적으로 각각 "이미지 데이터" 및 "이미지"로 지칭될 수 있다. 따라서, "이미지 데이터" 또는 "이미지"는 다른 언급이 없는 한 "비디오 데이터" 및 "비디오"를 포함하는 의미이다. 마찬가지로, "비디오 데이터" 또는 "비디오"는 다르게 언급되지 않는 한 정지 이미지를 포함할 수 있다.
카메라(110)는 가시광, 적외선 및/또는 비가시 전자기 방사선 (예를 들어, 자외선, 적외선, 근적외선, 테라 헤르쯔 방사선, 마이크로파 방사선 등)을 사용하여 이미지 데이터를 캡처할 수 있다. 카메라(110)는 레이더 이미징을 위해 열 화상 카메라 및/또는 레이더를 포함할 수 있다. 캡처된 이미지 데이터는 연속적인 이미지 시퀀스 (예를 들어, 비디오), 제한된 이미지 시퀀스, 정지 이미지 및/또는 이들의 조합을 포함할 수 있다. 카메라(110)는 이미지를 캡처 및 디지털화하기 위한 디지털 카메라 및/또는 이미지를 캡처하고 이미지 데이터를 아날로그 데이터로 저장하기 위한 아날로그 카메라를 포함할 수 있다.
카메라(110)는 ("조명 필드"라고도 지칭되는) 조명 광(104)으로 장면을 조명하는 조명원(112)를 포함한다. 조명 필드는 이 예에서 객체(102)를 포함한다. 조명원(112)은 수직 공동 표면 방출 레이저, 발광 다이오드(LED), 백열 전구, 및/또는 크세논 플래시와 같은 레이저를 포함할 수 있다. 조명원(112)으로부터 방출된 광은 적외선, 근적외선, 가시광선 및/또는 다른 주파수의 광을 포함할 수 있다. 카메라(110)는 다른 유형의 조명원 또는 하나 이상의 조명원을 포함할 수 있다.
카메라(110)는 환경(100)에서 광을 수용하는 센서(114)를 포함한다. 예를 들어, 센서(114)는 이 예에서 (예를 들어, 조명 광(104)으로부터) 객체(102)에서 반사한 반사된 광(105)을 검출한다. 카메라(110)가 센서(114)를 사용하여 낮은 광 조건을 검출하면, 카메라(110)는 조명원(112)의 출력을 증가시킬 수 있다. 마찬가지로, 카메라(110)가 센서(114)를 사용하여 개선된 광 조건을 검출하면, 카메라(110)는 조명원(112)의 출력을 감소시킬 수 있다. 센서(114)는 카메라(110)와 객체(102) 사이의 거리를 측정하는 거리 센서를 추가로 또는 대안적으로 포함한다. 일 실시예에서, 카메라(110)는 객체(102)가 충분히 가깝다고 결정되면 조명원(112)의 출력을 감소시킬 수 있다. 카메라(110)는 다른 유형의 센서를 포함할 수 있거나 하나 이상의 센서를 포함할 수 있다.
환경(100A)이 카메라(110)를 포함하지만, 카메라(110)는 모니터된 영역(106)에서 움직임을 검출하기 위한 움직임 검출기, 모니터된 영역(106)에서 열 이미지를 캡처하기 위한 열 카메라, 또는 열 감지기와 같은 어느 유형의 모니터링 장치의 형태라도 취할 수 있다. 이러한 다른 모니터링 장치는 또한 조명 및/또는 거리 측정을 사용할 수 있다.
도 1a의 환경(100A)은 하나의 카메라를 포함한다. 다른 한편으로, 도 1b는 다른 실시예로, 다수의 카메라를 포함하는 다른 예시적인 환경(100B)의 블록도이다. 도 1b에 도시된 바와 같이, 환경(100B)은 카메라(110-A 내지 110-N), 네트워크(120) 및 모니터링 스테이션(130)을 포함한다. 카메라(110)는 집합적으로 "카메라들(110)"을 개별적으로 "카메라(110)"로 언급될 수 있다. 전술한 바와 같이, 카메라(110)는 다른 유형의 모니터링 장치를 포함할 수 있다.
네트워크(120)는 환경(100B) 내의 장치들이 서로 통신할 수 있게 한다. 예를 들어, 카메라(110)는 서로 통신하고 모니터링 스테이션(130)과 통신할 수 있다. 네트워크(120)는 하나의 카메라(110-A)가 카메라(110-N)와 같은 다른 카메라(110)와 통신하고 조명을 조정할 수 있게 한다. 사람과 같은 객체(102)가 조명을 위해 카메라(110-A)에 너무 가깝다면, 카메라(110-A)는 카메라(110-N)와 같은 또 다른 카메라에 의해 객체(102)의 조명을 요구할 수 있다. 마찬가지로, 모니터링 스테이션(130)은 카메라들(110) 중 임의의 하나와 통신할 수 있다.
네트워크(120)는 하나 이상의 회로 교환 네트워크 및/또는 패킷 교환 네트워크를 포함할 수 있다. 예를 들어, 네트워크(120)는 근거리 통신망(LAN), 광역 통신망(WAN), 도시 지역 통신망(MAN), 공중교환 전화망(PSTN), 애드혹 네트워크, 무선 메시 네트워크, 인트라넷, 인터넷, 광섬유 기반 네트워크, 무선 네트워크, 및/또는 이들 또는 다른 유형의 네트워크의 조합일 수 있다.
모니터링 스테이션(130)은 운영자가 이미지 및/또는 비디오를 보고, 카메라(110)를 구성하고, 및/또는 그렇지 않으면 카메라(110)를 관리하도록 특정 카메라(110)에 접속할 수 있게 한다. 모니터링 스테이션(130)은 또한 운영자가 (객체(102)를 포함하는) 환경(100A)을 모니터하도록 한다. 예를 들어, 운영자는 빌딩을 안전하게 지키기 위해 침입 탐지를 위한 환경(100A)을 모니터할 수 있다.
모니터링 스테이션(130)은 카메라(110)와 통신하도록 구성된 어느 장치라도 포함할 수 있다. 이와 같이 운영자는 어느 다른 카메라(110)로도 카메라(110)를 관리할 수 있다. 예를 들어, 모니터링 스테이션(130)은 휴대용 통신 장치 (예를 들어, 이동 스마트폰, 및/또는 다른 유형의 무선 장치); 개인 컴퓨터 또는 워크 스테이션 (예를 들어, 모니터, 키보드, 마우스 등); 서버 장치; 랩톱, 태블릿 또는 다른 유형의 휴대용 컴퓨터; 및/또는 통신 능력을 갖추는 임의 유형의 장치를 포함할 수 있다. 일 실시예에서, 모니터링 스테이션(130)은 카메라(110)의 일부일 수 있다.
도 1a 및 도 1b는 환경(100A 및 100B)의 예시적인 구성 요소를 도시하고, 다른 구현 예에서, 환경(100A 및 100B)은 도 1a 및 도 1b에 도시된 것보다 더 적은 구성 요소, 상이한 구성 요소, 추가의 구성 요소를 포함할 수 있다. 부가적으로 또는 대안적으로, 임의의 하나의 장치 (또는 임의의 장치 그룹)는 하나 이상의 다른 장치에 의해 수행되는 것으로 기술된 기능을 수행할 수 있다.
도 2a는 일 실시예에서 카메라(110)의 예시적인 구성 요소를 나타내는 블록도이다. 이 예에서, 카메라 렌즈 어셈블리(116) (도 1a 참조)는 광학 체인(202), 센서 어레이(204), 이미지 렌즈 모터(272), 및 이미지 렌즈 제어기(270)를 포함한다. 또한, 조명원(112)(도 1a 참조)은 렌즈(235), 광원(234), 광원 구동기(232), 기준 신호 생성기(230), 조명 모터 제어기(249), 및 조명 렌즈 모터(237)를 포함한다. 또한, 센서(114) (도 1a 참조)는 검출기 렌즈(241), 검출기(240), 증폭기(242), 대역 통과 필터(238), 신호 비교기(236), 거리 연산기(244) 및 거리 테이블(246)을 포함할 수 있다. 센서(144)는 또한 검출기 렌즈 제어기(245) 및 검출기 렌즈 모터(243)를 포함할 수 있다.
일 실시예에서, 카메라(110)는 안전 기준(252) 및 안전 비교기(248)를 포함하는 안전 구성 요소를 포함할 수 있다. 카메라(110)는 또한 이미지 프로세서(208), 카메라 제어기(210), 메모리(209), 비디오 인코더, 및 통신 인터페이스(216)와 같은 다른 구성요소를 포함한다.
다음의 구성요소는 (도 2a에서 어두운 배경으로 표시된) 하드웨어로 구현될 수 있다: 광원(234), 광원 구동기(232), 기준 신호 생성기(230), 신호 비교기, 대역 통과 필터(238), 증폭기(242), 검출기(240), 거리 연산기(244), 거리 테이블(246), 안전 기준(252), 및/또는 안전 비교기(248), 검출기 렌즈 제어기(245), 조명 모터 제어기(239), 및/또는 이미지 모터 제어기와 같은, 다른 구성 요소도 또한 소프트웨어 보다는 하드웨어로 구현될 수 있다.
광학 체인(202)은 입사 방사선에 기초하여 이미지를 캡처하기 위해 반사된 광(105)과 같은 입사 방사선(203)을 센서 어레이(204)로 향하게 하는 엔클로저를 포함한다. 입사 방사선(203)은 가시광선, 적외선, 근적외선, 밀리미터파 등을 포함할 수 있다. 광학 체인(202)은 입사 방사선(203)을 (예를 들어, 모니터된 영역(106) 내의) "시야"로부터 센서 어레이(204)로 수집하고 초점을 맞추기 위해 하나 이상의 렌즈들(212)(단수로 렌즈(212)로 표기)를 포함한다.
입사 방사선(203)은 렌즈(212)를 통과하여 시야를 센서 어레이(204) 상에 초점 맞추도록 한다. 초점 및 시야는 애퍼츄어(도시되지 않음)의 물리적 특성 및 이미지 렌즈 제어기(270)에 의해 제어되는 이미지 렌즈 모터(272)에 의해 이동될 수 있는 렌즈(212)의 위치에 의존한다. 이미지 렌즈 모터(272)는 (예를 들어, 하나 이상의 렌즈(212)에 대해) 하나 이상의 모터를 포함할 수 있지만 여기서는 단수로 표기된다.
센서 어레이(204)는 센서 어레이(204)에 입사 또는 떨어지는 방사선 (예를 들어, 광)을 등록, 감지 및 측정하기 위한 센서 어레이를 포함할 수 있다. 방사선은 가시광선 파장 범위, 적외선 파장 범위 또는 다른 파장 범위 내에 있을 수 있다. 센서 어레이(204)는 예를 들어, 전하 결합 소자(CCD) 어레이 및/또는 액티브 픽셀 어레이 (예를 들어, 상보형 금속 산화물 반도체(CMOS) 센서 어레이)를 포함할 수 있다. 센서 어레이(204)는 또한 (예를 들어, 카메라(110)가 열 카메라 또는 검출기를 포함하는 경우) 마이크로볼로미터를 포함할 수 있다. 대안적인 실시예에서, 센서 어레이(204)는 이미지를 형성하기 위해 스캐닝 하드웨어 (예를 들어, 회전식 거울)를 사용할 수 있는 선형 어레이이거나, 이미지 프로세서(208) 및/또는 제어기(210)에 의존하여 이미지 센서 데이터를 생성하는 논어레이(non-array) 센서일 수 있다.
조명원(112)의 일부로서, 광원(234)은 카메라(110)에 대한 장면을 조명하고 및/또는 카메라(110)로부터 객체까지의 거리를 검출하기 위해 광을 제공한다. 광원(234)은 수직 공동 표면 방출 레이저, LED, 크세논 플래시 및/또는 백열전구와 같은 레이저를 포함할 수 있다. 광원(234)으로부터 방출된 광은 적외선, 근적외선 및/또는 가시광선을 포함할 수 있다. 다른 유형의 광원 및 레이저가 가능하다.
광원(234)으로부터의 출력은 렌즈(235)를 통과하여 조명 영역을 조명할 수 있다. 렌즈(235)는 하나 이상의 렌즈를 포함할 수 있지만, 본 명세서에서는 단수로 표기된다. 광원(234)으로부터 출력된 광은 렌즈(235)를 통과하므로 광이 발산하여 (도 1a의 조명 광(104)) 렌즈(235)가 없는 경우보다 더 넓은 영역을 조명할 수 있다. 광의 발산 정도는 렌즈(235)의 물리적 특성 및 위치에 좌우되며, 이것은 조명 모터 제어기(239)에 의해 제어되는 렌즈 모터(237)에 의해 이동될 수 있다. 조명 렌즈 모터(237)는 하나 이상의 모터 (특히, 하나 이상의 렌즈(235)가 존재하는 경우)를 포함할 수 있지만, 본 명세서에서 단수형으로 표기된다. 광원(234)이 레이저인 구현 예에서, 광 출력의 발산은 LED로부터의 광 출력과 비교하여 보다 정확하게 제어될 수 있다. 일 실시예에서, 조명원(112)은 발산 렌즈(235)를 사용하는 것에 부가하거나 이에 대신하여 (예를 들어, 모니터된 영역(106)을 스캐닝하기 위해) 기계적으로 이동될 수 있다.
광원(234)은 마이크로파 또는 자외선과 같은 근적외선 이외의 주파수를 사용할 수 있다. 더 작은 파장의 광 (예를 들어, 레이저로부터의 출력)은 광이 더 작은 스폿 (예를 들어, 조명 필드)으로 집중되도록 하고, 이로 인해 공간 해상도를 증가시킬 수 있다. 또한, (도 2a에 도시되지 않은) 좁은 광학 대역 통과 필터는 사용된 파장 이외의 파장의 광을 필터링하는 방법을 제공할 수 있다. 이를 통해 잡음을 줄이고 신호 대 잡음비(SNR)를 높일 수 있다.
일 실시예에서, (조명 광(104)에 의한) "조명 영역"의 조명은 광학 체인(202) 및 렌즈(212)에 의해 초점 맞춰지는 (예를 들어, 센서 어레이(204)에 의해 캡처된) 시야에 대응할 수 있다. 다시 말해, 센서 어레이(204)가 멀리 떨어진 좁은 시야를 감지하는 경우, 조명 광(104)은 그 거리에서 그 동일한 좁은 시야를 조명할 수 있다. 즉, 조명 필드는 카메라 센서 어레이(204)에 대한 시야와 일치할 수 있다. 다르게 말하면, (렌즈(235)에 의해 제어되는 바와 같이) 광원(234)에 의한 조명 영역은 (렌즈(212)에 의해) 초점이 맞춰지고 센서 어레이(204)에 의해 캡처된 시야와 일치할 수 있다.
광원 구동기(232)는 광원(234)을 구동시킨다 (즉, 전압 및 전류를 제공한다). 광원(234)으로부터의 광 출력의 강도는, 예를 들어, 광원 구동기(232)에 의해 공급되는 전압 및/또는 전류에 좌우된다. 일 실시예에서, 광원 구동기(232)는 ENABLE 신호를 수신할 때 광원(234)을 구동하고; ENABLE 신호를 수신하지 않을 때 광원(234)을 구동하지 않는다. 예를 들어, 광원 구동기(232)는 ENABLE 신호를 수신할 때 광원(234)만을 구동한다. 이 실시예에서, 안전 비교기(248)는 안전 비교기(248)가 조건들이 안전하다고 결정할 때 ENABLE 신호를 출력하고; 안전 비교기(248)는 안전 비교기(248)가 조건들이 안전하지 않다고 결정할 때 ENABLE 신호를 출력하지 않는다 (또는 NOT ENABLE 신호를 출력한다).
기준 신호 생성기(230)는 광원 구동기(232)에 출력되는 기준 신호를 생성한다. 기준 신호는 또한 "변조 신호"로 지칭될 수 있다. 기준 신호는 구동기(232)가 기준 신호에 따라서, 광원(234)으로부터 방출된 광의 강도를 변조하도록 한다. 다시 말해, 광원 구동기(232)는 기준 신호에 기초하여 광원(234)에 출력되는 전류 및/또는 전압을 변화시킬 수 있다. 이러한 경우에, 광 (예를 들어, 근적외선)은 기준 신호에 대한 캐리어 신호이다. 기준 신호는 여러 구현 예에서 상이한 형태를 취할 수 있다. 예를 들어, 기준 신호는 정현파일 수 있거나 펄스 (예컨대, 치핑 펄스)를 포함할 수 있다. 사인파 신호로서, 기준 신호의 주파수는 예를 들어, 0.1 MHz와 100MHz 사이의 범위일 수 있다. 일 실시예에서, 변조 신호 (즉, 기준 신호)는 조명 광(104)의 변조가 카메라(110)에 의해 촬영된 이미지에 간섭을 유발하지 않을 정도로 충분히 낮은 진폭과 충분히 높은 주파수를 갖도록 한다. 즉, 광(104)의 변조 진폭을 감소시키고, 변조 주파수를 증가시키게 되면 카메라(110)에 의해 캡처된 이미지의 반점을 감소시킬 수 있다.
센서(114)의 일부로서, 검출기(240)는 광원(234)으로부터 방출되고 객체(102)로부터 반사된 광과 같은, 광을 감지한다. 검출기(240)는 예를 들어 광 검출 다이오드 및/또는 전하 결합 소자(CCD)를 포함할 수 있다. 일 실시예에서, 검출기(240)는 검출기(240) 상에 입사하는 광의 강도에 비례하는 아날로그 신호를 출력한다. 결과적으로, 검출기(240)는 반송파(즉, 광)를 제거함으로써 (반사된 광(105)에 존재하는 경우) 캐리어 신호를 효과적으로 복조한다.
일 구현 예에서, 검출기(240)에 의해 수신된 광은 검출기 렌즈(241)를 통과하므로 "검출 필드"로부터의 광이 검출기(240) 상에 수렴하게 된다 (또는 초점 맞춰진다). 렌즈(241)는 하나 이상의 렌즈를 포함할 수 있지만, 본 명세서에서는 단수로 표기한다. 광의 수렴 정도는 애퍼츄어 및 검출기 렌즈(241)의 물리적 특성 및 배치에 의존하며, 이 검출기 렌즈(241)는 검출기 렌즈 제어기(245)에 의해 제어되는 검출기 렌즈 모터(243)에 의해 이동될 수 있다. 조명 렌즈 모터(237)는 하나 이상의 모터를 포함하지만 (특히 하나 이상의 렌즈(235)가 존재하는 경우), 본 명세서에서 단수로 표기된다.
일 실시예에서, (렌즈(241)에 의해 제어되는 바와 같이) 센서(114)의 검출 필드 내에서의 광의 검출은 (예를 들어, 카메라 렌즈 어셈블리(116)에 의해) 초점 맞추어지고 센서 어레이(204)에 의해 캡처된 시야와 일치할 수 있다. 다시 말해, 센서 어레이(204)가 멀리 떨어져 특정 시야를 캡처한다면, 검출기(240)는 (렌즈(241)와 함께) 그 거리에서 특정 시야로부터 광을 검출할 수 있다. 부가적이거나 대안적으로, 조명 광(104)이 멀리 떨어진 특정 조명 필드로 발산한다면, 센서(114)는 (렌즈(241)와 함께) 그 거리에 있는 특정 조명 필드로부터 광을 검출할 수 있다. 다시 말해, 센서(114)에 의한 검출 필드는 조명 필드와 일치할 수 있고/있거나 카메라 렌즈 어셈블리(116)에 의해 캡처된 시야와 일치할 수 있다. 일부 실시예에서, 센서(114)에 대한 검출 필드는 조명 필드에 대응하지 않고/거나 카메라 렌즈 어셈블리(116)에 대한 시야에 대응하지 않는다. 예를 들어, 검출 필드는 조명 필드보다 더 크거나; 검출 필드는 조명 필드 보다 더 작을 수 있다.
다른 실시예에서, 렌즈(241)는 검출기 렌즈 모터(243) 또는 검출기 렌즈 제어기(245)가 없는 초점 고정 렌즈일 수 있다. 이 실시예에서, 검출기(240)에 대한 검출 영역은 검출기 렌즈 모터(243) 및 검출기 렌즈 제어기(245)에 의해 이동될 수 있는 렌즈에 의해서 보다 더 단방향적이고 센서(114)에 대한 검출 필드는 조명원(112)에 대한 조명 필드보다 더 넓을 수 있다. 또 다른 실시예에서, 검출기(240)는 렌즈(235)를 광원(234)과 공유하므로 조명 필드는 센서(114)에 대한 검출 필드와 동일하다. 또 다른 실시예에서, 렌즈(241)는 함께 생략될 수 있고 검출기(240)는 렌즈와 관련되지 않는다.
반사된 광(105)은 약하기 때문에, 검출기(240)의 출력이 또한 약할 수 있다. 일 구현 예에서, 검출기(240)의 출력은 증폭기(242)에 의해 증폭되어 신호 강도를 증가시킨다. 대역 통과 필터(238)는 증폭기(242)로부터의 신호를 입력하고 잡음을 제거하고/하거나 원하는 주파수들 (예를 들어, 기준 신호에 대응하는 주파수들)을 분리시킨다. 대역 통과 필터(238)의 출력은 신호 비교기(236)로 전달된다. 대역 통과 필터(238)의 출력은 "복조된 신호"로 지칭될 수 있다.
신호 비교기(236)는 (즉, 기준 신호 생성기(230)로부터의 출력된) 기준 신호와 (대역 통과 필터(238)로부터의 출력된) 복조 신호를 비교한다. 일 실시예에서, 신호 비교기(236)의 출력은 (반사된 광(105)으로서) 조명 광(104)을 반사시키는 객체(102)까지의 거리에 비례한다. 기준 신호를 복조된 신호와 비교하기 위해 상이한 기술이 사용될 수 있다. 예를 들어, 기준 신호가 정현파인 경우, 신호 비교기(236)(예를 들어, 간섭계)는 객체까지의 거리에 비례하는 기준 신호와 복조 신호 사이의 위상 차를 출력할 수 있다. 다른 실시예에서, 기준 신호는 처핑된(chirped) 레이저 펄스를 포함할 수 있다. 일 구현 예에서, 신호 비교기(236)는 코히런트(coherent) 검출을 사용하며, 여기에서 믹싱 동작이 광학 도메인에서 수행된다. 코히어런트 검출은 위상 검출 시스템에서 그리고 처핑된 레이저 펄스가 사용될 때 사용될 수 있다.
일 구현 예에서, 신호 비교기(236)는 직교 위상 검출기를 포함한다. 기준 신호가 주파수 fm을 갖는 정현파인 경우, 복조된 신호는 또한 (비이동 객체(102)를 가정할 때)를 fm의 주파수를 가지지만 신호가 객체(102)까지 거리 d 만큼 이동했다가 다시 돌아온다는 사실로 인해 위상 차를 갖는다. 위상 차는 믹서 (예를 들어, 간섭계)를 사용하여 측정될 수 있다. 믹서는 그 입력이 주파수 f1과 f2를 갖는 두 개의 주기적인 신호이고 그 출력이 고조파뿐만 아니라 차와 합 주파수를 갖는 신호인 장치이다. 이것은 시간 도메인에서 입력 신호를 곱하는 것으로 달성된다. 비선형 장치는 믹서로 사용될 수 있다. 일 실시예에서, 위상 차를 측정하는 단계는 기준 신호와 수신된 신호를 아날로그 믹싱하는 단계를 포함할 수 있다. 혼합된 아날로그 신호는 임계치 검출을 위한 피드백으로 사용될 수 있다.
직교 위상 검출기는 측정될 객체(102)의 위상 차(θ) 및 반사율을 허용할 수 있다. 반사율은 거리 측정을 보완하고 향상시키는 데 사용될 수 있으며 추가적인 차원과 자유도를 제공한다. 이것은 단순히 거리를 측정하기보다는, 특정 객체 (예를 들어, 사람)의 존재, 또는 존재하는 객체의 분류를 결정하는 형태로 활용될 수 있다. 또한, 직교 위상 검출기는 (예를 들어, 하드웨어 회로에 의해) 거리 연산이 신속하게 수행될 수 있게 한다. 이러한 측정은 연속파의 위상을 기반으로 하기 때문에, 높은 측정 속도가 가능하다 (예를 들어, 변조 주파수 fm에 따라 8kHz의 속도로 거리를 측정함).
거리 연산기(244)는 신호 비교기(236)로부터 출력된 신호에 기초하여 카메라(110)로부터 객체(102)까지의 거리를 결정할 수 있다. 예를 들어, 신호 비교기(236)가 위상 차를 출력하면, 거리 연산기(244)는 거리 테이블(246)에 접근하여 객체(406)까지의 대응하는 거리(또는 거리들)를 결정한다. 거리가 모호하면 (즉, 하나 이상의 솔루션), 기준 신호 생성기(230)는 이 모호성을 해결하기 위해 기준 신호를 (예를 들어, 상이한 주파수로) 변경할 수 있다. 즉, 모호성을 해결하기 위한 방법은 서로에게 고조파가 아닌 여러 변조 주파수의 조합을 사용하는 것을 포함한다. 거리 연산기(244)는 예를 들어, 디지털 로직 (예를 들어, 디지털 프로세서) 및/또는 아날로그 로직 (아날로그 프로세서)을 포함할 수 있다.
일 구현 예에서, 거리 연산기는 측정 속도가 8kHz인 15센티미터의 표준 편차를 갖는 정확도로 최대 27미터의 거리를 측정할 수 있다. 10MHz와 90MHz 사이의 정현파 기준 신호는 예를 들어 10과 30m 사이의 연산된 거리를 허용한다. 100MHz에서 1GHz 사이의 정현파 기준 신호는 센티미터까지 정확하게 연산한 거리를 가능하게 한다. 약 1MHz의 정현파 기준 신호는 수백 미터의 연산된 거리를 가능하게 한다. 본 명세서에서 설명된 구현 예는 이들 주파수의 조합을 사용할 수 있다.
일 실시예에서, 신호 비교기(236)는 전파 시간 검출기를 포함한다. 이러한 구현 예에서, 기준 신호는 짧은 펄스의 강도를 포함할 수 있다. 신호 비교기(236)는 (예를 들어, 수신된 신호를 기준 신호와 비교함으로써) 펄스가 복귀하는 시간을 측정할 수 있다. 신호 비교기(236)가 전파 시간을 출력하면, 거리 연산기(244)는 전파 시간에 광속을 곱하고 2로 나눔으로써 거리를 결정할 수 있다. 전파 시간을 사용하면 500kHz의 거리 측정 속도를 가능하게 할 수 있다.
안전 비교기(248)는 연산된 거리를 안전 임계치와 비교한다. 이 구현 예에서, 안전 기준(252)은 조명 광(104)에 의해 조명되고 있는 사람에게 안전하다고 간주되는 최소 거리이다. 일 실시예에서, 안전 기준(252)은 안전한 거리 및 대응하는 광 강도의 테이블을 포함할 수 있다. 안전 비교기(248)는 연산된 거리가 대응 안전 기준(252)보다 작으면 광원(234)에 의한 계속적인 조명을 디스에이블할 수 있다. 안전 비교기(248)는 연산된 거리가 안전 기준(252) 보다 클 경우 광원(234)에 의한 계속적인 조명을 인에이블할 수 있다. 안전 기준(252)은 일정할 수 있지만, 광원(234)으로부터의 광의 발산 정도 및/또는 광원(234)에 의해 방출되는 광의 강도와 같은 다수의 인자들에 의존하는 요소일 수도 있다. 안전 비교기(248)는 예를 들어, 디지털 로직 (예를 들어, 프로세서) 및/또는 아날로그 로직을 포함할 수 있다.
일 구현 예에서, 도 2a에 도시된 많은 구성 요소들은 소프트웨어보다 하드웨어서 구현될 수 있다. 이 구현 예에서, 안전 비교기(248)는 일반적인 프로세서의 개입 없이 검출된 광에 기초하여 광원(234)을 감쇠 또는 비활성화하도록 광원 구동기(232)에 명령할 수 있다. 예를 들어, 소프트웨어를 실행하는 일반 프로세서는 (이미지 처리와 같은) 요청으로 과부하가 걸릴 수 있다. 또 다른 예로서, (범용 프로세서에서 동작하는) 운영 시스템은 안전과 관련되지 않은 버그 소프트웨어의 결과로 고장 날 수 있다. 따라서, 일 구현 예에서, 다음의 구성 요소들은 (도 2a에서 어두운 배경으로 도시된) 하드웨어로 구현될 수 있다: 광원(234), 광원 구동기(232), 기준 신호 생성기(230), 신호 비교기, 대역 통과 필터(238), 증폭기(242), 검출기(240), 거리 연산기(244), 거리 테이블(246), 안전 기준(252) 및/또는 안전 비교기(248). 검출기 렌즈 제어기(245), 조명 모터 제어기(239), 및/또는 이미지 모터 제어기와 같은 다른 구성 요소들이 또한 소프트웨어가 아니라 하드웨어로 구현될 수 있다.
범용 프로세서, 전용 프로세서 및/또는 특수 프로세서에서 실행되는 소프트웨어로 구현될 수 있는 카메라(110)의 구성 요소는 예를 들어 이미지 프로세서(208), 비디오 인코더(214) 및/또는 카메라 제어기(210)를 포함한다. 이들 구성 요소는 (도 2a의 점선 표시된) 데이터 경로(218)에 연결되어 카메라(110)의 소프트웨어 및/또는 하드웨어 구성 요소가 서로 통신할 수 있게 한다. 예를 들어, 카메라 제어기(210)는 데이터 경로(218)를 통해 검출기 렌즈 제어기(245)에 명령하여 검출기 렌즈 모터(243)로 렌즈(241)를 이동시킨다. 카메라 제어기(210)는 거리 연산기(244)로부터 연산된 거리를 수신할 수 있다. 카메라 제어기(210), 비디오 엔코더(214), 및 이미지 프로세서(208)는 또한 카메라 센서 어레이(204)로부터 이미지 데이터를 수신할 수 있다.
카메라 센서 어레이(204)는 센서 어레이(204)에 입사하는 방사선 (예를 들어, 광)을 나타내는 (예를 들어, 속성 또는 특성을 기술하는) 데이터를 출력한다. 도 2a에 도시된 바와 같이, 센서 어레이(204)는 카메라(110) 내의 다른 구성요소가 처리할 데이터를 데이터 경로(218) 상에 출력한다. 센서 어레이(204)로부터 출력된 데이터는 센서 어레이(204) 내의 하나 이상의 픽셀에 입사하는 광의 세기 (예를 들어, 휘도), 컬러 등과 같은 정보를 포함할 수 있다. 센서 어레이(204)에 입사하는 광은 광학 체인(202)의 렌즈의 결과로서 광이 집중될 수 있다는 점에서 "이미지"일 수 있다.
센서 어레이(204)는 센서 어레이(204) 상에 입사하는 전자기 방사선 (예를 들어, 광)을 감지하고 이 방사선을 다차원 데이터 신호로 변환하기 때문에 "이미지 센서"로 간주될 수 있다. 본 명세서에서 이 용어가 사용되는 바와 같이, "이미지"는 센서 어레이(204)에 입사하는 방사선을 나타내는 (예를 들어, 빛의 속성 또는 특성을 기술하는) 데이터를 포함한다. 따라서, "이미지"라는 용어는 "이미지 센서 데이터" 또는 이미지를 기술하는 데이터 또는 데이터 세트를 의미하는 것으로 사용될 수 있다.
비디오 인코더(214)는 모니터링 스테이션(130)과 같은 카메라(110) 내의 다른 구성 요소 또는 환경(100) 내의 다른 장치로의 전송을 위해 이미지 센서 데이터를 인코딩할 수 있다. 비디오 인코더(214)는 ISO/MPEG 또는 ITU-H.26X 계열의 비디오 코딩 표준과 같은 비디오 코딩 기술을 이용할 수 있다.
카메라 제어기(210) 및/또는 이미지 프로세서(208)는 센서 어레이(204)에 의해 캡처된 이미지 데이터에 신호 처리 동작을 수행한다. 제어기(210) 및/또는 이미지 프로세서(208)는 명령을 해석하고 실행하는, 임의 유형의 단일 코어 또는 멀티 코어 프로세서, 마이크로프로세서, 래치 기반의 프로세서, 및/또는 프로세싱 로직 (또는 프로세서 계열, 마이크로프로세서 및/또는 프로세싱 로직)을 포함할 수 있다. 제어기(210) 및/또는 이미지 프로세서(208)는 그래픽 처리 유닛((GPU), 범용 그래픽 처리 유닛(GPGPU), 셀, 필드 프로그래머블 게이트 어레이(FPGA), 주문형 반도체 회로 (ASIC), 및/또는 다른 유형의 집적 회로 또는 처리 로직과 같은 하드웨어 가속기를 포함하거나 이에 결합될 수 있다.
제어기(210)는 카메라(110)의 원하는 초점과 위치 (예를 들어, 틸트 및 줌)를 결정 및 제어한다. 이를 위해, 제어기(210)는 이미지 모터 제어기(270)에 명령을 보내 모터(220)를 구동시켜 카메라(110)를 틸트 및/또는 팬(pan)하거나 렌즈(212)를 광학적으로 줌(zoom)하도록 할 수 있다. 도 2b는 카메라 제어기(210) 및/또는 이미지 프로세서(208)의 예시적인 구성 요소를 나타내는 블록도이다. 도 2b에서 나타낸 바와 같이, 카메라 제어기(210) 및/또는 이미지 프로세서(208)는 자동 초점 로직(280), 객체 인식 로직(282) 및/또는 사람 인식 로직(284)을 포함한다.
자동 초점 로직(280)은 카메라 렌즈 어셈블리(116)의 원하는 초점을 제어한다 (예를 들어, 제어할 알고리즘을 포함한다). 일 실시예에서, 자동 초점 알고리즘은 콘트라스트에 기초하고 (예를 들어, 거리 연산기(244)로부터의) 연산된 거리는 알고리즘에 대한 상한과 하한을 설정하는 데에 사용된다. 하한과 상한 간의 차이는 수신된 신호의 신호 강도에 기초하여 설정되므로 저 신호 품질이 큰 차이 (넓은 범위)를 초래하고 높은 신호 품질이 작은 차이 (좁은 범위)를 초래하게 된다.
객체 인식 로직(282)은 (객체(102)와 같은) 이미지의 객체 및 이미지의 객체의 경계를 검출할 수 있다. 사람 인식 로직(284)은 이미지에서 예를 들어, 사람 및/또는 사람의 얼굴을 검출할 수 있다.
메모리(209)는 정보 및/또는 명령들을 저장하는 임의 유형의 휘발성 및/또는 비휘발성 저장 장치를 포함할 수 있다. 메모리(209)는 랜덤 액세스 메모리(RAM) 또는 임의 유형의 동적 저장 장치, 판독 전용 메모리(ROM) 장치 또는 임의 유형의 정적 저장 장치, 자기 또는 광학 기록 메모리 장치 및 그 대응 드라이브, 또는 착탈 가능식 메모리 장치를 포함할 수 있다. 메모리(209)는 카메라(110)에 의해 사용하기 위한 정보와 명령들 (예를 들어, 애플리케이션 및/또는 운영 시스템) 및 데이터 (예를 들어, 애플리케이션 데이터)를 저장할 수 있다.
메모리(209)는 제어기(210) 및/또는 이미지 프로세서(208)에 의해 실행하기 위한 명령을 저장할 수 있다. 소프트웨어 명령은 다른 컴퓨터 판독 가능 매체 또는 다른 장치로부터 메모리(209)로 판독될 수 있다. 소프트웨어 명령은 제어기(210) 및/또는 이미지 프로세서(208)가 본 명세서에서 설명된 프로세스를 수행하게 할 수 있다. 예를 들어, 카메라(110)는 메모리(209)에 저장된 소프트웨어 명령을 실행하는 제어기(210) 및/또는 이미지 프로세서(208)에 응답하여 이미지 처리 (예를 들어, 객체를 인코딩, 트랜스코딩, 검출하는 등)에 관련된 동작을 실행한다. 다르게, 하드와이어드 회로 (예를 들어, 로직)는 본 명세서에서 설명된 프로세스를 구현하기 위해 소프트웨어 명령 대신 또는 소프트웨어 명령과 함께 사용될 수 있다.
통신 인터페이스(216)는 입력 및/또는 출력 포트, 입력 및/또는 출력 시스템, 및/또는 다른 장치로의 데이터 전송을 용이하게 하는 다른 입력 및 출력 구성 요소를 포함하는 회로 및 로직 회로를 포함한다. 예를 들어, 통신 인터페이스(216)는 유선 통신용 네트워크 인터페이스 카드 (예를 들어, 이더넷 카드) 또는 무선 통신용 무선 네트워크 인터페이스 (예를 들어, WiFi) 카드를 포함할 수 있다.
도 2a 및 2b는 카메라(110)의 예시적인 구성 요소를 도시하지만, 다른 구현 예에서, 카메라(110)는 도 2a 및 2b에 도시된 것보다 추가적인 구성 요소, 더 적은 구성 요소, 상이한 구성 요소 및/또는 상이하게 배치된 구성 요소를 포함할 수 있다. 추가적으로 또는 대안으로, 카메라(110)의 하나 이상의 구성 요소는 카메라(110)의 하나 이상의 다른 구성 요소에 의해 수행되는 것으로 기술된 기능을 수행할 수 있다. 예를 들어, 제어기(210)는 이미지 프로세서(208)에 의해 실행되는 것으로 기술된 기능을 실행하고, 이와 반대로도 실행할 수 있다. 선택적으로 또는 부가적으로, 카메라(110)는 도 3과 관련하여 후술되는 컴퓨팅 모듈을 포함할 수 있다. 일 실시예에서, 카메라(110)는 카메라(110)를 패닝(panning), 틸팅(tilting) 및 주밍(zooming)하기 위한 하나 이상의 모터 제어기 (예를 들어, 3 개) 및 하나 이상의 모터(220) (예를 들어 3 개)를 포함할 수 있다.
도 3은 일 실시예에서 컴퓨팅 모듈(300)의 예시적인 구성 요소를 도시하는 블록도이다. 카메라(110), 이미지 프로세서(208), 카메라 제어기(210) 및/또는 모니터링 스테이션(130)과 같은 장치들은 하나 이상의 컴퓨팅 모듈들(300)을 포함할 수 있다. 도 3에 도시된 바와 같이, 컴퓨팅 모듈(300)은 버스(310), 프로세서(320), 메모리(330) 및/또는 통신 인터페이스(360)를 포함할 수 있다. 일부 실시예에서, 컴퓨팅 모듈(300)은 또한 입력 장치(340) 및/또는 출력 장치(350)를 포함할 수 있다.
버스(310)는 컴퓨팅 모듈(300) 또는 다른 장치들의 구성 요소들 간의 통신을 허용하는 경로를 포함한다. 프로세서(320)는 명령을 해석하고 실행하는 임의 유형의 단일 코어 프로세서, 멀티 코어 프로세서, 마이크로프로세서, 래치 기반 프로세서 및/또는 프로세싱 로직 (또는 프로세서, 마이크로프로세서 및/또는 프로세싱 로직의 계열)을 포함할 수 있다. 프로세서(320)는 ASIC, FPGA, 및/또는 다른 유형의 집적 회로 또는 프로세싱 로직을 포함할 수 있다. 프로세서(320)는 GPU, GPGPU, 셀, FPGA, ASIC 및/또는 다른 유형의 집적 회로 또는 처리 로직과 같은 하드웨어 가속기를 포함하거나 그에 결합될 수 있다.
메모리(330)는 정보 및/또는 명령들을 저장하는 임의 유형의 휘발성 및/또는 비휘발성 저장 장치를 포함할 수 있다. 메모리(330)는 RAM 또는 임의 유형의 동적 저장 장치, ROM 또는 임의 유형의 정적 저장 장치, 자기 또는 광학 기록 장치 및 그 대응 드라이브, 또는 착탈식 메모리 장치를 포함할 수 있다. 메모리(330)는 프로세서(320)에 의한 사용을 위해 정보 및 명령들 (예를 들어, 애플리케이션 및 운영 시스템) 및 데이터 (예를 들어, 애플리케이션 데이터)를 저장할 수 있다.
메모리(330)는 프로세서(320)에 의한 실행을 위한 명령을 저장할 수 있다. 소프트웨어 명령은 다른 컴퓨터 판독 가능 매체 또는 다른 장치로부터 메모리(330)로 판독될 수 있다. 소프트웨어 명령은 프로세서(320)가 본 명세서에서 설명된 프로세스를 수행하게 할 수 있다. 대안으로, 하드와이어드 회로 (예를 들어, 로직)는 소프트웨어 명령 대신에 또는 소프트웨어 명령과 함께 사용되어 본 명세서에 기술된 프로세스들을 구현할 수 있다.
운영 체제는 컴퓨팅 모듈(300)의 하드웨어 및 소프트웨어 자원을 관리하기 위한 소프트웨어 명령을 포함할 수 있다. 예를 들어, 운영 체제는 Linux, Windows, OS X, Android, 내장 운영 체제 등을 포함할 수 있다. 애플리케이션 및 애플리케이션 데이터는 특정 컴퓨팅 모듈(300)이 발견되는 장치에 따라 네트워크 서비스를 제공하거나 애플리케이션을 포함할 수 있다.
통신 인터페이스(360)는 컴퓨팅 모듈(300)이 다른 구성 요소, 장치 및/또는 시스템과 통신할 수 있게 하는 송신기 및/또는 수신기 (예를 들어, 송수신기)를 포함할 수 있다. 통신 인터페이스(360)는 무선 통신 (예를 들어, 무선 주파수, 적외선 등), 유선 통신, 또는 이들의 조합을 통해 통신할 수 있다. 통신 인터페이스(360)는 기저 대역 신호를 무선 주파수(RF) 신호로 또는 그 반대로 변환하는 트랜시버를 포함할 수 있으며 안테나에 연결될 수 있다.
통신 인터페이스(360)는 입력 및/또는 출력 포트, 입력 및/또는 출력 시스템, 및/또는 다른 장치로의 데이터 전송을 용이하게 하는 다른 입력 및 출력 구성 요소를 포함하는 논리적 구성 요소를 포함할 수 있다. 예를 들어, 통신 인터페이스(360)는 유선 통신용 네트워크 인터페이스 카드 (예를 들어, 이더넷 카드) 또는 무선 통신용 무선 네트워크 인터페이스 (예를 들어, WiFi) 카드를 포함할 수 있다.
일부 장치는 입력 장치(340)와 출력 장치(350)를 포함할 수 있다. 입력 장치(340)는 사용자가 컴퓨팅 모듈(300)에 정보를 입력할 수 있게 한다. 입력 장치(370)는 키보드, 마우스, 펜, 마이크로폰, 카메라, 터치 스크린 디스플레이 등을 포함할 수 있다.
출력 장치(350)는 사용자에게 정보를 출력할 수 있다. 출력 장치(350)는 디스플레이, 프린터, 스피커 등을 포함할 수 있다. 입력 장치(340) 및 출력 장치(350)는 사용자가 컴퓨팅 모듈(300)에 의해 실행되는 애플리케이션과 상호 작용할 수 있게 한다. (배치된 원격 카메라 등과 같은) "헤드리스" 장치의 경우, 입력 및 출력은 주로 입력 장치(340) 및 출력 장치(350) 보다는 통신 인터페이스(360)를 통해 이루어진다.
카메라(110)가 컴퓨팅 모듈(300)로 구현되면, (도 2a와 관련하여 설명된) 데이터 경로(218)는 버스(310)를 포함한다. 이 구현 예에서, 비디오 인코더(214), 이미지 프로세서(208), 및/또는 카메라 제어기(210)는 예를 들어, GPU, GPGPU, 셀, FPGA 및/또는 ASIC를 포함할 수 있다. 또한, 일 실시예에서, 컴퓨팅 모듈(300) (예를 들어, 프로세서(320))은 도 2a 및 도 2b에 도시된 카메라(110)의 기능 중 임의의 기능을 수행할 수 있다. 또한, 이 구현에서, 통신 인터페이스(216)(도 2a)는 예를 들어 통신 인터페이스(360)(도 3)로서 구현될 수 있다.
컴퓨팅 모듈(300)은 데이터 수신, 송신 및/또는 처리를 돕는 다른 구성 요소(미도시)를 포함할 수 있다. 또한, 컴퓨팅 모듈(300)의 구성 요소의 다른 구성도 가능하다. 다른 구현 예에서, 컴퓨팅 모듈(300)은 도 3에 도시된 것보다 적은 수의 구성 요소, 다른 구성 요소, 추가의 구성 요소, 또는 상이하게 배치된 구성 요소를 포함할 수 있다. 부가적으로 또는 대안적으로, 컴퓨팅 모듈(300)의 하나 이상의 구성 요소는 컴퓨팅 모듈(300)의 하나 이상의 다른 구성 요소에 의해 수행되는 것으로 기술된 하나 이상의 태스크를 수행할 수 있다.
도 4는 환경(100A)과 유사하지만 모니터된 영역(106)에 객체(102)로 사람(406)을 가지는 예시적인 환경(400)의 블록도이다. 환경(400)은 도 5의 흐름도로서 도시된 프로세스(500)를 설명하기 위해 사용된다. 프로세스(500)는 카메라(110)에서 또는 카메라(110)에 의해 실행될 수 있으며, 도 4의 다음 예와 함께 설명된다: 사람(406) (즉, 객체(102))은 모니터된 영역(106) 내에 서 있고; 카메라 렌즈 어셈블리(116)는 시야(408)에 초점을 맞추고; 조명원(112)은 조명 광(104)으로 조명 필드(404)를 조명하고; 센서(114)가 검출 필드(405)에 또한 초점을 맞추기 때문에 센서(114)는 반사된 광(105) (즉, 사람(406)에서 반사된 조명 광(104))을 검출한다.
프로세스(500)는 광원의 특성을 변조하기 위한 기준 신호를 생성함으로써 (블록 502) 시작한다. 도 2a를 참조하면, 기준 신호 생성부(230)는 기준 신호를 생성한다. 기준 신호는 예를 들어 정현파일 수 있다. 변조 신호에 대한 다른 가능성은 치핑 기준 신호를 포함할 수 있다.
광원(234)이 인에이블되어 있지 않으면(블록 504: 아니오), 광원 구동기(232)는 광원(234)을 구동하지 않고 카메라(110)로부터 어떠한 조명 신호도 방출되지 않는다. 광원(234)이 인에이블되지 않은 예는 안전 비교기(248)가 NOT ENABLE 신호를 광원 구동기(232)에 출력할 때이다. 안전 비교기(248)는 예를 들어 사람에게 입사한 광의 강도를 고려해 볼 때 사람이 카메라(110)에 너무 가깝다고 안전 비교기(248)가 결정하면 NOT ENABLE 신호를 출력할 수 있다. 다른 실시예에서, 광원 구동기(232)는 조명 광(104)의 강도가 허용 가능한 안전 범위 내에 있도록 (즉, 조명원(112)을 전혀 방출하지 않는 것 보다는) 감소시킬 수 있다.
한편, 광원(234)이 인에이블되면 (블록 504: YES), 광원 구동기(232)는 기준 신호 생성기(230)로부터 출력된 기준 신호에 따라 광원(234) (예를 들어, 레이저)을 구동한다(블록(508)). 즉, 광원 구동기(232)는 기준 신호에 따라 광원(234) (예를 들어, 레이저)의 특성을 변조한다. 인에이블되는 광원(234)의 예는 안전 비교기(248)가 광원 구동기(232)에 ENABLE 신호를 출력할 때이다. 안전 비교기(248)는 예를 들어, 조명 광(104)의 강도를 고려해 볼 때 임의의 사람이 카메라로부터 충분히 멀리 떨어져 있다고 안전 비교기(248)가 결정하면 ENABLE 신호를 출력할 수 있다.
다시 도 2a를 참조하면, 광원(234) (예를 들어, 레이저)은 광원 구동기(232)에 의해 구동되는 근적외선을 방출할 수 있다. 광원 구동기(232)는 기준 신호 생성기(230)에 의해 생성된 기준 신호에 기초하는 광원(234)에 의해 방출되는 광의 강도를 변조한다. 즉, 근적외선 주파수는 기준 신호의 반송파이다. 변조의 결과로서, 광원(234)에 의해 방출된 광의 강도는 시간에 따라 변할 수 있다. 일 실시예에서, 변조는 광의 세기를 1/10 또는 1/20로 변경하는 것을 포함한다. 기준 신호에 따라, 변조는 칩핑(chipping), 주파수 변조 및/또는 진폭 변조를 포함할 수 있다. 예를 들어, 강도 변화의 빈도가 변할 수 있고/있거나 강도의 진폭이 변할 수 있다.
광원(234)으로부터 광이 발산될 수 있다(블록 510). 이 실시예에서, 렌즈(235)는 광원(234) (예를 들어, 레이저 광)으로부터 광을 확산시킨다. 조명 모터 제어기(239)는 조명 연산의 거리 및/또는 필드에 따라 레이저 광의 발산 정도를 결정할 수 있다. 그 다음, 조명 모터 제어기(239)는 조명 렌즈 모터(237)에 렌즈(235)를 이동시키도록 명령할 수 있다. 도 4에 도시된 바와 같이, 사람(406)을 포함하는 조명 필드(404)는 조명 광(104)으로 조명된다(블록 512). 조명 광(104)은 또한 송신 신호(104)로 지칭될 수 있다.
조명 광(104) (송신 신호(104))은 하나 이상의 객체를 반사하여 센서(114)에 의해 수신된다(블록 514). 도 4를 참조하면, 조명 광(104)은 반사된 광(105)으로 사람(406)에서 반사하여, 검출기 렌즈(241)를 통과하여 검출기(240)에 입사한다. 이 예에서, 검출기 렌즈(241)에 대한 검출 필드(405)는 조명 필드(404)와 일치한다. 센서(114)의 검출 필드(405)는 검출기 렌즈 제어기(245)에 의해 결정되어 검출기 렌즈 모터(243)가 렌즈(241)를 이동시키도록 명령한다. 반사된 광(105)은 또한 "반사된 신호(105)" 또는 "수신된 신호(105)"로 지칭될 수 있다.
반사된 신호(105)가 약하기 때문에, 검출기(240)의 출력이 또한 약할 수 있고, 검출기(240)의 출력은 증폭기(242)에 의해 증폭된다. 이 구현 예에서, 검출기(240)의 출력은 검출기(240)에 충돌하는 광의 강도에 비례하는 아날로그 신호이다. 즉, 검출기(240)는 캐리어 주파수 (예를 들어, 근적외선 주파수)를 제거함으로써 반사된 신호(105)를 효과적으로 복조한다. 또한, 증폭기(242)의 출력은 잡음을 제거하고 원하는 주파수 (예를 들어, 기준 신호에 대응하는 주파수)를 분리하기 위해 대역 통과 필터(238)에 의해 필터링될 수 있다. 대역 통과 필터(238)의 출력은 "복조된 신호"로 지칭될 수 있다.
프로세스(500)는 수신된 신호 (예를 들어, 대역 통과 필터(238)로부터 출력된 복조 신호)와 송신 신호 (예를 들어, 기준 신호)의 비교(블록 516)가 이어진다. 이 구현 예에서, 신호 비교기(236)의 출력은 조명 광(104)을 반사시킨 객체까지의 거리에 비례한다. 기준 신호와 복조 신호를 비교하기 위해 다른 기술이 사용될 수 있다. 예를 들어, 기준 신호가 정현파인 경우, 신호 비교기(236)(예를 들어, 간섭계)는 객체(102)까지의 거리에 비례하는 기준 신호와 복조 신호 간의 위상 차를 출력할 수 있다. 다른 실시예에서, 기준 신호가 펄스를 포함하면, 펄스의 전파 시간은 객체(102)까지의 거리에 비례한다.
객체까지의 거리가 연산된다(블록 518). 신호 비교기(236)가 예를 들어 위상 차를 출력하면, 거리 연산기(244)는 거리 테이블(246)에 액세스하여 위상 차에 기초하는 사람(406)까지의 대응 거리 (또는 거리들)를 결정할 수 있다. 거리가 모호한 경우(즉, 하나 이상의 합리적인 솔루션), 모호성을 해결하기 위해 기준 신호가 (예를 들어, 상이한 주파수로) 변경될 수 있다. 이는 모호성을 해결하기 위한 방법으로 서로 다른 고조파가 아닌 여러 변조 주파수의 조합을 사용하는 것을 포함할 수 있다.
신호 비교기(236)가 예를 들어, 전파 시간을 출력하면, 거리 연산기(244)는 거리 테이블(246)에 액세스하여 전파 시간에 기초하는 사람(406)까지의 대응 거리를 결정할 수 있다.
거리 임계치가 결정된다(블록 520). 사람(406)까지의 거리가 임계치보다 작은 경우(블록 522: 예), 조명 광(104)의 강도 (또는 평균 강도)가 그에 따라 낮아질 수 있다(블록 524). 안전 비교기(248)가 사람(406)까지의 거리와 안전 기준(252)의 비교를 실행한다. 일 실시예에서, 사람(406)까지의 거리가 임계치보다 작으면 안전 비교기(248)는 NOT ENABLE을 출력하여 광원 구동기(232)를 디스에이블 시키며, 이는 광원(234)을 턴오프하고 조명 광(104)을 제거시킨다. 다른 실시예에서, 안전 비교기(248)는 사람이 (블록 518에서 연산된) 연산 거리에 있다고 가정할 때 위험하지 않도록 광원 구동기(232)가 조명 광(122)의 강도를 감소시키도록 하는 신호를 출력한다. 강도가 낮아지면, 프로세스(500)는 후술되는 블록(526)으로 진행할 수 있다.
객체(406)까지의 거리가 임계치보다 큰 경우(블록 522: 예), 송신 신호의 강도는 낮추지 않고, 렌즈 제어기(270)는 연산된 거리에 따라 렌즈(212)에 초점을 맞추라고 렌즈 모터(272)에 명령한다(블록 522). 즉, 프로세스(500)는 연산된 거리를 자동 초점 알고리즘을 위한 기준점으로 사용할 수 있다. 또한, 이미지가 캡처될 수 있다(블록 528). 도 4의 예에서, 프로세스(500)는 카메라(110)에서 조명 광(104) (즉, 송신 신호(104))에 의해 조명된 시야를 포함하는 이미지를 캡처한다. 일 실시예에서, 본 명세서에서 설명된 방법 및 시스템은 반드시 이미지를 캡처하지 않고 조명을 위해 사용될 수 있다. 즉, 하나의 장치 (예를 들어, 조명원(112) 및 센서(114)를 포함)는 조명을 제공할 수 있고, 별도의 장치는 이미지를 캡처하기 위한 카메라 렌즈 어셈블리(116)를 포함할 수 있다.
도 7은 다른 실시예에서 레이저로 거리를 측정하기 위한 프로세스(700)의 흐름도이다. 프로세스(700)는 일 실시예에서 객체, 경계 및 사람 인식을 설명하는, 도 6에 도시된 예에 관하여 설명된다. 프로세스(700)는 반사된 신호(105)가 이미지의 일부로서 수신될 때 반사된 신호를 수신하는 것에 대해 상세하게 설명한다 (블록 514).
프로세스(700)는 이미지의 캡처로 시작한다(블록 702). 도 6에 도시된 바와 같이, 카메라(110)는 시야(408)의 이미지(604)를 캡처한다 (도 4 참조). 즉, 카메라 렌즈 어셈블리(116)는 광학 체인(202) (즉, 렌즈(212))을 통해 반사된 광(105)을 수용하고 광(105)은 센서 어레이(204) (예를 들어, CCD 센서)에 입사한다. 이미지 데이터는 경로(218)를 통해 메모리(209)로 이동하고 이미지 프로세서 및/또는 카메라 제어기(210)에 의해 처리될 수 있다.
프로세스(700)는 이미지 내의 객체 및/또는 사람의 인식이 이어진다 (블록 704). 도 6의 예에서, 객체 인식 로직(282)은 이미지(604) 내의 사람일 수 있는 객체(102)를 인식한다. 객체 및/또는 사람이 검출되면, 객체 및/또는 사람의 경계가 결정될 수 있다(블록 706). 도 6에 도시된 바와 같이, 사람 얼굴의 경계(602)가 검출된다. 객체 및/또는 사람과 관련된 수신된 신호가 식별되고(블록 708), 복조된 신호로서 사용된다. 즉, 경계(602)의 내부와 관련된 센서 어레이(204)의 부분들의 세기 변동은 기준 신호와 비교하기 위해 복조 신호로서 사용될 수 있다(도 5의 블록 506). 이 경우, 프로세스(500)는 계속될 수 있다. 프로세스(700)는 또한 객체 및/또는 사람과 관련되지 않은 수신된 신호를 식별하고 수신된 신호의 부분들을 복조 신호로 사용하지 않는 것을 포함할 수 있다. 이 경우, 객체(102)까지의 거리의 연산은 기준 신호와 객체와 관련되지 않은 수신된 신호의 부분들 사이의 위상 차에 기초하지 않는다.
용어 "포함한다" 및 "포함"은 언급된 특징, 정수, 단계 또는 구성 요소의 존재를 특정하지만, 하나 이상의 다른 특징, 정수, 단계, 구성 요소 또는 그룹의 존재 또는 추가를 배제하지 않는다. "예시적인"이라는 단어는 하나 이상의 예의 예시, 설명을 위한 것으로 사용된다. 본 명세서에서 "예시적인" 것으로 설명된 임의의 실시예는 반드시 다른 실시예보다 바람직하거나 유리한 것을 의미하지는 않는다.
본 출원에서 사용되는 요소, 동작 또는 명령이 명시적으로 기술되지 않는 한 실시예에 대해 중요하거나 필수적이라고 해석되어서는 안 된다. 또한, 본 명세서에서 사용되는 바와 같이, 상기 물품 "a"는 하나 이상의 물품을 포함하는 것으로 의도된다. 또한, "~에 기반하는"이라는 문구는 명시적으로 다르게 명시되지 않는 한, "적어도 부분적으로 기반하는" 것을 의미하는 것이다.

Claims (15)

  1. 송신 신호를 생성하기 위해 기준 신호로 레이저의 특성을 변조하는 단계;
    상기 송신 신호로 조명 필드를 조명하도록 상기 송신 신호를 발산하되, 상기 조명 필드는 객체를 포함하는 단계;
    상기 조명 필드 및 상기 객체로부터 반사된 신호를 센서에서 수신하는 단계;
    상기 수신된 신호의 위상을 상기 기준 신호의 위상과 비교하는 단계; 및
    상기 비교에 기초하여 상기 객체까지의 거리를 연산하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 위상을 비교하는 단계는:
    상기 수신된 신호와 상기 기준 신호 간의 위상 차를 측정하는 단계와, 상기 위상 차에 근거하여 상기 객체까지의 상기 거리를 연산하는 단계를 포함하는 방법.
  3. 제2항에 있어서, 상기 연산된 거리가 임계치 이하일 때 상기 송신 신호의 평균 강도를 낮추는 단계를 더 포함하고,
    상기 레이저의 특성을 변조하는 단계는 상기 레이저의 강도를 변조하는 단계를 포함하는 방법.
  4. 제2항에 있어서, 상기 센서에서 수신하는 단계는:
    카메라에서, 상기 송신 신호에 의해 조명된 시야를 포함하는 이미지를 캡처 하는 단계와,
    상기 이미지 내의 상기 객체의 경계들을 검출하는 단계와, 그리고
    상기 검출된 경계들에 기초하여 상기 객체와 관련된 상기 수신된 신호의 부분들을 식별하는 단계
    를 더 포함하고,
    상기 위상 차를 측정하는 단계는 상기 객체와 관련된 상기 수신된 신호의 상기 부분들과 상기 기준 신호 간의 위상 차를 측정하는 단계를 포함하고,
    상기 거리를 연산하는 단계는 상기 객체와 관련된 상기 수신된 신호의 상기 부분들과 상기 기준 신호 간의 상기 위상 차에 기초하여 상기 객체까지의 상기 거리를 연산하는 단계를 포함하는 방법.
  5. 제4항에 있어서,
    상기 객체가 사람이라고 결정하는 단계; 및
    상기 연산된 거리가 제1 임계치 이하이고 상기 객체가 상기 사람이라고 결정될 때 상기 레이저의 강도를 낮추는 단계
    를 더 포함하는 방법.
  6. 제5항에 있어서, 상기 객체의 경계들을 검출하는 단계는 상기 사람의 얼굴의 경계들을 검출하는 단계를 포함하는 방법.
  7. 제4항에 있어서, 상기 센서에서 수신하는 단계는:
    상기 송신 신호에 의해 조명되는, 상기 객체를 포함하는 상기 시야의 이미지를 카메라에서 캡처하는 단계를 더 포함하고, 상기 연산된 거리는 자동 초점 알고리즘을 위한 기준 점으로 사용되는 방법.
  8. 제7항에 있어서, 상기 자동 초점 알고리즘은 콘트라스트 기반이며 상기 연산된 거리는 상기 자동 초점 알고리즘에 대해 하한 및 상한을 설정하는 데에 사용되고,
    상기 하한과 상한 사이의 차이는 상기 수신된 신호의 신호 강도에 기초하므로 로우 신호 강도가 하이 신호 강도보다 더 큰 차이를 초래하는 방법.
  9. 레이저;
    송신 신호를 생성하기 위해 기준 신호로 상기 레이저의 특성을 변조하는 구동기;
    상기 송신 신호로 조명 필드를 조명하도록 상기 송신 신호를 발산시키되, 상기 조명 필드는 객체를 포함하는 렌즈;
    상기 조명 필드 및 상기 객체로부터 반사된 신호를 수신하는 센서;
    상기 수신된 신호의 위상과 상기 기준 신호의 위상을 비교하는 믹서; 및
    상기 비교에 기초하여 상기 객체까지의 거리를 연산하는 프로세서
    를 포함하는 장치.
  10. 제9항에 있어서, 상기 믹서는 상기 수신된 신호와 상기 기준 신호 간의 위상 차를 측정하도록 구성되고, 상기 프로세서는 상기 위상 차에 기초하여 상기 객체까지의 상기 거리를 연산하도록 구성되는 장치.
  11. 제10항에 있어서, 상기 구동기는 상기 연산된 거리가 임계치 이하일 때 상기 송신 신호의 평균 강도를 낮추도록 구성되거나,
    상기 구동기는 상기 레이저의 강도를 변조하도록 구성되는 장치.
  12. 제10항에 있어서,
    상기 송신 신호에 의해 조명된 시야를 포함하는 이미지를 캡처하는 카메라를 더 포함하고,
    상기 프로세서는 상기 이미지 내의 상기 객체의 경계들을 검출하고 상기 검출된 경계들에 기초하여 상기 객체와 관련된 상기 수신된 신호의 부분들을 식별하도록 구성되며,
    상기 믹서는 상기 객체와 관련된 상기 수신된 신호의 상기 부분들과 상기 기준 신호 간의 위상 차를 측정하도록 구성되며,
    상기 프로세서는 상기 객체와 관련된 상기 수신된 신호의 상기 부분들과 상기 기준 신호 간의 상기 위상 차에 기초하여 상기 객체까지의 거리를 연산하도록 구성되는 장치.
  13. 제12항에 있어서, 상기 프로세서는 상기 객체가 사람이라고 결정하거나 상기 프로세서는 상기 사람의 얼굴의 경계들을 검출하고;
    상기 구동기는 상기 연산된 거리가 제1 임계치 이하일 때 및 상기 객체가 상기 사람이라고 상기 프로세서가 결정할 때 상기 레이저의 강도를 낮추는 장치.
  14. 제12항에 있어서, 상기 카메라는 상기 송신 신호에 의해 조명되는, 상기 객체를 포함하는 상기 시야의 이미지를 캡처하도록 구성되고, 상기 연산된 거리는 자동 초점 알고리즘에 대한 기준 점으로 사용되는 장치.
  15. 제14항에 있어서,
    상기 자동 초점 알고리즘은 콘트라스트 기반이며 상기 연산된 거리는 상기 자동 초점 알고리즘에 대해 하한 및 상한을 설정하는 데에 사용되고,
    상기 하한과 상한 사이의 차이는 상기 수신된 신호의 신호 강도에 기초하므로 로우 신호 강도가 하이 신호 강도보다 더 큰 차이를 초래하는 장치.
KR1020180163878A 2017-12-29 2018-12-18 레이저 거리 측정 및 조명 KR102195525B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/858,008 US10721393B2 (en) 2017-12-29 2017-12-29 Laser ranging and illumination
US15/858,008 2017-12-29
EP18156609.2 2018-02-14
EP18156609.2A EP3505953B1 (en) 2017-12-29 2018-02-14 Laser ranging and illumination

Publications (2)

Publication Number Publication Date
KR20190082097A true KR20190082097A (ko) 2019-07-09
KR102195525B1 KR102195525B1 (ko) 2020-12-28

Family

ID=61223779

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180163878A KR102195525B1 (ko) 2017-12-29 2018-12-18 레이저 거리 측정 및 조명

Country Status (6)

Country Link
US (1) US10721393B2 (ko)
EP (1) EP3505953B1 (ko)
JP (1) JP6937735B2 (ko)
KR (1) KR102195525B1 (ko)
CN (1) CN109990757B (ko)
TW (1) TWI722353B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145473A1 (ko) * 2020-01-14 2021-07-22 엘지전자 주식회사 이동 단말기 및 그의 제어 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049676A1 (ja) * 2018-09-06 2020-03-12 日本電気株式会社 処理装置、システム、方法及び非一時的なコンピュータ可読媒体
US10855929B1 (en) * 2019-06-27 2020-12-01 Guangdong Outdoor Technology Limited. Monitoring method of monitoring camera and monitoring camera
TWI704366B (zh) * 2019-10-17 2020-09-11 城市學校財團法人臺北城市科技大學 物聯網雷射空間測距機
US11891067B2 (en) * 2019-12-11 2024-02-06 Electronics And Telecommunications Research Institute Vehicle control apparatus and operating method thereof
JP7242061B2 (ja) * 2020-01-28 2023-03-20 学校法人金沢工業大学 繊維強化プラスチックの接合方法
JP2021139682A (ja) * 2020-03-03 2021-09-16 キヤノン株式会社 テラヘルツ波カメラシステム、入出管理装置、テラヘルツ波カメラシステムの制御方法
US11886968B2 (en) * 2020-03-27 2024-01-30 Intel Corporation Methods and devices for detecting objects and calculating a time to contact in autonomous driving systems
WO2022079816A1 (ja) * 2020-10-14 2022-04-21 日本電気株式会社 光測距装置及び光測距方法
TWI745134B (zh) * 2020-10-26 2021-11-01 友達光電股份有限公司 控制雷射光的方法、控制系統及輸入裝置
KR102695727B1 (ko) * 2020-11-17 2024-08-16 한국과학기술원 전광 샘플링 기반 타이밍 검출기의 모호함 없는 거리를 늘리는 방법, 이를 이용한 거리 측정 방법 및 거리 측정 시스템
US11187803B1 (en) * 2021-01-23 2021-11-30 Michael H. Panosian Laser distance measurement device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077379A (ja) * 2003-09-03 2005-03-24 Denso Corp レーダ装置
US20070182528A1 (en) * 2000-05-08 2007-08-09 Automotive Technologies International, Inc. Vehicular Component Control Methods Based on Blind Spot Monitoring
KR20150086479A (ko) * 2012-11-21 2015-07-28 아바고 테크놀로지스 제너럴 아이피 (싱가포르) 피티이 리미티드 관심 객체에 관한 적응적 조명을 사용하는 깊이 이미징 방법 및 장치
JP2017097608A (ja) * 2015-11-24 2017-06-01 矢崎総業株式会社 画像認識装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09501120A (ja) * 1993-03-31 1997-02-04 オートモーティブ・テクノロジーズ・インターナショナル・インク 車両内乗員の位置・速度センサ
US6584283B2 (en) * 2001-02-02 2003-06-24 Eastman Kodak Company LED illumination device for a scannerless range imaging system
JP4166083B2 (ja) * 2002-12-26 2008-10-15 株式会社トプコン 測距装置
DE10343479A1 (de) 2003-09-19 2005-04-28 Bosch Gmbh Robert Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug
JP2007086596A (ja) 2005-09-26 2007-04-05 Pentax Corp カメラ
JP2007114831A (ja) * 2005-10-18 2007-05-10 Omron Corp 物体検出装置
US9854977B2 (en) * 2006-01-10 2018-01-02 Accuvein, Inc. Scanned laser vein contrast enhancer using a single laser, and modulation circuitry
WO2007099847A1 (ja) * 2006-03-03 2007-09-07 Matsushita Electric Industrial Co., Ltd. 照明光源及びレーザ投射装置
US7667598B2 (en) 2007-06-19 2010-02-23 Lockheed Martin Corporation Method and apparatus for detecting presence and range of a target object using a common detector
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8111383B1 (en) 2010-01-15 2012-02-07 Robert Foley Portable laser surveillance method of a point on a target
WO2012047125A1 (ru) * 2010-10-04 2012-04-12 Balanyuk Valerii Vasil Evich Лазерный дальномер
US10012474B2 (en) 2012-10-22 2018-07-03 Wilcox Industries Corp. Combined laser range finder and sighting apparatus having dual function laser and method
GB2526341A (en) * 2014-05-21 2015-11-25 Digital Metal Ab A flow cabinet system for cleaning at least one object
US9575184B2 (en) * 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
TWI526705B (zh) * 2014-12-17 2016-03-21 信泰光學(深圳)有限公司 雷射尺及其測量方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070182528A1 (en) * 2000-05-08 2007-08-09 Automotive Technologies International, Inc. Vehicular Component Control Methods Based on Blind Spot Monitoring
JP2005077379A (ja) * 2003-09-03 2005-03-24 Denso Corp レーダ装置
KR20150086479A (ko) * 2012-11-21 2015-07-28 아바고 테크놀로지스 제너럴 아이피 (싱가포르) 피티이 리미티드 관심 객체에 관한 적응적 조명을 사용하는 깊이 이미징 방법 및 장치
JP2017097608A (ja) * 2015-11-24 2017-06-01 矢崎総業株式会社 画像認識装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021145473A1 (ko) * 2020-01-14 2021-07-22 엘지전자 주식회사 이동 단말기 및 그의 제어 방법
US11263455B2 (en) 2020-01-14 2022-03-01 Lg Electronics Inc. Mobile terminal and method for controlling the same

Also Published As

Publication number Publication date
CN109990757A (zh) 2019-07-09
TW201937191A (zh) 2019-09-16
EP3505953B1 (en) 2020-09-09
CN109990757B (zh) 2021-06-29
TWI722353B (zh) 2021-03-21
JP2019144230A (ja) 2019-08-29
KR102195525B1 (ko) 2020-12-28
US10721393B2 (en) 2020-07-21
US20190208113A1 (en) 2019-07-04
JP6937735B2 (ja) 2021-09-22
EP3505953A1 (en) 2019-07-03

Similar Documents

Publication Publication Date Title
KR102195525B1 (ko) 레이저 거리 측정 및 조명
EP3223034B1 (en) Object detection apparatus and moveable apparatus
US9952047B2 (en) Method and measuring instrument for target detection and/or identification
US11397077B2 (en) Power and security adjustment for face identification with reflectivity detection by a ranging sensor
Kirmani et al. Looking around the corner using transient imaging
US10609285B2 (en) Power consumption in motion-capture systems
US9028072B2 (en) Laser projection system with security protection mechanism
KR101296780B1 (ko) 레이저를 이용한 장애물 감지장치 및 방법.
CN108226953A (zh) 一种基于双光束交替发射的针孔摄像头检测方法及装置
CN108320303A (zh) 一种基于双目探测的针孔摄像头检测方法
US20160212412A1 (en) Device, system and method for three-dimensional modeling
EP3701603B1 (en) Vcsel based biometric identification device
US10360423B2 (en) Image sensor with range and light-level detection
Slattery et al. ADI ToF Depth Sensing Technology: New and Emerging Applications in Industrial, Automotive Markets, and More
JP7508208B2 (ja) 撮像装置、撮像装置の制御方法、プログラム
US11588968B2 (en) System and method for determining an output of an electromagnetic wave based on image information
US20230384428A1 (en) Laser-safety control for lidar applications
US20240125938A1 (en) Optical system for obtaining 3d spatial information
US20110303832A1 (en) Spatial Detection on an Electronic Device Using Optical Coding
CN115308712A (zh) 用于在光学系统中定位组件的装置
CN118215858A (zh) 投影仪的眼睛安全性
JP2006090900A (ja) 発光体検出装置、発光体検出方法、及びプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant