KR102307610B1 - Apparatus for detecting depth map - Google Patents

Apparatus for detecting depth map Download PDF

Info

Publication number
KR102307610B1
KR102307610B1 KR1020200044061A KR20200044061A KR102307610B1 KR 102307610 B1 KR102307610 B1 KR 102307610B1 KR 1020200044061 A KR1020200044061 A KR 1020200044061A KR 20200044061 A KR20200044061 A KR 20200044061A KR 102307610 B1 KR102307610 B1 KR 102307610B1
Authority
KR
South Korea
Prior art keywords
light
area
unit
control unit
depth information
Prior art date
Application number
KR1020200044061A
Other languages
Korean (ko)
Other versions
KR20200043941A (en
Inventor
정성기
이기석
한경하
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140011787A external-priority patent/KR102101864B1/en
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020200044061A priority Critical patent/KR102307610B1/en
Publication of KR20200043941A publication Critical patent/KR20200043941A/en
Application granted granted Critical
Publication of KR102307610B1 publication Critical patent/KR102307610B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명의 한 실시예에 따른 깊이 정보 추출 장치는 IR(InfraRed) 광을 출력하는 광 출력부, 상기 광 출력부로부터 출력된 광이 상기 물체를 포함하는 제1 영역에 주사되도록 광의 각도를 조절한 후, 상기 제1 영역의 일부인 제2 영역에 주사되도록 광의 각도를 조절하는 광 조절부, 상기 광 출력부로부터 출력된 후 물체로부터 반사된 광이 입력되는 광 입력부, 그리고 상기 광 출력부로부터 출력된 광이 상기 제2 영역에 주사된 후 반사되어 상기 광 입력부에 입력되기까지 걸리는 비행 시간을 이용하여 상기 제2 영역 내의 깊이 정보를 추출하는 제어부를 포함한다.The apparatus for extracting depth information according to an embodiment of the present invention includes a light output unit that outputs IR (InfraRed) light, and adjusts the angle of light so that the light output from the light output unit is scanned into a first area including the object. Then, a light control unit for adjusting the angle of light to be scanned into a second area that is a part of the first area, a light input unit to which the light reflected from the object after being output from the light output unit is input, and the light output unit outputted from the light output unit and a controller configured to extract depth information in the second region by using a flight time taken for light to be reflected after being scanned into the second region and then input to the light input unit.

Description

깊이 정보 추출 장치{APPARATUS FOR DETECTING DEPTH MAP}Depth information extraction device {APPARATUS FOR DETECTING DEPTH MAP}

본 발명은 깊이 정보 추출에 관한 것으로, 보다 상세하게는 TOF(Time of Flight) 방식을 이용하여 깊이 정보를 추출하는 장치에 관한 것이다.The present invention relates to depth information extraction, and more particularly, to an apparatus for extracting depth information using a time of flight (TOF) method.

촬영 장치를 이용하여 3차원 영상을 획득하는 기술이 발전하고 있다. 3차원 영상을 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다.A technology for acquiring a three-dimensional image using a photographing device is developing. In order to acquire a 3D image, depth information is required. Depth information is information representing a distance in space, and represents perspective information of one point in a 2D image at another point.

깊이 정보를 획득하는 방법 중 하나는, IR(Infrared) 구조광을 객체에 투사하며, 객체로부터 반사된 광을 해석하여 깊이 정보를 추출하는 방식이다. IR 구조광 방식에 따르면, 움직이는 객체에 대하여 원하는 수준의 깊이 분해능(Depth resolution)을 얻기 어려운 문제가 있다.One of the methods for acquiring depth information is to project IR (Infrared) structured light onto an object, and extract the depth information by analyzing the light reflected from the object. According to the IR structured light method, there is a problem in that it is difficult to obtain a desired level of depth resolution for a moving object.

한편, IR 구조광 방식을 대체하는 기술로 TOF(Time of Flight) 방식이 주목받고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. Meanwhile, the TOF (Time of Flight) method is attracting attention as a technology to replace the IR structured light method. According to the TOF method, the distance to the object is calculated by measuring the time of flight, that is, the time the light is emitted and reflected.

일반적으로, TOF 방식에 따르는 카메라는 물체의 전면에 빛을 주사하며, 물체 내의 관심 영역에 대한 움직임을 파악한다. 이러한 경우, 관심 영역의 크기가 물체의 전면에 비하여 작거나, 관심 영역이 카메라로부터 멀리 떨어진 곳에 위치하는 경우, 관심 영역에 대한 해상도가 떨어지는 문제가 있다.In general, a camera according to the TOF method injects light into the front surface of an object, and detects movement of a region of interest within the object. In this case, when the size of the ROI is smaller than the front of the object or the ROI is located far from the camera, there is a problem in that the resolution of the ROI is reduced.

본 발명이 이루고자 하는 기술적 과제는 TOF 방식을 이용하여 깊이 정보를 추출하는 깊이 정보 추출 장치 및 방법을 제공하는 데 있다.An object of the present invention is to provide a depth information extraction apparatus and method for extracting depth information using a TOF method.

본 발명의 한 실시예에 따른 깊이 정보 추출 장치는 IR(InfraRed) 광을 출력하는 광 출력부, 상기 광 출력부로부터 출력된 IR 광이 제1 영역에 주사되도록 IR 광의 각도를 조절한 후, 상기 제1 영역 중 일부인 제2 영역에만 주사되도록 IR 광의 각도를 조절하는 광 조절부, IR 광이 입력되는 광 입력부, 그리고 상기 광 출력부로부터 출력된 IR 광이 상기 제2 영역에 주사된 후 반사되어 상기 광 입력부에 입력되기까지 걸리는 비행 시간을 이용하여 상기 제2 영역 내의 깊이 정보를 추출하는 제어부를 포함한다. In the depth information extraction apparatus according to an embodiment of the present invention, after adjusting the angle of the IR light so that the light output unit for outputting IR (InfraRed) light, the IR light output from the light output unit is scanned in a first area, the A light control unit that adjusts the angle of the IR light so as to be scanned only in the second area, which is a part of the first area, a light input unit to which the IR light is input, and the IR light output from the light output unit is reflected after being scanned in the second area and a control unit for extracting depth information in the second region using a flight time taken to be input to the light input unit.

상기 광 입력부는 각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 제어부는 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력되는 광량의 차를 이용하여 상기 비행 시간을 계산할 수 있다.The light input unit includes a plurality of pixels each including a first receiving unit and a second receiving unit, and the control unit uses a difference in the amount of light input to the first receiving unit and the second receiving unit to fly the flight. time can be calculated.

상기 제1 수신 유닛 및 상기 제2 수신 유닛은 시간 차를 두고 활성화될 수 있다. The first receiving unit and the second receiving unit may be activated with a time difference.

상기 제1 수신 유닛 및 상기 제2 수신 유닛은 상기 광 출력부에 포함되는 광원의 점멸 주기와 연동하여 활성화될 수 있다. The first receiving unit and the second receiving unit may be activated in association with a blinking period of a light source included in the light output unit.

상기 제1 수신 유닛은 상기 광원이 켜지는 동안 활성화되고, 상기 제2 수신 유닛은 상기 광원이 꺼지는 동안 활성화될 수 있다. The first receiving unit may be activated while the light source is turned on, and the second receiving unit may be activated while the light source is turned off.

상기 광 조절부는 상기 제1 영역을 스캔하는데 소요되는 시간과 동일한 시간 동안 상기 제2 영역만을 스캔하도록 설정될 수 있다. The light control unit may be set to scan only the second area for the same time as the time required to scan the first area.

상기 광 조절부는 광의 각도를 조절하는 MEMS(Micro Electro Mechanical System) 액츄에이터(actuator)를 포함하며, 상기 제2 영역만을 스캔하기 위한 상기 MEMS 액츄에이터의 동작 주기는 상기 제1 영역을 스캔하기 위한 상기 MEMS 액츄에이터의 동작 주기와 동일하게 설정될 수 있다.The light control unit includes a MEMS (Micro Electro Mechanical System) actuator for adjusting the angle of light, and the operation period of the MEMS actuator for scanning only the second area is the MEMS actuator for scanning the first area. may be set to be the same as the operation period of

상기 MEMS 액추에이터의 동작 주기 별 상기 제2 영역의 스캔 횟수는 상기 제1 영역의 스캔 횟수보다 많을 수 있다. The number of scans of the second region per operation period of the MEMS actuator may be greater than the number of scans of the first region.

상기 광 조절부는 광의 각도를 조절하는 MEMS(Micro Electro Mechanical System) 액츄에이터(actuator)를 포함하며, 상기 제2 영역만을 스캔하기 위한 상기 MEMS 액츄에이터의 동작 주기는 상기 제1 영역을 스캔하기 위한 상기 MEMS 액츄에이터의 동작 주기보다 짧게 설정될 수 있다.The light control unit includes a MEMS (Micro Electro Mechanical System) actuator for adjusting the angle of light, and the operation period of the MEMS actuator for scanning only the second area is the MEMS actuator for scanning the first area. It can be set shorter than the operation period of

상기 제어부는 타이밍 제어 유닛을 포함하고, 상기 타이밍 제어 유닛은 상기 MEMS 액츄에이터의 동작 주기를 제어할 수 있다. The control unit may include a timing control unit, and the timing control unit may control an operation period of the MEMS actuator.

상기 광 조절부는 상기 제1 영역을 스캔하는데 소요되는 시간보다 짧은 시간 동안 상기 제2 영역만을 스캔하도록 설정될 수 있다.The light control unit may be configured to scan only the second area for a shorter time than a time required to scan the first area.

본 발명의 실시예에 따르면, 연산량이 적으며, 깊이 분해능이 우수한 깊이 정보 추출 장치를 얻을 수 있다. 이에 따라, 깊이 정보 추출 장치의 소비 전력을 줄일 수 있으며, 물체의 거리를 정밀하게 추출할 수 있다.According to an embodiment of the present invention, it is possible to obtain an apparatus for extracting depth information having a small amount of computation and excellent depth resolution. Accordingly, power consumption of the apparatus for extracting depth information may be reduced, and the distance of an object may be precisely extracted.

도 1은 본 발명의 한 실시예에 따른 깊이 정보 추출 시스템의 블록도를 나타낸다.
도 2는 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 광 입력부의 구조를 나타낸다.
도 3은 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 깊이 정보 추출 원리를 나타낸다.
도 4는 본 발명의 한 실시예에 따른 깊이 정보 추출 장치가 전체 영역과 부분 영역을 스캔하는 예를 나타낸다.
도 5는 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 깊이 정보 추출 방법을 나타내는 흐름도이다.
도 6내지 8은 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 광 조절부를 위한 타이밍도를 예시한다.
1 is a block diagram of a system for extracting depth information according to an embodiment of the present invention.
2 shows the structure of an optical input unit of the apparatus for extracting depth information according to an embodiment of the present invention.
3 illustrates a depth information extraction principle of an apparatus for extracting depth information according to an embodiment of the present invention.
4 illustrates an example in which the apparatus for extracting depth information according to an embodiment of the present invention scans the entire area and the partial area.
5 is a flowchart illustrating a depth information extraction method of an apparatus for extracting depth information according to an embodiment of the present invention.
6 to 8 are timing diagrams for the light control unit of the apparatus for extracting depth information according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including an ordinal number such as second, first, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiment will be described in detail with reference to the accompanying drawings, but regardless of the reference numerals, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted.

도 1은 본 발명의 한 실시예에 따른 깊이 정보 추출 시스템의 블록도를 나타내고, 도 2는 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 광 입력부의 구조를 나타내며, 도 3은 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 깊이 정보 추출 원리를 나타낸다.1 is a block diagram of a depth information extraction system according to an embodiment of the present invention, FIG. 2 is a structure of an optical input unit of a depth information extraction apparatus according to an embodiment of the present invention, and FIG. 3 is a diagram of the present invention A depth information extraction principle of an apparatus for extracting depth information according to an embodiment is shown.

도 1을 참조하면, 깊이 정보 추출 시스템은 깊이 정보 추출 장치(100) 및 PC(200)를 포함한다. Referring to FIG. 1 , the depth information extraction system includes a depth information extraction apparatus 100 and a PC 200 .

깊이 정보 추출 장치(100)는 광 출력부(110), 광 조절부(120), 광 입력부(130) 및 제어부(140)를 포함한다.The apparatus 100 for extracting depth information includes a light output unit 110 , a light control unit 120 , a light input unit 130 , and a control unit 140 .

광 출력부(110)는 IR(infrared) 광을 출력한다. IR 광은, 예를 들면 800nm 이상의 파장 대역을 가지는 광일 수 있다. 광 출력부(110)는 광원(112) 및 광 변환 유닛(114)을 포함한다. 광원은 적외선을 투사하는 적어도 하나의 레이저 다이오드(Laser Diode, LD) 또는 발광 다이오드(Light Emitting Diode, LED)를 포함할 수 있다. 그리고, 광 변환 유닛(114)은 광원(112)으로부터 출력된 광을 변조(modulation)할 수 있다. 광 변환 유닛(114)은, 예를 들면 광원(112)으로부터 출력된 광을 펄스(pulse) 변조 또는 위상(phase) 변조할 수 있다. 이에 따라, 광 출력부(110)는 소정 간격으로 광원을 점멸시키며 출력할 수 있다.The light output unit 110 outputs IR (infrared) light. The IR light may be, for example, light having a wavelength band of 800 nm or more. The light output unit 110 includes a light source 112 and a light conversion unit 114 . The light source may include at least one laser diode (LD) or a light emitting diode (LED) that projects infrared rays. In addition, the light conversion unit 114 may modulate the light output from the light source 112 . The light conversion unit 114 may pulse-modulate or phase-modulate the light output from the light source 112 , for example. Accordingly, the light output unit 110 may output the light source while blinking at a predetermined interval.

광 조절부(120)는 물체를 포함하는 영역에 광이 주사되도록 광의 각도를 조절한다. 이를 위하여, 광 조절부(120)는 MEMS(Micro Electo Mechanical System) 액츄에이터(actuator)를 포함할 수 있다. MEMS는 마이크로 단위의 기계적 구조물과 전자회로가 집적되어 있는 시스템을 의미한다. 본 발명의 실시예에 따르면, MEMS 액츄에이터는 전기적인 신호를 이용하여 물체에 주사되는 광의 각도를 미세하게 조정할 수 있다. 예를 들면, MEMS 액츄에이터는 물체에 광을 주사하기 위하여 광의 경로를 조절하는 반사부재를 회전시킬 수 있다. The light control unit 120 adjusts the angle of the light so that the light is scanned in the area including the object. To this end, the light control unit 120 may include a MEMS (Micro Electro Mechanical System) actuator. MEMS refers to a system in which micro-scale mechanical structures and electronic circuits are integrated. According to an embodiment of the present invention, the MEMS actuator can finely adjust the angle of light injected into an object by using an electrical signal. For example, a MEMS actuator may rotate a reflective member that adjusts the path of light in order to inject light onto an object.

광 조절부(120)는 물체를 포함하는 전체 영역에 광이 주사되도록 광의 각도를 조절할 수 있다. 예를 들어 도 4(a)와 같이, 사람을 포함하는 전체 영역에 광이 주사되도록 광의 각도를 조절할 수 있다. 이에 따라, 광 출력부(110)로부터 출력된 광은 전체 영역을 픽셀 또는 라인 단위로 스캔할 수 있다. 그리고, 광 조절부(120)는 전체 영역의 일부인 부분 영역에 광이 주사되도록 광의 각도를 조절할 수도 있다. 예를 들어, 도 4(b)와 같이, 전체 영역 중 손을 포함하는 부분 영역에 광이 주사되도록 광의 각도를 조절할 수 있다. 이에 따라, 광 출력부(110)로부터 출력된 광은 부분 영역만을 픽셀 또는 라인 단위로 스캔할 수 있다. 초당 30frame의 속도로 스캔하는 경우, 첫번째 프레임에서는 전체 영역을 스캔하며, 나머지 프레임에서는 부분 영역을 스캔하도록 설정될 수 있다. The light control unit 120 may adjust the angle of the light so that the light is scanned over the entire area including the object. For example, as shown in FIG. 4A , the angle of light may be adjusted so that the light is scanned over the entire area including a person. Accordingly, the light output from the light output unit 110 may scan the entire area in units of pixels or lines. In addition, the light control unit 120 may adjust the angle of the light so that the light is scanned in a partial area that is a part of the entire area. For example, as shown in FIG. 4B , the angle of the light may be adjusted so that the light is scanned into a partial area including the hand among the entire area. Accordingly, the light output from the light output unit 110 may scan only a partial area in units of pixels or lines. When scanning at a rate of 30 frames per second, it may be set to scan the entire area in the first frame and scan a partial area in the remaining frames.

한편, 광 입력부(130)는 광 출력부(110)로부터 출력된 후 물체에 의하여 반사된 광을 입력 받는다. 광 입력부(130)는 입력 받은 광을 전기 신호로 변환할 수 있다. 광 입력부(130)는, 포토 다이오드(photo diode, PD) 또는 CMOS(complementary metal-oxide semiconductor)를 포함하는 이미지 센서일 수 있다. 도 2와 같이, 광 입력부(130)는 배열된 복수의 픽셀(pixel)(132)을 포함할 수 있다. 각 픽셀은 In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)을 포함할 수 있다. Meanwhile, the light input unit 130 receives the light reflected by the object after being output from the light output unit 110 . The optical input unit 130 may convert the received light into an electrical signal. The light input unit 130 may be an image sensor including a photo diode (PD) or a complementary metal-oxide semiconductor (CMOS). As shown in FIG. 2 , the light input unit 130 may include a plurality of arranged pixels 132 . Each pixel may include an In Phase receiving unit 132-1 and an Out Phase receiving unit 132-2.

제어부(140)는 깊이 정보 추출 장치(100)를 전반적으로 제어하며, 깊이 정보를 추출한다. 제어부(140)는 컨트롤러 칩(controller chip)으로 구현될 수 있다. 제어부(140)는 타이밍 제어 유닛(142), 변환 유닛(144), 신호 처리 유닛(146) 및 인터페이스 컨트롤러(148)을 포함할 수 있다. 타이밍 제어 유닛(142)은 광 출력부(110), 광 조절부(120), 광 입력부(130)의 시간을 제어한다. 예를 들어, 타이밍 제어 유닛(142)은 광 출력부(110)의 점멸 주기, 광 조절부(120)에 포함되는 MEMS 액츄에이터의 동작 주기 등을 제어할 수 있다. 변환 유닛(144)은 광 입력부(130)를 통하여 입력된 전기 신호를 디지털 신호로 변환한다. The controller 140 generally controls the depth information extraction apparatus 100 and extracts depth information. The controller 140 may be implemented as a controller chip. The controller 140 may include a timing control unit 142 , a conversion unit 144 , a signal processing unit 146 , and an interface controller 148 . The timing control unit 142 controls the time of the light output unit 110 , the light control unit 120 , and the light input unit 130 . For example, the timing control unit 142 may control the blinking cycle of the light output unit 110 , the operation cycle of the MEMS actuator included in the light control unit 120 , and the like. The conversion unit 144 converts the electrical signal input through the optical input unit 130 into a digital signal.

그리고, 신호 처리 유닛(146)은 광 출력부(110)로부터 출력된 광이 부분 영역에 주사된 후 반사되어 광 입력부(130)에 입력되기까지 걸리는 비행 시간(Time of Flight)을 이용하여 부분 영역 내의 깊이 정보를 추출한다. 이때, 광의 비행 시간은 In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)에 입력된 광량의 차를 이용하여 계산될 수 있다. 즉, 도 3과 같이, In Phase 수신 유닛(132-1)은 광원이 켜지는 동안 활성화되고, Out Phase 수신 유닛(132-2)은 광원이 꺼지는 동안 활성화될 수 있다. 이와 같이, In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)이 시간 차를 두고 활성화되면, 광의 비행 시간, 즉 물체와의 거리에 따라 수신되는 광량에 차이가 발생하게 된다. 예를 들어, 물체가 깊이 정보 추출 장치 바로 앞에 있는 경우(즉, 거리=0인 경우)에는, 광 출력부(110)로부터 광이 출력된 후 반사되어 오는데 걸리는 시간이 0이므로, 광원의 점멸 주기는 그대로 광의 수신 주기가 된다. 이에 따라, In Phase 수신 유닛(132-1)만이 빛을 수신하게 되고, Out Phase 수신 유닛(132-2)은 빛을 수신하지 못하게 된다. 다른 예로, 물체가 깊이 정보 추출 장치와 소정 거리 떨어져 위치하는 경우, 광 출력부(110)로부터 광이 출력된 후 물체에 반사되어 오는데 시간이 걸리므로, 광원의 점멸 주기는 광의 수신 주기와 차이가 나게 된다. 이에 따라, In Phase 수신 유닛(132-1)과 Out Phase 수신 유닛(132-2)이 수신하는 빛의 양에 차이가 발생하게 된다.In addition, the signal processing unit 146 uses a time of flight in which the light output from the light output unit 110 is scanned in the partial area and then reflected to be input to the light input unit 130 in the partial area. Extract the depth information within. In this case, the flight time of the light may be calculated using a difference in the amount of light input to the In Phase receiving unit 132-1 and the Out Phase receiving unit 132-2. That is, as shown in FIG. 3 , the In Phase receiving unit 132-1 may be activated while the light source is turned on, and the Out Phase receiving unit 132-2 may be activated while the light source is turned off. As such, when the In Phase receiving unit 132-1 and the Out Phase receiving unit 132-2 are activated with a time difference, a difference occurs in the amount of light received according to the flight time of light, that is, the distance to the object. . For example, when the object is directly in front of the depth information extraction device (that is, when the distance = 0), the time it takes for the light to be reflected after being output from the light output unit 110 is 0, so the blinking period of the light source is the light reception period as it is. Accordingly, only the in-phase receiving unit 132-1 receives the light, and the out-phase receiving unit 132-2 does not receive the light. As another example, when the object is located a predetermined distance away from the depth information extraction device, since it takes time for light to be output from the light output unit 110 and then reflected on the object, the blinking period of the light source is different from the receiving period of the light. will come out Accordingly, a difference occurs in the amount of light received by the in-phase receiving unit 132-1 and the out-phase receiving unit 132-2.

인터페이스 컨트롤러(148)는 PC(200) 등의 미들웨어와의 인터페이스를 제어한다. 예를 들어, 인터페이스 컨트롤러(148)는 전체 영역을 주사한 후 광 입력부(130)를 통하여 입력된 광에 대한 정보를 PC(200) 등 미들웨어로 전달할 수 있다. 그리고, PC(200) 등 미들웨어에 의하여 추출된 부분 영역에 대한 정보를 PC(200) 등 미들웨어로부터 수신한 후 광 조절부(120) 등에 전달할 수 있다.The interface controller 148 controls an interface with middleware such as the PC 200 . For example, the interface controller 148 may transmit information about the light input through the light input unit 130 to middleware such as the PC 200 after scanning the entire area. Then, information on the partial region extracted by the middleware such as the PC 200 may be received from the middleware such as the PC 200 and then transmitted to the light control unit 120 or the like.

도 5는 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 깊이 정보 추출 방법을 나타내는 흐름도이다. 도 1 내지 3과 중복된 내용은 설명을 생략한다.5 is a flowchart illustrating a depth information extraction method of an apparatus for extracting depth information according to an embodiment of the present invention. A description of the contents overlapping those of FIGS. 1 to 3 will be omitted.

도 5를 참조하면, 깊이 정보 추출 장치(100)의 광 출력부(110)는 IR 광을 출력하며(S500), 출력된 광은 광 조절부(120)의 조절에 의하여 물체를 포함하는 전체 영역을 주사한다(S502).Referring to FIG. 5 , the light output unit 110 of the apparatus 100 for extracting depth information outputs IR light ( S500 ), and the output light is controlled by the light control unit 120 over the entire area including the object. is scanned (S502).

그리고, 광 입력부(130)를 통하여 물체부로부터 반사된 광이 입력되며(S504), 제어부(140)는 광 입력부(130)로부터 수신한 아날로그 신호를 디지털 신호로 변환한 후(S506), PC(200)에게 전달한다(S508). Then, the light reflected from the object unit is input through the light input unit 130 (S504), and the control unit 140 converts the analog signal received from the light input unit 130 into a digital signal (S506), and then the PC ( 200) (S508).

PC(200)는 깊이 정보 추출 장치(100)로부터 수신한 신호를 이용하여 전체 영역 내의 부분 영역을 추출한다(S510). 부분 영역은 응용 애플리케이션을 구현하기 위하여 필요한 관심 대상을 포함하는 영역일 수 있다. 예를 들어, 응용 애플리케이션이 손가락의 제스쳐에 따라 TV 채널을 변경하는 것인 경우, 전체 영역이 사람의 전신을 포함한다면, 부분 영역은 손가락만을 포함할 수 있다. The PC 200 extracts a partial region within the entire region by using the signal received from the depth information extraction apparatus 100 ( S510 ). The partial region may be a region including an object of interest required to implement an application. For example, when the application is to change a TV channel according to a gesture of a finger, if the entire area includes a person's whole body, the partial area may include only a finger.

PC(200)는 추출한 부분 영역에 관한 정보를 깊이 정보 추출 장치(100)에게 전달한다(S512).The PC 200 transmits the extracted partial region information to the depth information extraction apparatus 100 (S512).

한편, 깊이 정보 추출 장치(100)의 광 출력부(110)는 IR 광을 출력하며(S514), 출력된 광은 광 조절부(120)의 조절에 의하여 전체 영역으로부터 추출된 부분 영역만을 주사한다(S516).Meanwhile, the light output unit 110 of the apparatus 100 for extracting depth information outputs IR light ( S514 ), and the output light scans only a partial area extracted from the entire area by the control of the light control unit 120 . (S516).

그리고, 광 입력부(130)를 통하여 물체부로부터 반사된 광이 입력되며(S518), 제어부(140)는 광 입력부(130)로부터 수신한 아날로그 신호를 디지털 신호로 변환하고(S520), 신호 처리하여 부분 영역에 대한 깊이 정보를 추출한다(S522).Then, the light reflected from the object is input through the optical input unit 130 (S518), and the control unit 140 converts the analog signal received from the optical input unit 130 into a digital signal (S520), and processes the signal. Depth information on the partial region is extracted (S522).

본 발명의 한 실시예에 따르면, 깊이 정보 추출 장치(100)는 전체 영역을 1회 스캔할 수 있는 시간 동안 부분 영역을 수회 스캔할 수 있다. 또는, 전체 영역을 1회 스캔할 수 있는 시간 동안 부분 영역을 1회 스캔하되, 더욱 정밀하게 스캔할 수도 있다.According to an embodiment of the present invention, the apparatus 100 for extracting depth information may scan a partial region several times during a time during which the entire region can be scanned once. Alternatively, the partial region may be scanned once for a period of time during which the entire region can be scanned once, but the scan may be performed more precisely.

도 6내지 8은 본 발명의 한 실시예에 따른 깊이 정보 추출 장치의 광 조절부를 위한 타이밍도를 예시한다. V_Sync_T는 전체 영역을 스캔하기 위한 타이밍도이고, V_Sync_P는 부분 영역을 스캔하기 위한 타이밍도이다. 그리고, Scan_T는 출력된 광이 전체 영역을 스캔하는 타이밍도이며, Scan_P는 출력된 광이 부분 영역을 스캔하는 타이밍도이고, 하강 에지(falling edge)마다 스캔할 수 있다. 그리고, A_T는 MEMS의 액츄에이터가 전체 영역을 스캔하기 위하여 이동하는 타이밍도이며, A_P는 MEMS의 액츄에이터가 부분 영역을 스캔하기 위하여 이동하는 타이밍도이고, 상승 에지(rising edge)마다 이동할 수 있다.6 to 8 are timing diagrams for the light control unit of the apparatus for extracting depth information according to an embodiment of the present invention. V_Sync_T is a timing diagram for scanning the entire region, and V_Sync_P is a timing diagram for scanning a partial region. In addition, Scan_T is a timing diagram in which the output light scans the entire area, and Scan_P is a timing diagram in which the output light scans a partial area, and may be scanned at every falling edge. And, A_T is a timing diagram in which the actuator of the MEMS moves to scan the entire area, and A_P is a timing diagram in which the actuator of the MEMS moves to scan the partial area, and may move at every rising edge.

도 6을 참조하면, 전체 영역의 모든 픽셀 또는 모든 라인을 스캔하는데 소요되는 시간과 부분 영역의 모든 픽셀 또는 모든 라인을 스캔하는데 소요되는 시간은 동일하다. 그리고, MEMS의 액츄에이터가 전체 영역을 스캔하기 위하여 이동하는 주기와 부분 영역을 스캔하기 위하여 이동하는 주기가 동일하다. 이에 따라, 부분 영역 내에 포함되는 픽셀 또는 라인은 전체 영역을 스캔하는 경우에 비하여 더 많은 횟수로 스캔될 수 있다.Referring to FIG. 6 , the time required to scan all pixels or all lines in the entire area is the same as the time required to scan all pixels or all lines in the partial area. In addition, the period in which the actuator of the MEMS moves to scan the entire area is the same as the period in which the actuator moves to scan the partial area. Accordingly, pixels or lines included in the partial area may be scanned more times than when the entire area is scanned.

도 7을 참조하면, 전체 영역의 모든 픽셀 또는 모든 라인을 스캔하는데 소요되는 시간과 부분 영역의 모든 픽셀 또는 모든 라인을 스캔하는데 소요되는 시간은 동일하다. 그리고, MEMS의 액츄에이터는 전체 영역을 스캔하는 경우에 비하여 부분 영역을 스캔하는 경우 더욱 미세하게 조정될 수 있다. 이에 따라, 부분 영역 내에 포함되는 픽셀 또는 라인은 전체 영역을 스캔하는 경우에 비하여 더욱 정밀하게 스캔될 수 있다.Referring to FIG. 7 , the time required to scan all pixels or all lines in the entire area is the same as the time required to scan all pixels or all lines in the partial area. In addition, the actuator of the MEMS can be more finely adjusted when scanning a partial area than when scanning the entire area. Accordingly, pixels or lines included in the partial area may be scanned more precisely than when the entire area is scanned.

도 8을 참조하면, 전체 영역의 모든 픽셀 또는 모든 라인을 스캔하는데 소요되는 시간에 비하여 부분 영역의 모든 픽셀 또는 모든 라인을 스캔하는데 소요되는 시간이 짧다. 이에 따라, 전체 영역을 스캔하는 경우에 비하여 부분 영역을 스캔하는 경우, 동일 시간 동안 더욱 많은 횟수로 스캔할 수 있다. 예를 들어, 전체 영역을 1초에 30프레임으로 스캔할 수 있는 장치는 부분 영역을 1초에 60프레임으로 스캔하도록 설정될 수 있다. Referring to FIG. 8 , the time required to scan all pixels or all lines in the partial area is shorter than the time required to scan all pixels or all lines in the entire area. Accordingly, in the case of scanning the partial region, compared to the case of scanning the entire region, it is possible to scan a larger number of times during the same time period. For example, a device capable of scanning an entire area at 30 frames per second may be set to scan a partial area at 60 frames per second.

이와 같이, 본 발명의 한 실시예에 따라, 관심 대상을 포함하는 부분 영역만을 스캔하면, 전체 영역을 스캔하는 경우에 비하여 연산량을 줄일 수 있다. 그리고, 제한된 시간 동안 부분 영역의 스캔 횟수를 증가시키거나 정밀도를 높일 수 있으므로, 깊이 분해능(depth resolution)을 향상시킬 수 있다. As described above, according to an embodiment of the present invention, when only the partial region including the object of interest is scanned, the amount of computation can be reduced compared to the case of scanning the entire region. Further, since the number of scans of the partial region can be increased or the precision can be increased for a limited time, depth resolution can be improved.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 깊이 정보 추출 장치
110: 광 출력부
120: 광 조절부
130: 광 입력부
140: 제어부
100: depth information extraction device
110: light output unit
120: light control unit
130: optical input unit
140: control unit

Claims (18)

IR(InfraRed) 광을 출력하는 광 출력부,
상기 광 출력부로부터 출력된 IR 광이 제1 영역에 주사되도록 IR 광의 각도를 조절하고, 상기 제1 영역 중 일부인 제2 영역에만 주사되도록 IR 광의 각도를 조절하는 광 조절부,
IR 광이 입력되는 광 입력부, 그리고
상기 광 출력부로부터 출력된 IR 광이 상기 제2 영역에 주사된 후 반사되어 상기 광 입력부에 입력되기까지 걸리는 비행 시간을 이용하여 상기 제2 영역 내의 깊이 정보를 추출하는 제어부
를 포함하고,
상기 광 조절부는 IR 광의 각도를 조절하는 액츄에이터(actuator)를 포함하며, 상기 제2 영역만을 스캔하기 위한 상기 액츄에이터의 동작 주기는 상기 제1 영역을 스캔하기 위한 상기 액츄에이터의 동작주기보다 짧게 설정되고, 상기 제2 영역만을 스캔하기 위한 상기 액츄에이터의 동작 주기는 상기 제2 영역의 스캔 주기와 동일한 깊이 정보 추출 장치.
A light output unit that outputs IR (InfraRed) light,
a light control unit that adjusts the angle of the IR light so that the IR light output from the light output unit is scanned in a first area, and adjusts the angle of the IR light so that it is scanned only in a second area that is a part of the first area;
an optical input to which IR light is input; and
A control unit configured to extract depth information in the second region by using a flight time required for the IR light output from the light output unit to be scanned in the second region, reflected and input to the light input unit
including,
The light control unit includes an actuator for adjusting the angle of the IR light, and the operation period of the actuator for scanning only the second area is set shorter than the operation period of the actuator for scanning the first area, An operation period of the actuator for scanning only the second region is the same as the scan period of the second region.
제1항에 있어서,
상기 광 입력부는 각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며,
상기 제어부는 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력되는 광량의 차를 이용하여 상기 비행 시간을 계산하는 깊이 정보 추출 장치.
According to claim 1,
The light input unit includes a plurality of pixels each including a first receiving unit and a second receiving unit,
The control unit is a depth information extraction apparatus for calculating the flight time by using a difference in the amount of light input to the first receiving unit and the second receiving unit.
제2항에 있어서,
상기 제1 수신 유닛 및 상기 제2 수신 유닛은 시간 차를 두고 활성화되는 깊이 정보 추출 장치.
3. The method of claim 2,
Depth information extraction apparatus in which the first receiving unit and the second receiving unit are activated with a time difference.
제3항에 있어서,
상기 제1 수신 유닛 및 상기 제2 수신 유닛은 상기 광 출력부에 포함되는 광원의 점멸 주기와 연동하여 활성화되는 깊이 정보 추출 장치.
4. The method of claim 3,
The first receiving unit and the second receiving unit are activated in association with a blinking period of a light source included in the light output unit.
제4항에 있어서,
상기 제1 수신 유닛은 상기 광원이 켜지는 동안 활성화되고, 상기 제2 수신 유닛은 상기 광원이 꺼지는 동안 활성화되는 깊이 정보 추출 장치.
5. The method of claim 4,
The first receiving unit is activated while the light source is turned on, and the second receiving unit is activated while the light source is turned off.
제1항에 있어서,
상기 광 조절부는 상기 제1 영역을 스캔하는데 소요되는 시간과 동일한 시간 동안 상기 제2 영역만을 스캔하도록 설정되는 깊이 정보 추출 장치.
According to claim 1,
The light control unit is configured to scan only the second area for the same time as the time required to scan the first area.
삭제delete 삭제delete 제1항에 있어서,
상기 액츄에이터는 MEMS(Micro Electro Mechanical System) 액츄에이터(actuator)이고,
상기 제2 영역만을 스캔하기 위한 상기 MEMS 액츄에이터의 동작 주기는 상기 제1 영역을 스캔하기 위한 상기 MEMS 액츄에이터의 동작 주기보다 짧게 설정되는 깊이 정보 추출 장치.
According to claim 1,
The actuator is a MEMS (Micro Electro Mechanical System) actuator (actuator),
An operation period of the MEMS actuator for scanning only the second area is set shorter than an operation period of the MEMS actuator for scanning the first area.
제9항에 있어서,
상기 제어부는 타이밍 제어 유닛을 포함하고,
상기 타이밍 제어 유닛은 상기 MEMS 액츄에이터의 동작 주기를 제어하는 깊이 정보 추출 장치.
10. The method of claim 9,
The control unit includes a timing control unit,
The timing control unit is a depth information extraction device for controlling the operation period of the MEMS actuator.
제1항에 있어서,
상기 광 조절부는 상기 제1 영역을 스캔하는데 소요되는 시간보다 짧은 시간 동안 상기 제2 영역만을 스캔하도록 설정되는 깊이 정보 추출 장치.
According to claim 1,
The light control unit is configured to scan only the second area for a time shorter than a time required to scan the first area.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200044061A 2014-01-29 2020-04-10 Apparatus for detecting depth map KR102307610B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200044061A KR102307610B1 (en) 2014-01-29 2020-04-10 Apparatus for detecting depth map

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140011787A KR102101864B1 (en) 2014-01-29 2014-01-29 Apparatus for detecting depth map
KR1020200044061A KR102307610B1 (en) 2014-01-29 2020-04-10 Apparatus for detecting depth map

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140011787A Division KR102101864B1 (en) 2014-01-29 2014-01-29 Apparatus for detecting depth map

Publications (2)

Publication Number Publication Date
KR20200043941A KR20200043941A (en) 2020-04-28
KR102307610B1 true KR102307610B1 (en) 2021-10-05

Family

ID=70456158

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200044061A KR102307610B1 (en) 2014-01-29 2020-04-10 Apparatus for detecting depth map

Country Status (1)

Country Link
KR (1) KR102307610B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240009275A (en) * 2022-07-13 2024-01-22 삼성전자주식회사 An electronic device for obtaining depth information of the object and a method for operating the same

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100920931B1 (en) * 2007-11-16 2009-10-12 전자부품연구원 Method for object pose recognition of robot by using TOF camera
KR101613133B1 (en) * 2009-05-14 2016-04-18 삼성전자주식회사 Method and apparatus for processing 3-dimensional image
KR20110011244A (en) * 2009-07-28 2011-02-08 엘지이노텍 주식회사 Tof camera
CN101996401B (en) * 2009-08-24 2016-05-11 三星电子株式会社 Target analysis method and apparatus based on intensity image and depth image
KR101175780B1 (en) * 2010-11-25 2012-08-21 은남표 3-Dimension depth camera using the Infrared laser projection display
KR101715141B1 (en) * 2011-11-15 2017-03-13 삼성전자주식회사 a pixel for depth sensor and a image sensor including the pixel
KR101871235B1 (en) * 2012-06-05 2018-06-27 삼성전자주식회사 Depth image generating method and apparatus, depth image processing method and apparatus
KR102038533B1 (en) * 2012-06-14 2019-10-31 한국전자통신연구원 Laser Radar System and Method for Acquiring Target Image
KR101896666B1 (en) * 2012-07-05 2018-09-07 삼성전자주식회사 Image sensor chip, operation method thereof, and system having the same

Also Published As

Publication number Publication date
KR20200043941A (en) 2020-04-28

Similar Documents

Publication Publication Date Title
KR102400992B1 (en) Apparatus and method for extracting depth map
KR101613133B1 (en) Method and apparatus for processing 3-dimensional image
CN106030239B (en) Apparatus and method for extracting depth information
WO2016208215A1 (en) Distance sensor and user interface device
KR102611080B1 (en) Imaging devices with autofocus control
EP2908512A3 (en) Method and device for mobile terminal biometric feature imaging
EP2873986A1 (en) Camera integrated with light source
US9699377B2 (en) Depth detecting apparatus and method, and gesture detecting apparatus and gesture detecting method
JP6580578B2 (en) Camera device
KR102194237B1 (en) Method and apparatus for generating depth image
KR102307610B1 (en) Apparatus for detecting depth map
KR102610830B1 (en) Method and device for acquiring distance information
KR20150090777A (en) Time of flight camera apparatus
KR102101865B1 (en) Camera apparatus
KR102101864B1 (en) Apparatus for detecting depth map
KR101970607B1 (en) 3-d input device
CN112585961A (en) Camera with a camera module
US20220360702A1 (en) Image processing device, electronic equipment, image processing method, and program
KR102561533B1 (en) Camera device
KR102596053B1 (en) Image processing apparatus and image processing method
KR102251115B1 (en) Apparatus and method for detecting depth map
KR102106080B1 (en) Apparatus and method for detecting depth map
You et al. MOEMS-based time-of-flight camera for 3D video capturing
WO2016189551A3 (en) System and method for personalizing eyewear

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
E902 Notification of reason for refusal
GRNT Written decision to grant