KR102101865B1 - Camera apparatus - Google Patents

Camera apparatus Download PDF

Info

Publication number
KR102101865B1
KR102101865B1 KR1020140010585A KR20140010585A KR102101865B1 KR 102101865 B1 KR102101865 B1 KR 102101865B1 KR 1020140010585 A KR1020140010585 A KR 1020140010585A KR 20140010585 A KR20140010585 A KR 20140010585A KR 102101865 B1 KR102101865 B1 KR 102101865B1
Authority
KR
South Korea
Prior art keywords
light
unit
output
camera device
light output
Prior art date
Application number
KR1020140010585A
Other languages
Korean (ko)
Other versions
KR20150089673A (en
Inventor
이기석
이명욱
정성기
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020140010585A priority Critical patent/KR102101865B1/en
Publication of KR20150089673A publication Critical patent/KR20150089673A/en
Application granted granted Critical
Publication of KR102101865B1 publication Critical patent/KR102101865B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명의 한 실시예에 따른 TOF 카메라 장치는 패턴화된 광을 출력하는 광 출력부, 각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 광 출력부로부터 출력된 후 물체에 반사된 광이 입력되는 광 입력부, 그리고 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력된 광량의 차를 이용하여 물체의 거리를 연산하는 연산부를 포함하며, 상기 패턴화된 광의 패턴은 상기 광 입력부의 복수의 픽셀의 배열, 면적 및 형상 중 적어도 하나에 따른다.The TOF camera apparatus according to an embodiment of the present invention includes a light output unit for outputting patterned light, a plurality of pixels each including a first reception unit and a second reception unit, and output from the light output unit And an operation unit for calculating the distance of the object using the difference between the amount of light input to the first receiving unit and the second receiving unit, and an optical input unit to which the reflected light is input. The pattern conforms to at least one of the arrangement, area, and shape of a plurality of pixels of the light input unit.

Description

카메라 장치{CAMERA APPARATUS}Camera device {CAMERA APPARATUS}

본 발명은 카메라 장치에 관한 것으로, 보다 상세하게는 TOF(Time of Flight) 카메라 장치의 깊이 정보 추출에 관한 것이다.The present invention relates to a camera device, and more particularly, to a depth information of a TOF (Time of Flight) camera device.

촬영 장치를 이용하여 3차원 영상을 획득하는 기술이 발전하고 있다. 3차원 영상을 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다.Technology for obtaining a 3D image using a photographing apparatus has been developed. Depth map is required to acquire a 3D image. Depth information is information indicating a distance in space, and indicates perspective information of another point with respect to one point of a 2D image.

깊이 정보를 획득하는 방법 중 하나는, IR(Infrared) 구조광을 객체에 투사하며, 객체로부터 반사된 광을 해석하여 깊이 정보를 추출하는 방식이다. IR 구조광 방식에 따르면, 움직이는 객체에 대하여 원하는 수준의 깊이 분해능(Depth resolution)을 얻기 어려운 문제가 있다.One of the methods of acquiring depth information is a method of projecting IR (Infrared) structured light onto an object, and extracting depth information by analyzing light reflected from the object. According to the IR structured light system, there is a problem that it is difficult to obtain a desired level of depth resolution for a moving object.

IR 구조광 방식을 대체하는 기술로 TOF(Time of Flight) 방식이 주목받고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 물체와의 거리를 계산한다. TOF 방식을 이용하는 TOF 카메라는 광효율이 낮으며, 노이즈가 큰 문제가 있다.As a technology that replaces the IR structured light system, the TOF (Time of Flight) method is drawing attention. According to the TOF method, the distance from the object is calculated by measuring the flight time, that is, the time when the light is reflected by shooting. The TOF camera using the TOF method has a problem of low light efficiency and large noise.

본 발명이 이루고자 하는 기술적 과제는 깊이 정보를 추출하는 TOF 카메라 장치를 제공하는 데 있다.The technical problem to be achieved by the present invention is to provide a TOF camera device for extracting depth information.

본 발명의 한 실시예에 따른 카메라 장치는 패턴화된 광을 출력하는 광 출력부, 각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 광 출력부로부터 출력된 후 물체에 반사된 광이 입력되는 광 입력부, 그리고 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력된 광량의 차를 이용하여 물체의 거리를 연산하는 연산부를 포함하며, 상기 패턴화된 광의 패턴은 상기 광 입력부의 복수의 픽셀의 배열, 면적 및 형상 중 적어도 하나에 따른다.A camera device according to an embodiment of the present invention includes a plurality of pixels, each of which includes a first receiving unit and a second receiving unit, the light output unit outputting patterned light, and output from the light output unit It includes a light input unit for receiving the reflected light after the object, and a calculation unit for calculating the distance of the object using the difference in the amount of light input to the first receiving unit and the second receiving unit, the pattern of the patterned light Is dependent on at least one of the arrangement, area, and shape of a plurality of pixels of the light input unit.

상기 광 출력부는 광원, 그리고 상기 광원으로부터 출력된 광을 변조하는 광 변환 유닛을 포함할 수 있다.The light output unit may include a light source and a light conversion unit that modulates light output from the light source.

상기 광 변환 유닛은 광을 패턴화하는 회절 광학 소자(diffractive optical element, DOE), 홀로그램 광학 소자(hologram optical element, HOE) 및 컴퓨터 생성 홀로그램(computer generated hologram, CGH) 중 적어도 하나를 포함할 수 있다.The light conversion unit may include at least one of a diffractive optical element (DOE) patterning light, a hologram optical element (HOE), and a computer generated hologram (CGH). .

상기 광 변환 유닛은 상기 광원으로부터 출력된 광을 집속시키는 집속 렌즈, 그리고 광의 경로를 조절하는 반사부재 중 적어도 하나를 더 포함할 수 있다.The light conversion unit may further include at least one of a focusing lens for focusing light output from the light source, and a reflecting member for adjusting a path of light.

상기 광 출력부가 출력하는 광의 변조(modulation)을 제어하는 광 제어부를 더 포함하며, 상기 광 제어부는 상기 연산부로부터 수신한 물체의 거리에 대한 정보를 이용하여 광량을 조절할 수 있다.Further comprising a light control unit for controlling the modulation (modulation) of the light output by the light output unit, the light control unit may adjust the amount of light by using the information on the distance of the object received from the operation unit.

본 발명의 실시예에 따르면, 광효율이 높아져 원거리의 깊이 정보도 추출할 수 있으며, SN 비율(Signal to Noise Ratio)를 개선할 수 있다. 또한, 높은 광효율로 인하여 소비전력을 줄일 수 있으며, 광원부를 소형으로 구현할 수 있다.According to an embodiment of the present invention, the light efficiency is increased, and thus depth information of a long distance can be extracted, and a signal to noise ratio (SN ratio) can be improved. In addition, power consumption can be reduced due to high light efficiency, and a light source unit can be implemented in a small size.

도 1은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 블록이다.
도 2는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 블록도이다.
도 3은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 입력부의 구조이다.
도 4 내지 도 6은 본 발명의 한 실시예에 따른 TOF 장치의 연산부가 물체의 거리를 계산하는 방법을 설명하는 도면이다.
도 7은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 일 예를 나타낸다.
도 8은 도 7의 광 출력부의 단면도이다.
도 9는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 다른 예를 나타낸다.
도 10은 광 출력부에서 출력되는 패턴화된 광을 예시하며, 도 11은 광 입력부에서 입력되는 광의 패턴을 예시한다.
도 12는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광량 조절 방법을 나타내는 흐름도이다.
1 is a block diagram of a TOF camera device according to an embodiment of the present invention.
2 is a block diagram of an optical output unit of a TOF camera device according to an embodiment of the present invention.
3 is a structure of an optical input unit of a TOF camera device according to an embodiment of the present invention.
4 to 6 are diagrams illustrating a method of calculating a distance of an object by a calculation unit of a TOF device according to an embodiment of the present invention.
7 shows an example of an optical output unit of a TOF camera device according to an embodiment of the present invention.
8 is a cross-sectional view of the light output unit of FIG. 7.
9 shows another example of a light output unit of a TOF camera device according to an embodiment of the present invention.
10 illustrates patterned light output from the light output unit, and FIG. 11 illustrates a pattern of light input from the light input unit.
12 is a flowchart illustrating a method of adjusting the amount of light in a TOF camera device according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including ordinal numbers such as second and first may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the second component may be referred to as a first component without departing from the scope of the present invention, and similarly, the first component may also be referred to as a second component. The term and / or includes a combination of a plurality of related described items or any one of a plurality of related described items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "include" or "have" are intended to indicate the presence of features, numbers, steps, actions, components, parts or combinations thereof described herein, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings, but the same or corresponding components are assigned the same reference numbers regardless of reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 블록이고, 도 2는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 블록도이며, 도 3은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 입력부의 구조이고, 도 4 내지 도 6은 본 발명의 한 실시예에 따른 TOF 장치의 연산부가 물체의 거리를 계산하는 방법을 설명하는 도면이다. 1 is a block diagram of a TOF camera device according to an embodiment of the present invention, FIG. 2 is a block diagram of a light output unit of a TOF camera device according to an embodiment of the present invention, and FIG. 3 is a block diagram of an embodiment of the present invention It is a structure of the optical input unit of the TOF camera device, and FIGS. 4 to 6 are diagrams illustrating a method of calculating a distance of an object by the operation unit of the TOF device according to an embodiment of the present invention.

도 1을 참조하면, TOF 카메라 장치(100)는 광 출력부(110), 광 제어부(120), 광 입력부(130) 및 연산부(140)를 포함한다.Referring to FIG. 1, the TOF camera apparatus 100 includes an optical output unit 110, an optical control unit 120, an optical input unit 130, and a calculation unit 140.

광 출력부(110)는 패턴화된 광을 출력한다. 여기서, 패턴화된 광은 IR(infrared) 광일 수 있다. 도 2를 참조하면, 광 출력부(110)는 광원(112) 및 광 변환 유닛(114)을 포함한다. 광원은 적외선을 투사하는 적어도 하나의 레이저 다이오드(Laser Diode) 또는 발광 다이오드(Light Emitting Diode, LED)를 포함할 수 있다. 그리고, 광 변환 유닛(114)은 광원(112)으로부터 출력된 광을 변조(modulation)할 수 있다. 광 변환 유닛(114)은, 예를 들면 광원(112)으로부터 출력된 광을 펄스(pulse) 변조 또는 위상(phase) 변조할 수 있다. 이에 따라, 광 출력부(110)는 소정 간격으로 광원을 점멸시키며 출력할 수 있다.The light output unit 110 outputs patterned light. Here, the patterned light may be infrared (IR) light. Referring to FIG. 2, the light output unit 110 includes a light source 112 and a light conversion unit 114. The light source may include at least one laser diode or light emitting diode (LED) that projects infrared light. Also, the light conversion unit 114 may modulate light output from the light source 112. The light conversion unit 114 may, for example, pulse modulate or phase modulate the light output from the light source 112. Accordingly, the light output unit 110 may output by blinking the light source at a predetermined interval.

다시 도 1을 참조하면, 광 제어부(120)는 광 출력부(110)가 출력하는 광의 변조(modulation)를 제어한다. 예를 들면, 광 제어부(120)는 광의 펄스 또는 위상 변조를 제어할 수 있다. 광 제어부(120)는 사용자에 의하여 미리 설정된 기준에 따라 광의 펄스 또는 위상 변조를 제어할 수 있다. 예를 들면, 광 제어부(120)는 TOF 카메라 장치 주변의 밝기에 따라 광의 펄스 또는 위상 변조를 제어할 수 있다. 광 제어부(120)는 연산부(140)의 연산 결과를 반영하여 광의 펄스 또는 위상 변조를 더 제어할 수도 있다. 이에 대한 상세한 내용은 후술한다.Referring back to FIG. 1, the light controller 120 controls modulation of light output from the light output unit 110. For example, the light control unit 120 may control pulse or phase modulation of light. The light controller 120 may control pulse or phase modulation of light according to a criterion preset by the user. For example, the light controller 120 may control pulse or phase modulation of light according to the brightness around the TOF camera device. The light control unit 120 may further control pulse or phase modulation of light by reflecting the operation result of the operation unit 140. Details of this will be described later.

한편, 광 입력부(130)는 광 출력부(110)로부터 출력된 후 물체에 반사된 광을 입력 받는다. 광 입력부(130)는 입력 받은 광을 전기 신호로 변환할 수 있다. 광 입력부(130)는, 포토 다이오드(photo diode) 또는 CMOS(complementary metal-oxide semiconductor)를 포함하는 이미지 센서일 수 있다. 도 3을 참조하면, 광 입력부(130)는 배열된 복수의 픽셀(pixel)(132)을 포함한다. 각 픽셀은 In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)을 포함할 수 있다. 도 4를 참조하면, In Phase 수신 유닛(132-1)은 광원이 켜지는 동안 활성화되고, Out Phase 수신 유닛(132-2)은 광원이 꺼지는 동안 활성화될 수 있다. 이와 같이, In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)이 시간 차를 두고 활성화되면, 물체와의 거리에 따라 수신되는 광량에 차이가 발생하게 된다. 예를 들어, 물체가 TOF 카메라 장치 바로 앞에 있는 경우(즉, 거리=0인 경우)에는, 도 5와 같이, 광 출력부(110)로부터 광이 출력된 후 반사되어 오는데 걸리는 시간이 0이므로, 광원의 점멸 주기는 그대로 광의 수신 주기가 된다. 이에 따라, In Phase 수신 유닛(132-1)만이 빛을 수신하게 되고, Out Phase 수신 유닛(132-2)은 빛을 수신하지 못하게 된다. 다른 예로, 물체가 TOF 카메라 장치와 소정 거리 떨어져 위치하는 경우, 도 6과 같이, 광 출력부(110)로부터 광이 출력된 후 물체에 반사되어 오는데 시간이 걸리므로, 광원의 점멸 주기는 광의 수신 주기와 차이가 나게 된다. 이에 따라, In Phase 수신 유닛(132-1)과 Out Phase 수신 유닛(132-2)이 수신하는 빛의 양에 차이가 발생하게 된다.Meanwhile, the light input unit 130 receives light reflected from an object after being output from the light output unit 110. The optical input unit 130 may convert the received light into an electrical signal. The optical input unit 130 may be an image sensor including a photo diode or a complementary metal-oxide semiconductor (CMOS). Referring to FIG. 3, the light input unit 130 includes a plurality of pixels 132 arranged. Each pixel may include an In Phase receiving unit 132-1 and an Out Phase receiving unit 132-2. 4, the In Phase receiving unit 132-1 is activated while the light source is turned on, and the Out Phase receiving unit 132-2 can be activated while the light source is turned off. As described above, when the In Phase receiving unit 132-1 and the Out Phase receiving unit 132-2 are activated with a time difference, a difference occurs in the amount of light received according to the distance to the object. For example, when the object is directly in front of the TOF camera device (that is, when the distance = 0), as shown in FIG. 5, since the time it takes for light to be reflected after the light is output from the light output unit 110 is 0, The flashing cycle of the light source is the receiving cycle of light as it is. Accordingly, only the In Phase receiving unit 132-1 receives light, and the Out Phase receiving unit 132-2 cannot receive light. As another example, when the object is located at a predetermined distance from the TOF camera device, as shown in FIG. 6, since light is output from the light output unit 110 and it takes time to reflect on the object, the flashing period of the light source is received by the light It is different from the period. Accordingly, a difference occurs in the amount of light received by the In Phase receiving unit 132-1 and the Out Phase receiving unit 132-2.

다시 도 1을 참조하면, 연산부(140)는 In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)에 입력된 광량의 차를 이용하여 물체의 거리를 연산한다. Referring back to FIG. 1, the calculating unit 140 calculates the distance of the object using the difference in the amount of light input to the In Phase receiving unit 132-1 and the Out Phase receiving unit 132-2.

본 발명의 한 실시예에 따르면, 광 출력부(110)가 출력하는 패턴화된 광의 패턴은 복수의 픽셀의 배열, 면적 및 형상 중 적어도 하나에 따른다. 즉, 광 출력부(110)는 광 입력부(130)의 픽셀의 유효면에 따라 다르게 패턴화된 광을 출력함으로써, 동일한 광량으로 픽셀에 입사되는 광의 강도를 높일 수 있다. 이에 따라, 출력되는 광량에 대하여 입력되는 광의 효율을 높일 수 있다.According to an embodiment of the present invention, the pattern of the patterned light output from the light output unit 110 depends on at least one of an arrangement, area, and shape of a plurality of pixels. That is, the light output unit 110 outputs light patterned differently according to the effective surface of the pixel of the light input unit 130, thereby increasing the intensity of light incident on the pixel with the same amount of light. Accordingly, it is possible to increase the efficiency of the input light with respect to the output light amount.

도 7은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 일 예를 나타내고, 도 8은 도 7의 광 출력부의 단면도이며, 도 9는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 다른 예를 나타낸다. 그리고, 도 10은 광 출력부에서 출력되는 패턴화된 광을 예시하며, 도 11은 광 입력부에서 입력되는 광의 패턴을 예시한다.7 shows an example of a light output unit of the TOF camera apparatus according to an embodiment of the present invention, FIG. 8 is a cross-sectional view of the light output unit of FIG. 7, and FIG. 9 is a view of the TOF camera apparatus according to an embodiment of the present invention Another example of the light output section is shown. In addition, FIG. 10 illustrates patterned light output from the light output unit, and FIG. 11 illustrates pattern of light input from the light input unit.

도 7 내지 도 8을 참조하면, 광 출력부(700)는 광원(710), 집속 렌즈(collimating lens, 720) 및 패턴화 소자(730)를 포함한다. 7 to 8, the light output unit 700 includes a light source 710, a collimating lens 720 and a patterning element 730.

광원(710) 은, 예를 들면 적어도 하나의 레이저 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitting Diode, LED), 멀티 셀(multi cell) 구조를 가지는 발광 다이오드일 수 있다. The light source 710 may be, for example, a light emitting diode having at least one laser diode (LD), light emitting diode (LED), or multi-cell structure.

그리고 집속 렌즈(720)는 광원(710)으로부터 나온 광을 집속한다. 패턴화 소자(730)는 집속 렌즈(720)를 통과한 광을 패턴화한다. 패턴화 소자(730)는, 예를 들면 회절 광학 소자(diffractive optical element, DOE), 홀로그램 광학 소자(hologram optical element, HOE) 및 컴퓨터 생성 홀로그램(computer generated hologram, CGH) 중 적어도 하나를 포함할 수 있다. In addition, the focusing lens 720 focuses light from the light source 710. The patterning element 730 patterns light passing through the focusing lens 720. The patterning element 730 may include, for example, at least one of a diffractive optical element (DOE), a hologram optical element (HOE), and a computer generated hologram (CGH). have.

도 9를 참조하면, 광 출력부(700)는 광의 경로를 조절하는 반사부재(740)를 더 포함할 수 있다. 반사부재(740)는, 예를 들면 적어도 하나의 미러(mirror)를 포함할 수 있다. 광원(710)과 패턴화 소자(730) 사이에 반사부재(740)를 더 배치하면, 광원(710)으로부터 출력된 광의 경로를 조절하여 다양한 크기 및 형상의 TOF 카메라 장치를 구현할 수 있다. 집속 렌즈(720), 패턴화 소자(730) 및 반사부재(740)는 도 2의 광 변환 유닛(114)의 일부 구성일 수 있다.Referring to FIG. 9, the light output unit 700 may further include a reflective member 740 that adjusts a path of light. The reflective member 740 may include, for example, at least one mirror. When the reflective member 740 is further disposed between the light source 710 and the patterning element 730, the TOF camera device of various sizes and shapes may be implemented by adjusting a path of light output from the light source 710. The focusing lens 720, the patterning element 730, and the reflective member 740 may be a part of the light conversion unit 114 of FIG. 2.

한편, 도 10 및 도 11을 참조하면, 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부는 패턴화 소자를 이용하여 패턴화된 광을 출력하며, 광 입력부는 패턴화된 광을 입력 받는다. Meanwhile, referring to FIGS. 10 and 11, the light output unit of the TOF camera apparatus according to an embodiment of the present invention outputs patterned light using a patterning element, and the light input unit receives patterned light .

예를 들어, 도 10 (a) 및 도 11 (a)와 같이, 광 출력부가 닷 패턴의 광을 출력하면, 광 입력부에도 닷 패턴의 광이 입력될 수 있다. 또는, 도 10 (b) 및 도 11 (b), 도 10 (c) 및 도 11 (c)와 같이 광 출력부가 격자 패턴, 직선 패턴의 광을 출력하면, 광 입력부에도 격자 패턴, 직선 패턴의 광이 입력될 수 있다. For example, as shown in FIGS. 10 (a) and 11 (a), when the light output unit outputs the dot pattern light, the dot pattern light may be input to the light input unit. Alternatively, when the light output unit outputs light of a lattice pattern and a linear pattern as shown in FIGS. 10 (b), 11 (b), 10 (c), and 11 (c), the light input unit may also be provided with a lattice pattern or a straight pattern. Light can be input.

이때, 광 출력부는 광 입력부의 픽셀의 유효면에 대응하는 패턴의 광을 출력할 수 있다. 즉, 광 출력부가 출력하는 광의 패턴은 광 입력부의 픽셀의 배열, 면적 및 형상 중 적어도 하나에 따를 수 있다. 예를 들어, 광 출력부가 출력하는 광의 패턴은 광 입력부의 픽셀의 배열, 면적 및 형상 중 적어도 하나에 따라 달라질 수 있다.At this time, the light output unit may output light having a pattern corresponding to an effective surface of a pixel of the light input unit. That is, the pattern of light output from the light output unit may be in accordance with at least one of the pixel arrangement, area, and shape of the light input unit. For example, the pattern of the light output by the light output unit may vary according to at least one of the pixel arrangement, area, and shape of the light input unit.

이와 같이, 광 출력부가 광 입력부의 픽셀에 매칭되는 패턴의 광을 출력하면, 픽셀의 유효면에 입력되는 광의 밀도를 높일 수 있다. 즉, 동일한 광량을 이용하여 높은 광 효율을 얻을 수 있다. 이에 따라, 깊이 정보의 추출 거리를 넓힐 수 있으며, SN 비(Signal to Noise Ratio)를 개선할 수 있다. 또한, 광 효율의 향상으로 인하여 저전력 구동이 가능하며, 광원의 개수를 줄임으로써 소형 및 경량의 TOF 카메라 장치를 구현할 수 있다. As described above, when the light output unit outputs light having a pattern matching the pixels of the light input unit, it is possible to increase the density of light input to the effective surface of the pixel. That is, high light efficiency can be obtained by using the same amount of light. Accordingly, the extraction distance of the depth information can be widened, and the signal to noise ratio (SN ratio) can be improved. In addition, due to the improvement of light efficiency, low-power driving is possible, and by reducing the number of light sources, a compact and lightweight TOF camera device can be implemented.

한편, 본 발명의 한 실시예에 따른 TOF 카메라 장치는 연산부의 연산 결과를 이용하여 광량을 조절할 수 있다. On the other hand, the TOF camera apparatus according to an embodiment of the present invention can adjust the amount of light using the calculation result of the calculation unit.

도 12는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광량 조절 방법을 나나태는 흐름도이다.12 is a flowchart illustrating a method of adjusting a light amount of a TOF camera device according to an embodiment of the present invention.

도 12를 참조하면, TOF 카메라 장치의 연산부(140)는 In Phase 수신 유닛과 Out phase 수신 유닛 간의 광량을 비교하며(S1200), 광량 차에 기초하여 물체와 카메라 간의 거리를 측정한다(S1210). 예를 들어, 연산부(140)는 In Phase 수신 유닛의 광량에 비하여 Out Phase 수신 유닛의 광량이 많을수록 물체의 거리가 먼 것으로 판단할 수 있다.Referring to FIG. 12, the operation unit 140 of the TOF camera apparatus compares the amount of light between the In Phase receiving unit and the Out phase receiving unit (S1200), and measures the distance between the object and the camera based on the difference in the amount of light (S1210). For example, the calculating unit 140 may determine that the distance of the object is greater as the light amount of the Out Phase receiving unit is greater than the light amount of the In Phase receiving unit.

그리고, 연산부(140)는 측정된 거리 정보를 광 제어부(130)에게 전달하며(S1220), 광 제어부(130)는 연산부(140)로부터 수신한 거리 정보를 이용하여 광 출력부(110)의 광량을 제어한다(S1230). Then, the calculation unit 140 transmits the measured distance information to the light control unit 130 (S1220), and the light control unit 130 uses the distance information received from the calculation unit 140, the amount of light of the light output unit 110 It controls (S1230).

예를 들어, 광 제어부(130)는 물체가 TOF 카메라 장치와 가까운 위치에 있을수록 광량을 줄이며, 먼 위치에 있을수록 광량을 증가시킬 수 있다. 광량은 광원으로부터 출력되는 광의 강도(intensity)에 의하여 제어될 수 있다. 즉, 물체가 TOF 카메라 장치와 가까운 위치에 있을수록 출력되는 광의 강도를 낮추며, 먼 위치에 있을수록 광의 강도를 높일 수 있다. For example, the light control unit 130 may reduce the amount of light as the object is closer to the TOF camera device, and increase the amount of light as it is farther away. The amount of light can be controlled by the intensity of light output from the light source. That is, the closer the object is to the TOF camera device, the lower the intensity of the output light, and the greater the distance, the higher the intensity of the light.

또는, 광량은 펄스 변조 또는 위상 변조에 의하여 제어될 수도 있다. 예를 들어, 물체가 TOF 카메라 장치와 가까운 위치에 있을수록 광원의 점멸 주기를 느리게 하며, 먼 위치에 있을수록 광원의 점멸 주기를 빠르게 할 수도 있다.Alternatively, the amount of light may be controlled by pulse modulation or phase modulation. For example, the closer the object is to the TOF camera device, the slower the flashing cycle of the light source may be, and the farther it is, the faster the flashing cycle of the light source may be.

이때, 제어부(130)는 전체 픽셀에서 추출된 거리의 평균 값, 중간 값 등을 기준으로 광량을 제어할 수 있다.At this time, the controller 130 may control the amount of light based on an average value, an intermediate value, and the like of the distance extracted from all pixels.

이와 같이, 광 제어부(130)가 연산부(140)의 연산 결과를 이용하여 광량을 조절하면, 물체가 가까운 위치에 있는 경우 광량을 줄임으로써 소비 전력을 줄일 수 있다. 그리고, 물체가 먼 위치에 있는 경우 광량을 증가시킴으로써 정확한 깊이 정보를 추출할 수 있다.As described above, when the light control unit 130 adjusts the light amount using the calculation result of the operation unit 140, power consumption can be reduced by reducing the light amount when the object is in a close position. And, when the object is in a distant position, accurate depth information can be extracted by increasing the amount of light.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to preferred embodiments of the present invention, those skilled in the art variously modify and change the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You can understand that you can.

100: TOF 카메라 장치
110: 광 출력부
120: 광 제어부
130: 광 입력부
140: 연산부
700: 광 출력부
710: 광원
720: 집속 렌즈
730: 패턴화 소자
740: 반사 부재
100: TOF camera device
110: light output
120: light control
130: optical input
140: operation unit
700: light output
710: light source
720: focus lens
730: patterning element
740: reflective member

Claims (5)

패턴화된 광을 출력하는 광 출력부,
각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 광 출력부로부터 출력된 후 물체에 반사된 광이 입력되는 광 입력부, 그리고
상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력된 광량의 차를 이용하여 물체의 거리를 연산하는 연산부를 포함하며,
상기 패턴화된 광의 패턴은 상기 광 입력부의 복수의 픽셀의 배열, 면적 및 형상 중 적어도 하나에 따르는 카메라 장치.
A light output unit that outputs patterned light,
An optical input unit including a plurality of pixels, each of which includes a first receiving unit and a second receiving unit, and after which light reflected from an object is output after being output from the optical output unit; and
It includes a calculation unit for calculating the distance of the object using the difference in the amount of light input to the first receiving unit and the second receiving unit,
The patterned pattern of light is a camera device according to at least one of an arrangement, area, and shape of a plurality of pixels of the light input unit.
제1항에 있어서,
상기 광 출력부는
광원, 그리고 상기 광원으로부터 출력된 광을 변조하는 광 변환 유닛을 포함하는 카메라 장치.
According to claim 1,
The light output unit
A camera device comprising a light source and a light conversion unit that modulates light output from the light source.
제2항에 있어서,
상기 광 변환 유닛은 광을 패턴화하는 회절 광학 소자(diffractive optical element, DOE), 홀로그램 광학 소자(hologram optical element, HOE) 및 컴퓨터 생성 홀로그램(computer generated hologram, CGH) 중 적어도 하나를 포함하는 카메라 장치.
According to claim 2,
The light conversion unit is a camera device comprising at least one of a diffractive optical element (DOE) patterning light, a hologram optical element (HOE) and a computer generated hologram (CGH) .
제3항에 있어서,
상기 광 변환 유닛은 상기 광원으로부터 출력된 광을 집속시키는 집속 렌즈, 그리고 광의 경로를 조절하는 반사부재 중 적어도 하나를 더 포함하는 카메라 장치.
According to claim 3,
The light conversion unit further includes at least one of a focusing lens for focusing light output from the light source, and a reflecting member for adjusting a path of light.
제1항에 있어서,
상기 광 출력부가 출력하는 광의 변조(modulation)을 제어하는 광 제어부를 더 포함하며,
상기 광 제어부는 상기 연산부로부터 수신한 물체의 거리에 대한 정보를 이용하여 광량을 조절하는 카메라 장치.
According to claim 1,
Further comprising a light control unit for controlling the modulation (modulation) of the light output by the light output unit,
The light control unit is a camera device that adjusts the amount of light using information on the distance of the object received from the operation unit.
KR1020140010585A 2014-01-28 2014-01-28 Camera apparatus KR102101865B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140010585A KR102101865B1 (en) 2014-01-28 2014-01-28 Camera apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140010585A KR102101865B1 (en) 2014-01-28 2014-01-28 Camera apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200044068A Division KR20200041851A (en) 2020-04-10 2020-04-10 Camera apparatus

Publications (2)

Publication Number Publication Date
KR20150089673A KR20150089673A (en) 2015-08-05
KR102101865B1 true KR102101865B1 (en) 2020-04-20

Family

ID=53886072

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140010585A KR102101865B1 (en) 2014-01-28 2014-01-28 Camera apparatus

Country Status (1)

Country Link
KR (1) KR102101865B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017201127A1 (en) * 2017-01-25 2018-07-26 Robert Bosch Gmbh Optical arrangement and a LIDAR device with such an optical arrangement
KR102472217B1 (en) * 2017-06-22 2022-11-30 엘지이노텍 주식회사 Light transmission apparatus and tof module using the same
KR102402477B1 (en) * 2017-08-04 2022-05-27 엘지이노텍 주식회사 Time of flight module
EP3652555B1 (en) 2017-08-31 2024-03-06 SZ DJI Technology Co., Ltd. A solid state light detection and ranging (lidar) system system and method for improving solid state light detection and ranging (lidar) resolution
EP3717932A1 (en) * 2017-11-28 2020-10-07 Sony Semiconductor Solutions Corporation Illumination device, time of flight system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009002804A (en) * 2007-06-21 2009-01-08 Sanyo Electric Co Ltd Beam irradiation device and laser radar
JP2009092535A (en) * 2007-10-10 2009-04-30 Ono Sokki Co Ltd Optical displacement gauge

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009002804A (en) * 2007-06-21 2009-01-08 Sanyo Electric Co Ltd Beam irradiation device and laser radar
JP2009092535A (en) * 2007-10-10 2009-04-30 Ono Sokki Co Ltd Optical displacement gauge

Also Published As

Publication number Publication date
KR20150089673A (en) 2015-08-05

Similar Documents

Publication Publication Date Title
US11680789B2 (en) Device for extracting depth information and method thereof
KR102101865B1 (en) Camera apparatus
EP3007096B1 (en) Depth sensor based auto-focus system for an indicia scanner
KR101975971B1 (en) Depth camera, multi-depth camera system, and synchronizing method thereof
US20120236288A1 (en) Range Based Sensing
US20130250308A2 (en) Object detecting device and information acquiring device
KR102237828B1 (en) Gesture detection device and detecting method of gesture using the same
KR102099935B1 (en) Time of flight camera apparatus
CN111263899B (en) Lighting device, time-of-flight system and method
KR102184042B1 (en) Camera apparatus
KR102610830B1 (en) Method and device for acquiring distance information
WO2016089306A1 (en) Gesture recognition devices, gesture recognition methods, and computer readable media
US10085013B2 (en) 3D camera module
US9063219B2 (en) Optical touch system
KR20200041851A (en) Camera apparatus
KR101412892B1 (en) Distance measuring apparatus and method
KR102307610B1 (en) Apparatus for detecting depth map
KR102101864B1 (en) Apparatus for detecting depth map
KR20200038227A (en) Time of flight camera apparatus
KR102251115B1 (en) Apparatus and method for detecting depth map
TWI564754B (en) Spatial motion sensing device and spatial motion sensing method
KR20230046736A (en) Camera module
KR20240065641A (en) A Light Source Module Capable of Integrating Long-Range and Short-Range Sensing and A Lidar System including the same.
KR102106080B1 (en) Apparatus and method for detecting depth map
WO2015071358A1 (en) Method for illuminating an object

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right