WO2015115799A1 - 카메라 장치 - Google Patents

카메라 장치 Download PDF

Info

Publication number
WO2015115799A1
WO2015115799A1 PCT/KR2015/000913 KR2015000913W WO2015115799A1 WO 2015115799 A1 WO2015115799 A1 WO 2015115799A1 KR 2015000913 W KR2015000913 W KR 2015000913W WO 2015115799 A1 WO2015115799 A1 WO 2015115799A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
lens
unit
light output
output unit
Prior art date
Application number
PCT/KR2015/000913
Other languages
English (en)
French (fr)
Inventor
이상현
이기석
이세규
정성기
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to US15/115,189 priority Critical patent/US10393876B2/en
Priority to EP15742830.1A priority patent/EP3101887B1/en
Priority to JP2016549149A priority patent/JP6580578B2/ja
Priority to CN201580006648.2A priority patent/CN105940669B/zh
Publication of WO2015115799A1 publication Critical patent/WO2015115799A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/12Fluid-filled or evacuated lenses
    • G02B3/14Fluid-filled or evacuated lenses of variable focal length
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination

Definitions

  • the present invention relates to a camera device, and more particularly, to extraction of depth information of a TOF camera device.
  • Depth map is required to obtain such a 3D image.
  • Depth information is information representing a distance in space and represents perspective information of another point with respect to one point of the 2D image.
  • One method of obtaining depth information is a method of projecting IR (Infrared) structured light onto an object and extracting depth information by analyzing light reflected from the object. According to the IR structured light method, it is difficult to obtain a desired depth resolution for a moving object.
  • IR structured light method it is difficult to obtain a desired depth resolution for a moving object.
  • the Time of Flight (TOF) method is attracting attention.
  • the distance to the object is calculated by measuring the flight time, that is, the time when the light is reflected by the light.
  • a camera according to the TOF method includes a scanner for adjusting the angle of light emitted to an object and a mirror for adjusting the light path.
  • a TOF camera since light must be reflected several times, the structure is complicated, and there is a problem that it is difficult to realize a small size.
  • the scanner since the scanner must adjust the refractive index of the light output from the light source in order to scan the front surface of the object with a fast response speed, there is a technical limitation that the scanner has a fast response speed.
  • An object of the present invention is to provide a TOF camera apparatus for extracting depth information.
  • a camera apparatus includes an optical output unit for outputting IR (InfraRed) light, each of the plurality of pixels including a first receiving unit and a second receiving unit, and outputs from the optical output unit And a light input unit to which light reflected from the object is input, and an operation unit that calculates a distance of the object using a difference between the amounts of light input to the first receiving unit and the second receiving unit.
  • the apparatus may further include a power supply unit applying a voltage to the first lens and the second lens.
  • Different voltages may be applied to the first lens and the second lens.
  • At least one of the first lens and the second lens may include a glass substrate, a polymer disposed on the glass substrate, a glass film disposed on the polymer, and a piezoelectric element disposed on the glass film.
  • the power source may be connected to the piezoelectric element.
  • the shape of the polymer varies according to the voltage applied to the piezoelectric element, and at least one of the refractive index and the refraction direction of the lens may vary according to the shape of the polymer.
  • the first direction and the second direction may form an angle of 90 degrees.
  • the first receiving unit may be activated while the light source is turned on, and the second receiving unit may be activated while the light source is turned off.
  • the light output unit may further include a light transmission member disposed between the light output unit and the first lens and configured to transmit light output from the light output unit to the first lens.
  • a camera device includes an optical output unit for outputting IR (InfraRed) light, an optical input unit for outputting light reflected from an object after being output from the optical output unit, and an amount of light input to the optical input unit
  • a calculation unit configured to calculate a distance of an object by using a plurality of lenses, and further comprising a plurality of lenses sequentially disposed between the light output unit and the object, the plurality of lenses according to voltages applied to each of the plurality of lenses. At least one of the refractive index and the refraction direction of is adjusted differently from each other.
  • the plurality of lenses may include a tunable lens.
  • the plurality of lenses may be fixed in the lens holder at predetermined intervals.
  • the TOF camera can be easily implemented in a small size and can be easily assembled to increase mass productivity.
  • depth information can be accurately extracted and power consumption can be reduced.
  • FIG. 1 shows a block diagram of a TOF camera apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of an optical output unit of a TOF camera apparatus according to an exemplary embodiment of the present invention.
  • FIG 3 is a structure of a light input unit of a TOF camera apparatus according to an embodiment of the present invention.
  • FIG. 4 is a diagram for describing a method of calculating a distance of an object by an operation unit of a TOF device, according to an exemplary embodiment.
  • FIG. 5 illustrates a TOF device in accordance with one embodiment of the present invention.
  • FIGS. 6 and 7 are cross-sectional views of a lens included in a TOF camera apparatus according to an embodiment of the present invention.
  • FIG. 10 is a diagram for explaining contents of scanning different X and Y axes by applying different voltages to two lenses included in the TOF camera apparatus.
  • ordinal numbers such as second and first
  • first and second components may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component.
  • FIG. 1 is a block diagram of a TOF camera apparatus according to an embodiment of the present invention
  • FIG. 2 is a block diagram of an optical output unit of the TOF camera apparatus according to an embodiment of the present invention
  • FIG. 3 is an embodiment of the present invention.
  • 4 is a diagram illustrating a method of calculating a distance of an object by an operation unit of the TOF device according to an embodiment of the present invention.
  • the TOF camera apparatus 100 includes a light output unit 110, a light control unit 120, a light input unit 130, and a calculator 140.
  • the light output unit 110 outputs IR (infrared) light.
  • the IR light may be, for example, light having a wavelength band of 800 nm or more.
  • the light output unit 110 includes a light source 112 and a light conversion unit 114.
  • the light source may include at least one laser diode (LD) or a light emitting diode (LED) for projecting infrared rays.
  • the light conversion unit 114 may modulate the light output from the light source 112.
  • the light conversion unit 114 may, for example, pulse modulate or phase modulate the light output from the light source 112. Accordingly, the light output unit 110 may output while blinking the light source at predetermined intervals.
  • the light adjusting unit 120 adjusts the angle of the light so that the light output from the light output unit 110 is irradiated to the front of the object.
  • the light input unit 130 receives the light reflected by the object after being output from the light output unit 110.
  • the light input unit 130 may convert the received light into an electrical signal.
  • the light input unit 130 may be an image sensor including a photo diode (PD) or a complementary metal-oxide semiconductor (CMOS).
  • PD photo diode
  • CMOS complementary metal-oxide semiconductor
  • the light input unit 130 includes a plurality of pixels 132 arranged. Each pixel may include an In Phase receiving unit 132-1 and an Out Phase receiving unit 132-2.
  • the In Phase receiving unit 132-1 may be activated while the light source is turned on, and the Out Phase receiving unit 132-2 may be activated while the light source is turned off.
  • the in phase receiving unit 132-1 and the out phase receiving unit 132-2 are activated with a time difference, a difference occurs in the amount of light received according to the distance to the object.
  • the blinking period of the light source is It is a light reception period as it is. Accordingly, only the In Phase receiving unit 132-1 receives the light, and the Out Phase receiving unit 132-2 does not receive the light.
  • the object is located a predetermined distance away from the TOF camera device, since the light is output from the light output unit 110, it takes time to reflect the object, so that the flashing period of the light source is different from the receiving period of the light do. Accordingly, a difference occurs in the amount of light received by the In Phase receiving unit 132-1 and the Out Phase receiving unit 132-2.
  • the calculator 140 calculates a distance of an object by using a difference in the amount of light input to the in phase receiving unit 132-1 and the out phase receiving unit 132-2.
  • the light adjusting unit 120 may include a scanner for adjusting the angle of light irradiated to the object.
  • the light output from the light source reaches the scanner, and light may be irradiated onto the front surface of the object as the scanner rotates.
  • the light irradiated from the object may be reflected by the scanner and then input back to the light input unit 130.
  • the actuator is connected to the scanner, the scanner can be rotated by the actuator.
  • the actuator may include a micro electro mechanical system (MEMS) actuator.
  • MEMS refers to a system in which microstructures of mechanical structures and electronic circuits are integrated. According to an embodiment of the present invention, the MEMS actuator may finely adjust the angle of light scanned on the object by using an electrical signal.
  • the TOF camera device includes a scanner, the number of parts increases, and it becomes difficult to implement the device compactly.
  • the light control unit of the TOF camera device includes at least two lenses disposed between the light source and the object and refracting the light. Accordingly, the light output from the light source can be irradiated to the front of the object without the scanner.
  • FIG. 5 illustrates a TOF device in accordance with one embodiment of the present invention.
  • the light source 500 outputs IR light.
  • the IR light output may be pulsed or phase modulated light at the light conversion unit.
  • the light source 500 may include, for example, a laser diode (LD) for outputting short wavelength light, a light emitting diode (LED), a light emitting diode having a multi-cell structure, and the like. .
  • LD laser diode
  • LED light emitting diode
  • the IR light output from the light source 500 passes through the first lens 510 and is refracted in the first direction. Then, the light passing through the first lens 510 passes through the second lens 520 and is refracted in the second direction.
  • the first lens 510 and the second lens 520 may be arranged on the optical axis of the IR light output from the light source 500.
  • the first lens 510 and the second lens 520 may be sequentially arranged between the light source 500 and the object.
  • the first lens 510 and the second lens 520 may be fixed in the lens holder at predetermined intervals, and the center of the lens holder and the center of the light source may be positioned in a straight line.
  • the light source 500, the first lens 510, and the second lens 520 may be sequentially received at a predetermined interval in one holder.
  • the first and second directions may be different directions.
  • the second direction may be the Y-axis direction. Accordingly, light passing through the first lens 510 and the second lens 520 may be irradiated to both the X-axis line and the Y-axis line of the screen.
  • a power source is connected to the first lens 510 and the second lens 520, and the power source may apply a voltage to the first lens 510 and the second lens 520, respectively.
  • the voltages applied to the first lens 510 and the second lens 520 may adjust at least one of refractive indices and refractive directions of the first lens 510 and the second lens 520. That is, by applying different voltages to the first lens 510 and the second lens 520, the refractive index and the refraction direction of the light may be adjusted.
  • at least one of the first lens 510 and the second lens 520 may be a tunable lens.
  • the light input unit 530 may include, for example, a photo diode (PD).
  • PD photo diode
  • a light transmitting member 550 may be further disposed between the light source 500 and the first lens 510 to transmit the IR light output from the light source 500 to the first lens 510.
  • the light transmitting member may be, for example, a focusing lens.
  • FIG. 6 and 7 are cross-sectional views of a lens included in a TOF camera apparatus according to an embodiment of the present invention.
  • 6 illustrates a state in which no voltage is applied to the lens
  • FIG. 7 illustrates a state in which a voltage is applied to the lens.
  • 8 and 9 illustrate voltages applied to two lenses included in the TOF camera apparatus according to an embodiment of the present invention
  • FIG. 10 is different from two lenses included in the TOF camera apparatus. It is a figure explaining the content which scans an X-axis direction and a Y-axis direction by applying a voltage.
  • the lens 600 included in the TOF camera apparatus may include a glass substrate 610, a polymer 620 disposed on one side of the glass substrate, and a polymer.
  • the piezoelectric film can be, for example, a piezo film.
  • the piezoelectric film 640 is connected to a power source. When a voltage is applied to the piezoelectric film 640, pressure is applied to the piezoelectric film 640, so that the shape of the polymer 620 may be deformed.
  • the thickness and shape of the polymer 620 may vary according to the magnitude of the voltage applied to the piezoelectric film 640, and the refractive index and the direction of refraction of light passing through the lens may vary according to the thickness, shape, etc. of the polymer 620. have.
  • the lens 600 may be, for example, a tunable lens.
  • a region including an object may be scanned by applying different voltages to two lenses included in the TOF camera apparatus. For example, by applying a predetermined voltage to one lens, the light may be refracted to scan the X axis direction. Then, light may be refracted to scan the Y-axis direction by applying different voltages to the remaining lenses.
  • the range of the scanned area may be adjusted by using voltages applied to two lenses included in the TOF camera apparatus.
  • the narrower the region to be scanned that is, the region including the object
  • the lower voltage may be applied to the lens
  • the wider the region to be scanned may be applied to the lens.
  • the lower the voltage is applied to the lens the smaller the shape of the polymer is, so that light can be refracted to a narrower range
  • the higher the voltage is applied to the lens the larger the shape of the polymer is deformed, and the light can be refracted to a wider range. have.

Abstract

본 발명의 한 실시예에 따른 카메라 장치는 IR(InfraRed) 광을 출력하는 광 출력부, 각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 광 출력부로부터 출력된 후 객체로부터 반사된 광이 입력되는 광 입력부, 그리고 상기 광 입력부의 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력된 광량의 차를 이용하여 객체의 거리를 연산하는 연산부를 포함하며, 상기 광 출력부와 상기 객체 사이에 배치되고, 상기 광 출력부로부터 출력된 광을 제1 방향으로 굴절시키는 제1 렌즈, 그리고 상기 광 출력부로부터 출력된 광을 제2 방향으로 굴절시키는 제2 렌즈를 더 포함한다.

Description

카메라 장치
본 발명은 카메라 장치에 관한 것으로, 보다 상세하게는 TOF 카메라 장치의 깊이 정보 추출에 관한 것이다.
촬영 장치를 이용하여 3차원 영상을 획득하는 기술이 발전하고 있다. 이러한 3차원 영상을 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다.
깊이 정보를 획득하는 방법 중 하나는, IR(Infrared) 구조광을 객체에 투사하며, 객체로부터 반사된 광을 해석하여 깊이 정보를 추출하는 방식이다. IR 구조광 방식에 따르면, 움직이는 객체에 대하여 원하는 수준의 깊이 분해능(Depth resolution)을 얻기 어려운 문제가 있다.
IR 구조광 방식을 대체하는 기술로 TOF(Time of Flight) 방식이 주목받고 있다. TOF 방식에 따르면, 비행 시간, 즉 빛을 쏘아서 반사되어 오는 시간을 측정함으로써 객체와의 거리를 계산한다.
일반적으로, TOF 방식에 따르는 카메라(이하, TOF 카메라)는 객체에 조사되는 빛의 각도를 조절하는 스캐너 및 빛의 경로를 조절하는 미러를 포함한다. 이러한 TOF 카메라 내에서는 빛이 수 차례에 걸쳐서 반사되어야 하므로, 구조가 복잡하고, 소형으로 구현하기 어려운 문제가 있다. 또한, 스캐너가 객체의 전면을 스캔하기 위하여 광원으로부터 출력된 빛의 굴절률을 빠른 응답 속도로 조절하여야 하지만, 스캐너가 빠른 응답 속도를 가지기에는 기술적으로 한계가 있다.
본 발명이 이루고자 하는 기술적 과제는 깊이 정보를 추출하는 TOF 카메라 장치를 제공하는 데 있다.
본 발명의 한 실시예에 따른 카메라 장치는 IR(InfraRed) 광을 출력하는 광 출력부, 각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 광 출력부로부터 출력된 후 객체로부터 반사된 광이 입력되는 광 입력부, 그리고 상기 광 입력부의 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력된 광량의 차를 이용하여 객체의 거리를 연산하는 연산부를 포함하며, 상기 광 출력부와 상기 객체 사이에 배치되고, 상기 광 출력부로부터 출력된 광을 제1 방향으로 굴절시키는 제1 렌즈, 그리고 상기 광 출력부로부터 출력된 광을 제2 방향으로 굴절시키는 제2 렌즈를 더 포함한다.
상기 제1 렌즈 및 상기 제2 렌즈에게 전압을 인가하는 전원부를 더 포함할 수 있다.
상기 제1 렌즈 및 상기 제2 렌즈에게 서로 다른 전압이 인가될 수 있다.
상기 제1 렌즈 및 상기 제2 렌즈 중 적어도 하나는 유리 기판, 상기 유리 기판 상에 배치된 폴리머, 상기 폴리머 상에 배치된 유리 막, 그리고 상기 유리 막 상에 배치된 압전 소자를 포함할 수 있다.
상기 전원은 상기 압전 소자와 연결될 수 있다.
상기 압전 소자에게 인가되는 전압에 따라 상기 폴리머의 형상이 달라지며, 상기 폴리머의 형상에 따라 렌즈의 굴절률 및 굴절 방향 중 적어도 하나가 달라질 수 있다.
상기 제1 방향과 상기 제2 방향은 90도의 각도를 이룰 수 있다.
상기 제1 수신 유닛은 광원이 켜지는 동안 활성화되고, 상기 제2 수신 유닛은 광원이 꺼지는 동안 활성화될 수 있다.
상기 광 출력부와 상기 제1 렌즈 사이에 배치되며, 상기 광 출력부로부터 출력된 광을 상기 제1 렌즈에게 전달하는 광 전달부재를 더 포함할 수 있다.
본 발명의 한 실시예에 따른 카메라 장치는 IR(InfraRed) 광을 출력하는 광 출력부, 상기 광 출력부로부터 출력된 후 객체로부터 반사된 광이 입력되는 광 입력부, 그리고 상기 광 입력부에 입력된 광량을 이용하여 객체의 거리를 연산하는 연산부를 포함하며, 상기 광 출력부와 상기 객체 사이에 순차적으로 배치되는 복수의 렌즈를 더 포함하고, 상기 복수의 렌즈 각각에 인가되는 전압에 따라 상기 복수의 렌즈의 굴절률 및 굴절 방향 중 적어도 하나가 서로 다르게 조절된다.
상기 복수의 렌즈는 튜너블(Tunable) 렌즈를 포함할 수 있다.
상기 복수의 렌즈는 소정 간격으로 렌즈 홀더 내에 고정될 수 있다.
본 발명의 실시예에 따르면, TOF 카메라를 소형으로 간단하게 구현할 수 있으며, 조립이 용이하여 양산성을 높일 수 있다. 또한, 높은 광효율로 인하여 깊이 정보를 정밀하게 추출할 수 있으며, 소비전력을 줄일 수 있다. 특히, 스캐너를 사용하지 않고도 빠른 속도로 객체의 전면에 광을 조사할 수 있다.
도 1은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 블록도를 나타낸다.
도 2는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 블록도이다.
도 3은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 입력부의 구조이다.
도 4는 본 발명의 한 실시예에 따른 TOF 장치의 연산부가 객체의 거리를 계산하는 방법을 설명하는 도면이다.
도 5는 본 발명의 한 실시예에 따른 TOF 장치를 나타낸다.
도 6 및 도 7은 본 발명의 한 실시예에 따른 TOF 카메라 장치에 포함되는 렌즈의 단면도이다.
도 8 및 도 9는 본 발명의 한 실시예에 따른 TOF 카메라 장치에 포함되는 두 매의 렌즈에 각각 인가되는 전압을 나타낸다.
도 10은 TOF 카메라 장치에 포함되는 두 매의 렌즈에 서로 다른 전압이 인가되어, X 축 방향과 Y 축 방향을 스캔하는 내용을 설명하는 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 블록도를 나타내며, 도 2는 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 출력부의 블록도이며, 도 3은 본 발명의 한 실시예에 따른 TOF 카메라 장치의 광 입력부의 구조이고, 도 4는 본 발명의 한 실시예에 따른 TOF 장치의 연산부가 객체의 거리를 계산하는 방법을 설명하는 도면이다.
도 1을 참조하면, TOF 카메라 장치(100)는 광 출력부(110), 광 조절부(120), 광 입력부(130) 및 연산부(140)를 포함한다.
광 출력부(110)는 IR(infrared) 광을 출력한다. IR 광은, 예를 들면 800nm 이상의 파장 대역을 가지는 광일 수 있다. 도 2를 참조하면, 광 출력부(110)는 광원(112) 및 광 변환 유닛(114)을 포함한다. 광원은 적외선을 투사하는 적어도 하나의 레이저 다이오드(Laser Diode, LD) 또는 발광 다이오드(Light Emitting Diode, LED)를 포함할 수 있다. 그리고, 광 변환 유닛(114)은 광원(112)으로부터 출력된 광을 변조(modulation)할 수 있다. 광 변환 유닛(114)은, 예를 들면 광원(112)으로부터 출력된 광을 펄스(pulse) 변조 또는 위상(phase) 변조할 수 있다. 이에 따라, 광 출력부(110)는 소정 간격으로 광원을 점멸시키며 출력할 수 있다.
다시 도 1을 참조하면, 광 조절부(120)는 광 출력부(110)가 출력하는 광이 객체의 전면에 조사되도록 광의 각도를 조절한다.
한편, 광 입력부(130)는 광 출력부(110)로부터 출력된 후 객체에 의하여 반사된 광을 입력 받는다. 광 입력부(130)는 입력 받은 광을 전기 신호로 변환할 수 있다. 광 입력부(130)는, 포토 다이오드(photo diode, PD) 또는 CMOS(complementary metal-oxide semiconductor)를 포함하는 이미지 센서일 수 있다.
도 3을 참조하면, 광 입력부(130)는 배열된 복수의 픽셀(pixel)(132)을 포함한다. 각 픽셀은 In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)을 포함할 수 있다. 도 4를 참조하면, In Phase 수신 유닛(132-1)은 광원이 켜지는 동안 활성화되고, Out Phase 수신 유닛(132-2)은 광원이 꺼지는 동안 활성화될 수 있다. 이와 같이, In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)이 시간 차를 두고 활성화되면, 객체와의 거리에 따라 수신되는 광량에 차이가 발생하게 된다. 예를 들어, 객체가 TOF 카메라 장치 바로 앞에 있는 경우(즉, 거리=0인 경우)에는, 광 출력부(110)로부터 광이 출력된 후 반사되어 오는데 걸리는 시간이 0이므로, 광원의 점멸 주기는 그대로 광의 수신 주기가 된다. 이에 따라, In Phase 수신 유닛(132-1)만이 빛을 수신하게 되고, Out Phase 수신 유닛(132-2)은 빛을 수신하지 못하게 된다. 다른 예로, 객체가 TOF 카메라 장치와 소정 거리 떨어져 위치하는 경우, 광 출력부(110)로부터 광이 출력된 후 객체에 반사되어 오는데 시간이 걸리므로, 광원의 점멸 주기는 광의 수신 주기와 차이가 나게 된다. 이에 따라, In Phase 수신 유닛(132-1)과 Out Phase 수신 유닛(132-2)이 수신하는 빛의 양에 차이가 발생하게 된다.
다시 도 1을 참조하면, 연산부(140)는 In Phase 수신 유닛(132-1) 및 Out Phase 수신 유닛(132-2)에 입력된 광량의 차를 이용하여 객체의 거리를 연산한다.
일반적으로, 광 조절부(120)는 객체에 조사되는 빛의 각도를 조절하는 스캐너를 포함할 수 있다. 광원으로부터 출력된 광은 스캐너에 도달하며, 스캐너의 회전에 따라 객체의 전면에 광이 조사될 수 있다. 객체로부터 조사된 광은 스캐너에서 반사된 후 광 입력부(130)로 다시 입력될 수 있다. 한편, 스캐너에는 액츄에이터가 연결되며, 스캐너는 액츄에이터에 의하여 회전할 수 있다. 여기서, 액츄에이터는 MEMS(Micro Electo Mechanical System) 액츄에이터(actuator)를 포함할 수 있다. MEMS는 마이크로 단위의 기계적 구조물과 전자회로가 집적되어 있는 시스템을 의미한다. 본 발명의 실시예에 따르면, MEMS 액츄에이터는 전기적인 신호를 이용하여 물체에 주사되는 광의 각도를 미세하게 조정할 수 있다.
이와 같이, TOF 카메라 장치가 스캐너를 포함하면, 부품의 수가 많아지며, 장치를 소형으로 구현하기 어려워진다.
본 발명의 한 실시예에 따르면, TOF 카메라 장치의 광 조절부는 광원과 객체 사이에 배치되어, 광을 굴절시키는 적어도 두 매의 렌즈를 포함한다. 이에 따라, 광원으로부터 출력된 빛은 스캐너 없이도 객체의 전면에 조사될 수 있다.
도 5는 본 발명의 한 실시예에 따른 TOF 장치를 나타낸다.
도 5를 참조하면, 광원(500)은 IR 광을 출력한다. 출력되는 IR 광은 광 변환 유닛에서 펄스 또는 위상 변조된 광일 수 있다. 광원(500)은, 예를 들면 단파장 광을 출력하는 레이저 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitting Diode, LED), 멀티 셀(multi cell) 구조를 가지는 발광 다이오드 등을 포함할 수 있다.
광원(500)으로부터 출력된 IR 광은 제1 렌즈(510)를 통과하여 제1 방향으로 굴절된다. 그리고, 제1 렌즈(510)를 통과한 광은 제2 렌즈(520)를 통과하여 제2 방향으로 굴절된다. 여기서, 제1 렌즈(510) 및 제2 렌즈(520)는 광원(500)이 출력하는 IR광의 광 축 상에 배열될 수 있다. 제1 렌즈(510) 및 제2 렌즈(520)는 광원(500)과 객체 사이에서 순차적으로 배열될 수 있다. 이를 위하여, 제1 렌즈(510) 및 제2 렌즈(520)는 소정의 간격으로 렌즈 홀더 내에 고정될 수 있으며, 렌즈 홀더의 중심과 광원의 중심은 일직선 상에 위치할 수 있다. 광원(500), 제1 렌즈(510) 및 제2 렌즈(520)는 하나의 홀더 내에서 소정 간격을 이루며 순차적으로 수용될 수도 있다.
그리고, 제1 방향과 제2 방향은 서로 다른 방향일 수 있다. 예를 들어, 제1 방향이 X축 방향인 경우, 제2 방향은 Y 축 방향일 수 있다. 이에 따라, 제1 렌즈(510) 및 제2 렌즈(520)를 통과한 빛은 화면의 X 축 라인과 Y 축 라인에 모두 조사될 수 있다.
이때, 제1 렌즈(510) 및 제2 렌즈(520)에는 전원이 연결되며, 전원은 제1 렌즈(510) 및 제2 렌즈(520)에게 각각 전압을 인가할 수 있다. 제1 렌즈(510) 및 제2 렌즈(520)에 인가된 전압은 제1 렌즈(510) 및 제2 렌즈(520)의 굴절률 및 굴절 방향 중 적어도 하나를 조절할 수 있다. 즉, 제1 렌즈(510) 및 제2 렌즈(520)에 서로 다른 전압을 인가하여, 광의 굴절률 및 굴절 방향을 조절할 수 있다. 이를 위하여, 제1 렌즈(510) 및 제2 렌즈(520) 중 적어도 하나는 튜너블 렌즈(Tunable(T) Lens)일 수 있다.
객체의 전면에 조사된 광은 객체로부터 반사되어 광 입력부(530)에 도달한다. 광 입력부(530)는, 예를 들면 포토 다이오드(Photo Diode, PD)를 포함할 수 있다. 광 입력부(530)에 도달한 광은 전기 신호로 변환되며, 연산부(540)는 변환된 전기 신호를 이용하여 객체의 거리를 연산한다.
한편, 광원(500)과 제1 렌즈(510) 사이에는 광원(500)으로부터 출력된 IR 광을 제1 렌즈(510)에게 전달하는 광 전달부재(550)가 더 배치될 수 있다. 광 전달부재는, 예를 들면 집속 렌즈일 수 있다.
도 6 및 도 7은 본 발명의 한 실시예에 따른 TOF 카메라 장치에 포함되는 렌즈의 단면도이다. 도 6은 렌즈에 전압이 인가되지 않은 상태를 나타내고, 도 7은 렌즈에 전압이 인가된 상태를 나타낸다. 그리고, 도 8 및 도 9는 본 발명의 한 실시예에 따른 TOF 카메라 장치에 포함되는 두 매의 렌즈에 각각 인가되는 전압을 나타내고, 도 10은 TOF 카메라 장치에 포함되는 두 매의 렌즈에 서로 다른 전압이 인가되어, X 축 방향과 Y 축 방향을 스캔하는 내용을 설명하는 도면이다.
도 6 및 도 7을 참조하면, 본 발명의 한 실시예에 따른 TOF 카메라 장치에 포함되는 렌즈(600)는 각각 유리 기판(610), 유리 기판의 한 면에 배치된 폴리머(620), 폴리머의 한 면에 배치된 유리 막(630), 그리고 유리막의 한 면에 배치된 압전 필름(640)을 포함한다. 압전 필름은, 예를 들면 피에조 필름(piezo film)일 수 있다.
그리고, 압전 필름(640)에는 전원이 연결된다. 압전 필름(640)에 전압이 인가되면, 압전 필름(640)에는 압력이 가해지게 되어, 폴리머(620)의 형상이 변형될 수 있다. 압전 필름(640)에 인가되는 전압의 크기에 따라 폴리머(620)의 두께, 형상 등이 달라질 수 있으며, 폴리머(620)의 두께, 형상 등에 따라 렌즈를 통과하는 빛의 굴절률 및 굴절 방향이 달라질 수 있다. 렌즈(600)는, 예를 들면 튜너블(tunable) 렌즈일 수 있다.
도 8 내지 10을 참조하면, TOF 카메라 장치 내에 포함되는 두 매의 렌즈에 서로 다른 전압을 인가하여 객체를 포함하는 영역을 스캔할 수 있다. 예를 들어, 하나의 렌즈에게 소정의 전압을 인가하여 X 축 방향을 스캔할 수 있도록 빛을 굴절시킬 수 있다. 그리고, 나머지 렌즈에게 다른 전압을 인가하여 Y 축 방향을 스캔할 수 있도록 빛을 굴절시킬 수 있다.
한편, TOF 카메라 장치 내에 포함되는 두 매의 렌즈에 인가되는 전압을 이용하여 스캔되는 영역의 범위를 조절할 수도 있다. 예를 들어, 스캔되어야 하는 영역, 즉 객체를 포함하는 영역이 좁을수록 렌즈에 낮은 전압을 인가하고, 스캔되어야 하는 영역이 넓을수록 렌즈에 높은 전압을 인가할 수 있다. 렌즈에 낮은 전압을 인가할수록, 폴리머의 형상이 작게 변형되어, 빛은 좁은 범위로 굴절될 수 있으며, 렌즈에 높은 전압을 인가할수록, 폴리머의 형상이 크게 변형되어, 빛은 넓은 범위로 굴절될 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (12)

  1. IR(InfraRed) 광을 출력하는 광 출력부,
    각각이 제1 수신 유닛 및 제2 수신 유닛을 포함하는 복수의 픽셀을 포함하며, 상기 광 출력부로부터 출력된 후 객체로부터 반사된 광이 입력되는 광 입력부, 그리고
    상기 광 입력부의 상기 제1 수신 유닛 및 상기 제2 수신 유닛에 입력된 광량의 차를 이용하여 객체의 거리를 연산하는 연산부
    를 포함하며,
    상기 광 출력부와 상기 객체 사이에 배치되고, 상기 광 출력부로부터 출력된 광을 제1 방향으로 굴절시키는 제1 렌즈, 그리고 상기 광 출력부로부터 출력된 광을 제2 방향으로 굴절시키는 제2 렌즈를 더 포함하는 카메라 장치.
  2. 제1항에 있어서,
    상기 제1 렌즈 및 상기 제2 렌즈에게 전압을 인가하는 전원부
    를 더 포함하는 카메라 장치.
  3. 제2항에 있어서,
    상기 제1 렌즈 및 상기 제2 렌즈에게 서로 다른 전압이 인가되는 카메라 장치.
  4. 제3항에 있어서,
    상기 제1 렌즈 및 상기 제2 렌즈 중 적어도 하나는 유리 기판, 상기 유리 기판 상에 배치된 폴리머, 상기 폴리머 상에 배치된 유리 막, 그리고 상기 유리 막 상에 배치된 압전 소자를 포함하는 카메라 장치.
  5. 제4항에 있어서,
    상기 전원은 상기 압전 소자와 연결되는 카메라 장치.
  6. 제5항에 있어서,
    상기 압전 소자에게 인가되는 전압에 따라 상기 폴리머의 형상이 달라지며, 상기 폴리머의 형상에 따라 렌즈의 굴절률 및 굴절 방향 중 적어도 하나가 달라지는 카메라 장치.
  7. 제1항에 있어서,
    상기 제1 방향과 상기 제2 방향은 90도의 각도를 이루는 카메라 장치.
  8. 제1항에 있어서,
    상기 제1 수신 유닛은 광원이 켜지는 동안 활성화되고, 상기 제2 수신 유닛은 광원이 꺼지는 동안 활성화되는 카메라 장치.
  9. 제1항에 있어서,
    상기 광 출력부와 상기 제1 렌즈 사이에 배치되며, 상기 광 출력부로부터 출력된 광을 상기 제1 렌즈에게 전달하는 광 전달부재를 더 포함하는 카메라 장치.
  10. IR(InfraRed) 광을 출력하는 광 출력부,
    상기 광 출력부로부터 출력된 후 객체로부터 반사된 광이 입력되는 광 입력부, 그리고
    상기 광 입력부에 입력된 광량을 이용하여 객체의 거리를 연산하는 연산부
    를 포함하며,
    상기 광 출력부와 상기 객체 사이에 순차적으로 배치되는 복수의 렌즈를 더 포함하고,
    상기 복수의 렌즈 각각에 인가되는 전압에 따라 상기 복수의 렌즈의 굴절률 및 굴절 방향 중 적어도 하나가 서로 다르게 조절되는 카메라 장치.
  11. 제10항에 있어서,
    상기 복수의 렌즈는 튜너블(Tunable) 렌즈를 포함하는 카메라 장치.
  12. 제10항에 있어서,
    상기 복수의 렌즈는 소정 간격으로 렌즈 홀더 내에 고정되는 카메라 장치.
PCT/KR2015/000913 2014-01-29 2015-01-28 카메라 장치 WO2015115799A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/115,189 US10393876B2 (en) 2014-01-29 2015-01-28 Camera device
EP15742830.1A EP3101887B1 (en) 2014-01-29 2015-01-28 Camera device
JP2016549149A JP6580578B2 (ja) 2014-01-29 2015-01-28 カメラ装置
CN201580006648.2A CN105940669B (zh) 2014-01-29 2015-01-28 摄影机装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140011591A KR102184042B1 (ko) 2014-01-29 2014-01-29 카메라 장치
KR10-2014-0011591 2014-01-29

Publications (1)

Publication Number Publication Date
WO2015115799A1 true WO2015115799A1 (ko) 2015-08-06

Family

ID=53757327

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/000913 WO2015115799A1 (ko) 2014-01-29 2015-01-28 카메라 장치

Country Status (6)

Country Link
US (1) US10393876B2 (ko)
EP (1) EP3101887B1 (ko)
JP (1) JP6580578B2 (ko)
KR (1) KR102184042B1 (ko)
CN (1) CN105940669B (ko)
WO (1) WO2015115799A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102368597B1 (ko) * 2015-11-11 2022-03-02 삼성전자주식회사 영상 촬영 장치 및 이의 제어 방법
CN107451533B (zh) * 2017-07-07 2020-06-30 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置和计算机可读存储介质
CN107356918B (zh) * 2017-07-10 2023-07-25 苏州优函信息科技有限公司 基于面连续毫米波以及接收阵列传感器的毫米波雷达
CN107422571B (zh) * 2017-09-20 2020-08-21 京东方科技集团股份有限公司 显示面板、装置及其操控方法
KR102561533B1 (ko) * 2018-09-28 2023-07-31 엘지이노텍 주식회사 카메라 장치
US11910125B2 (en) * 2018-12-13 2024-02-20 Lg Innotek Co., Ltd. Camera device
US11882263B2 (en) 2019-08-30 2024-01-23 Lg Innotek Co., Ltd. ToF camera
JPWO2022085381A1 (ko) 2020-10-21 2022-04-28

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008032427A (ja) * 2006-07-26 2008-02-14 Fujifilm Corp 距離画像作成方法及び距離画像センサ、及び撮影装置
KR20080047125A (ko) * 2006-11-24 2008-05-28 삼성전자주식회사 홀로그래픽 정보의 기록/재생 장치, 기록/재생 방법 및홀로그래픽 정보 저장 매체
KR20120046042A (ko) * 2010-10-29 2012-05-09 삼성전자주식회사 전기 신호를 이용하여 선택적으로 가시광선과 적외선을 투과하는 필터
KR20120056441A (ko) * 2010-11-25 2012-06-04 은남표 적외선 레이저 프로젝션 디스플레이를 이용한 3차원 깊이 카메라
KR20130075700A (ko) * 2011-12-27 2013-07-05 톰슨 라이센싱 입체 영상들을 획득하기 위한 디바이스

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60176017A (ja) * 1984-02-23 1985-09-10 Canon Inc 光学素子
JPH0210309A (ja) * 1988-06-29 1990-01-16 Canon Inc 偏向光学系
JP2000046930A (ja) * 1998-07-30 2000-02-18 Omron Corp 光学センサ
JP5124864B2 (ja) 2006-06-07 2013-01-23 本田技研工業株式会社 光学装置および移動装置
JP4931121B2 (ja) * 2006-09-28 2012-05-16 オリンパスイメージング株式会社 光路を反射する反射面を備えたズームレンズ及びそれを備えた撮像装置
CN101600976B (zh) * 2006-10-11 2011-11-09 珀莱特公司 紧凑型可调节透镜的设计
JP2009204691A (ja) * 2008-02-26 2009-09-10 Toyota Central R&D Labs Inc 光走査装置、レーザレーダ装置、及び光走査方法
JP2009210960A (ja) * 2008-03-06 2009-09-17 Adtec Engineeng Co Ltd レーザ直接描画装置
JP5356726B2 (ja) 2008-05-15 2013-12-04 浜松ホトニクス株式会社 距離センサ及び距離画像センサ
JP2010014903A (ja) * 2008-07-02 2010-01-21 Nhk Spring Co Ltd 光走査用アクチュエータ、光走査型センサおよび物体検出装置
JP5358280B2 (ja) * 2009-05-12 2013-12-04 日立コンシューマエレクトロニクス株式会社 投写ボード装置、及びこれに用いる透過型スクリーン
JP2012168049A (ja) * 2011-02-15 2012-09-06 Stanley Electric Co Ltd 距離画像生成装置および距離画像生成方法
CN104081528B (zh) * 2012-01-10 2017-03-01 软动力学传感器公司 多光谱传感器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008032427A (ja) * 2006-07-26 2008-02-14 Fujifilm Corp 距離画像作成方法及び距離画像センサ、及び撮影装置
KR20080047125A (ko) * 2006-11-24 2008-05-28 삼성전자주식회사 홀로그래픽 정보의 기록/재생 장치, 기록/재생 방법 및홀로그래픽 정보 저장 매체
KR20120046042A (ko) * 2010-10-29 2012-05-09 삼성전자주식회사 전기 신호를 이용하여 선택적으로 가시광선과 적외선을 투과하는 필터
KR20120056441A (ko) * 2010-11-25 2012-06-04 은남표 적외선 레이저 프로젝션 디스플레이를 이용한 3차원 깊이 카메라
KR20130075700A (ko) * 2011-12-27 2013-07-05 톰슨 라이센싱 입체 영상들을 획득하기 위한 디바이스

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3101887A4 *

Also Published As

Publication number Publication date
KR20150090680A (ko) 2015-08-06
EP3101887B1 (en) 2020-08-19
CN105940669A (zh) 2016-09-14
EP3101887A1 (en) 2016-12-07
JP2017508955A (ja) 2017-03-30
CN105940669B (zh) 2019-08-13
US10393876B2 (en) 2019-08-27
US20160349370A1 (en) 2016-12-01
EP3101887A4 (en) 2017-08-30
KR102184042B1 (ko) 2020-11-27
JP6580578B2 (ja) 2019-09-25

Similar Documents

Publication Publication Date Title
WO2015115799A1 (ko) 카메라 장치
EP3161512B1 (en) Solid state lidar circuit
EP2458424B1 (en) Beam splitter for 3D camera, and 3D image acquisition apparatus employing the beam splitter
US20200075652A1 (en) Pixel cell with multiple photodiodes
US11935291B2 (en) Distributed sensor system
WO2020040390A1 (ko) 3차원 영상 생성 장치 및 방법
WO2006050428A3 (en) Three-dimensional integral imaging and display system using variable focal length lens
US20190187455A1 (en) Liquid lens, liquid lens driving method, imaging apparatus, and display apparatus
WO2010033175A3 (en) A monitor having integral camera and method of operating the same
WO2015088148A1 (en) Catadioptric light-field lens and image pickup apparatus including the same
US10802304B1 (en) Optical linked sensor network
KR102099935B1 (ko) Tof 카메라 장치
WO2018026147A1 (ko) 라이다 장치
JP2014021328A (ja) 立体映像撮影システムに用いる光学装置
KR20170044524A (ko) 이미지 획득 장치 및 방법
KR20120066500A (ko) 조명 광학계와 결상 광학계가 통합된 광학계 및 이를 포함하는 3차원 영상 획득 장치
US20100214395A1 (en) Camera System with Eye Finder Modules
WO2020067745A1 (ko) 카메라 장치
WO2020122628A1 (ko) 카메라 장치
Thibault et al. Design, fabrication and test of miniature plastic panomorph lenses with 180 field of view
WO2022154160A1 (ko) 카메라 모듈
US11422264B2 (en) Optical remote sensing
JP7314659B2 (ja) 測距装置および撮影装置
KR20200038227A (ko) Tof 카메라 장치
CN111721233A (zh) 三维感测装置、发光模块及其控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15742830

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016549149

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015742830

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15115189

Country of ref document: US

Ref document number: 2015742830

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE