WO2021137329A1 - 광학 장치 - Google Patents

광학 장치 Download PDF

Info

Publication number
WO2021137329A1
WO2021137329A1 PCT/KR2019/018827 KR2019018827W WO2021137329A1 WO 2021137329 A1 WO2021137329 A1 WO 2021137329A1 KR 2019018827 W KR2019018827 W KR 2019018827W WO 2021137329 A1 WO2021137329 A1 WO 2021137329A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
light source
unit area
optical device
Prior art date
Application number
PCT/KR2019/018827
Other languages
English (en)
French (fr)
Inventor
방형석
이상근
정찬성
조용호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/018827 priority Critical patent/WO2021137329A1/ko
Publication of WO2021137329A1 publication Critical patent/WO2021137329A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses

Definitions

  • the present invention relates to an optical device. Specifically, it is applicable to the technical field of optical scanning with high resolution and acquiring depth information.
  • An optical device for acquiring a real-time 3D image is generally known as light detection and ranging (LiDAR).
  • Such an optical device may acquire depth information of the target scene by irradiating an optical beam to the target scene and analyzing the reflected optical signal.
  • the depth information may include a distance to a subject included in the target scene, external information of the subject, and distance information between subjects.
  • a technique commonly used to irradiate an optical beam onto a target scene and to obtain depth information of a target scene by analyzing a reflected optical signal is a Time of Fight (TOF) method.
  • the TOF method refers to a method of converting a time when a light beam irradiated to a target scene is reflected and incident after irradiation into distance information.
  • An optical device that acquires depth information of a target scene in a TOF method is generally referred to as a TOF camera.
  • the TOF camera specifically includes a light irradiator for irradiating an optical beam to a target scene, and a light receiving unit for receiving an optical signal reflected on the target scene.
  • a single light source may be used for the light irradiation unit, but recently, a vertical cavity surface emitting laser (VCSEL) has been widely used.
  • the light receiver may include an image sensor that converts the received optical signal into an electrical signal, and the image sensor may receive the optical signal from a plurality of pixels corresponding to resolution, respectively.
  • An optical device aims to improve resolution obtained by scanning a light beam.
  • An optical device has a purpose of preventing a target scene scanned by a light beam from being distorted.
  • An optical device has an object of improving a scanning distance of a light beam.
  • an optical device includes a light irradiator for irradiating light to a target scene, a light receiving unit for receiving light reflected from the target scene to obtain depth information of the target scene, and the a light emitting unit and a processor connected to the light receiving unit, wherein the light emitting unit passes through a light source array including a plurality of directional light sources, a diffraction optics-based light control element for splitting the light emitted from the light source, and the light control element a wide-area lens for transmitting the divided light to the target scene, wherein the light control element is divided into a plurality of first unit areas, and a second unit area of the target scene divided corresponding to the first unit area It can be characterized by investigation.
  • the light passing through the first unit area may be divided and irradiated to a plurality of third unit areas constituting the second unit area, respectively.
  • the third unit area may be characterized in that it corresponds to each pixel of the image sensor constituting the light receiver.
  • the plurality of lights irradiated from the unit light source may pass through the first unit area and be divided, respectively, and may be irradiated so as not to overlap the third unit area.
  • one of the plurality of light sources included in the unit light source is blinked, and the depth of the image sensor is higher than the resolution of the image sensor.
  • the information is acquired, at least two light sources among a plurality of light sources included in the unit light source may be sequentially flickered.
  • the processor uses depth information obtained by sequentially blinking from the unit light source and position information at which the sequentially blinking light source irradiates light to a depth of resolution higher than that of the image sensor. It may be characterized by acquiring information.
  • the processor when the second unit area is located closer than a preset distance, the processor blinks one of a plurality of light sources included in the unit light source, and the second unit area is located at a preset distance When positioned further away, it may be characterized in that at least two of the plurality of light sources included in the unit light source blink at the same time.
  • the processor may increase the number of light sources that simultaneously flicker among a plurality of light sources included in the light source at the stage as the second unit area is located further away.
  • the processor may adjust the number of blinks of the unit light source in a next frame by using the depth information of the second unit region obtained in a previous frame.
  • the light irradiation unit further includes a micro lens array including a plurality of micro lenses between the light source array and the light control element, wherein the micro lenses emit a plurality of lights irradiated to the unit light source. It may be characterized in that it is transmitted to the first unit area by tilting each.
  • the wide-area lens may condense the divided light passing through the light control element, respectively.
  • the light irradiated from the light source corresponds to the Gaussian beam
  • the wide area lens is located at the focus of the Gaussian beam
  • the focal plane of the wide area lens is located on the plane where the light source or the light control element is located. It may be characterized in that it is provided.
  • the wide-area lens may have a light collecting power corresponding to a fill factor of the image sensor, and may have a high light collecting power when the fill factor of the image sensor is high.
  • the wide-area lens may have a higher light collecting power as the fill factor of the image sensor is higher.
  • the optical device may improve resolution obtained by scanning a light beam.
  • the optical device may prevent a target scene scanned by a light beam from being distorted.
  • the optical device may improve a scanning distance of a light beam.
  • FIG. 1 is a block diagram of an optical device according to one embodiment
  • FIG. 2 is a front view of a partial configuration of an optical device according to an embodiment.
  • FIG 3 is a side view of a partial configuration of an optical device according to an embodiment.
  • FIGS 4 and 5 are schematic diagrams of an optical device according to an embodiment.
  • FIG. 6 is a cross-sectional view of a light irradiation unit of an optical device according to an exemplary embodiment.
  • FIG. 7 is a schematic diagram of a Gaussian beam used in an optical device according to an exemplary embodiment.
  • FIGS. 8 to 10 are diagrams for explaining a pattern for irradiating light to a target scene in an optical device according to an exemplary embodiment.
  • FIG. 1 is a block diagram of an optical device according to one embodiment
  • the optical device 200 includes a light irradiator 210 for irradiating light to the target scene 400 , a light receiver 220 for receiving light reflected from the target scene 400 , and a light irradiator 210 and a light receiver ( It may include a processor 230 coupled to 220 .
  • the optical device may be a TOF camera that acquires depth information in a TOF method.
  • the light irradiation unit 210 may include a plurality of directional light sources 211 .
  • the light emitter 210 may include a vertical-cavity surface-emitting laser (VCSEL) as the light source.
  • VCSEL vertical-cavity surface-emitting laser
  • the light receiver 220 may include an image sensor.
  • the image sensor may include a plurality of pixels 221 that receive the light reflected by the target scene 400 and convert it into an electrical signal.
  • the number of pixels 221 included in the image sensor may correspond to the resolution of the corresponding image.
  • the processor 230 may control the light irradiated from the light irradiator 210 .
  • the processor 230 may obtain depth information of the target scene 400 by processing and calculating the optical signal received by the optical receiver 220 .
  • the processor 230 may synchronize the light irradiated from the light emitting unit 210 and the light received from the light receiving unit 220 . Specifically, the processor 230 synchronizes the time for irradiating light from the light irradiator 210 and the time for receiving the light from the light receiving unit 220 , and through the parallax between the irradiated light and the reflected light, the target scene 400 ) can be obtained.
  • the target scene 400 corresponds to a region to which light is irradiated from the optical ancestor 210 , and the optical device 200 may acquire depth information of the subject 300 located in the target scene 400 . .
  • FIG. 2 is a schematic diagram of an optical device 200 according to an embodiment. Hereinafter, reference is made to the optical device 200 of FIG. 1 .
  • the light irradiation unit 210 of the optical device 200 includes a light source array 2110 including a plurality of directional light sources 2112, a diffraction optics-based light control element 2120 that divides the light irradiated from the light source 2112, and It may include a wide area lens 2130 that passes the light control element 2120 and transmits the divided light to the target scene 400 .
  • the light control element 2120 may be provided by being divided into a plurality of first unit regions 2121 .
  • the target scene 400 may be divided to correspond to the first unit area 2121 and include a plurality of second unit areas 410 .
  • Light passing through the first unit area 2121 of the light control element 2120 may be irradiated to the second unit area 410 matching the first unit area 2121 .
  • the target scene 400 is also divided into nine equal parts and nine second unit areas 410 .
  • the plurality of first unit areas 2121 and the plurality of second unit areas 410 may be matched one-to-one.
  • the target scene 400 may be divided into a second unit area 410 to match the first unit area 2121 of the light control element 2120 .
  • the second unit area 410 may be divided into third unit areas 411 according to the number and shape of the light passing through the first unit area 2121 .
  • the second unit area 410 is divided into 9 equal parts and the 9 third unit areas 411 are divided into 9 equal parts. may include.
  • the divided light passing through the first unit area 2121 may be irradiated to the third unit area, respectively.
  • the third unit area 411 of the target scene 400 may correspond to each pixel 221 of the image sensor included in the light receiver 220 .
  • Each pixel 221 of the image sensor may receive the light reflected by the corresponding third unit area 411 to obtain depth information of the corresponding third unit area 411 .
  • the wide-area lens 2130 may condense the divided light passing through the light control element 2120 and irradiate the light to the target scene 400 .
  • the light collecting power of the wide area lens 2130 may be set to correspond to a fill factor of the image sensor.
  • the fill factor of the image sensor refers to a ratio of an area that detects light. That is, the higher the fill factor, the more light the sensor with the same area can receive, so the sensor may have better sensitivity.
  • an image sensor using a CCD (Charge Coupled Device) has a fill factor close to 100%
  • CMOS Complementary Metal-Oxide Semiconductor
  • the wide-area lens may be manufactured to have a higher light collecting power when the fill factor of the image sensor is low.
  • the more concentrated light may be manufactured to be incident on the interaction area of the image sensor.
  • the optical device according to an exemplary embodiment may increase the scan distance by using a wide-area lens having a good light collecting power instead of using an image sensor having a low fill factor. For example, when an image sensor using CMOS is used, a scanning distance improvement effect can be achieved by using a light lens having a good light collecting power.
  • the light irradiated from the light source 2112 may correspond to a Gaussian beam.
  • the wide-area lens 2130 may be positioned at the focus of the Gaussian beam to condense the divided light passing through the light control element 2120 .
  • the wide-area lens 2130 may have a focal plane of the optical lens 2130 on a plane in which the light source 2112 or the light control element 2120 is located.
  • the first unit region 2121 of the light control element 2120 may match the unit light source 2111 including a plurality of light sources 2112 . That is, there may be a plurality of light sources 2112 irradiating light to the first unit area 2121 .
  • the structure of the unit light source 2111 matching the first unit area 2121 will be described in detail.
  • FIG. 3 is a cross-sectional view including a light irradiation unit 210 of an optical device according to an exemplary embodiment.
  • FIG. 4 is an enlarged view of area A of FIG. 3 .
  • the plurality of lights irradiated from the unit light sources 2111a to 2111f pass through one of the first unit areas 2121a to 2121f ), respectively, and are divided so as not to overlap the third unit areas 410a to 410f. can be investigated.
  • a direction of the plurality of lights irradiated from the unit light sources 2111a to 2111f may be set by the micro lens array 2140 provided between the light source array 2110 and the light control element 2120 .
  • the microlens array 2140 may incline a plurality of lights irradiated from the unit light sources 2111a to 2111f, respectively, and transmit it to one of the first unit regions 2121a to 2121f).
  • the plurality of light sources 2112a and 2112b included in the unit light sources 2111a to 2111f may be provided to be spaced apart from the central axis B of the corresponding first unit area 2121a.
  • Light irradiated from the plurality of light sources 2112a and 2112b included in the unit light sources 2111a to 2111f may pass through the microlens 2141 and be incident on the first unit area 2121a obliquely in different directions.
  • the light irradiated from the plurality of light sources 2112a and 2112b included in the unit light sources 2111a to 2111f is obliquely incident on the first unit area 2121c from different directions, so that the second unit area 410c is different from each other. It may be irradiated to positions (to be precise, different positions of the third unit area 411 ).
  • FIG. 5 shows a target scene of an optical device ( FIG. 5A ) of an optical device according to an embodiment in comparison with a target scene of another optical device ( FIG. 5B ).
  • the target scene 400 of FIG. 5A corresponds to the target scene 400 of the optical device 200 described above.
  • the target scene 400 of FIG. 5B corresponds to the target scene of the conventional optical device.
  • the optical device 200 includes a split type light control element 2120 .
  • the division type light control element 2120 may be divided into a plurality of first unit regions 2121 .
  • Each of the first unit regions 2121 may include an optical axis, and may be divided by diffracting light passing through the first unit region 2121 about the optical axis.
  • FIG. 5( a ) shows a target scene 400 of an optical device 200 including a split-type light control element 2120 .
  • the target scene of FIG. 5A may include a plurality of second unit areas 410 matching the first unit areas 2121 .
  • the optical axis 412 of the second unit area 410 may be an optical axis extending from the optical axis of the corresponding first unit area 2121 .
  • the optical device 200 of FIG. 5A may include a plurality of first unit regions 2120 in the light control element 2120 and may include a plurality of optical axes corresponding to each other. Since the light divided around the optical axis does not have a large diffraction range, it is possible to prevent distortion of the shape. That is, light may be irradiated to the square target scene 400 .
  • FIG. 5(b) shows a target scene 400 of an optical device 200 comprising a single type of light control element.
  • a single type of light control element has one optical axis, and correspondingly the target scene 400 may also include one optical axis 402 .
  • Light divided around the optical axis has a larger diffraction range as the distance from the optical axis increases. Accordingly, a phenomenon in which the shape of the target scene 400 is distorted may appear.
  • the image sensor cannot receive the reflected light according to each pixel, so depth information cannot be acquired.
  • FIG. 6 is a schematic diagram for explaining a blinking pattern of a unit light source of the optical device 200 according to an exemplary embodiment.
  • 7 to 10 are unit light source blinking patterns of an optical device according to an exemplary embodiment.
  • the optical device 200 refers to the optical device 200 described above.
  • the optical device 200 includes a light irradiation unit 210 for irradiating light to the target scene 400 , a light receiving unit 220 for receiving light reflected from the target scene 400 , and a light irradiation unit 210 and a light receiving unit ( 220) may include a processor coupled to the.
  • the light irradiation unit 210 includes a light source array 2111 including a plurality of directional light sources 2112 , a diffraction optics-based light control element 2120 that divides the light irradiated from the light source 2112 , and a light control element 2120 ) It may include a wide area lens 2130 that passes the divided light to the target scene 400 .
  • the light control element 2120 is divided into a plurality of first unit regions 2121 , and the target scene 400 is divided into second unit regions 410 corresponding to the first unit regions 2121 ,
  • the divided light passing through the first unit area 2121 may be irradiated to the second unit area 410 corresponding to the first unit area 2121 .
  • the second unit area 410 may be divided into a plurality of third unit areas 411 , and the divided light passing through the first unit area 2121 may be irradiated to the third unit area 411 , respectively.
  • the third unit area 411 may correspond to each pixel of the image sensor constituting the light receiver 220 .
  • the first unit area 410 may match the unit light source 2111 including a plurality of light sources 2112 .
  • the light source array 2110 may include a plurality of unit light sources 2111 according to the first unit area 410 .
  • the plurality of lights irradiated from the unit light source 2111 may pass through the first unit area 2121 , respectively, and may be divided and irradiated without overlapping the third unit area 411 .
  • the wide-area lens 2130 provided between the light control element 2120 and the target scene 400 condenses the light passing through the first unit area 410, respectively, so that they overlap in the third unit area 411. can be prevented
  • the processor may temporally synchronize the light emitter 210 and the light receiver 220 .
  • the processor may calculate depth information of the third unit area 411 based on time information at which the light irradiated from the light emitter 210 is reflected by the third unit area 411 to reach the image sensor 221 .
  • the processor may control blinking of the light source 2112 irradiating light to the third unit area 411 .
  • the third unit area 411 may correspond to each pixel 221 of the image sensor 220 .
  • the processor may selectively blink the light source 2112 of the unit light source 2111 irradiating light to the third unit area 411 .
  • depth information corresponding to the resolution of the image sensor 220 may be acquired.
  • the processor sequentially irradiates a plurality of lights to the third unit area 411 , depth information having a higher resolution than that of the image sensor 220 may be acquired.
  • the processor uses depth information obtained by sequentially blinking a plurality of light sources 2112 included in the unit light source 2111 and position information at which the sequentially blinking light sources irradiate light with a resolution higher than the resolution of the image sensor. depth information can be obtained.
  • two of the plurality of light sources 2112 included in the unit light source 2112 may be sequentially blinked, and depth information may be obtained from each.
  • the processor may acquire information about the location at which the sequentially flickering light source irradiates light through information previously stored in the memory.
  • the processor may acquire depth information having twice the resolution by merging each acquired depth information through location information.
  • FIG. 7 illustrates an embodiment in which depth information is obtained by blinking one light among a plurality of light sources 2112 included in the unit light source 2112 .
  • depth information corresponding to the resolution of the image sensor may be acquired.
  • FIG. 8 illustrates an embodiment in which depth information is acquired by sequentially flickering two lights among a plurality of light sources 2112 included in the unit light source 2112 .
  • FIG. 8( a ) shows a position where the light source 2112 flickering first irradiates light to the target scene 400 .
  • FIG. 8( b ) shows a position where the light source 2112 flickering later irradiates light to the target scene 400 .
  • the processor uses the position at which the first flickering light source 2112 irradiates light in the target scene 400 and the position at which the flickering light source 2112 irradiates light to the target scene 400 later. It is possible to merge and acquire depth information with a higher resolution than the resolution of the image sensor.
  • the processor may control the light sources 2112 blinking simultaneously in the unit light sources 2111 by using the depth information of the target scene 400 .
  • the processor may increase the number of light sources 2112 simultaneously flickering in the unit light source 2111 as the target scene 400 is further away. Specifically, when the second unit area 410 is located closer than a preset distance, the processor may blink one light source 2112 in the unit light source 2111 . When the second unit area 410 is located farther than a preset distance, the processor may simultaneously blink at least two light sources 2112 in the unit light source 2111 .
  • the processor may set the number of simultaneously flickering light sources 2112 among the light sources 2112 of the unit light source 2111 in the next frame by using the depth information obtained in the previous frame.
  • FIG. 9 shows an embodiment in which the target scene 400 is located far away and the unit light source 2111 blinks two light sources 2112 at the same time.
  • the optical device 200 may acquire depth information with higher reliability by irradiating a higher amount of light when the distance is greater.
  • the optical device 200 may minimize power consumption by irradiating a small amount of light when the distance is close.
  • FIG. 10 shows an embodiment in which the unit light source 2111 of the garment is independently controlled.
  • the first second unit area 410a is located close, one of the corresponding unit light sources 2111 is flickered, and when the second second unit area 410b is located farther away, the corresponding unit light source 2111 Two light sources can blink at the same time.

Abstract

본 발명의 광학 장치는 표적 장면으로 광을 조사하는 광 조사부, 상기 표적 장면에서 반사된 광을 수신하는 광 수신부 및 상기 광 조사부 및 상기 광 수신부에 연결된 프로세서를 포함하고, 상기 광 조사부는 지향성 광원을 복수 개 포함하는 광원 어레이, 상기 광원에서 조사된 광을 분할하는 회절 광학 기반의 광 제어 소자 및 상기 광 제어 소자를 지나 분할된 광을 상기 표적 장면으로 전달하는 광역 렌즈를 포함하고, 상기 광 제어 소자는 복수 개의 제1 단위 영역으로 분할 구비되고, 상기 표적 장면은 상기 제1 단위 영역에 대응하여 제2 단위 영역으로 분할되고, 상기 제1 단위 영역을 지나 분할된 광은 상기 제1 단위 영역에 대응되는 제2 단위 영역으로 조사되는 것을 특징으로 할 수 있다.

Description

광학 장치
본 발명은 광학 장치에 관한 것이다. 구체적으로, 고해상도로 광학 스캐닝하고 깊이 정보를 획득하는 기술 분야에 적용 가능하다.
기존 및 새로운 어플리케이션은 실시간 3차원 이미지에 대한 필요성을 증가하고 있는 추세이다. 실시간 3차원 이미지를 획득하는 광학 장치는 일반적으로 라이다(LiDAR, light detection and ranging)로 알려져 있다.
이러한 광학 장치는 광학 빔을 표적 장면에 조사하고, 반사된 광학 신호를 분석함으로써 표적 장면의 깊이 정보를 획득할 수 있다. 여기서 깊이 정보는 표적 장면에 포함된 피사체까지 거리, 피사체의 외형 정보 및 피사체간 거리 정보 등을 포함할 수 있다.
광학 빔을 표적 장면에 조사하고, 반사된 광학 신호를 분석하여 표적 장면의 깊이 정보를 획득하는데 일반적으로 사용되는 기법은 TOF(Time of Fight) 방식이다. TOF 방식은 표적 장면에 조사된 광 빔이 조사 후 반사되어 입사되는 시간을 거리 정보로 환산하는 방식을 말한다. TOF 방식으로 표적 장면의 깊이 정보를 획득하는 광학 장치를 일반적으로 TOF 카메라로 지칭한다.
TOF 카메라는 구체적으로, 표적 장면에 광학 빔을 조사하는 광 조사부, 표적 장면에 반사된 광학 신호를 수신하는 광 수신부를 포함한다. 여기서, 광 조사부는 단일 광원이 사용될 수 있으나, 최근에는 수직 공지 표면 발광 레이저 (VCSEL, Vertical Cavity Surface Emitting Laser)가 많이 사용되고 있는 추세이다. 또한, 광 수신부는 수신한 광 신호를 전기 신호로 전환하는 이미지 센서를 포함할 수 있으며, 이미지 센서는 해상도에 대응되는 복수의 픽셀에서 각각 광 신호를 수신할 수 있다.
일 실시예에 따른 광학 장치는, 광 빔을 스캐닝 하여 획득하는 해상도를 향상하는데 목적이 있다.
일 실시예에 따른 광학 장치는, 광 빔이 스캐닝하는 표적 장면이 왜곡되는 것을 방지하는데 목적이 있다.
일 실시예에 따른 광학 장치는, 광 빔이 스캐닝하는 거리를 향상시키는데 목적이 있다.
상기 목적을 달성하기 위해, 일 실시예에 따른 광학 장치는, 표적 장면으로 광을 조사하는 광 조사부, 상기 표적 장면에서 반사된 광을 수신하여 상기 표적 장면의 깊이 정보를 획득하는 광 수신부, 및 상기 광 조사부 및 상기 광 수신부에 연결된 프로세서를 포함하고, 상기 광 조사부는 지향성 광원을 복수 개 포함하는 광원 어레이, 상기 광원에서 조사된 광을 분할하는 회절 광학 기반의 광 제어 소자, 상기 광 제어 소자를 지나 분할된 광을 상기 표적 장면으로 전달하는 광역 렌즈를 포함하고, 상기 광 제어 소자는 복수 개의 제1 단위 영역으로 분할 구비되고, 상기 제1 단위 영역에 대응하여 분할된 상기 표적 장면의 제2 단위 영역으로 조사하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 제1 단위 영역을 지나는 광은 분할 되어 상기 제2 단위 영역을 구성하는 복수의 제3 단위 영역으로 각각 조사되는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 제3 단위 영역은 상기 광 수신부를 구성하는 이미지 센서의 각 픽셀에 대응되는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 단위 광원에서 조사된 복수의 광은 상기 제1 단위 영역을 지나 각각 분할되고, 상기 제3 단위 영역에 오버랩되지 않도록 조사되는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 프로세서는 상기 이미지 센서의 해상도에 대응되는 깊이 정보를 획득하는 경우 상기 단위 광원에 포함된 복수 개의 광원 중 하나를 점멸하고, 상기 이미지 센서의 해상도 보다 높은 해상도의 깊이 정보를 획득하는 경우, 상기 단위 광원에 포함된 복수 개의 광원 중 적어도 두 개의 광원을 순차적으로 점멸하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 프로세서는 상기 단위 광원에서 순차적으로 점멸하여 각각 획득한 깊이 정보 및 순차적으로 점멸된 광원이 광을 조사하는 위치 정보를 이용하여 상기 이미지 센서의 해상도 보다 높은 해상도의 깊이 정보를 획득하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 프로세서는 상기 제2 단위 영역이 기 설정 거리 보다 가까이 위치하는 경우, 상기 단위 광원에 포함된 복수 개의 광원 중 하나를 점멸하고, 상기 제2 단위 영역이 기 설정 거리 보다 멀리 위치하는 경우, 상기 단위 상기 단위 광원에 포함된 복수 개의 광원 중 적어도 두 개가 동시에 점멸되는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라 상기 프로세서는 상기 제2 단위 영역이 멀리 위치할수록 상기 단이 광원에 포함된 복수 개의 광원 중 동시에 점멸되는 광원의 개수를 늘리는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라 상기 프로세서는 이전 프레임에서 획득한 상기 제2 단위 영역의 깊이 정보를 이용하여 다음 프레임에 상기 단위 광원의 점멸 개수를 조절하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라 상기 광 조사부는 상기 광원 어레이와 상기 광 제어 소자 사이에 마이크로 렌즈를 복수 개 포함하는 마이크로 렌즈 어레이를 더 포함하고, 상기 마이크로 렌즈는 상기 단위 광원에 조사된 복수의 광을 각각 기울여 상기 제1 단위 영역으로 전달하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 광역 렌즈는 상기 광 제어 소자를 지나 분할된 광을 각각 집광하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 광원에서 조사되는 광은 가우시안 빔에 대응되고, 상기 광역 렌즈는 상기 가우시안 빔의 포커스에 위치하고, 상기 광원 또는 상기 광 제어 소자가 위치한 평면에 상기 광역 렌즈의 초점 평면을 구비하는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 광역 렌즈는, 상기 이미지 센서의 필 펙터(fill factor)에 대응하는 집광력을 가지고, 상기 이미지 센서의 필 펙터가 높은 경우 높은 집광력을 가지는 것을 특징으로 할 수 있다.
또한, 일 실시예에 따라, 상기 광역 렌즈는, 상기 이미지 센서의 필 펙터가 높을수록 높은 집광력을 가질 수 있다.
일 실시예에 따른 광학 장치는 광 빔을 스캐닝 하여 획득하는 해상도를 향상할 수 있다.
일 실시예에 따른 광학 장치는 광 빔이 스캐닝하는 표적 장면이 왜곡되는 것을 방지할 수 있다.
일 실시예에 따른 광학 장치는, 광 빔이 스캐닝하는 거리를 향상시킬 수 있다.
도 1는 일 실시예에 다른 광학 장치의 블록도이다.
도 2는 일 실시예에 따른 광학 장치의 일부 구성의 정면도이다.
도 3은 일 실시예에 따른 광학 장치의 일부 구성의 측면도이다.
도 4 및 5는 일 실시예에 따른 광학 장치의 개요도이다.
도 6은 일 실시예에 따른 광학 장치의 광 조사부 단면도이다.
도 7은 일 실시예에 따른 광학 장치에서 사용하는 가우시안 빔의 개요도이다.
도 8 내지 10은 일 실시예에 따른 광학 장치에서 표적 장면에 광을 조사하는 패턴을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1는 일 실시예에 다른 광학 장치의 블록도이다.
광학 장치(200)는 표적 장면(400)에 광을 조사하는 광 조사부(210), 표적 장면(400)에서 반사된 광을 수신하는 광 수신수(220) 및 광 조사부(210)와 광 수신부(220)에 연결된 프로세서(230)을 포함할 수 있다. 여기서 광학 장치는 TOF 방식으로 깊이 정보를 획득하는 TOF 카메라 일 수 있다.
광 조사부(210)는 지향성 광원(211)을 복수 개 포함할 수 있다. 광 조사부(210)는 수직 캐비티 표면 광방출 레이저(Vertical-cavity surface-emitting laser, VCSEL)을 상기 광원으로 포함할 수 있다.
광 수신부(220)는 이미지 센서를 포함할 수 있다. 이미지 센서는 표적 장면(400)에 반사된 광을 수신하여 전기 신호로 전환하는 픽셀(221)을 복수 개 포함할 수 있다. 이미지 센서에 포함된 픽셀(221)의 개수는 해당 이미지의 해상도에 대응할 수 있다.
프로세서(230)는 광 조사부(210)에서 조사되는 광을 제어할 수 있다. 또한, 프로세서(230)는 광 수신부(220)에서 수신한 광 신호를 처리, 연산하여 표적 장면(400)의 깊이 정보를 획득할 수 있다. 또한, 프로세서(230)는 광 조사부(210)에서 조사되는 광과 광 수신부(220)에서 수신하는 광을 동기화할 수 있다. 구체적으로, 프로세서는(230)는 광 조사부(210)에서 광을 조사하는 시간과 광 수신부(220)에서 광을 수신하는 시간을 동기화하고, 조사된 광과 반사된 광의 시차를 통해 표적 장면(400)의 깊이 정보를 획득할 수 있다.
여기서, 표적 장면(400)는 광 조상부(210)에서 광이 조사되는 영역에 대응하여, 광학 장치(200)는 표적 장면(400)에 위치하는 피사체(300)의 깊이 정보를 획득할 수 있다.
도 2는 일 실시예에 따른 광학 장치(200)의 개요도이다. 이하 도 1의 광학 장치(200)를 참조한다.
광학 장치(200)의 광 조사부(210)는 지향성 광원(2112)을 복수 개 포함하는 광원 어레이(2110), 광원(2112)에서 조사된 광을 분할하는 회절 광학 기반의 광 제어 소자(2120) 및 광 제어 소자(2120)을 지나 분할된 광을 표적 장면(400)으로 전달하는 광역 렌즈(2130)을 포함할 수 있다.
광 제어 소자(2120)는 복수 개의 제1 단위 영역(2121)으로 분할되어 구비될 수 있다. 표적 장면(400)는 제1 단위 영역(2121)에 대응하도록 분할되어 제2 단위 영역(410)을 복수 개 포함할 수 있다. 광 제어 소자(2120)의 제1 단위 영역(2121)을 지난 광은 제1 단위 영역(2121)에 매칭되는 제2 단위 영역(410)으로 조사될 수 있다.
예를 들어, 광 제어 소자(2120)가 도 2와 같이 9등분 되어 9개의 제1 단위 영역(2121)을 포함하는 경우, 표적 장면(400)도 9등분 되어 9개의 제2 단위 영역(410)을 포함할 수 있다. 여기서, 복수의 제1 단위 영역(2121)과 복수의 제2 단위 영역(410)은 일대일 매칭될 수 있다.
표적 장면(400)는 광 제어 소자(2120)의 제1 단위 영역(2121)에 매칭되도록 제2 단위 영역(410)으로 분할 될 수 있다. 제2 단위 영역(410)는 제1 단위 영역(2121)을 지난 광이 분할되는 개수 및 형태에 따라 제3 단위 영역(411)으로 분할될 수 있다.
예를 들어, 제1 단위 영역(2121)을 지난 광이 도 2와 같이 9등분 되어 9개의 광으로 분할되는 경우, 제2 단위 영역(410)은 9등분 되어 9개의 제3 단위 영역(411)을 포함할 수 있다. 제1 단위 영역(2121)을 지나 분할된 광은 각각 제3 단위 영역에 조사될 수 있다.
표적 장면(400)의 제3 단위 영역(411)은 광 수신부(220)에 포함된 이미지 센서의 각 픽셀(221)에 대응될 수 있다. 이미지 센서의 각 픽셀(221)은 대응되는 제3 단위 영역(411)에 반사된 광을 수신하여 대응되는 제3 단위 영역(411)의 깊이 정보를 획득할 수 있다.
광역 렌즈(2130)는 광 제어 소자(2120)을 지나 분할된 광을 각각 집광하여 표적 장면(400)으로 조사할 수 있다. 광역 렌즈(2130)의 집광력은 이미지 센서의 필 팩터(fill factor)에 대응하여 설정될 수 있다. 여기서, 이미지 센서의 필 팩터는 빛을 감지하는 면적이 비율을 말한다. 즉, 필 팩터가 높을수록 같은 면적의 센서로 더 많은 빛을 받아들일 수 있기 때문에 더 좋은 감도의 센서일 수 있다. 일반적으로, CCD(Charge Coupled Device)를 이용한 이미지 센서는 필 팩터가 100%아 가깝고, CMOS(Complementary Metal-Oxide Semiconductor)를 이용한 이미지 센서는 CCD의 필 팩터 보다 낮다.
광역 렌즈는, 이미지 센서의 필 팩터가 낮은 경우, 보다 높은 집광력을 가지도록 제작될 수 있다. 보다 집광된 빛은 이미지 센서의 인터렉션 영역으로 입사되도록 제작될 수 있다. 일 실시예에 따른 광학 장치는 필 펙터가 떨어지는 이미지 센서를 사용하는 대신, 집광력이 좋은 광역 렌즈를 사용함으로써 스캔 거리를 늘릴 수 있다. 예를 들어, CMOS를 이용한 이미지 센서를 사용하는 경우, 집광력이 좋은 광력 렌즈를 사용함으로써 스캔 거리 향상 효과를 도모할 수 있다.
여기서, 광원(2112)에서 조사되는 광은 가우시안 빔에 대응될 수 있다. 광역 렌즈(2130)는 광 제어 소자(2120)를 지나 분할된 광을 각각 집광하기 위해, 가우시안 빔의 포커스에 위치할 수 있다. 동시에, 광역 렌즈(2130)는 광원(2112) 또는 광 제어 소자(2120)가 위치한 평면에 광영 렌즈(2130)의 초점 평면을 구비할 수 있다.
광 제어 소자(2120)의 제1 단위 영역(2121)은 광원(2112)을 복수 개 포함하는 단위 광원(2111)에 매칭될 수 있다. 즉, 제1 단위 영역(2121)으로 광을 조사하는 광원(2112)은 복수 개 일 수 있다. 이하에서, 제1 단위 영역(2121)에 매칭되는 단위 광원(2111) 구조를 구체적으로 살펴본다.
도 3는 일 실시예에 따른 광학 장치의 광 조사부(210)를 포함하는 단면도이다. 도 4는 도 3의 A 영역을 확대하여 바라본 도면이다.
단위 광원(2111a 내지 2111f 중 하나)에서 조사된 복수의 광은, 제1 단위 영역(2121a 내지 2121f) 중 하나)을 지나 각각 분할되고, 제3 단위 영역(410a 내지 410f 중 하나)에 오버랩되지 않도록 조사될 수 있다.
단위 광원(2111a 내지 2111f 중 하나)에서 조사된 복수의 광은 광원 어레이(2110)과 광 제어 소자(2120) 사이에 구비된 마이크로 렌즈 어레이(2140)에 의해 방향이 설정될 수 있다. 여기서 마이크로 렌즈 어레이(2140)는 단위 광원(2111a 내지 2111f 중 하나)에서 조사된 복수의 광을 각각 기울여 제1 단위 영역(2121a 내지 2121f) 중 하나)으로 전달할 수 있다.
구체적으로, 단위 광원(2111a 내지 2111f 중 하나)에 포함된 복수의 광원(2112a, 2112b)는 대응되는 제1 단위 영역(2121a)의 중심 축(B)에서 이격되어 구비될 수 있다. 단위 광원(2111a 내지 2111f 중 하나)에 포함된 복수의 광원(2112a, 2112b)에서 조사된 광은 마이크로 렌즈(2141)을 지나 각각 다른 방향에서 비스듬히 제1 단위 영역(2121a)으로 입사될 수 있다. 단위 광원(2111a 내지 2111f 중 하나)에 포함된 복수의 광원(2112a, 2112b)에서 조사된 광은 제1 단위 영역(2121c)에 각각 다른 방향에서 비스듬히 입사함으로써 제2 단위 영역(410c)에 각각 다른 위치(정확하게는, 제3 단위 영역(411)의 각각 다른 위치)에 조사될 수 있다.
도 5는 일 실시예에 따른 광학 장치의 표적 장면(도 5(a))을 다른 광학 장치의 표적 장면(도 5(b))에 비교하여 도시하고 있다. 도 5(a)의 표적 장면(400)은 상기에서 설명한 광학 장치(200)의 표적 장면(400)에 대응된다. 도 5(b)의 표적 장면(400)은 기존의 광학 장치의 표적 장면에 대응된다.
일 실시에에 따른 광학 장치(200)는 분할형의 광 제어 소자(2120)을 포함하고 있다. 분할형의 광 제어 소자(2120)는 복수의 제1 단위 영역(2121)으로 분할될 수 있다. 제1 단위 영역(2121)은 각각 광 축을 포함하고, 제1 단위 영역(2121)을 지나는 광을 광 축을 중심으로 회절하여 분할될 수 있다.
도 5(a)는 분할형의 광 제어 소자(2120)을 포함하는 광학 장치(200)의 표적 장면(400)을 도시하고 있다. 도 5(a)의 표적 장면은 제1 단위 영역(2121)에 매칭되는 제2 단위 영역(410)을 복수 개 포함할 수 있다. 제2 단위 영역(410)의 광 축(412)은 대응되는 제1 단위 영역(2121)의 광 축에서 연장된 광 축일 수 있다.
도 5(a)의 광학 장치(200)는 광 제어 소자(2120)에 복수의 제1 단위 영역(2120)을 포함할 수 있고 각각 대응되는 광 축을 복 수개 포함할 수 있다. 광 축을 중심으로 분할되는 광은 회절 범위가 크지 않아 형태가 왜곡되는 것을 방지할 수 있다. 즉, 사각형의 표적 장면(400)으로 광을 조사할 수 있다.
비교하여, 도 5(b)는 단일형의 광 제어 소자를 포함하는 광학 장치(200)의 표적 장면(400)을 도시하고 있다. 단일형의 광 제어 소자는 광 축을 하나 가지고 있고, 대응하여 표적 장면(400)도 하나의 광 축(402)을 포함할 수 있다. 광 축을 중심으로 분할되는 광은 광 축에서 멀리 떨어져 있을수록 회절 범위가 크게 된다. 따라서, 표적 장면(400)의 형태가 왜곡되는 현상이 나타날 수 있다. 표적 장면(400)이 왜곡 되는 경우 이를 이미지 센서는 반사광을 각 픽셀에 맞게 수광 할 수 없어 깊이 정보를 획득할 수 없다.
도 6은 일 실시예에 따른 광학 장치(200)의 단위 광원 점멸 패턴을 설명하기 위한 개요도 이다. 도 7 내지 도 10는 일 실시에에 따른 광학 장치의 단위 광원 점멸 패턴이다. 이하 광학 장치(200)는 상기에서 설명한 광학 장치(200)를 참고한다.
광학 장치(200)는 표적 장면(400)으로 광을 조사하는 광 조사부(210), 표적 장면(400)에서 반사된 광을 수신하는 광 수신부(220), 및 광 조사부(210) 및 광 수신부(220)에 연결된 프로세서를 포함할 수 있다.
광 조사부(210)는 지향성 광원(2112)을 복수 개 포함하는 광원 어레이(2111), 광원(2112)에서 조사된 광을 분할하는 회절 광학 기반의 광 제어 소자(2120) 및 광 제어 소자(2120)를 지나 분할된 광을 표적 장면(400)으로 전달하는 광역 렌즈(2130)을 포함할 수 있다.
여기서, 광 제어 소자(2120)는 복수 개의 제1 단위 영역(2121)으로 분할 구비되고, 표적 장면(400)은 제1 단위 영역(2121)에 대응하여 제2 단위 영역(410)으로 분할되고, 제1 단위 영역(2121)을 지나 분할된 광은 제1 단위 영역(2121)에 대응되는 제2 단위 영역(410)으로 조사될 수 있다.
제2 단위 영역(410)은 복수의 제3 단위 영역(411)으로 분할되고, 제1 단위 영역(2121)을 지나 분할된 광은 각각 제3 단위 영역(411)으로 조사될 수 있다. 여기서, 제3 단위 영역(411)은 광 수신부(220)를 구성하는 이미지 센서의 각 픽셀에 대응될 수 있다.
제1 단위 영역(410)는 광원(2112)을 복수 개 포함하는 단위 광원(2111)에 매칭될 수 있다. 광원 어레이(2110)는 단위 광원(2111)을 제1 단위 영역(410)에 맞춰 복수 개 구비할 수 있다. 여기서, 단위 광원(2111)에서 조사된 복수의 광은 제1 단위 영역(2121)을 지나 각각 분할되고, 제3 단위 영역(411)에 오버랩되지 조사될 수 있다. 여기서, 광 제어 소자(2120)과 표적 장면(400) 사이에 구비된 광역 렌즈(2130)는 제1 단위 영역(410)을 지난 광을 각각 집광하여, 제3 단위 영역(411)에서 오버랩되는 것을 방지할 수 있다.
프로세서는 광 조사부(210)과 광 수신부(220)를 시간적으로 동기화할 수 있다. 프로세서는 광 조사부(210)에서 조사된 광이 제3 단위 영역(411)에 반사되어 이미지 센서(221)에 도달하는 시간 정보를 통해 제3 단위 영역(411)의 깊이 정보를 연산할 수 있다.
제3 단위 영역(411)으로 광을 조사하는 광원(2112)은 복수 개 일 수 있다. 프로세서는 제3 단위 영역(411)으로 광을 조사하는 광원(2112)의 점멸을 제어할 수 있다. 이때, 제3 단위 영역(411)은 이미지 센서(220)의 각 필셀(221)에 대응될 수 있다.
프로세서는 제3 단위 영역(411)에 광을 조사하는 단위 광원(2111)의 광원(2112)을 선택적으로 점멸할 수 있다. 프로세서가 제3 단위 영역(411)에 하나의 광을 조사하는 경우 이미지 센서(220)의 해상도에 대응되는 깊이 정보를 획득할 수 있다. 프로세서가 제3 단위 영역(411)에 복수의 광을 순차적으로 조사하는 경우, 이미지 센서(220)의 해상도 보다 높은 해상도의 깊이 정보를 획득할 수 있다. 프로세서는 단위 광원(2111)에 포함된 복수의 광원(2112)을 순차적으로 점멸하여 각각 획득한 깊이 정보 및 순차적으로 점멸된 광원이 광을 조사하는 위치 정보를 이용하여 이미지 센서의 해상도 보다 높은 해상도의 깊이 정보를 획득할 수 있다.
예를 들어, 단위 광원(2112)에 포함된 복수의 광원(2112) 중 두 개를 순차적으로 점멸하고, 각각 깊이 정보를 획득할 수 있다. 프로세서는 순차적으로 점멸된 광원이 광을 조사하는 위치 정보를 메모리에 기 저장된 정보를 통해 획득할 수 있다. 프로세서는 각각 획득한 깊이 정보를 위치 정보를 통해 병합하여 보다 두 배의 해상도를 가지는 깊이 정보를 획득할 수 있다.
도 7의 실시예는 단위 광원(2112)에 포함된 복수의 광원(2112) 중 하나의 광을 점멸하여 깊이 정보를 획득하는 실시예를 도시하고 있다. 이 경우, 이미지 센서의 해상도에 대응하는 깊이 정보를 획득할 수 있다.
도 8의 실시예는 단위 광원(2112)에 포함된 복수의 광원(2112) 중 두 개의 광을 순차적으로 점멸하여 깊이 정보를 획득하는 실시예를 도시하고 있다. 도 8(a)는 먼저 점멸된 광원(2112)이 표적 장면(400)에 광을 조사하는 위치를 도시하고 있다. 도 8(b)는 나중에 점멸된 광원(2112)이 표적 장면(400)에 광을 조사하는 위치를 도시하고 있다. 프로세서는 먼저 점멸된 광원(2112)이 표적 장면(400)에서 광을 조사하는 위치와 나중에 점멸된 광원(2112)이 표적 장면(400)에 광을 조사하는 위치를 이용하여 각각 획득한 깊이 정보를 병합하고 이미지 센서의 해상도보다 높은 해상도의 깊이 정보를 획득할 수 있다.
프로세서는 표적 장면(400)의 깊이 정보를 이용하여 단위 광원(2111)에서 동시에 점멸하는 광원(2112)를 조절할 수 있다. 프로세서는 표적 장면(400)이 멀리 떨어져 있을수록 단위 광원(2111)에서 동시에 점멸하는 광원(2112)의 개수를 늘릴 수 있다. 구체적으로, 프로세서는 제2 단위 영역(410)이 기 설정 거리보다 가까이 위치하는 경우, 단위 광원(2111)에서 하나의 광원(2112)을 점멸할 수 있다. 프로세서는 제2 단위 영역(410)이 기 설정 거리보다 멀리 위치하는 경우, 단위 광원(2111)에서 적어도 두 개의 광원(2112)을 동시에 점멸할 수 있다.
프로세서는 이전 프레임에서 획득한 깊이 정보를 이용하여 다음 프레임에서 단위 광원(2111)의 광원(2112) 중 동시에 점멸된 광원(2112)의 개수를 설정할 수 있다
도 9의 실시예는 표적 장면(400)이 멀리 위치하여 단위 광원(2111)에서 두 개의 광원(2112)을 동시에 점멸하는 실시예를 도시하고 있다. 광학 장치(200)는 거리가 먼 경우 보다 높은 광량을 조사하여 보다 신뢰도가 높은 깊이 정보를 획득할 수 있다. 광학 장치(200)는 거리가 가까이 있는 경우 적은 광량을 조사하여 전력 소비를 최소화할 수 있다.
도 10의 실시예는 복의 단위 광원(2111)이 독립적으로 제어되는 실시예를 도시하고 있다. 첫 번째 제2 단위 영역(410a)이 가까이 위치하는 경우 대응되는 단위 광원(2111) 중 하나의 광원을 점멸하고, 두 번째 제2 단위 영역(410b)이 멀리 위치하는 경우 대응되는 단위 광원(2111) 중 두 개의 광원을 동시에 점멸할 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (15)

  1. 표적 장면으로 광을 조사하는 광 조사부;
    상기 표적 장면에서 반사된 광을 수신하는 광 수신부; 및
    상기 광 조사부 및 상기 광 수신부에 연결된 프로세서;를 포함하고,
    상기 광 조사부는
    지향성 광원을 복수 개 포함하는 광원 어레이;
    상기 광원에서 조사된 광을 분할하는 회절 광학 기반의 광 제어 소자; 및
    상기 광 제어 소자를 지나 분할된 광을 상기 표적 장면으로 전달하는 광역 렌즈;를 포함하고,
    상기 광 제어 소자는 복수 개의 제1 단위 영역으로 분할 구비되고,
    상기 표적 장면은 상기 제1 단위 영역에 대응하여 제2 단위 영역으로 분할되고,
    상기 제1 단위 영역을 지나 분할된 광은 상기 제1 단위 영역에 대응되는 제2 단위 영역으로 조사되는 것을 특징으로 하는 광학 장치.
  2. 제1항에 있어서,
    상기 제1 단위 영역을 지나는 광은 분할 되어 상기 제2 단위 영역을 구성하는 복수의 제3 단위 영역으로 각각 조사되는 것을 특징으로 하는 광학 장치.
  3. 제2항에 있어서,
    상기 제3 단위 영역은 상기 광 수신부를 구성하는 이미지 센서의 각 픽셀에 대응되는 것을 특징으로 하는 광학 장치.
  4. 제3항에 있어서,
    상기 제1 단위 영역은
    상기 광원을 복수 개 포함하는 단위 광원에 매칭되는 것을 특징으로 하는 광학 장치.
  5. 제4항에 있어서,
    상기 단위 광원에 의해 조사된 복수의 광은
    상기 제1 단위 영역을 지나 각각 분할되고, 상기 제3 단위 영역에 오버랩되지 않도록 조사되는 것을 특징으로 하는 광학 장치.
  6. 제5항에 있어서,
    상기 프로세서는
    상기 이미지 센서의 해상도에 대응되는 깊이 정보를 획득하는 경우, 상기 단위 광원에 포함된 복수 개의 광원 중 하나를 점멸하고,
    상기 이미지 센서의 해상도 보다 높은 해상도의 깊이 정보를 획득하는 경우, 상기 단위 광원에 포함된 복수 개의 광원 중 적어도 두 개의 광원을 순차적으로 점멸하는 것을 특징으로 하는 광학 장치.
  7. 제6항에 있어서,
    상기 프로세서는
    상기 단위 광원에 포함된 복수의 광원을 순차적으로 점멸하여 각각 획득한 깊이 정보 및 순차적으로 점멸된 광원이 광을 조사하는 위치 정보를 이용하여 상기 이미지 센서의 해상도 보다 높은 해상도의 깊이 정보를 획득하는 것을 특징으로 하는 광학 장치.
  8. 제5항에 있어서,
    상기 프로세서는
    상기 제2 단위 영역이 기 설정 거리 보다 가까이 위치하는 경우, 상기 단위 광원에 포함된 복수 개의 광원 중 하나를 점멸하고,
    상기 제2 단위 영역이 기 설정 거리 보다 멀리 위치하는 경우, 상기 단위 광원에 포함된 복수 개의 광원 중 적어도 두 개가 동시에 점멸되는 것을 특징으로 하는 광학 장치.
  9. 제8항에 있어서,
    상기 프로세서는
    상기 제2 단위 영역이 멀리 위치할수록 상기 단위 광원에 포함된 복수 개의 광원 중 동시에 점멸되는 광원의 개수를 늘리는 것을 특징으로 하는 광학 장치.
  10. 제8항에 있어서,
    상기 프로세서는
    이전 프레임에서 획득한 상기 제2 단위 영역의 깊이 정보를 이용하여 다음 프레임에 상기 단위 광원의 점멸 개수를 조절하는 것을 특징으로 하는 광학 장치.
  11. 제5항에 있어서,
    상기 광 조사부는,
    상기 광원 어레이와 상기 광 제어 소자 사이에 마이크로 렌즈를 복수 개 포함하는 마이크로 렌즈 어레이를 더 포함하고,
    상기 마이크로 렌즈는
    상기 단위 광원에 조사된 복수의 광을 각각 기울여 상기 제1 단위 영역으로 전달하는 것을 특징으로 하는 광학 장치.
  12. 제5항에 있어서,
    상기 광역 렌즈는
    상기 광 제어 소자를 지나 분할된 광을 각각 집광하는 것을 특징으로 하는 광학 장치.
  13. 제12항에 있어서,
    상기 광원에서 조사되는 광은 가우시안 빔에 대응되고,
    상기 광역 렌즈는
    상기 가우시안 빔의 포커스에 위치하고, 상기 광원 또는 상기 광 제어 소자가 위치한 평면에 상기 광역 렌즈의 초점 평면을 구비하는 것을 특징으로 하는 광학 장치.
  14. 제12항에 있어서,
    상기 광역 렌즈는
    상기 이미지 센서의 필 팩터(fill factor)에 대응하는 집광력을 가지는 것을 특징으로 하는 광학 장치.
  15. 제14항에 있어서,
    상기 광역 렌즈는
    상기 이미지 센서의 필 팩터가 낮을수록 높은 집광력을 가지는 것을 특징으로 하는 광학 장치.
PCT/KR2019/018827 2019-12-31 2019-12-31 광학 장치 WO2021137329A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/018827 WO2021137329A1 (ko) 2019-12-31 2019-12-31 광학 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/018827 WO2021137329A1 (ko) 2019-12-31 2019-12-31 광학 장치

Publications (1)

Publication Number Publication Date
WO2021137329A1 true WO2021137329A1 (ko) 2021-07-08

Family

ID=76686626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/018827 WO2021137329A1 (ko) 2019-12-31 2019-12-31 광학 장치

Country Status (1)

Country Link
WO (1) WO2021137329A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150052469A (ko) * 2013-11-06 2015-05-14 현대모비스 주식회사 차량 제어 방법 및 이를 위한 장치
KR20150076760A (ko) * 2013-12-27 2015-07-07 주식회사 만도 차량용 tof 카메라 및 그의 구동 방법
US20150378197A1 (en) * 2014-06-26 2015-12-31 Lenovo (Beijing) Co., Ltd. Electronic device
KR20180013598A (ko) * 2016-07-29 2018-02-07 삼성전자주식회사 빔 스티어링 소자 및 이를 포함하는 광학 장치
KR20180053376A (ko) * 2015-09-18 2018-05-21 로베르트 보쉬 게엠베하 라이더 센서

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150052469A (ko) * 2013-11-06 2015-05-14 현대모비스 주식회사 차량 제어 방법 및 이를 위한 장치
KR20150076760A (ko) * 2013-12-27 2015-07-07 주식회사 만도 차량용 tof 카메라 및 그의 구동 방법
US20150378197A1 (en) * 2014-06-26 2015-12-31 Lenovo (Beijing) Co., Ltd. Electronic device
KR20180053376A (ko) * 2015-09-18 2018-05-21 로베르트 보쉬 게엠베하 라이더 센서
KR20180013598A (ko) * 2016-07-29 2018-02-07 삼성전자주식회사 빔 스티어링 소자 및 이를 포함하는 광학 장치

Similar Documents

Publication Publication Date Title
WO2014035128A1 (en) Image processing system
WO2014035127A1 (en) Apparatus for generating depth image
CN103477186B (zh) 立体摄像装置
WO2020040390A1 (ko) 3차원 영상 생성 장치 및 방법
WO2015016459A1 (en) Light field image capturing apparatus including shifted microlens array
WO2013176362A1 (ko) 3차원 스캐닝 시스템 및 이를 이용한 3차원 영상획득방법
WO2018124413A1 (ko) 송수광 일체형 광학계 모듈 및 이를 구비하는 스캐닝 라이다
EP1178333A2 (en) Method and apparatus for a color scannerless range imaging system
WO2011087337A2 (ko) 기판 검사장치
WO2016200096A1 (ko) 3차원 형상 측정장치
WO2019112164A1 (ko) 3차원 라이다 장치 및 거리측정 방법
WO2020045946A1 (ko) 영상 처리 장치 및 영상 처리 방법
WO2018056516A1 (ko) 광학계 모듈 및 그를 갖는 스캐닝 라이다
WO2017171140A1 (ko) 오목 반사 미러를 가지는 스캐닝 라이다
WO2015080480A1 (ko) 웨이퍼 영상 검사 장치
WO2020067738A1 (ko) 카메라 장치 및 그의 깊이 정보 추출 방법
WO2018147631A1 (ko) 색수차 렌즈를 이용한 공초점 영상 구현 장치
WO2020075932A1 (ko) 3차원 영상 생성 장치 및 방법
WO2020130440A1 (ko) 3차원 거리측정 카메라
WO2021137329A1 (ko) 광학 장치
EP3460753A1 (en) Photometric stereo system and method for inspecting objects with a one-shot camera and a computer program
WO2022154160A1 (ko) 카메라 모듈
WO2022080853A1 (ko) 휴대용 3차원 영상 측정 장치, 이를 이용한 3차원 영상 측정 방법 및 의료 영상 정합 시스템
WO2021133082A1 (ko) 3차원 카메라 시스템
CN211880472U (zh) 图像采集装置及摄像机

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19958222

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19958222

Country of ref document: EP

Kind code of ref document: A1