WO2024076194A1 - 광 출력 장치 및 이를 포함하는 3차원 센싱 장치 - Google Patents

광 출력 장치 및 이를 포함하는 3차원 센싱 장치 Download PDF

Info

Publication number
WO2024076194A1
WO2024076194A1 PCT/KR2023/015400 KR2023015400W WO2024076194A1 WO 2024076194 A1 WO2024076194 A1 WO 2024076194A1 KR 2023015400 W KR2023015400 W KR 2023015400W WO 2024076194 A1 WO2024076194 A1 WO 2024076194A1
Authority
WO
WIPO (PCT)
Prior art keywords
light source
light
source array
channels
source arrays
Prior art date
Application number
PCT/KR2023/015400
Other languages
English (en)
French (fr)
Inventor
김명섭
박기태
배영섭
이현용
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220127869A external-priority patent/KR20240048280A/ko
Priority claimed from KR1020220127870A external-priority patent/KR20240048281A/ko
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Publication of WO2024076194A1 publication Critical patent/WO2024076194A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/30Collimators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings

Definitions

  • the present invention relates to an optical output device and a three-dimensional sensing device including the same.
  • 3D content is applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth information (Depth Map) is required to obtain 3D content.
  • Depth information is information representing distance in space, and represents perspective information of another point with respect to one point in a two-dimensional image.
  • Methods for acquiring depth information include projecting IR (Infrared) structured light onto an object, using a stereo camera, and TOF (Time of Flight) methods.
  • LiDAR Light Detection and Ranging
  • a camera device that acquires 3D information, measures the distance to a target object using laser pulses that are emitted from a LiDAR device and then reflected back from the target object. Shape the target object.
  • LiDAR devices are applied to various technical fields that require three-dimensional information. For example, LiDAR devices can be applied to various technical fields such as meteorology, aviation, space, and vehicles. Recently, the proportion of LiDAR devices in the autonomous driving field is rapidly increasing.
  • the light emitting unit of the LIDAR device generates an output light signal and irradiates it to the object
  • the light receiving unit receives the input light signal reflected from the object
  • the information generating unit uses the input light signal received by the light receiving unit to generate information about the object. Create.
  • the light emitting unit of the LIDAR device includes a scanner, and the scanner can scan an area of a preset field of view (FOV).
  • FOV field of view
  • the light emitting part of the LiDAR device includes a scanner, not only does the size of the LiDAR device increase, but the reliability of the LiDAR device may decrease.
  • the LIDAR device is a dot pattern-based structured light module
  • the resolution of depth information increases as the number of output dots increases.
  • the number of copies of the diffractive optical element can be increased.
  • the brightness per point decreases, and it is necessary to increase the output of the light source to compensate for this.
  • the technical problem to be achieved by the present invention is to provide a compact and highly reliable optical output device and a three-dimensional sensing device.
  • the technical problem to be achieved by the present invention is to provide a light output device and a three-dimensional sensing device that can adaptively adjust the angle of view and sensing distance.
  • the technical problem to be achieved by the present invention is to provide a three-dimensional sensing device that is safe for the user's eyes and has high depth information resolution.
  • An optical output device includes a plurality of light source arrays sequentially arranged along a first direction perpendicular to the optical axis direction, a collimation lens disposed on the plurality of light source arrays, and an image on the collimation lens. and a diffusion member disposed in, wherein each light source array includes a plurality of channels sequentially arranged along the optical axis direction and a second direction perpendicular to the first direction, and each of the plurality of light source arrays is driven independently. and each of the plurality of channels is set to be driven independently.
  • the plurality of light source arrays include a first light source array and a second light source array, each of the first light source array and the second light source array includes sequentially arranged first to nth channels, and the first light source array Each of the first to nth channels of the array may be connected in series to each of the first to nth channels of the second light source array.
  • At least some of the first to nth channels of the first light source array may be connected in parallel to each other.
  • the area of the effective area of the collimation lens may be larger than the area of the plurality of light source arrays.
  • the diffusion member includes a first surface disposed to face the plurality of light source arrays and a second surface opposite to the first surface, a plurality of convex patterns are disposed on the first surface, and the plurality of convex patterns are disposed on the first surface.
  • Each pattern may have a long axis parallel to the second direction.
  • the plurality of light source arrays may be implemented on one chip.
  • a three-dimensional sensing device includes a light emitting unit that generates an output light signal and irradiates it to a target area, a light receiving unit that receives an input light signal reflected from the target area, and an input input to the light receiving unit.
  • An information generator that generates information about the target area using an optical signal, and a control portion that controls the light emitter, the light receiver, and the information generator, wherein the light emitter operates in a first direction perpendicular to the optical axis.
  • It includes a plurality of light source arrays sequentially arranged along the plurality of light source arrays, collimation lenses arranged on the plurality of light source arrays, and a diffusion member arranged on the collimation lenses, wherein each light source array is oriented in the optical axis direction and the first direction. It includes a plurality of channels sequentially arranged along a second direction perpendicular to , wherein each of the plurality of light source arrays is set to be driven independently, and each of the plurality of channels is set to be driven independently.
  • the control unit may control at least one of the number of driven light source arrays among the plurality of light source arrays and the number of driven channels among the plurality of channels.
  • the control unit may control the number of driven light source arrays among the plurality of light source arrays according to the measurement distance of the target area.
  • the control unit may control the number of channels driven among the plurality of channels according to the required angle of view in the second direction.
  • the diffusion member includes a first surface disposed to face the plurality of light source arrays and a second surface opposite to the first surface, a plurality of convex patterns are disposed on the first surface, and the plurality of convex patterns are disposed on the first surface.
  • Each pattern may have a long axis parallel to the second direction.
  • the angle of view in the first direction may vary depending on the shape of the plurality of convex patterns of the diffusion member.
  • a three-dimensional sensing device includes a light emitting unit that generates an output light signal and irradiates it to a target area, a light receiving unit that receives an input light signal reflected from the target area, and an input light signal input to the light receiving unit.
  • An information generator that generates information about the target area using an input light signal, and a control portion that controls the light emitter, the light receiver, and the information generator, wherein the light emitter is arranged in a matrix shape, and first A plurality of light source arrays driven by a plurality of first signal lines applied in a direction and a plurality of second signal lines applied in a second direction perpendicular to the first direction, a group of lenses arranged on the plurality of light source arrays , and an optical member disposed on the lens group, wherein the control unit uses a portion of the plurality of first signal lines and a portion of the plurality of second signal lines to array different light sources within the plurality of light source arrays. is driven sequentially, and the information generator generates information about the target area by synthesizing input light signals for different sequentially driven light source arrays.
  • the optical member includes a diffractive optical element (DOE), the output light signal is a dot pattern replicated by the diffractive optical element, and the output light signal from the different light source arrays driven sequentially is the They can be investigated so that they do not overlap each other in the target area.
  • DOE diffractive optical element
  • the control unit may control the number of different light source arrays that are sequentially driven according to the distance of the target area.
  • the lens group includes a collimation lens, and an effective area of the collimation lens may be larger than an area of the plurality of light source arrays.
  • the optical member may include a diffractive optical element (DOE) disposed in a first region of the plurality of light source arrays and a diffusion member disposed in a second region of the plurality of light source arrays.
  • DOE diffractive optical element
  • the control unit may control the light source array in the first area and the light source array in the second area to be driven sequentially.
  • the output light signal output from the light source array in the second area may be a surface pattern diffused by the diffusion member.
  • the information generator may generate information about the target area by combining input light signals for the light source array in the first area and the light source array in the second area.
  • a compact and highly reliable optical output device and a three-dimensional sensing device can be obtained.
  • a light output device and a three-dimensional sensing device capable of adaptively adjusting the angle of view and sensing distance can be obtained.
  • an optical output device and a three-dimensional sensing device that can adjust the angle of view without a scanner including micro-electro mechanical systems (MEMS), mirrors, etc. have a fast response speed, and are excellent in power efficiency are provided. You can get it.
  • MEMS micro-electro mechanical systems
  • FIG. 1 is a block diagram of a 3D sensing device according to an embodiment of the present invention.
  • Figure 2 is a conceptual cross-sectional view of a 3D sensing device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating the correspondence between a plurality of light source arrays and image sensors included in an embodiment of the present invention.
  • FIGS. 4A to 4C are perspective views of a diffusion member included in a light emitting unit according to an embodiment of the present invention.
  • Figure 5 is an example of comparing the areas of a plurality of light source arrays and a lens group according to an embodiment of the present invention.
  • Figure 6a is the result of simulating the second direction angle of view when driving the 26th to 31st channels among the 1st to 56th channels
  • Figure 6b is the result of simulating the second direction angle of view when all of the 1st to 56th channels are driven. It is a result.
  • Figure 7 shows the results of simulating output according to the number of driven light source arrays among a plurality of light source arrays according to an embodiment of the present invention.
  • Figure 8 is a conceptual diagram of a light source included in another embodiment of the present invention.
  • Figure 9 is a layout diagram of a light source according to another embodiment of the present invention.
  • FIGS. 10A to 10G are examples of dot patterns output from the light source of FIG. 9.
  • Figure 11 is a diagram explaining the principle of generating depth information using a dot pattern.
  • FIG. 12 is a cross-sectional view of a light emitting unit including the light source of FIG. 9.
  • FIG. 13 is an application example of a 3D sensing device including the light emitting unit of FIG. 12.
  • Figure 14 is a layout diagram of a light source according to another embodiment of the present invention.
  • Figures 15A to 15D are examples of surface patterns output from the light source of Figure 14.
  • FIG. 16 is a cross-sectional view of a light emitting unit including the light source of FIG. 14.
  • FIG. 17 is an example of a diffusion member included in the light emitting unit of FIG. 16.
  • FIG. 18 is an application example of a 3D sensing device including the light emitting unit of FIG. 16.
  • Figure 19 is an exploded view of a LiDAR device according to an embodiment of the present invention.
  • the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
  • first, second, A, B, (a), and (b) may be used.
  • a component when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
  • “above” or “below” refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components.
  • “top (above) or bottom (bottom)” it may include not only the upward direction but also the downward direction based on one component.
  • the 3D sensing device may mean a LiDAR device mounted on a car and measuring the distance between the car and an object, but is not limited thereto.
  • the 3D sensing device can extract depth information using the Time of Flight (ToF) principle, the Frequency Modulation Continuous Wave (FMCW) principle, or the structured light principle.
  • the 3D sensing device may be referred to as a LiDAR device, an information generating device, a depth information generating device, or a camera device.
  • FIG. 1 is a block diagram of a three-dimensional sensing device according to an embodiment of the present invention
  • FIG. 2 is a conceptual cross-sectional view of a three-dimensional sensing device according to an embodiment of the present invention
  • FIG. 3 is an embodiment of the present invention.
  • This is a diagram explaining the correspondence relationship between a plurality of light source arrays and image sensors included in
  • FIGS. 4A to 4C are perspective views of a diffusion member included in a light emitting unit according to an embodiment of the present invention.
  • the information generating device 1000 includes a light emitting unit 100, a light receiving unit 200, a depth information generating unit 300, and a control unit 400.
  • the light emitting unit 100 may generate and output an output light signal in the form of a pulse wave or a continuous wave. Continuous waves can be in the form of sinusoid waves or square waves.
  • the information generating device 1000 determines the time between the output light signal output from the light emitting unit 100 and the input light signal reflected from the object and then input to the light receiving unit 200. Difference or phase difference can be detected.
  • output light refers to light output from the light emitting unit 100 and incident on an object, and input light is output from the light emitting unit 100, reaches the object, and then is reflected from the object and input to the light receiving unit 200.
  • the pattern of output light may be referred to as an emission pattern
  • the pattern of input light may be referred to as an incident pattern. From the object's perspective, output light can be incident light, and input light can be reflected light.
  • the light emitting unit 100 may include a light source 110, a lens group 120 disposed on the light source 110, and an optical member 130 disposed on the lens group 120.
  • the light source 110 generates and outputs light.
  • the light generated by the light source 110 may be infrared rays with a wavelength of 770 to 3000 nm.
  • the light generated by the light source 110 may be visible light with a wavelength of 380 to 770 nm.
  • the light source 110 may use a light emitting diode (LED), and may have a plurality of light emitting diodes arranged according to a certain pattern.
  • the light source 110 may include an organic light emitting diode (OLED) or a laser diode (LD).
  • OLED organic light emitting diode
  • LD laser diode
  • the light source 110 may be a Vertical Cavity Surface Emitting Laser (VCSEL).
  • VCSEL is one of the laser diodes that converts electrical signals into optical signals, and can output a wavelength of about 800 to 1000 nm, for example, about 850 nm or about 940 nm.
  • the light source 110 repeats blinking (on/off) at regular time intervals to generate an output light signal in the form of a pulse wave or a continuous wave.
  • the certain time interval may be the frequency of the output light signal.
  • the lens group 120 may converge light output from the light source 110 and output the condensed light to the outside.
  • the lens group 120 may be disposed on top of the light source 110 and spaced apart from the light source 110 .
  • the upper part of the light source 110 may mean the side where light is output from the light source 110.
  • the lens group 120 may include at least one lens.
  • each lens may be aligned with respect to the central axis to form an optical system.
  • the central axis may be the same as the optical axis of the optical system.
  • the lens group 120 may include a collimation lens.
  • the optical member 130 may receive light output from the light source 110 and the lens group 120 and then output the received light by refracting or diffracting it. Accordingly, the optical member 130 may be referred to as a diffusion member.
  • the light receiving unit 200 may receive an optical signal reflected from an object. At this time, the received optical signal may be an optical signal output from the light emitting unit 100 reflected from the object.
  • the light receiving unit 200 may include an image sensor 210, a filter 220 disposed on the image sensor 210, and a lens group 230 disposed on the filter 220.
  • the optical signal reflected from the object may pass through the lens group 230.
  • the optical axis of the lens group 230 may be aligned with the optical axis of the image sensor 210.
  • the filter 220 may be disposed between the lens group 230 and the image sensor 210.
  • the filter 220 may be placed on the optical path between the object and the image sensor 210.
  • the filter 220 may filter light having a predetermined wavelength range.
  • the filter 220 may transmit a specific wavelength band of light.
  • the filter 220 can pass light of a specific wavelength.
  • the filter 220 may pass light in the infrared band and block light outside the infrared band.
  • the image sensor 210 can sense light.
  • the image sensor 210 may receive an optical signal.
  • the image sensor 210 can detect optical signals and output them as electrical signals.
  • the image sensor 210 may detect light with a wavelength corresponding to the wavelength of light output from the light source 110.
  • the image sensor 210 may detect light in the infrared band.
  • the image sensor 210 may be configured with a structure in which a plurality of pixels are arranged in a grid shape.
  • the image sensor 210 may be a Complementary Metal Oxide Semiconductor (CMOS) image sensor or a Charge Coupled Device (CCD) image sensor. Additionally, the image sensor 210 may include a ToF sensor that receives IR light reflected from an object and measures the distance using time difference or phase difference.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • ToF sensor ToF sensor that receives IR light reflected from an object and measures the distance using time difference or phase difference.
  • the light receiving unit 200 and the light emitting unit 100 may be arranged side by side.
  • the light receiving unit 200 may be placed next to the light emitting unit 100.
  • the light receiving unit 200 may be arranged in the same direction as the light emitting unit 100.
  • the information generating unit 300 may generate depth information of an object using an input light signal input to the light receiving unit 200.
  • the information generator 300 may calculate the depth information of the object using the flight time it takes for the output light signal output from the light emitter 100 to be input to the light receiver 200 after being reflected from the object.
  • the information generator 300 calculates the time difference between the output light signal and the input light signal using the electrical signal received by the image sensor 210, and uses the calculated time difference to detect the object and the three-dimensional sensing device. You can calculate the distance between (1000).
  • the information generator 300 calculates the phase difference between the output light signal and the input light signal using the electrical signal received from the sensor, and uses the calculated phase difference to determine the phase difference between the object and the three-dimensional sensing device 1000. The distance can be calculated.
  • the control unit 400 controls the operation of the light emitting unit 100, the light receiving unit 200, and the information generating unit 300.
  • the information generation unit 300 and the control unit 400 may be implemented in the form of a printed circuit board (PCB). Additionally, the information generation unit 300 and the control unit 400 may be implemented in different configurations.
  • the control unit 400 may be included in a terminal or vehicle on which the 3D sensing device 1000 according to an embodiment of the present invention is deployed.
  • the control unit 400 is implemented in the form of an application processor (AP) of a smartphone equipped with the 3D sensing device 1000 according to an embodiment of the present invention, or It can be implemented in the form of an ECU (electronic control unit) of a vehicle equipped with the 3D sensing device 1000.
  • AP application processor
  • ECU electronic control unit
  • the 3D sensing device 1000 may be a solid state LIDAR. Unlike the mechanical LiDAR that rotates 360°, the fixed LiDAR does not include mechanical parts that rotate the LiDAR device (1000), so it has the advantage of being inexpensive and capable of being implemented in a small size.
  • the 3D sensing device 1000 may be a fixed flash LiDAR.
  • the fixed flash LiDAR uses an optical flash, and one large-area laser pulse can illuminate the front environment. However, high output power When attempting to implement long-distance sensing, a scanner may be required. However, if the 3D sensing device 1000 includes a scanner, the size of the device increases, and reliability and response speed may decrease.
  • it is intended to control the angle of view and sensing distance using an addressable light source array.
  • the light source 110 includes a plurality of light source arrays 110-1, 110-2, 110-3, and 110-4 sequentially arranged along a first direction perpendicular to the optical axis direction.
  • the plurality of light source arrays is shown as four, but this is not limited and the plurality of light source arrays may be two or more.
  • the first light source array 110-1, the second light source array 110-2, the third light source array 110-3, and the fourth light source array 110-4 are one It may be a VCSEL implemented on a chip.
  • the first light source array 110-1, the second light source array 110-2, the third light source array 110-3, and the fourth light source array 110-4 may be spaced apart from each other.
  • the separation distance between two neighboring light source arrays may be 10 ⁇ m to 100 ⁇ m, preferably 20 ⁇ m to 80 ⁇ m, and more preferably 30 ⁇ m to 60 ⁇ m.
  • each of the first light source array 110-1, the second light source array 110-2, the third light source array 110-3, and the fourth light source array 110-4 is independent. It can be set to run as .
  • each light source array (110-1, 110-2, 110-3, 110-4) includes a plurality of channels sequentially arranged along an optical axis direction and a second direction perpendicular to the first direction. Includes (CH1, CH2, ..., CHN). Pads (PADs) for electrical connection may be placed on both ends of each channel.
  • Each of the plurality of channels (CH1, CH2, ..., CHN) can be set to be driven independently.
  • each light source array is shown as including 56 channels, but is not limited thereto.
  • the light source 110 includes a plurality of light source arrays, each of the plurality of light source arrays is set to be driven independently, and each of the plurality of channels included in each light source array is driven independently. Since it can be set to be, it can be referred to as an addressable light source array or an addressable VCSEL array.
  • the output light signal output from at least a portion of the first channel may be reflected in the target area and then received by the first pixel line unit of the image sensor 210.
  • the output light signal output from at least a portion of the second channel may be reflected in the target area and then received by the second pixel line unit of the image sensor 210.
  • the output light signal output from at least a portion of the N-1th channel of the fourth light source array 110-4 may be received by the N-1th pixel line unit of the image sensor 210 after being reflected in the target area. there is.
  • the N-th channel of the first light source array 110-1, the N-th channel of the second light source array 110-2, the N-th channel of the third light source array 110-3, and the fourth light source array 110 may be received by the N-1th pixel line unit of the image sensor 210 after being reflected in the target area.
  • the output light signal output from at least a portion of the N-th channel of -4) may be reflected in the target area and then received by the N-th pixel line unit of the image sensor 210.
  • each light source array includes 56 channels and the image sensor 210 includes 597*165 pixels, and each pixel line section includes 3 pixel lines, 56 channels are 56 pixel lines. It can be matched 1:1 with wealth.
  • the image sensor 210 may sequentially perform a line scan from the first pixel line portion to the N-th pixel line portion.
  • the first channel of the first light source array 110-1, the first channel of the second light source array 110-2, the first channel of the third light source array 110-3, and the fourth light source array 110 At least some of the first channels of -4) may be connected in series to each other.
  • the second channel of the first light source array 110-1, the second channel of the second light source array 110-2, the second channel of the third light source array 110-3, and the fourth light source array 110-4 ) At least some of the second channels may be connected in series with each other.
  • the N-1 channel of the first light source array 110-1, the N-1 channel of the second light source array 110-2, and the N-1 channel of the third light source array 110-3 At this time, the first channel of the first light source array 110-1, the first channel of the second light source array 110-2, the first channel of the third light source array 110-3, and the fourth light source array 110 At least some of the first channels of -4) may be connected in series to each other.
  • the N-1th channel of the fourth light source array 110-4 may be connected in series.
  • At least some of the N-th channels of -4) may be connected in series to each other.
  • the control unit 400 can control the number of driven light source arrays among a plurality of light source arrays.
  • the control unit 400 may control the number of driven light source arrays among a plurality of light source arrays according to the measurement distance of the target area.
  • the number of light source arrays driven depending on the case is applied to the application. may vary. For example, the number of light source arrays driven increases as a long distance is sensed, and the number of light source arrays driven increases as a short distance is sensed.
  • the 3D sensing device 1000 when the 3D sensing device 1000 is applied to a long-distance application, all of the first to fourth light source arrays 110-1 to 110-4 can be driven, but the 3D sensing device 1000 When applied to a short-distance application, only the first light source array 110-1 can be driven.
  • the lens group 120 is disposed on the plurality of light source arrays 110, and is sequentially arranged in the direction from the optical member 130 toward the plurality of light source arrays 110. It may include a falcon lens.
  • the lens group 120 may include five lenses sequentially arranged in a direction from the optical member 130 toward the plurality of light source arrays 110 .
  • the lens group 120 may be referred to as a collimator because it condenses and outputs light output from the plurality of light source arrays 110.
  • the lens group 120 is disposed closest to the optical member 130, and is disposed closest to the first lens 121 and the first lens 121, both sides of which are convex. It may include a second lens 122 that has a concave shape. According to an embodiment of the present invention, the lens group 120 may further include at least one lens 123 disposed between the second lens 122 and the light source 110. At this time, the diameter or effective diameter of each of the first lens 121 and the second lens 122 may be smaller than the diameter or effective diameter of at least one lens 123.
  • the first lens 121 and the second lens 122 serve to converge light output from the plurality of light source arrays 110, and at least one lens 123 prevents chromatic aberration. It serves to correct.
  • the optical member 130 may be disposed on the lens group 120.
  • the optical member 130 may be referred to as a diffusion member or diffuser.
  • the optical member 130 includes a first surface 130A disposed to face the plurality of light source arrays 110 and a second surface 130B that is opposite to the first surface 130A.
  • first surface 130A disposed to face the plurality of light source arrays 110
  • second surface 130B that is opposite to the first surface 130A.
  • FIG. 4A the first surface 130A is shown facing downward, and in FIG. 4B, FIG. 4A is inverted by 180 degrees.
  • the first surface 130 is shown facing upward, and FIG. 4C shows a plan view of the first surface 130A.
  • a plurality of convex patterns 131 are disposed on the first surface 130A of the optical member 130, the second surface 130B of the optical member 130 is a flat surface, and a plurality of convex patterns 131 are disposed on the first surface 130A of the optical member 130.
  • Each of the convex patterns 131 may extend to have a long axis in a direction parallel to the second direction. More specifically, according to an embodiment of the present invention, each of the plurality of convex patterns 131 may be in the shape of a semi-cylindrical column extending in the second direction, and the plurality of convex patterns 131 may be formed in a first direction perpendicular to the second direction. They may be arranged adjacent to each other along the direction.
  • the angle of view in the first direction of the plurality of light source arrays 110 may be determined by the optical member 130.
  • the first direction view angle may be the same regardless of the number of driven light source arrays among the plurality of light source arrays 110.
  • the angle of view in the first direction of the plurality of light source arrays 110 according to an embodiment of the present invention may be 120 degrees, but is not limited thereto.
  • the second direction angle of view of the plurality of light source arrays 110 may be determined by at least one of the number and position of driven channels among the plurality of channels included in each light source array 110. For example, when all of the plurality of channels included in each light source array are driven, the second direction angle of view may be wider than when some of the channels included in each light source array are driven.
  • the plurality of channels may be connected in parallel to each other.
  • the area of the effective area of the lens group 120 serving as a collimator may be larger than the area of the plurality of light source arrays 110. That is, when the effective area of the lens group 120 serving as a collimator is arranged to cover the entire plurality of light source arrays 110, the second direction angle of view can be controlled according to the number of driven channels among the plurality of channels. there is.
  • Figure 5 is an example of comparing the areas of a plurality of light source arrays and a lens group according to an embodiment of the present invention.
  • each light source array has an effective size of 1.2 mm in the first direction and 7.6 mm in the second direction, and shows an example in which six light source arrays are arranged at 50 ⁇ m apart.
  • the angle of view in the second direction can be controlled according to the number of driven channels among the plurality of channels.
  • control unit 400 can control at least one of the number and position of driven channels among a plurality of channels included in each light source array. For example, at least one of the number and position of driven channels among a plurality of channels can be controlled depending on the location of the target area, the length of the target area in the second direction, etc.
  • Table 1 is the result of simulating the second direction angle of view for each number of driven channels
  • Figure 6a is the result of simulating the second direction angle of view when the 26th to 31st channels among the 1st to 56th channels are driven
  • 6b is the result of simulating the second direction angle of view when all channels 1 to 56 are driven.
  • the angle of view in the first direction is constant regardless of the number of channels being driven, and the angle of view in the second direction varies depending on the number of channels being driven.
  • Figure 7 shows the results of simulating the power of output light according to the number of driven light source arrays among a plurality of light source arrays according to an embodiment of the present invention.
  • the power of light output sequentially increases when one light source array is driven, two light source arrays are driven, and three light source arrays are driven. Accordingly, it can be seen that as the array of driven light sources increases, long-distance sensing becomes possible.
  • an attempt is made to increase the resolution of depth information by using an addressable light source array.
  • the light source 110 includes a plurality of light source arrays 110-1A, 110-1B, ..., 110-4D arranged in a matrix shape.
  • the number of light source arrays is shown as 16, but this is not limited and the number of light source arrays may be two or more.
  • the plurality of light source arrays 110-1A, 110-1B, ..., 110-4D may be VCSELs implemented on one chip. Accordingly, each light source array may be referred to as a sub-VCSEL.
  • the plurality of light source arrays 110-1A, 110-1B, ..., 110-4D may be spaced apart from each other.
  • the separation distance between two neighboring light source arrays may be 10 ⁇ m to 100 ⁇ m, preferably 20 ⁇ m to 80 ⁇ m, and more preferably 30 ⁇ m to 60 ⁇ m.
  • each of the plurality of light source arrays 110-1A, ..., 110-4D may be set to be driven independently.
  • Each of the plurality of light source arrays 110-1A, ..., 110-4D includes a plurality of first signal lines applied in a first direction and a plurality of second signal lines applied in a second direction perpendicular to the first direction. It is driven by .
  • the plurality of light source arrays 110-1A, 110-4D include negative signal lines in A to D columns and positive signal lines in first to fourth columns.
  • the light source array 110-1A is driven, and the positive signal line in the fourth row and the negative signal line in the D column are driven.
  • the light source array 110-4D can be driven.
  • the light source 110 since each of the plurality of light source arrays is set to be driven independently, the light source 110 according to an embodiment of the present invention may be referred to as an addressable light source array or an addressable VCSEL array.
  • the control unit 400 operates a plurality of light source arrays 110-1A, ..., 110-4D according to a combination of parts of the plurality of first signal lines and parts of the plurality of second signal lines. ) Drives different light source arrays sequentially.
  • the control unit 400 may sequentially drive the light source arrays 110-1A, 110-1B, ..., 110-4C, and 110-4D.
  • the control unit 400 may sequentially drive some of the plurality of light source arrays 110-1A, ..., 110-4D.
  • the information generator 300 generates depth information about the target area by combining input light signals for different sequentially driven light source arrays. For example, when the light source arrays 110-1A, 110-2B, 110-3C, and 110-4D are driven sequentially, the information generator 300 generates an input light signal for the light source array 110-1A, Depth information can be generated by combining the input light signal for the light source array 110-2B, the input light signal for the light source array 110-3C, and the input light signal for the light source array 110-4D. Synthesis of the input light signal can be performed using a super resolution (SR) algorithm, etc. According to this, since the instantaneous power consumption does not become excessively high, not only can power consumption be reduced, but also high resolution of depth information can be obtained without harming the user's eyes.
  • SR super resolution
  • the light emitting unit 100 may be a structured light module that outputs a dot pattern.
  • FIG. 9 is a layout diagram of a light source according to another embodiment of the present invention
  • Figures 10a to 10g are examples of dot patterns output from the light source of Figure 9
  • Figure 11 shows the principle of generating depth information using a dot pattern.
  • FIG. 12 is a cross-sectional view of a light emitting unit including the light source of FIG. 9. Redundant description of content that is the same as that described with reference to FIGS. 1 to 8 will be omitted.
  • the light source 110 includes a first light source array 110-11, a second light source array 110-21, a third light source array 110-12, and a fourth light source array arranged in a matrix shape. Includes (110-22).
  • FIG. 10B is an example of a dot pattern output when driving the first light source array 110-11
  • FIG. 10C is an example of a dot pattern output when driving the second light source array 110-21
  • FIG. 10D is an example of a dot pattern output when driving the first light source array 110-11.
  • This is an example of a dot pattern output when driving the third light source array 110-12
  • Figure 10e is an example of a dot pattern output when driving the fourth light source array 110-22.
  • the dot patterns output from the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array 110-22 are the target. Areas may not overlap with each other.
  • the distance (object distance, h') between the 3D sensing device 1000 and the object in the target area may vary depending on the disparity ( ⁇ x) of the points forming the dot pattern. Accordingly, the accuracy of disparity may affect the accuracy of depth information. More specifically, extraction of depth information using a dot pattern can follow the following equation.
  • h is the reference distance
  • h' is the object distance within the target area
  • b is the length of the baseline
  • ⁇ x is the disparity
  • the length of the baseline (b) affects the disparity, and the disparity per unit length of the object distance (h') increases as the FOV (field of view) becomes smaller, and the baseline You can see that the bigger it gets, the bigger it gets.
  • the size of the object is smaller than half of the baseline, points within a predetermined pattern may overtake adjacent points due to disparity, and as the object distance within the target area increases, disparity may decrease. Accordingly, in order to calculate accurate depth information, it is necessary to extract disparity based on the center of the point, and it is important that the points irradiated to the object in the target area do not overlap with each other.
  • FIG. 10A shows a dot output when the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array 110-22 are driven simultaneously.
  • This is an example of a pattern
  • Figure 10f is an example of a dot pattern output when the first light source array 110-11 and the fourth light source array 110-22 are driven simultaneously
  • Figure 10g is an example of a dot pattern output when the first light source array 110-11 and the fourth light source array 110-22 are driven simultaneously.
  • this is an example of a dot pattern output when the second light source array 110-21 and the third light source array 110-12 are driven simultaneously.
  • the greater the number of driven light source arrays the greater the number of points irradiated within the target area.
  • the number of points irradiated within the target area increases, so the resolution of the depth information can increase.
  • more accurate disparity can be extracted. It may become difficult to do.
  • the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array 110-22 are sequentially driven. And, input light signals from each light source array can be synthesized. According to this, depth information to the extent of simultaneously driving the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array 110-22. While having high resolution, accurate disparity extraction is possible by ensuring that the points illuminated on the object do not overlap each other, which not only reduces power consumption but also does not harm the user's eyes.
  • the first light source array 110-11, the second light source array 110-21, and the third light source array 110-11 may be driven sequentially.
  • the lens group 120 and the optical member 130 may be arranged on the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array 110-22 As described with reference to FIG. 2 , the lens group 120 and the optical member 130 may be arranged.
  • the optical member 130 may include a diffractive optical element (DOE), as shown in FIG. 12, and the diffractive optical element is a first light source array 110-11 and a second light source array.
  • DOE diffractive optical element
  • the dot patterns output from each of (110-21), the third light source array (110-12), and the fourth light source array (110-22) can be copied.
  • FIG. 13 is an application example of a 3D sensing device including the light emitting unit of FIG. 12.
  • the control unit 400 of the 3D sensing device 1000 can control the number of different light source arrays that are sequentially driven according to the distance of the target area.
  • the control unit 400 of the 3D sensing device 1000 may control the number of driven light source arrays among a plurality of light source arrays according to the measurement distance r of the target area.
  • the number of light source arrays driven depending on the case is applied to the application. may vary.
  • the intensity of light input to the image sensor 210 also weakens in inverse proportion to the square of the distance. Accordingly, as the number of driven light source arrays increases as the longer distance is sensed, the density of dots and the intensity of light can be maintained high even at long distances, and thus high resolution of depth information can be obtained.
  • the dot pattern irradiated by light source array #1 and the dot pattern irradiated by light source array #2 may not overlap with each other.
  • the depth information resolution of long-distance sensing can be further increased.
  • the light emitting unit 100 may output both a dot pattern and a surface pattern.
  • Figure 14 is a layout diagram of a light source according to another embodiment of the present invention, and Figures 15a to 15d are examples of surface patterns output from the light source of Figure 14.
  • FIG. 16 is a cross-sectional view of a light emitting unit including the light source of FIG. 14, and FIG. 17 is an example of a diffusion member included in the light emitting unit of FIG. 16. Redundant description of content that is the same as that described with reference to FIGS. 1 to 13 will be omitted. Redundant description of content that is the same as that described with reference to FIGS. 9 to 13 in relation to the dot pattern will be omitted.
  • the light source 110 includes a first light source array 110-11, a second light source array 110-21, a third light source array 110-12, and a fourth light source array arranged in a matrix shape. (110-22), the fifth light source array (110-31), the sixth light source array (110-41), the seventh light source array (110-32), and the eighth light source array (110-42).
  • the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array 110-22 are the light source arrays described with reference to FIGS. 9 to 12. Since these are the first to fourth light source arrays, duplicate descriptions regarding them will be omitted.
  • Figure 15a shows the output surface when the fifth light source array (110-31), the sixth light source array (110-41), the seventh light source array (110-32), and the eighth light source array (110-42) are all driven.
  • FIG. 15B shows the fifth light source array 110-31 and the seventh light source array 110-32 being driven simultaneously, or the sixth light source array 110-41 and the eighth light source array 110-42.
  • ) is an example of a surface pattern output when the fifth light source array 110-31 and the sixth light source array 110-41 are driven simultaneously
  • Figure 15c is an example of a surface pattern output when the fifth light source array 110-31 and the sixth light source array 110-41 are driven simultaneously.
  • 15d is an example of a surface pattern output when the seventh light source array 110-32 and the eighth light source array 110-42 are driven simultaneously.
  • the fifth light source array 110-31, the sixth light source array 110-41, and the seventh light source array 110-31 according to the combination of electrical signals applied to the plurality of first signal lines L1 and the plurality of second signal lines L2. All or part of the light source array 110-32 and the eighth light source array 110-42 may be driven.
  • the first area, the first light source array 110-11, the second light source array 110-21, the third light source array 110-12, and the fourth light source array (
  • the optical member 130 disposed on 110-22 is a diffractive optical element 1301, and the second area is the fifth light source array 110-31, the sixth light source array 110-41, and the seventh light source array.
  • 110-32 and the eighth light source array 110-42 may be a diffusion member 1302.
  • the lens group 120 is disposed on a plurality of light source arrays and may include a plurality of lenses sequentially arranged in a direction from the diffusion member 1302 toward the plurality of light source arrays.
  • the lens group 120 may include five lenses sequentially arranged in a direction from the diffusion member 1302 toward the plurality of light source arrays.
  • the lens group 120 may be referred to as a collimator because it condenses and outputs light output from a plurality of light source arrays.
  • the lens group 120 is disposed on not only the fifth to eighth light source arrays that output a surface pattern, but also the first to fourth light source arrays that output a dot pattern, and also collects the light output from the first to fourth light source arrays. can do. To this end, the area of the effective area of the lens group 120 may be larger than the area of the first to eighth light source arrays.
  • the diffusion member 1302 has a first surface 1302A and a first surface disposed to face the fifth to eighth light source arrays 110-31, 110-41, 110-32, and 110-42. It includes a second side 1302B, which is the opposite side of side 1302A.
  • first surface 1302A is shown facing downward
  • FIG. 17B FIG. 17A is flipped 180 degrees.
  • the first side 1302A is shown facing upward.
  • a plurality of convex patterns 1312 are disposed on the first surface 1302A of the diffusion member 1302, the second surface 1302B of the diffusion member 1302 is a flat surface, and a plurality of convex patterns 1312 are disposed on the first surface 1302A of the diffusion member 1302.
  • Each of the convex patterns 1312 may extend to have a long axis in a direction parallel to the second direction. More specifically, according to an embodiment of the present invention, each of the plurality of convex patterns 1312 may be in the shape of a semi-cylindrical column extending in the second direction, and the plurality of convex patterns 1312 may be formed in a first direction perpendicular to the second direction. They may be arranged adjacent to each other along the direction.
  • the first direction angle of view of the fifth to eighth light source arrays 110-31, 110-41, 110-32, and 110-42 may be determined by the diffusion member 1302, and the diffusion By using the member 1302, a surface pattern evenly distributed in the first direction can be obtained. According to an embodiment of the present invention, the same first direction angle of view can be obtained regardless of the number of driven light source arrays among the fifth to eighth light source arrays 110-31, 110-41, 110-32, and 110-42. there is.
  • the second direction angle of view of the fifth to eighth light source arrays 110-31, 110-41, 110-32, and 110-42 is the fifth to eighth light source arrays 110-31, 110-42, and 110-42.
  • 110-41, 110-32, 110-42) may be determined by the number or location of the driven light source array. For example, as shown in FIGS. 15C and 15D, only the fifth light source array 110-31 and the sixth light source array 110-41 are driven, or the seventh light source array 110-32 and the eighth light source array 110-32 are driven. When only the light source array 110-42 is driven, the second direction angle of view is narrower than when the fifth to eighth light source arrays 110-31, 110-41, 110-32, and 110-42 are all driven. You can.
  • FIG. 18 is an application example of a 3D sensing device including the light emitting unit of FIG. 16.
  • the control unit 400 of the 3D sensing device 1000 may control at least one of the number and type of different light source arrays that are sequentially driven according to the distance r of the target area.
  • the control unit 400 may control at least one of the number and type of light source arrays to be driven among the plurality of light source arrays according to the measurement distance of the target area.
  • the number of light source arrays driven depending on the case is applied to the application. and at least one of the types may vary.
  • light source array #1 and light source array #2 when irradiating a person at a long distance, irradiate dot patterns that do not overlap each other, and light source array irradiates face patterns in different areas.
  • the depth information resolution of long-distance sensing can be further increased.
  • Figure 19 is an exploded view of a LiDAR device according to an embodiment of the present invention.
  • the LiDAR device may include a light emitting unit and a light receiving unit.
  • the substrate 10, the holder 30, and the shield can 50 are formed as one piece and are used in common with the light emitting unit and the light receiving unit, it may be difficult to distinguish them into the light emitting unit and the light receiving unit.
  • each of the above components can be understood as a component of each light emitting unit and light receiving unit.
  • common components such as the substrate 10, the holder 30, and the shield can 50 may be provided separately in the light emitting unit and the light receiving unit.
  • the light emitting unit may include a substrate 10, a light source 20, a holder 30, a diffusion member 41, a diffuser ring 42, and a shield can 50.
  • the light receiving unit may include a substrate 10, a sensor 60, a filter 80, a holder 30, a lens 70, a barrel 71, and a shield can 50.
  • the substrate 10 may include a printed circuit board (PCB).
  • the board 10 may be connected to the connector through the FPCB 91.
  • the substrate 10 and the FPCB 91 may be formed of RFPCB (Rigid Flexible PCB).
  • a light source 20 and a sensor 60 may be disposed on the substrate 10.
  • the substrate 10 may be placed under the holder 30.
  • the substrate 10 may include terminals.
  • the terminal of the substrate 10 may be coupled to the coupling portion of the shield can 50.
  • Terminals of the board 10 may include a plurality of terminals.
  • the terminal of the board 10 may include two terminals.
  • the light source 20 may be disposed on the substrate 10 .
  • the light source 20 may be disposed in contact with the substrate 10 .
  • the light source 20 may be disposed on the substrate 10 .
  • the light source 20 may be disposed on the substrate 10 .
  • the light source 20 may correspond to the light source 110 described above.
  • Holder 30 may be placed on substrate 10 .
  • the holder 30 may be placed in contact with the substrate 10 .
  • the holder 30 may be placed on the substrate 10 .
  • the holder 30 may be placed on the substrate 10 .
  • the holder 30 may be fixed to the substrate 10 with an adhesive.
  • the holder 30 can accommodate a light source 20, a diffuser module 40, a sensor 60, and a filter 80 therein.
  • the holder 30 may be an injection-molded plastic product.
  • the holder 30 may be formed by injection molding.
  • the diffuser module 40 may include a diffusion member 41 and a diffuser ring 42.
  • the diffuser module 40 may be formed integrally as in the modified example, but in this embodiment, it may be manufactured separately into the diffusion member 41 and the diffuser ring 42 to increase moldability during injection molding.
  • the diffusion member 41 and the diffuser ring 42 may be separated from each other.
  • the diffusion member 41 may be a diffuser lens.
  • the diffusion member 41 may correspond to the diffusion member 120 and the diffusion member 400 described above.
  • the diffusion member 41 may be disposed within the holder 30.
  • the diffusion member 41 may be coupled to the holder 30.
  • the diffusion member 41 may be fixed to the holder 30.
  • the diffusion member 41 may be disposed on the optical path of light emitted from the light source 20.
  • the diffusion member 41 may be disposed on the light source 20.
  • the diffusion member 41 may be disposed on the light source 20.
  • the diffusion member 41 may be an injection-molded plastic product.
  • the diffusion member 41 may be formed by plastic injection.
  • the height of the top of the diffusion member 41 may correspond to the height of the top of the lens 70.
  • the diffusion member 41 may be inserted upward in the vertical direction and coupled to the holder 30. At this time, the upward direction may be from the lower part of the holder 30 to the upper part of the holder 30. A portion of the diffusion member 41 may overlap the holder 30 in
  • Diffuser ring 42 may be placed within holder 30.
  • the diffuser ring 42 may be fixed to the holder 30.
  • the diffuser ring 42 may be coupled to the holder 30.
  • the diffuser ring 42 may be disposed below the diffusion member 41.
  • the diffuser ring 42 may support the diffusion member 41.
  • the diffuser ring 42 may be in contact with the diffusion member 41.
  • the diffuser ring 42 may be an injection molded plastic product.
  • the diffuser ring 42 may be formed by plastic injection.
  • the shield can 50 may cover the body of the holder 30.
  • the shield can 50 may include a cover.
  • the shield can 50 may include a cover can.
  • the shield can 50 may be non-magnetic.
  • the shield can 50 may be made of a metal material.
  • the shield can 50 may be formed of a metal plate.
  • the shield can 50 may be electrically connected to the substrate 10 .
  • the shield can 50 may be connected to the substrate 10 through a solder ball. Through this, the shield can 50 can be grounded.
  • the shield can 50 can block electromagnetic interference (EMI).
  • the shield can 500 may be referred to as an 'EMI shield can'.
  • electromagnetic interference noise may increase, and the shield can 50 can block the electromagnetic interference noise.
  • Sensor 60 may be disposed on substrate 10 .
  • the sensor 60 may be placed on the substrate 10 on the other side of the partition wall of the holder 30 . That is, the sensor 60 may be placed on the opposite side of the light source 20 based on the partition wall of the holder 30.
  • the sensor 60 can detect infrared rays.
  • the sensor 60 can detect light of a specific wavelength among infrared rays.
  • the sensor 60 can detect light that has passed through the filter 80.
  • the sensor 60 can detect light in the wavelength band of the light source 20. Through this, the sensor 60 can detect the light emitted from the light source 20 and reflected on the subject to sense 3D image information of the subject.
  • the effective sensing area of the sensor 60 is disposed to correspond to the diffusion member 41, but the sensor 60 may be disposed generally biased toward the partition.
  • a circuit pattern of the sensor 60 may be placed in a portion of the sensor 60 that is biased toward the partition.
  • Lens 70 may be fixed within barrel 71.
  • the lens 70 may be an injection molded plastic product.
  • the lens 70 may be formed by plastic injection.
  • Lens 70 may include a plurality of lenses.
  • Filter 80 may be disposed between lens 70 and sensor 60.
  • the filter 80 may be a band pass filter that passes light of a specific wavelength.
  • the filter 80 can pass infrared rays.
  • the filter 80 can pass light of a specific wavelength among infrared rays.
  • the filter 80 can pass light in the wavelength band of the light emitted by the light source 20.
  • the filter 80 can block visible light.
  • Filter 80 may be coupled to holder 30.
  • a groove of a size corresponding to that of the filter 80 is formed in the holder 30, and the filter 80 can be inserted into the groove and fixed with adhesive.
  • An adhesive injection groove for injecting adhesive between the filter 80 and the holder 30 may be formed in the groove of the holder 30.
  • the filter 80 may be placed at a lower position than the diffuser ring 42.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

본 발명의 실시예에 따른 광 출력 장치는 광축 방향에 수직하는 제1 방향을 따라 순차적으로 배치되는 복수의 광원 어레이, 상기 복수의 광원 어레이 상에 배치된 콜리메이션 렌즈, 그리고 상기 콜리메이션 렌즈 상에 배치된 확산부재를 포함하고, 각 광원 어레이는 상기 광축 방향 및 상기 제1 방향에 수직하는 제2 방향을 따라 순차적으로 배치된 복수의 채널을 포함하고, 상기 복수의 광원 어레이 각각은 독립적으로 구동되도록 설정되고, 상기 복수의 채널 각각은 독립적으로 구동되도록 설정된다.

Description

광 출력 장치 및 이를 포함하는 3차원 센싱 장치
본 발명은 광 출력 장치 및 이를 포함하는 3차원 센싱 장치에 관한 것이다.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다.
3차원 정보를 획득하는 카메라 장치의 한 예인 라이다(LiDAR, Light Detection and Ranging) 장치는 라이다 장치로부터 발사된 후 대상 물체에서 반사되어 되돌아 온 레이저 펄스를 이용하여 대상 물체의 거리를 측정하거나, 대상 물체를 형상화한다. 라이다 장치는 3 차원 정보가 필요한 다양한 기술분야에 적용된다. 예를 들어, 라이다 장치는 기상, 항공, 우주, 차량 등의 다양한 기술분야에 적용될 수 있다. 최근, 자율주행 분야에서 라이다 장치가 차지하는 비중이 급격히 커지고 있다.
일반적으로, 라이다 장치의 발광부는 출력광 신호를 생성하여 객체에 조사하고, 수광부는 객체로부터 반사된 입력광 신호를 수신하며, 정보 생성부는 수광부가 수신한 입력광 신호를 이용하여 객체의 정보를 생성한다.
라이다 장치의 발광부는 스캐너를 포함하며, 스캐너는 미리 설정된 FOV(field of view)의 영역을 스캔할 수 있다. 다만, 라이다 장치의 발광부가 스캐너를 포함하면, 라이다 장치의 사이즈가 커질 뿐만 아니라, 라이다 장치의 신뢰성이 낮아질 수 있다.
한편, 라이다 장치가 닷패턴 기반의 구조광 모듈인 경우, 출력되는 점(dot)의 개수가 많아질수록 깊이 정보의 해상도가 높아진다. 출력되는 점의 개수를 증가시키기 위하여, 회절 광학 소자의 복제 개수를 증가시킬 수 있다. 다만, 회절 광학 소자의 복제 개수를 증가시킬수록 점 당 밝기는 줄어들게 되며, 이를 보상하기 위하여 광원의 출력을 올릴 필요가 있다. 다만, 전력 소모량 및 사용자 눈에 대한 안전성의 문제로 인하여, 광원의 출력을 올리는 데에는 한계가 있다.
본 발명이 이루고자 하는 기술적 과제는 소형의 신뢰성 높은 광 출력 장치 및 3차원 센싱 장치를 제공하는 것이다.
본 발명이 이루고자 하는 기술적 과제는 화각 및 센싱 거리를 적응적으로 조절할 수 있는 광 출력 장치 및 3차원 센싱 장치를 제공하는 것이다.
본 발명이 이루고자 하는 기술적 과제는 사용자 눈에 안전하면서도 높은 깊이 정보 해상도를 가지는 3차원 센싱 장치를 제공하는 것이다.
본 발명의 한 실시예에 따른 광 출력 장치는 광축 방향에 수직하는 제1 방향을 따라 순차적으로 배치되는 복수의 광원 어레이, 상기 복수의 광원 어레이 상에 배치된 콜리메이션 렌즈, 그리고 상기 콜리메이션 렌즈 상에 배치된 확산부재를 포함하고, 각 광원 어레이는 상기 광축 방향 및 상기 제1 방향에 수직하는 제2 방향을 따라 순차적으로 배치된 복수의 채널을 포함하고, 상기 복수의 광원 어레이 각각은 독립적으로 구동되도록 설정되고, 상기 복수의 채널 각각은 독립적으로 구동되도록 설정된다.
상기 복수의 광원 어레이는 제1 광원 어레이 및 제2 광원 어레이를 포함하고, 상기 제1 광원 어레이 및 상기 제2 광원 어레이 각각은 순차적으로 배치된 제1 내지 제n 채널을 포함하며, 상기 제1 광원 어레이의 제1 내지 제n 채널 각각은 상기 제2 광원 어레이의 제1 내지 제n 채널 각각과 직렬 연결될 수 있다.
상기 제1 광원 어레이의 제1 내지 제n 채널 중 적어도 일부는 서로 병렬 연결될 수 있다.
상기 콜리메이션 렌즈의 유효 영역의 면적은 상기 복수의 광원 어레이의 면적보다 클 수 있다.
상기 확산부재는 상기 복수의 광원 어레이를 향하도록 배치된 제1면 및 상기 제1면의 반대면인 제2면을 포함하고, 상기 제1면에는 복수의 볼록 패턴이 배치되며, 상기 복수의 볼록 패턴 각각은 상기 제2 방향과 평행한 방향으로 장축을 가질 수 있다.
상기 복수의 광원 어레이는 하나의 칩 상에 구현될 수 있다.
본 발명의 다른 실시예에 따른 3차원 센싱 장치는 출력광 신호를 생성하여 대상 영역에 조사하는 발광부, 상기 대상 영역로부터 반사된 후 입력된 입력광 신호를 수신하는 수광부, 상기 수광부에 입력된 입력광 신호를 이용하여 상기 대상 영역에 관한 정보를 생성하는 정보 생성부, 그리고 상기 발광부, 상기 수광부 및 상기 정보 생성부를 제어하는 제어부를 포함하고, 상기 발광부는, 광축 방향에 수직하는 제1 방향을 따라 순차적으로 배치되는 복수의 광원 어레이, 상기 복수의 광원 어레이 상에 배치된 콜리메이션 렌즈, 그리고 상기 콜리메이션 렌즈 상에 배치된 확산부재를 포함하고, 각 광원 어레이는 상기 광축 방향 및 상기 제1 방향에 수직하는 제2 방향을 따라 순차적으로 배치된 복수의 채널을 포함하고, 상기 복수의 광원 어레이 각각은 독립적으로 구동되도록 설정되고, 상기 복수의 채널 각각은 독립적으로 구동되도록 설정된다.
상기 제어부는 상기 복수의 광원 어레이 중 구동되는 광원 어레이의 개수 및 상기 복수의 채널 중 구동되는 채널의 개수 중 적어도 하나를 제어할 수 있다.
상기 제어부는 상기 대상 영역의 측정 거리에 따라 상기 복수의 광원 어레이 중 구동되는 광원 어레이의 개수를 제어할 수 있다.
상기 제어부는 상기 제2 방향의 요구되는 화각에 따라 상기 복수의 채널 중 구동되는 채널의 개수를 제어할 수 있다.
상기 확산부재는 상기 복수의 광원 어레이를 향하도록 배치된 제1면 및 상기 제1면의 반대면인 제2면을 포함하고, 상기 제1면에는 복수의 볼록 패턴이 배치되며, 상기 복수의 볼록 패턴 각각은 상기 제2 방향과 평행한 방향으로 장축을 가질 수 있다.
상기 제1 방향의 화각은 상기 확산부재의 복수의 볼록 패턴의 형상에 따라 달라질 수 있다.
본 발명의 또 다른 실시예에 따른 3차원 센싱 장치는 출력광 신호를 생성하여 대상 영역에 조사하는 발광부, 상기 대상 영역로부터 반사된 후 입력된 입력광 신호를 수신하는 수광부, 상기 수광부에 입력된 입력광 신호를 이용하여 상기 대상 영역에 관한 정보를 생성하는 정보 생성부, 그리고 상기 발광부, 상기 수광부 및 상기 정보 생성부를 제어하는 제어부를 포함하고, 상기 발광부는, 매트릭스 형상으로 배치되며, 제1 방향으로 인가되는 복수의 제1 신호 라인 및 상기 제1 방향에 수직하는 제2 방향으로 인가되는 복수의 제2 신호 라인에 의하여 구동되는 복수의 광원 어레이, 상기 복수의 광원 어레이 상에 배치된 렌즈군, 그리고 상기 렌즈군 상에 배치된 광학 부재를 포함하며, 상기 제어부는 상기 복수의 제1 신호 라인의 일부 및 상기 복수의 제2 신호 라인의 일부를 이용하여 상기 복수의 광원 어레이 내 서로 다른 광원 어레이를 순차적으로 구동시키며, 상기 정보 생성부는 순차적으로 구동된 서로 다른 광원 어레이에 대한 입력광 신호를 합성하여 상기 대상 영역에 관한 정보를 생성한다.
상기 광학 부재는 회절 광학 소자(diffractive optical element, DOE)를 포함하고, 상기 출력광 신호는 상기 회절 광학 소자에 의해 복제된 닷패턴이고, 순차적으로 구동되는 서로 다른 광원 어레이에 의한 출력광 신호는 상기 대상 영역에서 서로 중첩되지 않도록 조사될 수 있다.
상기 제어부는 상기 대상 영역의 거리에 따라 순차적으로 구동되는 서로 다른 광원 어레이의 개수를 제어할 수 있다.
상기 렌즈군은 콜리메이션 렌즈를 포함하며, 상기 콜리메이션 렌즈의 유효 영역의 면적은 상기 복수의 광원 어레이의 면적보다 클 수 있다.
상기 광학 부재는 상기 복수의 광원 어레이의 제1 영역에 배치된 회절 광학 소자(diffractive optical element, DOE) 및 상기 복수 의 광원 어레이의 제2 영역에 배치된 확산 부재를 포함할 수 있다.
상기 제어부는 상기 제1 영역 내의 광원 어레이 및 상기 제2 영역 내의 광원 어레이가 순차적으로 구동되도록 제어할 수 있다.
상기 제2 영역 내의 광원 어레이로부터 출력된 출력광 신호는 상기 확산 부재에 의해 확산된 면패턴일 수 있다.
상기 정보 생성부는 상기 제1 영역 내의 광원 어레이 및 상기 제2 영역 내의 광원 어레이에 대한 입력광 신호를 합성하여 상기 대상 영역에 관한 정보를 생성할 수 있다.
본 발명의 실시예에 따르면, 소형의 신뢰성 높은 광 출력 장치 및 3차원 센싱 장치를 얻을 수 있다. 본 발명의 실시예에 따르면, 화각 및 센싱 거리를 적응적으로 조절할 수 있는 광 출력 장치 및 3차원 센싱 장치를 얻을 수 있다. 본 발명의 실시예에 따르면, MEMS(micro-electro mechanical systems), 미러(mirror) 등을 포함하는 스캐너 없이도 화각 조절이 가능하며, 반응 속도가 빠르고 전력 효율이 우수한 광 출력 장치 및 3차원 센싱 장치를 얻을 수 있다.
본 발명의 실시예에 따르면, 사용자 눈에 안전하면서도 높은 깊이 정보 해상도를 가지는 3차원 센싱 장치를 얻을 수 있다.
도 1은 본 발명의 한 실시예에 따른 3차원 센싱 장치의 블록도이다.
도 2는 본 발명의 한 실시예에 따른 3차원 센싱 장치의 개념적인 단면도이다.
도 3은 본 발명의 한 실시예에 포함되는 복수의 광원 어레이 및 이미지 센서 간 대응 관계를 설명하는 도면이다.
도 4a 내지 도 4c는 본 발명의 한 실시예에 따른 발광부에 포함되는 확산부재의 사시도이다.
도 5는 본 발명의 실시예에 따른 복수의 광원 어레이 및 렌즈군의 면적을 비교한 예이다.
도 6a는 제1 내지 제56 채널 중 제26 내지 제31 채널을 구동시켰을 때 제2 방향 화각을 시뮬레이션한 결과이며, 도 6b는 제1 내지 제56 채널을 모두 구동시켰을 때 제2 방향 화각을 시뮬레이션한 결과이다.
도 7은 본 발명의 실시예에 따른 복수의 광원 어레이 중 구동되는 광원 어레이의 개수에 따른 출력을 시뮬레이션한 결과이다.
도 8은 본 발명의 다른 실시예에 포함되는 광원의 개념도이다.
도 9는 본 발명의 다른 실시예에 따른 광원의 배치도이다.
도 10a 내지 도 10g는 도 9의 광원으로부터 출력되는 닷패턴의 예이다.
도 11은 닷패턴을 이용하여 깊이 정보를 생성하는 원리를 설명하는 도면이다.
도 12는 도 9의 광원을 포함하는 발광부의 단면도이다.
도 13은 도 12의 발광부를 포함하는 3차원 센싱 장치의 적용 예이다.
도 14는 본 발명의 또 다른 실시예에 따른 광원의 배치도이다.
도 15a 내지 도 15d는 도 14의 광원으로부터 출력되는 면패턴의 예이다.
도 16은 도 14의 광원을 포함하는 발광부의 단면도이다.
도 17은 도 16의 발광부에 포함되는 확산 부재의 한 예이다.
도 18은 도 16의 발광부를 포함하는 3차원 센싱 장치의 적용 예이다.
도 19는 본 발명의 실시예에 따른 라이다 장치의 분해도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
본 발명의 실시예에 따른 3차원 센싱 장치는 자동차에 실장되어, 자동차와 물체 간의 거리를 측정하는 라이다 장치를 의미할 수 있으나, 이로 제한되는 것은 아니다. 본 발명의 실시예에 따른 3차원 센싱 장치는 ToF(Time of Flight) 원리, FMCW(Frequency Modulation Continuous Wave) 원리 또는 구조광 원리를 이용하여 깊이 정보를 추출할 수 있다. 본 명세서에서, 3차원 센싱 장치는 라이다 장치, 정보 생성 장치, 깊이 정보 생성 장치 또는 카메라 장치라 지칭될 수도 있다.
도 1은 본 발명의 한 실시예에 따른 3차원 센싱 장치의 블록도이고, 도 2는 본 발명의 한 실시예에 따른 3차원 센싱 장치의 개념적인 단면도이며, 도 3은 본 발명의 한 실시예에 포함되는 복수의 광원 어레이 및 이미지 센서 간 대응 관계를 설명하는 도면이고, 도 4a 내지 도 4c는 본 발명의 한 실시예에 따른 발광부에 포함되는 확산부재의 사시도이다.
도 1 내지 도 2를 참조하면, 본 발명의 실시예에 따른 정보 생성 장치(1000)는 발광부(100), 수광부(200), 깊이 정보 생성부(300) 및 제어부(400)를 포함한다.
발광부(100)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 출력광 신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다. 출력광 신호를 펄스파나 지속파 형태로 생성함으로써, 정보 생성 장치(1000)는 발광부(100)로부터 출력된 출력광 신호와 객체로부터 반사된 후 수광부(200)로 입력된 입력광 신호 사이의 시간 차 또는 위상 차를 검출할 수 있다. 본 명세서에서, 출력광은 발광부(100)로부터 출력되어 객체에 입사되는 광을 의미하고, 입력광은 발광부(100)로부터 출력되어 객체에 도달한 후 객체로부터 반사되어 수광부(200)로 입력되는 광을 의미할 수 있다. 본 명세서에서, 출력광의 패턴은 발광 패턴이라 지칭되고, 입력광의 패턴은 입사 패턴이라 지칭될 수 있다. 객체의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수도 있다.
발광부(100)는 광원(110), 광원(110) 상에 배치된 렌즈군(120) 및 렌즈군(120) 상에 배치된 광학부재(130)를 포함할 수 있다. 광원(110)은 빛을 생성하고, 출력한다. 광원(110)이 생성하는 빛은 파장이 770 내지 3000nm인 적외선 일 수 있다. 또는 광원(110)이 생성하는 빛은 파장이 380 내지 770 nm인 가시광선 일 수 있다. 광원(110)은 발광 다이오드(Light Emitting Diode, LED)를 이용할 수 있으며, 복수의 발광 다이오드가 일정한 패턴에 따라 배열된 형태를 가질 수 있다. 뿐만 아니라, 광원(110)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수도 있다. 또는, 광원(110)은 VCSEL(Vertical Cavity Surface Emitting Laser)일 수도 있다. VCSEL은 전기 신호를 광 신호로 바꾸어 주는 레이저 다이오드 중 하나이며, 약 800 내지 1000nm인 파장, 예를 들어 약 850nm 또는 약 940nm 파장을 출력할 수 있다. 광원(110)은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 출력광 신호를 생성한다. 일정 시간 간격은 출력광 신호의 주파수일 수 있다.
렌즈군(120)은 광원(110)으로부터 출력된 빛을 집광하고, 집광된 빛을 외부로 출력할 수 있다. 렌즈군(120)은 광원(110)의 상부에서 광원(110)과 이격되어 배치될 수 있다. 여기서, 광원(110)의 상부란 광원(110)으로부터 빛이 출력되는 측을 의미할 수 있다. 렌즈군(120)은 적어도 1매의 렌즈를 포함할 수 있다. 렌즈군(120)이 복수 매의 렌즈를 포함하는 경우, 각 렌즈들은 중심축을 기준으로 정렬하여 광학계를 형성할 수 있다. 여기서, 중심축은 광학계의 광축(Optical axis)과 동일할 수 있다. 본 발명의 실시예에 따르면, 렌즈군(120)은 콜리메이션 렌즈를 포함할 수 있다.
광학부재(130)는 광원(110) 및 렌즈군(120)으로부터 출력된 빛을 수신한 후 수신한 빛을 굴절 또는 회절시켜 출력할 수 있다. 이에 따라, 광학 부재(130)는 확산 부재라 지칭될 수 있다.
수광부(200)는 객체로부터 반사된 광신호를 수신할 수 있다. 이때, 수신되는 광신호는 발광부(100)가 출력한 광신호가 객체로부터 반사된 것일 수 있다.
수광부(200)는 이미지 센서(210), 이미지 센서(210) 상에 배치되는 필터(220) 및 필터(220) 상에 배치되는 렌즈군(230)을 포함할 수 있다. 객체로부터 반사된 광신호는 렌즈군(230)을 통과할 수 있다. 렌즈군(230)의 광축은 이미지 센서(210)의 광축과 얼라인(align)될 수 있다. 필터(220)는 렌즈군(230)과 이미지 센서(210) 사이에 배치될 수 있다. 필터(220)는 객체와 이미지 센서(210) 사이의 광경로 상에 배치될 수 있다. 필터(220)는 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 필터(220)는 빛의 특정 파장 대역을 투과시킬 수 있다. 필터(220)는 특정 파장의 빛을 통과시킬 수 있다. 예를 들어, 필터(220)는 적외선 대역의 빛을 통과시키고 적외선 대역 이외의 빛을 차단시킬 수 있다. 이미지 센서(210)는 빛을 센싱할 수 있다. 이미지 센서(210)는 광신호를 수신할 수 있다. 이미지 센서(210)는 광신호를 감지하여 전기적 신호로 출력할 수 있다. 이미지 센서(210)는 광원(110)이 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예를 들어, 이미지 센서(210)는 적외선 대역의 빛을 감지할 수 있다.
이미지 센서(210)는 복수의 픽셀이 그리드 형태로 배열된 구조로 구성될 수 있다. 이미지 센서(210)는 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서일 수 있으며, CCD(Charge Coupled Device) 이미지 센서일 수도 있다. 또한, 이미지 센서(210)는 객체로부터 반사된 IR 광을 받아들여 시간 차 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다.
수광부(200)와 발광부(100)는 나란히 배치될 수 있다. 수광부(200)는 발광부(100) 옆에 배치될 수 있다. 수광부(200)는 발광부(100)와 같은 방향으로 배치될 수 있다.
정보 생성부(300)는 수광부(200)에 입력된 입력광 신호를 이용하여 객체의 깊이 정보를 생성할 수 있다. 예를 들어, 정보 생성부(300)는 발광부(100)로부터 출력된 출력광 신호가 객체로부터 반사된 후 수광부(200)에 입력되기까지 걸리는 비행시간을 이용하여 객체의 깊이 정보를 계산할 수 있다. 예를 들어, 정보 생성부(300)는 이미지 센서(210)가 수신한 전기신호를 이용하여 출력광 신호와 입력광 신호 사이의 시간차를 계산하고, 계산된 시간차를 이용하여 객체와 3차원 센싱 장치(1000) 사이의 거리를 계산할 수 있다. 예를 들어, 정보 생성부(300)는 센서로부터 수신한 전기신호를 이용하여 출력광 신호와 입력광 신호 사이의 위상차를 계산하고, 계산된 위상차를 이용하여 객체와 3차원 센싱 장치(1000) 사이의 거리를 계산할 수 있다.
제어부(400)는 발광부(100), 수광부(200) 및 정보 생성부(300)의 구동을 제어한다. 정보 생성부(300) 및 제어부(400)는 PCB(printed circuit board)의 형태로 구현될 수 있다. 또한, 정보 생성부(300) 및 제어부(400)는 다른 구성의 형태로 구현될 수도 있다. 또는, 제어부(400)는 본 발명의 실시예에 따른 3차원 센싱 장치(1000)가 배치된 단말 또는 차량에 포함될 수도 있다. 예를 들어, 제어부(400)는 본 발명의 실시예에 따른 3차원 센싱 장치(1000)가 탑재된 스마트폰의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현되거나, 본 발명의 실시예에 따른 3차원 센싱 장치(1000)가 탑재된 차량의 ECU(electronic control unit)의 형태로 구현될 수 있다.
본 발명의 실시예에 따른 3차원 센싱 장치(1000)는 고정형(solid state) 라이다일 수 있다. 고정형 라이다는 360° 회전하는 기계식 라이다와 달리, 라이다 장치((1000)를 회전시키는 기계식 부품을 포함하지 않으므로, 가격이 저렴하며, 소형으로 구현 가능한 장점이 있다. 본 발명의 실시예에 따른 3차원 센싱 장치(1000)는 고정형 플래시(flash) 라이다일 수 있다. 고정형 플래시 라이다는 광학 플래시를 사용하며, 한 개의 대면적 레이저 펄스가 전방 환경에 빛을 비출 수 있다. 다만, 고출력 장거리 센싱을 구현하고자 하는 경우, 스캐너가 요구될 수 있으나, 3차원 센싱 장치(1000)가 스캐너를 포함하는 경우 장치의 사이즈가 증가하며, 신뢰성 및 반응 속도가 낮아질 수 있다.
본 발명의 실시예에 따르면, 어드레서블(addressible) 광원 어레이를 이용하여 화각 및 센싱 거리를 제어하고자 한다.
도 3을 참조하면, 광원(110)은 광축 방향에 수직하는 제1 방향을 따라 순차적으로 배치되는 복수의 광원 어레이(110-1, 110-2, 110-3, 110-4)를 포함한다. 설명의 편의를 위하여, 복수의 광원 어레이는 4개인 것으로 도시되어 있으나, 이로 제한되는 것은 아니며 복수의 광원 어레이는 2개 이상일 수 있다.
본 발명의 실시예에 따르면, 제1 광원 어레이(110-1), 제2 광원 어레이(110-2), 제3 광원 어레이(110-3) 및 제4 광원 어레이(110-4)는 하나의 칩 상에 구현되는 VCSEL일 수 있다.
제1 광원 어레이(110-1), 제2 광원 어레이(110-2), 제3 광원 어레이(110-3) 및 제4 광원 어레이(110-4)는 서로 이격될 수 있다. 이웃하는 두 개의 광원 어레이 간 이격 거리는 10㎛ 내지 100㎛, 바람직하게는 20㎛ 내지 80㎛, 더 바람직하게는 30㎛ 내지 60㎛일 수 있다.
본 발명의 실시예에 따르면, 제1 광원 어레이(110-1), 제2 광원 어레이(110-2), 제3 광원 어레이(110-3) 및 제4 광원 어레이(110-4) 각각은 독립적으로 구동되도록 설정될 수 있다.
본 발명의 실시예에 따르면, 각 광원 어레이(110-1, 110-2, 110-3, 110-4)는 광축 방향 및 제1 방향에 수직하는 제2 방향을 따라 순차적으로 배치되는 복수의 채널(CH1, CH2, ..., CHN)을 포함한다. 각 채널의 양단에는 전기적 연결을 위한 패드(PAD)가 배치될 수 있다. 복수의 채널(CH1, CH2, ..., CHN) 각각은 독립적으로 구동되도록 설정될 수 있다. 여기서, 각 광원 어레이는 56개의 채널을 포함하는 것으로 도시되어 있으나, 이로 제한되는 것은 아니다.
이와 같이, 본 발명의 실시예에 따른 광원(110)은 복수의 광원 어레이를 포함하며, 복수의 광원 어레이 각각은 독립적으로 구동되도록 설정되고, 각 광원 어레이에 포함된 복수의 채널 각각은 독립적으로 구동되도록 설정될 수 있으므로, 어드레서블 광원 어레이 또는 어드레서블 VCSEL 어레이라 지칭될 수 있다.
제1 광원 어레이(110-1)의 제1 채널, 제2 광원 어레이(110-2)의 제1 채널, 제3 광원 어레이(110-3)의 제1 채널 및 제4 광원 어레이(110-4)의 제1 채널의 적어도 일부로부터 출력된 출력광 신호는 대상 영역에서 반사된 후 이미지 센서(210)의 제1 픽셀 라인부에 의해 수신될 수 있다. 제1 광원 어레이(110-1)의 제2 채널, 제2 광원 어레이(110-2)의 제2 채널, 제3 광원 어레이(110-3)의 제2 채널 및 제4 광원 어레이(110-4)의 제2 채널의 적어도 일부로부터 출력된 출력광 신호는 대상 영역에서 반사된 후 이미지 센서(210)의 제2 픽셀 라인부에 의해 수신될 수 있다. 이와 마찬가지로, 제1 광원 어레이(110-1)의 제N-1 채널, 제2 광원 어레이(110-2)의 제N-1 채널, 제3 광원 어레이(110-3)의 제N-1 채널 및 제4 광원 어레이(110-4)의 제N-1 채널의 적어도 일부로부터 출력된 출력광 신호는 대상 영역에서 반사된 후 이미지 센서(210)의 제N-1 픽셀 라인부에 의해 수신될 수 있다. 그리고, 제1 광원 어레이(110-1)의 제N 채널, 제2 광원 어레이(110-2)의 제N 채널, 제3 광원 어레이(110-3)의 제N 채널 및 제4 광원 어레이(110-4)의 제N 채널의 적어도 일부로부터 출력된 출력광 신호는 대상 영역에서 반사된 후 이미지 센서(210)의 제N 픽셀 라인부에 의해 수신될 수 있다. 예를 들어, 각 광원 어레이가 56개의 채널을 포함하고, 이미지 센서(210)가 597*165 픽셀을 포함하는 경우, 각 픽셀 라인부가 3 픽셀 라인을 포함하는 경우, 56개의 채널은 56개의 픽셀 라인부에 1:1로 매칭될 수 있다. 이미지 센서(210)는 제1 픽셀 라인부로부터 제N 픽셀 라인부까지 순차적으로 라인 스캔을 수행할 수 있다.
이때, 제1 광원 어레이(110-1)의 제1 채널, 제2 광원 어레이(110-2)의 제1 채널, 제3 광원 어레이(110-3)의 제1 채널 및 제4 광원 어레이(110-4)의 제1 채널의 적어도 일부는 서로 직렬 연결될 수 있다. 제1 광원 어레이(110-1)의 제2 채널, 제2 광원 어레이(110-2)의 제2 채널, 제3 광원 어레이(110-3)의 제2 채널 및 제4 광원 어레이(110-4)의 제2 채널의 적어도 일부는 서로 직렬 연결될 수 있다. 이와 마찬가지로, 제1 광원 어레이(110-1)의 제N-1 채널, 제2 광원 어레이(110-2)의 제N-1 채널, 제3 광원 어레이(110-3)의 제N-1 채널 및 제4 광원 어레이(110-4)의 제N-1 채널의 적어도 일부는 서로 직렬 연결될 수 있다. 그리고, 제1 광원 어레이(110-1)의 제N 채널, 제2 광원 어레이(110-2)의 제N 채널, 제3 광원 어레이(110-3)의 제N 채널 및 제4 광원 어레이(110-4)의 제N 채널의 적어도 일부는 서로 직렬 연결될 수 있다.
이와 같이, 채널 별 직렬 연결된 복수의 광원 어레이를 동시 구동하면, 고출력 구동이 가능하며, 장거리 센싱이 가능하다. 예를 들어, 각 광원 어레이가 채널 별 150W를 출력하는 경우, 4개의 광원 어레이가 동시 구동되면 채널 별 600W가 출력될 수 있으며, 이에 따라 하나의 광원 어레이를 구동하는 경우에 비하여 장거리 센싱이 가능하다.
본 발명의 실시예에 따르면, 제어부(400)는 복수의 광원 어레이 중 구동되는 광원 어레이의 개수를 제어할 수 있다. 예를 들어, 제어부(400)는 대상 영역의 측정 거리에 따라 복수의 광원 어레이 중 구동되는 광원 어레이의 개수를 제어할 수 있다. 예를 들어, 본 발명의 실시예에 따른 3차원 센싱 장치(1000)가 근거리용 애플리케이션에 적용되는 경우, 중거리용 애플리케이션에 적용되는 경우, 장거리용 애플리케이션에 적용되는 경우에 따라 구동되는 광원 어레이의 개수가 달라질 수 있다. 예를 들어, 장거리를 센싱할수록 구동되는 광원 어레이의 개수가 많아지고, 근거리를 센싱할수록 구동되는 광원 어레이의 개수가 적어지도록 제어될 수 있다. 예를 들어, 3차원 센싱 장치(1000)가 장거리용 애플리케이션에 적용되는 경우 제1 내지 제4 광원 어레이(110-1 내지 110-4)가 모두 구동할 수 있으나, 3차원 센싱 장치(1000)가 단거리용 애플리케이션에 적용되는 경우 제1 광원 어레이(110-1)만이 구동할 수 있다.
한편, 본 발명의 실시예에 따르면, 렌즈군(120)은 복수의 광원 어레이(110) 상에 배치되며, 광학부재(130)로부터 복수의 광원 어레이(110)를 향하는 방향으로 순차적으로 배치된 복수 매의 렌즈를 포함할 수 있다. 예를 들어, 렌즈군(120)은 광학부재(130)로부터 복수의 광원 어레이(110)를 향하는 방향으로 순차적으로 배치된 5매의 렌즈를 포함할 수 있다. 본 명세서에서, 렌즈군(120)은 복수의 광원 어레이(110)으로부터 출력된 광을 집광하여 출력하므로, 콜리메이터라 지칭될 수도 있다.
본 발명의 실시예에 따르면, 렌즈군(120)은 광학부재(130)에 가장 가깝게 배치되며, 양면이 볼록한 형상인 제1 렌즈(121) 및 제1 렌즈(121)에 가장 가깝게 배치되며, 양면이 오목한 형상인 제2 렌즈(122)를 포함할 수 있다. 본 발명의 실시예에 따르면, 렌즈군(120)은 제2 렌즈(122) 및 광원(110) 사이에 배치되는 적어도 1매의 렌즈(123)를 더 포함할 수 있다. 이때, 제1 렌즈(121) 및 제2 렌즈(122) 각각의 직경 또는 유효경은 적어도 1매의 렌즈(123)의 직경 또는 유효경보다 작을 수 있다.
본 발명의 실시예에 따르면, 제1 렌즈(121) 및 제2 렌즈(122)는 복수의 광원 어레이(110)으로부터 출력된 광을 집광하는 역할을 하며, 적어도 1매의 렌즈(123)는 색수차를 보정하는 역할을 한다.
본 발명의 실시예에 따르면, 광학부재(130)는 렌즈군(120) 상에 배치될 수 있다. 여기서, 광학부재(130)는 확산부재 또는 디퓨저라 지칭될 수 있다.
광학부재(130)는 복수의 광원 어레이(110)를 향하도록 배치된 제1면(130A) 및 제1면(130A)의 반대면인 제2면(130B)을 포함한다. 제1면(130A) 및 제2면(130B)의 세부 구조를 상세하게 설명하기 위하여, 도 4a에서는 제1면(130A)이 아래를 향하도록 도시하고, 도 4b에서는 도 4a를 180도 반전시켜 제1면(130)이 위를 향하도록 도시하며, 도 4c에서는 제1면(130A)의 평면도를 도시하고 있다.
본 발명의 실시예에 따르면, 광학부재(130)의 제1면(130A)에는 복수의 볼록 패턴(131)이 배치되며, 광학부재(130)의 제2면(130B)은 평탄면이고, 복수의 볼록 패턴(131) 각각은 제2 방향과 평행한 방향으로 장축을 가지도록 연장될 수 있다. 더욱 구체적으로, 본 발명의 실시예에 따르면, 복수의 볼록 패턴(131) 각각은 제2 방향으로 연장된 반원기둥 형상일 수 있으며, 복수의 볼록 패턴(131)은 제2 방향에 수직하는 제1 방향을 따라 서로 인접하도록 배치될 수 있다.
본 발명의 실시예에 따르면, 복수의 광원 어레이(110)의 제1 방향 화각은 광학부재(130)에 의하여 결정될 수 있다. 본 발명의 실시예에 따르면, 복수의 광원 어레이(110) 중 구동되는 광원 어레이의 개수에 관계없이 동일한 제1 방향 화각을 가질 수 있다. 예를 들어, 본 발명의 실시예에 따른 복수의 광원 어레이(110)의 제1 방향 화각은 120도일 수 있으나, 이로 제한되는 것은 아니다.
본 발명의 실시예에 따르면, 복수의 광원 어레이(110)의 제2 방향 화각은 각 광원 어레이(110)에 포함되는 복수의 채널 중 구동되는 채널의 개수 및 위치 중 적어도 하나에 의하여 결정될 수 있다. 예를 들어, 각 광원 어레이에 포함되는 복수의 채널 전체가 구동되는 경우, 각 광원 어레이에 포함되는 복수의 채널 중 일부 채널이 구동되는 경우에 비하여 넓은 제2 방향 화각을 가질 수 있다.
이를 위하여, 복수의 채널 중 적어도 일부는 서로 병렬 연결될 수 있다. 또한, 콜리메이터의 역할을 하는 렌즈군(120)의 유효 영역의 면적은 복수의 광원 어레이(110)의 면적보다 클 수 있다. 즉, 콜리메이터의 역할을 하는 렌즈군(120)의 유효 영역이 복수의 광원 어레이(110) 전체를 커버하도록 배치될 경우, 복수의 채널 중 구동되는 채널의 개수에 따라 제2 방향 화각이 제어될 수 있다.
도 5는 본 발명의 실시예에 따른 복수의 광원 어레이 및 렌즈군의 면적을 비교한 예이다.
도 5를 참조하면, 각 광원 어레이는 제1 방향으로 1.2mm, 제2 방향으로 7,6mm의 유효 사이즈를 가지며, 6개의 광원 어레이가 50㎛로 이격되어 배치된 예를 도시한다. 이때, 렌즈군(120)이 6개의 광원 어레이를 모두 커버하는 크기로 배치될 경우, 복수의 채널 중 구동되는 채널의 개수에 따라 제2 방향 화각이 제어될 수 있다.
본 발명의 실시예에 따르면, 제어부(400)는 각 광원 어레이에 포함되는 복수의 채널 중 구동되는 채널의 개수 및 위치 중 적어도 하나를 제어할 수 있다. 예를 들어, 대상 영역의 위치, 대상 영역의 제2 방향 길이 등에 따라 복수의 채널 중 구동되는 채널의 개수 및 위치 중 적어도 하나를 제어할 수 있다.
표 1은 구동되는 채널의 개수 별 제2 방향 화각을 시뮬레이션한 결과이고, 도 6a는 제1 내지 제56 채널 중 제26 내지 제31 채널을 구동시켰을 때 제2 방향 화각을 시뮬레이션한 결과이며, 도 6b는 제1 내지 제56 채널을 모두 구동시켰을 때 제2 방향 화각을 시뮬레이션한 결과이다.
채널 개수 제2 방향 화각(FOI(deg))
2 0.6
4 1.9
6 3,2
8 4.4
10 5.6
12 6.9
14 8.2
16 9.5
18 10.7
20 11.9
22 13.2
24 14.5
26 15.8
28 16.9
30 18.2
32 19.5
34 20.8
36 22.0
38 23.2
40 24.5
42 25.8
44 27.0
46 28.3
48 29.5
50 30.8
52 32.0
54 33.3
56 35.0
표 1, 도 6a 내지 도 6b를 참조하면, 제1 방향 화각은 구동되는 채널의 개수에 관계없이 일정하며, 제2 방향 화각이 구동되는 채널의 개수에 따라 달라짐을 알 수 있다.
도 7은 본 발명의 실시예에 따른 복수의 광원 어레이 중 구동되는 광원 어레이의 개수에 따른 출력된 광의 파워를 시뮬레이션한 결과이다.
도 7을 참조하면, 1개의 광원 어레이를 구동한 경우, 2개의 광원 어레이를 구동하는 경우 및 3개의 광원 어레이를 구동한 경우 순차적으로 출력되는 광의 파워가 증가함을 알 수 있다. 이에 따라, 구동되는 광원의 어레이를 증가시킬수록 장거리 센싱이 가능해짐을 알 수 있다.
본 발명의 다른 실시예에 따르면, 어드레서블(addressible) 광원 어레이를 이용하여 깊이 정보의 해상도를 높이고자 한다.
도 8을 참조하면, 광원(110)은 매트릭스 형상으로 배치된 복수의 광원 어레이(110-1A, 110-1B, ..., 110-4D)를 포함한다. 설명의 편의를 위하여, 복수의 광원 어레이는 16개인 것으로 도시되어 있으나, 이로 제한되는 것은 아니며 복수의 광원 어레이는 2개 이상일 수 있다.
본 발명의 실시예에 따르면, 복수의 광원 어레이(110-1A, 110-1B, ..., 110-4D)는 하나의 칩 상에 구현되는 VCSEL일 수 있다. 이에 따라, 각 광원 어레이는 서브 VCSEL이라 지칭될 수 있다.
복수의 광원 어레이(110-1A, 110-1B, ..., 110-4D)는 서로 이격될 수 있다. 이웃하는 두 개의 광원 어레이 간 이격 거리는 10㎛ 내지 100㎛, 바람직하게는 20㎛ 내지 80㎛, 더 바람직하게는 30㎛ 내지 60㎛일 수 있다.
본 발명의 실시예에 따르면, 복수의 광원 어레이(110-1A, ..., 110-4D) 각각은 독립적으로 구동되도록 설정될 수 있다. 복수의 광원 어레이(110-1A, ..., 110-4D) 각각은 제1 방향으로 인가되는 복수의 제1 신호 라인 및 제1 방향에 수직하는 제2 방향으로 인가되는 복수의 제2 신호 라인에 의하여 구동된다. 예를 들어, 복수의 광원 어레이(110-1A, 쪋, 110-4D)에는 제A 내지 제D열(row)의 음의 신호 라인 및 제1 내지 제4 행(column)의 양의 신호 라인이 교차하도록 배치되며, 제A 내지 제D열(row)의 음의 신호 라인 및 제1 내지 제4 행(column)의 양의 신호 라인에 인가되는 전기적 신호에 따라 복수의 광원 어레이(110-1A, ..., 110-4D) 각각이 독립적으로 구동될 수 있다.
예를 들어, 제1행의 양의 신호 라인 및 제A열의 음의 신호 라인에 전기적 신호가 인가되면, 광원 어레이(110-1A)가 구동되고, 제4행의 양의 신호 라인 및 제D열의 음의 신호 라인에 전기적 신호가 인가되면 광원 어레이(110-4D)가 구동될 수 있다.
이와 같이, 복수의 광원 어레이 각각이 독립적으로 구동되도록 설정되므로, 본 발명의 실시예에 따른 광원(110)은 어드레서블 광원 어레이 또는 어드레서블 VCSEL 어레이라 지칭될 수 있다.
본 발명의 실시예에 따르면, 제어부(400)는 복수의 제1 신호 라인의 일부 및 복수의 제2 신호 라인의 일부의 조합에 따라 복수의 광원 어레이(110-1A, ..., 110-4D) 내 서로 다른 광원 어레이를 순차적으로 구동시킨다. 예를 들어, 제어부(400)는 광원 어레이(110-1A, 110-1B, ..., 110-4C, 110-4D)의 순으로 순차 구동시킬 수 있다. 또는, 제어부(400)는 복수의 광원 어레이(110-1A, ..., 110-4D) 중 일부를 순차 구동시킬 수도 있다.
그리고, 정보 생성부(300)는 순차적으로 구동된 서로 다른 광원 어레이에 대한 입력광 신호를 합성하여 대상 영역에 관한 깊이 정보를 생성한다. 예를 들어, 광원 어레이(110-1A, 110-2B, 110-3C, 110-4D)가 순차적으로 구동되는 경우, 정보 생성부(300)는 광원 어레이(110-1A)에 대한 입력광 신호, 광원 어레이(110-2B)에 대한 입력광 신호, 광원 어레이(110-3C)에 대한 입력광 신호 및 광원 어레이(110-4D)에 대한 입력광 신호를 합성하여 깊이 정보를 생성할 수 있다. 입력광 신호의 합성은 슈퍼 레졸루션(Super Resolution, SR) 알고리즘 등을 이용하여 수행될 수 있다. 이에 따르면, 순간 소비 전력이 과도하게 높아지지 않으므로, 전력 소모량을 줄일 수 있을 뿐만 아니라, 사용자 눈에 해를 끼치지 않으면서도, 높은 깊이 정보 해상도를 얻을 수 있다.
여기서, 본 발명의 실시예에 따르면, 발광부(100)는 닷패턴을 출력하는 구조광 모듈일 수 있다.
도 9는 본 발명의 다른 실시예에 따른 광원의 배치도이고, 도 10a 내지 도 10g는 도 9의 광원으로부터 출력되는 닷패턴의 예이며, 도 11은 닷패턴을 이용하여 깊이 정보를 생성하는 원리를 설명하는 도면이며, 도 12는 도 9의 광원을 포함하는 발광부의 단면도이다. 도 1 내지 도 8을 참조하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다.
도 9를 참조하면, 광원(110)은 매트릭스 형상으로 배치된 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)를 포함한다.
도 10b는 제1 광원 어레이(110-11)의 구동 시 출력되는 닷패턴의 예이고, 도 10c는 제2 광원 어레이(110-21)의 구동 시 출력되는 닷패턴의 예이며, 도 10d는 제3 광원 어레이(110-12)의 구동 시 출력되는 닷패턴의 예이고, 도 10e는 제4 광원 어레이(110-22)의 구동 시 출력되는 닷패턴의 예이다. 이와 같이, 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)로부터 각각 출력되는 닷패턴은 대상 영역에서 서로 중첩되지 않을 수 있다.
도 11을 참조하면, 3차원 센싱 장치(1000)와 대상 영역 내 객체 간 거리(object distance, h')는 닷패턴을 이루는 점의 디스패리티(disparity, Δx)에 따라 달라질 수 있다. 이에 따라, 디스패리티의 정확도는 깊이 정보의 정확도에 영향을 미칠 수 있다. 더욱 구체적으로, 닷패턴을 이용한 깊이 정보의 추출은 다음의 수학식에 따를 수 있다.
Figure PCTKR2023015400-appb-img-000001
Figure PCTKR2023015400-appb-img-000002
Figure PCTKR2023015400-appb-img-000003
여기서, h는 기준 거리(reference distance)이고, h'는 대상 영역 내 객체 거리이며, b는 베이스라인(baseline)의 길이이고, Δx는 디스패리티이다.
수학식 1 내지 3을 참조하면, 베이스라인의 길이(b)는 디스패리티에 영향을 미치며, 객체 거리(h')의 단위 길이당 디스패리티는 FOV(field of view)가 작을수록, 그리고 베이스라인이 클수록 커지는 것을 알 수 있다. 객체의 사이즈가 베이스라인의 절반보다 작은 경우, 소정 패턴 내의 점은 디스패리티에 의하여 인접 점을 추월할 수 있으며, 대상 영역 내 객체 거리가 멀어질수록 디스패리티가 줄어들 수 있다. 이에 따라, 정확한 깊이 정보 계산을 위하여, 점의 센터를 기준으로 디스패리티를 추출할 필요가 있으며, 대상 영역 내 객체에 조사되는 점들이 서로 중첩되지 않는 것이 중요하다.
도 10a는 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)가 동시에 구동될 때 출력되는 닷패턴의 예이고, 도 10f는 제1 광원 어레이(110-11) 및 제4 광원 어레이(110-22)가 동시에 구동될 때 출력되는 닷패턴의 예이며, 도 10g는 제1 광원 어레이(110-11), 제2 광원 어레이(110-21) 및 제3 광원 어레이(110-12)가 동시에 구동될 때 출력되는 닷패턴의 예이다.
도 10a 내지 도 10g로부터 알 수 있는 바와 같이, 구동되는 광원 어레이의 개수가 많을수록 대상 영역 내에 조사되는 점의 개수는 많아진다. 대상 영역 내에 조사되는 점의 개수가 많아질수록 깊이 정보의 양이 늘어날 수 있으므로, 깊이 정보의 해상도는 높아질 수 있으나, 객체에 조사되는 점들이 서로 중첩될 가능성이 높아지므로, 오히려 정확한 디스패리티를 추출하기 어려워질 수 있다.
본 발명의 실시예에서는, 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)를 순차적으로 구동하고, 각 광원 어레이로부터의 입력광 신호를 합성할 수 있다. 이에 따르면, 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)를 동시에 구동하는 정도의 깊이 정보 해상도를 가지면서도, 객체에 조사되는 점들이 서로 중첩되지 않도록 하여 정확한 디스패리티 추출이 가능하며, 전력 소모량을 줄일 수 있을 뿐만 아니라, 사용자 눈에 해를 끼치지 않을 수 있다.
복수의 제1 신호 라인(L1) 및 복수의 제2 신호 라인(L2)에 인가되는 전기적 신호의 조합에 따라 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)가 순차적으로 구동될 수 있다.
한편, 본 발명의 실시예에 따르면, 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22) 상에는 도 2를 참조하여 설명한 바와 같이 렌즈군(120) 및 광학 부재(130)가 배치될 수 있다. 이때, 광학 부재(130)는 도 12에 도시된 바와 같이, 회절 광학 소자(Diffractive Optics Element, DOE)를 포함할 수 있으며, 회절 광학 소자는 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22) 각각으로부터 출력되는 닷패턴을 복제할 수 있다.
이와 같이, 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22) 상에 닷패턴을 복제하는 회절 광학 소자를 배치하면서도, 서로 중첩되지 않는 닷패턴을 출력하는 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12) 및 제4 광원 어레이(110-22)를 순차적으로 구동하면, 대상 영역 내 닷(dot)의 밀도를 최대화할 수 있으므로, 공간 해상도(spatial resolution)을 높일 수 있다.
도 13은 도 12의 발광부를 포함하는 3차원 센싱 장치의 적용 예이다.
도 13a를 참조하면, 3차원 센싱 장치(1000)의 제어부(400)는 대상 영역의 거리에 따라 순차적으로 구동되는 서로 다른 광원 어레이의 개수를 제어할 수 있다. 예를 들어, 3차원 센싱 장치(1000)의 제어부(400)는 대상 영역의 측정 거리 r에 따라 복수의 광원 어레이 중 구동되는 광원 어레이의 개수를 제어할 수 있다. 예를 들어, 본 발명의 실시예에 따른 3차원 센싱 장치(1000)가 근거리용 애플리케이션에 적용되는 경우, 중거리용 애플리케이션에 적용되는 경우, 장거리용 애플리케이션에 적용되는 경우에 따라 구동되는 광원 어레이의 개수가 달라질 수 있다. 3차원 센싱 장치(1000)로부터 대상 영역까지의 거리 r가 증가할수록 이미지 센서(210)에 들어오는 대상 영역의 면적은 커지며, 이미지 센서(210)에 입력되는 광의 세기도 거리의 제곱에 반비례하여 약해진다. 이에 따라, 장거리를 센싱할수록 구동되는 광원 어레이의 개수가 많아지면, 장거리에서도 닷의 밀도 및 광의 세기를 높게 유지할 수 있으므로, 높은 깊이 정보 해상도를 얻을 수 있다.
도 13b 및 도 13c에 도시된 바와 같이, 장거리에 있는 사람을 조사하는 경우, 광원 어레이 #1에 의하여 조사되는 닷 패턴과 광원 어레이 #2에 의하여 조사되는 닷 패턴은 서로 중첩되지 않을 수 있다. 광원 어레이 #1 및 광원 어레이 #2를 순차적으로 구동하고, 광원 어레이 #1에 의한 입력광 신호 및 광원 어레이 #2에 의한 입력광 신호를 합성하면, 장거리 센싱의 깊이 정보 해상도를 더욱 높일 수 있다.
본 발명의 또 다른 실시예에 따르면, 발광부(100)는 닷패턴 및 면패턴을 모두 출력할 수도 있다.
도 14는 본 발명의 또 다른 실시예에 따른 광원의 배치도이고, 도 15a 내지 도 15d는 도 14의 광원으로부터 출력되는 면패턴의 예이다. 도 16은 도 14의 광원을 포함하는 발광부의 단면도이고, 도 17는 도 16의 발광부에 포함되는 확산 부재의 한 예이다. 도 1 내지 도 13을 참조하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다. 닷패턴과 관련하여 도 9 내지 도 13을 참조하여 설명한 내용과 동일한 내용에 대해서는 중복된 설명을 생략한다.
도 14를 참조하면, 광원(110)은 매트릭스 형상으로 배치된 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12), 제4 광원 어레이(110-22), 제5 광원 어레이(110-31), 제6 광원 어레이(110-41), 제7 광원 어레이(110-32) 및 제8 광원 어레이(110-42)를 포함한다. 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12), 제4 광원 어레이(110-22)는 도 9 내지 도 12를 참조하여 설명한 제1 내지 제4 광원 어레이이므로, 이에 관한 중복된 설명을 생략한다.
도 15a는 제5 광원 어레이(110-31), 제6 광원 어레이(110-41), 제7 광원 어레이(110-32) 및 제8 광원 어레이(110-42)가 모두 구동될 때 출력되는 면패턴의 예이고, 도 15b는 제5 광원 어레이(110-31) 및 제7 광원 어레이(110-32)가 동시에 구동되거나, 제6 광원 어레이(110-41) 및 제8 광원 어레이(110-42)가 동시에 구동될 때 출력되는 면패턴의 예이며, 도 15c는 제5 광원 어레이(110-31) 및 제6 광원 어레이(110-41)가 동시에 구동될 때 출력되는 면패턴의 예이고, 도 15d는 제7 광원 어레이(110-32) 및 제8 광원 어레이(110-42)가 동시에 구동될 때 출력되는 면패턴의 예이다. 복수의 제1 신호 라인(L1) 및 복수의 제2 신호 라인(L2)에 인가되는 전기적 신호의 조합에 따라 제5 광원 어레이(110-31), 제6 광원 어레이(110-41), 제7 광원 어레이(110-32) 및 제8 광원 어레이(110-42)의 전부 또는 일부가 구동될 수 있다.
이를 위하여, 도 16에 도시된 바와 같이, 제1 영역인 제1 광원 어레이(110-11), 제2 광원 어레이(110-21), 제3 광원 어레이(110-12), 제4 광원 어레이(110-22) 상에 배치된 광학 부재(130)는 회절 광학 소자(1301)이며, 제2 영역인 제5 광원 어레이(110-31), 제6 광원 어레이(110-41), 제7 광원 어레이(110-32) 및 제8 광원 어레이(110-42)는 확산 부재(1302)일 수 있다.
또한, 렌즈군(120)은 복수의 광원 어레이 상에 배치되며, 확산부재(1302)로부터 복수의 광원 어레이를 향하는 방향으로 순차적으로 배치된 복수 매의 렌즈를 포함할 수 있다. 예를 들어, 렌즈군(120)은 확산부재(1302)로부터 복수의 광원 어레이를 향하는 방향으로 순차적으로 배치된 5매의 렌즈를 포함할 수 있다. 본 명세서에서, 렌즈군(120)은 복수의 광원 어레이로부터 출력된 광을 집광하여 출력하므로, 콜리메이터라 지칭될 수도 있다.
렌즈군(120)은 면패턴을 출력하는 제5 내지 제8 광원 어레이뿐만 아니라, 닷패턴을 출력하는 제1 내지 제4 광원 어레이 상에도 배치되며, 제1 내지 제4 광원 어레이로부터 출력된 광도 집광할 수 있다. 이를 위하여, 렌즈군(120)의 유효 영역의 면적은 제1 내지 제8 광원 어레이의 면적보다 클 수 있다.
도 17을 참조하면, 확산부재(1302)는 제5 내지 제8 광원 어레이(110-31, 110-41, 110-32, 110-42)를 향하도록 배치된 제1면(1302A) 및 제1면(1302A)의 반대면인 제2면(1302B)을 포함한다. 제1면(1302A) 및 제2면(1302B)의 세부 구조를 상세하게 설명하기 위하여, 도 17a에서는 제1면(1302A)이 아래를 향하도록 도시하고, 도 17b에서는 도 17a를 180도 반전시켜 제1면(1302A)이 위를 향하도록 도시하고 있다.
본 발명의 실시예에 따르면, 확산부재(1302)의 제1면(1302A)에는 복수의 볼록 패턴(1312)이 배치되며, 확산부재(1302)의 제2면(1302B)은 평탄면이고, 복수의 볼록 패턴(1312) 각각은 제2 방향과 평행한 방향으로 장축을 가지도록 연장될 수 있다. 더욱 구체적으로, 본 발명의 실시예에 따르면, 복수의 볼록 패턴(1312) 각각은 제2 방향으로 연장된 반원기둥 형상일 수 있으며, 복수의 볼록 패턴(1312)은 제2 방향에 수직하는 제1 방향을 따라 서로 인접하도록 배치될 수 있다.
본 발명의 실시예에 따르면, 제5 내지 제8 광원 어레이(110-31, 110-41, 110-32, 110-42)의 제1 방향 화각은 확산부재(1302)에 의하여 결정될 수 있으며, 확산부재(1302)에 의하여 제1 방향으로 고르게 분포된 면패턴을 얻을 수 있다. 본 발명의 실시예에 따르면, 제5 내지 제8 광원 어레이(110-31, 110-41, 110-32, 110-42) 중 구동되는 광원 어레이의 개수에 관계없이 동일한 제1 방향 화각을 가질 수 있다.
본 발명의 실시예에 따르면, 제5 내지 제8 광원 어레이(110-31, 110-41, 110-32, 110-42)의 제2 방향 화각은 제5 내지 제8 광원 어레이(110-31, 110-41, 110-32, 110-42) 중 구동되는 광원 어레이의 개수 또는 위치에 의하여 결정될 수 있다. 예를 들어, 도 15c 및 도 15d에 도시된 바와 같이, 제5 광원 어레이(110-31) 및 제6 광원 어레이(110-41)만 구동되거나, 제7 광원 어레이(110-32) 및 제8 광원 어레이(110-42)만 구동될 경우, 제5 내지 제8 광원 어레이(110-31, 110-41, 110-32, 110-42)가 모두 구동되는 경우에 비하여 좁은 제2 방향 화각을 가질 수 있다.
도 18은 도 16의 발광부를 포함하는 3차원 센싱 장치의 적용 예이다.
도 18a를 참조하면, 3차원 센싱 장치(1000)의 제어부(400)는 대상 영역의 거리 r에 따라 순차적으로 구동되는 서로 다른 광원 어레이의 개수 및 종류 중 적어도 하나를 제어할 수 있다. 예를 들어, 제어부(400)는 대상 영역의 측정 거리에 따라 복수의 광원 어레이 중 구동되는 광원 어레이의 개수 및 종류 중 적어도 하나를 제어할 수 있다. 예를 들어, 본 발명의 실시예에 따른 3차원 센싱 장치(1000)가 근거리용 애플리케이션에 적용되는 경우, 중거리용 애플리케이션에 적용되는 경우, 장거리용 애플리케이션에 적용되는 경우에 따라 구동되는 광원 어레이의 개수 및 종류 중 적어도 하나가 달라질 수 있다.
도 18b 내지 도 18e에 도시된 바와 같이, 장거리에 있는 사람을 조사하는 경우, 서로 중첩되지 않은 닷 패턴을 조사하는 광원 어레이 #1와 광원 어레이 #2, 서로 다른 영역에 면패턴을 조사하는 광원 어레이 #3과 광원 어레이 #4를 순차적으로 구동하고, 광원 어레이 #1 내지 #4에 의한 입력광 신호를 합성하면, 장거리 센싱의 깊이 정보 해상도를 더욱 높일 수 있다.
도 19는 본 발명의 실시예에 따른 라이다 장치의 분해도이다.
라이다 장치는 발광부와 수광부를 포함할 수 있다. 다만, 기판(10), 홀더(30) 및 쉴드 캔(50) 등의 구성은 일체로 형성되어 발광부와 수광부에 공용으로 사용되므로 발광부와 수광부로 구분하기 어려울 수 있다. 이 경우 위 구성들 각각이 발광부와 수광부 각각의 구성요소로 이해될 수 있다. 다만, 변형례로 기판(10), 홀더(30) 및 쉴드 캔(50) 등의 공용 구성은 발광부와 수광부에 각각 별도로 제공될 수 있다.
발광부는 기판(10), 광원(20), 홀더(30), 확산부재(41), 디퓨져 링(42) 및 쉴드 캔(50)을 포함할 수 있다. 수광부는 기판(10), 센서(60), 필터(80), 홀더(30), 렌즈(70), 배럴(71) 및 쉴드 캔(50)을 포함할 수 있다.
기판(10)은 인쇄회로기판(PCB, Printed Circuit Board)을 포함할 수 있다. 기판(10)은 FPCB(91)를 통해 커넥터와 연결될 수 있다. 기판(10)과 FPCB(91)는 RFPCB(Rigid Flexible PCB)로 형성될 수 있다. 기판(10)에는 광원(20)과 센서(60)가 배치될 수 있다. 기판(10)은 홀더(30) 아래에 배치될 수 있다. 기판(10)은 단자를 포함할 수 있다. 기판(10)의 단자는 쉴드 캔(50)의 결합부와 결합될 수 있다. 기판(10)의 단자는 복수의 단자를 포함할 수 있다. 기판(10)의 단자는 2개의 단자를 포함할 수 있다.
광원(20)은 기판(10) 상에 배치될 수 있다. 광원(20)은 기판(10)에 접촉하여 배치될 수 있다. 광원(20)은 기판(10) 위에 배치될 수 있다. 광원(20)은 기판(10)에 배치될 수 있다. 광원(20)은 앞서 설명한 광원(110)에 대응할 수 있다.
홀더(30)는 기판(10) 상에 배치될 수 있다. 홀더(30)는 기판(10)에 접촉하여 배치될 수 있다. 홀더(30)는 기판(10) 위에 배치될 수 있다. 홀더(30)는 기판(10)에 배치될 수 있다. 홀더(30)는 접착제에 의해 기판(10)에 고정될 수 있다. 홀더(30)는 내부에 광원(20), 디퓨져 모듈(40), 센서(60) 및 필터(80)를 수용할 수 있다. 홀더(30)는 플라스틱 사출물일 수 있다. 홀더(30)는 사출에 의해 형성될 수 있다.
디퓨져 모듈(40)은 확산부재(41)와 디퓨져 링(42)을 포함할 수 있다. 디퓨져 모듈(40)은 변형례와 같이 일체로 형성될 수 있으나, 본 실시예에서는 사출 성형시 성형성을 증가시키기 위해 확산부재(41)와 디퓨져 링(42)으로 분리 제조할 수 있다. 확산부재(41)와 디퓨져 링(42)은 서로 분리될 수 있다.
확산부재(41)는 디퓨저 렌즈일 수 있다. 확산부재(41)는 앞서 설명한 확산부재(120), 확산부재(400)에 대응할 수 있다. 확산부재(41)는 홀더(30) 내에 배치될 수 있다. 확산부재(41)는 홀더(30)에 결합될 수 있다. 확산부재(41)는 홀더(30)에 고정될 수 있다. 확산부재(41)는 광원(20)으로부터 방출되는 빛의 광경로 상에 배치될 수 있다. 확산부재(41)는 광원(20) 상에 배치될 수 있다. 확산부재(41)는 광원(20) 위에 배치될 수 있다. 확산부재(41)는 플라스틱 사출물일 수 있다. 확산부재(41)는 플라스틱 사출에 의해 형성될 수 있다. 확산부재(41)의 상단의 높이는 렌즈(70)의 상단의 높이와 대응할 수 있다. 확산부재(41)는 수직방향 중 상방향으로 삽입되어 홀더(30)와 결합될 수 있다. 이때, 상방향은 홀더(30)의 하부에서 홀더(30)의 상부를 향하는 방향일 수 있다. 확산부재(41)의 일부는 상방향으로 홀더(30)와 오버랩될 수 있다.
디퓨져 링(42)은 홀더(30) 내에 배치될 수 있다. 디퓨져 링(42)은 홀더(30)에 고정될 수 있다. 디퓨져 링(42)은 홀더(30)에 결합될 수 있다. 디퓨져 링(42)은 확산부재(41) 아래에 배치될 수 있다. 디퓨져 링(42)은 확산부재(41)를 지지할 수 있다. 디퓨져 링(42)은 확산부재(41)와 접촉될 수 있다. 디퓨져 링(42)은 플라스틱 사출물일 수 있다. 디퓨져 링(42)은 플라스틱 사출에 의해 형성될 수 있다.
쉴드 캔(50)은 홀더(30)의 몸체부를 커버할 수 있다. 쉴드 캔(50)은 커버(cover)를 포함할 수 있다. 쉴드 캔(50)은 커버 캔(cover can)을 포함할 수 있다. 쉴드 캔(50)은 비자성체일 수 있다. 쉴드 캔(50)은 금속 재질로 형성될 수 있다. 쉴드 캔(50)은 금속의 판재로 형성될 수 있다. 쉴드 캔(50)은 기판(10)과 전기적으로 연결될 수 있다. 쉴드 캔(50)은 솔더볼을 통해 기판(10)과 연결될 수 있다. 이를 통해, 쉴드 캔(50)은 그라운드될 수 있다. 쉴드 캔(50)은 전자 방해 잡음(EMI, electro magnetic interference)을 차단할 수 있다. 이때, 쉴드 캔(500)은 'EMI 쉴드캔'으로 호칭될 수 있다. 본 실시예에서는 광학 장치의 내부에서 높은 전압이 이용됨에 따라 전자 방해 잡음이 커질 수 있는데 쉴드 캔(50)이 전자 방해 잡음을 차단할 수 있다.
센서(60)는 기판(10)에 배치될 수 있다. 센서(60)는 기판(10)에 홀더(30)의 격벽의 타측에 배치될 수 있다. 즉, 센서(60)는 홀더(30)의 격벽을 기준으로 광원(20)의 반대편에 배치될 수 있다. 센서(60)는 적외선을 감지할 수 있다. 센서(60)는 적외선 중 특정 파장의 광을 감지할 수 있다. 센서(60)는 필터(80)를 통과한 광을 감지할 수 있다. 센서(60)는 광원(20)의 파장 대역의 빛을 감지할 수 있다. 이를 통해, 광원(20)으로부터 방출되어 피사체에 반사된 광을 센서(60)가 감지하여 피사체의 3D 이미지 정보를 센싱할 수 있다. 센서(60)의 유효센싱영역은 확산부재(41)와 대응하게 배치되지만 센서(60)는 전체적으로 격벽 쪽으로 치우쳐 배치될 수 있다. 센서(60) 중 격벽 쪽으로 치우친 부분에는 센서(60)의 회로 패턴 등이 배치될 수 있다.
렌즈(70)는 배럴(71) 내에 고정될 수 있다. 렌즈(70)는 플라스틱 사출물일 수 있다. 렌즈(70)는 플라스틱 사출에 의해 형성될 수 있다. 렌즈(70)는 복수의 렌즈를 포함할 수 있다.
필터(80)는 렌즈(70)와 센서(60) 사이에 배치될 수 있다. 필터(80)는 특정 파장 대의 광을 통과시키는 밴드 패스 필터(band pass filter)일 수 있다. 필터(80)는 적외선을 통과시킬 수 있다. 필터(80)는 적외선 중 특정 파장의 광을 통과시킬 수 있다. 필터(80)는 광원(20)이 방출하는 빛의 파장 대역의 빛을 통과시킬 수 있다. 필터(80)는 가시광선을 차단할 수 있다. 필터(80)는 홀더(30)에 결합될 수 있다. 홀더(30)에는 필터(80)와 대응하는 크기의 홈이 형성되고, 필터(80)는 홈에 삽입되어 접착제로 고정될 수 있다. 홀더(30)의 홈에는 필터(80)와 홀더(30) 사이에 접착제를 주입하기 위한 접착제 주입홈이 함께 형성될 수 있다. 필터(80)는 디퓨져 링(42)의 위치보다 낮은 위치에 배치될 수 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 광축 방향에 수직하는 제1 방향을 따라 순차적으로 배치되는 복수의 광원 어레이,
    상기 복수의 광원 어레이 상에 배치된 콜리메이션 렌즈, 그리고
    상기 콜리메이션 렌즈 상에 배치된 확산부재를 포함하고,
    각 광원 어레이는 상기 광축 방향 및 상기 제1 방향에 수직하는 제2 방향을 따라 순차적으로 배치된 복수의 채널을 포함하고,
    상기 복수의 광원 어레이 각각은 독립적으로 구동되도록 설정되고,
    상기 복수의 채널 각각은 독립적으로 구동되도록 설정되는 광 출력 장치.
  2. 제1항에 있어서,
    상기 복수의 광원 어레이는 제1 광원 어레이 및 제2 광원 어레이를 포함하고,
    상기 제1 광원 어레이 및 상기 제2 광원 어레이 각각은 순차적으로 배치된 제1 내지 제n 채널을 포함하며,
    상기 제1 광원 어레이의 제1 내지 제n 채널 각각은 상기 제2 광원 어레이의 제1 내지 제n 채널 각각과 직렬 연결되는 광 출력 장치.
  3. 제2항에 있어서,
    상기 제1 광원 어레이의 제1 내지 제n 채널 중 적어도 일부는 서로 병렬 연결되는 광 출력 장치.
  4. 제1항에 있어서,
    상기 콜리메이션 렌즈의 유효 영역의 면적은 상기 복수의 광원 어레이의 면적보다 큰 광 출력 장치.
  5. 제1항에 있어서,
    상기 확산부재는 상기 복수의 광원 어레이를 향하도록 배치된 제1면 및 상기 제1면의 반대면인 제2면을 포함하고, 상기 제1면에는 복수의 볼록 패턴이 배치되며, 상기 복수의 볼록 패턴 각각은 상기 제2 방향과 평행한 방향으로 장축을 가지는 광 출력 장치.
  6. 제1항에 있어서,
    상기 복수의 광원 어레이는 하나의 칩 상에 구현되는 광 출력 장치.
  7. 출력광 신호를 생성하여 대상 영역에 조사하는 발광부,
    상기 대상 영역로부터 반사된 후 입력된 입력광 신호를 수신하는 수광부,
    상기 수광부에 입력된 입력광 신호를 이용하여 상기 대상 영역에 관한 정보를 생성하는 정보 생성부, 그리고
    상기 발광부, 상기 수광부 및 상기 정보 생성부를 제어하는 제어부를 포함하고,
    상기 발광부는,
    광축 방향에 수직하는 제1 방향을 따라 순차적으로 배치되는 복수의 광원 어레이,
    상기 복수의 광원 어레이 상에 배치된 콜리메이션 렌즈, 그리고
    상기 콜리메이션 렌즈 상에 배치된 확산부재를 포함하고,
    각 광원 어레이는 상기 광축 방향 및 상기 제1 방향에 수직하는 제2 방향을 따라 순차적으로 배치된 복수의 채널을 포함하고,
    상기 복수의 광원 어레이 각각은 독립적으로 구동되도록 설정되고,
    상기 복수의 채널 각각은 독립적으로 구동되도록 설정되는 3차원 센싱 장치.
  8. 제7항에 있어서,
    상기 제어부는 상기 복수의 광원 어레이 중 구동되는 광원 어레이의 개수 및 상기 복수의 채널 중 구동되는 채널의 개수 중 적어도 하나를 제어하는 3차원 센싱 장치.
  9. 제8항에 있어서,
    상기 제어부는 상기 대상 영역의 측정 거리에 따라 상기 복수의 광원 어레이 중 구동되는 광원 어레이의 개수를 제어하는 3차원 센싱 장치.
  10. 제8항에 있어서,
    상기 제어부는 상기 제2 방향의 요구되는 화각에 따라 상기 복수의 채널 중 구동되는 채널의 개수를 제어하는 3차원 센싱 장치.
PCT/KR2023/015400 2022-10-06 2023-10-06 광 출력 장치 및 이를 포함하는 3차원 센싱 장치 WO2024076194A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0127869 2022-10-06
KR1020220127869A KR20240048280A (ko) 2022-10-06 2022-10-06 3차원 센싱 장치
KR1020220127870A KR20240048281A (ko) 2022-10-06 2022-10-06 광 출력 장치 및 이를 포함하는 3차원 센싱 장치
KR10-2022-0127870 2022-10-06

Publications (1)

Publication Number Publication Date
WO2024076194A1 true WO2024076194A1 (ko) 2024-04-11

Family

ID=90608402

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/015400 WO2024076194A1 (ko) 2022-10-06 2023-10-06 광 출력 장치 및 이를 포함하는 3차원 센싱 장치

Country Status (1)

Country Link
WO (1) WO2024076194A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066220A (ko) * 2017-12-05 2019-06-13 광주과학기술원 3차원 라이다 장치 및 거리측정 방법
KR20200084863A (ko) * 2017-09-06 2020-07-13 바라자 피티와이 엘티디 광학 빔 지향기
KR20220006638A (ko) * 2019-05-13 2022-01-17 아우스터, 인크. 전자 스캐닝 lidar 시스템을 위한 동기화된 이미지 캡처
KR20220097220A (ko) * 2020-12-30 2022-07-07 (주)애니캐스팅 서로 다른 지향각을 갖는 복수의 채널을 구비하는 라이다 광원용 발광장치
KR20220124191A (ko) * 2020-01-23 2022-09-13 아워스 테크놀로지, 엘엘씨. 주파수 변조 연속파 라이다를 위한 온 칩 모니터링 및 캘리브레이션 회로

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200084863A (ko) * 2017-09-06 2020-07-13 바라자 피티와이 엘티디 광학 빔 지향기
KR20190066220A (ko) * 2017-12-05 2019-06-13 광주과학기술원 3차원 라이다 장치 및 거리측정 방법
KR20220006638A (ko) * 2019-05-13 2022-01-17 아우스터, 인크. 전자 스캐닝 lidar 시스템을 위한 동기화된 이미지 캡처
KR20220124191A (ko) * 2020-01-23 2022-09-13 아워스 테크놀로지, 엘엘씨. 주파수 변조 연속파 라이다를 위한 온 칩 모니터링 및 캘리브레이션 회로
KR20220097220A (ko) * 2020-12-30 2022-07-07 (주)애니캐스팅 서로 다른 지향각을 갖는 복수의 채널을 구비하는 라이다 광원용 발광장치

Similar Documents

Publication Publication Date Title
US7248344B2 (en) Surface profile measurement
WO2020040390A1 (ko) 3차원 영상 생성 장치 및 방법
US8482816B2 (en) Document acquisition system and document acquisition method
WO2017073982A1 (ko) 3차원 스캐닝 시스템
US10935637B2 (en) Lidar system including a transceiver array
WO2019235859A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
WO2021107465A1 (ko) 거리 측정 카메라 장치
WO2017018843A1 (ko) 광파 탐지 및 거리 측정 장치
CN112305552A (zh) 距离检测装置和摄像设备
GB2374743A (en) Surface profile measurement
WO2024076194A1 (ko) 광 출력 장치 및 이를 포함하는 3차원 센싱 장치
WO2015115770A1 (ko) 캘리브레이션 장치 및 카메라 시스템
WO2024035156A1 (ko) 광 출력 장치 및 이를 포함하는 정보 생성 장치
WO2020122628A1 (ko) 카메라 장치
SE8604762L (sv) Kamera for optoelektronisk avkenning av en godtycklig scen
WO2020071885A1 (ko) 깊이 정보를 획득하는 방법 및 카메라 모듈
WO2022154160A1 (ko) 카메라 모듈
WO2024107039A1 (ko) 정보 생성 장치 및 카메라 장치
WO2020242223A1 (ko) 카메라 모듈
WO2024063514A1 (ko) 라이다 장치, 동작 방법 및 그의 정보 생성 방법
KR20240048281A (ko) 광 출력 장치 및 이를 포함하는 3차원 센싱 장치
WO2020060321A1 (ko) 카메라 모듈
WO2020116675A1 (ko) 모션 인식 기기 및 모션 인식 시스템
WO2022240134A1 (ko) 거리 측정 카메라 모듈
WO2021177743A1 (ko) 카메라 모듈

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23875255

Country of ref document: EP

Kind code of ref document: A1