WO2021040476A1 - Tof 카메라 - Google Patents

Tof 카메라 Download PDF

Info

Publication number
WO2021040476A1
WO2021040476A1 PCT/KR2020/011585 KR2020011585W WO2021040476A1 WO 2021040476 A1 WO2021040476 A1 WO 2021040476A1 KR 2020011585 W KR2020011585 W KR 2020011585W WO 2021040476 A1 WO2021040476 A1 WO 2021040476A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
unit
light
lens unit
distortion
Prior art date
Application number
PCT/KR2020/011585
Other languages
English (en)
French (fr)
Inventor
박강열
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020227006705A priority Critical patent/KR20220053576A/ko
Priority to US17/753,361 priority patent/US11882263B2/en
Priority to EP20858087.8A priority patent/EP4024855A4/en
Priority to JP2022513685A priority patent/JP2022545748A/ja
Priority to CN202080061171.9A priority patent/CN114303360B/zh
Publication of WO2021040476A1 publication Critical patent/WO2021040476A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0927Systems for changing the beam intensity distribution, e.g. Gaussian to top-hat
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0087Simple or compound lenses with index gradient
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/12Fluid-filled or evacuated lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/12Fluid-filled or evacuated lenses
    • G02B3/14Fluid-filled or evacuated lenses of variable focal length
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B9/00Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or -
    • G02B9/34Optical objectives characterised both by the number of the components and their arrangements according to their sign, i.e. + or - having four components only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Definitions

  • the embodiment relates to a ToF camera.
  • 3D content is applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth map is required to acquire 3D content.
  • the depth information is information indicating a distance in space, and indicates perspective information of another point with respect to one point of a 2D image.
  • a method of acquiring depth information a method of projecting infrared (IR) structured light onto an object, a method of using a stereo camera, a method of using a time of flight (TOF), and the like are used.
  • IR infrared
  • TOF time of flight
  • a vein pattern can be identified using a camera device equipped with an infrared light source. To this end, after photographing a finger, each finger may be detected by removing a background based on the color and shape of the finger, and a vein pattern of each finger may be extracted from the detected color information of each finger.
  • the average color of the finger, the color of the veins distributed on the finger, and the color of the wrinkles on the finger may be different from each other.
  • the color of veins distributed on the fingers may be weaker in red than the average color of the fingers, and the color of the wrinkles on the fingers may be darker than the average color of the fingers.
  • An embodiment is to provide a ToF camera that can be adaptively driven for a photographing purpose.
  • an embodiment is to provide a ToF camera capable of efficiently controlling power consumption.
  • an embodiment is to provide a ToF camera capable of acquiring data with high reliability.
  • a ToF camera includes an infrared light emitting device array, and includes a light source unit for generating an optical signal; A lens unit disposed on the light source unit and including a plurality of lenses; And an adjustment unit for adjusting the lens unit so that the light pattern of the optical signal passing through the lens unit becomes a surface illumination or a spot illumination including a plurality of spot patterns, and the lens unit includes: It has a distortion aberration that creates a barrel distortion that decreases as it gets further away.
  • the adjustment unit may change the optical path of the optical signal to adjust the optical pattern of the optical signal.
  • the adjustment unit may include a driving member, and may change a distance between the light source unit and the lens unit by moving the lens unit through the driving member.
  • the optical pattern of the optical signal becomes the surface illumination, and when the rear focus of the lens unit is close to the light source unit, the optical pattern of the optical signal may become the spot illumination.
  • the adjustment unit may include an optical member capable of changing a refractive index, and may change the refractive index according to a signal applied to the optical member.
  • the lens unit may have an effective focal length (EFL) greater than or equal to 0.4 mm and less than or equal to 2 mm.
  • EFL effective focal length
  • the distortion aberration may have a sign corresponding to the barrel distortion, and may have a distortion factor of 5% or more to 20% or less at a half angle of the viewing angle of the lens unit.
  • the size of the distortion factor may monotonically increase for each field.
  • the distortion aberration may have a distortion factor of less than 1% at 1/7 of the viewing angle of the lens unit.
  • the distortion aberration may have a size of a distortion factor of 4% or more to 10% or less at 2/7 of the viewing angle of the lens unit.
  • the distortion aberration may have a size of a distortion factor of 10% or more to 20% or less at 3/7 of the viewing angle of the lens unit.
  • the distortion aberration may have a distortion factor of 13% or more and 20% or less at a half angle of the viewing angle of the lens unit.
  • the viewing angle of the lens unit may have any one of 69 degrees to 80 degrees.
  • the light source unit may drive at least one of a plurality of light emitting devices according to a plurality of driving modes set corresponding to different spot densities.
  • FIG. 1 is a diagram showing a configuration example of a camera module according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an optical signal generated by a light emitting unit according to an exemplary embodiment of the present invention.
  • FIG. 3 is a configuration diagram of a light emitting unit according to an embodiment of the present invention.
  • FIG. 4 is a view for explaining light pattern adjustment according to an embodiment of the present invention.
  • FIG. 5 is a view for explaining a driving member according to an embodiment of the present invention.
  • FIG. 6 is a view for explaining an arrangement structure of an optical member according to an embodiment of the present invention.
  • FIG. 7 is a view for explaining an electrowetting-based liquid lens according to an embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a liquid lens based on a shape changing polymer according to an embodiment of the present invention.
  • FIGS. 9 and 10 are views for explaining a refractive index lens according to an embodiment of the present invention.
  • FIG. 11 is a view for explaining an acoustic lens according to an embodiment of the present invention.
  • FIG. 12 is a view for explaining a lens unit to which distortion aberration is applied according to an embodiment of the present invention.
  • FIG. 13A and 13B are diagrams for explaining signs of distortion aberrations according to an embodiment of the present invention.
  • FIGS. 14 and 15 are diagrams showing simulation results of surface lighting according to an embodiment of the present invention.
  • 16 is a diagram illustrating an arrangement and a connection structure of a plurality of light emitting devices according to an embodiment of the present invention.
  • 17 is a view for explaining a driving example according to the arrangement and connection structure of the light emitting device of FIG. 16.
  • FIG. 18 is a diagram illustrating an arrangement and a connection structure of a plurality of light emitting devices according to another exemplary embodiment of the present invention.
  • FIG. 19 is a view for explaining a driving example according to the arrangement and connection structure of the light emitting device of FIG. 18.
  • 20 is a diagram illustrating an embodiment of driving a partial area of a light source unit according to an embodiment of the present invention.
  • 21 is a view showing another embodiment of driving a partial area of a light source unit according to an embodiment of the present invention.
  • the singular form may also include the plural form unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and (and) B and C", it is combined with A, B, and C. It may contain one or more of all possible combinations.
  • first, second, A, B, (a), and (b) may be used in describing the constituent elements of the embodiment of the present invention.
  • a component when a component is described as being'connected','coupled' or'connected' to another component, the component is not only directly connected, coupled, or connected to the other component, but also with the component. It may also include the case of being'connected','coupled' or'connected' due to another element between the other elements.
  • top (top) or bottom (bottom) when it is described as being formed or disposed on the “top (top) or bottom (bottom)” of each component, the top (top) or bottom (bottom) is one as well as when the two components are in direct contact with each other. It also includes the case where the above other component is formed or disposed between the two components.
  • upper (upper) or lower (lower) when expressed as "upper (upper) or lower (lower)", the meaning of not only an upward direction but also a downward direction based on one component may be included.
  • the camera module 10 may mean a camera or a camera device that extracts depth information using a Time of Flight (ToF) function. Accordingly, the camera module 10 may be mixed with a ToF camera device, a ToF camera module 10, and a ToF camera.
  • ToF Time of Flight
  • FIG. 1 is a diagram showing a configuration example of a camera module according to an embodiment of the present invention.
  • the camera module 10 may include a light emitting unit 100 and a light receiving unit 200, and may further include a control unit 300 and a processing unit 400. have.
  • the light-emitting unit 100 may be a unit that generates an optical signal and then outputs the generated optical signal as an object.
  • the light emitting unit 100 may include a configuration capable of generating light, such as a light emitting device, and a configuration capable of modulating light.
  • the optical signal may be in the form of a pulse wave or a continuous wave.
  • the continuous wave may be in the form of a sinusoid wave or a square wave.
  • the light emitting unit 100 may distort the optical path of the optical signal and output it.
  • the optical path of the optical signal may be distorted according to a preset distortion aberration.
  • the light emitting unit 100 may output optical signals of various optical patterns.
  • the light emitting unit 100 may output an optical signal of surface lighting or an optical signal of spot lighting.
  • the light-emitting unit 100 may include a structure capable of changing an optical path of an optical signal according to a control signal.
  • the light emitting unit 100 may output an optical signal to various irradiation areas.
  • the light-emitting unit 100 may drive the light-emitting element array for each area to output optical signals to various irradiation areas.
  • the light-emitting unit 100 may include a light-emitting element array for changing an irradiation area according to a control signal.
  • the light receiving unit 200 may detect light reflected from the object.
  • the light receiving unit 200 may detect an optical signal reflected from the object.
  • the detected optical signal may be a reflection of the optical signal output from the light emitting unit 100 to the object.
  • the light receiving unit 200 may include a lens assembly, a filter, and a sensor to detect an optical signal.
  • the optical signal reflected from the object may pass through the lens assembly.
  • the optical axis of the lens assembly may be aligned with the optical axis of the sensor.
  • the filter can be placed between the lens assembly and the sensor.
  • the filter can be placed on the optical path between the object and the sensor.
  • the filter may filter light having a predetermined wavelength range. Filters can transmit specific wavelength bands of light.
  • the filter can pass light of a specific wavelength.
  • the filter may pass light in a wavelength band of an optical signal output from the light emitting unit 100.
  • the filter can pass light in the infrared band and block light outside the infrared band. Alternatively, the filter may pass visible light and block light having a wavelength other than visible light.
  • the sensor can sense light.
  • the sensor may receive an optical signal.
  • the sensor may be an image sensor that senses an optical signal.
  • the sensor may detect the optical signal and output it as an electrical signal.
  • the sensor may detect light having a wavelength corresponding to the wavelength of light output from the light emitting device.
  • the sensor can detect light in the infrared band. Alternatively, the sensor may detect light in the visible band.
  • the sensor includes a pixel array that converts light passing through the lens assembly into a corresponding electrical signal, a driving circuit that drives a plurality of pixels included in the pixel array, and a readout circuit that reads analog pixel signals of each pixel. can do.
  • the readout circuit may generate a digital pixel signal (or an image signal) through analog-to-digital conversion by comparing the analog pixel signal with a reference signal.
  • the digital pixel signal of each pixel included in the pixel array constitutes an image signal
  • the image signal may be defined as an image frame as it is transmitted in units of frames. That is, the image sensor may output a plurality of image frames.
  • the light-receiving unit 200 may be disposed parallel to the light-emitting unit 100.
  • the light receiving unit 200 may be disposed next to the light emitting unit 100.
  • the light receiving unit 200 may be disposed in the same direction as the light emitting unit 100.
  • the controller 300 may control driving of at least one of the light emitting unit 100 and the light receiving unit 200. In an embodiment, the controller 300 may generate a control signal and control driving of the light emitting device of the light emitting unit 100 through the generated control signal. In another embodiment, the controller 300 may generate a control signal and control a change of the optical path of the optical signal through the generated control signal.
  • the controller 300 may be included in the camera module 10 as shown in FIGS. 1A and 1B.
  • the control unit 300 may be implemented in a form coupled to the substrate of the camera module 10.
  • the controller 300 may be included in the terminal 20 in which the camera module 10 is disposed, as shown in FIGS. 1C and 1D.
  • the processing unit 400 may be implemented in the form of an application processor (AP) of a smartphone in which the camera module 10 is mounted.
  • AP application processor
  • the processing unit 400 may generate an image based on the electric signal generated by the light receiving unit 200.
  • the processing unit 400 may generate a sub-frame image from an electric signal generated every phase pulse period.
  • the processing unit 400 may generate one frame image from a plurality of sub-frame images generated during the frame pulse period.
  • the processing unit 400 may generate one high-resolution image through a plurality of sub-frame images or a plurality of frame images.
  • the processor 400 may generate a high-resolution image through a super resolution (SR) technique.
  • SR super resolution
  • the processing unit 400 may be included in the camera module 10 as shown in FIGS. 1A and 1D.
  • the processing unit 400 may be implemented in a form combined with a sensor included in the light receiving unit 200.
  • the processing unit 400 may be implemented in a form coupled to a substrate on which the light emitting unit 100 and the light receiving unit 200 are disposed.
  • the processing unit 400 may be included in the terminal 20 in which the camera module 10 is disposed, as shown in FIGS. 1B and 1C.
  • the processing unit 400 may be implemented in the form of an application processor (AP) of the smartphone.
  • AP application processor
  • FIG. 2 is a diagram illustrating an optical signal generated by a light emitting unit according to an exemplary embodiment of the present invention.
  • the light emitting unit 100 may generate an optical pulse at a constant period.
  • the light emitting unit 100 may generate an optical pulse having a predetermined pulse width (t pulse ) at a predetermined pulse repetition period (t modulation).
  • the light emitting unit 100 may generate one phase pulse by grouping a predetermined number of light pulses.
  • the light emitting unit 100 may generate a phase pulse having a predetermined phase pulse period (t phase ) and a predetermined phase pulse width (t exposure , t illumination , and t integration ).
  • one phase pulse period (t phase ) may correspond to one sub-frame.
  • the sub-frame may be referred to as a phase frame.
  • the phase pulse period may be grouped into a predetermined number.
  • a method of grouping four phase pulse periods (t phase ) may be referred to as a 4-phase method.
  • Grouping eight periods (t pphase ) can be referred to as an 8-phase method.
  • the light emitting unit 100 may generate one frame pulse by grouping a predetermined number of phase pulses.
  • the light emitting unit 100 may generate a frame pulse having a predetermined frame pulse period (t frame ) and a predetermined frame pulse width (t phase group (sub-frame group) ).
  • one frame pulse period (t frame ) may correspond to one frame. Therefore, when an object is photographed at 10 FPS, 10 frame pulse cycles (t frame ) per second may be repeated.
  • the 4-pahse scheme four sub-frames may be included in one frame. That is, one frame may be generated through four sub-frames.
  • one frame may include eight sub-frames. That is, one frame may be generated through eight sub-frames.
  • optical pulse phase pulse
  • frame pulse
  • FIG. 3 is a configuration diagram of a light emitting unit according to an embodiment of the present invention.
  • the light emitting unit 100 may include a light source unit 110, a lens unit 120, and an adjustment unit 130.
  • the light source unit 110 includes a plurality of light emitting devices arranged according to a predetermined rule, and may generate an optical signal.
  • the light source unit 110 may drive at least one of the plurality of light emitting devices according to a plurality of driving modes set corresponding to different spot densities. To this end, the light source unit 110 may arrange and electrically connect the light emitting device according to a certain rule.
  • the light emitting device may be disposed on a plurality of lines including first to third lines.
  • the second line may be disposed between the first line and the third line, and the first to third lines may be repeatedly disposed.
  • a plurality of light emitting devices may be electrically connected to each of the first to third lines.
  • the plurality of driving modes include a first driving mode for driving a plurality of light-emitting elements disposed on the first line, the second line, and the third line, and a plurality of light-emitting elements disposed on the first line and the third line.
  • At least one of a second driving mode for driving and a third driving mode for driving a plurality of light emitting elements disposed on the first line may be included.
  • the plurality of driving modes include a fourth driving mode for driving a plurality of light-emitting elements connected to the first to fifth electrodes, and a fifth driving for driving a plurality of light-emitting elements connected to the first, second, fourth and fifth electrodes.
  • a sixth driving mode for driving a plurality of light-emitting elements connected to the first and second electrodes
  • a seventh driving mode for driving a plurality of light-emitting elements connected to the first and fourth electrodes or the second and fifth electrodes
  • the eighth driving modes for driving a plurality of light emitting devices connected to any one of the 2, 4, and 5 electrodes may be included.
  • the light source unit 110 may drive the light emitting device disposed in a partial area of the entire area in which the plurality of light emitting devices are disposed. In an embodiment, the light source unit 110 may drive a plurality of light emitting devices disposed within a predetermined distance from the center. In another embodiment, the light source unit 110 may be divided into a plurality of areas, and may drive a plurality of light emitting devices disposed in at least one of the plurality of areas.
  • the lens unit 120 may distort and output an optical path of an optical signal according to a preset distortion aberration.
  • the lens unit 120 may apply a preset distortion aberration for each set field.
  • the distortion aberration has a sign corresponding to cylindrical distortion, has a distortion factor of 5% or more to 20% or less at a half angle of the viewing angle of the lens unit 120, and the lens unit 120 ) From the center of the lens unit 120 to the half-angle point of the viewing angle of the lens unit 120 may be monotonically increased for each field.
  • the viewing angle of the lens unit 120 may have a value of 69 degrees to 80 degrees.
  • the lens unit 120 may have a viewing angle of 70 degrees.
  • the pattern of light may be generated in the form of barrel distortion corresponding to the distortion aberration. As the light pattern moves away from the center, the irradiance can increase.
  • the lens unit 120 may have an effective focal length (EFL) greater than or equal to 0.4 mm and less than or equal to 2 mm.
  • EFL effective focal length
  • the lens unit 120 may include at least one lens.
  • the lens unit 120 may be formed of a plurality of lenses.
  • the plurality of lenses may have a fixed spacing.
  • the plurality of lenses can be moved together by the driving member. Therefore, even if the plurality of lenses are moved by the driving member, the distance between the lenses can be maintained.
  • the adjustment unit 130 may adjust the light pattern of the optical signal irradiated to the object into surface illumination or spot illumination including a plurality of spots.
  • the adjustment unit 130 may change the optical path of the optical signal to adjust the optical pattern of the optical signal to surface lighting or spot lighting.
  • surface illumination it can be used when the object is located at a close distance from the camera module.
  • spot lighting it can be used when an object is located at a distance from the camera module. This is because the intensity of light of spot lighting is greater than that of surface lighting, so the amount of light that the light receiving unit can receive is large, so that the distance of the object can be accurately measured.
  • the adjustment unit 130 may include a driving member or an optical member to adjust the light pattern.
  • the driving member may be coupled to the lens unit 120.
  • the driving member may be combined with the entire lens unit 120 or may be combined with some components (eg, a lenslet) included in the lens unit 120.
  • the adjustment unit 130 may change the distance between the light source unit 110 and the lens unit 120 by moving the lens unit 120 through the driving member.
  • the optical path of the optical signal may be changed according to the distance between the light source unit 110 and the lens unit 120.
  • the drive member may be an actuator.
  • the actuator may be coupled to the lens unit 120.
  • the adjustment unit 130 may change the distance between the light source unit 110 and the lens unit 120 by moving the lens unit 120 by driving an actuator.
  • the optical path of the optical signal may be changed according to the distance between the light source unit 110 and the lens unit 120.
  • the optical member may be coupled to the lens unit 120.
  • the optical member may be coupled to the lens unit 120 in an add-in or add-on form.
  • the optical member can change the refractive index.
  • the adjustment unit 130 may change the refractive index according to the signal applied to the optical member.
  • the optical path of the optical signal may be changed according to the changed refractive index.
  • the optical member may be a liquid lens. In the liquid lens, the curvature of the interface formed by the two liquids may be changed according to the applied signal, and the refractive index may be changed according to the curvature of the interface. Accordingly, the optical path of the optical signal may be changed according to the curvature of the interface.
  • FIGS. 4 to 9 a configuration for adjusting an optical pattern according to an embodiment of the present invention will be described in detail through FIGS. 4 to 9.
  • FIG. 4 is a view for explaining light pattern adjustment according to an embodiment of the present invention.
  • FIG. 4 shows an optical pattern of an optical signal irradiated to an object.
  • the camera module 10 may adjust an optical pattern of an optical signal irradiated to an object.
  • the light pattern may be divided into a surface light source pattern and a point light source pattern.
  • the surface light source pattern may mean a pattern in which light is uniformly spread over a space, as shown in FIG. 4A.
  • the point light source pattern may mean a pattern in which light is locally focused on a space, as shown in FIG. 4B.
  • the adjustment unit 130 may adjust the light pattern so that the light signal is irradiated to the object according to either a surface light source pattern or a point light source pattern.
  • the adjustment unit 130 may include a driving member or an optical member to adjust the optical pattern.
  • the drive member may be an actuator.
  • the actuator may be a voice coil motor (VCM), MEMS (Micro-Electro Mechanical Systems), Piezo Electric, or Shape Memory Alloys (SMA) based actuator.
  • the optical member may be a liquid lens or a tunable refractive index lens.
  • the liquid lens may be an electrowetting or shape changing polymer-based lens.
  • the refractive index variable lens may be a liquid crystal lens or an acoustic lens.
  • FIG. 5 is a view for explaining a driving member according to an embodiment of the present invention.
  • the adjustment unit 130 may include a driving member coupled to the lens unit.
  • the adjustment unit 130 may change the distance between the light source unit and the lens unit by moving the lens unit through the driving member. Accordingly, the adjustment unit 130 shown in FIG. 5 may be a driving member.
  • the lens unit 120 may be disposed to be spaced apart from the light source unit 110.
  • the lens unit 120 may include at least one lens and a housing. That is, the lens unit 120 may be composed of one lens, or may be composed of two or more lenses.
  • the housing may be a frame capable of accommodating at least one lens.
  • the driving member may be coupled to the lens unit 120 as shown in FIG. 5B.
  • the driving member may be coupled to a housing included in the lens unit 120.
  • the driving member may be coupled to at least one lens.
  • the housing may be formed in a structure in which at least one lens can be moved through the driving member.
  • the lens unit 120 may move along an optical axis formed by the lens unit 120 and the light source unit 110.
  • the lens unit 120 and the light source unit 110 are disposed to be spaced apart by a fixed distance, and the fixed distance does not change.
  • the driving member may change a spaced apart distance between the lens unit 120 and the light source unit 110.
  • the optical pattern of the optical signal irradiated to the object may be changed. For example, as the distance between the light source unit 110 and the lens unit 120 increases, the light pattern may become closer to the surface light source pattern. As the distance between the light source unit 110 and the lens unit 120 increases, the light pattern may become closer to the point light source pattern.
  • FIG. 6 is a view for explaining an arrangement structure of an optical member according to an embodiment of the present invention.
  • the adjustment unit 130 may include an optical member capable of changing a refractive index. Accordingly, the adjustment unit 130 illustrated in FIG. 5 may be an optical member.
  • the optical member may be coupled to the lens unit 120 in the form of an add-on, as shown in FIG. 6A.
  • the optical member may be coupled to the upper end of the lens unit 120 in the form of an add-on.
  • the upper end of the lens unit 120 means one surface of the lens unit 120 through which an optical signal is output.
  • the optical member may be coupled to the lower end of the lens unit 120 in an add-on form.
  • the lower end of the lens unit 120 means one surface of the lens unit 120 to which an optical signal is input.
  • the optical member may be coupled to the lens unit 120 in an ed-in form, as shown in FIG. 6B.
  • the lens unit 120 may include at least one lens, it may include two or more lenses.
  • the optical member may be coupled between the lens and the lens in an ad-in form.
  • FIG. 6 shows a structure in which one optical member is combined in an ed-on or ed-in form for convenience of explanation, but a structure in which two or more optical members are combined in an ed-on or ed-in form, or in an ed-on and ed-in form It can also be implemented as
  • FIG. 7 is a view for explaining an electrowetting-based liquid lens according to an embodiment of the present invention.
  • An electrowetting-based liquid lens may consist of two different liquids and a housing and an electrode that accommodates the two liquids.
  • the two liquids may be a conductive liquid and a non-conductive liquid, respectively.
  • the two liquids form an interface due to different properties and refractive index. And, when electricity is applied through the electrode, the curvature of the interface changes according to the applied electricity.
  • the output surface of light may be convexly controlled as in (a) of FIG. 7 or the output surface of light may be concavely controlled as in (b) of FIG. 7. That is, the focal length can be changed by changing the curvature of the interface.
  • the present invention can adjust the optical pattern by changing the optical path of the optical signal through the electrowetting-based liquid lens.
  • FIG. 8 is a diagram illustrating a liquid lens based on a shape changing polymer according to an embodiment of the present invention.
  • a liquid lens based on a shape change polymer may be in a form filled with a liquid in a membrane.
  • the shape of the liquid-filled membrane may be convex, flattened, or concave according to a voltage applied to an actuator connected to a ring surrounding the edge of the liquid-filled membrane.
  • the present invention can adjust the optical pattern by changing the optical path of the optical signal through the liquid lens based on the shape change polymer.
  • FIGS. 9 and 10 are views for explaining a refractive index lens according to an embodiment of the present invention.
  • the green lens is a lens to which a constant refractive index distribution is applied by using the principle of forming an image by using a phenomenon in which a light ray gradually bends in a medium whose refractive index is continuously changed.
  • the refractive index of the green lens may vary depending on the position as well as the gradient constant.
  • the green lens may have different types or structures of liquid crystals.
  • the refractive index may be controlled as the liquid crystal molecules are rearranged in the electric field direction.
  • the refractive index may be controlled as the liquid crystal molecules are rotated around a certain cone angle and rearranged.
  • the green lens may arrange a polymer structure between the glasses according to the required light condensing power as shown in FIG. 10B.
  • the refractive index lens can change the optical path of the optical signal passing through the refractive index lens by changing the arrangement of the liquid crystal. Through this, the optical pattern of the optical signal can be adjusted.
  • FIG. 11 is a view for explaining an acoustic lens according to an embodiment of the present invention.
  • the acoustic lens is implemented through a mechanism in which waves are refracted at an interface of another medium. Since light and light waves also have wave properties, these properties can be applied.
  • the medium of the lens is changed according to the sound wave, and the refractive index may be changed accordingly. Through this, the optical pattern of the optical signal can be adjusted.
  • the camera module 10 converts an optical pattern of an optical signal from a surface light source to a point light source according to the resolution of the optical signal, the distance to the object, and the degree of power consumption. It has the advantage of being able to flexibly cope with the requirements of various applications because it can be changed or the resolution of the point light source can be changed.
  • Aberration refers to a phenomenon in which light from one point passes through the optical system when forming an image, and then the image is distorted without being collected at one point.
  • Aberration is largely divided into monochromatic aberration and chromatic aberration.
  • the monochromatic aberration originates from the geometric shape of the lens, and includes spherical aberration, coma aberration, astigmatism, curvature aberration, and distortion aberration.
  • the distortion aberration refers to a phenomenon in which a planar object perpendicular to the optical axis does not form a different shape on an image plane perpendicular to the optical axis.
  • the distortion aberration may be an aberration indicating a defect in image shape reproducibility.
  • the form of distortion aberration can be divided into barrel distortion and pincushion distortion, and can be referred to as negative distortion and positive distortion, respectively.
  • the distortion aberration can be expressed as a percentage of the height of the ideal image to the distance outside the position of the ideal image. This can be expressed as Equation 1 below.
  • Distortion(%) represents the distortion factor
  • y real represents the position of the changed image
  • y paraxial represents the position of the ideal image. That is, y real means the position of the distorted image, and y paraxial means the position of the image in the case where it is not distorted.
  • a lens with minimized distortion aberration is used in equipment such as a projector or a camera, or distortion aberration is minimized through image correction. In general, a lens having a distortion aberration of 3% or less is used.
  • FIG. 12 is a view for explaining a lens unit to which distortion aberration is applied according to an embodiment of the present invention.
  • FIG. 12(a) shows the field from the side of the lens unit 120
  • FIG. 12(b) shows the field from the side of the object.
  • the light emitting unit 100 uses the lens unit 120 to which the intentional distortion aberration is applied.
  • the lens unit 120 may apply a distortion aberration preset for each field. That is, when the lens unit 120 can be divided into 10 fields, distortion aberration may be set for each of the 10 fields, and distortion aberration set for each field may be applied. Distortion aberrations set in each field may be different from each other or some may be the same.
  • the field of illumination (FOI) of the light emitting unit 100 is 70 degrees.
  • the FOI refers to a viewing angle based on the light-emitting unit 100, and this may correspond to a field of view (FOV) of the light-receiving unit 200.
  • the viewing angle may be set based on a diagonal angle, but may be set based on a horizontal angle or a vertical angle.
  • a difference of 7 degrees may occur between adjacent fields in each field.
  • a distortion aberration set in advance may be applied to each of the 0th to 6th fields. That is, the lens unit 120 may apply 0th to 6th distortion aberrations to each of the 0th field to the 6th field. Further, an optical signal distorted according to the 0th to 6th distortional aberration may be incident on the 0th to 6th fields of the object.
  • the distortion factor size in a range larger than the half-angle of the FOI, may be set to 5% or more.
  • the half angle of the FOI may mean an angle corresponding to half of the FOI.
  • the size of the distortion factor may be set to 5% or more at FOI 35 degrees. Accordingly, the effective focal length of the lens unit 120 and the size of the light source unit 110 may be determined, which can be expressed as Equation 2 below.
  • denotes FOI
  • EFL denotes an effective focal length of the lens unit 120
  • L denotes a diagonal length of the light source unit 110.
  • the diagonal length of the light source unit 110 may mean a distance between vcsels disposed in a diagonal direction among vcsels included in the light source unit.
  • the effective focal length of the lens unit 120 and the diagonal length of the light source unit 110 may have a relationship as shown in Equation 3 below.
  • the distortion aberration may monotonically increase from the center of the lens unit 120 to the half angle of the FOI.
  • the size of the distortion factor from the center of the lens unit 120 to the half angle of the FOI may monotonically increase for each field. For example, when the half-angle of the lens unit 120 is included in the third field, the size of the distortion factor from the 0th field to the third field including the center of the lens unit 120 may increase monotonically.
  • the distortion aberration may be maintained or decreased in a range larger than the half-angle of the lens unit 120.
  • the fourth to sixth fields cannot be larger than the size of the distortion factor of the third field.
  • the lens unit 120 may distort the optical signal so that the light pattern becomes a cylindrical distortion corresponding to the distortion aberration. Accordingly, the light pattern of the optical signal incident on the object may be in the form of cylindrical distortion.
  • FIG. 13A and 13B are diagrams for explaining signs of distortion aberrations according to an embodiment of the present invention.
  • the lens unit may include a first lens, a second lens, a third lens, and a fourth lens sequentially disposed from the light source side to the water side.
  • a stop may be disposed between the third lens and the fourth lens.
  • the first lens may be a single lens or a combined lens in which a plurality of lenses are combined.
  • the first lens may have positive (+) power.
  • the first lens may be a single lens.
  • the first lens may have a flat surface on the side of the light source.
  • the first lens may have a concave water side in the direction of the light source.
  • the first lens may be a combination lens in which a plurality of lenses are combined.
  • the first lens may be a combination lens in which three lenses are combined.
  • the first lens may be a combination lens in which the 1-1 to 1-3 lenses sequentially arranged from the light source side to the water side are combined.
  • the 1-1th lens may have a flat surface on the light source side.
  • the 1-1th lens may have a convex water side in the direction of the light source.
  • the first-second lens may have a concave side surface of the light source in the direction of the light source.
  • the 1-2th lens may have a flat surface.
  • the light source side may be a flat surface.
  • the 1-3th lens may have a concave water side in the direction of the light source.
  • the second lens may be a single lens or a combined lens in which a plurality of lenses are combined.
  • the second lens may have positive (+) power.
  • the second lens may be a single lens.
  • the surface of the second lens on the light source side may be convex in the direction of the light source.
  • the second lens may have a flat surface.
  • the second lens may be a combination lens in which a plurality of lenses are combined.
  • the second lens may be a combination lens in which three lenses are combined.
  • the second lens may be a combined lens in which the 2-1 to 2-3 lenses sequentially disposed from the light source side to the water side are combined.
  • a surface of the light source side may be convex toward the light source.
  • the 2-1 lens may have a flat surface.
  • the 2-2 lens may have a flat surface of the light source.
  • the 2-2 lens may have a convex surface of the water in the direction of the light source.
  • the light source side may be convex in the direction of the light source.
  • the 2-3rd lens may have a flat surface.
  • the third lens may be a single lens or a combined lens in which a plurality of lenses are combined.
  • the third lens may have positive (+) power.
  • the third lens may be a single lens.
  • the surface of the third lens may be convex in the direction of the light source.
  • the third lens may have a flat surface.
  • the third lens may be a combination lens in which a plurality of lenses are combined.
  • the third lens may be a combination lens in which three lenses are combined.
  • the third lens may be a combined lens in which the 3-1 to 3-3 lenses sequentially disposed from the light source side to the water side are combined.
  • a surface of the light source side may be convex in the direction of the light source.
  • the 3-1 lens may have a flat surface.
  • the 3-2 lens may have a flat surface of the light source.
  • the 3-2 lens may have a convex surface of the water in the direction of the light source.
  • the 3-3 lens may have a convex side surface of the light source in the direction of the light source.
  • the 3-3 lens may have a flat surface.
  • the fourth lens may be a single lens or a combined lens in which a plurality of lenses are combined.
  • the fourth lens may have positive (+) power.
  • the fourth lens may be a single lens.
  • the fourth lens may have a flat surface on the light source side.
  • the fourth lens may have a concave water side in the direction of the light source.
  • the fourth lens may include three lenses.
  • the fourth lens may be a combined lens in which the 4-1 to 4-3 lenses sequentially disposed from the light source side to the water side are combined.
  • the 4-1 lens may have a flat surface on the light source side.
  • the 4-1 lens may have a concave water side in the direction of the light source.
  • the 4-2th lens may have a concave side surface of the light source in the direction of the light source.
  • the 4-2th lens may have a flat surface.
  • the 4-3 lens may have a flat surface of the light source.
  • the 4-3 lens may have a concave water side toward the light source.
  • Surface illumination and spot illumination may be adjusted according to a distance between the focus of the lens unit and the upper surface of the light source unit 110.
  • the light emitting unit outputs a light pattern close to spot lighting, and as the back focus of the lens unit increases, a light pattern close to surface illumination is output.
  • spot illumination including spots having the smallest size may be output.
  • the distortion aberration applied to the lens unit 120 may have a sign corresponding to the cylindrical distortion.
  • FIG. 13A shows a case where the light emitting unit 100 is disposed in the same direction as the light receiving unit 200. That the light-emitting unit 100 is disposed in the same direction as the light-receiving unit 200 may mean that the light-emitting unit 100 and the light-receiving unit 200 are disposed in the same direction based on an object. For example, assuming that the front surface of the object is the first direction and the rear surface of the object is the second direction, it means that both the light emitting unit 100 and the light receiving unit 200 are disposed in the first direction or are disposed in the second direction. I can.
  • the distortion aberration may have a positive sign.
  • the light pattern of the light emitting unit 100 may have a cylindrical distortion shape. If the distortion aberration has a negative sign, the light pattern of the light emitting unit 100 may have a form of failure type distortion.
  • the distortion rate increases as the light pattern of the light emitting unit 100 moves from the center to the end.
  • the distortion rate is within 1% from approximately 0 degrees (center of the lens unit) to 10 degrees (1/7 of the viewing angle of the lens unit), and 20 degrees (2/of the viewing angle of the lens unit). It can be seen that the distortion rate is less than 10% at 4% or more, and the 30 degree point (3/7 point of the viewing angle of the lens unit) is less than 20% at 10% or more. It can be seen that the distortion rate increases after 20 degrees, and the distortion rate is 13% or more and 20% or less at the 35 degree point (that is, the half angle point of the viewing angle of the lens unit).
  • the light pattern of the light emitting unit 100 does not have a large change in the distortion rate from the center to a predetermined distance, but the distortion rate increases after the predetermined distance. Accordingly, even if all the pixels of the light emitting unit output light with the same optical power, the intensity of light increases in the outer region according to the distortion factor, so that the optical loss occurring in the peripheral portion of the optical pattern can be compensated.
  • the light emitting unit 100 is disposed in the same direction as the object. That the light-emitting unit 100 is disposed in the same direction as the object may mean that the light-emitting unit 100 and the object are disposed in the same direction based on the light-receiving unit 200. For example, assuming that the front surface of the light receiving unit 200 is in the first direction and the rear surface of the light receiving unit 200 is the second direction, both the light-emitting unit 100 and the object are disposed in the first direction or in the second direction. It can mean that. In this case, the light-emitting unit 100 and the light-receiving unit 200 may be disposed to be separated from each other.
  • the distortion aberration when the light emitting unit 100 and the object are disposed in the same direction, the distortion aberration may have a negative sign.
  • the distortion aberration has a negative sign
  • the light pattern of the light emitting unit 100 may have a cylindrical distortion shape. If the distortion aberration has a negative sign, the light pattern of the light emitting unit 100 may have a form of failure type distortion.
  • the distortion rate increases as the light pattern of the light emitting unit 100 moves from the center to the end. It can be seen that the distortion rate is within -1% at approximately 10 degrees, and the distortion rate is within -4% up to 30 degrees. It can be seen that the distortion rate increases after 20 degrees and has a distortion rate of -12% at 75 degrees. In this way, the light pattern of the light emitting unit 100 does not have a large change in the distortion rate from the center to a predetermined distance, but the distortion rate increases after the predetermined distance. Accordingly, even if all the pixels of the light emitting unit output light with the same optical power, the intensity of light increases in the outer region according to the distortion factor, so that the optical loss occurring in the peripheral portion of the optical pattern can be compensated.
  • FIGS. 14 and 15 are diagrams showing simulation results of surface lighting according to an embodiment of the present invention.
  • the distortion aberration is not applied may mean a case of using a lens that minimizes the distortion aberration that is generally used. For example, it may be a case of using a lens having a distortion aberration of less than 3%.
  • FIG. 14 is a simulation result in a rectangular coordinate system
  • FIG. 15 is a simulation result in a spherical coordinate system.
  • 14A and 15A are simulation results when the distortion aberration for each field is not applied.
  • 14B and 15B are simulation results for the present invention to which distortion aberration for each field is applied.
  • the distortion factor is within 1% at a point 10 degrees from approximately 0 degrees (center of the lens unit).
  • the distortion rate is greater than 4% at the point of 20 degrees, and greater than 10% at the point of 30 degrees.
  • the distortion rate increases after 20 degrees, and the distortion rate is greater than 13% at the point of 35 degrees (that is, the half-angle point of the viewing angle of the lens unit). This also appears in irradiated lighting.
  • the distortion aberration for each field is applied in FIGS. 14B and 15B, in a graph showing the distortion aberration, for example, when the FOI is 70 degrees, approximately 0 degrees (the center of the lens unit) ).
  • the distortion rate is within 1% at the point of 10 degrees, the distortion rate is greater than 4% at the point of 20 degrees, and the point at 30 degrees is greater than 10%.
  • the distortion rate increases after 20 degrees, and the distortion rate is greater than 13% at the point of 35 degrees (that is, the half-angle point of the viewing angle of the lens unit). This also appears in the illuminated lighting. It can be seen that the closer the spot lighting is to the center, the farther the distance between the spots becomes.
  • the light intensity gradually decreases as the surface illumination is closer to the center of the illumination.
  • a surface illumination has an incoherent irradiance of 1.01E-003[W/cm2] at a distance of 400[mm] from the center, but 1.14E-003 to 1.26E-003 after 400[mm] It can be seen that it has incoherent irradiance in the range of [W/cm2].
  • the surface illumination has a radiant intensity of 1.42E+003[W/sr] from the center to 24 degrees, but a radiant intensity of 1.62E+003[W/sr] or more after 24 degrees. .
  • the intensity of light increases as the spot density of the pattern peripheral region increases, and in the case of surface lighting, the intensity of light in the vicinity of the pattern increases. That is, when the lens unit 120 to which the distortion aberration is applied according to the embodiment of the present invention is used, the light pattern of the optical signal output from the light emitting unit 100 increases as the light intensity increases as it moves away from the center of the pattern. I can. In this way, by increasing the intensity of light around the pattern, the light-receiving unit 200 can compensate for the loss of light to the periphery of the pattern. As the light-receiving unit 200 compensates for the optical loss to the periphery of the pattern, there is an advantage in that the reliability and accuracy of the received information can be increased.
  • the light source unit 110 may arrange a plurality of light emitting devices according to a predetermined rule. In addition, the light source unit 110 may drive some of the plurality of light emitting devices according to a certain rule.
  • 16 is a diagram illustrating an arrangement and a connection structure of a plurality of light emitting devices according to an embodiment of the present invention.
  • a circle figure represents a light-emitting element
  • a square figure represents an electrode
  • a line figure represents a conducting line
  • the light source unit 110 may arrange a plurality of light emitting devices according to a certain rule.
  • a plurality of light emitting devices may be arranged in a diamond checkered pattern. That is, the plurality of light emitting devices may be arranged in a shape in which each corner of the checkered pattern is positioned at the top, bottom, left, and right.
  • the plurality of light emitting devices may be disposed on a plurality of lines including first to third lines.
  • the second line may be disposed between the first line and the third line.
  • the first to third lines may be repeatedly arranged.
  • the line may mean a virtual straight line extending in a vertical or horizontal direction.
  • a first vertical axis on the left may be a first line. Since only the second line may be disposed next to the first line, the second vertical axis on the left may be the second line. Since the second line is disposed between the first line and the third line, the third vertical axis on the left may be the third line. Since only the second line may be disposed next to the third line, the fourth vertical axis on the left may be the second line. Since the second line is disposed between the first line and the third line, the fifth vertical axis on the left may be the first line.
  • a plurality of lines may be arranged in this form.
  • Light-emitting elements arranged on one line may be connected to the same electrode. Accordingly, the light-emitting elements disposed on one line may be electrically connected to each other.
  • the light-emitting elements disposed on the first line, which is the first vertical axis may be disposed on the same electrode.
  • the light emitting device disposed on the first line, which is the fifth vertical axis may be disposed on an electrode different from the light emitting device disposed on the first line, which is the first vertical axis.
  • 17 is a view for explaining a driving example according to the arrangement and connection structure of the light emitting device of FIG. 16.
  • a plurality of driving modes may include first to third driving modes.
  • the first driving mode may mean a mode for driving a plurality of light emitting devices disposed on the first line, the second line, and the third line. Therefore, as shown in Fig. 17A, all light emitting devices can be turned on. In this case, the light pattern of the optical signal irradiated to the object may appear as a spot density as shown in FIG. 17D.
  • the second driving mode may mean a mode for driving a plurality of light emitting devices disposed on the first line and the third line. Accordingly, as shown in (b) of FIG. 17, only the light emitting device disposed on one of two consecutive lines may be turned on. In this case, the light pattern of the optical signal irradiated to the object may appear as a spot density as shown in FIG. 17E.
  • the third driving mode may mean a mode for driving a plurality of light-emitting elements disposed on the first line. Therefore, as shown in (c) of FIG. 17, only the light emitting elements disposed on one of four consecutive lines may be turned on. In this case, the light pattern of the optical signal irradiated to the object may appear as a spot density as shown in FIG. 17F.
  • FIG. 18 is a diagram illustrating an arrangement and a connection structure of a plurality of light emitting devices according to another exemplary embodiment of the present invention.
  • a circle figure represents a light-emitting element
  • a square figure represents an electrode
  • a line figure represents a conducting line.
  • the arrangement structure of the light emitting device shown in FIG. 18 may be the same as that described in FIG. 16, and a detailed description thereof will be omitted. However, the connection structure of the light emitting device may be different.
  • light-emitting elements adjacent to each other may be connected to the first electrode and the second electrode, respectively.
  • the odd-numbered light emitting device of the first line may be connected to the first electrode
  • the even-numbered light emitting device of the first line may be connected to the second electrode.
  • a plurality of light emitting devices disposed on the second line may be connected to the third electrode.
  • light-emitting elements adjacent to each other may be connected to the fourth electrode and the fifth electrode, respectively.
  • the odd-numbered light emitting device of the third line may be connected to the fourth electrode
  • the even-numbered light emitting device of the third line may be connected to the fifth electrode.
  • FIG. 19 is a view for explaining a driving example according to the arrangement and connection structure of the light emitting device of FIG. 18.
  • the plurality of driving modes according to the exemplary embodiment of the present invention may include fourth to eighth driving modes.
  • the fourth driving mode may mean a mode for driving a plurality of light emitting devices connected to the first to fifth electrodes. Accordingly, as shown in Fig. 19A, all light emitting devices can be turned on.
  • the fifth driving mode may mean a mode for driving a plurality of light emitting devices connected to the first, second, fourth, and fifth electrodes. Accordingly, as shown in (b) of FIG. 19, only the light emitting element disposed on one of two consecutive lines can be turned on.
  • the sixth driving mode may mean a mode for driving a plurality of light emitting devices connected to the first and second electrodes. Accordingly, as shown in (c) of FIG. 19, only the light emitting elements disposed on one of four consecutive lines may be turned on.
  • the seventh driving mode may mean a mode for driving a plurality of light emitting devices connected to the first and fourth electrodes. Accordingly, as shown in (d) of FIG. 19, only the odd-numbered or even-numbered light-emitting devices may be turned on in the light-emitting devices disposed on one of two consecutive lines.
  • the seventh driving mode may mean a mode for driving a plurality of light emitting devices connected to the second and fifth electrodes.
  • the eighth driving mode may mean a mode for driving a plurality of light emitting devices connected to the first electrode. Accordingly, as shown in (c) of FIG. 19, only the odd-numbered or even-numbered light emitting devices may be turned on in the light emitting devices arranged on one of four consecutive lines. In another embodiment, the eighth driving mode may mean a mode for driving a plurality of light emitting devices connected to any one of the second, fourth, and fifth electrodes.
  • spot density may be changed by turning on all light emitting devices or turning on some light emitting devices according to the driving mode.
  • the amount of light of the surface illumination can also be changed according to the pattern adjustment.
  • the present invention increases the density (amount of light) in a situation requiring a high resolution, and lowers the density (amount of light) in a situation requiring a relatively low resolution, so that the light source can be adaptively controlled according to the purpose and situation. In addition, it is possible to efficiently control power consumption through this.
  • the light source unit 110 may drive the light emitting device disposed in a partial area of the entire area in which the plurality of light emitting devices are disposed.
  • the light source unit 110 may be divided into 3x3, 4x3, 3x4, 4x4, 5x3, 3x5, 5x4, 4x5, and 5x5 groups, and may drive light emitting devices corresponding to one or more of the plurality of groups.
  • 20 is a diagram illustrating an embodiment of driving a partial area of a light source unit according to an embodiment of the present invention.
  • the light source unit 110 may drive a plurality of light emitting devices disposed within a predetermined distance from the center.
  • FIG. 20A shows an example in which the light emitting element is driven in the entire area.
  • FIG. 20B shows an example in which a plurality of light-emitting elements disposed within a predetermined distance from the center of the entire area are driven.
  • FIG. 20C shows an example in which a plurality of light-emitting elements disposed within a predetermined distance from the center of the entire area are driven.
  • the predetermined distance in (c) of FIG. 20 may be closer than the predetermined distance in (b) of FIG. 20.
  • 21 is a view showing another embodiment of driving a partial area of a light source unit according to an embodiment of the present invention.
  • the light source unit 110 may be divided into a plurality of zones. For example, as shown in FIG. 21, the entire area may be divided into 9 zones. Each zone may be a single group or may contain multiple groups.
  • the light source unit 110 may drive a plurality of light emitting devices disposed in at least one of the plurality of areas. 21 illustrates that the light-emitting elements disposed in one area are driven as an example, but the light-emitting elements disposed in two or more areas may be driven.
  • the light source unit 110 may locally output an optical signal by driving only light-emitting elements disposed in a partial area.
  • power consumption can be reduced by locally outputting an optical signal according to the size of the object.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Studio Devices (AREA)
  • Lenses (AREA)
  • Automatic Focus Adjustment (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명의 실시예에 따른 ToF 카메라는 적외선 발광소자 어레이를 포함하고, 광신호를 생성하는 광원부; 상기 광원부 상에 배치되고, 복수의 렌즈를 포함하는 렌즈부; 그리고 상기 렌즈부를 통과한 상기 광신호의 광패턴이 면 조명 또는 복수의 스팟 패턴을 포함하는 스팟 조명이 되도록 상기 렌즈부를 조정하는 조정부를 포함하고, 상기 렌즈부는, 상기 광패턴의 복사조도가 중심에서 멀어질수록 감소하는 원통형 왜곡(barrel distortion)을 형성하는 왜곡 수차를 가진다.

Description

TOF 카메라
실시 예는 ToF 카메라에 관한 것이다.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다.
이러한 TOF 방식이나 구조광 방식의 경우 적외선 파장 영역의 빛을 이용하고 있는데, 최근에는 적외선 파장 영역의 특징을 이용하여 생체 인증에 이용하고자 하는 시도가 있다. 예를 들어, 손가락 등에 퍼진 정맥의 모양은 태아 때부터 일생 동안 변하지 않고, 사람마다 다르다고 알려져 있다. 이에 따라, 적외선 광원이 탑재된 카메라 장치를 이용하여 정맥 패턴을 식별할 수 있다. 이를 위하여, 손가락을 촬영한 후, 손가락의 색과 형상을 기반으로 배경을 제거하여 각 손가락을 검출할 수 있으며, 검출된 각 손가락의 색 정보로부터 각 손가락의 정맥 패턴을 추출할 수 있다. 즉, 손가락의 평균 색깔, 손가락에 분포된 정맥의 색깔, 및 손가락에 있는 주름의 색깔은 서로 상이할 수 있다. 예를 들어, 손가락에 분포된 정맥의 색깔은 손가락의 평균 색깔에 비하여 적색이 약할 수 있으며, 손가락에 있는 주름의 색깔은 손가락의 평균 색깔에 비하여 어두울 수 있다. 이러한 특징을 이용하여 픽셀 별로 정맥에 근사한 값을 계산할 수 있으며, 계산한 결과를 이용하여 정맥 패턴을 추출할 수 있다. 그리고, 추출된 각 손가락의 정맥 패턴과 미리 등록된 데이터를 대비하여 개인을 식별할 수 있다.
다만, 종래 TOF 카메라의 경우에는 객체와의 거리나 객체의 크기와 같은 상황과 무관하게 동일한 광도와 크기의 빛을 출력하고 있다. 이에 따라, 광포화 현상이 발생하여 이미지를 획득하지 못하거나 충분한 정보를 획득하지 못하여 부정확한 이미지를 생성하는 문제점이 발생하고 있다. 또한, 항상 동일한 빛의 패턴을 이용하므로 촬영의 목적에 적응적으로 구동할 수 없으며, 소비 전력을 효율적으로 제어하지 못한다는 문제점이 있다. 또한, 반사광의 수신시 수신단에서 주변부 정보가 소실됨에 따라 데이터의 신뢰도가 낮아지는 문제점이 있다.
실시 예는 촬영 목적에 적응적으로 구동할 수 있는 ToF 카메라를 제공하는데 있다.
또한, 실시예는 소비 전력을 효율적으로 제어할 수 있는 ToF 카메라를 제공하는데 있다.
또한, 실시예는 신뢰도가 높은 데이터를 획득할 수 있는 ToF 카메라를 제공하는데 있다.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.
본 발명의 실시예에 따른 ToF 카메라는 적외선 발광소자 어레이를 포함하고, 광신호를 생성하는 광원부; 상기 광원부 상에 배치되고, 복수의 렌즈를 포함하는 렌즈부; 그리고 상기 렌즈부를 통과한 상기 광신호의 광패턴이 면 조명 또는 복수의 스팟 패턴을 포함하는 스팟 조명이 되도록 상기 렌즈부를 조정하는 조정부를 포함하고, 상기 렌즈부는, 상기 광패턴의 복사조도가 중심에서 멀어질수록 감소하는 원통형 왜곡(barrel distortion)을 형성하는 왜곡 수차를 가진다.
상기 조정부는, 상기 광신호의 광경로를 변경하여 상기 광신호의 광패턴을 조정할 수 있다.
상기 조정부는, 구동 부재를 포함하고, 상기 구동 부재를 통해 상기 렌즈부를 이동시켜 상기 광원부와 상기 렌즈부 사이의 거리를 변경할 수 있다.
상기 렌즈부의 후방 초점이 상기 광원부로부터 멀어지면 상기 광신호의 광패턴이 상기 면 조명이 되고, 상기 렌즈부의 후방 초점이 상기 광원부에 가까워지면 상기 광신호의 광패턴이 상기 스팟 조명이 될 수 있다.
상기 조정부는, 굴절률을 변경할 수 있는 광학 부재를 포함하고, 상기 광학 부재에 인가된 신호에 따라 상기 굴절률을 변경할 수 있다.
상기 렌즈부는, 유효 초점 거리(Effective Focal Length, EFL)가 0.4mm보다 크거나 같고 2mm보다 작거나 같을 수 있다.
상기 왜곡 수차는, 상기 원통형 왜곡(barrel distortion)에 대응하는 부호를 가지고, 상기 렌즈부의 시야각의 반각(half angle) 지점에서 5% 이상에서 20% 이하의 왜곡률 크기를 가질 수 있다.
상기 렌즈부의 중심에서 상기 렌즈부의 시야각의 반각 지점까지 왜곡률의 크기가 필드별로 단조 증가(monotonically increasing)할 수 있다.
상기 왜곡 수차는, 상기 렌즈부의 시야각의 1/7 지점에서 1% 이내의 왜곡률 크기를 가질 수 있다.
상기 왜곡 수차는, 상기 렌즈부의 시야각의 2/7 지점에서 4% 이상에서 10% 이하의 왜곡률 크기를 가질 수 있다.
상기 왜곡 수차는, 상기 렌즈부의 시야각의 3/7 지점에서 10% 이상에서 20% 이하의 왜곡률 크기를 가질 수 있다.
상기 왜곡 수차는, 상기 렌즈부의 시야각의 반각(half angle) 지점에서 13% 이상에서 20% 이하의 왜곡률 크기를 가질 수 있다.
상기 렌즈부의 시야각은, 69도 내지 80도 중 어느 하나 값을 가질 수 있다.
상기 광원부는, 서로 다른 스팟 밀도에 대응하여 설정된 복수의 구동 모드에 따라 복수의 발광 소자 중 적어도 하나를 구동할 수 있다.
실시 예에 따르면, 소비 전력을 효율을 높일 수 있다.
또한, 촬영 목적에 적응적으로 구동할 수 있다.
또한, 촬영 영상에 대한 정확도 및 신뢰도를 높일 수 있다.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성예를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 발광부가 생성하는 광신호를 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 발광부의 구성도이다.
도 4는 본 발명의 실시예에 따른 광패턴 조정을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 구동 부재를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 광학 부재의 배치 구조를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 전기습윤(electrowetting) 기반의 액체 렌즈를 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 형상 변환 폴리머(shape changing polymer) 기반의 액체 렌즈를 설명하기 위한 도면이다.
도 9 및 도 10은 본 발명의 실시예에 따른 굴절률 렌즈(refractive index lens)를 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 어쿠스틱 렌즈(acoustic lens)를 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른 왜곡 수차가 적용된 렌즈부를 설명하기 위한 도면이다.
도 13a 및 도 13b는 본 발명의 실시예에 따른 왜곡 수차의 부호를 설명하기 위한 도면이다.
도 14 및 도 15는 본 발명의 실시예에 따른 면 조명의 시뮬레이션 결과를 나타낸 도면이다.
도 16은 본 발명의 일 실시예에 따른 복수의 발광 소자의 배치 및 연결 구조를 나타낸 도면이다.
도 17은 도 16의 발광 소자의 배치 및 연결 구조에 따른 구동예를 설명하기 위한 도면이다.
도 18은 본 발명의 다른 실시예에 따른 복수의 발광 소자의 배치 및 연결 구조를 나타낸 도면이다.
도 19는 도 18의 발광 소자의 배치 및 연결 구조에 따른 구동예를 설명하기 위한 도면이다.
도 20은 본 발명의 실시예에 따른 광원부의 일부 영역 구동에 대한 일 실시예를 나타낸 도면이다.
도 21은 본 발명의 실시예에 따른 광원부의 일부 영역 구동에 대한 다른 실시예를 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
본 발명의 실시예에 따른 카메라 모듈(10)은 ToF(Time of Flight) 기능을 이용하여 깊이 정보를 추출하는 카메라 또는 카메라 장치를 의미할 수 있다. 따라서, 카메라 모듈(10)은 ToF 카메라 장치, ToF 카메라 모듈(10), ToF 카메라와 혼용될 수 있다.
도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성예를 나타낸 도면이다.
도 1에 도시된 것처럼, 본 발명의 실시예에 따른 카메라 모듈(10)은 발광부(100) 및 수광부(200)를 포함할 수 있고, 제어부(300) 및 처리부(400)를 더 포함할 수 있다.
발광부(100)는 광신호를 생성한 후 생성된 광신호를 객체로 출력하는 유닛일 수 있다. 이를 위해, 발광부(100)는 발광 소자와 같이 빛을 생성할 수 있는 구성, 빛을 모듈레이션(modulation) 할 수 있는 구성을 포함할 수 있다. 광신호는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태일 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다.
또한, 발광부(100)는 광신호의 광경로를 왜곡시켜 출력할 수 있다. 광신호의 광경로는 기 설정된 왜곡 수차(distortion)에 따라 왜곡될 수 있다.
또한, 발광부(100)는 다양한 광패턴의 광신호를 출력할 수 있다. 발광부(100)는 면 조명의 광신호를 출력하거나 스팟 조명의 광신호를 출력할 수 있다. 발광부(100)는 제어 신호에 따라 광신호의 광경로를 변경할 수 있는 구조를 포함할 수 있다.
또한, 발광부(100)는 다양한 조사 영역으로 광신호를 출력할 수 있다. 발광부(100)는 발광 소자 어레이를 영역별로 구동하여 다양한 조사 영역으로 광신호를 출력할 수 있다. 발광부(100)는 제어 신호에 따라 조사 영역을 변경하기 위한 발광 소자 어레이를 포함할 수 있다.
수광부(200)는 객체에 반사된 빛을 감지할 수 있다. 수광부(200)는 객체에 반사된 광신호를 감지할 수 있다. 이때, 감지되는 광신호는 발광부(100)가 출력한 광신호가 객체에 반사된 것일 수 있다. 수광부(200)는 광신호를 감지하기 위하여 렌즈 어셈블리, 필터 및 센서를 포함할 수 있다.
객체로부터 반사된 광신호는 렌즈 어셈블리를 통과할 수 있다. 렌즈 어셈블리의 광축은 센서의 광축과 얼라인(align)될 수 있다. 필터는 렌즈 어셈블리와 센서 사이에 배치될 수 있다. 필터는 객체와 센서 사이의 광경로 상에 배치될 수 있다. 필터는 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 필터는 빛의 특정 파장 대역을 투과시킬 수 있다. 필터는 특정 파장의 빛을 통과시킬 수 있다. 예를 들어, 필터는 발광부(100)가 출력하는 광신호의 파장 대역에서 빛을 통과시킬 수 있다. 필터는 적외선 대역의 빛을 통과시키고 적외선 대역 이외의 빛을 차단시킬 수 있다. 또는, 필터는 가시광선을 통과시키고 가시광선 이외의 파장의 빛을 차단시킬 수 있다. 센서는 빛을 센싱할 수 있다. 센서는 광신호를 수신할 수 있다. 센서는 광신호를 센싱하는 이미지 센서일 수 있다. 센서는 광신호를 감지하여 전기적 신호로 출력할 수 있다. 센서는 발광 소자에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 센서는 적외선 대역의 빛을 감지할 수 있다. 또는, 센서는 가시광선 대역의 빛을 감지할 수 있다. 센서는 렌즈 어셈블리를 통과한 빛을 대응하는 전기 신호로 변환하는 픽셀 어레이, 픽셀 어레이에 포함된 복수의 픽셀을 구동하는 구동 회로 및 각 픽셀의 아날로그 픽셀 신호를 리드(read)하는 리드아웃회로를 포함할 수 있다. 리드아웃회로는 아날로그 픽셀 신호를 기준 신호와 비교하여 아날로그-디지털 변환을 통해 디지털 픽셀 신호(또는 영상 신호)를 생성할 수 있다. 여기서, 픽셀 어레이에 포함된 각 픽셀의 디지털 픽셀 신호는 영상 신호를 구성하며, 영상 신호는 프레임 단위로 전송됨에 따라 이미지 프레임으로 정의될 수 있다. 즉, 이미지 센서는 복수의 이미지 프레임을 출력할 수 있다.
수광부(200)는 발광부(100)와 나란히 배치될 수 있다. 수광부(200)는 발광부(100) 옆에 배치될 수 있다. 수광부(200)는 발광부(100)와 같은 방향으로 배치될 수 있다.
제어부(300)는 발광부(100) 및 수광부(200) 중 적어도 하나의 구동을 제어할 수 있다. 일 실시예로, 제어부(300)는 제어 신호를 생성하고, 생성된 제어 신호를 통해 발광부(100)의 발광 소자 구동을 제어할 수 있다. 다른 실시예로, 제어부(300)는 제어 신호를 생성하고, 생성된 제어 신호를 통해 광신호의 광경로 변경을 제어할 수 있다.
제어부(300)는 도 1의 (a) 및 (b)와 같이, 카메라 모듈(10)에 포함될 수 있다. 예를 들어, 제어부(300)는 카메라 모듈(10)의 기판에 결합된 형태로 구현될 수 있다. 다른 실시예로, 제어부(300)는 도 1의 (c) 및 (d)와 같이, 카메라 모듈(10)이 배치된 단말(20)에 포함될 수도 있다. 예를 들어, 처리부(400)는 카메라 모듈(10)이 탑재된 스마트폰의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.
처리부(400)는 수광부(200)가 생성한 전기신호에 기초하여 영상을 생성할 수 있다. 처리부(400)는 위상 펄스 주기마다 생성되는 전기신호로부터 서브 프레임 영상을 생성할 수 있다. 그리고, 처리부(400)는 프레임 펄스 주기 동안 생성된 복수의 서브 프레임 영상으로부터 하나의 프레임 영상을 생성할 수 있다. 또한, 처리부(400)는 복수의 서브 프레임 영상이나 복수의 프레임 영상을 통해 하나의 고해상 영상을 생성할 수도 있다. 예를 들어, 처리부(400)는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 영상을 생성할 수 있다.
처리부(400)는 도 1의 (a) 및 (d)와 같이, 카메라 모듈(10)에 포함될 수 있다. 예를 들어, 처리부(400)는 수광부(200)에 포함된 센서와 결합된 형태로 구현될 수 있다. 다른 예로, 처리부(400)는 발광부(100)와 수광부(200)가 배치되는 기판에 결합된 형태로 구현될 수도 있다. 다른 실시예로, 처리부(400)는 도 1의 (b) 및 (c)와 같이, 카메라 모듈(10)이 배치된 단말(20)에 포함될 수도 있다. 예를 들어, 카메라 모듈(10)이 스마트폰에 배치된 경우, 처리부(400)는 스마트폰의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.
도 2는 본 발명의 실시예에 따른 발광부가 생성하는 광신호를 설명하기 위한 도면이다.
도 2의 (a)에 도시된 것처럼, 발광부(100)는 일정한 주기로 광 펄스를 생성할 수 있다. 발광부(100)는 소정의 펄스 반복 주기(tmodulation)로 소정의 펄스 폭(tpulse)을 가지는 광 펄스를 생성할 수 있다.
도 2의 (b)에 도시된 것처럼, 발광부(100)는 일정 개수의 광 펄스를 그룹핑(grouping)하여 하나의 위상 펄스를 생성할 수 있다. 발광부(100)는 소정의 위상 펄스 주기(tphase)와 소정의 위상 펄스 폭(texposure, tillumination, tintegration)을 가지는 위상 펄스를 생성할 수 있다. 여기서, 하나의 위상 펄스 주기(tphase)는 하나의 서브 프레임에 대응할 수 있다. 서브 프레임(sub-frame)은 위상 프레임(phase frame)으로 불릴 수 있다. 위상 펄스 주기는 소정의 개수로 그룹핑 될 수 있다. 4개의 위상 펄스 주기(tphase)를 그룹핑하는 방식은 4-phase 방식으로 불릴 수 있다. 8개의 주기(tpphase)를 그룹핑하는 것은 8-phase 방식으로 불릴 수 있다.
도 2의 (c)에 도시된 것처럼, 발광부(100)는 일정 개수의 위상 펄스를 그룹핑하여 하나의 프레임 펄스를 생성할 수 있다. 발광부(100)는 소정의 프레임 펄스 주기(tframe)와 소정의 프레임 펄스 폭(tphase group(sub-frame group))을 가지는 프레임 펄스를 생성할 수 있다. 여기서, 하나의 프레임 펄스 주기(tframe)는 하나의 프레임에 대응할 수 있다. 따라서, 10 FPS로 객체를 촬영하는 경우, 1초에 10번의 프레임 펄스 주기(tframe)가 반복될 수 있다. 4-pahse 방식에서, 하나의 프레임에는 4개의 서브 프레임이 포함될 수 있다. 즉, 하나의 프레임은 4개의 서브 프레임을 통해 생성될 수 있다. 8-phase 방식에서, 하나의 프레임에는 8개의 서브 프레임이 포함될 수 있다. 즉, 하나의 프레임은 8개의 서브 프레임을 통해 생성될 수 있다.
상기에서 설명을 위해, 광 펄스, 위상 펄스 및 프레임 펄스의 용어를 이용하였으나, 이에 한정되지 않는다.
도 3은 본 발명의 실시예에 따른 발광부의 구성도이다.
도 3에 도시된 것처럼, 본 발명의 실시예에 따른 발광부(100)는 광원부(110), 렌즈부(120) 및 조정부(130)를 포함할 수 있다.
광원부(110)는 복수의 발광 소자가 소정의 규칙에 따라 배열되며, 광신호를 생성할 수 있다. 광원부(110)는 서로 다른 스팟 밀도에 대응하여 설정된 복수의 구동 모드에 따라 복수의 발광 소자 중 적어도 하나를 구동할 수 있다. 이를 위해 광원부(110)는 일정한 규칙에 따라 발광 소자를 배치하고 전기적으로 연결할 수 있다.
우선, 발광 소자의 배치를 살펴보면, 발광 소자는 제1 내지 제3 라인을 포함하는 복수의 라인에 배치될 수 있다. 이때, 제2 라인은 제1 라인과 제3 라인 사이에 배치되고, 제1 내지 제3 라인은 반복하여 배치될 수 있다.
다음으로, 발광 소자의 연결을 살펴본다. 일 실시예로, 제1 내지 제3 라인은 각각의 라인 별로 복수의 발광 소자가 전기적으로 연결될 수 있다. 이 경우, 복수의 구동 모드는, 제1 라인, 제2 라인 및 제3 라인에 배치된 복수의 발광 소자를 구동하는 제1 구동 모드, 제1 라인 및 제3 라인에 배치된 복수의 발광 소자를 구동하는 제2 구동 모드, 및 제1 라인에 배치된 복수의 발광 소자를 구동하는 제3 구동 모드 중 적어도 하나를 포함할 수 있다. 다른 실시예로, 상기 제1 라인에 배치된 복수의 발광 소자 중 서로 인접한 발광 소자는 제1 전극 및 제2 전극에 각각 연결되고, 제2 라인에 배치된 복수의 발광 소자는 제3 전극에 연결되고, 제3 라인에 배치된 복수의 발광 소자 중 서로 인접한 발광 소자는 제4 전극 및 제5 전극에 각각 연결될 수 있다. 이 경우, 복수의 구동 모드는, 제1 내지 제5 전극에 연결된 복수의 발광 소자를 구동하는 제4 구동 모드, 제1, 2, 4 및 5 전극에 연결된 복수의 발광 소자를 구동하는 제5 구동 모드, 제1 및 2 전극에 연결된 복수의 발광 소자를 구동하는 제6 구동 모드, 제1 및 4 전극 또는 제2 및 5 전극에 연결된 복수의 발광 소자를 구동하는 제7 구동 모드, 및 제1, 2, 4 및 5 전극 중 어느 하나에 연결된 복수의 발광 소자를 구동하는 제8 구동 모드 중 적어도 하나를 포함할 수 있다.
광원부(110)는 복수의 발광 소자가 배치된 전체 영역 중 일부 영역에 배치된 발광 소자를 구동시킬 수 있다. 일 실시예로, 광원부(110)는 중심으로부터 소정의 거리 내에 배치된 복수의 발광 소자를 구동시킬 수 있다. 다른 실시예로, 광원부(110)는 복수의 구역으로 분할되고, 복수의 구역 중 적어도 하나의 구역에 배치된 복수의 발광 소자를 구동시킬 수 있다.
렌즈부(120)는 기 설정된 왜곡 수차(distortion)에 따라 광신호의 광경로를 왜곡시켜 출력할 수 있다. 렌즈부(120)는 설정된 필드별로 기 설정된 왜곡 수차가 적용될 수 있다.
이때, 왜곡 수차는 원통형 왜곡(barrel distortion)에 대응하는 부호를 가지고, 렌즈부(120)의 시야각의 반각(half angle) 지점에서 5% 이상에서 20% 이하의 왜곡률 크기를 가지고, 렌즈부(120)의 중심에서 렌즈부(120)의 시야각의 반각 지점까지 왜곡률 크기가 필드별로 단조 증가(monotonically increasing)할 수 있다. 일 실시예에 따르면, 렌즈부(120)의 시야각은 69도 내지 80도 중 어느 하나의 값을 가질 수 있다. 예를 들어, 렌즈부(120)는 70도의 시야각을 가질 수 있다.
빛의 패턴은 왜곡 수차에 대응하는 원통형 왜곡(barrel distortion) 형태로 생성될 수 있다. 빛의 패턴은 중심으로부터 멀어짐에 따라 복사 조도(irradiance)가 증가할 수 있다.
렌즈부(120)는 유효 초점 거리(Effective Focal Length, EFL)가 0.4mm보다 크거나 같고 2mm보다 작거나 같을 수 있다.
렌즈부(120)는 적어도 하나의 렌즈를 포함할 수 있다. 렌즈부(120)는 복수의 렌즈로 구성될 수 있다. 복수의 렌즈는 간격이 고정될 수 있다. 복수의 렌즈는 구동 부재에 의해 함께 움직일 수 있다. 따라서, 복수의 렌즈는 구동 부재에 의해 움직이더라도 렌즈간 간격은 유지될 수 있다.
조정부(130)는 객체에 조사되는 광신호의 광패턴을 면 조명 또는 복수의 스팟을 포함하는 스팟 조명으로 조정할 수 있다. 조정부(130)는 광신호의 광경로를 변경하여 광신호의 광패턴을 면 조명 또는 스팟 조명으로 조정할 수 있다. 면 조명의 경우 객체가 카메라 모듈로부터 가까운 거리에 위치하는 경우에 이용될 수 있다. 스팟 조명의 경우 객체가 카메라 모듈로부터 먼 거리에 위치하는 경우에 이용될 수 있다. 이는 스팟 조명의 빛의 강도가 면 조명에 비해 크므로, 수광부가 수광할 수 있는 빛의 양이 많아 객체의 거리를 정확히 측정할 수 있기 때문이다.
조정부(130)는 광패턴을 조정하기 위해 구동 부재 또는 광학 부재를 포함할 수 있다. 일 실시예에 따르면, 구동 부재는 렌즈부(120)에 결합될 수 있다. 구동 부재는 렌즈부(120) 전체와 결합되거나 렌즈부(120)에 포함된 일부 구성(예를 들어, 렌즈릿(lenslet))과 결합될 수 있다. 조정부(130)는 구동 부재를 통해 렌즈부(120)를 이동시켜 광원부(110)와 렌즈부(120) 사이의 거리를 변경할 수 있다. 광신호는 광원부(110)와 렌즈부(120) 사이의 거리에 따라 광경로가 변경될 수 있다. 예를 들어, 구동 부재는 엑추에이터(actuator)일 수 있다. 엑추에이터는 렌즈부(120)에 결합될 수 있다. 조정부(130)는 액추에이터를 구동하여 렌즈부(120)를 이동시킴으로써 광원부(110)와 렌즈부(120) 사이의 거리를 변경할 수 있다. 광신호는 광원부(110)와 렌즈부(120) 사이의 거리에 따라 광경로가 변경될 수 있다.
다른 실시예에 따르면, 광학 부재는 렌즈부(120)에 결합될 수 있다. 광학 부재는 렌즈부(120)에 에드인(add-in) 또는 애드온(add-on) 형태로 결합될 수 있다. 광학 부재는 굴절률을 변경할 수 있다. 조정부(130)는 광학 부재에 인가된 신호에 따라 굴절률을 변경할 수 있다. 광신호는 변경된 굴절률에 따라 광경로가 변경될 수 있다. 예를 들어, 광학 부재는 액체 렌즈일 수 있다. 액체 렌즈는 인가된 신호에 따라 두 액체가 이루는 계면의 곡률이 변경될 수 있으며, 계면의 곡률에 따라 굴절률이 달라질 수 있다. 따라서, 광신호는 계면의 곡률에 따라 광경로가 변경될 수 있다.
아래에서는 도 4 내지 도 9를 통해 본 발명의 실시예에 따른 광패턴 조정 구성을 구체적으로 살펴보도록 한다.
도 4는 본 발명의 실시예에 따른 광패턴 조정을 설명하기 위한 도면이다.
도 4는 객체에 조사되는 광신호의 광패턴을 나타낸다.
도 4를 참조하면, 본 발명의 실시예에 따른 카메라 모듈(10)은 객체에 조사되는 광신호의 광패턴을 조정할 수 있다. 본 발명의 실시예에 따르면, 광패턴은 면 광원 패턴과 점 광원 패턴으로 구분될 수 있다. 면 광원 패턴은 도 4의 (a)와 같이, 빛이 공간상에 균일하게 퍼져 있는 패턴을 의미할 수 있다. 점 광원 패턴은 도 4의 (b)와 같이, 빛이 공간상에 국소적으로 집광되는 패턴을 의미할 수 있다. 조정부(130)는 면 광원 패턴 또는 점 광원 패턴 중 어느 하나에 따라 광신호가 객체에 조사되도록 광패턴을 조정할 수 있다.
도 3에서 살펴본 것처럼, 조정부(130)는 광패턴을 조정하기 위하여 구동 부재 또는 광학 부재를 포함할 수 있다. 예를 들어, 구동 부재는 엑추에이터일 수 있다. 엑추에이터는 보이스 코일 모터(voice coil motor, VCM), MEMS(Micro-Electro Mechanical Systems), 피에조 전기(Piezo Electric) 또는 형상기억합금(Shape Memory Alloys, SMA) 기반의 엑추에이터일 수 있다. 다른 예로, 광학 부재는 액체렌즈(liquid lens)나 굴절지수가변렌즈(tunable refractive index lens)일 수 있다. 액체렌즈는 전기습윤(electrowetting) 또는 형상 변환 폴리머(shape changing polymer) 기반의 렌즈일 수 있다. 굴절지수가변렌즈는 액정 렌즈(liquid crystal lens) 또는 어쿠스틱 렌즈(acoustic lens)일 수 있다. 아래에서는 도면을 참조하여 구동 부재 및 광학 부재의 실시예를 살펴보도록 한다.
도 5는 본 발명의 실시예에 따른 구동 부재를 설명하기 위한 도면이다.
상기에서 살펴본 것처럼, 조정부(130)는 렌즈부에 결합되는 구동 부재를 포함할 수 있다. 조정부(130)는 구동 부재를 통해 렌즈부를 이동시켜 광원부와 렌즈부 사이의 거리를 변경할 수 있다. 따라서, 도 5에 도시된 조정부(130)는 구동 부재일 수 있다.
도 5를 참조하면, 렌즈부(120)는 광원부(110)와 이격되어 배치될 수 있다. 렌즈부(120)는 적어도 하나의 렌즈와 하우징을 포함할 수 있다. 즉, 렌즈부(120)는 하나의 렌즈로 구성될 수도 있고, 2개 이상의 렌즈로 구성될 수도 있다. 하우징은 적어도 하나의 렌즈를 수용할 수 있는 프레임일 수 있다.
본 발명의 실시예에 따르면, 구동 부재는 도 5의 (b)에서와 같이, 렌즈부(120)와 결합될 수 있다. 예를 들어, 구동 부재는 렌즈부(120)에 포함된 하우징과 결합될 수 있다. 도 5에는 도시되지 않았으나, 본 발명의 다른 실시예에 따르면, 구동 부재는 적어도 하나의 렌즈와 결합될 수도 있다. 이 경우, 하우징은 적어도 하나의 렌즈가 구동 부재에 통해 이동할 수 있는 구조로 형성될 수 있다. 이때, 렌즈부(120)는 렌즈부(120)와 광원부(110)가 형성하는 광축을 따라 이동할 수 있다.
도 5의 (a)와 같이 구동 부재가 없는 경우, 렌즈부(120)와 광원부(110)는 고정된 간격만큼 이격되어 배치되며, 고정된 간격은 변하지 않는다. 하지만, 도 5의 (b)와 같이 구동 부재를 포함할 경우, 구동 부재는 렌즈부(120)와 광원부(110) 사이의 이격된 간격을 변경할 수 있다. 구동 부재가 렌즈부(120)와 발광부(100) 사이의 이격된 간격이 변화함에 따라 객체에 조사되는 광신호의 광패턴이 변경될 수 있다. 예를 들어, 광원부(110)와 렌즈부(120) 사이의 간격이 가까워질수록 광패턴은 면 광원 패턴에 가까워질 수 있다. 광원부(110)와 렌즈부(120) 사이의 간격이 멀어질수록 광패턴은 점 광원 패턴에 가까워질 수 있다.
도 6은 본 발명의 실시예에 따른 광학 부재의 배치 구조를 설명하기 위한 도면이다.
상기에서 살펴본 것처럼, 조정부(130)는 굴절률을 변경할 수 있는 광학 부재를 포함할 수 있다. 따라서, 도 5에 도시된 조정부(130)는 광학 부재일 수 있다.
본 발명의 일 실시예에 따르면, 광학 부재는 도 6의 (a)와 같이, 렌즈부(120)에 에드온 형태로 결합될 수 있다. 광학 부재는 렌즈부(120)의 상단에 에드온 형태로 결합될 수 있다. 여기서, 렌즈부(120)의 상단이란 광신호가 출력되는 렌즈부(120)의 일면을 의미한다. 도 6의 (a)에는 도시되지 않았으나, 광학 부재는 렌즈부(120)의 하단에 에드온 형태로 결합될 수도 있다. 여기서 렌즈부(120)의 하단이란 광신호가 입력되는 렌즈부(120)의 일면을 의미한다.
본 발명의 다른 실시예에 따르면, 광학 부재는 도 6의 (b)와 같이, 렌즈부(120)에 에드인 형태로 결합될 수 있다. 앞서 설명한 것처럼, 렌즈부(120)는 적어도 하나의 렌즈를 포함할 수 있으므로, 2매 이상의 렌즈를 포함할 수 있다. 이때, 광학 부재는 렌즈와 렌즈 사이에 에드인 형태로 결합될 수 있다.
도 6에서는 설명의 편의상 1매의 광학 부재가 에드온 또는 에드인 형태로 결합되는 구조를 도시하고 있으나, 2매 이상의 광학 부재가 에드온 또는 에드인 형태로 결합되거나, 에드온 및 에드인 형태로 결합되는 구조로 구현될 수도 있다.
아래에서는 도면을 참조하여, 광학 부재의 구성을 설명하도록 한다.
도 7은 본 발명의 실시예에 따른 전기습윤(electrowetting) 기반의 액체 렌즈를 설명하기 위한 도면이다.
전기습윤 기반의 액체 렌즈는 서로 다른 두 액체와 두 액체를 수용하는 하우징 및 전극으로 구성될 수 있다. 이때, 두 액체는 각각 전도성 액체 및 비전도성 액체일 수 있다. 두 액체는 성질 및 굴절률이 상이함으로 인해 계면을 형성하게 된다. 그리고, 전극을 통해 전기가 인가되면, 인가된 전기에 따라 계면의 곡률이 변하게 된다.
예를 들어, 도 7의 (a)에서처럼 빛의 출력면을 볼록하게 제어하거나, 도 7의 (b)에서처럼 빛의 출력면을 오목하게 제어할 수 있다. 즉, 계면의 곡률을 변경함으로써 초점 거리를 변경할 수 있다.
본 발명은 이러한 전기습윤 기반의 액체 렌즈를 통해 광신호의 광경로를 변경함으로써, 광패턴을 조정할 수 있다.
도 8은 본 발명의 실시예에 따른 형상 변환 폴리머(shape changing polymer) 기반의 액체 렌즈를 설명하기 위한 도면이다.
형상 변환 폴리머 기반의 액체 렌즈는 멤브레인 내에 액체가 채워진 형태일 수 있다. 형상 변환 폴리머 기반의 액체 렌즈는 액체가 채워진 멤브레인의 가장자리를 둘러싸는 링과 연결된 액추에이터에 인가되는 전압에 따라 액체가 채워진 멤브레인의 형상이 볼록해지거나, 평평해지거나, 오목해질 수 있다.
예를 들어, 도 8의 (a)의 형상 변환 폴리머 기반의 액체 렌즈에서 가장자리를 둘러싼 링이 렌즈의 가장자리에 압력을 가하면, 도 8의 (b)에서처럼 형상 변환 폴리머 기반의 액체 렌즈 중심이 볼록해 질 수 있다. 이에 따라 도 8의 (a)보다 도 8의 (b)의 초점거리가 더 짧아짐을 알 수 있다.
본 발명은 이러한 형상 변환 폴리머 기반의 액체 렌즈를 통해 광신호의 광경로를 변경함으로써, 광패턴을 조정할 수 있다.
도 9 및 도 10은 본 발명의 실시예에 따른 굴절률 렌즈(refractive index lens)를 설명하기 위한 도면이다.
도 9에서는 굴절률 렌즈의 일종인 그린 렌즈(gradient index lens, GRIN lens)의 원리를 도시한다. 도 9에 도시된 것처럼, 그린 렌즈는 굴절률이 연속적으로 변하는 매질 속에서 광선이 점진적으로 그 진로가 꺾어지는 현상을 이용해서 상을 맺게 하는 원리를 이용하여 일정한 굴절률 분포를 적용시킨 렌즈이다. 이때, 그린 렌즈의 굴절률은 물매상수(gradient constant) 뿐만 아니라 위치에 따라 달라 질 수 있다.
도 10의 (a) 및 (b)에서와 같이, 그린 렌즈는 액정의 종류나 구조가 상이할 수 있다. 도 10의 (a)와 같이, 네마틱 액정을 이용하는 경우 액정 분자들이 전기장 방향으로 재정렬됨에 따라 굴절률이 제어될 수 있다. 다른 예로, 도 10의 (b)와 같이, 강유전성 액정을 이용하는 경우 액정 분자들이 일정한 원추각을 중심으로 회전하여 재정렬됨에 따라 굴절률이 제어될 수 있다. 그린 렌즈는 도 10의 (b)에서처럼 요구되는 집광력에 따라 폴리머 구조(polyer structure)를 글래스(glass) 사이에 배치할 수도 있다.
굴절률 렌즈는 액정의 배열을 변경함으로써 굴절률 렌즈를 통과하는 광신호의 광경로를 변경할 수 있다. 이를 통해 광신호의 광패턴을 조정할 수 있다.
도 11은 본 발명의 실시예에 따른 어쿠스틱 렌즈(acoustic lens)를 설명하기 위한 도면이다.
도 11을 참조하면, 어쿠스틱 렌즈는 파동이 다른 매질의 경계면에서 굴절하는 메커니즘을 통해 구현된다. 빛, 광파 역시도 파동의 성질을 가지므로, 이러한 성질이 적용될 수 있다. 어쿠스틱 렌즈는 음파에 노출되면, 음파에 따라 렌즈의 매질이 변경되고, 이에 따라 굴절률이 변경될 수 있다. 이를 통해 광신호의 광패턴을 조정할 수 있다.
도 4 내지 도 11을 통해 살펴본 것처럼, 본 발명의 실시예에 따른 카메라 모듈(10)은 광신호의 해상도, 객체와의 거리, 전력 소모 정도 등에 따라 광신호의 광패턴을 면광원에서 점광원으로 변경하거나 점광원의 해상도를 변경할 수 있어, 다양한 어플리케이션의 요구 사항에 유연하게 대처할 수 있는 장점이 있다.
이하에서는 도 12 내지 도 15를 통해 렌즈부(120)의 왜곡 수차에 대해 살펴보도록 한다.
수차란 상을 맺을 때 한점에서 나온 빛이 광학계를 통과한 다음 한점에 모이지 않고 영상이 일그러지는 현상 등을 말한다. 수차는 크게 단색수차(monochromatic aberration)와 색수차(chromatic aberration)로 구분된다. 여기서, 단색수차는 렌즈의 기하학적인 형태에서 비롯된 것으로서, 구면수차, 코마수차, 비점수차, 만곡수차 및 왜곡 수차가 있다.
이 중 왜곡 수차는 광축에 수직인 평면형의 물체가 광축에 수직인 상면상에서 상이한 형태로 결상되지 않는 현상을 의미한다. 왜곡 수차는 상의 형상 재현성의 결함을 나타내는 수차일 수 있다. 왜곡 수차의 형태는 원통형(barrel) 왜곡과 실패형(pincushion) 왜곡으로 나뉠 수 있으며, 각각 음의 왜곡과 양의 왜곡으로 불릴 수 있다.
왜곡 수차는 이상적인 상의 위치를 벗어난 거리에 대한 이상적인 상의 높이의 백분율로 나타낼 수 있다. 이는 아래의 수학식 1과 같이 나타낼 수 있다.
Figure PCTKR2020011585-appb-M000001
여기서, Distortion(%)는 왜곡률을 나타내고, yreal은 변경된 상의 위치를 나타내고, yparaxial은 이상적인 상의 위치를 나타낸다. 즉, yreal은 왜곡된 상의 위치를 의미하고, yparaxial은 왜곡되지 않은 경우에서 상의 위치를 의미한다.
왜곡 수차가 존재하면, 프로젝터(projector)와 같은 영상 장비의 경우, 송출된 영상에 왜곡이 발생한다. 그리고, 카메라와 같은 촬상 장비의 경우, 촬상된 영상에 왜곡이 발생한다. 이러한 문제를 해결하기 위해, 프로젝터나 카메라와 같은 장비에 왜곡 수차를 최소화시킨 렌즈를 사용하거나 영상 보정을 통해 왜곡 수차를 최소화시킨다. 일반적으로 왜곡 수차가 3%이하인 렌즈가 이용된다.
도 12는 본 발명의 실시예에 따른 왜곡 수차가 적용된 렌즈부를 설명하기 위한 도면이다.
도 12의 (a)는 렌즈부(120) 측면에서 필드를 나타낸 것이고, 도 12의 (b)는 객체 측면에서 필드를 나타낸 것이다.
본 발명의 실시예에 따른 발광부(100)는 의도적인 왜곡 수차가 적용된 렌즈부(120)를 이용한다. 본 발명의 실시예에 따른 렌즈부(120)는 각 필드별로 기 설정된 왜곡 수차가 적용될 수 있다. 즉, 렌즈부(120)가 10개의 필드로 구별될 수 있는 경우, 10개의 필드 각각에 대해 왜곡 수차가 설정될 수 있고, 필드별로 설정된 왜곡 수차가 적용될 수 있다. 각 필드에 설정되는 왜곡 수차는 서로 다르거나 일부가 동일할 수 있다.
예를 들어, 발광부(100)의 FOI(Field Of Illumination)가 70도라고 가정한다. FOI는 발광부(100)를 기준으로 한 시야각을 의미하며, 이는 수광부(200)의 FOV(Field Of View)에 대응할 수 있다. 시야각은 대각을 기준으로 설정될 수 있으나, 수평각 또는 수직각을 기준으로 설정될 수도 있다.
이때, 도 12에서와 같이, 필드를 7개로 분할할 경우, 각 필드는 인접한 필드 사이에 7도의 차이가 발생할 수 있다. 7개의 필드를 제0 필드부터 제6 필드로 분할할 경우, 제0필드 내지 제6필드 각각에 대해 기 설정된 왜곡 수차가 적용될 수 있다. 즉, 렌즈부(120)는 제0필드에서 제6필드 각각에 제0왜곡 수차 내지 제6왜곡 수차가 적용될 수 있다. 그리고, 객체의 제0필드 내지 제6필드에는 제0왜곡 수차 내지 제6왜곡 수차에 따라 왜곡된 광신호가 입사될 수 있다.
본 발명의 실시예에 따르면, FOI의 반각보다 큰 범위에서, 왜곡률 크기는 5% 이상이 설정될 수 있다. 여기서 FOI의 반각이라 함은 FOI의 절반에 해당하는 각도를 의미할 수 있다. 예를 들어, FOI가 70도인 경우, FOI의 반각은 35도를 의미할 수 있다. 따라서, 이 경우, FOI 35도에서 왜곡률의 크기는 5%이상이 설정될 수 있다. 이에 따라, 렌즈부(120)의 유효 초점 거리 및 광원부(110)의 크기가 결정될 수도 있으며, 이는 아래의 수학식 2와 같이 나타낼 수 있다.
Figure PCTKR2020011585-appb-M000002
여기서, θ는 FOI를 의미하고, EFL은 렌즈부(120)의 유효 초점 거리를 의미하고, L는 광원부(110)의 대각 길이를 의미한다. 일 실시예에 따르면, 광원부(110)의 대각 길이는 광원부에 포함된 vcsels 중 대각 방향에 배치된 vcsels 사이의 거리를 의미할 수 있다.
예를 들어, FOI가 35도인 경우, 렌즈부(120)의 유효 초점 거리와 광원부(110)의 대각 길이는 아래의 수학식 3과 같은 관계를 가질 수 있다.
Figure PCTKR2020011585-appb-M000003
왜곡 수차는 렌즈부(120)의 중심에서 FOI의 반각까지 단조 증가(monotonically increasing) 할 수 있다. 왜곡 수차는 렌즈부(120)의 중심에서 FOI의 반각까지 왜곡률의 크기가 필드별로 단조 증가할 수 있다. 예를 들어, 렌즈부(120)의 반각이 제3 필드에 포함된 경우, 렌즈부(120)의 중심이 포함된 제0필드에서 제3필드까지 왜곡률의 크기는 단조 증가할 수 있다.
한편, 왜곡 수차는 렌즈부(120)의 반각보다 큰 범위에서 왜곡률의 크기가 유지되거나 감소될 수 있다. 상기 예에서, 렌즈부(120)가 제6필드까지 구분된다고 가정하면, 제4필드 내지 제6필드는 제3필드의 왜곡률 크기보다 클 수 없다.
본 발명의 실시예에 따르면, 렌즈부(120)는 빛의 패턴이 왜곡 수차에 대응하는 원통형 왜곡의 형태가 되도록 광신호를 왜곡시킬 수 있다. 따라서, 객체에 입사되는 광신호의 빛의 패턴은 원통형 왜곡의 형태일 수 있다.
도 13a 및 도 13b는 본 발명의 실시예에 따른 왜곡 수차의 부호를 설명하기 위한 도면이다.
우선 도 13a 및 도 13b에 도시된 렌즈부의 구성을 살펴본다.
본 발명의 일 실시예에 따른 렌즈부는 광원측에서 물측으로 순차적으로 배치된 제1 렌즈, 제2 렌즈, 제3 렌즈 및 제4 렌즈를 포함할 수 있다. 제3 렌즈와 제4 렌즈 사이에는 조리개가 배치될 수 있다.
제1 렌즈는 단일 렌즈이거나 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제1 렌즈는 양(+)의 파워를 가질 수 있다.
제1 렌즈는 단일 렌즈일 수 있다. 제1 렌즈는 광원측면이 평면일 수 있다. 제1 렌즈는 광원 방향으로 물측면이 오목할 수 있다.
제1 렌즈는 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제1 렌즈는 3개의 렌즈가 결합된 결합렌즈일 수 있다. 제1 렌즈는 광원측에서 물측으로 순차적으로 배치된 제1-1 내지 제1-3 렌즈가 결합된 결합렌즈일 수 있다. 제1-1 렌즈는 광원측면이 평면일 수 있다. 제1-1 렌즈는 광원 방향으로 물측면이 볼록할 수 있다. 제1-2 렌즈는 광원 방향으로 광원측면이 오목할 수 있다. 제1-2 렌즈는 물측면이 평면일 수 있다. 제1-3 렌즈는 광원측면이 평면일 수 있다. 제1-3 렌즈는 광원 방향으로 물측면이 오목할 수 있다.
제2 렌즈는 단일 렌즈이거나 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제2 렌즈는 양(+)의 파워를 가질 수 있다.
제2 렌즈는 단일 렌즈일 수 있다. 제2 렌즈는 광원 방향으로 광원측 면이 볼록할 수 있다. 제2 렌즈는 물측면이 평면일 수 있다.
제2 렌즈는 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제2 렌즈는 3개의 렌즈가 결합된 결합렌즈일 수 있다. 제2 렌즈는 광원측에서 물측으로 순차적으로 배치된 제2-1 내지 제2-3 렌즈가 결합된 결합렌즈일 수 있다. 제2-1 렌즈는 광원 방향으로 광원측 면이 볼록할 수 있다. 제2-1 렌즈는 물측면이 평면일 수 있다. 제2-2 렌즈는 광원측면이 평면일 수 있다. 제2-2 렌즈는 광원 방향으로 물측면이 볼록할 수 있다. 제2-3 렌즈는 광원 방향으로 광원측면이 볼록할 수 있다. 제2-3 렌즈는 물측면이 평면일 수 있다.
제3 렌즈는 단일 렌즈이거나 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제3 렌즈는 양(+)의 파워를 가질 수 있다.
제3 렌즈는 단일 렌즈일 수 있다. 제3 렌즈는 광원 방향으로 광원측 면이 볼록할 수 있다. 제3 렌즈는 물측면이 평면일 수 있다.
제3 렌즈는 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제3 렌즈는 3개의 렌즈가 결합된 결합렌즈일 수 있다. 제3 렌즈는 광원측에서 물측으로 순차적으로 배치된 제3-1 내지 제3-3 렌즈가 결합된 결합렌즈일 수 있다. 제3-1 렌즈는 광원 방향으로 광원측 면이 볼록할 수 있다. 제3-1 렌즈는 물측면이 평면일 수 있다. 제3-2 렌즈는 광원측면이 평면일 수 있다. 제3-2 렌즈는 광원 방향으로 물측면이 볼록할 수 있다. 제3-3 렌즈는 광원 방향으로 광원측면이 볼록할 수 있다. 제3-3 렌즈는 물측면이 평면일 수 있다.
제4 렌즈는 단일 렌즈이거나 복수의 렌즈가 결합된 결합렌즈일 수 있다. 제4 렌즈는 양(+)의 파워를 가질 수 있다.
제4 렌즈는 단일 렌즈일 수 있다. 제4 렌즈는 광원측 면이 평면일 수 있다. 제4 렌즈는 광원 방향으로 물측면이 오목할 수 있다.
제4 렌즈는 3개의 렌즈를 포함할 수 있다. 제4 렌즈는 광원측에서 물측으로 순차적으로 배치된 제4-1 내지 제4-3 렌즈가 결합된 결합렌즈일 수 있다. 제4-1 렌즈는 광원측 면이 평면일 수 있다. 제4-1 렌즈는 광원 방향으로 물측면이 오목할 수 있다. 제4-2 렌즈는 광원 방향으로 광원측면이 오목할 수 있다. 제4-2 렌즈는 물측면이 평면일 수 있다. 제4-3 렌즈는 광원측면이 평면일 수 있다. 제4-3 렌즈는 광원 방향으로 물측면이 오목할 수 있다.
면 조명과 스팟 조명은 렌즈부의 초점과 광원부(110)의 상면에 사이의 거리에 따라 조정될 수 있다. 일 실시예에 따르면, 렌즈부의 후방 초점(back focus)이 광원부(110)의 상면으로부터 가까워질수록 발광부는 스팟 조명에 가까운 광패턴을 출력하고, 멀어질수록 면 조명에 가까운 광패턴을 출력할 수 있다. 일 실시예에 따르면, 렌즈부의 후방 초점(back focus)이 광원부(110)의 상면에 일치하면, 가장 작은 크기의 스팟들을 포함하는 스팟 조명이 출력될 수 있다.
본 발명의 실시예에 따르면, 렌즈부(120)에 적용되는 왜곡 수차는 원통형 왜곡에 대응하는 부호를 가질 수 있다.
도 13a는 발광부(100)가 수광부(200)와 동일한 방향에 배치된 경우를 나타낸다. 발광부(100)가 수광부(200)와 동일한 방향에 배치되었다는 것은 객체를 기준으로 발광부(100)와 수광부(200)가 동일한 방향에 배치되었다는 것을 의미할 수 있다. 예를 들어, 객체의 전면을 제1방향으로 객체의 후면을 제2방향으로 가정할 경우, 발광부(100)와 수광부(200) 모두 제1방향에 배치되거나 제2방향에 배치되는 것을 의미할 수 있다. 예를 들어, 발광부(100)와 수광부(200)가 동일한 기판상에 배치되는 경우, 발광부(100)가 수광부(200)와 동일한 방향에 배치되었다고 볼 수 있다. 본 발명의 실시예에 따르면, 발광부(100)와 수광부(200)가 동일한 방향에 배치된 경우, 왜곡 수차는 양의 부호를 가질 수 있다. 왜곡 수차가 양의 부호를 가지면, 발광부(100)의 빛의 패턴은 원통형 왜곡의 형태를 가질 수 있다. 만약, 왜곡 수차가 음의 부호를 가지면, 발광부(100)의 빛의 패턴은 실패형 왜곡의 형태를 가질 수 있다.
도 13a을 참조하면, 발광부(100)의 빛의 패턴은 중심에서 끝단으로 이동할수록 왜곡률이 커짐을 알 수 있다. 예를 들어, FOI가 70도일때, 대략 0도(렌즈부의 중심)으로부터 10도 지점(렌즈부 시야각의 1/7 지점)은 왜곡률이 1% 이내이고, 20도 지점(렌즈부 시야각의 2/7 지점)은 왜곡률이 4% 이상에서 10%이하이고, 30도 지점(렌즈부 시야각의 3/7 지점)은 10% 이상에서 20% 이하인 것을 알 수 있다. 20도 이후부터는 왜곡률이 증가폭이 커지면서 35도 지점(즉, 렌즈부의 시야각의 반각 지점)에서는 13% 이상에서 20%이하의 왜곡률을 가짐을 알 수 있다. 이와 같이, 발광부(100)의 빛의 패턴은 중심부에서 소정의 거리까지는 왜곡률의 변화가 크지 않으나, 소정의 거리 이후부터는 왜곡률이 커진다. 따라서, 발광부의 모든 픽셀이 동일한 광파워로 빛을 출력하더라도 왜곡률에 따라 외곽 영역에서 빛의 강도가 커지게 되므로 광패턴 주변부에서 발생하는 광손실을 보상할 수 있다.
도 13b는 발광부(100)가 객체와 동일한 방향에 배치된 경우를 나타낸다. 발광부(100)가 객체와 동일한 방향에 배치되었다는 것은 수광부(200)를 기준으로 발광부(100)와 객체가 동일한 방향에 배치되었다는 것을 의미할 수 있다. 예를 들어, 수광부(200)의 전면을 제1방향으로 수광부(200)의 후면을 제2방향으로 가정할 경우, 발광부(100)와 객체 모두 제1방향에 배치되거나 제2방향에 배치되는 것을 의미할 수 있다. 이 경우, 발광부(100)와 수광부(200)는 서로 분리되어 배치될 수 있다. 본 발명의 실시예에 따르면, 발광부(100)와 객체가 동일한 방향에 배치된 경우, 왜곡 수차는 음의 부호를 가질 수 있다. 왜곡 수차가 음의 부호를 가지면, 발광부(100)의 빛의 패턴은 원통형 왜곡의 형태를 가질 수 있다. 만약, 왜곡 수차가 음의 부호를 가지면, 발광부(100)의 빛의 패턴은 실패형 왜곡의 형태를 가질 수 있다.
도 13b를 참조하면, 발광부(100)의 빛의 패턴은 중심에서 끝단으로 이동할수록 왜곡률이 커짐을 알 수 있다. 대략 10도 지점은 왜곡률이 -1% 이내이고, 30도까지는 왜곡률이 -4% 이내임을 알 수 있다. 20도 이후부터는 왜곡률이 증가폭이 커지면서 75도에서는 -12%의 왜곡률을 가짐을 알 수 있다. 이와 같이, 발광부(100)의 빛의 패턴은 중심부에서 소정의 거리까지는 왜곡률의 변화가 크지 않으나, 소정의 거리 이후부터는 왜곡률이 커진다. 따라서, 발광부의 모든 픽셀이 동일한 광파워로 빛을 출력하더라도 왜곡률에 따라 외곽 영역에서 빛의 강도가 커지게 되므로 광패턴 주변부에서 발생하는 광손실을 보상할 수 있다.
도 14 및 도 15는 본 발명의 실시예에 따른 면 조명의 시뮬레이션 결과를 나타낸 도면이다.
도 14 내지 도 15에서는 왜곡 수차가 적용되지 않은 경우와 본 발명의 실시예에 따라 왜곡 수차가 적용된 경우를 각각 나타내고 있다. 이때, 왜곡 수차가 적용되지 않았다고 함은 일반적으로 이용되는 왜곡 수차를 최소화시킨 렌즈를 이용한 경우를 의미할 수 있다. 예를 들어, 왜곡 수차 3% 미만의 렌즈를 이용한 경우일 수 있다.
도 14는 직교 좌표계에서의 시뮬레이션 결과이고, 도 15는 구면 좌표계에서의 시뮬레이션 결과이다. 도 14의 (a) 및 도 15의 (a)는 필드별 왜곡 수차가 적용되지 않은 경우의 시뮬레이션 결과이다. 도 14의 (b) 및 도 15의 (b)는 필드별 왜곡 수차가 적용된 본 발명에 대한 시뮬레이션 결과이다.
우선, 필드별 왜곡 수차가 적용되지 않은 경우를 살펴본다. 도 14의 (a) 및 도 15의 (a)의 왜곡 수차를 나타낸 그래프에서, 예를 들어, FOI가 70도일때, 대략 0도(렌즈부의 중심)으로부터 10도 지점은 왜곡률이 1% 이내이고, 20도 지점은 왜곡률이 4% 보다 크고, 30도 지점은 10% 보다 큰 것을 알 수 있다. 20도 이후부터는 왜곡률이 증가폭이 커지면서 35도 지점(즉, 렌즈부의 시야각의 반각 지점)에서는 13% 보다 큰 왜곡률을 가짐을 알 수 있다. 이는 조사된 조명에서도 나타난다. 스팟 조명은 직교 좌표계와 구면 좌표계 모두에서 각 스팟 사이의 거리가 거의 일정함을 알 수 있다. 또한, 면 조명 역시 거의 균일한 빛의 강도(복사조도 또는 복사강도)가 전체에 나타남을 확인할 수 있다.
반면, 도 14의 (b) 및 도 15의 (b)에서 필드별 왜곡 수차가 적용된 경우를 살펴보면, 왜곡 수차를 나타낸 그래프에서, 예를 들어, FOI가 70도일때, 대략 0도(렌즈부의 중심)으로부터 10도 지점은 왜곡률이 1% 이내이고, 20도 지점은 왜곡률이 4% 보다 크고, 30도 지점은 10% 보다 큰 것을 알 수 있다. 20도 이후부터는 왜곡률이 증가폭이 커지면서 35도 지점(즉, 렌즈부의 시야각의 반각 지점)에서는 13% 보다 큰 왜곡률을 가짐을 알 수 있다. 이는 조사된 조명에서도 나타난다. 스팟 조명은 중심에 가까울수록 스팟 사이의 간격이 멀어짐을 알 수 있다. 또한, 면 조명은 조명의 중심에 가까울수록 빛의 강도(복사조도 또는 복사강도)가 점점 약해짐을 알 수 있다. 직교 좌표계에서, 면 조명은 중심부로부터의 거리가 400[mm]인 곳은 1.01E-003[W/cm2]의 incoherent irradiance를 가지고 있으나, 400[mm] 이후에는 1.14E-003 내지 1.26E-003[W/cm2] 범위의 incoherent irradiance 를 가짐을 알 수 있다. 구면 좌표계에서, 면 조명은 중심으로부터 24도까지는 1.42E+003[W/sr]의 radiant intensitu를 가지고 있으나, 24도 이후부터는 1.62E+003[W/sr]이상의 radiant intensity를 가짐을 알 수 있다.
상기에서 살펴본 것처럼, 스팟 조명의 경우 패턴 주변부의 스팟 밀도가 증가함에 따라 빛의 강도가 증가하고, 면 조명의 경우 패턴 주변부의 빛의 강도가 증가함을 알 수 있다. 즉, 본 발명의 실시예에 따른 왜곡 수차가 적용된 렌즈부(120)를 이용할 경우, 발광부(100)가 출력하는 광신호의 빛의 패턴은 패턴의 중심으로부터 멀어짐에 따라 빛의 강도가 증가할 수 있다. 이와 같이, 패턴 주변부의 빛의 강도를 증가시킴에 따라 수광부(200)에서 패턴 주변부에 대한 광손실을 보상할 수 있다. 수광부(200)에서 패턴 주변부에 대한 광손실을 보상함에 따라 수신 정보에 대한 신뢰도 및 정확도를 높일 수 있는 장점이 있다.
아래에서는 도 16 내지 도 19를 통해 본 발명의 일 실시예에 따른 발광 소자의 구동예를 살펴보도록 한다.
본 발명의 실시예에 따르면, 광원부(110)는 복수의 발광 소자를 소정의 규칙에 따라 배치할 수 있다. 그리고, 광원부(110)는 일정한 규칙에 따라 복수의 발광 소자 중 일부 발광 소자를 구동시킬 수 있다.
도 16은 본 발명의 일 실시예에 따른 복수의 발광 소자의 배치 및 연결 구조를 나타낸 도면이다.
도 16에서, 원 도형은 발광 소자를 나타내고, 사각 도형은 전극을 나타내고, 선 도형은 도선을 나타낸다.
도 16에서와 같이, 광원부(110)는 일정한 규칙에 따라 복수의 발광 소자를 배치할 수 있다. 예를 들어, 복수의 발광 소자는 다이아 체크 무늬 형태로 배치될 수 있다. 즉, 복수의 발광 소자는 체크 무늬의 각 모서리가 상, 하, 좌, 우에 위치하는 형태로 배치될 수 있다.
복수의 발광 소자는 제1 내지 제3 라인을 포함하는 복수의 라인에 배치될 수 있다. 제2 라인은 제1 라인과 제3 라인 사이에 배치될 수 있다. 제1 내지 제3 라인은 반복하여 배치될 수 있다. 여기서, 라인이란 세로 혹은 가로 방향으로 뻗은 가상의 직선을 의미할 수 있다.
도 16에서, 좌측의 첫번째 세로축은 제1 라인일 수 있다. 제1 라인 옆에는 제2 라인만 배치될 수 있으므로, 좌측의 두번째 세로축은 제2 라인일 수 있다. 제1 라인과 제3 라인 사이에 제2 라인이 배치되므로, 좌측의 세번째 세로축은 제3 라인일 수 있다. 제3 라인 옆에는 제2 라인만 배치될 수 있으므로, 좌측의 네번째 세로축은 제2 라인일 수 있다. 제1 라인과 제3 라인 사이에 제2 라인이 배치되므로, 좌측의 다섯번째 세로축은 제1 라인일 수 있다. 복수의 라인은 이와 같은 형태로 배치될 수 있다.
하나의 라인에 배치된 발광 소자는 서로 동일한 전극과 연결될 수 있다. 따라서, 하나의 라인에 배치된 발광 소자는 서로 전기적으로 연결될 수 있다. 예를 들어, 첫번째 세로축인 제1 라인에 배치된 발광 소자는 서로 동일한 전극에 배치될 수 있다. 다섯번째 세로축인 제1 라인에 배치된 발광 소자는 첫번째 세로축인 제1 라인에 배치된 발광 소자와 서로 다른 전극에 배치될 수 있다.
도 17은 도 16의 발광 소자의 배치 및 연결 구조에 따른 구동예를 설명하기 위한 도면이다.
도 17에 도시된 것처럼, 본 발명의 실시예에 따른 복수의 구동 모드는 제1 내지 제3 구동 모드를 포함할 수 있다.
제1 구동 모드는 제1 라인, 제2 라인 및 제3 라인에 배치된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 17의 (a)에 도시된 것처럼, 모든 발광 소자가 턴온될 수 있다. 이 경우, 객체에 조사되는 광신호의 빛의 패턴은 도 17의 (d)와 같은 스팟 밀도로 나타날 수 있다.
제2 구동 모드는 제1 라인 및 제3 라인에 배치된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 17의 (b)에 도시된 것처럼, 연속된 두 개의 라인 중 하나의 라인에 배치된 발광 소자만 턴온될 수 있다. 이 경우, 객체에 조사되는 광신호의 빛의 패턴은 도 17의 (e)와 같은 스팟 밀도로 나타날 수 있다.
제3 구동 모드는 제1 라인에 배치된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 17의 (c)에 도시된 것처럼, 연속된 네 개의 라인 중 하나의 라인에 배치된 발광 소자만 턴온될 수 있다. 이 경우, 객체에 조사되는 광신호의 빛의 패턴은 도 17의 (f)와 같은 스팟 밀도로 나타날 수 있다.
도 18은 본 발명의 다른 실시예에 따른 복수의 발광 소자의 배치 및 연결 구조를 나타낸 도면이다.
도 18에서, 원 도형은 발광 소자를 나타내고, 사각 도형은 전극을 나타내고, 선 도형은 도선을 나타낸다. 도 18에 도시된 발광 소자의 배치 구조는 도 16에서 설명한 것과 동일할 수 있는바, 상세한 설명은 생략하도록 한다. 다만, 발광 소자의 연결 구조는 상이할 수 있다.
도 18을 참조하면, 제1 라인에 배치된 복수의 발광 소자 중 서로 인접한 발광 소자는 제1 전극 및 제2 전극에 각각 연결될 수 있다. 예를 들어, 제1 라인의 홀수번째 발광 소자는 제1 전극에 연결되고, 제1 라인의 짝수번째 발광 소자는 제2 전극에 연결될 수 있다.
제2 라인에 배치된 복수의 발광 소자는 제3 전극에 연결될 수 있다.
제3 라인에 배치된 복수의 발광 소자 중 서로 인접한 발광 소자는 제4 전극 및 제5 전극에 각각 연결될 수 있다. 예를 들어, 제3 라인의 홀수번째 발광 소자는 제4 전극에 연결되고, 제3 라인의 짝수번째 발광 소자는 제5 전극에 연결될 수 있다.
도 19는 도 18의 발광 소자의 배치 및 연결 구조에 따른 구동예를 설명하기 위한 도면이다.
도 19에 도시된 것처럼, 본 발명의 실시예에 따른 복수의 구동 모드는 제4 내지 제8 구동 모드를 포함할 수 있다.
제4 구동 모드는 제1 내지 제5 전극에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 19의 (a)에 도시된 것처럼, 모든 발광 소자가 턴온될 수 있다.
제5 구동 모드는 제1, 2, 4 및 5 전극에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 19의 (b)에 도시된 것처럼, 연속된 두 개의 라인 중 하나의 라인에 배치된 발광 소자만 턴온될 수 있다.
제6 구동 모드는 제1 및 2 전극에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 19의 (c)에 도시된 것처럼, 연속된 네 개의 라인 중 하나의 라인에 배치된 발광 소자만 턴온될 수 있다.
제7 구동 모드는 제1 및 4 전극에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 19의 (d)에 도시된 것처럼, 연속된 두 개의 라인 중 하나의 라인에 배치된 발광 소자에서 홀수번째 또는 짝수번째 발광 소자만 턴온될 수 있다. 다른 실시예로, 제7 구동 모드는 제2 및 5 전극에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다.
제8 구동 모드는 제1 전극에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다. 따라서, 도 19의 (c)에 도시된 것처럼, 연속된 네 개의 라인 중 하나의 라인에 배치된 발광 소자에서 홀수번째 또는 짝수번째 발광 소자만 턴온될 수 있다. 다른 실시예로, 제8 구동 모드는 제2, 4 및 5 전극 중 어느 하나에 연결된 복수의 발광 소자를 구동하는 모드를 의미할 수 있다.
도 16 내지 도 19를 참조하여 설명한 것처럼, 구동 모드에 따라 전체 발광 소자를 턴온하거나 일부 발광 소자를 턴온함으로써 스팟 밀도를 변경할 수 있다. 또한, 패턴 조정에 따라 면 조명의 광량 또한 변경할 수 있다. 이를 통해 본 발명은 높은 해상도를 요구하는 상황에서는 밀도(광량)를 높이고 상대적으로 낮은 해상도를 요구하는 상황에서는 밀도(광량)를 낮춤으로써 목적과 상황에 따라 적응적으로 광원을 제어할 수 있다. 또한, 이를 통해 소비 전력을 효율적으로 제어할 수 있다.
아래에서는 도 20 및 도 21을 통해 본 발명의 다른 실시예에 따른 발광 소자의 구동예를 살펴보도록 한다.
본 발명의 실시예에 따른 광원부(110)는 복수의 발광 소자가 배치된 전체 영역 중 일부 영역에 배치된 발광 소자를 구동시킬 수 있다. 여기서, 광원부(110)는 3x3, 4x3, 3x4, 4x4, 5x3, 3x5, 5x4, 4x5, 5x5와 그룹으로 분할될 수 있으며, 복수의 그룹 중 하나 이상의 그룹에 대응하는 발광 소자를 구동할 수 있다.
도 20은 본 발명의 실시예에 따른 광원부의 일부 영역 구동에 대한 일 실시예를 나타낸 도면이다.
도 20을 참조하면, 광원부(110)는 중심으로부터 소정의 거리 내에 배치된 복수의 발광 소자를 구동시킬 수 있다.
도 20의 (a)는 전체 영역에서 발광 소자가 구동하는 예를 도시하고 있다. 도 20의 (b)는 전체 영역의 중심으로부터 소정의 거리 내에 배치된 복수의 발광 소자가 구동하는 예를 도시하고 있다. 도 20의 (c)는 전체 영역의 중심으로부터 소정의 거리 내에 배치된 복수의 발광 소자가 구동하는 예를 도시하고 있다. 도 20의 (c)에서 소정의 거리는 도 20의 (b)에서 소정의 거리보다 가까울 수 있다.
도 21은 본 발명의 실시예에 따른 광원부의 일부 영역 구동에 대한 다른 실시예를 나타낸 도면이다.
도 21을 참조하면, 광원부(110)는 복수의 구역으로 분할될 수 있다. 예를 들어, 도 21에서와 같이, 전체 영역이 9개의 구역으로 분할될 수 있다. 각 구역은 하나의 그룹이거나 복수의 그룹이 포함될 수도 있다.
광원부(110)는 복수의 구역 중 적어도 하나의 구역에 배치된 복수의 발광 소자를 구동할 수 있다. 도 21에서는 하나의 구역에 배치된 발광 소자가 구동되는 것을 예시로 도시하였으나, 두 개 이상의 구역에 배치된 발광 소자가 구동될 수 도 있다.
도 20 및 도 21을 참조하여 설명한 것처럼, 본 발명의 실시예에 따르면, 광원부(110)는 일부 영역에 배치된 발광 소자만을 구동하여 국소적으로 광신호를 출력할 수 있다. 촬영하고자 하는 객체의 크기가 작은 경우 해당 객체의 크기에 따라 광신호를 국소적으로 출력함으로써 전력 소모 감소시킬 수 있는 장점이 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (14)

  1. 적외선 발광소자 어레이를 포함하고, 광신호를 생성하는 광원부;
    상기 광원부 상에 배치되고, 복수의 렌즈를 포함하는 렌즈부; 그리고
    상기 렌즈부를 통과한 상기 광신호의 광패턴이 면 조명 또는 복수의 스팟 패턴을 포함하는 스팟 조명이 되도록 상기 렌즈부를 조정하는 조정부를 포함하고,
    상기 렌즈부는, 상기 광패턴의 복사조도가 중심에서 멀어질수록 감소하는 원통형 왜곡(barrel distortion)을 형성하는 왜곡 수차를 가지는 ToF 카메라.
  2. 제1항에 있어서,
    상기 조정부는,
    상기 광신호의 광경로를 변경하여 상기 광신호의 광패턴을 조정하는 ToF 카메라.
  3. 제1항에 있어서,
    상기 조정부는,
    구동 부재를 포함하고, 상기 구동 부재를 통해 상기 렌즈부를 이동시켜 상기 광원부와 상기 렌즈부 사이의 거리를 변경하는 ToF 카메라.
  4. 제3항에 있어서,
    상기 렌즈부의 후방 초점이 상기 광원부로부터 멀어지면 상기 광신호의 광패턴이 상기 면 조명이 되고,
    상기 렌즈부의 후방 초점이 상기 광원부에 가까워지면 상기 광신호의 광패턴이 상기 스팟 조명이 되는 ToF 카메라.
  5. 제1항에 있어서,
    상기 조정부는,
    굴절률을 변경할 수 있는 광학 부재를 포함하고, 상기 광학 부재에 인가된 신호에 따라 상기 굴절률을 변경하는 ToF 카메라.
  6. 제1항에 있어서,
    상기 렌즈부는,
    유효 초점 거리(Effective Focal Length, EFL)가 0.4mm보다 크거나 같고 2mm보다 작거나 같은 ToF 카메라.
  7. 제1항에 있어서,
    상기 왜곡 수차는,
    상기 원통형 왜곡(barrel distortion)에 대응하는 부호를 가지고,
    상기 렌즈부의 시야각의 반각(half angle) 지점에서 5% 이상에서 20% 이하의 왜곡률 크기를 가지는 ToF 카메라.
  8. 제1항에 있어서,
    상기 렌즈부의 중심에서 상기 렌즈부의 시야각의 반각 지점까지 왜곡률의 크기가 필드별로 단조 증가(monotonically increasing)하는 ToF 카메라.
  9. 제1항에 있어서,
    상기 왜곡 수차는,
    상기 렌즈부의 시야각의 1/7 지점에서 1% 이내의 왜곡률 크기를 가지는 ToF 카메라.
  10. 제1항에 있어서,
    상기 왜곡 수차는,
    상기 렌즈부의 시야각의 2/7 지점에서 4% 이상에서 10% 이하의 왜곡률 크기를 가지는 ToF 카메라.
  11. 제1항에 있어서,
    상기 왜곡 수차는,
    상기 렌즈부의 시야각의 3/7 지점에서 10% 이상에서 20% 이하의 왜곡률 크기를 가지는 ToF 카메라.
  12. 제1항에 있어서,
    상기 왜곡 수차는,
    상기 렌즈부의 시야각의 반각(half angle) 지점에서 13% 이상에서 20% 이하의 왜곡률 크기를 가지는 ToF 카메라.
  13. 제1항에 있어서,
    상기 렌즈부의 시야각은, 69도 내지 80도 중 어느 하나 값을 가지는 ToF 카메라.
  14. 제1항에 있어서,
    상기 광원부는,
    서로 다른 스팟 밀도에 대응하여 설정된 복수의 구동 모드에 따라 복수의 발광 소자 중 적어도 하나를 구동하는 ToF 카메라.
PCT/KR2020/011585 2019-08-30 2020-08-28 Tof 카메라 WO2021040476A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020227006705A KR20220053576A (ko) 2019-08-30 2020-08-28 Tof 카메라
US17/753,361 US11882263B2 (en) 2019-08-30 2020-08-28 ToF camera
EP20858087.8A EP4024855A4 (en) 2019-08-30 2020-08-28 TOF CAMERA
JP2022513685A JP2022545748A (ja) 2019-08-30 2020-08-28 Tofカメラ
CN202080061171.9A CN114303360B (zh) 2019-08-30 2020-08-28 Tof相机

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0107459 2019-08-30
KR20190107459 2019-08-30

Publications (1)

Publication Number Publication Date
WO2021040476A1 true WO2021040476A1 (ko) 2021-03-04

Family

ID=74684844

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/011585 WO2021040476A1 (ko) 2019-08-30 2020-08-28 Tof 카메라

Country Status (6)

Country Link
US (1) US11882263B2 (ko)
EP (1) EP4024855A4 (ko)
JP (1) JP2022545748A (ko)
KR (1) KR20220053576A (ko)
TW (1) TW202117385A (ko)
WO (1) WO2021040476A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023137994A (ja) * 2022-03-18 2023-09-29 維沃移動通信有限公司 投光装置、測距装置及び電子機器

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150090680A (ko) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 카메라 장치
JP2016095460A (ja) * 2014-11-17 2016-05-26 富士フイルム株式会社 撮像レンズおよび撮像レンズを備えた撮像装置
KR20160108076A (ko) * 2015-03-06 2016-09-19 삼성전자주식회사 홍채를 촬영하기 위한 광을 조사하는 방법 및 그 디바이스
KR20170005649A (ko) * 2015-07-06 2017-01-16 엘지전자 주식회사 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기
KR20190000052A (ko) * 2017-06-22 2019-01-02 엘지이노텍 주식회사 광 송출장치 및 이를 이용한 ToF(Time of Flight)모듈

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI349785B (en) * 2009-11-27 2011-10-01 Newmax Technology Co Ltd Wide-angle imaging lens module
US9696427B2 (en) * 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
WO2014141115A2 (en) * 2013-03-15 2014-09-18 Primesense Ltd. Depth scanning with multiple emitters
WO2017002791A1 (ja) * 2015-07-02 2017-01-05 Dic株式会社 液晶組成物及びこれを用いた液晶表示素子
EP3451023A1 (en) * 2017-09-01 2019-03-06 Koninklijke Philips N.V. Time-of-flight depth camera with low resolution pixel imaging
CN110161786B (zh) * 2018-02-12 2021-08-31 深圳富泰宏精密工业有限公司 光投射模块、三维影像感测装置及其感测方法
US10916023B2 (en) * 2018-09-14 2021-02-09 Facebook Technologies, Llc Depth measurement assembly with a structured light source and a time of flight camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150090680A (ko) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 카메라 장치
JP2016095460A (ja) * 2014-11-17 2016-05-26 富士フイルム株式会社 撮像レンズおよび撮像レンズを備えた撮像装置
KR20160108076A (ko) * 2015-03-06 2016-09-19 삼성전자주식회사 홍채를 촬영하기 위한 광을 조사하는 방법 및 그 디바이스
KR20170005649A (ko) * 2015-07-06 2017-01-16 엘지전자 주식회사 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기
KR20190000052A (ko) * 2017-06-22 2019-01-02 엘지이노텍 주식회사 광 송출장치 및 이를 이용한 ToF(Time of Flight)모듈

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4024855A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023137994A (ja) * 2022-03-18 2023-09-29 維沃移動通信有限公司 投光装置、測距装置及び電子機器
JP7413426B2 (ja) 2022-03-18 2024-01-15 維沃移動通信有限公司 投光装置、測距装置及び電子機器

Also Published As

Publication number Publication date
CN114303360A (zh) 2022-04-08
US20220329774A1 (en) 2022-10-13
JP2022545748A (ja) 2022-10-28
TW202117385A (zh) 2021-05-01
EP4024855A1 (en) 2022-07-06
KR20220053576A (ko) 2022-04-29
EP4024855A4 (en) 2022-09-28
US11882263B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
WO2018004243A1 (ko) 지문인식 기능을 구비한 디스플레이
WO2019146974A1 (ko) 카메라 모듈
WO2020141827A1 (ko) 광학계 및 이를 포함하는 카메라 모듈
WO2019199101A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
WO2019088353A1 (ko) 액체 렌즈를 포함하는 카메라 모듈 및 광학 기기
WO2019164312A1 (ko) 카메라 모듈 및 그의 초해상도 영상 처리 방법
WO2021040476A1 (ko) Tof 카메라
WO2021071320A1 (ko) 촬상 렌즈
WO2020242177A1 (ko) 카메라 모듈
WO2016137273A1 (ko) 카메라 모듈 및 이를 이용한 자동 초점 조절 방법
WO2018131925A1 (ko) 액체 렌즈의 구동 전압 인가 방법, 액체 렌즈, 카메라 모듈 및 광학 기기
WO2020242039A1 (ko) 액체렌즈
WO2020231222A1 (ko) 카메라 모듈
WO2019146980A1 (ko) 액체 렌즈 모듈, 이를 포함하는 렌즈 어셈블리 및 이 어셈블리를 포함하는 카메라 모듈
WO2023018233A1 (ko) 광학계 및 이를 포함하는 카메라 모듈
WO2017119726A2 (ko) 렌즈모듈 및 이를 포함하는 홍채 인식용 카메라모듈, 홍채 인식 카메라 시스템 및 이를 포함하는 단말기
WO2019177218A1 (ko) 광학 장치
WO2021006592A1 (ko) 액체 렌즈 제어 장치
WO2020145687A1 (ko) 카메라 모듈
WO2018174655A1 (ko) 액체렌즈 및 이를 포함하는 카메라 모듈 및 광학기기
WO2022025677A1 (ko) 거리 측정 카메라
WO2020060321A1 (ko) 카메라 모듈
WO2019225980A1 (ko) 조리개 장치, 카메라, 및 이를 구비하는 단말기
WO2019098793A1 (ko) 카메라 모듈
WO2019225973A1 (ko) 액체 렌즈 및 이를 포함하는 렌즈 어셈블리

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20858087

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022513685

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020858087

Country of ref document: EP

Effective date: 20220330