WO2022154160A1 - 카메라 모듈 - Google Patents

카메라 모듈 Download PDF

Info

Publication number
WO2022154160A1
WO2022154160A1 PCT/KR2021/001921 KR2021001921W WO2022154160A1 WO 2022154160 A1 WO2022154160 A1 WO 2022154160A1 KR 2021001921 W KR2021001921 W KR 2021001921W WO 2022154160 A1 WO2022154160 A1 WO 2022154160A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
emitters
distance
range
lens assembly
Prior art date
Application number
PCT/KR2021/001921
Other languages
English (en)
French (fr)
Inventor
박강열
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020237020723A priority Critical patent/KR20230131829A/ko
Priority to US18/260,061 priority patent/US20240056669A1/en
Priority to EP21919789.4A priority patent/EP4280600A1/en
Priority to CN202180090543.5A priority patent/CN116746144A/zh
Publication of WO2022154160A1 publication Critical patent/WO2022154160A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal

Definitions

  • the embodiment relates to a camera module.
  • 3D contents are applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth map is required to acquire 3D contents.
  • Depth information is information indicating a distance in space, and indicates perspective information of another point with respect to one point of a 2D image.
  • a method of acquiring depth information a method of projecting IR (Infrared) structured light onto an object, a method using a stereo camera, a Time of Flight (TOF) method, and the like are used.
  • IR Infrared
  • TOF Time of Flight
  • the vein pattern can be identified using the camera device equipped with the infrared light source. To this end, after photographing a finger, each finger may be detected by removing the background based on the color and shape of the finger, and a vein pattern of each finger may be extracted from the detected color information of each finger.
  • the average color of the finger, the color of the veins distributed in the finger, and the color of the wrinkles on the finger may be different from each other.
  • the color of the veins distributed in the finger may be weaker than the average color of the finger, and the color of the wrinkles in the finger may be darker than the average color of the finger.
  • a value approximating a vein for each pixel can be calculated, and a vein pattern can be extracted using the calculated result. Then, the individual can be identified by comparing the extracted vein pattern of each finger with the pre-registered data.
  • depth information is acquired through a TOF method or structured light type camera in order to measure size information of an object at a long distance or distance information from an object.
  • a camera that acquires depth information using a TOF method or the like is being used in various fields of application, and the field of application is continuously expanding.
  • a flood illumination pattern is used in an application field requiring high-resolution depth information
  • a spot illumination pattern is used in a field requiring depth information acquisition of a distant object.
  • only one illumination pattern is used. It has a structure that has no choice but to provide. Therefore, it is required to develop a TOF camera that can be used in various fields.
  • An embodiment is to provide a TOF camera module capable of irradiating various lighting patterns on an object by adaptively driving for a photographing purpose.
  • a camera module includes: a light emitting unit for irradiating light of a spot lighting pattern or a flood lighting pattern to an object; and a light receiving unit configured to receive the light reflected by the object, wherein the light emitting unit includes: a light source including a plurality of emitters disposed at predetermined intervals; a lens assembly spaced apart from the upper end of the light source; and a driving module configured to change a distance between the light source and the lens assembly by moving the lens assembly along the optical axis by a predetermined movement distance from the reference distance.
  • the reference distance may be an effective focal length of the lens assembly.
  • the light emitting unit may radiate the light of the flood illumination pattern to the object when the moving distance is within the first range.
  • the first range may be set based on diameters of the plurality of emitters, distances between the plurality of emitters, and divergence angles of the plurality of emitters.
  • the first range DR may be set according to the following equation.
  • P E means a distance between the plurality of emitters
  • D E means diameters of the plurality of emitters
  • ⁇ D means a divergence angle of the plurality of emitters
  • the first range DR may be set according to the following equation.
  • P E means a distance between the plurality of emitters
  • D E means diameters of the plurality of emitters
  • ⁇ D means a divergence angle of the plurality of emitters
  • the light emitting unit may radiate the light of the spot illumination pattern to the object when the moving distance is within the second range.
  • the second range may be 0 to 25 [ ⁇ m].
  • the distance between the plurality of emitters is included in the range of 32.5 to 38.5 [ ⁇ m]
  • the diameters of the plurality of emitters are included in the range of 7.2 to 8.8 [ ⁇ m]
  • the divergence angle of the plurality of emitters is in the range of 15 to 25 can also be included in the range
  • the distance between the plurality of emitters is included in the range of 16.3 to 22.3 [ ⁇ m]
  • the diameters of the plurality of emitters are included in the range of 3.6 to 4.4 [ ⁇ m]
  • the divergence angle of the plurality of emitters is in the range of 13 to 23 may be included in the range.
  • FIG. 1 is a view showing a configuration example of a camera module according to an embodiment of the present invention.
  • FIG. 2 is a view for explaining an optical signal generated by a light emitting unit according to an embodiment of the present invention.
  • FIG. 3 is a view showing a variable lighting pattern according to an embodiment of the present invention.
  • FIG. 4 is a view for explaining a structure of a light emitting unit according to an embodiment of the present invention.
  • 5A and 5B are diagrams for explaining the operation of the light emitting unit when the light of the flood illumination pattern of the present invention is output.
  • 6A and 6B are views illustrating a top surface of a light source including a plurality of emitters.
  • FIG. 7 is a view illustrating a part of a side surface of a light source including a plurality of emitters.
  • FIG. 8 is a view for explaining the operation of the light emitting unit when the light of the spot illumination pattern of the present invention is output.
  • 9A to 9E show simulation results of a camera module according to an embodiment of the present invention.
  • the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as "at least one (or one or more) of A and (and) B, C", it is combined with A, B, C It may include one or more of all possible combinations.
  • a component when it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also with the component It may also include the case of 'connected', 'coupled' or 'connected' due to another element between the other elements.
  • the camera module may refer to a camera or a camera device that extracts depth information using a Time of Flight (ToF) function. Accordingly, the camera module may be used interchangeably with the ToF camera device, the ToF camera module, and the ToF camera.
  • ToF Time of Flight
  • FIG. 1 is a view showing a configuration example of a camera module according to an embodiment of the present invention.
  • the camera module may include a light emitting unit 10 and a light receiving unit 20 , and may further include a control unit 30 .
  • the light emitting unit 10 may be a unit that generates light and then outputs the generated light as an object.
  • the light may be an optical signal.
  • the light emitting unit 10 may include a configuration capable of generating light, such as a light emitting device, and a configuration capable of modulating light.
  • the light may be a modulated optical signal in the form of a pulse wave or a continuous wave.
  • the continuous wave may be in the form of a sinusoid wave or a square wave.
  • the light emitting unit 10 may output light of various patterns.
  • the light emitting unit 10 may output light of a flood illumination pattern.
  • the flood illumination pattern may be referred to as a surface illumination pattern or a surface light source pattern.
  • the light emitting unit 10 may output light of a spot illumination pattern.
  • the spot lighting pattern may be referred to as a point lighting pattern or a point light source pattern. That is, the light emitting unit 10 may irradiate the light of the flood illumination pattern to the object or the light of the spot illumination pattern to the object according to the control signal.
  • the light emitting unit 10 may include a light source 100 , a lens assembly 200 , and a driving module 300 .
  • the light source 100 may include a plurality of emitters.
  • the light source 100 may output light generated through a plurality of emitters.
  • a plurality of emitters may be arranged according to a predetermined rule.
  • the light source 100 may be a vertical-cavity surface-emitting laser (VCSEL) array.
  • VCSEL vertical-cavity surface-emitting laser
  • the lens assembly 200 may condense the light output from the light source 100 .
  • the lens assembly 200 may output focused light.
  • the lens assembly 200 may be disposed to be spaced apart from the upper end of the light source 100 .
  • the upper end of the light source 100 may mean a side from which light is output from the light source 100 .
  • the lens assembly 200 may include at least one lens.
  • the lens assembly 200 may include at least one lens and a housing.
  • the housing may be a frame capable of accommodating at least one lens.
  • the housing may be coupled to the driving module 300 , and the lens assembly 200 may be moved in the optical axis direction by the driving module 300 .
  • the lens assembly 200 may have a predetermined effective focal length (EFL).
  • ETL effective focal length
  • the effective focal length of the lens assembly 200 may be the effective focal length of one lens.
  • the effective focal length of the lens assembly 200 may mean a combined effective focal length of the plurality of lenses.
  • the effective focal length of the lens assembly 200 may be referred to as a reference distance.
  • the driving module 300 may move the lens module along the optical axis direction by a predetermined moving distance from the reference distance. Accordingly, the driving module 300 may change the distance between the light source 100 and the lens assembly 200 by moving the lens module. According to an embodiment of the present invention, the driving module 300 may be coupled to the lens assembly 200 . For example, the driving module 300 may be coupled to a housing included in the lens assembly 200 .
  • the driving module 300 may include an actuator.
  • the actuator may be an actuator based on a voice coil motor (VCM), micro-electro mechanical systems (MEMS), piezo electric (Piezo Electric), or shape memory alloys (SMA).
  • VCM voice coil motor
  • MEMS micro-electro mechanical systems
  • SMA shape memory alloys
  • the actuator may be various means capable of moving the lens assembly 200 .
  • the light receiving unit 20 may detect the light reflected by the object.
  • the light receiving unit 20 may detect the light signal reflected by the object.
  • the sensed light may be light output from the light emitting unit 10 reflected by the object.
  • the light receiving unit 20 may include a lens module, a filter, and a sensor to detect an optical signal.
  • the light reflected from the object may pass through the lens module.
  • the optical axis of the lens module may be aligned with the optical axis of the sensor.
  • the filter may be disposed between the lens module and the sensor.
  • a filter may be disposed on the optical path between the object and the sensor.
  • the filter may filter light having a predetermined wavelength range.
  • a filter may transmit a specific wavelength band of light.
  • a filter can pass light of a specific wavelength.
  • the filter may pass light in the wavelength band of the optical signal output from the light emitting unit 10 .
  • the filter may pass light in the infrared band and block light outside the infrared band. Alternatively, the filter may pass visible light and block light of a wavelength other than visible light.
  • the sensor may sense light.
  • the sensor may receive an optical signal.
  • the sensor may be an image sensor that senses an optical signal.
  • the sensor may detect the optical signal and output it as an electrical signal.
  • the sensor may detect light having a wavelength corresponding to the wavelength of light output from the light emitting device.
  • the sensor may detect light in the infrared band. Alternatively, the sensor may detect light in a visible ray band.
  • the sensor includes a pixel array that converts light passing through the lens module into a corresponding electric signal, a driving circuit that drives a plurality of pixels included in the pixel array, and a readout circuit that reads analog pixel signals of each pixel can do.
  • the readout circuit may generate a digital pixel signal (or an image signal) through analog-to-digital conversion by comparing the analog pixel signal with a reference signal.
  • the digital pixel signal of each pixel included in the pixel array constitutes an image signal, and as the image signal is transmitted in units of frames, it may be defined as an image frame. That is, the image sensor may output a plurality of image
  • the light receiving unit 20 may be disposed side by side with the light emitting unit 10 .
  • the light receiving unit 20 may be disposed next to the light emitting unit 10 .
  • the light receiving unit 20 may be disposed in the same direction as the light emitting unit 10 .
  • the controller 30 may control driving of at least one of the light emitting unit 10 and the light receiving unit 20 .
  • the controller 30 may generate a control signal and may vary an illumination pattern of light output from the light emitting unit 10 through the generated control signal.
  • the controller 30 may be included in the camera module.
  • the controller 30 may be implemented in a form coupled to the substrate of the camera module.
  • the controller 30 may be included in a terminal in which the camera module is disposed.
  • the processing unit 400 may be implemented in the form of an application processor (AP) of a smartphone equipped with a camera module.
  • AP application processor
  • FIG. 2 is a view for explaining an optical signal generated by a light emitting unit according to an embodiment of the present invention.
  • the light emitting unit 10 may generate light pulses at a constant cycle.
  • the light emitting unit 10 may generate an optical pulse having a predetermined pulse width (t pulse ) with a predetermined pulse repetition period (t modulation ).
  • the light emitting unit 10 may generate one phase pulse by grouping a predetermined number of light pulses.
  • the light emitting unit 10 may generate a phase pulse having a predetermined phase pulse period (t phase ) and a predetermined phase pulse width (t exposure , t illumination , t integration ).
  • one phase pulse period t phase may correspond to one subframe.
  • a sub-frame may be referred to as a phase frame.
  • the phase pulse period may be grouped into a predetermined number.
  • a method of grouping four phase pulse periods (t phase ) may be referred to as a 4-phase method.
  • Grouping eight periods (t pphase ) may be referred to as an 8-phase method.
  • the light emitting unit 10 may generate one frame pulse by grouping a predetermined number of phase pulses.
  • the light emitting unit 10 may generate a frame pulse having a predetermined frame pulse period (t frame ) and a predetermined frame pulse width (t phase group (sub-frame group) ).
  • one frame pulse period t frame may correspond to one frame. Accordingly, when an object is photographed at 10 FPS, a frame pulse period (t frame ) of 10 times per second may be repeated.
  • one frame may include four subframes. That is, one frame may be generated through four sub-frames.
  • the 8-phase scheme one frame may include 8 subframes. That is, one frame may be generated through 8 sub-frames.
  • FIG. 3 is a view showing a variable lighting pattern according to an embodiment of the present invention.
  • the camera module according to an embodiment of the present invention may vary an illumination pattern of light irradiated to an object.
  • the illumination pattern may be divided into a flood illumination pattern and a spot illumination pattern.
  • the camera module according to the embodiment of the present invention moves the lens assembly 200 through the driving module 300 to emit light having any one illumination pattern of a flood illumination pattern or a spot illumination pattern to an object. can be investigated
  • the flood illumination pattern may refer to a pattern in which light is uniformly spread in space, as shown in FIG. 3A .
  • uniformity does not mean that the same amount of light is irradiated to the space where the light is irradiated, but may mean that the light is continuously spread in the space.
  • the flood illumination pattern since light is uniformly (continuously) spread in space, when the light of the flood illumination pattern is irradiated to an object, there is an advantage in that high-resolution depth information can be obtained.
  • the precision of depth information may decrease.
  • the output of the light source 100 may be increased, but power consumption is increased and a problem in eye-safety may occur.
  • the spot illumination pattern may refer to a pattern in which light is locally condensed in space, as shown in FIG. 3B . That is, the spot illumination pattern may refer to a pattern in which light is locally focused instead of continuously spreading in space.
  • the spot illumination pattern since light is locally concentrated, the amount of light each spot has is high. Accordingly, there is an advantage in that depth information with high precision can be obtained even if the distance from the object is long. However, as the light is locally concentrated, there is a problem in that the resolution of the depth information is lower than that of the flood illumination pattern.
  • advantages and disadvantages of the flood lighting pattern and the spot lighting pattern may have a complementary relationship. Accordingly, the present invention seeks to maximize the respective advantages by varying the flood lighting pattern and the spot lighting pattern according to the situation.
  • FIG. 4 is a view for explaining a structure of a light emitting unit according to an embodiment of the present invention.
  • FIG. 4A schematically illustrates the structure of the light emitting unit 10 including the light source 100 and the lens assembly 200 .
  • the lens assembly 200 and the light source 100 are disposed to be spaced apart by a predetermined interval, and the predetermined interval does not change. That is, light may be output according to one illumination pattern determined according to the separation distance between the lens assembly 200 and the light source 100 , and it is impossible to change the illumination pattern.
  • the light emitting unit 10 further includes a driving module 300 .
  • FIG. 4B schematically illustrates the structure of the light emitting unit 10 including the light source 100 , the lens assembly 200 , and the driving module 300 .
  • the driving module 300 coupled to the lens assembly 200 is included as shown in FIG. 4B , the driving module 300 moves the lens assembly 200 in the vertical direction (optical axis direction) to generate the light source 100 ) and the distance between the lens assembly 200 may be changed.
  • the illumination pattern of the light irradiated to the object may be changed.
  • the light of the spot illumination pattern may be irradiated to the object.
  • the lens assembly 200 moves by a predetermined distance along the optical axis (that is, when the lens assembly 200 approaches or moves away from the light source 100 by the moving distance based on the reference distance)
  • the flood illumination pattern of light can be irradiated to the object.
  • 5A and 5B are diagrams for explaining the operation of the light emitting unit when the light of the flood illumination pattern of the present invention is output.
  • 6A and 6B are views illustrating a top surface of a light source including a plurality of emitters
  • FIG. 7 is a diagram illustrating a part of a side surface of a light source including a plurality of emitters.
  • 5A illustrates a case in which the lens assembly 200 is moved so that the distance between the light source 100 and the lens assembly 200 is greater than the reference distance by the movement distance.
  • 5B illustrates a case in which the lens assembly 200 is moved so that the distance between the light source 100 and the lens assembly 200 is closer than the reference distance by the movement distance.
  • the reference distance may mean an effective focal length of the lens assembly 200 .
  • the effective focal length of the lens assembly 200 may mean a distance from a principal point to a focal point.
  • the effective focal length may mean a distance from the main point of the single lens to the focal point.
  • the effective focal length may mean a distance from the main point to the focal point of one virtual lens serving as the plurality of lenses.
  • the driving module 300 can change the distance between the light source 100 and the lens assembly 200 by moving the lens assembly 200 along the optical axis direction by a predetermined movement distance from the reference distance. have.
  • the light emitting unit 10 may irradiate the light of the flood illumination pattern to the object. For example, as shown in FIG. 5A , when the lens assembly 200 moves away from the light source 100 by the first movement distance WDS at the reference distance Dref, the light emitting unit 10 emits the light of the flood illumination pattern. can be inspected on an object.
  • the distance from the upper surface of the light source 100 to the main point of the lens assembly 200 may be the sum of the reference distance and the first movement distance. That is, the distance from the upper surface of the light source 100 to the main point of the lens assembly 200 may be the sum of the effective focal length of the lens assembly 200 and the first movement distance.
  • the distance from the upper surface of the light source 100 to the main point of the lens assembly 200 may be a distance obtained by subtracting the first movement distance from the reference distance. That is, the distance from the upper surface of the light source 100 to the main point of the lens assembly 200 may be a distance obtained by subtracting the first movement distance from the effective focal length of the lens assembly 200 .
  • each emitter at the focal plane of the lens assembly 200 is blurred.
  • 5A and 5B illustrate light emitted from three emitters for convenience of explanation, since the light source 100 includes a plurality of emitters, the lights emitted from each emitter overlap each other on the focal plane. it can be seen that As described above, since the light of each emitter overlaps on the focal plane, it can be seen that the light emitting unit 10 irradiates the light of the flood illumination pattern to the object.
  • the actuator device for this purpose is proportionally increased, which causes a problem in that it is difficult to reduce the size and power consumption is increased.
  • the uniformity of light in the focal plane of the lens assembly 200 is lowered, so that the light irradiated to the object has a pattern close to the spot illumination pattern. can occur
  • the light emitting unit 10 may irradiate the light of the flood illumination pattern to the object. That is, when the moving distance of the lens assembly 200 is within the first range, the light irradiated to the object may be used as the flood illumination pattern.
  • the first range may be set based on diameters of the plurality of emitters, distances between the plurality of emitters, and divergence angles of the plurality of emitters.
  • the first range DR may be set according to Equation 1 below.
  • P E may mean a distance between the plurality of emitters
  • D E may mean diameters of the plurality of emitters
  • ⁇ D may mean a divergence angle of the plurality of emitters.
  • the first range DR may be set according to Equation 2 below.
  • P E may mean a distance between the plurality of emitters
  • D E may mean diameters of the plurality of emitters
  • ⁇ D may mean a divergence angle of the plurality of emitters.
  • the first range according to Equation (2) includes the first range according to Equation (1).
  • a plurality of emitters may be arranged according to a certain rule. As illustrated in FIG. 6A , the plurality of emitters may be arranged in a square-shaped pattern, or as illustrated in FIG. 6B , the plurality of emitters may be arranged in an equilateral triangle-shaped pattern. This is exemplary, and the plurality of emitters may be arranged in various types of patterns.
  • a plurality of emitters may be arranged with a constant pitch from each other.
  • a distance between a plurality of emitters in the present invention means a distance between emitters closest to each other.
  • the distance between a plurality of emitters in the present invention means a distance between the centers of the nearest emitters from the center of any one emitter.
  • a distance between a plurality of emitters is a distance between a first emitter (e1) and a second emitter (e2), and a distance between a second emitter (e2) and a third emitter (e3).
  • e1 a distance between a first emitter (e1) and a second emitter (e2), and a distance between a second emitter (e2) and a third emitter (e3).
  • e3 means the distance between the third emitter e3 and the fourth emitter e4 and the distance between the fourth emitter e4 and the first emitter e1 .
  • the first emitter (e1), the second emitter (e2), the third emitter (e3), and the fourth emitter (e4) are arranged according to a square pattern, the first emitter (e1) and the second emitter (e1)
  • the distance P E between the emitters e2 is the distance between the second emitter e2 and the third emitter e3, the distance between the third emitter e3 and the fourth emitter e4 , may be equal to the distance between the fourth emitter e4 and the first emitter e1 .
  • the distance between the plurality of emitters does not include the distance between the first emitter e1 and the third emitter e3 and the distance between the second emitter e2 and the fourth emitter e4 .
  • the emitters disposed closest to the first emitter e1 are the second emitters e2 and the fourth emitters e4, and the emitters disposed closest to the second emitter e2 are the first emitters. This is because the emitter (e1) and the third emitter (e3) are.
  • the plurality of emitters may have a constant diameter (D E ).
  • D E constant diameter
  • the plurality of emitters may have a predetermined diameter, and the diameters of each of the plurality of emitters may be the same.
  • the plurality of emitters may have a predetermined divergence angle ( ⁇ D ). As shown in FIG. 7 , light output from one emitter may be output while spreading at a predetermined angle. In this case, the angle at which the light output from the emitter spreads may be the divergence angle. According to an embodiment, the plurality of emitters may have the same divergence angle.
  • the distance between the plurality of emitters is included in the range of 32.5 to 38.5 [ ⁇ m]
  • the diameters of the plurality of emitters are included in the range of 7.2 to 8.8 [ ⁇ m]
  • the divergence angle of the plurality of emitters is It may be included in the range of 15 to 25 degrees.
  • the distance between the plurality of emitters may be 35.5 [ ⁇ m]
  • the diameters of the plurality of emitters may be 8 [ ⁇ m]
  • the divergence angle of the plurality of emitters may be 20 degrees.
  • the first range may be in the range of 279.3 [ ⁇ m] to 400.1 [ ⁇ m].
  • the light emitting unit 10 irradiates the light of the flood illumination pattern to the object. can do.
  • the first range may be in the range of 218.9 [ ⁇ m] to 400.1 [ ⁇ m]. That is, when the lens assembly 200 moves 218.9 [ ⁇ m] to 400. can do.
  • the distance between the plurality of emitters is included in the range of 16.3 to 22.3 [ ⁇ m]
  • the diameters of the plurality of emitters are included in the range of 3.6 to 4.4 [ ⁇ m]
  • the divergence angles of the plurality of emitters are included in the range of 3.6 to 4.4 [ ⁇ m] may be included in the range of 13 to 23 degrees.
  • the distance between the plurality of emitters may be 19.3 [ ⁇ m]
  • the diameters of the plurality of emitters may be 4 [ ⁇ m]
  • the divergence angle of the plurality of emitters may be 18 degrees.
  • the first range may be in the range of 169.9 [ ⁇ m] to 243 [ ⁇ m].
  • the first range may be in the range of 133.4 [ ⁇ m] to 243 [ ⁇ m]. That is, when the lens assembly 200 moves 133.4 [ ⁇ m] to 243 [ ⁇ m] from the reference distance in the direction toward or away from the light source 100, the light emitting unit 10 irradiates the light of the flood illumination pattern to the object. can do.
  • FIG. 8 is a view for explaining the operation of the light emitting unit when the light of the spot illumination pattern of the present invention is output.
  • the light emitting unit 10 when the distance between the lens assembly 200 and the light source 100 is the reference distance (ie, the effective focal length of the lens assembly 200), the light emitting unit 10 emits the light of the spot illumination pattern to the object.
  • the light emitting unit 10 can irradiate the light of the spot illumination pattern to the object when the distance between the upper surface of the light source 100 and the main point of the lens assembly 200 is the reference distance. have.
  • the light emitting unit 10 may irradiate the light of the spot illumination pattern to the object when the moving distance of the lens assembly 200 is within the second range.
  • the second range may be within 25 [ ⁇ m].
  • the second range may range from 0 to 25 [ ⁇ m]. That is, when the lens assembly 200 moves within 25 [ ⁇ m] along the optical axis direction from the reference distance, the light emitting unit 10 may irradiate the light of the spot illumination pattern to the object.
  • 9A to 9E show simulation results of a camera module according to an embodiment of the present invention.
  • FIG. 9A illustrates an illumination pattern of light when the distance between the lens assembly 200 and the light source 100 is the reference distance or the movement distance of the lens assembly 200 is within the second range. As shown in FIG. 9A , in this case, it can be seen that the light emitting unit 10 irradiates the light of the spot illumination pattern to the object.
  • FIG. 9B illustrates an illumination pattern of light when the moving distance of the lens assembly 200 is greater than the second range and smaller than the first range shown in Equation (2).
  • the light emitting unit 10 irradiates the light of the illumination pattern having a large spot area to the object.
  • Such an illumination pattern is an intermediate form between a spot illumination pattern and a flood illumination pattern, and it may be difficult to use either a spot illumination pattern or a flood illumination pattern.
  • FIG. 9C illustrates an illumination pattern of light when the moving distance of the lens assembly 200 corresponds to the minimum value in the first range shown in Equation (2).
  • the light emitting unit 10 irradiates the light of the flood illumination pattern to the object.
  • the flood illumination pattern forms a somewhat spot pattern due to the difference in light quantity, but unlike FIGS. 9A and 9B, since light has a continuous illumination pattern in space, it can be used as a flood illumination pattern. .
  • FIG. 9D illustrates an illumination pattern of light when the moving distance of the lens assembly 200 is between the minimum value of the first range shown in Equation 2 and the minimum value of the first range shown in Equation 1;
  • the light emitting unit 10 irradiates the light of the flood illumination pattern to the object.
  • the flood illumination pattern continuous light is uniformly illuminated in space compared to FIG. 9C , and thus, the camera module can generate a higher quality depth image compared to the illumination pattern of FIG. 9C .
  • FIG. 9E illustrates an illumination pattern of light when the moving distance of the lens assembly 200 falls within the first range shown in Equation (1).
  • the light emitting unit 10 irradiates the light of the flood illumination pattern to the object.
  • continuous light is uniformly illuminated in space to such an extent that the shape of the dot pattern cannot be seen in the flood illumination pattern, so that the camera module can generate a high quality depth image compared to the illumination pattern of FIGS. 9C and 9D .

Abstract

본 발명의 실시예에 따른 카메라 모듈은 스팟(spot) 조명 패턴 또는 플루드(flood) 조명 패턴의 빛을 객체에 조사하는 발광부; 및 상기 객체에 반사된 빛을 수광하는 수광부;를 포함하며, 상기 발광부는, 소정의 간격으로 배치된 복수의 에미터를 포함하는 광원; 상기 광원의 상단에 이격되어 배치되는 렌즈 어셈블리; 그리고 기준 거리에서 소정의 이동 거리만큼 광축 방향에 따라 상기 렌즈 어셈블리를 이동시켜 상기 광원과 상기 렌즈 어셈블리 사이의 거리를 가변하는 구동 모듈;을 포함한다.

Description

카메라 모듈
실시 예는 카메라 모듈에 관한 것이다.
3차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다.
이러한 TOF 방식이나 구조광 방식의 경우 적외선 파장 영역의 빛을 이용하고 있는데, 최근에는 적외선 파장 영역의 특징을 이용하여 생체 인증에 이용하고자 하는 시도가 있다. 예를 들어, 손가락 등에 퍼진 정맥의 모양은 태아 때부터 일생 동안 변하지 않고, 사람마다 다르다고 알려져 있다. 이에 따라, 적외선 광원이 탑재된 카메라 장치를 이용하여 정맥 패턴을 식별할 수 있다. 이를 위하여, 손가락을 촬영한 후, 손가락의 색과 형상을 기반으로 배경을 제거하여 각 손가락을 검출할 수 있으며, 검출된 각 손가락의 색 정보로부터 각 손가락의 정맥 패턴을 추출할 수 있다. 즉, 손가락의 평균 색깔, 손가락에 분포된 정맥의 색깔, 및 손가락에 있는 주름의 색깔은 서로 상이할 수 있다. 예를 들어, 손가락에 분포된 정맥의 색깔은 손가락의 평균 색깔에 비하여 적색이 약할 수 있으며, 손가락에 있는 주름의 색깔은 손가락의 평균 색깔에 비하여 어두울 수 있다. 이러한 특징을 이용하여 픽셀 별로 정맥에 근사한 값을 계산할 수 있으며, 계산한 결과를 이용하여 정맥 패턴을 추출할 수 있다. 그리고, 추출된 각 손가락의 정맥 패턴과 미리 등록된 데이터를 대비하여 개인을 식별할 수 있다. 이외에도 먼 거리에 있는 객체의 크기 정보나 객체와의 거리 정보를 측정하기 위하여 TOF 방식이나 구조광 방식의 카메라를 통해 깊이 정보를 획득하기도 한다.
이와 같이, TOF 방식 등을 이용하여 깊이 정보를 획득하는 카메라는 다양한 활용 분야에서 이용되고 있으며, 계속하여 활용 분야가 넓어지고 있는 추세이다.
하지만, 종래 TOF 카메라의 경우에는 어느 하나의 활용 분야에 특화된 구조로 개발되어 있어, 하나의 TOF 카메라로 다양한 분야에서 활용이 어렵다는 문제점이 있다. 예를 들어, 높은 해상도의 깊이 정보가 필요한 활용 분야에서는 플루드 조명 패턴이 이용되고, 원거리 사물의 깊이 정보 획득이 필요한 분야에서는 스팟 조명 패턴이 이용되는데, 종래 TOF 카메라의 경우에는 어느 하나의 조명 패턴만을 제공할 수밖에 없는 구조를 가지고 있는 실정이다. 따라서, 다양한 분야에서 활용이 가능한 TOF 카메라의 개발이 요구된다.
실시 예는 촬영 목적에 적응적으로 구동하여 다양한 조명 패턴을 객체에 조사할 수 있는 TOF 카메라 모듈을 제공하는데 있다.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.
본 발명의 실시예에 따른 카메라 모듈은 스팟(spot) 조명 패턴 또는 플루드(flood) 조명 패턴의 빛을 객체에 조사하는 발광부; 및 상기 객체에 반사된 빛을 수광하는 수광부;를 포함하며, 상기 발광부는, 소정의 간격으로 배치된 복수의 에미터를 포함하는 광원; 상기 광원의 상단에 이격되어 배치되는 렌즈 어셈블리; 그리고 기준 거리에서 소정의 이동 거리만큼 광축 방향에 따라 상기 렌즈 어셈블리를 이동시켜 상기 광원과 상기 렌즈 어셈블리 사이의 거리를 가변하는 구동 모듈;을 포함한다.
상기 기준 거리는, 상기 렌즈 어셈블리의 유효 초점 거리일 수 있다.
상기 발광부는, 상기 이동 거리가 제1 범위 이내에 포함되면, 상기 플루드 조명 패턴의 빛을 객체에 조사할 수 있다.
상기 제1 범위는, 상기 복수의 에미터의 직경, 상기 복수의 에미터 사이의 거리, 상기 복수의 에미터의 발산각에 기초하여 설정될 수 있다.
상기 제1 범위(DR)는, 아래의 수학식에 따라 설정될 수 있다.
Figure PCTKR2021001921-appb-img-000001
여기서, 상기 P E는 상기 복수의 에미터 사이의 거리를 의미하고, 상기 D E는 상기 복수의 에미터의 직경을 의미하고, 상기 θ D는 상기 복수의 에미터의 발산각을 의미한다.
상기 제1 범위(DR)는, 아래의 수학식에 따라 설정될 수 있다.
Figure PCTKR2021001921-appb-img-000002
여기서, 상기 P E는 상기 복수의 에미터 사이의 거리를 의미하고, 상기 D E는 상기 복수의 에미터의 직경을 의미하고, 상기 θ D는 상기 복수의 에미터의 발산각을 의미한다.
상기 발광부는, 상기 이동 거리가 제2 범위 이내에 포함되면, 상기 스팟 조명 패턴의 빛을 객체에 조사할 수 있다.
상기 제2 범위는, 0 내지 25[μm]일 수 있다.
상기 복수의 에미터 사이의 거리는 32.5 내지 38.5[μm] 범위에 포함되고, 상기 복수의 에미터의 직경은 7.2 내지 8.8[μm] 범위에 포함되고, 상기 복수의 에미터의 발산각은 15 내지 25도 범위에 포함될 수 있다
상기 복수의 에미터 사이의 거리는 16.3 내지 22.3[μm] 범위에 포함되고, 상기 복수의 에미터의 직경은 3.6 내지 4.4[μm] 범위에 포함되고, 상기 복수의 에미터의 발산각은 13 내지 23도 범위에 포함될 수 있다.
도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성예를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 발광부가 생성하는 광신호를 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 가변되는 조명 패턴을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 발광부의 구조를 설명하기 위한 도면이다.
도 5a 및 도 5b는 본 발명의 플루드 조명 패턴의 빛이 출력될 경우 발광부의 동작을 설명하기 위한 도면이다.
도 6a 및 도 6b는 복수의 에미터를 포함하는 광원의 상면을 도시한 도면이다.
도 7은 복수의 에미터를 포함하는 광원의 측면의 일부를 도시한 도면이다.
도 8은 본 발명의 스팟 조명 패턴의 빛이 출력될 경우 발광부의 동작을 설명하기 위한 도면이다.
도 9a 내지 도 9e는 본 발명의 실시예에 따른 카메라 모듈의 시뮬레이션 결과를 나타낸다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
본 발명의 실시예에 따른 카메라 모듈은 ToF(Time of Flight) 기능을 이용하여 깊이 정보를 추출하는 카메라 또는 카메라 장치를 의미할 수 있다. 따라서, 카메라 모듈은 ToF 카메라 장치, ToF 카메라 모듈, ToF 카메라와 혼용될 수 있다.
도 1은 본 발명의 실시예에 따른 카메라 모듈의 구성예를 나타낸 도면이다.
도 1에 도시된 것처럼, 본 발명의 실시예에 따른 카메라 모듈은 발광부(10) 및 수광부(20)를 포함할 수 있고, 제어부(30)를 더 포함할 수 있다.
발광부(10)는 빛을 생성한 후 생성된 빛을 객체로 출력하는 유닛일 수 있다. 빛은 광신호일 수 있다. 이를 위해, 발광부(10)는 발광 소자와 같이 빛을 생성할 수 있는 구성, 빛을 모듈레이션(modulation) 할 수 있는 구성을 포함할 수 있다. 빛은 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 모듈레이션 된 광신호일 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다.
발광부(10)는 다양한 패턴의 빛을 출력할 수 있다. 일예로, 발광부(10)는 플루드(flood) 조명 패턴의 빛을 출력할 수 있다. 플루드 조명 패턴은 면 조명 패턴이나 면 광원 패턴으로 불릴 수 있다. 다른 일예로, 발광부(10)는 스팟(spot) 조명 패턴의 빛을 출력할 수 있다. 스팟 조명 패턴은 점 조명 패턴이나 점 광원 패턴으로 불릴 수 있다. 즉, 발광부(10)는 제어 신호에 따라 플루드 조명 패턴의 빛을 객체에 조사하거나 스팟 조명 패턴의 빛을 객체에 조사할 수 있다.
이를 위해, 발광부(10)는 광원(100), 렌즈 어셈블리(200) 및 구동 모듈(300)을 포함할 수 있다.
광원(100)은 복수의 에미터(emitter)를 포함할 수 있다. 광원(100)은 복수의 에미터를 통해 생성된 빛을 출력할 수 있다. 복수의 에미터는 소정의 규칙에 따라 배열될 수 있다. 광원(100)은 VCSEL(vertical-cavity surface-emitting laser) 어레이일 수 있다.
렌즈 어셈블리(200)는 광원(100)으로부터 출력된 빛을 집광할 수 있다. 렌즈 어셈블리(200)는 집광된 빛을 출력할 수 있다. 렌즈 어셈블리(200)는 광원(100)의 상단에 이격되어 배치될 수 있다. 여기서, 광원(100)의 상단이란 광원(100)에서 빛이 출력되는 측을 의미할 수 있다. 렌즈 어셈블리(200)는 적어도 하나의 렌즈를 포함할 수 있다.
렌즈 어셈블리(200)는 적어도 하나의 렌즈와 하우징을 포함할 수 있다. 하우징은 적어도 하나의 렌즈를 수용할 수 있는 프레임일 수 있다. 일 실시예에 따르면, 하우징은 구동 모듈(300)과 결합될 수 있으며, 렌즈 어셈블리(200)는 구동 모듈(300)에 의해 광축 방향으로 이동할 수 있다.
렌즈 어셈블리(200)는 소정의 유효 초점 거리(Effective Focal Length, EFL)를 가질 수 있다. 렌즈 어셈블리(200)가 하나의 렌즈를 포함할 경우, 렌즈 어셈블리(200)의 유효 초점 거리는 하나의 렌즈의 유효 초점 거리일 수 있다. 렌즈 어셈블리(200)가 복수의 렌즈를 포함할 경우, 렌즈 어셈블리(200)의 유효 초점 거리는 복수의 렌즈의 합성된 유효 초점 거리를 의미할 수 있다. 본 발명에서 렌즈 어셈블리(200)의 유효 초점 거리는 기준 거리로 명명될 수 있다.
구동 모듈(300)은 기준 거리로부터 소정의 이동 거리만큼 광축 방향에 따라 렌즈 모듈을 이동시킬 수 있다. 이에 따라, 구동 모듈(300)은 렌즈 모듈을 이동시켜 광원(100)과 렌즈 어셈블리(200) 사이의 거리를 가변할 수 있다. 본 발명의 실시예에 따르면, 구동 모듈(300)은 렌즈 어셈블리(200)와 결합될 수 있다. 예를 들어, 구동 모듈(300)은 렌즈 어셈블리(200)에 포함된 하우징과 결합될 수 있다.
일 실시예에 따르면, 구동 모듈(300)은 엑추에이터을 포함할 수 있다. 엑추에이터는 보이스 코일 모터(voice coil motor, VCM), MEMS(Micro-Electro Mechanical Systems), 피에조 전기(Piezo Electric) 또는 형상기억합금(Shape Memory Alloys, SMA) 기반의 엑추에이터일 수 있다. 이외에도, 엑추에이터는 렌즈 어셈블리(200)를 이동시킬 수 있는 다양한 수단일 수 있다.
수광부(20)는 객체에 반사된 빛을 감지할 수 있다. 수광부(20)는 객체에 반사된 광신호를 감지할 수 있다. 이때, 감지되는 빛은 발광부(10)가 출력한 빛이 객체에 반사된 것일 수 있다. 수광부(20)는 광신호를 감지하기 위하여 렌즈 모듈, 필터 및 센서를 포함할 수 있다.
객체로부터 반사된 빛은 렌즈 모듈을 통과할 수 있다. 렌즈 모듈의 광축은 센서의 광축과 얼라인(align)될 수 있다. 필터는 렌즈 모듈과 센서 사이에 배치될 수 있다. 필터는 객체와 센서 사이의 광경로 상에 배치될 수 있다. 필터는 소정 파장 범위를 갖는 빛을 필터링할 수 있다. 필터는 빛의 특정 파장 대역을 투과시킬 수 있다. 필터는 특정 파장의 빛을 통과시킬 수 있다. 예를 들어, 필터는 발광부(10)가 출력하는 광신호의 파장 대역에서 빛을 통과시킬 수 있다. 필터는 적외선 대역의 빛을 통과시키고 적외선 대역 이외의 빛을 차단시킬 수 있다. 또는, 필터는 가시광선을 통과시키고 가시광선 이외의 파장의 빛을 차단시킬 수 있다. 센서는 빛을 센싱할 수 있다. 센서는 광신호를 수신할 수 있다. 센서는 광신호를 센싱하는 이미지 센서일 수 있다. 센서는 광신호를 감지하여 전기적 신호로 출력할 수 있다. 센서는 발광 소자에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 센서는 적외선 대역의 빛을 감지할 수 있다. 또는, 센서는 가시광선 대역의 빛을 감지할 수 있다. 센서는 렌즈 모듈을 통과한 빛을 대응하는 전기 신호로 변환하는 픽셀 어레이, 픽셀 어레이에 포함된 복수의 픽셀을 구동하는 구동 회로 및 각 픽셀의 아날로그 픽셀 신호를 리드(read)하는 리드아웃회로를 포함할 수 있다. 리드아웃회로는 아날로그 픽셀 신호를 기준 신호와 비교하여 아날로그-디지털 변환을 통해 디지털 픽셀 신호(또는 영상 신호)를 생성할 수 있다. 여기서, 픽셀 어레이에 포함된 각 픽셀의 디지털 픽셀 신호는 영상 신호를 구성하며, 영상 신호는 프레임 단위로 전송됨에 따라 이미지 프레임으로 정의될 수 있다. 즉, 이미지 센서는 복수의 이미지 프레임을 출력할 수 있다.
수광부(20)는 발광부(10)와 나란히 배치될 수 있다. 수광부(20)는 발광부(10) 옆에 배치될 수 있다. 수광부(20)는 발광부(10)와 같은 방향으로 배치될 수 있다.
제어부(30)는 발광부(10) 및 수광부(20) 중 적어도 하나의 구동을 제어할 수 있다. 일 실시예로, 제어부(30)는 제어 신호를 생성하고, 생성된 제어 신호를 통해 발광부(10)에서 출력되는 빛의 조명 패턴을 가변시킬 수 있다. 일 실시예로, 제어부(30)는 카메라 모듈에 포함될 수 있다. 예를 들어, 제어부(30)는 카메라 모듈의 기판에 결합된 형태로 구현될 수 있다. 다른 실시예로, 제어부(30)는 카메라 모듈이 배치된 단말에 포함될 수도 있다. 예를 들어, 처리부(400)는 카메라 모듈이 탑재된 스마트폰의 어플리케이션 프로세서(Application Processor, AP)의 형태로 구현될 수 있다.
도 2는 본 발명의 실시예에 따른 발광부가 생성하는 광신호를 설명하기 위한 도면이다.
도 2의 (a)에 도시된 것처럼, 발광부(10)는 일정한 주기로 광 펄스를 생성할 수 있다. 발광부(10)는 소정의 펄스 반복 주기(t modulation)로 소정의 펄스 폭(t pulse)을 가지는 광 펄스를 생성할 수 있다.
도 2의 (b)에 도시된 것처럼, 발광부(10)는 일정 개수의 광 펄스를 그룹핑(grouping)하여 하나의 위상 펄스를 생성할 수 있다. 발광부(10)는 소정의 위상 펄스 주기(t phase)와 소정의 위상 펄스 폭(t exposure, t illumination, t integration)을 가지는 위상 펄스를 생성할 수 있다. 여기서, 하나의 위상 펄스 주기(t phase)는 하나의 서브 프레임에 대응할 수 있다. 서브 프레임(sub-frame)은 위상 프레임(phase frame)으로 불릴 수 있다. 위상 펄스 주기는 소정의 개수로 그룹핑 될 수 있다. 4개의 위상 펄스 주기(t phase)를 그룹핑하는 방식은 4-phase 방식으로 불릴 수 있다. 8개의 주기(t pphase)를 그룹핑하는 것은 8-phase 방식으로 불릴 수 있다.
도 2의 (c)에 도시된 것처럼, 발광부(10)는 일정 개수의 위상 펄스를 그룹핑하여 하나의 프레임 펄스를 생성할 수 있다. 발광부(10)는 소정의 프레임 펄스 주기(t frame)와 소정의 프레임 펄스 폭(t phase group(sub-frame group))을 가지는 프레임 펄스를 생성할 수 있다. 여기서, 하나의 프레임 펄스 주기(t frame)는 하나의 프레임에 대응할 수 있다. 따라서, 10 FPS로 객체를 촬영하는 경우, 1초에 10번의 프레임 펄스 주기(t frame)가 반복될 수 있다. 4-pahse 방식에서, 하나의 프레임에는 4개의 서브 프레임이 포함될 수 있다. 즉, 하나의 프레임은 4개의 서브 프레임을 통해 생성될 수 있다. 8-phase 방식에서, 하나의 프레임에는 8개의 서브 프레임이 포함될 수 있다. 즉, 하나의 프레임은 8개의 서브 프레임을 통해 생성될 수 있다.
상기에서 설명을 위해, 광 펄스, 위상 펄스 및 프레임 펄스의 용어를 이용하였으나, 이에 한정되지 않는다.
도 3은 본 발명의 실시예에 따른 가변되는 조명 패턴을 나타낸 도면이다.
도 3을 참조하면, 본 발명의 실시예에 따른 카메라 모듈은 객체에 조사되는 빛의 조명 패턴을 가변할 수 있다. 조명 패턴은 플루드 조명 패턴과 스팟 조명 패턴으로 구분될 수 있다. 일 실시예에 따르면, 본 발명의 실시예에 따른 카메라 모듈은 구동 모듈(300)을 통해 렌즈 어셈블리(200)를 이동시킴으로써 플루드 조명 패턴 또는 스팟 조명 패턴 중 어느 하나의 조명 패턴을 가진 빛을 객체에 조사할 수 있다.
플루드 조명 패턴은 도 3의 (a)와 같이, 빛이 공간상에 균일하게 퍼져 있는 패턴을 의미할 수 있다. 여기서 균일하다고 함은 빛이 조사되는 공간에 동일한 광량이 조사됨을 의미하는 것이 아니라, 빛이 공간상에 연속적으로 퍼져 있음을 의미할 수 있다. 플루드 조명 패턴의 경우에는 빛이 공간상에 균일하게(연속적으로) 퍼지므로, 풀루드 조명 패턴의 빛을 객체에 조사할 경우, 높은 해상도의 깊이 정보를 획득할 수 있는 장점이 있다. 다만, 빛이 공간상에 균일하게 퍼지게 되므로 수광량이 적어 객체와의 거리가 멀어질수록 깊이 정보의 정밀도(precision)가 떨어질 수 있다. 정밀도를 높이기 위해서는 광원(100)의 출력을 높일 수 있으나, 소비 전력이 높아지고 안전성(eye-safety)에 문제가 발생할 수 있어 문제된다.
반면, 스팟 조명 패턴은 도 3의 (b)와 같이, 빛이 공간상에 국소적으로 집광되는 패턴을 의미할 수 있다. 즉, 스팟 조명 패턴은 빛이 공간상에 연속적으로 퍼지지 않고 국소적으로 집중되는 패턴을 의미할 수 있다. 스팟 조명 패턴의 경우에는 빛이 국소적으로 집중되므로 각 스팟이 가지는 광량이 높다. 이에 따라, 객체와의 거리가 멀더라도 정밀도가 높은 깊이 정보를 획득할 수 있는 장점이 있다. 다만, 빛이 국소적으로 집중됨에 따라, 플루드 조명 패턴에 비해 깊이 정보의 해상도가 낮다는 문제점이 있다.
이와 같이, 플루드 조명 패턴과 스팟 조명 패턴은 장점과 단점이 상호보완적인 관계를 가질 수 있다. 이에 따라, 본 발명은 플루드 조명 패턴과 스팟 조명 패턴을 상황에 따라 가변함으로써 각각의 장점을 극대화하고자 한다.
도 4는 본 발명의 실시예에 따른 발광부의 구조를 설명하기 위한 도면이다.
도 4의 (a)는 광원(100)과 렌즈 어셈블리(200)를 포함하는 발광부(10)의 구조를 개략적으로 도시하고 있다. 도 4의 (a)와 같이 구동 부재가 없는 경우, 렌즈 어셈블리(200)와 광원(100)은 일정한 간격만큼 이격되어 배치되며, 일정한 간격은 변하지 않는다. 즉, 렌즈 어셈블리(200)와 광원(100) 사이의 이격 거리에 따라 결정되는 한 가지의 조명 패턴에 따라 빛을 출력할 수 있으며, 조명 패턴의 가변은 불가하다.
이에 반해, 본 발명의 실시예에 따른 발광부(10)는 구동 모듈(300)을 더 포함한다. 도 4의 (b)는 광원(100), 렌즈 어셈블리(200) 및 구동 모듈(300)을 포함하는 발광부(10)의 구조를 개략적으로 도시하고 있다. 도 4의 (b)와 같이 렌즈 어셈블리(200)와 결합된 구동 모듈(300)을 포함할 경우, 구동 모듈(300)은 렌즈 어셈블리(200)를 상하방향(광축 방향)으로 이동시킴으로써 광원(100)과 렌즈 어셈블리(200) 사이의 이격된 간격을 변경할 수 있다. 렌즈 어셈블리(200)와 광원(100) 사이의 이격된 간격이 변경됨에 따라 객체에 조사되는 빛의 조명 패턴이 변경될 수 있다. 실시예에 따르면, 광원(100)과 렌즈 어셈블리(200) 사이의 간격이 기준 거리인 경우에는 스팟 조명 패턴의 빛이 객체에 조사될 수 있다. 반면, 렌즈 어셈블리(200)가 광축을 따라 소정의 거리만큼 이동하게 되면(즉, 렌즈 어셈블리(200)가 기준 거리를 기준으로 이동 거리만큼 광원(100)에 가까워지거나 멀어지게 되면), 플루드 조명 패턴의 빛이 객체에 조사될 수 있다.
도 5a 및 도 5b는 본 발명의 플루드 조명 패턴의 빛이 출력될 경우 발광부의 동작을 설명하기 위한 도면이다. 도 6a 및 도 6b는 복수의 에미터를 포함하는 광원의 상면을 도시한 도면이고, 도 7은 복수의 에미터를 포함하는 광원의 측면의 일부를 도시한 도면이다.
도 5a는 광원(100)과 렌즈 어셈블리(200) 사이의 거리가 기준 거리보다 이동 거리만큼 멀어지도록 렌즈 어셈블리(200)를 이동시킨 경우를 나타낸다. 도 5b는 광원(100)과 렌즈 어셈블리(200) 사이의 거리가 기준 거리보다 이동거리만큼 가까워지도록 렌즈 어셈블리(200)를 이동시킨 경우를 나타낸다.
여기서, 기준 거리는 렌즈 어셈블리(200)의 유효 초점 거리를 의미할 수 있다. 렌즈 어셈블리(200)의 유효 초점 거리는 주점(principle point)에서 초점(focal point)까지의 거리를 의미할 수 있다. 렌즈 어셈블리(200)가 1매의 렌즈로 구성된 경우, 유효 초점 거리는 1매의 렌즈의 주점에서 초점까지의 거리를 의미할 수 있다. 렌즈 어셈블리(200)가 복수 매의 렌즈로 구성된 경우, 유효 초점 거리는 복수 매의 렌즈와 같은 역할을 하는 1매의 가상의 렌즈의 주점에서 초점까지의 거리를 의미할 수 있다.
본 발명의 실시예에 따른 구동 모듈(300)은 기준 거리에서 소정의 이동 거리만큼 광축 방향에 따라 렌즈 어셈블리(200)를 이동시켜 광원(100)과 렌즈 어셈블리(200) 사이의 거리를 가변할 수 있다. 렌즈 어셈블리(200)가 기준 거리에서 제1 이동 거리만큼 광원(100)으로부터 멀어지거나 가까워지면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다. 예를 들어, 도 5a에 도시된 것처럼, 렌즈 어셈블리(200)가 기준 거리(Dref)에서 제1 이동 거리(WDS)만큼 광원(100)으로부터 멀어지면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다. 이때, 광원(100)의 상부면에서 렌즈 어셈블리(200)의 주점까지 거리는 기준 거리와 제1 이동 거리를 합산한 거리일 수 있다. 즉, 광원(100)의 상부면에서 렌즈 어셈블리(200)의 주점까지 거리는 렌즈 어셈블리(200)의 유효 초점 거리와 제1 이동 거리를 합산한 거리일 수 있다. 다른 예로, 도 5b에 도시된 것처럼, 렌즈 어셈블리(200)가 기준거리(Dref)에서 제1 이동 거리(WDS)만큼 광원(100)으로부터 가까워지면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다. 이때, 광원(100)의 상부면에서 렌즈 어셈블리(200)의 주점까지 거리는 기준 거리에서 제1 이동 거리를 뺀 거리일 수 있다. 즉, 광원(100)의 상부면에서 렌즈 어셈블리(200)의 주점까지 거리는 렌즈 어셈블리(200)의 유효 초점 거리에서 제1 이동 거리를 뺀 거리일 수 있다.
도 5a 및 도 5b를 참조하면, 렌즈 어셈블리(200)의 초점면에서 각 에미터가 발산한 빛이 블러(blur)됨을 알 수 있다. 도 5a 및 도 5b에서는 설명의 편의를 위해 3개의 에미터에서 발산되는 빛을 도시하고 있으나, 광원(100)은 다수의 에미터를 포함하므로, 초점면에서는 각 에미터가 발산한 빛들이 서로 중첩됨을 알 수 있다. 이와 같이, 초점면에서 각 에미터의 빛이 중첩되므로, 발광부(10)가 플루드 조명 패턴의 빛을 객체에 조사함을 알 수 있다. 다만, 플루드 조명 패턴의 빛이 ToF 카메라 장치 등에 이용되기 위해서는 일정한 밝기 균일도가 요구되는바, 이는 각 에미터에서 출력되는 빛이 렌즈 어셈블리(200)의 초점면에서 중첩되는 분포에 따라 결정되는바, 렌즈 어셈블리(200)가 어느 정도 거리(즉, 제1 이동 거리)를 이동을 해야 하는지가 매우 중요하다. 만약, 렌즈 어셈블리(200)의 제1 이동 거리가 너무 크게 되면, 발광부(10)의 FOI(Field Of Illumination)의 외곽 부분에서 빛의 기울기가 완만해지게 된다. 이에 따라, FOI의 외곽 부분에 불필요한 빛이 조사되며, 이는 빛의 손실을 일으키게 된다. 또한, 렌즈 어셈블리(200)의 이동 거리가 크게 될 경우, 이를 위한 엑추에이터 장치 등이 비례하여 커지게 되는바, 소형화가 어렵고 소비 전력이 높아지는 문제가 발생한다. 반대로, 렌즈 어셈블리(200)의 제1 이동 거리가 너무 작게 되면, 렌즈 어셈블리(200)의 초점면에서 빛의 균일도가 떨어지게 되므로, 객체에 조사되는 빛은 스팟 조명 패턴에 가까운 패턴을 띄게 되는 문제점이 발생할 수 있다.
발광부(10)는 이동 거리가 제1 범위 이내에 포함되면, 플루드 조명 패턴의 빛을 객체에 조사할 수 있다. 즉, 렌즈 어셈블리(200)의 이동 거리가 제1 범위 이내이면, 객체에 조사되는 빛을 플루드 조명 패턴으로 이용할 수 있다. 제1 범위는 복수의 에미터의 직경, 복수의 에미터 사이의 거리, 복수의 에미터의 발산각에 기초하여 설정될 수 있다.
일 실시예에 따르면, 제1 범위(DR)는 아래의 수학식 1에 따라 설정될 수 있다.
Figure PCTKR2021001921-appb-img-000003
여기서, P E는 복수의 에미터 사이의 거리를 의미하고, D E는 복수의 에미터의 직경을 의미하고, θ D는 복수의 에미터의 발산각을 의미할 수 있다.
또 다른 실시예에 따르면, 제1 범위(DR)는 아래의 수학식 2에 따라 설정될 수 있다.
Figure PCTKR2021001921-appb-img-000004
여기서, P E는 복수의 에미터 사이의 거리를 의미하고, D E는 복수의 에미터의 직경을 의미하고, θ D는 복수의 에미터의 발산각을 의미할 수 있다.
수학식 2에 따른 제1 범위는 수학식 1에 따른 제1 범위를 포함한다.
그러면, 아래에서는 도 6a 내지 도 7을 통해 수학식 1 및 수학식 2의 각 변수에 대해 상세하게 살펴보도록 한다.
도 6a 및 도 6b에 도시된 것처럼, 복수의 에미터는 일정한 규칙에 따라 배열될 수 있다. 도 6a에 도시된 것처럼, 복수의 에미터는 정사각형 형태의 패턴으로 배열되거나, 도 6b에 도시된 것처럼, 복수의 에미터는 정삼각형 형태의 패턴으로 배열될 수도 있다. 이는 예시적인 것으로서, 복수의 에미터는 다양한 형태의 패턴으로 배열될 수 있다.
우선, 복수의 에미터는 서로 일정한 간격(pitch)을 가지고 배열될 수 있다. 본 발명에서 의미하는 복수의 에미터 사이의 거리는 서로 가장 인접한 에미터 사이의 거리를 의미한다. 본 발명에서 의미하는 복수의 에미터 사이의 거리는 어느 하나의 에미터의 중심에서 가장 인접한 에미터의 중심 간 거리를 의미한다.
도 6a를 참조하면, 복수의 에미터 사이의 거리는 제1 에미터(e1)와 제2 에미터(e2) 사이의 거리, 제2 에미터(e2)와 제3 에미터(e3) 사이의 거리, 제3 에미터(e3)와 제4 에미터(e4) 사이의 거리, 제4 에미터(e4)와 제1 에미터(e1) 사이의 거리를 의미한다. 제1 에미터(e1), 제2 에미터(e2), 제3 에미터(e3) 및 제4 에미터(e4)는 정사각형의 패턴에 따라 배치되므로, 제1 에미터(e1)와 제2 에미터(e2) 사이의 거리(P E)는 제2 에미터(e2)와 제3 에미터(e3) 사이의 거리, 제3 에미터(e3)와 제4 에미터(e4) 사이의 거리, 제4 에미터(e4)와 제1 에미터(e1) 사이의 거리와 동일할 수 있다. 반면, 복수의 에미터 사이의 거리는 제1 에미터(e1)와 제3 에미터(e3) 사이의 거리, 제2 에미터(e2)와 제4 에미터(e4) 사이의 거리는 포함되지 않는다. 제1 에미터(e1)에 가장 근접하게 배치된 에미터는 제2 에미터(e2) 및 제4 에미터(e4)고, 제2 에미터(e2)에 가장 근접하게 배치된 에미터는 제1 에미터(e1)와 제3 에미터(e3)기 때문이다.
도 6b를 참조하면, 제1 에미터(e1)와 제2 에미터(e2) 사이의 거리, 제2 에미터(e2)와 제3 에미터(e3) 사이의 거리, 제3 에미터(e3)와 제1 에미터(e1) 사이의 거리를 의미한다. 제1 에미터(e1), 제2 에미터(e2) 및 제3 에미터(e3)는 정삼각형의 패턴에 따라 배치되므로, 제1 에미터(e1)와 제2 에미터(e2) 사이의 거리(P E)는 제2 에미터(e2)와 제3 에미터(e3) 사이의 거리, 제3 에미터(e3)와 제1 에미터(e1) 사이의 거리와 동일할 수 있다.
다음으로, 복수의 에미터는 일정한 직경(D E)을 가질 수 있다. 일 실시예에 따르면, 도 6a 및 도 6b에 도시된 것처럼, 복수의 에미터는 일정한 크기의 직경을 가질 수 있으며, 복수의 에미터 각각의 직경은 서로 동일할 수 있다.
다음으로, 복수의 에미터는 소정의 발산각(Divergence Angle, θ D)을 가질 수 있다. 도 7에 도시된 것처럼, 하나의 에미터에서 출력되는 빛은 소정의 각도로 퍼지면서 출력될 수 있다. 이때, 에미터에서 출력된 빛이 퍼지는 각도가 발산각일 수 있다. 일 실시예에 따르면, 복수의 에미터는 서로 동일한 크기의 발산각을 가질 수 있다.
그러면, 실시예를 통해 제1 범위에 대해 살펴보도록 한다.
일 실시예에 따르면, 복수의 에미터 사이의 거리는 32.5 내지 38.5[μm] 범위에 포함되고, 복수의 에미터의 직경은 7.2 내지 8.8[μm] 범위에 포함되고, 복수의 에미터의 발산각은 15 내지 25도 범위에 포함될 수 있다. 일 실시예에 따르면, 복수의 에미터 사이의 거리는 35.5[μm]이고, 복수의 에미터의 직경은 8[μm]이고, 복수의 에미터의 발산각은 20도일 수 있다. 이 경우, 수학식 1에 따르면, 제1 범위는 279.3[μm] 내지 400.1[μm]의 범위일 수 있다. 즉, 렌즈 어셈블리(200)가 광원(100)으로 멀어지거나 가까워지는 방향으로 기준 거리에서 279.3[μm] 내지 400.1[μm] 이동하게 되면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다. 그리고, 수학식 2에 따르면, 제1 범위는 218.9[μm] 내지 400.1[μm]의 범위일 수 있다. 즉, 렌즈 어셈블리(200)가 광원(100)으로 멀어지거나 가까워지는 방향으로 기준 거리에서 218.9[μm] 내지 400.1[μm] 이동하게 되면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다.
다른 일 실시예에 따르면, 복수의 에미터 사이의 거리는 16.3 내지 22.3[μm] 범위에 포함되고, 복수의 에미터의 직경은 3.6 내지 4.4[μm] 범위에 포함되고, 복수의 에미터의 발산각은 13 내지 23도 범위에 포함될 수 있다. 다른 일 실시예에 따르면, 복수의 에미터 사이의 거리는 19.3[μm]이고, 복수의 에미터의 직경은 4[μm]이고, 복수의 에미터의 발산각은 18도일 수 있다. 이 경우, 수학식 1에 따르면, 제1 범위는 169.9[μm] 내지 243[μm]의 범위일 수 있다. 즉, 렌즈 어셈블리(200)가 광원(100)으로 멀어지거나 가까워지는 방향으로 기준 거리에서 169.9[μm] 내지 243[μm] 이동하게 되면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다. 그리고, 수학식 2에 따르면, 제1 범위는 133.4[μm] 내지 243[μm]의 범위일 수 있다. 즉, 렌즈 어셈블리(200)가 광원(100)으로 멀어지거나 가까워지는 방향으로 기준 거리에서 133.4[μm] 내지 243[μm] 이동하게 되면, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사할 수 있다.
도 8은 본 발명의 스팟 조명 패턴의 빛이 출력될 경우 발광부의 동작을 설명하기 위한 도면이다.
일 실시예에 따르면, 발광부(10)는 렌즈 어셈블리(200)와 광원(100) 사이의 거리가 기준 거리(즉, 렌즈 어셈블리(200)의 유효 초점 거리)인 경우 스팟 조명 패턴의 빛을 객체에 조사할 수 있다. 구체적으로, 도 8에 도시된 것처럼, 발광부(10)는 광원(100)의 상부면과 렌즈 어셈블리(200)의 주점 사이의 거리가 기준 거리인 경우 스팟 조명 패턴의 빛을 객체에 조사할 수 있다.
또 다른 실시예에 따르면, 발광부(10)는 렌즈 어셈블리(200)의 이동 거리가 제2 범위 이내에 포함되면 스팟 조명 패턴의 빛을 객체에 조사할 수 있다. 이때, 제2 범위는 25[μm] 이내일 수 있다. 제2 범위는 0 내지 25[μm] 범위일 수 있다. 즉, 렌즈 어셈블리(200)가 기준 거리에서 광축 방향을 따라 25[μm]이내로 움직일 경우, 발광부(10)는 스팟 조명 패턴의 빛을 객체에 조사할 수 있다.
도 9a 내지 도 9e는 본 발명의 실시예에 따른 카메라 모듈의 시뮬레이션 결과를 나타낸다.
도 9a는 렌즈 어셈블리(200)와 광원(100) 사이의 거리가 기준 거리에 있거나, 렌즈 어셈블리(200)의 이동 거리가 제2 범위 이내에 포함될 경우 빛의 조명 패턴을 나타낸다. 도 9a에 도시된 것처럼, 이 경우, 발광부(10)는 스팟 조명 패턴의 빛을 객체에 조사함을 알 수 있다.
도 9b는 렌즈 어셈블리(200)의 이동 거리가 제2 범위보다 크고 수학식 2에서 나타내는 제1 범위보다 작은 경우 빛의 조명 패턴을 나타낸다. 도 9b에 도시된 것처럼, 이 경우, 발광부(10)는 스팟의 면적이 큰 조명 패턴의 빛을 객체에 조사함을 알 수 있다. 이러한 조명 패턴은 스팟 조명 패턴과 플루드 조명 패턴의 중간 형태로서, 스팟 조명 패턴이나 플로드 조명 패턴 중 어느 하나로도 이용하기 어려울 수 있다.
도 9c는 렌즈 어셈블리(200)의 이동 거리가 수학식 2에서 나타내는 제1 범위에서 최소값에 해당할 경우 빛의 조명 패턴을 나타낸다. 도 9c에 도시된 것처럼, 이 경우, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사함을 알 수 있다. 이때, 플루드 조명 패턴은 광량의 차이로 인하여 다소간의 스팟 패턴이 형성되기는 하지만, 도 9a 및 도 9b와 달리, 공간상에서 빛이 연속하는 조명 패턴의 형태를 띄고 있으므로, 플루드 조명 패턴으로 이용될 수 있다.
도 9d는 렌즈 어셈블리(200)의 이동 거리가 수학식 2에서 나타내는 제1 범위의 최소값에서 수학식 1에서 나타내는 제1 범위의 최소값 사이에 해당할 경우 빛의 조명 패턴을 나타낸다. 도 9d에 도시된 것처럼, 이 경우, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사함을 알 수 있다. 이때, 플루드 조명 패턴은 도 9c에 비해 공간상에서 연속하는 빛이 균일하게 조명되고 있어, 카메라 모듈은 도 9c의 조명 패턴에 비해 높은 품질의 깊이 영상을 생성할 수 있다.
도 9e는 렌즈 어셈블리(200)의 이동 거리가 수학식 1에서 나타내는 제1 범위에 해당할 경우 빛의 조명 패턴을 나타낸다. 도 9e에 도시된 것처럼, 이 경우, 발광부(10)는 플루드 조명 패턴의 빛을 객체에 조사함을 알 수 있다. 이때, 플루드 조명 패턴은 도트 패턴의 형태가 보이지 않을 정도로 공간상에서 연속하는 빛이 균일하게 조명되고 있어, 카메라 모듈은 도 9c 및 도 9d의 조명 패턴에 비해 높은 품질의 깊이 영상을 생성할 수 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 스팟(spot) 조명 패턴 또는 플루드(flood) 조명 패턴의 빛을 객체에 조사하는 발광부; 및
    상기 객체에 반사된 빛을 수광하는 수광부;를 포함하며,
    상기 발광부는,
    소정의 간격으로 배치된 복수의 에미터를 포함하는 광원;
    상기 광원의 상단에 이격되어 배치되는 렌즈 어셈블리; 그리고
    기준 거리에서 소정의 이동 거리만큼 광축 방향에 따라 상기 렌즈 어셈블리를 이동시켜 상기 광원과 상기 렌즈 어셈블리 사이의 거리를 가변하는 구동 모듈;을 포함하는 카메라 모듈.
  2. 제1항에 있어서,
    상기 기준 거리는,
    상기 렌즈 어셈블리의 유효 초점 거리인 카메라 모듈.
  3. 제2항에 있어서,
    상기 발광부는,
    상기 이동 거리가 제1 범위 이내에 포함되면, 상기 플루드 조명 패턴의 빛을 객체에 조사하는 카메라 모듈.
  4. 제3항에 있어서,
    상기 제1 범위는,
    상기 복수의 에미터의 직경, 상기 복수의 에미터 사이의 거리, 상기 복수의 에미터의 발산각에 기초하여 설정되는 카메라 모듈.
  5. 제4항에 있어서,
    상기 제1 범위(DR)는,
    아래의 수학식에 따라 설정되는 카메라 모듈:
    Figure PCTKR2021001921-appb-img-000005
    여기서, 상기 P E는 상기 복수의 에미터 사이의 거리를 의미하고, 상기 D E는 상기 복수의 에미터의 직경을 의미하고, 상기 θ D는 상기 복수의 에미터의 발산각을 의미한다.
  6. 제4항에 있어서,
    상기 제1 범위(DR)는,
    아래의 수학식에 따라 설정되는 카메라 모듈:
    Figure PCTKR2021001921-appb-img-000006
    여기서, 상기 P E는 상기 복수의 에미터 사이의 거리를 의미하고, 상기 D E는 상기 복수의 에미터의 직경을 의미하고, 상기 θ D는 상기 복수의 에미터의 발산각을 의미한다.
  7. 제2항에 있어서,
    상기 발광부는,
    상기 이동 거리가 제2 범위 이내에 포함되면, 상기 스팟 조명 패턴의 빛을 객체에 조사하는 카메라 모듈.
  8. 제7항에 있어서,
    상기 제2 범위는,
    0 내지 25[μm]인 카메라 모듈.
  9. 제5항에 있어서,
    상기 복수의 에미터 사이의 거리는, 32.5 내지 38.5[μm] 범위에 포함되고,
    상기 복수의 에미터의 직경은, 7.2 내지 8.8[μm] 범위에 포함되고,
    상기 복수의 에미터의 발산각은, 15 내지 25도 범위에 포함되는 카메라 모듈.
  10. 제5항에 있어서,
    상기 복수의 에미터 사이의 거리는, 16.3 내지 22.3[μm] 범위에 포함되고,
    상기 복수의 에미터의 직경은, 3.6 내지 4.4[μm] 범위에 포함되고,
    상기 복수의 에미터의 발산각이, 13 내지 23도 범위에 포함되는 카메라 모듈.
PCT/KR2021/001921 2021-01-15 2021-02-15 카메라 모듈 WO2022154160A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020237020723A KR20230131829A (ko) 2021-01-15 2021-02-15 카메라 모듈
US18/260,061 US20240056669A1 (en) 2021-01-15 2021-02-15 Camera module
EP21919789.4A EP4280600A1 (en) 2021-01-15 2021-02-15 Camera module
CN202180090543.5A CN116746144A (zh) 2021-01-15 2021-02-15 相机模块

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210005637 2021-01-15
KR10-2021-0005637 2021-01-15

Publications (1)

Publication Number Publication Date
WO2022154160A1 true WO2022154160A1 (ko) 2022-07-21

Family

ID=82447418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/001921 WO2022154160A1 (ko) 2021-01-15 2021-02-15 카메라 모듈

Country Status (6)

Country Link
US (1) US20240056669A1 (ko)
EP (1) EP4280600A1 (ko)
KR (1) KR20230131829A (ko)
CN (1) CN116746144A (ko)
TW (1) TW202243459A (ko)
WO (1) WO2022154160A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11698441B2 (en) * 2019-03-22 2023-07-11 Viavi Solutions Inc. Time of flight-based three-dimensional sensing system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120069833A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 3차원 이미지 센서의 구동 방법
KR20150109187A (ko) * 2014-03-19 2015-10-01 엘지전자 주식회사 구조광 시스템
WO2018118955A1 (en) * 2016-12-19 2018-06-28 Whelen Engineering Company, Inc. Led illumination module with fixed optic and variable emission pattern
KR20190079596A (ko) * 2019-06-26 2019-07-05 엘지이노텍 주식회사 적외선 광원 제어방법
KR20190129440A (ko) * 2018-05-11 2019-11-20 엘지이노텍 주식회사 표면발광 레이저소자 및 이를 포함하는 발광장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120069833A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 3차원 이미지 센서의 구동 방법
KR20150109187A (ko) * 2014-03-19 2015-10-01 엘지전자 주식회사 구조광 시스템
WO2018118955A1 (en) * 2016-12-19 2018-06-28 Whelen Engineering Company, Inc. Led illumination module with fixed optic and variable emission pattern
KR20190129440A (ko) * 2018-05-11 2019-11-20 엘지이노텍 주식회사 표면발광 레이저소자 및 이를 포함하는 발광장치
KR20190079596A (ko) * 2019-06-26 2019-07-05 엘지이노텍 주식회사 적외선 광원 제어방법

Also Published As

Publication number Publication date
EP4280600A1 (en) 2023-11-22
US20240056669A1 (en) 2024-02-15
CN116746144A (zh) 2023-09-12
KR20230131829A (ko) 2023-09-14
TW202243459A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
WO2020040390A1 (ko) 3차원 영상 생성 장치 및 방법
WO2020067738A1 (ko) 카메라 장치 및 그의 깊이 정보 추출 방법
WO2019235859A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
JPH01155308A (ja) 焦点検出装置
WO2019112164A1 (ko) 3차원 라이다 장치 및 거리측정 방법
WO2019199101A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
WO2022154160A1 (ko) 카메라 모듈
WO2020130440A1 (ko) 3차원 거리측정 카메라
WO2020075932A1 (ko) 3차원 영상 생성 장치 및 방법
WO2013053315A1 (zh) 带有多扫描阵列的接触式图像传感器
WO2020122628A1 (ko) 카메라 장치
WO2019235889A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
WO2020067745A1 (ko) 카메라 장치
WO2011071313A2 (ko) 텍스쳐 영상과 깊이 영상을 추출하는 장치 및 방법
WO2020242223A1 (ko) 카메라 모듈
WO2015099211A1 (ko) 3차원 카메라모듈
WO2018079921A1 (ko) 광 송수광 장치 및 방법
JP2003222812A5 (ko)
SE8604762D0 (sv) Kamera for optoelektronisk avkenning av en godtycklig scen
KR20190129693A (ko) 3d 구조의 광 적용을 위한 고감도 저전력 카메라 시스템
WO2021133082A1 (ko) 3차원 카메라 시스템
WO2022231349A1 (ko) 카메라 장치
WO2019245315A1 (ko) 카메라 모듈
WO2020060321A1 (ko) 카메라 모듈
WO2019240517A1 (ko) 센싱 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919789

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18260061

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180090543.5

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021919789

Country of ref document: EP

Effective date: 20230816