WO2021177743A1 - 카메라 모듈 - Google Patents

카메라 모듈 Download PDF

Info

Publication number
WO2021177743A1
WO2021177743A1 PCT/KR2021/002675 KR2021002675W WO2021177743A1 WO 2021177743 A1 WO2021177743 A1 WO 2021177743A1 KR 2021002675 W KR2021002675 W KR 2021002675W WO 2021177743 A1 WO2021177743 A1 WO 2021177743A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
light source
mirrors
disposed
camera module
Prior art date
Application number
PCT/KR2021/002675
Other languages
English (en)
French (fr)
Inventor
서인준
김철
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to US17/909,713 priority Critical patent/US20240210795A1/en
Publication of WO2021177743A1 publication Critical patent/WO2021177743A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/06Special arrangements of screening, diffusing, or reflecting devices, e.g. in studio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Definitions

  • the embodiment relates to a camera module.
  • the camera module captures an object and stores it as an image or video, and is installed in various applications.
  • the camera module is produced in a very small size and is applied to not only portable devices such as smartphones, tablet PCs, and laptops, but also drones and vehicles to provide various functions.
  • the camera module may perform an autofocus (AF) function of aligning the focal lengths of the lenses by automatically adjusting the distance between the image sensor and the lens, and a distant object through a zoom lens
  • AF autofocus
  • a zooming function of zooming up or zooming out may be performed by increasing or decreasing the magnification of
  • the camera module employs image stabilization (IS) technology to correct or prevent image stabilization due to camera movement caused by an unstable fixing device or a user's movement.
  • IS image stabilization
  • the technology for detecting depth information includes a technology using a stereo camera, a technology using a structured light camera, a technology using a depth from defocus (DFD) camera, and a time of flight (TOF) camera.
  • a technology using a stereo camera includes a technology using a stereo camera, a technology using a structured light camera, a technology using a depth from defocus (DFD) camera, and a time of flight (TOF) camera.
  • DFD depth from defocus
  • TOF time of flight
  • a technology using a stereo camera generates depth information using a difference in distance, spacing, etc. that occurs in the left and right parallax of an image received through a plurality of cameras, for example, each camera disposed on the left and right sides. it's technology
  • a technology using a structured light camera is a technology that generates depth information using a light source arranged to form a set pattern
  • a technology using a DFD (Depth from defocus) camera is a technology using defocusing. It is a technology for generating depth information using a plurality of images having different focal points taken in the same scene.
  • a time of flight (TOF) camera is a technology for generating depth information by calculating a distance from a target by measuring the time it takes for light emitted from a light source toward a target to be reflected by the target and return to a sensor.
  • TOF camera has recently attracted attention because it has the advantage of acquiring depth information in real time.
  • the TOF camera has a safety problem by using light of a relatively high wavelength band.
  • the light used in the TOF camera generally uses light in the infrared wavelength band, and when the light is incident on a sensitive part of a person, for example, the eyes, skin, etc., there is a problem that may cause various injuries and diseases.
  • the light emitting unit of the TOF camera emits light of the same luminous intensity and size regardless of the size of the object located in front of the camera, the distance from the object, etc., and emits light limited to a field of illumination (FOI) or a specific location. Accordingly, there is a problem in that the light does not reach the FOI or a specific position, or the light of a low intensity arrives, so that the accuracy of the depth information is reduced. That is, there is a problem in that spatial resolution characteristics are low.
  • FOI field of illumination
  • An embodiment is to provide a camera module capable of acquiring depth information about an object in real time.
  • the embodiment intends to provide a camera module capable of improving the accuracy of depth information on an object.
  • the embodiment intends to provide a camera module capable of effectively acquiring depth information of an object located at a long distance.
  • an embodiment is to provide a camera module capable of simultaneously acquiring depth information of a plurality of objects.
  • the embodiment is intended to provide a camera module capable of reducing the thickness and volume.
  • a camera module includes a light emitting unit and an image sensor, wherein the light emitting unit includes a light source, a first lens unit disposed on the light source, a reflective member reflecting light emitted from the light source, and the first lens unit and a driving member for moving between the light source and the reflective member, wherein the reflective member includes a plurality of mirrors, and the plurality of mirrors may be arranged to be tiltable within a predetermined angle range from a reference angle.
  • At least one of a mirror corresponding to the object and a mirror corresponding to a peripheral portion of the object may be tilted within the predetermined angle range from the reference angle.
  • a mirror that does not correspond to the object among the plurality of mirrors may be disposed while maintaining the reference angle.
  • the plurality of mirrors may include at least one of a reflective micro-electric mechanical system (MEMS) mirror, a transmissive MEMS mirror, a reflective digital micromirror device (DMD) device, and a transmissive DMD device.
  • MEMS micro-electric mechanical system
  • DMD reflective digital micromirror device
  • the plurality of mirrors may be disposed to be inclined at the reference angle with respect to the optical axis of the light source, and the reference angle may be 45 degrees.
  • the light source includes a vertical cavity surface emitting laser
  • the vertical cavity surface emitting laser includes a plurality of apertures
  • the plurality of mirrors are provided in a number greater than or equal to the number of the plurality of apertures.
  • the first lens unit may move along an optical axis of the light source by the driving member.
  • the first lens unit may move in a direction perpendicular to the optical axis of the light source by the driving member.
  • the driving member may adjust the light pattern irradiated to the object as a surface light source or a point light source.
  • the light receiving unit may include a light receiving unit including the image sensor, and the light receiving unit may include a second lens unit disposed on the image sensor.
  • the camera module includes a light emitting unit and an image sensor
  • the light emitting unit includes a light source, a reflective member disposed on the light source and reflecting light emitted from the light source, wherein the light source is a surface of a vertical cavity an emitting laser, wherein the vertical cavity surface emitting laser includes a plurality of apertures, the reflective member includes a plurality of mirrors, the plurality of mirrors is greater than or equal to the number of the plurality of apertures;
  • the plurality of mirrors may be arranged to be tiltable within a predetermined angle range from a reference angle.
  • the camera module may acquire depth information about an object in real time and may acquire depth information with improved accuracy.
  • the camera module may include a reflective member disposed between the light source and the light receiving unit, and the reflective member may include a plurality of mirrors.
  • the plurality of mirrors may be tilted at a predetermined angle by the controller, thereby concentrating more light on the object. Accordingly, the camera module may improve the accuracy of depth information on the object.
  • the camera module may effectively acquire depth information of an object located at a long distance.
  • the camera module may control a mirror corresponding to the object and a mirror corresponding to a peripheral portion of the object among a plurality of mirrors. Accordingly, more light can be focused on the object located at a long distance, so that depth information with improved accuracy can be obtained.
  • the camera module may track the object.
  • the camera module may control a corresponding mirror. Accordingly, accurate depth information can be acquired in real time even when the position of the object is changed.
  • the camera module may acquire depth information of a plurality of objects located at different positions.
  • the camera module may control mirrors corresponding to the plurality of objects, respectively, and mirrors corresponding to peripheral portions of the plurality of objects. Accordingly, depth information on the plurality of objects may be simultaneously acquired, and depth information with improved accuracy may be acquired.
  • the light emitting unit of the camera module may extend in a direction different from that of the light receiving unit.
  • the optical axis of the light emitting unit may be disposed in a shape perpendicular to the optical axis of the light receiving unit. Accordingly, the camera module may have a smaller thickness and a smaller volume.
  • FIG. 1 is a configuration diagram of a camera module according to an embodiment.
  • FIG. 2 is a configuration diagram of a light emitting unit and a light receiving unit in the camera module according to the embodiment.
  • FIG. 3 is a diagram illustrating an arrangement of a light emitting unit and a reflective member in a camera module according to an embodiment.
  • FIG. 4 is a view for explaining a light pattern of a camera module according to an embodiment.
  • FIG 5 is a front view of a reflective member according to an embodiment.
  • FIG. 6 is another view illustrating an arrangement of a light emitting unit and a reflective member in the camera module according to the embodiment.
  • 7 and 8 are other views illustrating the arrangement of the light emitting unit and the reflective member in the camera module according to the embodiment.
  • 9 to 11 are views for explaining the tilt of the reflective member according to the presence or absence of an object.
  • FIG. 12 is a diagram illustrating a method of operating a camera module according to an embodiment.
  • FIG. 13 and 14 are perspective views of a mobile terminal and a vehicle to which a camera module according to an embodiment is applied.
  • the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
  • the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as "at least one (or more than one) of A and (and) B, C", it is combined with A, B, C It may include one or more of all possible combinations.
  • first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the component from other components, and are not limited to the essence, order, or order of the component by the term.
  • a component is 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also with the component It may also include a case of 'connected', 'coupled' or 'connected' due to another element between the other elements.
  • the first direction may mean the x-axis direction shown in the drawings
  • the second direction may be a different direction from the first direction.
  • the second direction may mean a y-axis direction shown in the drawing in a direction perpendicular to the first direction.
  • the horizontal direction may mean first and second directions
  • the vertical direction may mean a direction perpendicular to at least one of the first and second directions.
  • the horizontal direction may mean the x-axis and y-axis directions of the drawing
  • the vertical direction may be a z-axis direction of the drawing and a direction perpendicular to the x-axis and y-axis directions.
  • FIG. 1 is a configuration diagram of a camera module according to an embodiment
  • FIG. 2 is a configuration diagram of a light emitting unit and a light receiving unit in the camera module according to the embodiment.
  • FIG. 3 is a view showing the arrangement of a light emitting unit and a reflective member in the camera module according to the embodiment
  • FIG. 4 is a view for explaining a light pattern of the camera module according to the embodiment.
  • 5 is a front view of the reflective member according to the embodiment.
  • the camera module 1000 may include a light emitting unit 100 , a light receiving unit 300 , a reflective member 500 , and a control unit 710 . .
  • the light emitting unit 100 may emit light.
  • the light emitting unit 100 may emit light of a set intensity.
  • the light emitting unit 100 may emit light of a wavelength band set in a set direction.
  • the light emitting unit 100 may emit light in a visible or infrared wavelength band.
  • the light emitting unit 100 may emit infrared light in a wavelength band of about 700 nm to about 1 mm.
  • the light emitting unit 100 may emit light in a front direction of the light emitting unit 100 .
  • the light emitting unit 100 may emit light toward an object located in the light emission direction.
  • the light receiving unit 300 may receive light.
  • the light receiving unit 300 may detect the light reflected by the object.
  • the light receiving unit 300 may detect the light emitted from the light emitting unit 100 .
  • the light receiving unit 300 may detect light of a wavelength band corresponding to the light emitted by the light emitting unit 100 .
  • the light receiving unit 300 may detect light emitted from the light emitting unit 100 and reflected on the object.
  • the camera module 1000 may be a time of flight (TOF) camera that emits light toward an object and calculates depth information of an object based on light information reflected back by the object.
  • TOF time of flight
  • the reflective member 500 may be disposed on the light emitting unit 100 .
  • the reflective member 500 may be disposed between the light emitting unit 100 and the light receiving unit 300 .
  • the reflective member 500 may be disposed between the light emitting unit 100 and the object.
  • the reflective member 500 may be disposed in the light emitting unit 100 .
  • the reflective member 500 may be disposed between the light source 110 of the light emitting unit 100 and the object.
  • the reflective member 500 may be disposed on the light emitting unit 100 and spaced apart from the light emitting unit 100 .
  • the reflective member 500 may reflect the light emitted from the light emitting unit 100 at a set angle. The reflective member 500 will be described in more detail with reference to drawings to be described later.
  • the control unit 710 may be connected to at least one of the light emitting unit 100 and the light receiving unit 300 .
  • the controller 710 may control driving of at least one of the light emitting unit 100 and the light receiving unit 300 .
  • the controller 710 may be connected to the reflective member 500 to control the driving of the reflective member 500 .
  • the controller 710 may control the tilt angles of the plurality of mirrors 510 included in the reflective member 500 according to the size, position, and shape of the object.
  • the camera module 1000 may further include a coupling part (not shown) and a connection part (not shown).
  • the coupling unit may be connected to an optical device to be described later.
  • the coupling part may include a circuit board and a terminal disposed on the circuit board.
  • the terminal may be a connector for physical and electrical connection with the optical device.
  • connection part may be disposed between the substrate 50 of the camera module 1000 and the coupling part, which will be described later.
  • the connection part may connect the substrate 50 and the coupling part.
  • the connection part may include a flexible PCB (FBCB), and may electrically connect the board 50 and the circuit board of the coupling part.
  • the substrate 50 may be at least one of a first substrate 50a and a second substrate 50b, which will be described later.
  • the light emitting unit 100 and the light receiving unit 300 according to the embodiment will be described in more detail with reference to FIGS. 2 to 5 .
  • the light emitting unit 100 is disposed on a first substrate 50a and may include a light source 110 and a first lens unit 130 .
  • the first substrate 50a may support the light emitting part 100 .
  • the first substrate 50a may be electrically connected to the light emitting unit 100 .
  • the first substrate 50a may be a circuit board.
  • the first substrate 50a may include a wiring layer for supplying power to the light emitting unit 100 , and may be a printed circuit board (PCB) formed of a plurality of resin layers.
  • the first substrate 50a may include at least one of a rigid PCB (Rigid PCB), a metal core PCB (MCPCB, Metal Core PCB), a flexible PCB (FPCB, Flexible PCB), and a Rigid Flexible PCB (RFPCB).
  • the first substrate 50a may include a synthetic resin including glass, resin, epoxy, and the like, and may include a ceramic having excellent thermal conductivity and a metal having an insulated surface.
  • the first substrate 50a may have a shape such as a plate or a lead frame, but is not limited thereto.
  • a Zener diode, a voltage regulator, and a resistor may be further disposed on the first substrate 50a, but the present disclosure is not limited thereto.
  • An insulating layer (not shown) or a protective layer (not shown) may be disposed on the first substrate 50a.
  • the insulating layer or the protective layer may be disposed on at least one of one surface and the other surface of the first substrate 50a.
  • the light source 110 may be disposed on the first substrate 50a.
  • the light source 110 may be in direct contact with the upper surface of the first substrate 50a and may be electrically connected to the first substrate 50a.
  • the light source 110 may include a light emitting device.
  • the light source 110 may include a light emitting diode (LED), a vertical cavity surface emitting laser (VCSEL), an organic light emitting diode (OLED), and a laser diode (LD; laser diode) may include at least one light emitting device.
  • LED light emitting diode
  • VCSEL vertical cavity surface emitting laser
  • OLED organic light emitting diode
  • LD laser diode
  • LD laser diode
  • the light source 110 may include one or a plurality of light emitting devices. For example, when a plurality of light emitting devices are disposed on the first substrate 50a, the plurality of light emitting devices may be disposed along a pattern set on the first substrate 50a. In detail, the plurality of light emitting devices may be arranged such that a region from which light is emitted from the plurality of light emitting devices, for example, at least one aperture for light emission has a predetermined rule. Accordingly, the light source 110 may emit light of a set intensity in a set direction.
  • the light source 110 may emit light of a set wavelength band.
  • the light source 110 may emit visible light or infrared light.
  • the light source 110 may emit visible light in a wavelength band of about 380 nm to about 700 nm.
  • the light source 110 may emit infrared light in a wavelength band of about 700 nm to about 1 mm.
  • a first lens unit 130 may be disposed on the light source 110 .
  • the first lens unit 130 is spaced apart from the light source 110 and may include at least one lens and a housing accommodating the lens.
  • the lens may include at least one of glass and plastic.
  • the first lens unit 130 may be disposed on an emission path of the light emitted from the light source 110 .
  • the first lens unit 130 may be disposed on an area corresponding to the light source 110 .
  • the first lens unit 130 may be disposed in a region whose center overlaps the optical axis OA of the light source 110 .
  • the first lens unit 130 may control a path of the light emitted from the light source 110 .
  • the first lens unit 130 may condense, diffuse, and scatter the light emitted from the light source 110 .
  • the first lens unit 130 may transform the light emitted from the light source 110 into a set shape.
  • the first lens unit 130 may transform the light emitted from the light source 110 into various cross-sectional shapes, such as a circular shape, an elliptical shape, and a polygonal shape.
  • the first lens unit 130 may transform the light emitted from the light source 110 into a plurality of point light sources.
  • the first lens unit 130 may transform the light emitted from the light source 110 into a shape corresponding to the effective area of the image sensor 310 of the light receiving unit 300 .
  • the first lens unit 130 may prevent the light emitted from the light source 110 from being directly irradiated onto the object.
  • the first lens unit 130 may control the light emitted from the light source 110 to prevent the light from being directly irradiated to a light-sensitive area such as a human eye or skin.
  • the first lens unit 130 may improve the luminance uniformity of the light emitted from the light source 110 .
  • the first lens unit 130 prevents the formation of a hot spot where light is concentrated in a region where the light emitting device of the light source 110 is disposed, for example, in a region corresponding to the aperture of the light emitting device. can do.
  • the light emitting unit 100 may further include a driving member 150 .
  • the driving member 150 may be disposed on the first lens unit 130 .
  • the driving member 150 may be coupled to the first lens unit 130 .
  • the driving member 150 may be coupled to the housing of the first lens unit 130 .
  • the driving member 150 may be coupled to at least one lens of the first lens unit 130 .
  • the driving member 150 may move the first lens unit 130 .
  • the driving member 150 may include at least one actuator.
  • the first lens unit 130 may be disposed between the light source 110 and the reflective member 500 .
  • the driving member 150 may control the distance between the first lens unit 130 and the light source 110 .
  • the driving member 150 may move the first lens unit 130 between the light source 110 and the reflective member 500 .
  • the driving member 150 may move the first lens unit 130 along the optical axis OA of the light source 110 . Accordingly, the distance between the first lens unit 130 and the light source 110 may increase or decrease.
  • the driving member 150 may move at least one lens of the first lens unit 130 along the optical axis OA of the light source 110 .
  • the distance between the light source 110 and one lens closest to the light source 110 may vary.
  • the distance between the one lens and the other lens may also change.
  • the driving member 150 may control the position of the first lens unit 130 . Accordingly, the path of the light emitted from the light source 110 may be changed.
  • the driving member 150 may drive the light source 110 and the first lens unit 130 to be close to each other so that the light emitted from the camera module 1000 forms a surface light source.
  • the driving member 150 may drive the light source 110 and the first lens unit 130 to be spaced apart so that the light emitted from the camera module 1000 forms a point light source.
  • the surface light source may mean a light source that is uniformly irradiated to the area set as shown in FIG. 4(a)
  • the point light source may mean a light source that is irradiated in a dot shape to the area set as shown in FIG. 4(b).
  • the driving member 150 may be omitted.
  • the light emitting unit 100 may form one light source selected from a point light source and a surface light source.
  • the light source 110 and the first lens unit 130 may be fixed at a set interval to form a point light source or a surface light source, and movement of the first lens unit 130 may be unnecessary.
  • the light receiving unit 300 is disposed on the second substrate 50b and may include an image sensor 310 and a second lens unit 330 .
  • the second substrate 50b may support the light receiving unit 300 .
  • the second substrate 50b may be electrically connected to the light receiving unit 300 .
  • the second substrate 50b may be a circuit board.
  • the second substrate 50b may include a wiring layer for supplying power to the light emitting unit 100 and may be a printed circuit board (PCB) formed of a plurality of resin layers.
  • the second substrate 50b may include at least one of a rigid PCB (Rigid PCB), a metal core PCB (MCPCB, Metal Core PCB), a flexible PCB (FPCB, Flexible PCB), and a Rigid Flexible PCB (RFPCB).
  • a rigid PCB Rigid PCB
  • MCPCB metal core PCB
  • FPCB Flexible PCB
  • RFPCB Rigid Flexible PCB
  • the second substrate 50b may include a synthetic resin including glass, resin, epoxy, or the like, and may include a ceramic having excellent thermal conductivity and a metal having an insulated surface.
  • the second substrate 50b may have a shape such as a plate or a lead frame, but is not limited thereto.
  • a Zener diode, a voltage regulator, and a resistor may be further disposed on the second substrate 50b, but the present invention is not limited thereto.
  • An insulating layer (not shown) or a protective layer (not shown) may be disposed on the second substrate 50b.
  • the insulating layer or the protective layer may be disposed on at least one of one surface and the other surface of the second substrate 50b.
  • the second substrate 50b may be electrically connected to the first substrate 50a.
  • the second substrate 50b may be separated from and spaced apart from the first substrate 50a, or may be formed integrally, but is not limited thereto.
  • the image sensor 310 may be disposed on the second substrate 50b.
  • the image sensor 310 may directly contact the upper surface of the second substrate 50b and may be electrically connected to the second substrate 50b.
  • the image sensor 310 may be electrically connected to the second substrate 50b.
  • the image sensor 310 may sense light.
  • the image sensor 310 may detect light reflected by an object and incident on the camera module 1000 .
  • the image sensor 310 may detect light having a wavelength corresponding to the light emitted from the light source 110 .
  • the image sensor 310 may detect light incident through a second lens unit 330 to be described later.
  • the image sensor 310 may detect light emitted from the light source 110 and reflected off the object to detect depth information of the object.
  • the image sensor 310 may be disposed in a direction different from that of the light source 110 .
  • the optical axis of the image sensor 310 and the optical axis OA of the light source 110 may be in different directions.
  • the optical axis of the image sensor 310 and the optical axis OA of the light source 110 may be perpendicular.
  • the second lens unit 330 may be disposed on the image sensor 310 .
  • the second lens unit 330 is spaced apart from the image sensor 310 and may include at least one lens and a housing accommodating the lens.
  • the lens may include at least one of glass and plastic.
  • the second lens unit 330 may be disposed on a light path incident to the light receiving unit 300 .
  • the second lens unit 330 may transmit light emitted from the light source 110 and reflected on the object in the direction of the image sensor 310 .
  • the optical axis of the second lens unit 330 may correspond to the optical axis of the image sensor 310 .
  • the light receiving unit 300 may include a filter (not shown).
  • the filter may be disposed between the object and the image sensor 310 .
  • the filter may be disposed between the image sensor 310 and the second lens unit 330 .
  • the filter may pass light of a set wavelength band and filter light of a different wavelength band.
  • the filter may pass light having a wavelength corresponding to that of the light source 110 among the light incident on the light receiving unit 300 through the second lens unit 330 , and may be different from the light source 110 . It is possible to block light in a wavelength band.
  • a reflective member 500 may be disposed on the light emitting unit 100 .
  • the reflective member 500 may be disposed on the first lens unit 130 .
  • the reflective member 500 may be disposed in an area corresponding to the optical axis OA of the light source 110 .
  • the reflective member 500 may be disposed side by side with the light source 110 and the first lens unit 130 .
  • the first lens unit 130 may be disposed between the light source 110 and the reflective member 500 .
  • the reflective member 500 may reflect the light passing through the first lens unit 130 toward the object.
  • the reflective member 500 may include a plurality of mirrors 510 .
  • the plurality of mirrors 510 may be disposed in an area corresponding to the light source 110 .
  • the centers of the plurality of mirrors 510 may overlap the optical axis OA of the light source 110 .
  • the plurality of mirrors 510 may be disposed in a region corresponding to the light emitting device of the light source 110 .
  • the plurality of mirrors 510 may be disposed in a region corresponding to the light emitting device disposed in a set pattern.
  • the plurality of mirrors 510 may be disposed in a region corresponding to the aperture of the light emitting device.
  • the plurality of mirrors 510 may include at least one of a micro-electric mechanical system (MEMS) mirror and a digital micromirror device (DMD) device.
  • MEMS micro-electric mechanical system
  • DMD digital micromirror device
  • the plurality of mirrors 510 may include at least one of a reflective MEMS mirror, a transmissive MEMS mirror, a reflective DMD device, and a transmissive DMD device.
  • the plurality of mirrors 510 may include at least one of a transflective MEMS mirror and a transflective DMD device.
  • the plurality of mirrors 510 may have shapes corresponding to each other.
  • the plurality of mirrors 510 may have various shapes such as a circle, a circular shape, a triangle, and a square, and may have the same shape and size as each other.
  • the plurality of mirrors 510 may be provided in a rectangular shape as shown in FIG. 5 .
  • the plurality of mirrors 510 may be spaced apart from each other.
  • the plurality of mirrors may be spaced apart in the horizontal and vertical directions as shown in FIG. 5 .
  • one mirror among the plurality of mirrors 510 may be disposed at equal intervals to an adjacent mirror.
  • one mirror and a mirror adjacent to each other in the horizontal direction may be disposed at equal intervals from each other.
  • one mirror and the mirrors adjacent to each other in the longitudinal direction may be disposed at equal intervals to each other.
  • the distance between one mirror and the mirrors adjacent in the horizontal direction may be the same as the distance between the mirrors adjacent in the vertical direction.
  • the plurality of mirrors 510 may have a number corresponding to that of the light source 110 .
  • the plurality of mirrors 510 may be provided in a number equal to or greater than the plurality of apertures of the light emitting device.
  • the plurality of mirrors 510 can effectively control the path of light emitted from each aperture.
  • the number of the plurality of mirrors 510 is greater than the number of the apertures, the path of light emitted from the apertures may be controlled in more detail. Accordingly, the camera module 1000 may have improved resolution.
  • the plurality of mirrors 510 may include first to eighth mirrors 511 , 512 , 513 , 514 , 515 , 516 , 517 , and 518 based on the leftmost column.
  • the first mirror 511 may be a lowermost mirror
  • the eighth mirror 518 may be an uppermost mirror.
  • the mirrors 510 are represented as being arranged in 8 horizontal lines and 8 vertical lines in total 64, but the embodiment is not limited thereto.
  • m (m>1) rows can be arranged. In this case, the value of n and the value of m may be the same as or different from each other.
  • the number of the mirrors 510 may vary according to the number of light emitted from the light emitting unit 100 and the number of light emitting devices. In addition, the number of the mirrors 510 may vary according to the size of the image sensor 310 of the light receiving unit 300 .
  • the plurality of mirrors 510 may be inclined at a predetermined inclination angle with respect to the light emitting unit 100 .
  • the plurality of mirrors 510 may be disposed to have the same inclination angle.
  • the virtual plane extending the top surfaces of each of the plurality of mirrors 510 may be inclined by an angle defined as a predetermined reference angle ⁇ with respect to the optical axis OA of the light source 110 .
  • the upper surface of the mirror 510 may be a reflective surface on which the light emitted from the light source 110 is incident and reflected. That is, each of the plurality of mirrors 510 may be disposed to be inclined by a reference angle ⁇ with respect to the optical axis OA of the light source 110 .
  • the reference angle ⁇ may be 90 degrees or less.
  • the reference angle ⁇ may be 45 degrees.
  • the plurality of mirrors 510 may control the emission direction of the light emitted from the light source 110 .
  • the light passing through the first lens unit 130 may be reflected by the mirror 510 and emitted toward the object.
  • the light incident on the reflective member 500 may be emitted with a path changed by 90 degrees by the plurality of mirrors 510 .
  • the plurality of mirrors 510 may be tilted within a predetermined angle range.
  • each of the plurality of mirrors 510 may be tilted within a predetermined angle range based on the reference angle ⁇ .
  • the plurality of mirrors 510 may be tilted in a two-dimensional or three-dimensional direction.
  • the plurality of mirrors 510 may be provided to be tiltable within a predetermined angle range by a signal applied from the controller 710 .
  • the controller 710 may tilt the at least one mirror 510 within a predetermined angular range according to a location, a distance, etc. to the object in front of the camera module 1000 .
  • the predetermined angle range may be less than about 5 degrees.
  • the predetermined angle range may be less than about 3 degrees.
  • the angle range exceeds about 5 degrees, it may be difficult to uniformly irradiate an object located at a relatively distant distance. Due to this, the accuracy of depth information for a distant object may be lowered. Therefore, the angle range preferably satisfies the above-mentioned range.
  • FIG. 6 is another view illustrating an arrangement of a light emitting unit and a reflective member in the camera module according to the embodiment.
  • descriptions of the same and similar components as those of the camera module described above are omitted, and the same reference numerals are assigned to the same and similar components.
  • the reflective member 500 may be disposed side by side with the light source 110 .
  • the reflective member 500 may be disposed between the light source 110 and the first lens unit 130 .
  • the reflective member 500 may include a plurality of mirrors 510 .
  • the centers of the plurality of mirrors 510 may overlap the optical axis OA of the light source 110 .
  • the plurality of mirrors 510 may be disposed in a region corresponding to the light emitting device of the light source 110 .
  • the plurality of mirrors 510 may be disposed in a region corresponding to the light emitting device disposed in a set pattern.
  • the plurality of mirrors 510 may be disposed in a region corresponding to the aperture of the light emitting device.
  • the plurality of mirrors 510 may be disposed to be inclined by a reference angle ⁇ with respect to the optical axis OA of the light source 110 .
  • the reference angle ⁇ may be 90 degrees or less. In detail, the reference angle ⁇ may be 45 degrees.
  • the plurality of mirrors 510 may control the emission direction of the light emitted from the light source 110 .
  • the light emitted from the light source 110 and incident on the reflective member 500 may be emitted with a path changed by 90 degrees by the plurality of mirrors 510 .
  • the light emitted from the light source 110 may be reflected by the plurality of mirrors 510 and may be incident on the first lens unit 130 , and may pass through the first lens unit 130 and be emitted toward the object.
  • the plurality of mirrors 510 may be tilted in a predetermined angle range based on the reference angle ⁇ . In this case, the plurality of mirrors 510 may be tilted in a two-dimensional or three-dimensional direction. In detail, the plurality of mirrors 510 may be tilted within the predetermined angle range by a signal applied from the controller 710 .
  • the first lens unit 130 may be disposed on the reflective member 500 .
  • the first lens unit 130 may be disposed in a region whose center is perpendicular to the optical axis OA of the light source 110 .
  • the first lens unit 130 may control a path of the light reflected by the reflective member 500 .
  • the first lens unit 130 may condense, diffuse, and scatter the light reflected by the reflective member 500 .
  • the first lens unit 130 may transform the light reflected by the reflective member 500 into a set shape.
  • the first lens unit 130 may transform the light reflected by the reflective member 500 into various cross-sectional shapes, such as a circular shape, an elliptical shape, and a polygonal shape.
  • the first lens unit 130 may transform the light reflected by the reflective member 500 into a plurality of point light sources.
  • the first lens unit 130 may transform the light reflected by the reflective member 500 into a shape corresponding to the effective area of the image sensor 310 of the light receiving unit 300 .
  • the driving member 150 may be disposed on the first lens unit 130 .
  • the driving member 150 may move the first lens unit 130 .
  • the driving member 150 may control a distance between the first lens unit 130 and the reflective member 500 .
  • the driving member 150 may move the first lens unit 130 in a direction perpendicular to the optical axis OA of the light source 110 . Accordingly, the distance between the first lens unit 130 and the reflective member 500 may increase or decrease. In addition, the distance between the first lens unit 130 and the light source 110 may also increase or decrease.
  • the driving member 150 may move at least one lens of the first lens unit 130 in a direction perpendicular to the optical axis OA of the light source 110 .
  • the distance between the reflective member 500 and one lens closest to the reflective member 500 may vary.
  • the distance between the one lens and the other lens may also change.
  • the driving member 150 may control the position of the first lens unit 130 .
  • the driving member 150 controls the distance between the first lens unit 130 and the reflective member 500 so that the light emitted from the camera module 1000 forms a surface light source or a point light source.
  • FIGS. 7 and 8 are other views illustrating the arrangement of the light emitting unit and the reflective member in the camera module according to the embodiment.
  • descriptions of the same and similar components as those of the camera module described above are omitted, and the same reference numerals are assigned to the same and similar components.
  • the reflective member 500 is disposed on the first lens unit 130 as shown in FIG. 7 or the light source 110 and the first lens unit 130 as shown in FIG. 8 . can be placed between them.
  • the reflective member 500 may include a plurality of mirrors 510 .
  • the centers of the plurality of mirrors 510 may overlap the optical axis OA of the light source 110 .
  • the plurality of mirrors 510 may be disposed in a region corresponding to the light emitting device of the light source 110 .
  • the plurality of mirrors 510 may be disposed in a region corresponding to the light emitting device disposed in a set pattern.
  • the plurality of mirrors 510 may be disposed in a region corresponding to the aperture of the light emitting device.
  • the plurality of mirrors 510 may be disposed to be inclined by a reference angle ⁇ with respect to the optical axis OA of the light source 110 .
  • the reference angle ⁇ may be 90 degrees or less.
  • the reference angle ⁇ may be 90 degrees. That is, an imaginary plane extending the upper surfaces of each of the plurality of mirrors 510 may be perpendicular to the optical axis OA of the light source 110 .
  • the plurality of mirrors 510 may transmit or semi-transmit the light emitted from the light source 110 . Accordingly, the plurality of mirrors 510 may control the emission direction of the light emitted from the light source 110 .
  • the light emitted from the light source 110 may pass through the first lens unit 130 , and the light passing through the first lens unit 130 may pass through the plurality of mirrors ( 510) and may be emitted toward the object.
  • the light emitted from the light source 110 may pass through the plurality of mirrors 510 , and the light passing through the plurality of mirrors 510 may pass through the first lens unit 130 . It may pass through and be emitted toward the object.
  • the plurality of mirrors 510 may be tilted in a predetermined angle range based on the reference angle ⁇ . In this case, the plurality of mirrors 510 may be tilted in a two-dimensional or three-dimensional direction. In detail, the plurality of mirrors 510 may be tilted within the predetermined angle range by a signal applied from the controller 710 .
  • FIG. 9 to 11 are diagrams for explaining tilt of the reflective member according to the presence or absence of an object
  • FIG. 12 is a diagram for a method of operating a camera module according to an embodiment.
  • the light emitting unit 100 of the camera module 1000 may emit light toward the front, and the light receiving unit 300 may detect the light reflected from the object and incident on the light receiving unit 300 .
  • the camera module 1000 may obtain an RGB image or a Gray image.
  • the light emitted from the light source 110 may pass through the first lens unit 130 and be incident on the reflective member 500 . Thereafter, the light incident on the reflective member 500 may be reflected by the plurality of mirrors 510 and emitted toward the front of the camera module 1000 .
  • the plurality of mirrors 510 may include first to eighth mirrors 511 , 512 , 513 , 514 , 515 , 516 inclined by a reference angle ⁇ with respect to the optical axis OA of the light source 110 . , 517, 518).
  • the light emitted from the light source 110 includes the first light L1 reflected by the first mirror 511 , the second light L2 reflected by the second mirror 512 , and the third light L2 reflected by the second mirror 512 .
  • the third light L3 reflected by the mirror 513 and the fourth light L4 reflected by the fourth mirror 514 may be included.
  • the light emitted from the light source 110 includes a fifth light L5 reflected by the fifth mirror 515 , a sixth light L6 reflected by the sixth mirror 516 , and the seventh light L5 .
  • the seventh light L7 reflected by the mirror 517 and the eighth light L8 reflected by the eighth mirror 518 may be included.
  • the first to eighth lights L1 to L8 may be emitted toward a target disposed in front of the camera module 1000 .
  • the first to eighth lights L1 to L8 may be emitted in a set direction and area.
  • the first to eighth lights L1 to L8 may be emitted as a surface light source or a point light source by the first lens unit 130 and the driving member 150 .
  • the first to eighth lights L1 to L8 may be reflected on the target, and the reflected reflected light RL may be incident on the light receiving unit 300 .
  • the camera module 1000 may determine the presence or absence of an object in the acquired image, and may select the object.
  • the controller 710 may select an object when there is an object in the image. Also, the user may select an object from the acquired image.
  • the controller 710 or the user can select the first object Ob1 .
  • control unit 710 may calculate the movement amount.
  • the controller 710 may calculate the amount of movement of the reflective member 500 with respect to the first object Ob1.
  • the controller 710 controls at least one mirror 510 corresponding to the first object Ob1 among the plurality of mirrors 510 and at least one mirror 510 among the mirrors 510 around the first object Ob1 . can calculate the amount of movement, for example, the degree of tilt.
  • the first object Ob1 may be located in an area corresponding to at least one of the plurality of mirrors 510 .
  • the first object Ob1 may be located in an area corresponding to the first mirror 511 as shown in FIG. 8 . Accordingly, the first light L1 of the first mirror 511 may be incident on the first object Ob1.
  • the controller 710 may control the mirror 510 for irradiating light to the first object Ob1 and at least one mirror 510 for irradiating light to the periphery of the first object Ob1.
  • the controller 710 may control the first mirror 511 that forms the first light L1 .
  • the first reamer 511 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 . Accordingly, the first mirror 511 may provide more light to the first object Ob1 .
  • the controller 710 may control the second mirror 512 and the third mirror 513 that form the second light L2 and the third light L3 .
  • the first mirror 511 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 .
  • the second mirror 512 and the third mirror 513 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 .
  • the second mirror 512 may be tilted by a second angle ⁇ 2 from the reference angle ⁇
  • the third mirror 513 may be tilted by a third angle ⁇ 2 from the reference angle ⁇ . It can be tilted by ⁇ 3).
  • the second angle ⁇ 2 and the third angle ⁇ 3 satisfy the above-described predetermined angle range and may be less than about 5 degrees.
  • the remaining mirrors for example, the fourth to eighth mirrors 514 , 515 , 516 , 517 , and 518 may be disposed without being tilted while maintaining the reference angle ⁇ .
  • the camera module 1000 may direct the light irradiated to the periphery of the first object Ob1 toward the first object Ob1. Accordingly, more light may be irradiated to the first object Ob1 , and more reflected light RL reflected by the first object Ob1 may be incident on the image sensor 310 of the light receiving unit 300 .
  • the camera module 1000 may have a more accurate focus on the first object Ob1 .
  • the camera module 1000 may effectively measure the distance to the first object Ob1 and obtain improved depth information on the first object Ob1 .
  • the second and third mirrors 512 and 513 may return to the reference angle ⁇ without being tilted and maintained.
  • the camera module 1000 when the first object Ob1 is located at a relatively long distance, the intensity of light reaching the first object Ob1 may be relatively small. However, the camera module 1000 according to the embodiment may focus the light on the first object Ob1 by tilting the at least one mirror 510 . Accordingly, even when the first object Ob1 is located at a long distance, depth information with improved accuracy can be obtained.
  • the camera module 1000 may track the first object Ob1. For example, when the position of the first object Ob1 is changed, the mirror 510 corresponding to the first object Ob1 and the mirror 510 corresponding to the periphery of the first object Ob1 are displayed. can be controlled Accordingly, the camera module 1000 may acquire depth information in real time while more accurately focusing on an object whose position changes.
  • the optical axis of the light emitting unit 100 and the optical axis of the light receiving unit 300 may be disposed perpendicular to each other. That is, since the light emitting part 100 may have a shape extending in a horizontal direction, the overall thickness of the camera module 1000 may be reduced.
  • a plurality of objects may be positioned in front of the camera module 1000 .
  • a first object Ob1 and a second object Ob2 spaced apart from the first object Ob1 may be positioned on the front side of the camera module 1000 .
  • the controller 710 or the user may select at least one of the first object Ob1 and the second object Ob2.
  • control unit 710 may calculate the movement amount.
  • the controller 710 or the user selects both the first object Ob1 and the second object Ob2
  • the controller 710 controls the first object Ob1 and the second object
  • a movement amount of at least one mirror 510 corresponding to (Ob2) may be calculated.
  • the controller 710 may calculate a movement amount of at least one mirror 510 corresponding to peripheral portions of the first object Ob1 and the second object Ob2 .
  • the first object Ob1 may be located in an area corresponding to the first mirror 511 , and the first object Ob1 has the first light L1 of the first mirror 511 . ) can be entered.
  • the controller 710 may control the first mirror 511 irradiating light to the first object Ob1 .
  • the controller 710 may control the second mirror 512 and the third mirror 513 for irradiating light to the periphery of the first object Ob1 .
  • the first mirror 511 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 .
  • the second mirror 512 and the third mirror 513 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 .
  • the second mirror 512 may be tilted by a second angle ⁇ 2 from the reference angle ⁇
  • the third mirror 513 may be tilted by a third angle ⁇ 2 from the reference angle ⁇ . It can be tilted by ⁇ 3).
  • the second object Ob2 may be located in an area corresponding to the seventh mirror 517 , and the seventh light L7 of the seventh mirror 517 is transmitted to the second object Ob2 .
  • the controller 710 may control the seventh mirror 517 for emitting light to the second object Ob2 .
  • the controller 710 may control a sixth mirror 516 and an eighth mirror 518 that radiate light to the periphery of the second object Ob2 .
  • the seventh mirror 517 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 .
  • the sixth mirror 516 and the eighth mirror 518 may be tilted within a predetermined angle range from the reference angle ⁇ by the controller 710 .
  • the sixth mirror 516 may be tilted by a sixth angle ⁇ 6 from the reference angle ⁇
  • the eighth mirror 518 may be tilted by an eighth angle ⁇ from the reference angle ⁇ . It can be tilted by ⁇ 8).
  • the tilt angle of the first mirror 511 , the tilt angle of the seventh mirror 517 , the second angle ⁇ 2 , the third angle ⁇ 3 , the sixth angle ⁇ 6 , and the eighth angle ( ⁇ 8) satisfies the above-described predetermined angle range and may be less than about 5 degrees.
  • the camera module 1000 may direct the light irradiated to the periphery of each of the first and second objects Ob1 and Ob2 toward the first and second objects Ob1 and Ob2. have. Accordingly, more light may be irradiated to the first and second objects Ob1 and Ob2, and the reflected light RL reflected from the first and second objects Ob1 and Ob2, respectively, to the image sensor 310 ) can be entered more often. Therefore, the camera module 1000 may simultaneously focus on a plurality of objects. Also, the camera module 1000 may effectively measure the respective distances to the first and second objects Ob1 and Ob2, and may acquire depth information with improved accuracy.
  • the first object Ob1 and the second object Ob2 may be located at different positions.
  • the first object Ob1 may be located at a greater distance from the camera module 1000 than the second object Ob2 .
  • the camera module 1000 controls a mirror 510 corresponding to the first and second objects Ob1 and Ob2, respectively, and a mirror 510 of the peripheral portion to control the plurality of objects Ob1 and Ob2. Ob2) different depth information can be acquired at the same time.
  • the first object Ob1 and the second object Ob2 may move in the same direction or in different directions.
  • the camera module 1000 controls the mirror 510 corresponding to each of the objects Ob1 and Ob2 and the mirror 510 of its periphery to accurately maintain the focus on the plurality of objects Ob1 and Ob2.
  • the camera module 1000 may acquire depth information on a plurality of objects whose positions change in real time, and may improve the accuracy of the depth information.
  • the camera module according to the embodiment may be applied to an optical device.
  • the camera module 1000 may be applied to a mobile terminal 1500 .
  • a first camera module 1000 and a second camera module 1010 may be disposed on the rear side of the mobile terminal 1500 according to the embodiment.
  • the first camera module 1000 is the above-described camera module 1000 and may include a light emitting unit 100 and a light receiving unit 300 .
  • the camera module 1000 may be a time of flight (TOF) camera.
  • TOF time of flight
  • the second camera module 1010 may include an image capturing function. Also, the second camera module 1000 may include at least one of an auto focus function, a zoom function, and an OIS function. The second camera module 1010 may process a still image or an image frame obtained by an image sensor in a shooting mode or a video call mode. The processed image frame may be displayed on a predetermined display unit and stored in a memory. In addition, although not shown in the drawings, a camera may also be disposed on the front of the mobile terminal 1500 .
  • a flash module 1530 may be disposed on the rear surface of the mobile terminal 1500 .
  • the flash module 1530 may include a light emitting device emitting light therein.
  • the flash module 1530 may be operated by a camera operation of a mobile terminal or a user's control.
  • the user may photograph and display the object using the mobile terminal 1500 .
  • the user can effectively grasp the depth information of the object by using the first camera module 1000 .
  • the camera module 1000 may be applied to a vehicle 3000 .
  • the vehicle 3000 may include wheels 13FL and 13FR that rotate by a power source and a predetermined sensor.
  • the sensor may include a camera sensor 2000 , and the camera sensor 2000 may be a camera sensor including the above-described camera module 1000 .
  • the vehicle 3000 may acquire image information and depth information through a camera sensor 2000 that captures a front image or a surrounding image, and determines a lane unidentified situation using the image and depth information, and When unidentified, a virtual lane may be created.
  • the camera sensor 2000 may acquire a front image by photographing the front of the vehicle 3000 , and a processor (not shown) may obtain image information by analyzing an object included in the front image.
  • the processor provides image information of the object
  • depth information can be detected. That is, the embodiment may provide more specific and accurate information about the object to the occupant of the vehicle 3000 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

실시예에 따른 카메라 모듈은 발광부 및 이미지 센서를 포함하고, 상기 발광부는 광원, 상기 광원 상에 배치되는 제 1 렌즈부, 상기 광원에서 방출한 광을 반사하는 반사 부재 및 상기 제1 렌즈부를 상기 광원과 상기 반사부재 사이에서 이동시키는 구동 부재를 포함하고, 상기 반사 부재는 복수의 미러를 포함하고, 상기 복수의 미러는 기준각으로부터 소정의 각도 범위 내에서 틸트 가능하게 배치될 수 있다.

Description

카메라 모듈
실시예는 카메라 모듈에 관한 것이다.
카메라 모듈은 객체를 촬영하여 이미지 또는 동영상으로 저장하는 기능을 수행하며 다양한 어플리케이션에 장착되고 있다. 특히 카메라 모듈은 초소형으로 제작되어 스마트폰, 태블릿 PC, 노트북 등의 휴대용 디바이스뿐만 아니라 드론, 차량 등에 적용되어 다양한 기능을 제공하고 있다.
예를 들어, 카메라 모듈은 이미지 센서와 렌즈 사이의 간격을 자동 조절하여 렌즈의 초점거리를 정렬하는 오토포커스(autofocus, AF) 기능을 수행할 수 있고, 줌 렌즈(zoom lens)를 통해 원거리의 객체의 배율을 증가 또는 감소시켜 촬영하는 줌 업(zoom up) 또는 줌 아웃(zoom out)의 주밍(zooming) 기능을 수행할 수 있다. 또한, 카메라 모듈은 영상 흔들림 방지(image stabilization, IS)기술을 채용하여 불안정한 고정장치 혹은 사용자의 움직임에 기인한 카메라의 움직임으로 인한 영상의 흔들림을 보정하거나 방지하는 기술이 채용되고 있다.
뿐만 아니라, 최근에는 3차원 컨텐츠에 대한 수요 및 공급이 증가하고 있다. 이에 따라 3차원 컨텐츠 구현을 위해 깊이 정보를 파악할 수 있는 다양한 기술들이 연구 및 개발되고 있다. 예를 들어, 깊이 정보를 파악할 수 있는 기술은 스테레오(Stereo) 카메라를 이용한 기술, 구조광(Structured light) 카메라를 이용한 기술, DFD(Depth from defocus) 카메라를 이용한 기술, TOF(Time of flight) 카메라 모듈을 이용한 기술 등이 있다.
먼저, 스테레오(Stereo) 카메라를 이용한 기술은 복수의 카메라, 예컨대 좌측 및 우측에 배치된 각각의 카메라를 통해 수신된 영상의 좌우 시차에서 발생하는 거리, 간격 등의 차이를 이용하여 깊이 정보를 생성하는 기술이다.
또한, 구조광(Structured light) 카메라를 이용한 기술은 설정된 패턴을 형성하도록 배치된 광원을 이용하여 깊이 정보를 생성하는 기술이며, DFD(Depth from defocus) 카메라를 이용한 기술은 초점의 흐려짐을 이용한 기술로 동일한 장면에서 촬영된 서로 다른 초점을 가지는 복수의 영상을 이용하여 깊이 정보를 생성하는 기술이다.
또한, TOF(Time of flight) 카메라는 광원에서 대상을 향해 방출한 광이 상기 대상에 반사되어 센서에 돌아오는 시간을 측정함으로써 상기 대상과의 거리를 계산하여 깊이 정보를 생성하는 기술이다. 이러한 TOF 카메라는 깊이 정보를 실시간으로 획득할 수 있는 장점이 있어 최근 주목받고 있다.
그러나, TOF 카메라는 상대적으로 높은 파장 대역의 광을 사용하여 안전상 문제가 있다. 자세하게, TOF 카메라에 사용되는 광은 일반적으로 적외선 파장 대역의 광을 사용하며, 상기 광이 사람의 민감한 부위, 예컨대 눈, 피부 등에 입사될 경우 각종 부상 및 질환을 유발할 수 있는 문제가 있다.
또한, TOF 카메라의 발광부는 카메라 전면에 위치한 객체의 크기, 객체와의 거리 등과 무관하게 동일한 광도 및 크기의 광을 발광하고 있으며, FOI(Field of illumination) 또는 특정 위치에 제한되어 발광하고 있다. 이에 따라, FOI 또는 특정 위치에 광이 도달하지 않거나, 낮은 세기의 광이 도달하여 깊이 정보에 대한 정확도가 감소하는 문제점이 있다. 즉, 공간에 대한 해상도(spatial resolution) 특성이 낮은 문제점이 있다.
따라서, 상술한 문제를 해결할 수 있는 새로운 카메라 모듈이 요구된다.
실시예는 객체에 대한 깊이 정보를 실시간으로 획득할 수 있는 카메라 모듈을 제공하고자 한다.
또한, 실시예는 객체에 대한 깊이 정보의 정확도를 향상시킬 수 있는 카메라 모듈을 제공하고자 한다.
또한, 실시예는 장거리에 위치한 객체의 깊이 정보를 효과적으로 획득할 수 있는 카메라 모듈을 제공하고자 한다.
또한, 실시예는 복수의 객체의 깊이 정보를 동시에 획득할 수 있는 카메라 모듈을 제공하고자 한다.
또한, 실시예는 두께 및 부피를 감소시킬 수 있는 카메라 모듈을 제공하고자 한다.
실시예에 따른 카메라 모듈은 발광부 및 이미지 센서를 포함하고, 상기 발광부는 광원, 상기 광원 상에 배치되는 제 1 렌즈부, 상기 광원에서 방출한 광을 반사하는 반사 부재 및 상기 제1 렌즈부를 상기 광원과 상기 반사부재 사이에서 이동시키는 구동 부재를 포함하고, 상기 반사 부재는 복수의 미러를 포함하고, 상기 복수의 미러는 기준각으로부터 소정의 각도 범위 내에서 틸트 가능하게 배치될 수 있다.
또한, 객체가 선택될 경우 상기 객체와 대응되는 미러 및 상기 객체의 주변부와 대응되는 미러 중 적어도 하나는, 상기 기준각으로부터 상기 소정의 각도 범위 내에서 틸트될 수 있다.
또한, 상기 복수의 미러 중에 상기 객체와 대응되지 않는 미러는 상기 기준각을 유지하며 배치될 수 있다.
또한, 상기 복수의 미러는 반사형 MEMS(Micro-electric mechanical system) 미러, 투과형 MEMS 미러, 반사형 DMD(Digital Micromirror Device) 소자 및 투과형 DMD 소자 중 적어도 하나를 포함할 수 있다.
또한, 상기 복수의 미러는 상기 광원의 광축에 대해 상기 기준각으로 기울어지며 배치되고, 상기 기준각은 45도일 수 있다.
또한, 상기 광원은 수직 캐비티 표면 방출 레이저를 포함하고, 상기 수직 캐비티 표면 방출 레이저는 복수의 어퍼쳐(aperture)를 포함하고, 상기 복수의 미러는 상기 복수의 어퍼쳐의 수보다 많거나 같은 수로 제공될 수 있다.
또한, 상기 제 1 렌즈부는 상기 구동 부재에 의해 상기 광원의 광축을 따라 이동할 수 있다.
또한, 상기 제 1 렌즈부는 상기 구동 부재에 의해 상기 광원의 광축과 수직인 방향을 따라 이동할 수 있다.
또한, 상기 구동 부재는 객체에 조사되는 광 패턴을 면 광원 또는 점 광원으로 조정할 수 있다.
또한, 상기 이미지 센서를 포함하는 수광부를 포함하고, 상기 수광부는 상기 이미지 센서 상에 배치되는 제 2 렌즈부를 포함할 수 있다.
또한, 실시예에 따른 카메라 모듈은 발광부 및 이미지 센서를 포함하고, 상기 발광부는 광원, 상기 광원 상에 배치되며 상기 광원에서 방출한 광을 반사하는 반사 부재를 포함하고, 상기 광원은 수직 캐비티 표면 방출 레이저를 포함하고, 상기 수직 캐비티 표면 방출 레이저는 복수의 어퍼쳐(aperture)를 포함하고, 상기 반사 부재는 복수의 미러를 포함하고, 상기 복수의 미러는 상기 복수의 어퍼쳐의 수 이상이고, 상기 복수의 미러는 기준각으로부터 소정의 각도 범위 내에서 틸트 가능하게 배치될 수 있다.
실시예에 따른 카메라 모듈은 객체에 대한 깊이 정보를 실시간으로 획득할 수 있으며 정확도가 향상된 깊이 정보를 획득할 수 있다. 자세하게, 상기 카메라 모듈은 광원과 수광부 사이에 배치되는 반사 부재를 포함하고, 상기 반사 부재는 복수의 미러를 포함할 수 있다. 이때, 상기 복수의 미러는 제어부에 의해 소정의 각도로 틸트될 수 있으며, 이로 인해 상기 객체에 보다 많은 광을 집중할 수 있다. 이에 따라, 상기 카메라 모듈은 상기 객체에 대한 깊이 정보의 정확도를 향상시킬 수 있다.
또한, 실시예에 따른 카메라 모듈은 장거리에 위치한 객체의 깊이 정보를 효과적으로 획득할 수 있다. 자세하게, 상기 카메라 모듈은 복수의 미러 중 상기 객체와 대응되는 미러 및 상기 객체의 주변부와 대응되는 미러를 제어할 수 있다. 이에 따라, 장거리에 위치한 상기 객체에 보다 많은 광을 집중할 수 있어 정확도가 향상된 깊이 정보를 얻을 수 있다.
또한, 실시예에 따른 카메라 모듈은 객체를 트래킹(tracking)할 수 있다. 자세하게, 상기 카메라 모듈은 상기 객체의 이동 등에 의해 위치가 변경될 경우 이와 대응되는 미러를 제어할 수 있다. 따라서, 객체의 위치가 변경되어도 정확한 깊이 정보를 실시간으로 획득할 수 있다.
또한, 실시예에 따른 카메라 모듈은 서로 다른 위치에 위치한 복수의 객체의 깊이 정보를 획득할 수 있다. 자세하게, 상기 카메라 모듈은 상기 복수의 객체와 각각 대응되는 미러, 복수의 객체의 주변부와 대응되는 미러를 제어할 수 있다. 이에 따라, 상기 복수의 객체에 대한 깊이 정보를 동시에 획득할 수 있고, 정확도가 향상된 깊이 정보를 얻을 수 있다.
또한, 실시예에 따른 카메라 모듈의 발광부는 수광부와 다른 방향으로 연장할 수 있다. 자세하게, 상기 발광부의 광축은 상기 수광부의 광축과 수직인 형태로 배치될 수 있다. 이에 따라, 상기 카메라 모듈은 보다 얇은 두께, 작은 부피를 가질 수 있다.
도 1은 실시예에 따른 카메라 모듈의 구성도이다.
도 2는 실시예에 따른 카메라 모듈에서 발광부 및 수광부의 구성도이다.
도 3은 실시예에 따른 카메라 모듈에서 발광부와 반사 부재의 배치를 나타낸 도면이다.
도 4는 실시예에 따른 카메라 모듈의 광 패턴을 설명하기 위한 도면이다.
도 5는 실시예에 따른 반사 부재의 정면도이다.
도 6은 실시예에 따른 카메라 모듈에서 발광부와 반사 부재의 배치를 나타낸 다른 도면이다.
도 7 및 도 8은 실시예에 따른 카메라 모듈에서 발광부와 반사 부재의 배치를 나타낸 또 다른 도면들이다.
도 9 내지 도 11은 객체의 유무에 따른 반사 부재의 틸트를 설명하기 위한 도면이다.
도 12는 실시예에 따른 카메라 모듈의 동작 방법에 대한 도면이다.
도 13 및 도 14는 실시예에 따른 카메라 모듈이 적용된 이동 단말기 및 차량의 사시도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다. 그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속'되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 " 상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한 "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
또한, 발명의 실시예에 대한 설명을 하기 앞서 제1 방향은 도면에 도시된 x축 방향을 의미할 수 있고, 제2 방향은 상기 제1 방향과 다른 방향일 수 있다. 일례로, 상기 제2 방향은 상기 제1 방향과 수직인 방향으로 도면에 도시된 y축 방향을 의미할 수 있다. 또한, 수평 방향은 제1 및 제2 방향을 의미할 수 있고, 수직 방향은 상기 제1 및 제2 방향 중 적어도 한 방향과 수직인 방향을 의미할 수 있다. 예를 들어, 상기 수평 방향은 도면의 x축 및 y축 방향을 의미할 수 있고, 수직 방향은 도면의 z축 방향으로 상기 x축 및 y축 방향과 수직인 방향일 수 있다.
도 1은 실시예에 따른 카메라 모듈의 구성도이고, 도 2는 실시예에 따른 카메라 모듈에서 발광부 및 수광부의 구성도이다. 또한, 도 3은 실시예에 따른 카메라 모듈에서 발광부와 반사 부재의 배치를 나타낸 도면이고, 도 4는 실시예에 따른 카메라 모듈의 광 패턴을 설명하기 위한 도면이다. 또한, 도 5는 실시예에 따른 반사 부재의 정면도이다.
먼저 도 1을 참조하면, 실시예에 따른 카메라 모듈(1000)은 상기 카메라 모듈(1000)은 발광부(100), 수광부(300), 반사 부재(500) 및 제어부(710)를 포함할 수 있다.
상기 발광부(100)는 광을 방출할 수 있다. 상기 발광부(100)는 설정된 세기의 광을 방출할 수 있다. 상기 발광부(100)는 설정된 방향으로 설정된 파장 대역의 광을 방출할 수 있다. 예를 들어, 상기 발광부(100)는 가시광 또는 적외선 파장 대역의 광을 방출할 수 있다. 상기 발광부(100)는 약 700nm 내지 약 1mm 파장 대역의 적외선 광을 방출할 수 있다. 상기 발광부(100)는 상기 발광부(100)의 전면 방향으로 광을 방출할 수 있다. 예컨대, 상기 발광부(100)는 광 출사 방향에 위치한 객체를 향해 광을 방출할 수 있다.
상기 수광부(300)는 광을 수광할 수 있다. 상기 수광부(300)는 상기 객체에 반사된 광을 감지할 수 있다. 상기 수광부(300)는 상기 발광부(100)에서 방출된 광을 감지할 수 있다. 상기 수광부(300)는 상기 발광부(100)가 방출한 광과 대응되는 파장 대역의 광을 감지할 수 있다. 자세하게, 상기 수광부(300)는 상기 발광부(100)에서 방출되어 상기 객체에 반사된 광을 감지할 수 있다.
즉, 상기 카메라 모듈(1000)은 객체를 향해 광을 방출하고 객체에 반사되어 되돌아오는 광 정보를 바탕으로 객체의 깊이 정보를 산출하는 TOF(Time of flight) 카메라일 수 있다.
상기 반사 부재(500)는 상기 발광부(100) 상에 배치될 수 있다. 상기 반사 부재(500)는 상기 발광부(100) 및 상기 수광부(300) 사이에 배치될 수 있다. 자세하게, 상기 반사 부재(500)는 상기 발광부(100) 및 상기 객체 사이에 배치될 수 있다.
예를 들어, 상기 반사 부재(500)는 상기 발광부(100) 내에 배치될 수 있다. 이 경우, 상기 반사 부재(500)는 상기 발광부(100)의 광원(110)과 상기 객체 사이에 배치될 수 있다. 이와 다르게, 상기 반사 부재(500)는 상기 발광부(100)와 상에 배치되며 상기 발광부(100)와 이격될 수 있다. 상기 반사 부재(500)는 상기 발광부(100)에서 방출된 광을 설정된 각도로 반사시킬 수 있다. 상기 반사 부재(500)에 대해서는 후술할 도면을 이용하여 보다 상세히 설명하도록 한다.
상기 제어부(710)는 상기 발광부(100) 및 상기 수광부(300) 중 적어도 하나와 연결될 수 있다. 상기 제어부(710)는 상기 발광부(100) 및 상기 수광부(300) 중 적어도 하나의 구동을 제어할 수 있다. 또한, 상기 제어부(710)는 상기 반사 부재(500)와 연결되어 상기 반사 부재(500)의 구동을 제어할 수 있다. 예를 들어, 상기 제어부(710)는 객체의 크기, 위치 형태 등에 따라 상기 반사 부재(500)에 포함된 복수의 미러(510)의 틸트 각도를 제어할 수 있다.
상기 카메라 모듈(1000) 결합부(미도시) 및 연결부(미도시)를 더 포함할 수 있다.
상기 결합부는 후술할 광학 기기와 연결될 수 있다. 상기 결합부는 회로기판 및 상기 회로기판 상에 배치되는 단자를 포함할 수 있다. 일례로, 상기 단자는 상기 광학 기기와의 물리적, 전기적 연결을 위한 커넥터일 수 있다.
상기 연결부는 후술할 상기 카메라 모듈(1000)의 기판(50)과 상기 결합부 사이에 배치될 수 있다. 상기 연결부는 상기 기판(50)과 상기 결합부를 연결할 수 있다. 일례로, 상기 연결부는 연성 PCB(FBCB)를 포함할 수 있고, 상기 기판(50)과 상기 결합부의 회로기판을 전기적으로 연결할 수 있다. 여기서 상기 기판(50)은 후술할 제 1 기판(50a) 및 제 2 기판(50b) 중 적어도 하나일 수 있다.
도 2 내지 도 5를 참조하여 실시예에 따른 발광부(100) 및 수광부(300)에 대해 보다 상세히 설명한다.
도 2 내지 도 5를 참조하면, 상기 발광부(100)는 제 1 기판(50a) 상에 배치되며, 광원(110) 및 제 1 렌즈부(130)를 포함할 수 있다.
상기 제 1 기판(50a)은 상기 발광부(100)를 지지할 수 있다. 상기 제 1 기판(50a)은 상기 발광부(100)와 전기적으로 연결될 수 있다. 상기 제 1 기판(50a)은 회로 기판일 수 있다. 상기 제 1 기판(50a)은 상기 발광부(100)에 전원을 공급하기 위한 배선층을 포함할 수 있고, 복수의 수지층으로 형성된 인쇄회로기판(PCB; Printed Circuit Board)일 수 있다. 일례로, 상기 제 1 기판(50a)은 리지드 PCB(Rigid PCB), 메탈 코어 PCB(MCPCB, Metal Core PCB), 연성 PCB(FPCB, Flexible PCB), RFPCB(Rigid Flexible PCB) 중 적어도 하나를 포함할 수 있다.
또한, 상기 제 1 기판(50a)은 글래스(glass), 수지, 에폭시 등을 포함하는 합성 수지를 포함할 수 있고, 열전도성이 우수한 세라믹(ceramic), 표면이 절연된 금속을 포함할 수 있다. 상기 제 1 기판(50a)은 플레이트, 리드 프레임과 같은 형태를 가질 수 있으며 이에 대해 한정하지 않는다. 또한, 도면에는 도시하지 않았지만, 상기 제 1 기판(50a) 상에는 제너 다이오드, 변압 조절기 및 저항 등이 더 배치될 수 있으며, 이에 대해 한정하지 않는다.
상기 제 1 기판(50a) 상에는 절연층(미도시) 또는 보호층(미도시)이 배치될 수 있다. 상기 절연층 또는 보호층은 상기 제 1 기판(50a)의 일면 및 타면 중 적어도 하나의 면 상에 배치될 수 있다.
상기 광원(110)은 상기 제 1 기판(50a) 상에 배치될 수 있다. 상기 광원(110)은 상기 제 1 기판(50a)의 상면과 직접 접촉하며 상기 제 1 기판(50a)과 전기적으로 연결될 수 있다.
상기 광원(110)은 발광소자를 포함할 수 있다. 예를 들어, 상기 광원(110)은 발광 다이오드(LED; Light Emitting diode), 수직 캐비티 표면 방출 레이저(VCSEL; Vertical Cavity Surface Emitting Laser), 유기 발광 다이오드(OLED; Organic Light Emitting diode) 및 레이저 다이오드(LD; Laser diode) 중 적어도 하나의 발광소자를 포함할 수 있다.
상기 광원(110)은 하나 또는 복수의 발광소자를 포함할 수 있다. 일례로, 상기 제 1 기판(50a) 상에 복수의 발광소자가 배치될 경우, 상기 복수의 발광소자는 상기 제 1 기판(50a) 상에서 설정된 패턴을 따라 배치될 수 있다. 자세하게, 상기 복수의 발광소자는 상기 복수의 발광소자에서 광이 방출되는 영역, 예컨대 광 방출을 위한 적어도 하나의 어퍼쳐(aperture)가 소정의 규칙을 가지도록 배치될 수 있다. 이에 따라, 상기 광원(110)은 설정된 방향으로 설정된 세기의 광을 방출할 수 있다.
상기 광원(110)은 설정된 파장 대역의 광을 방출할 수 있다. 자세하게, 상기 광원(110)은 가시광 또는 적외선 광을 방출할 수 있다. 예를 들어, 상기 광원(110)은 약 380nm 내지 약 700nm 파장 대역의 가시광을 방출할 수 있다. 또한, 상기 광원(110)은 약 700nm 내지 약 1mm 파장 대역의 적외선 광을 방출할 수 있다.
상기 광원(110) 상에는 제 1 렌즈부(130)가 배치될 수 있다. 상기 제 1 렌즈부(130)는 상기 광원(110)과 이격되며 적어도 하나의 렌즈 및 상기 렌즈를 수용하는 하우징을 포함할 수 있다. 상기 렌즈는 유리(glass), 플라스틱(plastic) 중 적어도 하나를 포함할 수 있다.
상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광의 방출 경로 상에 배치될 수 있다. 상기 제 1 렌즈부(130)는 상기 광원(110)과 대응되는 영역 상에 배치될 수 있다. 자세하게, 상기 제 1 렌즈부(130)는 중심이 상기 광원(110)의 광축(OA)과 중첩되는 영역에 배치될 수 있다.
상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광의 경로를 제어할 수 있다. 예를 들어, 상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광을 집광, 확산 및 산란 중 적어도 하나를 시킬 수 있다.
상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광을 설정된 형태로 변형시킬 수 있다. 예를 들어, 상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광을 원형, 타원형, 다각형 등 다양한 단면 형상으로 변형시킬 수 있다. 또한, 상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광을 복수의 점 광원 형태로 변형시킬 수 있다. 상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광을 상기 수광부(300)의 이미지 센서(310)의 유효 영역과 대응되는 형상으로 변형시킬 수 있다.
상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광이 객체에 직접적으로 조사되는 것을 방지할 수 있다. 예를 들어, 상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광을 제어하여 사람의 눈, 피부 등과 같이 광에 민감한 영역에 광이 직접적으로 조사되는 것을 방지할 수 있다.
또한, 상기 제 1 렌즈부(130)는 상기 광원(110)에서 방출된 광의 휘도 균일도를 향상시킬 수 있다. 또한, 상기 제 1 렌즈부(130)는 상기 광원(110)의 발광소자가 배치된 곳, 예컨대 상기 발광소자의 어퍼쳐와 대응되는 영역에 광이 집중되는 핫스팟(hot spot)이 형성되는 것을 방지할 수 있다.
상기 발광부(100)는 구동 부재(150)를 더 포함할 수 있다. 구동 부재(150)는 상기 제 1 렌즈부(130) 상에 배치될 수 있다. 상기 구동 부재(150)는 상기 제 1 렌즈부(130)와 결합할 수 있다. 일례로, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)의 하우징과 결합할 수 있다. 또한, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)의 적어도 하나의 렌즈와 결합할 수 있다.
상기 구동 부재(150)는 상기 제 1 렌즈부(130)를 이동시킬 수 있다. 상기 구동 부재(150)는 적어도 하나의 액추에이터(actuator)를 포함할 수 있다.
도 3을 참조하면, 상기 제 1 렌즈부(130)는 상기 광원(110)과 상기 반사 부재(500) 사이에 배치될 수 있다. 이 경우, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)와 상기 광원(110) 사이의 거리를 제어할 수 있다. 예를 들어, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)를 상기 광원(110)과 상기 반사 부재(500) 사이에서 이동시킬 수 있다. 상기 구동 부재(150)는 상기 제 1 렌즈부(130)를 상기 광원(110)의 광축(OA)을 따라 이동시킬 수 있다. 이에 따라, 상기 제 1 렌즈부(130)와 상기 광원(110) 사이의 거리는 증감할 수 있다.
또한, 상기 구동 부재(150)는 상기 광원(110)의 광축(OA)을 따라 상기 제 1 렌즈부(130)의 적어도 하나의 렌즈를 이동시킬 수 있다. 이 경우, 상기 광원(110)과 최인접한 하나의 렌즈와 상기 광원(110) 사이의 거리는 변화할 수 있다. 그리고, 상기 제 1 렌즈부(130)가 복수의 렌즈를 포함할 경우, 상기 하나의 렌즈와 다른 렌즈 사이의 거리 또한 변화할 수 있다.
즉, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)의 위치를 제어할 수 있다. 이에 따라, 상기 광원(110)에서 방출된 광의 경로를 변경될 수 있다. 자세하게, 상기 구동 부재(150)는 상기 광원(110)과 상기 제 1 렌즈부(130)의 간격이 가까워지도록 구동하여 상기 카메라 모듈(1000)에서 방출된 광이 면 광원을 형성하도록 할 수 있다. 또한, 상기 구동 부재(150)는 상기 광원(110)과 상기 제 1 렌즈부(130)의 간격이 멀어지도록 구동하여 상기 카메라 모듈(1000)에서 방출된 광이 점 광원을 형성하도록 할 수 있다. 여기서 면 광원은 도 4(a)와 같이 설정된 영역에 균일하게 조사되는 광원을 의미할 수 있고, 점 광원은 도 4(b)와 같이 설정된 영역에 점 형태로 조사되는 광원을 의미할 수 있다.
도면에는 도시하지 않았으나, 상기 구동 부재(150)는 생략될 수 있다. 예를 들어, 상기 발광부(100)는 점 광원 및 면 광원 중 선택되는 하나의 광원을 형성할 수 있다. 이 경우, 상기 광원(110) 및 상기 제 1 렌즈부(130)는 설정된 간격으로 고정되어 점 광원 또는 면 광원을 형성할 수 있으며, 상기 제 1 렌즈부(130)의 이동이 불필요할 수 있다.
상기 수광부(300)는 제 2 기판(50b) 상에 배치되며 이미지 센서(310) 및 제 2 렌즈부(330)를 포함할 수 있다.
상기 제 2 기판(50b)은 상기 수광부(300)를 지지할 수 있다. 상기 제 2 기판(50b)은 상기 수광부(300)와 전기적으로 연결될 수 있다. 상기 제 2 기판(50b)은 회로 기판일 수 있다. 상기 제 2 기판(50b)은 상기 발광부(100)에 전원을 공급하기 위한 배선층을 포함할 수 있고, 복수의 수지층으로 형성된 인쇄회로기판(PCB; Printed Circuit Board)일 수 있다. 일례로, 상기 제 2 기판(50b)은 리지드 PCB(Rigid PCB), 메탈 코어 PCB(MCPCB, Metal Core PCB), 연성 PCB(FPCB, Flexible PCB), RFPCB(Rigid Flexible PCB) 중 적어도 하나를 포함할 수 있다.
또한, 상기 제 2 기판(50b)은 글래스(glass), 수지, 에폭시 등을 포함하는 합성 수지를 포함할 수 있고, 열전도성이 우수한 세라믹(ceramic), 표면이 절연된 금속을 포함할 수 있다. 상기 제 2 기판(50b)은 플레이트, 리드 프레임과 같은 형태를 가질 수 있으며 이에 대해 한정하지 않는다. 또한, 도면에는 도시하지 않았지만, 상기 제 2 기판(50b) 상에는 제너 다이오드, 변압 조절기 및 저항 등이 더 배치될 수 있으며, 이에 대해 한정하지 않는다.
상기 제 2 기판(50b) 상에는 절연층(미도시) 또는 보호층(미도시)이 배치될 수 있다. 상기 절연층 또는 보호층은 상기 제 2 기판(50b)의 일면 및 타면 중 적어도 하나의 면 상에 배치될 수 있다.
상기 제 2 기판(50b)은 상기 제 1 기판(50a)과 전기적으로 연결될 수 있다. 상기 제 2 기판(50b)은 상기 제 1 기판(50a)과 분리되어 이격되거나, 일체로 형성될 수 있으며, 이에 대해 한정하지는 않는다.
상기 이미지 센서(310)는 상기 제 2 기판(50b) 상에 배치될 수 있다. 상기 이미지 센서(310)는 상기 제 2 기판(50b)의 상면과 직접 접촉하며 상기 제 2 기판(50b)과 전기적으로 연결될 수 있다. 상기 이미지 센서(310)는 상기 제 2 기판(50b)과 전기적으로 연결될 수 있다.
상기 이미지 센서(310)는 광을 감지할 수 있다. 상기 이미지 센서(310)는 객체에 반사되어 상기 카메라 모듈(1000)에 입사된 광을 감지할 수 있다. 상기 이미지 센서(310)는 상기 광원(110)에서 방출된 광과 대응되는 파장의 광을 감지할 수 있다. 상기 이미지 센서(310)는 후술할 제 2 렌즈부(330)를 통해 입사된 광을 감지할 수 있다. 상기 이미지 센서(310)는 상기 광원(110)으로부터 방출되어 상기 객체에 반사된 광을 감지하여 상기 객체의 깊이 정보를 감지할 수 있다.
상기 이미지 센서(310)는 상기 광원(110)과 다른 방향으로 배치될 수 있다. 예를 들어, 상기 이미지 센서(310)의 광축과 상기 광원(110)의 광축(OA)은 서로 다른 방향일 수 있다. 자세하게, 상기 이미지 센서(310)의 광축과 상기 광원(110)의 광축(OA)은 수직일 수 있다.
상기 제 2 렌즈부(330)는 상기 이미지 센서(310) 상에 배치될 수 있다. 상기 제 2 렌즈부(330)는 상기 이미지 센서(310)와 이격되며 적어도 하나의 렌즈 및 상기 렌즈를 수용하는 하우징을 포함할 수 있다. 상기 렌즈는 유리(glass), 플라스틱(plastic) 중 적어도 하나를 포함할 수 있다.
상기 제 2 렌즈부(330)는 상기 수광부(300)로 입사되는 광 경로 상에 배치될 수 있다. 상기 제 2 렌즈부(330)는 상기 광원(110)에서 방출되어 상기 객체에 반사된 광을 상기 이미지 센서(310) 방향으로 통과시킬 수 있다. 이를 위해, 상기 제 2 렌즈부(330)는 광축이 상기 이미지 센서(310)의 광축과 대응될 수 있다.
상기 수광부(300)는 필터(미도시)를 포함할 수 있다. 상기 필터는 상기 객체와 상기 이미지 센서(310) 사이에 배치될 수 있다. 예를 들어, 상기 필터는 상기 이미지 센서(310) 및 상기 제 2 렌즈부(330) 사이에 배치될 수 있다.
상기 필터는 설정된 파장 대역의 광을 통과시키고, 이와 다른 파장 대역의 광을 필터링 할 수 있다. 자세하게, 상기 필터는 상기 제 2 렌즈부(330)를 통해 상기 수광부(300)에 입사된 광 중, 상기 광원(110)과 대응되는 파장의 광을 통과시킬 수 있고, 상기 광원(110)과 다른 파장 대역의 광을 차단할 수 있다.
도 3 및 도 5를 참조하면, 상기 발광부(100) 상에는 반사 부재(500)가 배치될 수 있다. 상기 반사 부재(500)는 상기 제 1 렌즈부(130) 상에 배치될 수 있다. 상기 반사 부재(500)는 상기 광원(110)의 광축(OA)과 대응되는 영역에 배치될 수 있다. 상기 반사 부재(500)는 상기 광원(110) 및 상기 제 1 렌즈부(130)와 나란히 배치될 수 있다. 상기 제 1 렌즈부(130)는 상기 광원(110) 및 상기 반사 부재(500) 사이에 배치될 수 있다. 상기 반사 부재(500)는 상기 제 1 렌즈부(130)를 통과한 광을 객체 방향으로 반사시킬 수 있다.
상기 반사 부재(500)는 복수의 미러(510)를 포함할 수 있다. 상기 복수의 미러(510)는 상기 광원(110)과 대응되는 영역에 배치될 수 있다. 자세하게, 상기 복수의 미러(510)의 중심은 상기 광원(110)의 광축(OA)과 중첩될 수 있다. 또한, 상기 복수의 미러(510)는 상기 광원(110)의 발광소자와 대응되는 영역에 배치될 수 있다. 예를 들어, 상기 복수의 미러(510)는 설정된 패턴으로 배치되는 발광소자와 대응되는 영역에 배치될 수 있다. 자세하게, 상기 복수의 미러(510)는 상기 발광소자의 어퍼쳐와 대응되는 영역에 배치될 수 있다.
상기 복수의 미러(510)는 MEMS(Micro-electric mechanical system) 미러 및 DMD(Digital Micromirror Device) 소자 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 복수의 미러(510)는 반사형 MEMS 미러, 투과형 MEMS 미러, 반사형 DMD 소자, 투과형 DMD 소자 중 적어도 하나를 포함할 수 있다. 또한, 상기 복수의 미러(510)는 반투과형 MEMS 미러 또는 반투과형 DMD 소자 중 적어도 하나를 포함할 수 있다.
상기 복수의 미러(510)는 서로 대응되는 형상을 가질 수 있다. 자세하게, 상기 복수의 미러(510)는 원형, 태원형, 삼각형, 사각형 등 다양한 형태를 가질 수 있고, 서로 동일한 형태 및 크기를 가질 수 있다. 일례로, 상기 복수의 미러(510)는 도 5와 같이 사각형 형태로 제공될 수 있다.
상기 복수의 미러(510)는 서로 이격될 수 있다. 일례로, 상기 발광소자가 가로 및 세로 방향으로 이격될 경우 상기 복수의 미러는 도 5와 같이 가로 및 세로 방향으로 이격될 수 있다. 이때, 상기 복수의 미러(510) 중 하나의 미러는 인접한 미러와 등간격으로 배치될 수 있다. 예를 들어, 하나의 미러와 가로 방향으로 인접한 미러는 서로 등간격으로 배치될 수 있다. 또한, 하나의 미러와 세로 방향으로 인접한 미러는 서로 등간격으로 배치될 수 있다. 또한, 하나의 미러와 가로 방향으로 인접한 미러 사이의 간격은 세로 방향으로 인접한 미러 사이의 간격과 동일할 수 있다.
상기 복수의 미러(510)는 상기 광원(110)과 대응되는 개수를 가질 수 있다. 예를 들어, 상기 복수의 미러(510)는 상기 발광소자의 복수의 어퍼쳐와 같거나 상기 어퍼쳐보다 많은 개수로 제공될 수 있다. 자세하게, 상기 복수의 미러(510)가 상기 발광소자의 어퍼쳐와 동일한 개수를 가질 경우, 상기 복수의 미러(510)는 각각의 어퍼쳐에서 방출되는 광의 경로를 효과적으로 제어할 수 있다. 또한, 상기 복수의 미러(510)가 상기 어퍼쳐의 개수보다 많을 경우, 상기 어퍼쳐에서 방출되는 광의 경로를 보다 세부적으로 제어할 수 있다. 이에 따라, 상기 카메라 모듈(1000)은 보다 향상된 분해능(resolution)을 가질 수 있다.
예를 들어, 도 5와 같이 상기 복수의 미러(510)는 가장 좌측 열을 기준으로 제 1 내지 제 8 미러(511, 512, 513, 514, 515, 516, 517, 518)를 포함할 수 있다. 이때, 상기 제 1 미러(511)는 최하부에 위치한 미러일 수 있고, 상기 제 8 미러(518)는 최상부에 위치한 미러일 수 있다. 설명의 편의상 명세서 및 도면에는 상기 미러(510)가 가로 방향 8줄, 세로 방향 8줄 총 64개가 배치되는 것으로 표현하였으나, 실시예는 이에 제한되지 않으며 가로 방향 n(n>1)줄, 세로 방향 m(m>1)줄이 배치될 수 있다. 이 경우, 상기 n의 값과 m의 값은 서로 같거나 상이할 수 있다. 자세하게, 상기 미러(510)의 수는 상기 발광부(100)에서 방출되는 광, 발광소자의 개수에 따라 변화할 수 있다. 또한, 상기 미러(510)의 수는 상기 수광부(300)의 이미지 센서(310) 크기에 따라 변화할 수 있다.
상기 복수의 미러(510)는 상기 발광부(100)에 대해 소정의 경사각으로 기울어질 수 있다. 상기 복수의 미러(510)는 서로 동일한 경사각을 가지며 배치될 수 있다. 예를 들어, 상기 복수의 미러(510) 각각의 상면들을 연장하는 가상의 평면은 상기 광원(110)의 광축(OA)에 대해 소정의 기준각(θ)으로 정의되는 각도만큼 기울어질 수 있다. 여기서 상기 미러(510)의 상면은 상기 광원(110)에서 방출된 광이 입사되어 반사되는 반사면일 수 있다. 즉, 상기 복수의 미러(510) 각각은 상기 광원(110)의 광축(OA)에 대해 기준각(θ)만큼 기울어지며 배치될 수 있다. 상기 기준각(θ)은 90도 이하일 수 있다. 예를 들어 상기 기준각(θ)은 45도일 수 있다.
이에 따라, 상기 복수의 미러(510)는 상기 광원(110)에서 방출된 광의 출사 방향을 제어할 수 있다. 자세하게, 상기 제 1 렌즈부(130)를 통과한 광은 상기 미러(510)에 반사되어 객체를 향해 방출될 수 있다. 예를 들어, 상기 반사 부재(500)에 입사된 광은 상기 복수의 미러(510)에 의해 경로가 90도 변경되어 방출될 수 있다.
또한, 상기 복수의 미러(510)는 소정의 각도 범위 내에서 틸트(tilt)될 수 있다. 예를 들어, 상기 복수의 미러(510) 각각은 상기 기준각(θ)을 기준으로 소정의 각도 범위 내에서 틸트될 수 있다. 이때, 상기 복수의 미러(510)는 2차원 또는 3차원 방향으로 틸트(tilt)될 수 있다.
자세하게, 상기 복수의 미러(510)는 상기 제어부(710)에서 인가되는 신호에 의해 소정의 각도 범위 내에서 틸트 가능하게 제공될 수 있다. 예를 들어, 상기 제어부(710)는 상기 카메라 모듈(1000) 전면의 객체에 위치, 거리 등에 따라 상기 적어도 하나의 미러(510)를 소정의 각도 범위 내에서 틸트할 수 있다. 여기서 소정의 각도 범위는 약 5도 미만일 수 있다. 자세하게, 상기 소정의 각도 범위는 약 3도 미만일 수 있다. 상기 각도 범위가 약 5도를 초과할 경우, 상대적으로 원거리에 위치한 객체에 균일한 광을 조사하기 어려울 수 있다. 이로 인해, 원거리에 위치한 객체에 대한 깊이 정보의 정확성이 낮아질 수 있다. 따라서, 상기 각도 범위는 상술한 범위를 만족하는 것이 바람직하다.
도 6은 실시예에 따른 카메라 모듈에서 발광부와 반사 부재의 배치를 나타낸 다른 도면이다. 도 6을 이용한 설명에서는 앞서 설명한 카메라 모듈과 동일 유사한 구성에 대해서는 설명을 생략하며 동일 유사한 구성에 대해서는 동일한 도면 부호를 부여한다.
도 6을 참조하면, 상기 반사 부재(500)는 상기 광원(110)과 나란히 배치될 수 있다. 상기 반사 부재(500)는 상기 광원(110) 및 상기 제 1 렌즈부(130) 사이에 배치될 수 있다.
상기 반사 부재(500)는 복수의 미러(510)를 포함할 수 있다. 상기 복수의 미러(510)의 중심은 상기 광원(110)의 광축(OA)과 중첩될 수 있다. 또한, 상기 복수의 미러(510)는 상기 광원(110)의 발광소자와 대응되는 영역에 배치될 수 있다. 예를 들어, 상기 복수의 미러(510)는 설정된 패턴으로 배치되는 발광소자와 대응되는 영역에 배치될 수 있다. 자세하게, 상기 복수의 미러(510)는 상기 발광소자의 어퍼쳐와 대응되는 영역에 배치될 수 있다.
상기 복수의 미러(510)는 상기 광원(110)의 광축(OA)에 대해 기준각(θ)만큼 기울어지며 배치될 수 있다. 상기 기준각(θ)은 90도 이하일 수 있다. 자세하게, 상기 기준각(θ)은 45도일 수 있다.
이에 따라, 상기 복수의 미러(510)는 상기 광원(110)에서 방출된 광의 출사 방향을 제어할 수 있다. 예를 들어, 상기 광원(110)에서 방출되어 상기 반사 부재(500)에 입사된 광은 상기 복수의 미러(510)에 의해 경로가 90도 변경되어 방출될 수 있다. 상기 광원(110)에서 방출된 광은 상기 복수의 미러(510)에 반사되어 상기 제 1 렌즈부(130)에 입사될 수 있고, 상기 제 1 렌즈부(130)를 통과하여 상기 객체를 향해 방출될 수 있다.
상기 복수의 미러(510)는 상기 기준각(θ)을 기준으로 소정의 각도 범위에서 틸트될 수 있다. 이때, 상기 복수의 미러(510)는 2차원 또는 3차원 방향으로 틸트(tilt)될 수 있다. 자세하게, 상기 복수의 미러(510)는 상기 제어부(710)에서 인가되는 신호에 의해 상기 소정의 각도 범위 내에서 틸트될 수 있다.
상기 반사 부재(500) 상에는 제 1 렌즈부(130)가 배치될 수 있다. 상기 제 1 렌즈부(130)는 중심이 상기 광원(110)의 광축(OA)과 수직인 영역에 배치될 수 있다.
상기 제 1 렌즈부(130)는 상기 반사 부재(500)에 반사된 광의 경로를 제어할 수 있다. 예를 들어, 상기 제 1 렌즈부(130)는 상기 반사 부재(500)에 반사된 광을 집광, 확산 및 산란 중 적어도 하나를 시킬 수 있다.
상기 제 1 렌즈부(130)는 상기 반사 부재(500)에 반사된 광을 설정된 형태로 변형시킬 수 있다. 예를 들어, 상기 제 1 렌즈부(130)는 상기 반사 부재(500)에 반사된 광을 원형, 타원형, 다각형 등 다양한 단면 형상으로 변형시킬 수 있다. 또한, 상기 제 1 렌즈부(130)는 상기 반사 부재(500)에 반사된 광을 복수의 점 광원 형태로 변형시킬 수 있다. 상기 제 1 렌즈부(130)는 상기 반사 부재(500)에 반사된 광을 상기 수광부(300)의 이미지 센서(310)의 유효 영역과 대응되는 형상으로 변형시킬 수 있다.
상기 구동 부재(150)는 상기 제 1 렌즈부(130) 상에 배치될 수 있다. 상기 구동 부재(150)는 상기 제 1 렌즈부(130)를 이동시킬 수 있다. 상기 구동 부재(150)는 상기 제 1 렌즈부(130)와 상기 반사 부재(500) 사이의 거리를 제어할 수 있다. 예를 들어, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)를 상기 광원(110)의 광축(OA)과 수직인 방향을 따라 이동시킬 수 있다. 이에 따라, 상기 제 1 렌즈부(130)와 상기 반사 부재(500) 사이의 거리는 증감할 수 있다. 또한, 상기 제 1 렌즈부(130)와 상기 광원(110) 사이의 거리 역시 증감할 수 있다.
상기 구동 부재(150)는 상기 광원(110)의 광축(OA)과 수직인 방향을 따라, 상기 제 1 렌즈부(130)의 적어도 하나의 렌즈를 이동시킬 수 있다. 이 경우, 상기 반사 부재(500)와 최인접한 하나의 렌즈와 상기 반사 부재(500) 사이의 거리는 변화할 수 있다. 그리고, 상기 제 1 렌즈부(130)가 복수의 렌즈를 포함할 경우, 상기 하나의 렌즈와 다른 렌즈 사이의 거리 또한 변화할 수 있다.
상기 구동 부재(150)는 상기 제 1 렌즈부(130)의 위치를 제어할 수 있다. 자세하게, 상기 구동 부재(150)는 상기 제 1 렌즈부(130)와 상기 반사 부재(500) 사이의 간격을 제어하여 상기 카메라 모듈(1000)에서 방출된 광이 면 광원 또는 점 광원을 형성하도록 할 수 있다
도 7 및 도 8은 실시예에 따른 카메라 모듈에서 발광부와 반사 부재의 배치를 나타낸 또 다른 도면들이다. 도 7 및 도 8을 이용한 설명에서는 앞서 설명한 카메라 모듈과 동일 유사한 구성에 대해서는 설명을 생략하며 동일 유사한 구성에 대해서는 동일한 도면 부호를 부여한다.
도 7 및 도 8을 참조하면, 상기 반사 부재(500)는 도 7과 같이 상기 제 1 렌즈부(130) 상에 배치되거나 도 8과 같이 상기 광원(110)과 상기 제 1 렌즈부(130) 사이에 배치될 수 있다.
상기 반사 부재(500)는 복수의 미러(510)를 포함할 수 있다. 상기 복수의 미러(510)의 중심은 상기 광원(110)의 광축(OA)과 중첩될 수 있다. 또한, 상기 복수의 미러(510)는 상기 광원(110)의 발광소자와 대응되는 영역에 배치될 수 있다. 예를 들어, 상기 복수의 미러(510)는 설정된 패턴으로 배치되는 발광소자와 대응되는 영역에 배치될 수 있다. 자세하게, 상기 복수의 미러(510)는 상기 발광소자의 어퍼쳐와 대응되는 영역에 배치될 수 있다.
상기 복수의 미러(510)는 상기 광원(110)의 광축(OA)에 대해 기준각(θ)만큼 기울어지며 배치될 수 있다. 상기 기준각(θ)은 90도 이하일 수 있다. 자세하게, 상기 기준각(θ)은 90도일 수 있다. 즉, 상기 복수의 미러(510) 각각의 상면들을 연장하는 가상의 평면은 상기 광원(110)의 광축(OA)과 수직일 수 있다.
상기 복수의 미러(510)는 상기 광원(110)에서 방출된 광을 투과 또는 반투과할 수 있다. 이에 따라, 상기 복수의 미러(510)는 상기 광원(110)에서 방출된 광의 출사 방향을 제어할 수 있다. 예를 들어, 도 7의 경우 상기 광원(110)에서 방출된 광은 상기 제 1 렌즈부(130)를 통과할 수 있고, 상기 제 1 렌즈부(130)를 통과한 광은 상기 복수의 미러(510)를 통과하여 상기 객체를 향해 방출될 수 있다. 또한, 도 8의 경우, 상기 광원(110)에서 방출된 광은 상기 복수의 미러(510)를 통과할 수 있고, 상기 복수의 미러(510)를 통과한 광은 상기 제 1 렌즈부(130)를 통과하여 상기 객체를 향해 방출될 수 있다.
상기 복수의 미러(510)는 상기 기준각(θ)을 기준으로 소정의 각도 범위에서 틸트될 수 있다. 이때, 상기 복수의 미러(510)는 2차원 또는 3차원 방향으로 틸트(tilt)될 수 있다. 자세하게, 상기 복수의 미러(510)는 상기 제어부(710)에서 인가되는 신호에 의해 상기 소정의 각도 범위 내에서 틸트될 수 있다.
도 9 내지 도 11은 객체의 유무에 따른 반사 부재의 틸트를 설명하기 위한 도면이고, 도 12는 실시예에 따른 카메라 모듈의 동작 방법에 대한 도면이다.
도 9 및 도 10을 참조하면, 상기 카메라 모듈(1000)에는 전원이 인가될 수 있다. 이에 따라, 상기 카메라 모듈(1000)의 발광부(100)는 전면을 향해 광을 방출할 수 있고, 상기 수광부(300)는 객체로부터 반사되어 수광부(300)에 입사된 광을 감지할 수 있다. 이 과정에 상기 카메라 모듈(1000)은 RGB 이미지 또는 Gray 이미지를 얻을 수 있다.
자세하게, 상기 광원(110)에서 방출된 광은 상기 제 1 렌즈부(130)를 통과하여 상기 반사 부재(500)에 입사될 수 있다. 이후, 상기 반사 부재(500)에 입사된 광은 상기 복수의 미러(510)에 의해 반사되어 상기 카메라 모듈(1000)의 전면을 향해 방출될 수 있다.
예를 들어, 상기 복수의 미러(510)는 상기 광원(110)의 광축(OA)에 대해 기준각(θ)만큼 기울어진 제 1 내지 제 8 미러(511, 512, 513, 514, 515, 516, 517, 518)를 포함할 수 있다.
이때, 상기 광원(110)에서 방출된 광은, 상기 제 1 미러(511)에 반사된 제 1 광(L1), 상기 제 2 미러(512)에 반사된 제 2 광(L2), 상기 제 3 미러(513)에 반사된 제 3 광(L3) 및 상기 제 4 미러(514)에 반사된 제 4 광(L4)을 포함할 수 있다. 또한, 상기 광원(110)에서 방출된 광은, 상기 제 5 미러(515)에 반사된 제 5 광(L5), 상기 제 6 미러(516)에 반사된 제 6 광(L6), 상기 제 7 미러(517)에 반사된 제 7 광(L7) 및 상기 제 8 미러(518)에 반사된 제 8 광(L8)을 포함할 수 있다.
상기 제 1 내지 제 8 광(L1~L8)은 상기 카메라 모듈(1000)의 전방에 배치된 대상을 향해 방출될 수 있다. 상기 제 1 내지 제 8 광(L1~L8)은 설정된 방향 및 영역으로 방출될 수 있다. 상기 제 1 내지 제 8 광(L1~L8)은 상기 제 1 렌즈부(130) 및 상기 구동 부재(150)에 의해 면 광원 또는 점 광원으로 방출될 수 있다. 이어서, 상기 제 1 내지 제 8 광(L1~L8)은 상기 대상에 반사될 수 있고, 반사된 반사광(RL)은 상기 수광부(300)에 입사될 수 있다.
상기 카메라 모듈(1000)은 획득한 이미지에서 객체의 유무를 판단할 수 있고, 객체를 선택할 수 있다. 상기 제어부(710)는 상기 이미지 내에 객체가 있을 경우 객체를 선택할 수 있다. 또한, 사용자는 획득한 이미지에서 객체를 선택할 수 있다.
자세하게, 도 8과 같이 상기 카메라 모듈(1000)의 전면에 제 1 객체(Ob1)가 위치할 경우, 상기 제어부(710) 또는 사용자는 상기 제 1 객체(Ob1)를 선택할 수 있다.
이후, 상기 제어부(710)는 이동량을 계산할 수 있다. 자세하게, 상기 제어부(710)는 상기 제 1 객체(Ob1)에 대한 상기 반사 부재(500)의 이동량을 계산할 수 있다. 더 자세하게, 상기 제어부(710)는 상기 복수의 미러(510) 중 상기 제 1 객체(Ob1)와 대응되는 적어도 하나의 미러(510) 및 그 주변부의 미러(510) 중 적어도 하나의 미러(510)의 이동량, 예컨대 틸트 정도를 계산할 수 있다.
예를 들어, 상기 제 1 객체(Ob1)는 상기 복수의 미러(510) 중 적어도 하나의 미러와 대응되는 영역에 위치할 수 있다. 자세하게, 상기 제 1 객체(Ob1)는 도 8과 같이 상기 제 1 미러(511)와 대응되는 영역에 위치할 수 있다. 이에 따라, 상기 제 1 객체(Ob1)에는 상기 제 1 미러(511)의 제 1 광(L1)이 입사될 수 있다.
이 경우, 상기 제어부(710)는 상기 제 1 객체(Ob1)에 광을 조사하는 미러(510), 상기 제 1 객체(Ob1)의 주변부에 광을 조사하는 적어도 하나의 미러(510)를 제어할 수 있다. 예를 들어, 상기 제어부(710)는 상기 제 1 광(L1)을 형성하는 제 1 미러(511)를 제어할 수 있다. 상기 제 1 리머(511)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 이에 따라, 상기 제 1 미러(511)는 상기 제 1 객체(Ob1)에 보다 많은 광을 제공할 수 있다.
또한, 상기 제어부(710)는 상기 제 2 광(L2) 및 상기 제 3 광(L3)을 형성하는 제 2 미러(512) 및 제 3 미러(513)를 제어할 수 있다. 자세하게, 상기 제 1 미러(511)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 또한, 상기 제 2 미러(512) 및 상기 제 3 미러(513)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 예를 들어, 상기 제 2 미러(512)는 상기 기준각(θ)으로부터 제 2 각도(θ2)만큼 틸트될 수 있고, 상기 제 3 미러(513)는 상기 기준각(θ)으로부터 제 3 각도(θ3)만큼 틸트될 수 있다. 상기 제 2 각도(θ2) 및 상기 제 3 각도(θ3)는 상술한 소정의 각도 범위를 만족하며 약 5도 미만일 수 있다. 또한, 나머지 미러들, 예컨대 제 4 내지 제 8 미러(514, 515, 516, 517, 518)은 틸트되지 않고, 상기 기준각(θ)을 유지하며 배치될 수 있다.
이에 따라, 상기 카메라 모듈(1000)은 상기 제 1 객체(Ob1)의 주변부에 조사되는 광을 상기 제 1 객체(Ob1)를 향하도록 할 수 있다. 따라서, 상기 제 1 객체(Ob1)에는 보다 많은 광이 조사될 수 있으며, 상기 수광부(300)의 이미지 센서(310)에는 상기 제 1 객체(Ob1)에 반사된 반사광(RL)이 보다 많이 입사될 수 있다.
그러므로, 상기 카메라 모듈(1000)은 상기 제 1 객체(Ob1)에 대해 보다 정확한 초점을 가질 수 있다. 또한, 상기 카메라 모듈(1000)은 상기 제 1 객체(Ob1)와의 거리를 효과적으로 측정할 수 있고, 상기 제 1 객체(Ob1)에 대한 향상된 깊이 정보를 획득할 수 있다. 상기 제 1 객체(Ob1)에 대한 깊이 정보의 획득이 종료될 경우, 상기 제 2 및 제 3 미러(512, 513)는 틸트되지 않고 상기 기준각(θ)으로 되돌아가 유지할 수 있다.
특히, 실시예에 따른 카메라 모듈(1000)은 상기 제 1 객체(Ob1)가 상대적으로 먼 거리에 위치할 경우, 상기 제 1 객체(Ob1)에 도달하는 광의 세기가 상대적으로 작을 수 있다. 그러나, 실시예에 따른 카메라 모듈(1000)은 적어도 하나의 미러(510)를 틸트하여 상기 제 1 객체(Ob1)에 광을 집중할 수 있다. 이에 따라, 상기 제 1 객체(Ob1)가 장거리에 위치하여도 정확도가 향상된 깊이 정보를 얻을 수 있다.
또한, 상기 카메라 모듈(1000)은 상기 제 1 객체(Ob1)를 트래킹(tracking)할 수 있다. 예를 들어, 상기 제 1 객체(Ob1)의 위치가 변경될 경우, 상기 제 1 객체(Ob1)와 대응되는 미러(510) 및 상기 제 1 객체(Ob1)의 주변부와 대응되는 미러(510)를 제어할 수 있다. 이에 따라, 상기 카메라 모듈(1000)은 위치가 변화하는 객체에 대해 보다 정확한 초점을 잡으며 깊이 정보를 실시간으로 획득할 수 있다.
또한, 상기 카메라 모듈(1000)은 상기 발광부(100)의 광축과 상기 수광부(300)의 광축이 서로 수직인 형태로 배치될 수 있다. 즉, 상기 발광부(100)가 수평 방향으로 연장하는 형태를 가질 수 있어 상기 카메라 모듈(1000)의 전체 두께를 감소시킬 수 있다.
도 11을 참조하면, 상기 카메라 모듈(1000)의 전면에는 복수의 객체가 위치할 수 있다. 예를 들어, 상기 카메라 모듈(1000)의 전면에는 제 1 객체(Ob1) 및 상기 제 1 객체(Ob1)와 이격된 제 2 객체(Ob2)가 위치할 수 있다.
이 경우, 상기 제어부(710) 또는 사용자는 상기 제 1 객체(Ob1) 및 상기 제 2 객체(Ob2) 중 적어도 하나의 객체를 선택할 수 있다.
이후, 상기 제어부(710)는 이동량을 계산할 수 있다. 자세하게, 상기 제어부(710) 또는 상기 사용자가 상기 제 1 객체(Ob1) 및 상기 제 2 객체(Ob2)를 모두 선택했을 경우, 상기 제어부(710)는 상기 제 1 객체(Ob1) 및 상기 제 2 객체(Ob2)와 각각 대응되는 적어도 하나의 미러(510)의 이동량을 계산할 수 있다. 또한, 상기 제어부(710)는 상기 제 1 객체(Ob1) 및 상기 제 2 객체(Ob2)의 주변부와 대응되는 적어도 하나의 미러(510)의 이동량을 계산할 수 있다.
예를 들어, 상기 제 1 객체(Ob1)는 상기 제 1 미러(511)와 대응되는 영역에 위치할 수 있고, 상기 제 1 객체(Ob1)에는 상기 제 1 미러(511)의 제 1 광(L1)이 입사될 수 있다. 이 경우, 상기 제어부(710)는 상기 제 1 객체(Ob1)에 광을 조사하는 제 1 미러(511)를 제어할 수 있다. 또한, 상기 제어부(710)는 상기 제 1 객체(Ob1)의 주변부에 광을 조사하는 제 2 미러(512) 및 제 3 미러(513)를 제어할 수 있다.
자세하게, 상기 제 1 미러(511)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 또한, 상기 제 2 미러(512) 및 상기 제 3 미러(513)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 예를 들어, 상기 제 2 미러(512)는 상기 기준각(θ)으로부터 제 2 각도(θ2)만큼 틸트될 수 있고, 상기 제 3 미러(513)는 상기 기준각(θ)으로부터 제 3 각도(θ3)만큼 틸트될 수 있다.
또한, 상기 제 2 객체(Ob2)는 상기 제 7 미러(517)와 대응되는 영역에 위치할 수 있고, 상기 제 2 객체(Ob2)에는 상기 제 7 미러(517)의 제 7 광(L7)이 입사될 수 있다. 이 경우, 상기 제어부(710)는 상기 제 2 객체(Ob2)에 광을 소자하는 제 7 미러(517)를 제어할 수 있다. 또한, 상기 제어부(710)는 상기 제 2 객체(Ob2)의 주변부에 광을 조사하는 제 6 미러(516) 및 제 8 미러(518)를 제어할 수 있다.
자세하게, 상기 제 7 미러(517)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 또한, 상기 제 6 미러(516) 및 상기 제 8 미러(518)는 상기 제어부(710)에 의해 상기 기준각(θ)으로부터 소정의 각도 범위 내에서 틸트될 수 있다. 예를 들어, 상기 제 6 미러(516)는 상기 기준각(θ)으로부터 제 6 각도(θ6)만큼 틸트될 수 있고, 상기 제 8 미러(518)는 상기 기준각(θ)으로부터 제 8 각도(θ8)만큼 틸트될 수 있다.
상기 제 1 미러(511)의 틸트 각도, 상기 제 7 미러(517)의 틸트 각도, 상기 제 2 각도(θ2), 상기 제 3 각도(θ3), 상기 제 6 각도(θ6) 및 상기 제 8 각도(θ8)는 상술한 소정의 각도 범위를 만족하며 약 5도 미만일 수 있다.
이에 따라, 상기 카메라 모듈(1000)은 상기 제 1 객체(Ob1)와 상기 제 2 객체(Ob2) 각각의 주변부에 조사되는 광을 상기 제 1 및 제 2 객체(Ob1, Ob2)를 향하도록 할 수 있다. 따라서, 상기 제 1 및 제 2 객체(Ob1, Ob2)에는 보다 많은 광이 조사될 수 있으며, 상기 이미지 센서(310)에는 상기 제 1 및 제 2 객체(Ob1, Ob2)에서 각각 반사된 반사광(RL)이 보다 많이 입사될 수 있다. 그러므로, 상기 카메라 모듈(1000)은 복수의 객체에 대한 초점을 동시에 잡을 수 있다. 또한, 상기 카메라 모듈(1000)은 상기 제 1 및 제 2 객체(Ob1, Ob2)와의 각각의 거리를 효과적으로 측정할 수 있으며, 정확도가 향상된 깊이 정보를 획득할 수 있다.
특히, 상기 제 1 객체(Ob1)와 상기 제 2 객체(Ob2)는 서로 다른 위치에 위치할 수 있다. 예를 들어, 상기 제 1 객체(Ob1)는 상기 제 2 객체(Ob2)보다 상기 카메라 모듈(1000)과 먼 거리에 위치할 수 있다. 이 경우에도 실시예에 따른 카메라 모듈(1000)은 상기 제 1 및 제 2 객체(Ob1, Ob2)와 각각 대응되는 미러(510) 및 주변부의 미러(510)를 제어하여 상기 복수의 객체(Ob1, Ob2)의 서로 다른 깊이 정보를 동시에 획득할 수 있다.
또한, 상기 제 1 객체(Ob1) 및 상기 제 2 객체(Ob2)는 서로 같은 방향 또는 서로 다른 방향으로 이동할 수 있다. 이 경우 상기 카메라 모듈(1000)은 각각의 객체(Ob1, Ob2)와 대응되는 미러(510) 및 그 주변부의 미러(510)를 제어하여 상기 복수의 객체(Ob1, Ob2)에 대한 초점을 정확히 유지할 수 있다. 이에 따라, 상기 카메라 모듈(1000)은 위치가 변화하는 복수의 객체에 대한 깊이 정보를 실시간으로 획득할 수 있고, 깊이 정보의 정확도를 향상시킬 수 있다.
도 13 및 도 14를 참조하면, 실시예에 따른 카메라 모듈은 광학 기기에 적용될 수 있다.
먼저, 도 13을 참조하면 실시예에 따른 카메라 모듈(1000)은 이동 단말기(1500)에 적용될 수 있다. 실시예에 따른 이동 단말기(1500)는 후면에 제 1 카메라 모듈(1000), 제 2 카메라 모듈(1010)이 배치될 수 있다.
상기 제 1 카메라 모듈(1000)은 상술한 카메라 모듈(1000)로 발광부(100) 및 수광부(300)를 포함할 수 있다. 상기 카메라 모듈(1000)은 TOF(Time of flight) 카메라일 수 있다.
상기 제 2 카메라 모듈(1010)은 이미지 촬영 기능을 포함할 수 있다. 또한, 상기 제 2 카메라 모듈(1000)은 자동 초점(Auto focus), 줌(zoom) 기능 및 OIS 기능 중 적어도 하나를 포함할 수 있다. 상기 제 2 카메라 모듈(1010)은 촬영 모드 또는 화상 통화 모드에서 이미지 센서에 의해 얻어지는 정지 영상 또는 동셩상의 화상 프레임을 처리할 수 있다. 처리된 화상 프레임은 소정의 디스플레이부에 표시될 수 있으며 메모리에 저장될 수 있다. 또한, 도면에는 도시하지 않았지만 상기 이동 단말기(1500)의 전면에도 카메라가 배치될 수 있다.
상기 이동 단말기(1500)의 후면에는 플래시 모듈(1530)이 배치될 수 있다. 상기 플래시 모듈(1530)은 내부에 광을 발광하는 발광소자를 포함할 수 있다. 상기 플래쉬 모듈(1530)은 이동 단말기의 카메라 작동 또는 사용자의 제어에 의해 작동될 수 있다.
이에 따라, 사용자는 상기 이동 단말기(1500)를 이용하여 객체를 촬영 및 디스플레이할 수 있다. 또한, 사용자는 상기 제 1 카메라 모듈(1000)을 이용하여 상기 객체의 깊이 정보를 효과적으로 파악할 수 있다.
또한, 도 14를 참조하면, 실시예에 따른 카메라 모듈(1000)은 차량(3000)에 적용될 수 있다.
실시예에 따른 차량(3000)은, 동력원에 의해 회전하는 바퀴(13FL, 13FR), 소정의 센서를 구비할 수 있다. 상기 센서는 카메라 센서(2000)를 포함할 수 있고, 상기 카메라 센서(2000)는 상술한 카메라 모듈(1000)을 포함하는 카메라 센서일 수 있다.
실시예에 따른 차량(3000)은, 전방 영상 또는 주변 영상을 촬영하는 카메라 센서(2000)를 통해 영상 정보 및 깊이 정보를 획득할 수 있고, 영상 및 깊이 정보를 이용하여 차선 미식별 상황을 판단하고 미식별시 가상 차선을 생성할 수 있다.
예를 들어, 카메라 센서(2000)는 차량(3000)의 전방을 촬영하여 전방 영상을 획득하고, 프로세서(미도시)는 이러한 전방 영상에 포함된 객체를 분석하여 영상 정보를 획득할 수 있다.
예를 들어, 카메라 센서(2000)가 촬영한 영상에 차선, 인접차량, 주행 방해물, 및 간접도로 표시물에 해당하는 중앙 분리대, 연석, 가로수 등의 객체를 촬영할 경우, 프로세서는 이러한 객체의 영상 정보뿐만 아니라 깊이 정보를 검출할 수 있다. 즉, 실시예는 차량(3000)의 탑승자에게 객체에 대한 보다 구체적이고 정확한 정보를 제공할 수 있다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (11)

  1. 발광부; 및
    이미지 센서;를 포함하고,
    상기 발광부는,
    광원;
    상기 광원 상에 배치되는 제 1 렌즈부;
    상기 광원에서 방출한 광을 반사하는 반사 부재; 및
    상기 제1 렌즈부를 상기 광원과 상기 반사 부재 사이에서 이동시키는 구동 부재를 포함하고,
    상기 반사 부재는 복수의 미러를 포함하고,
    상기 복수의 미러는 기준각으로부터 소정의 각도 범위 내에서 틸트 가능하게 배치되는 카메라 모듈.
  2. 제 1 항에 있어서,
    객체가 선택될 경우,
    상기 객체와 대응되는 미러 및 상기 객체의 주변부와 대응되는 미러 중 적어도 하나는, 상기 기준각으로부터 상기 소정의 각도 범위 내에서 틸트되는 카메라 모듈.
  3. 제 2 항에 있어서,
    상기 복수의 미러 중에 상기 객체와 대응되지 않는 미러는 상기 기준각을 유지하며 배치되는 카메라 모듈.
  4. 제 1 항에 있어서,
    상기 복수의 미러는 반사형 MEMS(Micro-electric mechanical system) 미러, 투과형 MEMS 미러, 반사형 DMD(Digital Micromirror Device) 소자 및 투과형 DMD 소자 중 적어도 하나를 포함하는 카메라 모듈.
  5. 제 1 항에 있어서,
    상기 복수의 미러는 상기 광원의 광축에 대해 상기 기준각으로 기울어지며 배치되고,
    상기 기준각은 45도인 카메라 모듈.
  6. 제 1 항에 있어서,
    상기 광원은 수직 캐비티 표면 방출 레이저를 포함하고,
    상기 수직 캐비티 표면 방출 레이저는 복수의 어퍼쳐(aperture)를 포함하고,
    상기 복수의 미러는 상기 복수의 어퍼쳐의 수보다 많거나 같은 수로 제공되는 카메라 모듈.
  7. 제 1 항에 있어서,
    상기 제 1 렌즈부는 상기 구동 부재에 의해 상기 광원의 광축을 따라 이동하는 카메라 모듈.
  8. 제 1 항에 있어서,
    상기 제 1 렌즈부는 상기 구동 부재에 의해 상기 광원의 광축과 수직인 방향을 따라 이동하는 카메라 모듈.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 구동 부재는 객체에 조사되는 광 패턴을 면 광원 또는 점 광원으로 조정하는 카메라 모듈.
  10. 제 1 항에 있어서,
    상기 이미지 센서를 포함하는 수광부를 포함하고,
    상기 수광부는 상기 이미지 센서 상에 배치되는 제 2 렌즈부를 포함하는 카메라 모듈.
  11. 발광부; 및
    이미지 센서;를 포함하고,
    상기 발광부는,
    광원;
    상기 광원 상에 배치되며 상기 광원에서 방출한 광을 반사하는 반사 부재를 포함하고,
    상기 광원은 수직 캐비티 표면 방출 레이저를 포함하고,
    상기 수직 캐비티 표면 방출 레이저는 복수의 어퍼쳐(aperture)를 포함하고,
    상기 반사 부재는 복수의 미러를 포함하고,
    상기 복수의 미러는 상기 복수의 어퍼쳐의 수 이상이고,
    상기 복수의 미러는 기준각으로부터 소정의 각도 범위 내에서 틸트 가능하게 배치되는 카메라 모듈.
PCT/KR2021/002675 2020-03-06 2021-03-04 카메라 모듈 WO2021177743A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/909,713 US20240210795A1 (en) 2020-03-06 2021-03-04 Camera module

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200028344A KR20210112822A (ko) 2020-03-06 2020-03-06 카메라 모듈
KR10-2020-0028344 2020-03-06

Publications (1)

Publication Number Publication Date
WO2021177743A1 true WO2021177743A1 (ko) 2021-09-10

Family

ID=77613672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002675 WO2021177743A1 (ko) 2020-03-06 2021-03-04 카메라 모듈

Country Status (3)

Country Link
US (1) US20240210795A1 (ko)
KR (1) KR20210112822A (ko)
WO (1) WO2021177743A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190011809A1 (en) * 2016-03-14 2019-01-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-aperture imaging device, imaging system and method for capturing an object area
KR20190017113A (ko) * 2017-08-10 2019-02-20 삼성전자주식회사 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치
KR20190110231A (ko) * 2018-03-20 2019-09-30 엘지이노텍 주식회사 카메라 모듈 및 이를 포함하는 광학 기기
KR20190117176A (ko) * 2018-04-06 2019-10-16 삼성전기주식회사 적외선 카메라 모듈, 이의 이미지 센서 및 전자 기기
KR20200012611A (ko) * 2018-07-27 2020-02-05 자화전자(주) 마이크로 미러 기반 오토 포커싱 카메라 모듈

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9456201B2 (en) * 2014-02-10 2016-09-27 Microsoft Technology Licensing, Llc VCSEL array for a depth camera
US9778476B2 (en) * 2014-11-03 2017-10-03 Aquifi, Inc. 3D depth sensor and projection system and methods of operating thereof
CN208572292U (zh) * 2018-03-18 2019-03-01 宁波舜宇光电信息有限公司 深度信息摄像模组及其基座组件和电子设备
US11604259B2 (en) * 2019-10-14 2023-03-14 Infineon Technologies Ag Scanning LIDAR receiver with a silicon photomultiplier detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190011809A1 (en) * 2016-03-14 2019-01-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-aperture imaging device, imaging system and method for capturing an object area
KR20190017113A (ko) * 2017-08-10 2019-02-20 삼성전자주식회사 미러를 회전 시킬수 있는 구동 장치를 포함하는 카메라를 이용하여 이미지를 획득하는 방법 및 전자 장치
KR20190110231A (ko) * 2018-03-20 2019-09-30 엘지이노텍 주식회사 카메라 모듈 및 이를 포함하는 광학 기기
KR20190117176A (ko) * 2018-04-06 2019-10-16 삼성전기주식회사 적외선 카메라 모듈, 이의 이미지 센서 및 전자 기기
KR20200012611A (ko) * 2018-07-27 2020-02-05 자화전자(주) 마이크로 미러 기반 오토 포커싱 카메라 모듈

Also Published As

Publication number Publication date
US20240210795A1 (en) 2024-06-27
KR20210112822A (ko) 2021-09-15

Similar Documents

Publication Publication Date Title
WO2020153703A1 (ko) 카메라 장치 및 그의 오토포커싱 방법
WO2019182305A1 (ko) 카메라 모듈 및 이를 포함하는 광학 기기
WO2018044083A1 (ko) 광출력 모듈 및 라이다
WO2017023107A1 (ko) 광파 탐지 및 거리 측정 장치
WO2019235859A1 (ko) 카메라 모듈 및 그의 깊이 정보 추출 방법
WO2022102954A1 (ko) 디스플레이를 포함하는 웨어러블 전자 장치
WO2014157847A1 (ko) 깊이 영상 획득 장치 및 그를 이용한 디스플레이 장치
WO2017078392A1 (ko) 카메라 모듈
WO2021242079A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2020141827A1 (ko) 광학계 및 이를 포함하는 카메라 모듈
WO2016076600A1 (ko) 헤드 업 디스플레이 장치
WO2020122660A1 (ko) 카메라 모듈
WO2021177743A1 (ko) 카메라 모듈
WO2020251243A1 (ko) 쉐이퍼 유닛 및 흔들림 보정 장치
WO2022025677A1 (ko) 거리 측정 카메라
WO2011149300A2 (en) Mems actuator mounted camera module having sag compensation and sag compensation method using the same
WO2022240134A1 (ko) 거리 측정 카메라 모듈
WO2012108577A1 (ko) 감시 장치 및 방법
WO2019078412A1 (ko) 경화 장치 및 디스플레이 패널 경화 방법
WO2024162760A1 (ko) 광출력장치 및 이를 포함하는 카메라 장치 및 센서 모듈
WO2021040476A1 (ko) Tof 카메라
WO2020222477A1 (ko) 카메라 모듈
WO2024155045A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2024107039A1 (ko) 정보 생성 장치 및 카메라 장치
WO2023014179A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21764995

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 17909713

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21764995

Country of ref document: EP

Kind code of ref document: A1