WO2021162450A1 - 카메라 모듈 - Google Patents

카메라 모듈 Download PDF

Info

Publication number
WO2021162450A1
WO2021162450A1 PCT/KR2021/001784 KR2021001784W WO2021162450A1 WO 2021162450 A1 WO2021162450 A1 WO 2021162450A1 KR 2021001784 W KR2021001784 W KR 2021001784W WO 2021162450 A1 WO2021162450 A1 WO 2021162450A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
unit
light
optical
output
Prior art date
Application number
PCT/KR2021/001784
Other languages
English (en)
French (fr)
Inventor
김철
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200017599A external-priority patent/KR20210103182A/ko
Priority claimed from KR1020200078434A external-priority patent/KR20220000599A/ko
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to CN202180028466.0A priority Critical patent/CN115380523A/zh
Priority to US17/797,581 priority patent/US12085838B2/en
Priority to EP21754386.7A priority patent/EP4106308A4/en
Publication of WO2021162450A1 publication Critical patent/WO2021162450A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/58Optics for apodization or superresolution; Optical synthetic aperture systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0503Built-in units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0564Combinations of cameras with electronic flash units characterised by the type of light source
    • G03B2215/0567Solid-state light source, e.g. LED, laser
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2215/00Special procedures for taking photographs; Apparatus therefor
    • G03B2215/05Combinations of cameras with electronic flash units
    • G03B2215/0589Diffusors, filters or refraction means
    • G03B2215/0592Diffusors, filters or refraction means installed in front of light emitter
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01FMAGNETS; INDUCTANCES; TRANSFORMERS; SELECTION OF MATERIALS FOR THEIR MAGNETIC PROPERTIES
    • H01F7/00Magnets
    • H01F7/06Electromagnets; Actuators including electromagnets
    • H01F7/08Electromagnets; Actuators including electromagnets with armatures
    • H01F7/081Magnetic constructions

Definitions

  • the embodiment relates to a camera module.
  • 3D contents are being applied in many fields such as education, manufacturing, and autonomous driving as well as games and culture, and depth map is required to acquire 3D contents.
  • Depth information is information representing a distance in space, and represents perspective information of one point in a 2D image at another point.
  • a method of acquiring depth information a method of projecting infrared (IR) structured light onto an object, a method using a stereo camera, a time of flight (TOF) method, and the like are used.
  • IR infrared
  • TOF time of flight
  • the vein pattern can be identified using the camera device equipped with the infrared light source. To this end, after photographing a finger, each finger may be detected by removing the background based on the color and shape of the finger, and a vein pattern of each finger may be extracted from the detected color information of each finger.
  • the average color of the finger, the color of the veins distributed in the finger, and the color of the wrinkles on the finger may be different from each other.
  • the color of the veins distributed in the finger may be weaker than the average color of the finger, and the color of the wrinkles in the finger may be darker than the average color of the finger.
  • the number of pixels of the sensor may be increased, but in this case, there is a problem in that the volume and manufacturing cost of the camera module are greatly increased.
  • This embodiment is intended to provide a camera module capable of increasing the resolution by being used in the ToF method.
  • SR Super Resolution
  • An embodiment is to provide a camera device including a driving unit for changing the shape of an optical signal.
  • the embodiment provides a camera module that easily detects abnormalities such as damage to a lens and a lens module and prevents the human body from being damaged by the energy of an optical signal.
  • a camera module includes a light source; an optical unit converting the light output from the light source into a planar shape or a plurality of dot shapes and outputting the converted light; and an image sensor, wherein the light source is periodically turned on/off, the optical unit is moved to be positioned at a first position when the light source is turned on, and the optical unit is the light source When this is off, it moves to the initial position.
  • the optical unit may move from the initial position toward the first position before a predetermined time before the light source is turned on.
  • the optical unit When the optical unit is positioned at the initial position, the optical unit outputs the light in any one of the planar shape and the plurality of dot shapes, and when the optical unit is positioned at the first position, the optical unit outputs the light to the It is possible to output the surface shape and the other one of the plurality of dot shapes.
  • a distance between the optical unit and the light source may be equal to a rear focal length of the optical unit.
  • the first position includes a 1-A position and a 1-B position, and when the optical unit is positioned at the 1-A position, the optical unit outputs the light in the form of the plurality of dots, and the optical unit outputs the light in the form of the plurality of dots.
  • the light When positioned at the 1-B-th position, the light may be output in the form of the plane.
  • the distance between the light source and the optic at the 1-A position is less than the distance between the light source and the optic at the initial position, and the distance between the light source and the optic at the 1-B position is smaller.
  • the distance may be greater than a distance between the light source and the optical unit at the initial position.
  • a distance between the initial position and the 1-A position may be smaller than a distance between the initial position and the 1-B position.
  • the distance between the light source and the optical unit at the 1-A position is greater than the distance between the light source and the optical unit at the initial position, and the distance between the light source and the optical unit at the 1-B position is greater. It may be greater than a distance between the light source and the optical unit at the 1-A position.
  • a distance between the 1-A position and the initial position may be smaller than a distance between the 1-B position and the initial position.
  • the distance between the light source and the optical unit at the initial position is greater than the distance between the light source and the optical unit at the 1-B position, and the distance between the light source and the optical unit at the 1-B position is greater.
  • the distance may be greater than a distance between the light source and the optical unit at the 1-A position.
  • a driving unit for vertically moving the optical unit; and a light irradiation signal for controlling the light source to output the light, and a control unit for outputting a driving signal output to the driving unit for movement of the optical unit, wherein the driving signal is provided before the output of the light irradiation signal output to the optical unit may move to the first position before the light source is turned on.
  • the optical unit may move to an initial state.
  • the light irradiation signal may have a frame period.
  • the image sensor may perform exposure according to an exposure signal.
  • the driving signal may at least partially overlap the exposure signal, and the driving signal may be turned on after a predetermined time after the exposure signal is turned off.
  • the driving signal may include a first section that is turned on before the light irradiation signal is turned on, and a second section that overlaps the on section of the light irradiation signal.
  • the first section may overlap an idle section.
  • the length of the first section may be adjusted corresponding to the shape of the plane or the shape of the point.
  • the driving signal may have a polarity corresponding to the shape of the plane and a polarity corresponding to the shape of the point being opposite to each other.
  • a camera module includes a light source; an optical unit disposed on the light source; and an image sensor, wherein the light source is controlled by a light irradiation signal, and the optical unit moves to a specific position when the light irradiation signal is on, and moves to an initial position when the light irradiation signal is off do.
  • the optical unit is moved by a driving signal, the light irradiation signal has a frame period, and the driving signal is turned on before the light irradiation signal is turned on in a first section, the light irradiation signal is turned on (on) may include a second section overlapping the section.
  • a driving method includes transmitting a light irradiation signal for controlling on/off of a light source; and outputting a driving signal that moves the optical unit to a first position when the light source is turned on by the light irradiation signal and moves to an initial position when the light source is turned off;
  • the optical unit converts the light output from the light source into a planar shape or a plurality of dot shapes and outputs the converted light.
  • a camera module includes a light source; a light control unit controlling the output of the light source; an optical unit disposed in a light path output from the light source; a driving control unit for controlling the position of the optical unit; an image sensor including a plurality of pixels; and a control unit, wherein the image sensor outputs a trigger signal corresponding to an exposure period of the pixel, the control unit receives the trigger signal and outputs a driving signal to the driving control unit, and the driving control unit outputs the driving signal moves the position of the optical unit to an initial position or a first position according to on or off of The signal is maintained on even after the trigger signal is turned on from off, and the driving signal is turned off when the trigger signal changes from on to off or off. After being turned off (off).
  • a camera module includes a light emitting unit; light receiving unit; and a control unit, wherein the light receiving unit includes a tilt actuator and a coil unit and a magnet unit for driving the tilt actuator, and the magnet unit includes a first magnet and a second magnet, and the coil unit includes a first magnet facing the first magnet. a coil and a second coil facing the second magnet, wherein the control unit outputs a first output signal input to the first coil, the first output signal, and a second output signal input to the second coil, , the first output signal and the second output signal include a first signal having a first magnitude for a time shorter than a natural oscillation period of the tilt actuator and a second signal greater than the first magnitude after the first signal .
  • the control unit may receive a trigger signal from the light receiving unit, and the first output signal and the second output signal may be output from the control unit in response to the trigger signal.
  • a period of the first signal may be 0.6 to 0.9 times a natural vibration period of the tilt actuator in the first output signal and the second output signal.
  • the magnet part includes a third magnet and a fourth magnet, the third magnet is disposed opposite the first magnet, the fourth magnet is disposed opposite the second magnet, and the coil part is the third magnet. It may include a third coil facing the magnet and a fourth coil facing the fourth magnet.
  • a direction of a force generated when the first magnet and the first coil interact is opposite to a direction of a force generated when the second magnet and the second coil interact, and the third magnet and the third
  • the direction of the force generated by the interaction of the coils may be opposite to the direction of the force generated by the interaction of the fourth magnet and the fourth coil.
  • Any one of a low level current, a high level current, and a reference level current may be applied to the first output signal and the second output signal, and the reference level current may have no current applied thereto.
  • the first coil and the third coil are arranged in an antiparallel structure in which directions of current flowing through the coil are opposite to each other, and the second coil and the fourth coil have opposite directions of current flowing through the coil. It can be arranged in an antiparallel structure that becomes
  • the first output signal is input to the third coil
  • the second output signal is input to the fourth coil
  • the trigger signal is a first trigger signal to a fourth trigger signal sequentially received with the same frame period
  • the first output signal includes a 1-1 output signal corresponding to the first trigger signal and a 1-2 output signal corresponding to the third trigger signal, and the second output signal is the second trigger signal.
  • a 2-1 th output signal corresponding to the signal and a 2-2 th output signal corresponding to the fourth trigger signal, wherein the 2-1 th output signal and the 2-2 th output signal have opposite directions can
  • the 2-1 output signal is applied between the 1-1 output signal and the 1-2 output signal
  • the 1-2 output signal is the 2-1 output signal and the 2-2 output signal applied between the signals
  • the 1-1 th output signal and the 1-2 th output signal may have opposite directions
  • the 2-1 th output signal and the 2-2 th output signal may have opposite directions.
  • At least one of the first output signal and the second output signal may be applied to the coil unit.
  • the output signal may have a predetermined delay compared to the trigger signal.
  • the light receiving unit includes: an optical member through which the reflected light signal reflected by the object passes; an elastic member connected to the optical member; and an image sensor that receives the reflected light signal and generates an electrical signal, wherein the tilt actuator tilts the optical member to repeatedly move the path of the reflected light signal passing through the optical member according to a predetermined rule.
  • the tilt actuator may move repeatedly in first to fourth tilt sequences in which the reflected light signals passing through the optical member are disposed at different positions on the image sensor.
  • the optical member may move in different diagonal directions and horizontal directions in the first to fourth tilt sequences.
  • the apparatus may further include an image synthesizing unit configured to generate a high-resolution image by synthesizing images corresponding to the first to fourth tilt sequences.
  • the optical member may move in either a diagonal direction or a horizontal direction of the image sensor based on a path of the reflected light signal when the optical member is disposed parallel to the image sensor.
  • the tilt actuator may tilt the optical member so that any one of combinations in which the first to fourth tilt sequences are sequentially performed is repeated.
  • a camera module includes a light emitting unit; light receiving unit; and a control unit, wherein the light receiving unit includes a tilt actuator and a coil and a magnet for driving the actuator, wherein the magnet includes a first magnet and a second magnet, wherein the coil includes a first coil facing the first magnet and the a second coil opposed to a second magnet, wherein the control unit outputs a first output signal input to the first coil, the first output signal, and a second output signal input to the second coil,
  • the first output signal and the second output signal include a first signal of the first magnitude and a second signal greater than the first magnitude after the first signal, wherein the first signal of the second output signal includes: It is output when the second signal of the first output signal is maintained or the second signal of the first output signal is turned off.
  • the first output signal and the second output signal may include a first signal having a first magnitude for a time shorter than a natural oscillation period of the actuator and a second signal greater than the first magnitude after the first signal .
  • the optical pattern of the optical signal or the optical signal by changing the optical pattern of the optical signal or the optical signal according to various variables such as a distance to an object and a resolution, it can be flexibly driven according to the needs of various applications.
  • power consumption may be reduced.
  • depth information can be acquired with high resolution without significantly increasing the number of pixels of the sensor.
  • a high-resolution image may be obtained from a plurality of low-resolution images obtained by the camera module according to the present embodiment through the SR technique.
  • FIG. 1 is a perspective view of a camera module according to an embodiment
  • Figure 2 is a cross-sectional view taken along II' in Figure 1
  • FIG. 3 is an exploded perspective view of a camera module according to an embodiment
  • FIG. 4 is a view showing a housing of a light emitting unit according to an embodiment
  • FIG. 5 is a view showing a first optical unit and a first lens barrel of a light emitting unit according to an embodiment
  • FIG. 6 is a view showing a driving magnet unit and a driving coil unit of the light emitting unit according to the embodiment
  • FIG. 8 is a view showing a first elastic member of the light emitting part according to the embodiment.
  • FIG. 9 is a view showing a second elastic member of the light emitting part according to the embodiment.
  • FIG. 10 is a view showing one side of the side substrate of the light emitting unit according to the embodiment.
  • FIG. 11 is a view showing the other side of the side substrate of the light emitting part according to the embodiment.
  • FIG. 13 is a view showing a second optical unit and a second lens barrel of the light receiving unit according to the embodiment
  • FIG. 14 is a view showing a cover of a camera module according to an embodiment
  • 15 is a view for explaining the movement of the first optical unit and the first lens module in the light emitting unit according to the embodiment
  • 16 is a view for explaining the optical signal shape according to the movement of the first optical unit and the first lens module;
  • 17 is a view showing an example of the image of the light receiving unit according to the movement of the first optical unit and the first lens module,
  • FIG. 18 is a view for explaining a process of generating an electrical signal in a sensor according to an embodiment
  • 20 is a timing diagram for generating one frame in a sensor according to an embodiment
  • 21 is a timing diagram of one frame period in which a distance image is generated by a sensor according to another embodiment
  • 22 is a timing diagram for generating an electrical signal for each exposure period within the frame period in FIG. 21;
  • FIG. 23 is a timing diagram in the exposure period PL1 in FIG. 21;
  • 24 is a timing diagram at exposure period PL2 in FIG. 21 ;
  • 25 is a timing diagram in the exposure period PL3 in FIG. 21;
  • 26 is a timing diagram at exposure period PL4 in FIG. 21;
  • 27A is a view for explaining the operation of the control unit according to the embodiment.
  • 27B is a view for explaining the movement of the optical unit according to the first embodiment
  • 27C is a view for explaining the movement of the optical unit according to the second embodiment
  • 27D is a view for explaining the movement of the optical unit according to the third embodiment.
  • 27E is a view for explaining the movement of the optical unit according to the fourth embodiment.
  • 27F is a view for explaining the movement of the optical unit according to the fifth embodiment.
  • 27G is a block diagram of a camera module according to an embodiment
  • 29 is a view for explaining the adjustment of a driving signal to provide a planar shape or a dot shape
  • FIG. 30 is a view for explaining a first example of a driving signal for providing a planar shape or a dotted shape
  • 31 is a view for explaining a second example of a driving signal for providing a planar shape or a dotted shape
  • FIG. 34 is a perspective view of a camera module according to another embodiment
  • 35 is an exploded perspective view of a camera module according to another embodiment
  • Fig. 36a is a cross-sectional view taken along line AA' of Fig. 34;
  • 36b is a cross-sectional view viewed from BB' of FIG. 34;
  • 36c is a cross-sectional view taken from CC' of FIG. 34;
  • 36d is a cross-sectional view viewed from DD' of FIG. 34;
  • FIG. 37 is a perspective view of a partial configuration of a light receiving unit of a camera module according to another embodiment
  • 38 is a perspective view of a housing of a camera module according to another embodiment
  • 39 is a perspective view of a partial configuration of a camera module according to another embodiment.
  • FIG. 40 is a perspective view of a substrate and a coil of a camera module according to another embodiment
  • 41 is a view illustrating a coupling of a coil and a substrate of a camera module according to various other embodiments
  • FIG. 42 is an exploded perspective view showing a holder, a magnet, and an optical member of a camera module according to another embodiment
  • FIG. 43 is an exploded perspective view showing a holder, a magnet, and an optical member of a camera module according to another embodiment
  • FIG. 44 is a perspective view from another angle in FIG. 43;
  • 45 is a top view of a holder, a magnet, and an optical member of a camera module according to another embodiment
  • FIG. 48 is a perspective view of a part of a camera module including an elastic member according to another embodiment.
  • 49 is a top view of a part of a camera module including an elastic member according to another embodiment
  • FIG. 50 is a view of a part of a camera module including an elastic member according to another embodiment according to a modification
  • 51 is a perspective view of a camera module according to another embodiment
  • FIG. 52 is a cross-sectional view viewed from EE' of FIG. 51;
  • FIG. 53 is a cross-sectional view taken along FF' in FIG. 51;
  • 57A is a view for explaining a driving sequence of a tilt unit according to another first embodiment
  • 57b is a view for explaining the output of the driving unit according to FIG. 57a in 1 STEP,
  • 57C is a diagram for explaining the output of the driving unit according to FIG. 57A per frame period;
  • FIG. 58 is a view showing a light path movement process according to another embodiment of the present invention.
  • 59 is a conceptual diagram conceptually sequentially illustrating a plurality of images acquired for a super resolution (SR) technique in a camera module according to another first embodiment
  • 60 is a diagram sequentially showing images of first to fourth frames acquired for the SR technique in the camera module according to another first embodiment
  • 61 is a diagram for explaining an SR video
  • 62 is a view for explaining a driving sequence of a tilt unit according to another embodiment
  • 63 is a view for explaining tilting control of a filter by driving a tilt unit according to another embodiment
  • 64 is a view showing a process of moving a light path according to another embodiment
  • 65 is a conceptual diagram conceptually sequentially illustrating a plurality of images acquired for a super resolution (SR) technique in a camera module according to another embodiment
  • 66 is a view for explaining a tilt actuator according to another embodiment
  • 67 is a view for explaining a driving sequence of the tilt unit according to another embodiment.
  • 68 is a diagram for explaining a driving sequence of a tilt unit according to another embodiment
  • 69 is a view for explaining a driving sequence of a tilt unit according to a modified example.
  • 70 is a diagram illustrating an optical device including a camera module according to an embodiment.
  • the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as "at least one (or one or more) of A and (and) B, C", it is combined with A, B, C It may include one or more of all possible combinations.
  • a component when it is described that a component is 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also with the component It may also include a case of 'connected', 'coupled' or 'connected' due to another element between the other elements.
  • the optical device is any one of a cell phone, a mobile phone, a smart phone, a portable smart device, a digital camera, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), and a navigation device may include.
  • the type of optical device is not limited thereto, and any device for taking an image or photo may be included in the optical device.
  • the optical device may include a body.
  • the body may be in the form of a bar.
  • the main body may have various structures such as a slide type, a folder type, a swing type, a swivel type, in which two or more sub-bodies are coupled to be relatively movable.
  • the body may include a case (casing, housing, cover) forming an exterior.
  • the body may include a front case and a rear case.
  • Various electronic components of an optical device may be embedded in a space formed between the front case and the rear case.
  • the optics may include a display.
  • the display may be disposed on one surface of the main body of the optical device.
  • the display may output an image.
  • the display may output an image captured by the camera.
  • the optics may include a camera.
  • the camera may include a Time of Flight (ToF) camera device.
  • the ToF camera device may be disposed on the front side of the main body of the optics.
  • the ToF camera device may be used for various types of biometric recognition such as user's face recognition and iris recognition for security authentication of optical devices.
  • FIG. 1 is a perspective view of a camera module according to an embodiment
  • FIG. 2 is a cross-sectional view taken along II′ in FIG. 1
  • FIG. 3 is an exploded perspective view of the camera module according to the embodiment.
  • the camera module 10 includes a light emitting unit 1 , a light receiving unit 2 , a connect unit 3 , a main board 4 , an extension board 5 , and a connection board. (6) and a connector (7).
  • the camera module 10 according to the embodiment may include a control unit CT.
  • the control unit CT may be located on any one of the light emitting unit 1 , the light receiving unit 2 , the connect unit 3 , and the main board 4 .
  • the control unit CT may correspond to a control unit to be described later or may be a concept included in a control unit to be described later.
  • the camera module may be a concept having only one of the light emitting unit 1 and the light receiving unit 2 .
  • the camera module may be a concept including a substrate (eg, the main substrate 4) electrically connected to any one of the light emitting unit 1 and the light receiving unit 2 .
  • the light emitting unit 1 may be a light emitting module, a light emitting unit, a light emitting assembly, or a light emitting device.
  • the light emitting unit 1 may generate light or an optical signal and then irradiate it to the object.
  • optical or optical signals are used interchangeably.
  • the light emitting unit 1 may generate and output an optical signal in the form of a pulse wave or a continuous wave.
  • the continuous wave may be in the form of a sinusoid wave or a square wave.
  • the ToF camera device is inputted to the light receiving unit 2 of the ToF camera device after the optical signal output from the light emitting unit 1 and the optical signal are reflected from the object O. It is possible to detect the phase difference between the input lights.
  • the output light refers to an optical signal output from the light emitting unit 1 and incident on the object O, and the input light or reflected light is output from the light emitting unit 1 and reaches the object O to reach the object (O).
  • O) may mean an optical signal input to the ToF camera device after being reflected.
  • the output light may be incident light, and the input light may be reflected light.
  • the light emitting unit 1 irradiates the generated optical signal to the object O for a predetermined exposure period (integration time).
  • the exposure period means one frame period.
  • a set exposure cycle may be repeated. For example, when the ToF camera device captures an object at 20 FPS, the exposure period is 1/20 [sec]. And when 100 frames are generated, the exposure cycle may be repeated 100 times.
  • the light source may also be emitted in a frame period.
  • the light emitting unit 1 may generate a plurality of optical signals having different frequencies.
  • the light emitting unit 1 may sequentially and repeatedly generate a plurality of optical signals having different frequencies.
  • the light emitting unit 1 may simultaneously generate a plurality of optical signals having different frequencies.
  • the light emitting unit 1 may include a light source LS.
  • the light source LS may generate, output, or irradiate light.
  • the light generated by the light source LS may be infrared having a wavelength of 770 nm to 3000 nm.
  • the light generated by the light source LS may be visible light having a wavelength of 380 nm to 770 nm.
  • the light source LS may include all of various elements that generate and output light.
  • the light source LS may include a light emitting diode (LED) and a vertical cavity surface emitting laser (VCSEL).
  • LED light emitting diode
  • VCSEL vertical cavity surface emitting laser
  • the light source LS is a vertical resonance surface-emitting laser
  • a plurality of emitters may be arranged in a horizontal or vertical direction on a plane perpendicular to an optical axis.
  • the form of dots may correspond to the form in which the emitters are arranged.
  • the emitter is 3X3 (width X length)
  • the light intensity in the form of dots may be 3X3.
  • the light source LS may include a plurality of light emitting diodes arranged according to a predetermined pattern.
  • the light source LS may include an organic light emitting diode (OLED) or a laser diode (LD).
  • the light emitting unit 1 may include a light modulator for modulating light.
  • the light source LS may generate an optical signal in the form of a pulse wave or a continuous wave by repeatedly flickering (on/off) at regular time intervals.
  • the predetermined time interval may correspond to the frequency of the optical signal.
  • the blinking of the light source LS may be controlled by the light modulator.
  • the light modulator may control the blinking of the light source LS so that the light source LS generates an optical signal in the form of a continuous wave or a pulse wave.
  • the light modulator may control the light source LS to generate an optical signal in the form of a continuous wave or a pulse wave through frequency modulation, pulse modulation, or the like.
  • the light modulator may be located in the control unit. Accordingly, it should be understood that the controller can block (off or turn off) or provide (on) the output of the optical signal by the light source by controlling the light modulator, as will be described later.
  • the light emitting unit 1 may include a diffuser (not shown).
  • the diffuser (not shown) may be a diffuser lens.
  • a diffuser (not shown) may be disposed in front of the light source LS. Light emitted from the light source LS may pass through a diffuser (not shown) to be incident on the object O. The diffuser (not shown) may change the path of the light emitted from the light source LS.
  • a diffuser (not shown) may diffuse the light emitted from the light source LS.
  • a diffuser (not shown) may be located in a first optical unit to be described later.
  • the light emitting unit 1 includes the above-described light source LS, the housing 110 , the first optical unit 120 , the first lens barrel 130 , the driving magnet unit 140 and the driving coil unit 150 . It may include a driving unit that includes, an elastic unit 160 , a side substrate 170 , and a position sensor 180 .
  • the housing 110 may be located inside the cover 400 to be described later.
  • the housing 110 may be coupled to a first lens barrel 130 , a side substrate 170 , a driving coil unit 150 , and an elastic unit 160 , which will be described later.
  • the housing 110 may include a barrel accommodating part opened therein.
  • the above-described first lens barrel 130 and the driving coil unit 150 may be located in the barrel receiving unit.
  • the first optical unit 120 may be located in the housing 110 .
  • the first optical unit 120 may be held by a first lens barrel 130 to be described later, and may be coupled to the housing 110 through the first lens barrel 130 .
  • the first optical unit 120 may include a plurality of optical elements or lenses.
  • the first optical unit 120 may include a plurality of lenses.
  • the first optical unit 120 may include a collimator lens.
  • the collimator lens may include a plurality of lenses, and may have an angle of view (FoI) of 60 degrees to 120 degrees.
  • Such a collimator lens may lower the divergence angle of light output from the light source.
  • the laser divergence angle of each aperture of the vertical resonance surface emitting laser (VCESL), which is the light source is 20 to 25 degrees
  • the divergence angle of the light passing through the collimator lens may be 1 degree or less.
  • the first optical unit 120 may duplicate the optical signal output from the light source LS according to a preset replication pattern.
  • the first optical unit 120 may include a diffractive optical element (DOE) or a diffuser lens.
  • DOE diffractive optical element
  • the first optical unit 120 may include an optical element, an optical member, or an optical element having a micro-scale or nano-scale structure.
  • An optical signal (output light) emitted from the light source LS toward the object may pass through the first lens barrel 130 .
  • the optical axis of the first lens barrel 130 and the optical axis of the light source LS may be aligned.
  • the first lens barrel 130 may be coupled to the housing 110 .
  • the first lens barrel 130 may be fixed to the housing 110 .
  • the first lens barrel 130 may hold the first optical unit 120 formed of a plurality of optical elements.
  • the first lens barrel 130 may include a lens accommodating part 131 on which the first optical part 120 is seated.
  • the first lens barrel 130 may be moved up and down by a voice coil motor or the like, as will be described later. That is, the first lens barrel 130 may vertically move along the optical axis direction by an actuator such as a voice coil motor. Accordingly, as will be described later, the light generated from the light source may be changed into a planar shape or a dotted shape while passing through the first lens barrel 130 .
  • the first lens barrel 130 may include a magnet receiving groove 132 in which the driving magnet unit is seated.
  • a screw thread structure may be formed on a side surface of the lens accommodating part 131 for coupling with the first optical part 120 . Accordingly, the first optical unit 120 may move up and down in the housing 110 together with the first lens barrel 130 by a driving unit to be described later. However, it is not limited to such a bonding structure.
  • the side substrate 170 may be coupled to the housing 110 .
  • the side substrate 170 may be located in the substrate groove 112 located on the side of the housing 110 .
  • the side substrate 170 may be electrically connected to the main substrate 4 .
  • the driving unit may include a driving magnet unit 140 and a driving coil unit 150 .
  • the driving magnet unit 140 may include a plurality of magnets.
  • the plurality of magnets may be located in the magnet seating groove 132 located on the side of the first lens barrel 130 .
  • the driving magnet unit 140 may vertically move the first lens barrel 130 and the first optical unit 120 with respect to the housing 110 by electromagnetic interaction with the driving coil unit 150 to be described later. Accordingly, the separation distance from the lower light source LS to the first optical unit 120 and the first lens barrel 130 may be increased or decreased.
  • the output light may have a light source shape of a planar shape (or a surface light source) or a point shape (or a point light source) with respect to an object.
  • the driving coil unit 150 includes a plurality of coils and may be located on a side surface of the housing 110 .
  • the driving coil unit 150 may be positioned to face the driving magnet unit 140 . Accordingly, when current is injected into the driving coil unit 150 , the first lens barrel 130 may move due to electromagnetic interaction (eg, Lorentz force) between the driving coil unit 150 and the driving magnet unit 140 . .
  • the driving coil unit 150 may be located in each coil receiving unit 114 formed on the side surface of the housing 110 .
  • the driving coil unit 150 may be electrically connected to the side substrate 170 .
  • the driving coil unit 150 may be electrically connected to the side substrate 170 through a wire or the like.
  • the driving coil unit 150 may also be seated in the coil receiving unit 114 formed on the side of the housing 110 to be coupled to the housing. A detailed description thereof will be given later.
  • the elastic part 160 may be disposed on the housing 110 .
  • the elastic part 160 may be coupled to the first lens barrel 130 and the housing 110 .
  • the housing 110 may be fixedly coupled to the main board 4 or the base 200 to be described later.
  • the first lens barrel 130 may move up and down with respect to the housing 110 by the Lorentz force described above.
  • the elastic unit 160 may provide a preload for vertical movement of the first lens barrel 130 or the first optical unit 120 . Accordingly, when the Lorentz force by the driving unit does not occur, the first lens barrel 130 may maintain a predetermined position with respect to the housing 110 .
  • the reliability of the camera module may be improved.
  • the position sensor 180 may be electrically connected to the side substrate 170 . Also, the position sensor 180 may be located on the side substrate 170 . In addition, the position sensor 180 may be disposed to be spaced apart from the driving magnet unit 140 by a predetermined distance.
  • the position sensor 180 may include a Hall sensor or a Hall IC.
  • the position sensor 180 may detect a magnetic force of the driving magnet unit 140 .
  • the position sensor 180 may sense the magnetic field strength from the driving magnet unit to output position information about the light source LS of the first lens barrel 130 or the first optical unit 120 . Accordingly, the control unit determines the defect of the first optical unit 120 or the first lens barrel 130 based on the position information of the position sensor 180 and controls the output of the light source LS in response to the determination result ( can be turned on/off).
  • the position sensor 180 may include a plurality of position sensors.
  • the position sensor 180 may include two sensors.
  • the position sensor 180 may detect movement of the first lens barrel 130 and the first optical unit 120 in the optical axis direction.
  • the Z-axis direction is an optical axis direction or a vertical direction as the third direction.
  • the X-axis direction is a direction perpendicular to the Z-axis direction, and in the embodiment, the direction from the light emitting unit toward the light receiving unit is the first direction.
  • the Y-axis direction is a direction perpendicular to the X-axis direction and the Z-axis direction, and is a second direction. It will be described below based on this.
  • the light receiving unit 2 may be a light receiving module, a light receiving unit, a light receiving assembly, or a light receiving device, and may be a component of a camera module.
  • the light receiving unit 2 may receive light (reflected light) emitted from the light emitting unit 1 and reflected from the object, and may convert the received light into an electrical signal.
  • the light receiving unit 2 may generate input light corresponding to the light signal output from the light emitting unit 1 .
  • the light receiving unit 2 may be disposed side by side with the light emitting unit 1 .
  • the light receiving unit 2 may be disposed next to the light emitting unit 1 .
  • the light receiving unit 2 may be disposed in the same direction as the light emitting unit 1 . With this configuration, the reception efficiency of the input light can be improved in the light receiving unit 2 .
  • the light receiving unit 2 may receive the reflected light during the exposure period and generate an electric signal therefor.
  • the camera module may perform direct distance measurement or indirect distance measurement through the light receiving unit 2 .
  • the camera module may measure the distance to the object through a time difference between a reception time of reflected light and an output time of output light.
  • the camera module may measure the distance to the object through synthesis between the reference signal and the reflected light synchronized with the output light and having different phases.
  • Direct distance measurement is easier to measure long distance than non-direct distance measurement, the switching speed is nanoseconds, so the measurement speed can be relatively fast, and it is strong against multiple echoes.
  • non-direct distance measurement has a slower switching speed compared to direct distance measurement, but it is easy to measure close range, can be applied to multiple pixels, and has the advantage of small data volume for distance measurement.
  • the camera module performs the above-described direct-TOF (or corresponding to direct distance measurement) or indirect-TOF (or non-direct distance measurement). can do.
  • the light receiving unit 2 may include a second lens barrel 320 , a second optical unit 310 , and an image sensor IS.
  • the second lens barrel 320 may be coupled to a base 200 to be described later.
  • the second lens barrel 320 may be coupled to a base to be described later by screw coupling or the like. Accordingly, the second lens barrel 320 may include a screw thread located on the side.
  • the second lens barrel 320 may be formed integrally with the second optical unit 310 .
  • the present invention is not limited thereto.
  • the second optical unit 310 may be coupled to the second lens barrel 320 .
  • the second optical unit 310 may be coupled to the base 200 through the second lens barrel 320 .
  • the second optical unit 310 may be coupled to the second lens barrel 320 through various coupling methods.
  • the second optical unit 310 may be formed through screw coupling with the second lens barrel 320 as described above.
  • the second optical unit 310 may include a plurality of lenses.
  • the second optical unit 310 may be aligned with the lower image sensor IS. Accordingly, the reflected light passing through the second optical unit 310 may be received by the image sensor IS.
  • the image sensor IS may detect reflected light. In addition, the image sensor IS may detect the reflected light and output it as an electrical signal. In an embodiment, the image sensor IS may detect light having a wavelength corresponding to the wavelength of light output from the light source LS. For example, the image sensor IS may detect infrared rays. Alternatively, the image sensor IS may detect visible light. The image sensor IS may include various image sensors that sense light.
  • the image sensor IS is a pixel array that receives light passing through the second lens barrel 320 and the second optical unit 310 and converts it into an electrical signal corresponding to the light, a plurality of pixels included in the pixel array It may include a driving circuit for driving a pixel of the , and a readout circuit for reading an analog pixel signal of each pixel.
  • the readout circuit may generate a digital pixel signal (or an image signal) through analog-to-digital conversion by comparing the analog pixel signal with a reference signal.
  • the digital pixel signal of each pixel included in the pixel array constitutes an image signal, and as the image signal is transmitted in units of frames, it may be defined as an image frame. That is, the image sensor may output a plurality of image frames.
  • the light receiving unit 2 may further include an image combining unit.
  • the image synthesizing unit may include an image processor that receives an image signal from the image sensor IS and processes the image signal (eg, interpolation, frame synthesis, etc.).
  • the image synthesizing unit may combine the image signals (low resolution) of a plurality of frames into an image signal (high resolution) of one frame. That is, the image synthesizing unit may synthesize a plurality of image frames included in the image signal received from the image sensor IS, and generate the synthesized result as a composite image.
  • the composite image generated by the image synthesizing unit may have a higher resolution than a plurality of image frames output from the image sensor IS.
  • the image synthesizing unit may generate a high-resolution image through a super resolution (SR) technique.
  • the plurality of image frames may include image frames generated by changing different optical paths by movement of the filters F and F'.
  • Such an image synthesizing unit may be located inside or outside the light receiving unit 2 .
  • the above-described super-resolution may be achieved through an optical member tilted in the light receiving unit 2 .
  • the camera module may or may not have a device for tilting the optical member in the light receiving unit 2 . A detailed description of the configuration of tilting the optical member in the light receiving unit 2 for super resolution will be described later.
  • the filters F and F' may be coupled to the base 200 .
  • the filters F and F' may be disposed between the first lens barrel 130 and the light source LS or between the second lens barrel 320 and the image sensor IS. Accordingly, the filters F and F' may be disposed on the optical path between the object and the image sensor IS or the optical path between the object and the light source LS.
  • the filters F and F' may filter light having a predetermined wavelength range.
  • the filters F and F' can pass light of a specific wavelength. That is, the filters F and F' may block by reflecting or absorbing light other than a specific wavelength. For example, the filters F and F' may pass infrared rays and block light of wavelengths other than infrared rays. Alternatively, the filters F and F' may pass visible light and block light of a wavelength other than visible light. The filters F and F' may be infrared rays band pass filters. Accordingly, the filters F and F' can pass only infrared light. However, it is not limited to these functions. Alternatively, the optical member may be a separate focus fixed lens or a variable focus lens (ex: liquid lens) separated from the lens module.
  • the filters F and F' are movable.
  • the filters F and F' may be tilted.
  • the optical path can be adjusted.
  • the filters F and F' are tilted, the path of light incident to the image sensor IS may be changed.
  • the filter F' in the light receiving unit 2 may change a field of view (FOV) angle or a direction of the FOV of the incident light.
  • the filters F and F' may change the path through which light enters as they are tilted to enable high-resolution Time of Flight (ToF).
  • TOF Time of Flight
  • the cover 400 may be a bracket.
  • the cover 400 may include a 'cover can'.
  • the cover 400 may be disposed to surround the light emitting unit 1 and the light receiving unit 2 .
  • the cover 400 may be coupled to the housing 110 and the base 200 .
  • the cover 400 may accommodate the light emitting unit 1 and the light receiving unit 2 . Accordingly, the cover 400 may be located on the outermost side of the camera module.
  • cover 400 may be a non-magnetic material.
  • the cover 400 may be formed of a metal.
  • the cover 400 may be formed of a metal plate.
  • the cover 400 may be connected to the ground portion of the main board 4 . Through this, the cover 400 may be grounded. And the cover 400 may block electromagnetic interference (EMI). In this case, the cover 400 may be referred to as an 'EMI shield can'.
  • the cover 400 is a finally assembled component and may protect the product from external impact.
  • the cover 400 may be formed of a material having a thin thickness and high strength.
  • the light emitting unit 1 and the light receiving unit 2 may be disposed on the main board 4 (PCB, Printed Circuit Board).
  • the main substrate 4 may be electrically connected to the light emitting unit 1 and the light receiving unit 2 .
  • the connector 3 may be electrically connected to the main board 4 .
  • the connecting unit 3 may be connected to the configuration of the optical device.
  • the connecting unit 3 may include a connector 7 that is connected to the configuration of the optical device.
  • the connector 3 may include an extension board 5 on which the connector 7 is disposed and connected to the connection board 6 .
  • the extension substrate 5 may be a PCB, but is not limited thereto.
  • connection board 6 may connect the main board 4 and the extension board 5 of the connector 3 .
  • the connecting substrate 6 may have flexibility.
  • the connection board 6 may be a flexible printed circuit board (FPCB, Flexible PCB).
  • main substrate 4, the connecting substrate 6, and the extension substrate 5 may be formed integrally or separately.
  • the camera module may include a reinforcing plate 8 .
  • the reinforcing plate 8 may include a stiffener.
  • the reinforcing plate 8 may be disposed on the lower surface of the main substrate 4 .
  • the reinforcing plate 8 may be formed of a SUS.
  • the light receiving unit 2 may include a lens driving device. That is, the light receiving unit 2 may include a voice coil motor (VCM). In addition, the light receiving unit 2 may include a lens driving motor. In addition, the light receiving unit 2 may include a lens driving actuator.
  • VCM voice coil motor
  • the light receiving unit 2 may include a lens driving motor.
  • the light receiving unit 2 may include a lens driving actuator.
  • FIG. 4 is a view showing a housing of a light emitting unit according to an embodiment
  • FIG. 5 is a view showing a first optical unit and a first lens barrel of a light emitting unit according to an embodiment
  • FIG. 6 is driving of the light emitting unit according to the embodiment It is a view showing a magnet part and a driving coil part
  • FIG. 7 is a view showing coupling of the elastic part of the light emitting part according to the embodiment
  • FIG. 8 is a view showing the first elastic member of the light emitting part according to the embodiment
  • Figure 9 is It is a view showing a second elastic member of the light emitting part according to the embodiment
  • Figure 10 is a view showing one side of the side substrate of the light emitting part according to the embodiment
  • Figure 11 shows the other side of the side substrate of the light emitting part according to the embodiment
  • Fig. 12 is a view showing the base of the camera module according to the embodiment
  • Fig. 13 is a view showing the second optical unit and the second lens barrel of the light receiving unit according to the embodiment
  • Fig. 14 is the embodiment It is a view showing the cover of the camera module according to the.
  • the housing 110 of the light emitting part may include a housing hole 111 , a substrate groove 112 , a sensor hole 113 , and a coil mounting part 114 .
  • the housing hole 111 may be located in the center of the housing 110 .
  • the first optical unit, the first lens barrel, and the driving unit may be seated in the housing hole 111 .
  • the substrate groove 112 may be located on the outer surface of the housing 110 .
  • the housing 110 may have a rectangular shape in plan view. However, the present invention is not limited thereto and may be formed in various shapes.
  • a coupling protrusion for coupling with the side substrate may be positioned in the substrate groove 112 .
  • the coupling protrusion may extend outward from the side surface of the housing 110 .
  • the side substrate is provided with a coupling hole, the coupling protrusion is inserted into the coupling hole, so that the side substrate and the housing 110 can be coupled to each other.
  • the sensor hole 113 may overlap the substrate groove 112 in a first direction (X-axis direction) and a second direction (Y-axis direction).
  • a position sensor may be seated in the sensor hole 113 . Accordingly, the position sensor may be easily electrically connected to the side substrate.
  • the position sensor has a fixed coupling position with the housing 110 to accurately measure the position of the driving magnet unit.
  • the coil mounting part 114 may be located on the inner surface of the housing 110 .
  • the coil receiving part 114 may be formed of a chin extending inward from the inner surface of the housing 110 .
  • the inner side may be a direction from the housing toward the first optical unit
  • the outer side may be a direction from the first optical unit toward the housing in a direction opposite to the inner side.
  • the driving coil unit may be seated on the coil mounting unit 114 .
  • the driving seat 114 may have a shape corresponding to the driving coil unit having various structures.
  • the coil driving unit may have a closed loop type as will be described later.
  • the coil seating part 114 may also have a closed loop shape corresponding to the shape of the driving coil part.
  • the first optical unit 120 of the light emitting unit may be inserted into the lens receiving unit 131 of the first lens barrel 130 .
  • the first optical unit 120 may include a plurality of lenses.
  • the first optical unit 120 may include a screw thread located on the outer surface.
  • the first lens barrel 130 may also have a groove corresponding to the screw thread of the first optical unit 120 on the inner surface. Accordingly, the first optical unit 120 and the first lens barrel 130 may be screw-coupled to each other.
  • the first lens barrel 130 may include not only the above-described lens accommodating part 131 , but also a magnet seating groove 132 .
  • the magnet seating groove 132 may be plural.
  • the magnet seating groove 132 is four, and the first outer surface 132a and the second outer surface 132b facing each other of the first lens barrel 130, and the first outer surface facing each other ( It may be positioned on the third outer surface 132c and the fourth outer surface 132d positioned between the 132a and the second outer surface 132b.
  • the magnet seating groove 132 is located on each of the first outer surface 132a to the fourth outer surface 132d, and first to fourth magnets to be described later are formed on the first outer surface 132a to the fourth outer surface. It can be seated in the magnet seating groove 132 of (132d). A bonding member may be applied to the magnet seating groove 132 . Accordingly, coupling force between the first to fourth magnets and the first lens barrel 130 may be improved.
  • the driving unit may include a driving magnet unit 140 and a driving coil unit 150 .
  • the driving magnet unit 140 may include a plurality of magnets.
  • the driving magnet unit 140 may include a first magnet 141 to a fourth magnet 144 .
  • the first magnet 141 and the second magnet 142 may be positioned to face each other.
  • the first magnet 141 and the second magnet 142 may be symmetrically disposed with respect to the second direction.
  • the third magnet 143 and the fourth magnet 144 are positioned to face each other, and may be positioned between the first magnet 141 and the second magnet 142 .
  • the third magnet 143 and the fourth magnet 144 may be symmetrically disposed with respect to the first direction.
  • the first magnet 141 to the fourth magnet 144 may be located in the above-described magnet seating groove.
  • the driving coil unit 150 may have a closed-loop shape on a plane (XY) as described above.
  • the driving coil unit 150 may be seated on the coil receiving unit.
  • the driving coil unit 150 may overlap the driving magnet unit 140 at least partially in the first direction or the second direction.
  • the driving coil unit 150 may be disposed to surround the driving magnet unit 140 . That is, the driving magnet unit 140 may be located on a closed loop of the driving coil unit 150 .
  • the driving coil unit 150 may be disposed to be spaced apart from the driving magnet unit 140 by a predetermined distance.
  • the driving coil unit 150 may include a first wire W1 and a second wire W2 for electrically connecting to the side substrate at one end.
  • the first wire W1 and the second wire W2 may be disposed at positions corresponding to the side substrate to minimize electrical resistance. Accordingly, a decrease in accuracy due to the resistance may be prevented and power efficiency may be improved.
  • the first wire W1 and the second wire W2 may be connected to one end and the other end of the driving coil unit 150 made of a coil, respectively.
  • the elastic part 160 may include a first elastic member 161 and a second elastic member 162 .
  • the elastic part 160 may be positioned above or below the first lens barrel 130 to be coupled to the housing 110 and the first lens barrel 130 . Accordingly, even if the first lens barrel 130 is vertically moved by the driving unit, a preload may be applied to the vertical movement of the first lens barrel 130 through the elastic part 160 coupled to the housing 110 . Accordingly, if no current is applied to the driving coil unit, the first lens barrel 130 may exist at the same position in the housing 110 by the restoring force of the elastic unit 160 .
  • the first elastic member 161 may be positioned above the first lens barrel 130 .
  • the second elastic member 162 may be positioned under the first lens barrel 130 .
  • the first elastic member 161 may include a first elastic coupling part P1 and a second elastic coupling part P2.
  • the first elastic coupling part P1 may be located outside the second elastic coupling part P2.
  • the first elastic coupling portion (P1) may be coupled to the protrusion of the housing (110).
  • the second elastic coupling portion P2 may be coupled to the first lens barrel 130 .
  • a bonding member may be applied to the first elastic coupling part P1 and the second elastic coupling part P2 for the above-described coupling.
  • the bonding member may include a damper liquid.
  • the damper liquid may include, for example, epoxy or the like.
  • the second elastic member 162 may include a third elastic coupling portion (P3) and a fourth elastic coupling portion (P4).
  • the third elastic coupling portion P3 may be located outside the fourth elastic coupling portion P4.
  • the third elastic coupling portion (P3) may be coupled to the protrusion of the housing (110).
  • the fourth elastic coupling part P4 may be coupled to the first lens barrel 130 .
  • the bonding member may be applied to the third elastic coupling part P3 and the fourth elastic coupling part P4 to achieve the above-described coupling.
  • a first pattern portion PT having various curvatures may be positioned between the first elastic coupling portion P1 and the second elastic coupling portion P2 . That is, the first elastic coupling part P1 and the second elastic coupling part P2 may be coupled to each other with the first pattern part PT interposed therebetween.
  • the first pattern portion PT may be symmetrically positioned in the first direction (X-axis direction) and the second direction (Y-axis direction).
  • a second pattern part PT′ having various curvatures may be positioned between the third elastic coupling part P3 and the fourth elastic coupling part P4. That is, the third elastic coupling part P3 and the fourth elastic coupling part P4 may be coupled to each other with the second pattern part PT′ interposed therebetween.
  • the second pattern part PT' may be symmetrically positioned in the first direction (X-axis direction) and the second direction (Y-axis direction).
  • the side substrate 170 may have one side and the other side facing the one side and contacting the housing.
  • the side substrate 170 may include first and second conductive parts EC1 and EC2 connected to the first and second wires of the driving coil part on one side surface. And the side substrate 170 may include a coupling hole 170a on the other side. The coupling hole 170a may be coupled to the coupling protrusion of the housing as described above. Accordingly, the side substrate 170 may be coupled to the side surface of the housing.
  • the position sensor 180 may be positioned on the other side of the side substrate 170 .
  • the position sensor 180 may be seated on the other side of the side substrate 170 and inserted into the sensor hole.
  • the base 200 is positioned on the main substrate 4 and may be in contact with the main substrate 4 .
  • the first lens barrel, the first optical unit, the second lens barrel, the second optical unit, and the housing described above may be seated on the base 200 .
  • the base 200 may include a first base part 210 and a second base part 220 that are spaced apart from each other. Components of the light emitting unit, such as the first optical unit, the first lens barrel, and the housing, may be seated on the first base unit 210 . In addition, the second base unit 220 may seat the second optical unit and the second lens barrel.
  • the first base part 210 and the second base part 220 may include base holes 210a and 220a, respectively.
  • An optical signal from a light source may be output toward an object through the base holes 210a and 220a, and an optical signal (reflected light) reflected from the object may be provided to the image sensor.
  • the above-described filters may be seated on the first base part 210 and the second base part 220 , respectively.
  • first base part 210 and the second base part 220 are shown as one body, they may be separated.
  • the second base unit 220 may be tilted as described above, and the filter attached to the second base unit 220 may also be tilted, so that the camera module according to the embodiment may perform the above-described super resolution technique.
  • the second optical unit 310 may be coupled to the second lens barrel 320 .
  • the second optical unit 310 may be inserted into a hole located in the center of the second lens barrel 320 .
  • the second lens barrel 320 may have a thread on the outer surface to be screw-coupled to the second base part 220 of the base 200 .
  • the second optical unit 310 may also include a plurality of lenses.
  • the cover 400 may include a first cover part 410 and a second cover part 420 in addition to the above description.
  • the first cover part 410 is positioned on the first base part and may include a first cover hole 410a overlapping the first optical part.
  • An optical signal (output light) passing through the first optical unit through the first cover hole 410a may be irradiated to the object.
  • the second cover part 420 is positioned on the second base part and may include a second cover hole 420a overlapping the second optical part.
  • An optical signal (reflected light) passing through the second optical unit through the second cover hole 420a may be irradiated to the image sensor.
  • FIG. 15 is a view for explaining the movement of the first optical unit and the first lens module in the light emitting unit according to the embodiment
  • FIG. 16 is a view for explaining the optical signal shape according to the movement of the first optical unit and the first lens module
  • FIG. 17 is a view showing an example of an image of the light receiving unit according to the movement of the first optical unit and the first lens module.
  • the first optical unit and the first lens module move in the vertical direction to convert the optical signal (output light) into a planar light source or a point light source.
  • the output light may be output in the form or pattern of a surface light source or a point light source according to the interval between the light source and the first lens module (or the first optical unit/second optical unit (hereinafter referred to as the optical unit and the tube). have.
  • the first optical unit and the first lens module may be moved in the optical axis direction (Z axis direction) by the driving unit. And as described above, the amount of movement to the upper portion of the first optical unit and the first lens module may be adjusted according to the amount of current flowing through the driving coil unit.
  • the first optical unit and the first lens module may be moved so that the distance from the light source has a maximum (refer to FIG. 15(a)) to a minimum (refer to FIG. 15(b)).
  • the above-described distance between the light source and the optical unit may be a distance between the uppermost surface of the aperture of the light source and the lowermost surface of the optical unit.
  • a predetermined distance eg, 80 ⁇ m
  • the light source may be output in the form of a surface.
  • a predetermined distance eg, 530 ⁇ m
  • control unit controls the amount of current provided to the driving coil unit to adjust the distance between the first lens module (or the first optical unit) and the light source to finally control the shape of the output light (a surface light source or a point light source).
  • the controller may change the amount of movement of the first lens module by the actuator when the amount of current provided to the driving coil unit is changed (eg, increasing/decreasing the current value).
  • the optical signal (output light) when the distance between the light source and the first lens module (or the first optical unit) is greater than or equal to a certain distance, the optical signal (output light) is transmitted to the surface light source or It can be printed in the form of a face. That is, if the distance between the light source and the first lens module (or the first optical unit) is between a preset distance (or a certain distance) and the maximum distance, the optical signal (output light) may be output in the form of a surface light source or a surface.
  • the maximum distance is a distance when the distance between the light source and the movable first lens module is the maximum, and may be the distance between the position of the first lens module and the light source when the actuator is driven to the maximum (eg, maximum current).
  • the optical signal when the distance between the light source and the first lens module (or the first optical unit) is less than a certain distance, the optical signal may be output in the form of a point light source or a point as shown in FIGS. 16(b) and 17(b). have. That is, if the distance between the light source and the first lens module (or the first optical unit) is between a predetermined distance (or a predetermined distance) and the minimum distance, the optical signal may be output in the form of a point light source or a point.
  • the minimum distance is a distance when the distance between the light source and the movable first lens module (or first optical unit) is the minimum, and the distance between the position (initial position) of the first lens module and the light source when the actuator is not driven can be
  • various embodiments of such a location will be described later.
  • the optical signal (output light) from the light source is output in the form of a dot as described above, and higher energy may be applied to the object.
  • the camera module 10 can change the light pattern of the output light from a planar light source to a point light source or change the resolution of the point light source according to the resolution of the output light, the distance to the object, the degree of power consumption, etc. It provides the advantage of being flexible in responding to the requirements of the application.
  • 18 is a diagram for explaining a process of generating an electrical signal in a sensor according to an embodiment.
  • the phase of the reflected light may be delayed by the distance at which the incident light (output light, LS1) is reflected and returned after being incident on the object.
  • the number of reference signals may be plural, and in the embodiment, as shown in FIG. 18 , the number of reference signals may be four (C1 to C4).
  • each of the reference signals C1 to C4 may have the same frequency as the optical signal, but may have a phase difference of 90 degrees from each other.
  • One of the four reference signals (eg, C1 ) may have the same phase as the optical signal.
  • the reference signals C1 to C4 may be applied into the sensor, and the sensor may generate an electrical signal from the reflected light LS2 according to the reference signal.
  • the sensor may include a charging element generating an electrical signal and a switching element, and the switching element may perform an On/Off operation according to a reference signal.
  • the senor exposes an effective area of the sensor in response to each reference signal, and may receive an optical signal during the exposure time (exposure time). That is, when the reference signal is on (positive), the sensor may generate an electric signal by charging an electric charge from the reflected light LS2. Accordingly, the sensor may generate an electrical signal corresponding to the shaded portion of FIG. 18 .
  • the charging element includes a capacitor and the like
  • the switching element may include various switching elements such as a field effect transistor, but is not limited to the above-described type.
  • a sensor means an image sensor
  • the controller may be located in the camera module or in the image sensor. And, as will be described later, the controller may output a control signal (irradiated light signal to be described later) for controlling the output of the incident light provided from the light source.
  • the control unit may output the exposure signal in synchronization with the output control signal.
  • the exposure signal may correspond to the aforementioned reference signal.
  • the reference signal or the exposure signal may have a predetermined delay for the output of the incident light and the transmission of the control signal (hereinafter, referring to FIG. 28 or less). However, for theoretical explanation, the same point in time will be described in FIGS. 18 to 26 .
  • the optical signal may be generated at a plurality of frequencies during the exposure time.
  • the sensor absorbs the input light signal according to the plurality of frequencies.
  • optical signals are generated at frequencies f1 and f2, and that the plurality of reference signals have a phase difference of 90 degrees from each other.
  • the incident light signal also has frequencies f1 and f2
  • four electrical signals may be generated through the input light signal having the frequency f1 and four reference signals corresponding thereto.
  • four electrical signals may be generated through an input optical signal having a frequency of f2 and four reference signals corresponding thereto. Accordingly, a total of eight electrical signals may be generated.
  • an optical signal is generated with one frequency (four electrical signals are generated) will be described.
  • the optical signal may be generated with a plurality of frequencies.
  • FIG. 19 is a diagram for explaining a sensor according to an embodiment
  • FIG. 20 is a timing diagram for generating one frame in the sensor according to the embodiment.
  • the image sensor IS may have an array structure including a plurality of pixels as described above.
  • the image sensor IS is an active pixel sensor (APS) and may be a complementary metal oxide semiconductor (CMOS) sensor.
  • CMOS complementary metal oxide semiconductor
  • the image sensor IS may be a CCD (Charge Coupled Device) sensor.
  • the image sensor IS may include a ToF sensor that receives light (eg, infrared rays) reflected from a subject and measures a distance using a time or phase difference.
  • a plurality of pixels may be arranged side by side in a first direction and a second direction.
  • the plurality of pixels may have a matrix form.
  • the first pixel and the second pixel may be included.
  • the first pixel and the second pixel may be alternately disposed in the first direction and the second direction. That is, in one first pixel, a plurality of second pixels may be disposed adjacent to each other in the first direction and the second direction.
  • the first pixel and the second pixel may be arranged in a checkerboard pattern. That is, in the case of an image sensor IS having a resolution of 320x240 as shown in FIG. 19 , 76,800 pixels may be arranged in a grid form.
  • the first pixel and the second pixel may be pixels that receive light in different wavelength bands as peak wavelengths.
  • the first pixel may receive light having an infrared band as a peak wavelength.
  • the second pixel may receive light having a wavelength other than the infrared band as a peak wavelength.
  • any one of the first pixel and the second pixel may not receive light.
  • the plurality of pixels may include an effective area in which the light receiving element is disposed and an ineffective area other than the effective area.
  • the effective area may receive light to generate a predetermined electric signal
  • the ineffective area may be an area that does not generate or does not receive light by receiving light. That is, the ineffective region may include a case in which an electrical signal by light cannot be generated even when a light receiving element is positioned therein.
  • the first pixel may include an effective area, but the second pixel may be formed of only an ineffective area in which an effective area does not exist.
  • a light receiving element such as a photodiode may be positioned only in the first pixel and not in the second pixel.
  • the image sensor IS may include a plurality of row regions including effective regions and non-effective regions alternately arranged in the row direction.
  • the image sensor IS may include a plurality of column regions including effective regions and non-effective regions alternately arranged in a column direction.
  • the plurality of pixels may be formed in various shapes such as a rectangle, a triangle, a polygon, and a circle.
  • the effective area within the pixel may also have various shapes, such as a rectangle, a triangle, a polygon, and a circle.
  • the plurality of pixels may be spaced apart from each other at regular intervals. Such a spaced distance may be very small compared to the size of the pixel, and a wire or the like may be disposed. Hereinafter, in the present specification, the separation distance will be ignored.
  • each pixel DX (eg, a first pixel) includes a first pixel DX-1 including a first photodiode and a first transistor, and a second pixel DX-1 including a second photodiode and a second transistor. It may include a pixel DX-2.
  • the first pixel DX-1 receives the input light signal at the same phase as the waveform of the output light. That is, when the light source is turned on, the first photodiode is turned on to absorb the input light signal. And when the light source is off (off), the first photodiode is turned off (turn-off) to stop absorbing the input light.
  • the first photodiode converts the absorbed input light signal into current and transmits it to the first transistor.
  • the first transistor converts the received current into an electric signal and outputs it.
  • the second pixel DX-2 receives the input light signal at a phase opposite to the waveform of the output light (eg, 180 degrees). That is, when the light source is turned on, the second photodiode is turned off to absorb the input light signal. And when the light source is turned off, the second photodiode is turned on to stop absorbing the input light. The second photodiode converts the absorbed input light signal into current and transmits it to the second transistor. The second transistor converts the received current into an electrical signal.
  • a phase opposite to the waveform of the output light eg, 180 degrees
  • the first pixel DX-1 may be referred to as an in-phase receiving unit
  • the second pixel DX-2 may be referred to as an out-phase receiving unit.
  • the controller calculates the phase difference between the output light and the input light using the electrical signal received from the image sensor IS, and calculates the distance between the object and the camera module using the phase difference.
  • the first reference signal C1 is provided to the first pixel DX - 1
  • the second reference signal C2 is provided to the second pixel DX - 2 .
  • the third reference signal C3 may be provided to the first pixel DX-1
  • the fourth reference signal C4 may be provided to the second pixel DX-2.
  • the first exposure period PL1 and the second exposure period PL2 may form one frame period, and a read out exists between the first exposure period PL1 and the second exposure period PL2 .
  • a read out is a period in which the amount of charge charged in each light receiving unit in the pixel is discharged.
  • the first reference signal C1 to the fourth reference signal C4 is a signal for controlling the charging of the charging device in the pixel and may be a gate signal in the switching device, which may be applied in the same manner as described with reference to FIG. 18 . have.
  • the image sensor IS may output an electrical signal corresponding to the reference signal from each of the plurality of pixels.
  • the phase difference between the incident light and the reflected light may be calculated using the reference signal.
  • four electrical signals may be generated for each one frame period with respect to the optical signal. Accordingly, the controller may calculate the phase difference td between the optical signal and the input optical signal using Equation 1 below.
  • Q1 to Q4 are electric charge amounts (hereinafter, charge amounts) of each of the four electric signals.
  • Q1 is the electric charge amount of the electrical signal corresponding to the reference signal of the same phase as the optical signal.
  • Q2 is the electric charge amount of the electrical signal corresponding to the reference signal 180 degrees out of phase with the optical signal.
  • Q3 is the electric charge amount of the electrical signal corresponding to the reference signal 90 degrees out of phase with the optical signal.
  • Q4 is the electric charge amount of the electrical signal corresponding to the reference signal which is 270 degrees slower in phase than the optical signal.
  • the exposure period required to calculate the phase difference td between the optical signal and the input optical signal in one frame period varies according to the number of charging elements, the number of switching elements, and the number of light receiving units in the image sensor IS. can be changed.
  • two charging elements may be connected to each light receiving unit (ie, the two light receiving units have a total of four charging elements).
  • two reference signals may be provided to each light receiving unit in one exposure period.
  • the first reference signal and the second reference signal may be provided to the first light receiving unit
  • the third reference signal and the fourth reference signal may be provided to the second light receiving unit.
  • four exposure periods exist in one frame period, and four reference signals having a phase difference of 90 degrees for each exposure period may be provided to the light receiving unit.
  • the controller may calculate the phase difference td between the above-described optical signal and the input optical signal by using the amount of charge of the electrical signal generated during each exposure period.
  • one frame period may sequentially include a first exposure period and a second exposure period.
  • the image sensor IS may provide the first reference signal C1 and the second reference signal C2 to the first pixel DX-1 and the second pixel DX-2, respectively, during the first exposure period.
  • the third reference signal C3 and the fourth reference signal C4 may be provided to the first pixel DX-1 and the second pixel DX-2, respectively.
  • Q1 and Q2 may be generated in the first exposure cycle
  • Q3 and Q4 may be generated in the second exposure cycle.
  • the controller may generate all of Q1 to Q4 in one frame, and may calculate the phase difference td between the optical signal and the input optical signal by using the charges of the four generated electrical signals.
  • the controller may calculate the distance between the object and the camera module by using the phase difference td between the optical signal and the input optical signal.
  • the controller may calculate the distance (d, refer to Equation 2) between the object and the camera module by using Equation 2 below.
  • c is the speed of light and f is the frequency of the output light.
  • a ToF IR image and a depth image may be obtained from the camera module.
  • the camera module according to the embodiment of the present invention may be referred to as a ToF camera module or a ToF camera module.
  • the first reference signal to the fourth reference signal may be applied in the same exposure period, or some or different exposure periods may be applied as described above.
  • the camera module may generate raw images for four phases.
  • the four phases may be 0°, 90°, 180°, and 270°
  • the raw image for each phase may be an image composed of digitized pixel values or analog pixel values for each phase, phase image, phase IR It can be mixed with video, etc.
  • FIG. 21 is a timing diagram of one frame period for generating a distance image in a sensor according to another embodiment
  • FIG. 22 is a timing diagram for generating an electrical signal for each exposure period within the frame period in FIG. 21
  • FIG. FIG. 24 is a timing diagram in exposure period PL2 in FIG. 21
  • FIG. 25 is a timing diagram in exposure period PL3 in FIG. 21
  • FIG. 26 is an exposure period in FIG. 21 .
  • (PL4) is the timing diagram.
  • a distance image image there may be four exposure periods (integration times) and four readouts during one frame period in which a distance image image can be extracted from a sensor according to another embodiment.
  • the number of exposure cycles and the number of readouts may be variously changed according to the number of light receiving units and the number of charging elements and switching.
  • a duty ratio of the incident light LS1 is set to 25%.
  • the duty ratio of the incident light is not limited thereto and may be variously changed.
  • One frame period may include a first exposure period PL1 , a second exposure period PL2 , a third exposure period PL3 , and a fourth exposure period PL4 that are sequentially performed.
  • a readout may be performed between each exposure period.
  • one frame period may include the first to fourth exposure periods PL1 to PL4 and readouts (eg, four). The description for this may be applied in the same manner as described above.
  • each exposure period may be the same as the period of the incident light LS1 .
  • each pixel may generate electrical signals for different phases. That is, different reference signals may be applied.
  • one pixel is composed of a first pixel DX-1 and a second pixel DX-2.
  • the first reference signal (corresponding to C1 described above) having the same phase as the incident light LS1 is applied to the first pixel DX-1
  • the second pixel DX-2 is A second reference signal (corresponding to C2 described above) that is 180 degrees out of phase with the first reference signal may be applied.
  • a third reference signal (corresponding to the above-described C3) that is 90 degrees behind the first reference signal C1 is applied to the first pixel DX-1, and the second pixel DX- In 2)
  • a fourth reference signal (corresponding to the above-described C4) that is 180 degrees out of phase with the third reference signal may be applied.
  • the second reference signal C2 may be applied to the first pixel DX-1 and the first reference signal C1 may be applied to the second pixel DX-2.
  • the fourth reference signal C4 may be applied to the first pixel DX-1 and the third reference signal C3 may be applied to the second pixel DX-2.
  • the first pixel DX-1 generates a charge amount Q0° corresponding to the aforementioned charge amount Q1
  • the second pixel DX-2 generates the aforementioned charge amount Q1.
  • a charge amount (Q180°) corresponding to (Q2) can be generated.
  • the first pixel DX-1 generates a charge amount Q90° corresponding to the aforementioned charge amount Q3
  • the second pixel DX-2 generates the aforementioned charge amount Q4 ) corresponding to the amount of charge (Q270°) can be generated.
  • the first pixel DX-1 generates an amount of charge Q180°
  • the second pixel DX-2 generates an amount of charge Q0°
  • the fourth exposure period In PL4 the first pixel DX-1 may generate an amount of charge Q270°
  • the second pixel DX-2 may generate an amount of charge Q90°.
  • the pixel may output a difference between the electric signals generated by the first light receiving unit and the second light receiving unit in each exposure period. That is, the pixel outputs the difference (Q0°- Q180°) between the charge amount (Q0°) and the charge amount (Q180°) in the first exposure cycle, and the difference between the charge amount (Q90°) and the charge amount (Q270°) in the second exposure cycle The difference (Q90° - Q270°) can be output.
  • the plurality of exposure cycles P1 to P4 may include a plurality of sub-exposure cycles.
  • the first exposure cycle PL1 includes a plurality of sub-exposure cycles PL11 to PL13
  • the second exposure cycle PL2 includes a plurality of sub-exposure cycles PL21 to PL23
  • the third exposure cycle PL3 may include a plurality of sub-exposure cycles PL31 to PL33
  • the fourth exposure cycle PL4 may include a plurality of sub-exposure cycles PL41 to PL43 .
  • each sub-exposure period may be the same as the period of the incident light LS1 .
  • the electrical signals generated in the first pixel DX-1 and the second pixel DX-2 in each exposure period are the same as described above with reference to FIG. 21 .
  • the controller may process the average of the electrical signals obtained through the plurality of sub-exposure cycles as the electrical signals of one exposure cycle. Accordingly, it is possible to further improve the accuracy of the electrical signal with respect to the distance.
  • 27A is a diagram for explaining driving of a control unit according to an embodiment.
  • the controller may output a light irradiation signal for controlling the light source to emit light at a predetermined period (eg, a frame period).
  • the light source may be periodically turned on or off by a light irradiation signal of the controller.
  • the controller may provide a light irradiation signal as a light source.
  • the light source may emit light having a predetermined period according to the light irradiation signal.
  • the irradiated light may correspond to the above-described incident light.
  • the light may be irradiated with a predetermined frame period.
  • the light may be irradiated at 30 FPS.
  • the camera module according to the embodiment may generate 30 frames per second.
  • the light irradiation signal may correspond to the aforementioned incident light or incident light signal.
  • the light irradiation signal is a signal for driving the light source, and may be composed of a plurality of pulses as described above.
  • the light irradiation signal may be a signal having a plurality of wavelengths.
  • the light irradiation signal may consist of a plurality of pulses in one frame period. That is, the light irradiation signal has a plurality of pulses in one frame period, and for the plurality of pulses, the image sensor may generate the above-described electric signal for distance measurement according to the exposure signal.
  • a plurality of exposure signals in one frame period may be output simultaneously or at different exposure periods. This may be changed according to the number of light receiving units of the image sensor and a phase driving method.
  • the light irradiation signal may have four pulses in one frame period.
  • Four electrical signals through four reference signals can be generated by four pulses.
  • an image may be generated for each frame by the four electrical signals.
  • the exposure period may be varied, such as 1, 2, 4, etc. in response to the 4 electrical signals.
  • one frame period will be described as having one exposure period. That is, the description will be made based on the generation of four electrical signals during one exposure signal cycle (exposure cycle).
  • the control unit may be located in the image sensor. That is, the light irradiation signal may move from the image sensor to the light source. With this configuration, synchronization or synchronization between the exposure signal and the light irradiation signal is facilitated, thereby minimizing a time error due to transmission. And by the minimized time error, the driving accuracy of the component may be improved.
  • the controller may output an exposure signal for controlling exposure of the image sensor. More specifically, the exposure signal may be output from an image sensor controller (or driver) in the image sensor. A detailed description thereof will be given later.
  • the first and second light receiving units in the image sensor may convert the absorbed input light signal into an electric signal and output the converted signal by the exposure signal. This performance may be performed in the above-described indirect-TOF.
  • the exposure signal may be a signal that the image sensor receives the reflected light. That is, after the incident light is output by the light irradiation signal, the controller may receive the reflected light together with the exposure signal.
  • the control unit can move the optical unit to a desired position by outputting a driving signal to be described later before the light irradiation signal, ie, the input light, is output in the same manner as will be described later.
  • the exposure signal may have the above-described exposure period (integration time), a read out (read out), and an idle period.
  • the idle time may be located after an integration time and a read out within the frame period.
  • the idle section may be a section in which the operation of the light receiving unit in the image sensor is not performed.
  • control unit may be located in the image sensor as described above.
  • a light irradiation signal and a driving signal to be described later may be synchronized based on the exposure signal. Accordingly, the light irradiation signal is output based on the exposure signal of the image sensor, so that it is possible to minimize the error of the distance measurement according to the incident light and the reflected light.
  • control unit may output a driving signal output to the driving unit for movement of the optical unit.
  • the control unit may be located within the image sensor or within the camera module. In addition, it may be located in the light receiving unit or the light emitting unit. In addition, such a control unit may be formed separately from a control unit that outputs a light irradiation signal or an exposure signal. That is, according to the embodiment, there may be a plurality of control units and may have various positions. A detailed description thereof will be given later.
  • the optical unit of the camera module is a position where the light provides a point form at an initial position by the driving unit (spot) or a position where the light provides a plane form (flood) can be moved to Alternatively, the optical unit may be moved by the driving unit to a position providing point-type light or a surface-type light position.
  • the optic may move from an initial position to a first position (optical position in a planar shape or optic position in a dot shape) before a predetermined time before the light source is turned on.
  • a first position optical position in a planar shape or optic position in a dot shape
  • the initial position means the position of the optical unit when no driving signal is applied.
  • the light in the form of a point may be the light providing the smallest size in an object spaced apart from the light source or the optical unit (or camera module) by a predetermined distance.
  • the planar light may be the light that provides the largest size in an object spaced apart from the light source or the optical unit (or camera module) by a predetermined distance after passing through the optical unit. Also, this can be applied in a controlled range of the optical unit except for the initial position.
  • 27B is a view for explaining the movement of the optical unit according to the first embodiment.
  • the optical unit according to the first embodiment may move to a first position when the light source is turned on, and may move to an initial position when the light source is turned off. That is, the optical unit is positioned at the first position according to the applied driving signal, and light in any one of a planar form or a dot form may be output through the optical unit according to the driving signal.
  • a case in which the light source is turned on means a case in which all of the plurality of pulses or at least one plurality of pulses are turned on or applied within a predetermined period.
  • the case in which the light source is turned off means a case in which all of the plurality of pulses are turned off after or before a predetermined period.
  • all of the plurality of pulses will be described as a reference.
  • the optical unit when the optical unit is positioned at the initial position, the optical unit may output light in any one of a planar shape and a plurality of dot shapes. In addition, when the optical unit is positioned at the first position, the optical unit may output light in the other of a planar shape and a dotted shape.
  • the optical unit when the optical unit is located at the initial position, light may be output in the form of dots. And when the optical unit is in the first position, the camera module may output light in the form of a plane.
  • the distance between the optical unit and the light source may be the same as the back focal length or backfocus distance of the optical unit.
  • the rear focal length of the optic may be equal to the distance between the optic and the light source when the optic is in the initial position or in the position in the dot shape.
  • the distance dd1 between the optical unit and the light source in the initial position or dot pattern may be smaller than the distance dd2 between the optical unit and the light source in the planar pattern.
  • 27C is a view for explaining the movement of the optical unit according to the second embodiment.
  • the optical unit according to the second embodiment may move to a first position when the light source is turned on, and may move to an initial position when the light source is turned off.
  • the optical unit when the optical unit is positioned at the initial position, the optical unit may output light in any one of a planar shape and a plurality of dot shapes. In addition, when the optical unit is positioned at the first position, the optical unit may output light in the other of a planar shape and a dotted shape.
  • the optical unit may output light in the form of a plane at the initial position.
  • the light when the optical unit is in the first position, the light may be output in the form of a plurality of dots.
  • the distance between the optical unit and the light source may be the same as the rear focal length or backfocus distance of the optical unit.
  • the back focal length of the optic may be equal to the distance between the optic and the light source when the optic is in the initial position or at the position in the plane pattern.
  • the distance dd1 between the optical unit and the light source in the dot pattern may be smaller than the distance dd2 between the optical unit and the light source in the initial position or the planar pattern.
  • 27D is a view for explaining the movement of the optical unit according to the third embodiment.
  • the optical unit according to the third exemplary embodiment may move to a first position when the light source is turned on, and may move to an initial position when the light source is turned off.
  • the optical unit when the optical unit is positioned at the first position, the optical unit may output light in any one of a planar shape and a plurality of dot shapes. In addition, when the optical unit is positioned at the first position, the optical unit may output light in the other of a planar shape and a dotted shape.
  • the optical unit may be located at the 1-A position when the light is output in the form of dots.
  • the optical unit may be located at the 1-B position when the light is output in the form of a plane.
  • the optical unit can be moved to the initial position, the 1-A position, and the 1-B position.
  • the distance dd1 between the light source and the optical unit at the 1-A position may be greater than the distance dd0 between the light source and the optical unit at the initial position.
  • the distance dd2 between the light source and the optical unit at the 1-B position may be greater than the distance dd1 between the light source and the optical unit at the 1-A position.
  • the distance dd1-dd0 between the initial position and the 1-A-th position may be smaller than the distance dd2-dd0 between the initial position and the 1-B-th position.
  • the optical unit may output light in a dot pattern or a plane pattern while moving in one direction. Accordingly, the movement of the optical unit can be easily controlled. Furthermore, when a long distance is mainly used, the optical unit may provide light of a dot pattern more easily than a plane pattern. Thereby, power efficiency can be improved.
  • 27E is a view for explaining the movement of the optical unit according to the fourth embodiment.
  • the optical unit according to the fourth exemplary embodiment may move to a first position when the light source is turned on, and may move to an initial position when the light source is turned off.
  • the optical unit when the optical unit is positioned at the first position, the optical unit may output light in any one of a planar shape and a plurality of dot shapes. In addition, when the optical unit is positioned at the first position, the optical unit may output light in the other of a planar shape and a dotted shape.
  • the optical unit may be located at the 1-A position when the light is output in the form of dots.
  • the optical unit may be located at the 1-B position when the light is output in the form of a plane. Accordingly, the optical unit may move to the initial position, the 1-A position, and the 1-B position.
  • the distance dd1' between the light source and the optical unit at the 1-A position may be smaller than the distance dd0' between the light source and the optical unit at the initial position.
  • the distance dd2' between the light source and the optical unit at the 1-B position may be greater than the distance dd0' between the light source and the optical unit at the initial position.
  • the distance (dd0'-dd1') between the initial position and the 1-A-th position may be smaller than the distance (dd2'-dd0') between the initial position and the 1-B-th position.
  • the optical unit may output light in a dot pattern or a plane pattern while moving in both the upper and lower directions. Accordingly, the amount of movement of the optical unit can be reduced. Thereby, power efficiency can be improved. Furthermore, the distance between the initial position and the 1-A position and the distance between the initial position and the 1-B position may be adjusted to be the same or different. For example, when the distance between the initial position and the 1-A position and the distance between the initial position and the 1-B position are the same, the movement range of the optical unit may be minimized. In addition, when the distance between the initial position and the 1-A position and the distance between the initial position and the 1-B position are different, the power efficiency may be further improved according to a case that is mainly used.
  • the distance between the initial position and the 1-A position in the optical unit may be smaller than the distance between the initial position and the 1-B position.
  • the distance between the initial position and the 1-A position in the optical unit may be greater than the distance between the initial position and the 1-B position.
  • 27F is a view for explaining the movement of the optical unit according to the fifth embodiment.
  • the optical unit according to the fifth exemplary embodiment may move to a first position when the light source is turned on, and may move to an initial position when the light source is turned off.
  • the optical unit when the optical unit is positioned at the first position, the optical unit may output light in any one of a planar shape and a plurality of dot shapes. In addition, when the optical unit is positioned at the first position, the optical unit may output light in the other of a planar shape and a dotted shape.
  • the optical unit may be located at the 1-A position when the light is output in the form of dots.
  • the optical unit may be located at the 1-B position when the light is output in the form of a plane. Accordingly, the optical unit may move to the initial position, the 1-A position, and the 1-B position.
  • the distance dd0'' between the light source and the optical unit at the initial position may be greater than the distance dd2'' between the light source and the optical unit at the 1-B position.
  • the distance dd2'' between the light source and the optical unit at the 1-B position may be greater than the distance dd1'' between the light source and the optical unit at the 1-A position.
  • the distance between the initial position and the 1-A position may be greater than the distance between the 1-B position and the 1-A position (dd2''-dd1'').
  • the optical unit may output light in a dot pattern or a plane pattern while moving in one direction (lower side). Accordingly, the movement of the optical unit can be easily controlled. Furthermore, when a close distance is mainly used, the optical unit may provide light of a plane pattern more easily than a plurality of dot patterns. Thereby, power efficiency can be improved.
  • 27G is a block diagram of a camera module according to an embodiment.
  • the camera module includes a control unit CLO, a sensor control unit ISD of an image sensor IS, a light control unit LSD of a light source LS, and a driving control unit ATD of the driving unit AT. ) may be included.
  • the camera module may include a control unit (CLO) therein.
  • the control unit CLO may be an application processor.
  • the sensor controller ISD of the image sensor IS may output a trigger signal synchronized to the exposure signal to the controller CLO. Furthermore, the sensor controller ISD may output the light output signal Mode SE_out of the light source corresponding to the exposure signal to the controller CLO. That is, the trigger signal (Trigger out) and the light output signal (Mode SE_out) both correspond to the exposure signal, so they may be output simultaneously or with a predetermined time difference.
  • the sensor controller ISD may be located in the image sensor IS.
  • the light irradiation unit in the light source LS may be, for example, vertical resonance surface-emitting lasers (vcsels).
  • the light control unit LSD is illustrated as 'vcsels Driver IC' corresponding to the light irradiation unit.
  • the VCM corresponds to the driving coil unit 150 to which the current is injected, and accordingly, the driving control unit ATD is referred to as 'VCM Driver IC'.
  • the sensor controller ISD may output a signal LD_EN that turns on the light controller LSD of the light source LS. Thereafter, since the light control unit LSD receives the light irradiation signal Mode SE_in from the control unit CLO, power efficiency may be maximized.
  • the control unit (ISD) when receiving the trigger signal (Trigger out) and the light output signal (Mode SE_out) from the image sensor (IS), the control unit (ISD) according to the embodiment outputs a light irradiation signal (Mod SE_in) and a driving signal synchronized thereto can Accordingly, the light source LS may output light by the light irradiation signal.
  • the optical unit may be moved by the driving unit by the driving signal.
  • the light irradiation signal and the driving signal may be synchronized with the exposure signal.
  • the light source LS may output light according to the light irradiation signal before the time period for receiving light according to the exposure signal.
  • the optical unit may be moved by the driving unit. In other words, it may be time-synchronized with the application of the driving signal before the application of the light irradiation signal. A detailed description thereof will be given later.
  • control unit may output a driving signal output to the driving unit to move the optical unit.
  • the driving signal is output to the optical unit, and the optical unit may perform vertical movement by the driving signal output from the control unit.
  • the light irradiated from the light source by the vertical movement of the optical unit may be converted into a dot shape or a planar shape to be irradiated onto the object. And the movement of the optical unit according to the above-described third embodiment will be described below.
  • the driving signal may be output in synchronization with the exposure signal by the control unit.
  • the driving signal may be output after the exposure signal in one frame period by the control unit.
  • one frame period will be described based on the period of the exposure signal as shown in the drawings.
  • the exposure signal may consist of a plurality of exposure cycles, but will be described below based on one exposure cycle. Accordingly, the start and end of the exposure signal will be described in a plurality of exposure periods or one exposure period capable of generating one frame.
  • the light irradiation signal may also consist of a plurality of pulses, but will be described as one pulse hereinafter.
  • the start and end of the light irradiation signal will also be described as a plurality or one cycle capable of generating one frame.
  • the period of the light irradiation signal may be the same as one frame period.
  • the light irradiation signal and the driving signal are output from the pulse portion. And output or application may correspond to a high section. Also, high corresponds to on. And the end may be in a low state. And low (low) corresponds to off (off).
  • the driving signal may be output before the output of the light irradiation signal.
  • the driving signal may be output between the exposure signal and the light irradiation signal within one frame period. That is, after the exposure signal is output within one frame period by the controller, the driving signal may be output.
  • the controller may adjust the output of the light irradiation signal and the driving signal based on the output of the exposure signal.
  • the driving signal may be maintained even after the output of the light irradiation signal.
  • the driving signal may be terminated in the same manner as the output of the light irradiation signal, or may not be output after the output of the light irradiation signal is terminated.
  • the driving signal may be applied before the light irradiation signal is output in the frame period immediately before the frame period.
  • the light irradiation signal may be output in the same frame period.
  • the exposure signal may be output after a predetermined time or a time difference dh after the light irradiation signal is output.
  • the optical unit is moved to a desired position before the light irradiation signal is output, which can be maintained until the light irradiation by the light source ends within the frame period. Accordingly, a distance image can be captured in a desired pattern. Accordingly, distance measurement can be performed more accurately.
  • the driving signal may not overlap the exposure signal.
  • the output of the driving signal may be terminated between an output end point of the light irradiation signal and an output start point of the exposure signal (a next frame period). Accordingly, energy consumption for movement of the optical unit may be minimized. That is, the energy efficiency of the camera module may be improved.
  • the driving signal may include a first section PE1 before the output of the light irradiation signal and a second section PE2 continuous to the first section PE1 .
  • the first period PE1 may overlap with an idle time of the exposure signal. Also, the first section PE1 may not overlap with the light irradiation signal (application of the light irradiation signal). Accordingly, it is possible to reduce energy consumption for driving the optical unit within one frame period.
  • the driving signal may be applied with a time difference dh after the application of the exposure signal is terminated. Accordingly, power consumption due to the driving signal can be reduced.
  • the time difference dh may be set in consideration of the time of application of the light irradiation signal output within a preset time after the end of the exposure signal. That is, the time difference dh may be the maximum delay time difference in consideration of the maximum settling time for the plane-shaped or dot-shaped emission. And by this configuration, energy efficiency can be improved.
  • 29 is a view for explaining adjustment of a driving signal to provide a planar shape or a dotted shape.
  • the controller may adjust the width of the first section PE1 in the driving signal to adjust the light in the form of dots or planes.
  • the first section PE1 in the driving signal may have a first width TW1 or a second width TW2.
  • the first width TW1 may be smaller than the second width TW2.
  • the controller may adjust the overall width of the driving signal to be different.
  • the amount of movement of the optical unit may be smaller than when the second section PE2 has the second width TW2 .
  • the driving signal has the first width TW1 , so that light in the form of a dot may be output.
  • the driving signal has the second width TW2 , so that planar light may be output.
  • an initial position (initial) of the optical unit may be set at or adjacent to a point at which light in the form of a point where energy is concentrated is emitted for accuracy of a depth image. Accordingly, energy efficiency for movement of the optical unit can be further improved.
  • the driving signal may have a maximum width when a plane shape is applied.
  • the first section PE1 having the maximum width and the exposure signal may have a time difference dh.
  • the second section PE2 may be maintained irrespective of a planar shape or a dot shape. According to this configuration, movement or vibration of the optical unit is minimized in the section where the light source is irradiated, and thus the accuracy of the depth image may be improved.
  • FIG. 30 is a view for explaining a first example of a driving signal for providing a planar shape or a dotted shape.
  • the width (eg, pulse width) of the driving signal may be changed, and the light may have a dot shape or a planar shape corresponding thereto.
  • an initial position of the optical unit will be described based on the case where it is located at the lower part. That is, when the distance between the optical unit and the light source increases, the light is sequentially converted from a point shape to a surface shape.
  • the applied current means a current applied to the coil to move the optical unit, and the magnitude of the current may be adjusted according to the magnitude of the width of the above-described driving signal.
  • the driving signal may have the same polarity as the polarity of the plane shape and the polarity of the point shape.
  • the current Iini of the driving signal corresponding to the initial position, the current Ispot due to the driving signal corresponding to the point shape, and the current Iflood of the driving signal corresponding to the surface shape may be sequentially positioned. Accordingly, when the width of the driving signal increases, the optical unit may move from the initial position to a position providing a point shape and a position providing a planar shape.
  • an initial position of the optical unit may be set adjacent to a point at which energy in the form of a point where energy is concentrated is emitted for accuracy of the depth image, so that energy efficiency for movement of the optical unit may be further improved.
  • the optical unit moves to the maximum, that is, when the current Iflood of the driving signal corresponding to the surface shape is applied, the maximum power Pmax1 may be consumed.
  • 31 is a view for explaining a second example of a driving signal for providing a planar shape or a dotted shape.
  • the width (eg, pulse width) of the driving signal may be changed, and the light may have a dot shape or a planar shape corresponding thereto.
  • the initial position of the optical unit may be adjacent to the top or bottom.
  • the initial position may be located adjacent to the lower portion. That is, when the distance between the optical unit and the light source decreases, light may be converted into a dot shape, and if the distance between the optical unit and the light source increases, the light source may be converted into a planar shape. The conversion between the dot shape and the planar shape occurs when the distance is smaller than or larger than a predetermined distance as described above.
  • the applied current means a current applied to the coil for movement of the optical unit, and the magnitude of the current may be adjusted according to the magnitude of the width of the above-described driving signal.
  • the driving signal may be different from the polarity of the plane shape and the polarity of the point shape.
  • the driving signal may be opposite to the polarity of the plane shape and the polarity of the point shape.
  • the current Iini of the driving signal corresponding to the initial position may be located between the current Ispot by the driving signal corresponding to the point shape and the current Iflood of the driving signal corresponding to the planar shape. Accordingly, the position of the optical unit may be adjusted according to the width and polarity of the driving signal. In an embodiment, the polarity of the driving signal may determine the movement direction of the optical unit.
  • the optic may move from an initial position to a position providing a point shape and a position providing a planar shape.
  • the initial position exists between the position providing the point shape and the position providing the surface shape.
  • the optical unit moves downward, and when the polarity of the driving signal is positive (+), the optical unit moves upward.
  • the optical unit moves to the maximum, that is, when the current Iflood of the driving signal corresponding to the surface shape is applied, the maximum power Pmax1 may be consumed.
  • the maximum power Pmax1 may be consumed.
  • the maximum power Pmax2 may be less than the above-described maximum power Pmax1. That is, power efficiency may be improved.
  • an initial position of the optical unit may be set adjacent to a point at which energy in the form of a point where energy is concentrated is emitted for accuracy of the depth image, so that energy efficiency for movement of the optical unit may be further improved.
  • the maximum magnitude of the current may be reduced compared to the case described with reference to FIG. 31 .
  • the current Iini of the driving signal corresponding to the initial position is an intermediate value (eg, 0) between the current Ispot by the driving signal corresponding to the point shape and the current Iflood of the driving signal corresponding to the planar shape.
  • the maximum amount of current applied to drive the optical unit may be reduced. Accordingly, power consumed for the movement of the optical unit may be minimized.
  • the driving method of the control unit includes the steps of transmitting a driving signal for movement of the optical unit to the driving unit before the light output of the light source, transmitting a light irradiation signal for controlling the light output of the light source, and in the exposure period Accordingly, it may include the step of receiving light by the image sensor.
  • the driving signal, the light irradiation signal, and the exposure signal or the exposure period may be the same as described above.
  • the controller may transmit a light irradiation signal for controlling on/off of the light source.
  • the controller may output a driving signal that moves the optical unit to the first position when the light source is turned on by the light irradiation signal and moves to the initial position when the light source is turned off.
  • the driving signal may be irradiated before the light source is turned on by the light irradiation signal.
  • the optical unit may convert the light output from the light source into a planar shape or a plurality of dot shapes and output the converted light.
  • the control unit may receive a trigger signal (Trigger out) and an optical output signal (Mode SE_out) from the image sensor. Both the trigger signal (Trigger out) and the light output signal (Mode SE_out) correspond to the exposure signal.
  • the trigger signal (Trigger out) and the light output signal (Mode SE_out) are output to the control unit based on the exposure period of the image sensor, so the operation of the image sensor (exposure period) and the operation of the light source (on) are based on one operation. /off) and movement of the optical unit (operation of the driving unit) can be made. Accordingly, it can be easily accomplished by minimizing a temporal error between these operations.
  • control unit receives the trigger signal and outputs a driving signal to the driving control unit, and in response to this, the driving control unit sets the position of the optical unit to the initial position or the second position according to the on or off of the driving signal. It can be moved to position 1.
  • the driving signal may be turned on after the trigger signal is turned off.
  • the driving signal may be maintained on even after the trigger signal is turned on from off.
  • the driving signal may be turned off when the maintained trigger signal is changed from on to off or after being turned off (FIG. 27A or FIG. 28).
  • the optical part is moved by the driving signal before the light controller is turned on in response to the trigger signal on, and the trigger signal is changed after the movement of the light is maintained (off -> on)
  • the driving signal may be turned off (off, corresponding to the end of movement of the optical unit).
  • the signal LD_EN for turning on the light control unit LSD of the light source LS in synchronization with the output of the trigger signal may be output. Furthermore, it should be understood that the operation of each control unit may be performed as described above. Furthermore, the driving of the control unit according to another embodiment to be described later may be performed in the same manner.
  • 32 is a view for explaining the driving of the control unit according to the second embodiment.
  • the controller according to the second embodiment may provide a light irradiation signal as a light source as described above.
  • the light source may emit light having a predetermined period according to the light irradiation signal.
  • the light irradiation signal may correspond to the aforementioned incident light or incident light signal.
  • the light irradiation signal is a signal for driving the light source, and may be composed of a plurality of pulses as described above.
  • the light irradiation signal may be a signal having a plurality of wavelengths. Except for the contents described below, the above contents may be applied in the same way.
  • the controller may be located in the image sensor. That is, the light irradiation signal may move from the image sensor to the light source. With this configuration, synchronization between the exposure signal and the light irradiation signal is facilitated, thereby minimizing a time error due to transmission. And by the minimized time error, the driving accuracy of the component may be improved.
  • the controller may output an exposure signal for controlling exposure of the image sensor.
  • the first and second light receiving units in the image sensor may convert the absorbed input light signal into an electric signal and output the converted signal by the exposure signal. Except for the description of the exposure signal, the above description may be applied in the same way.
  • control unit may output a driving signal output to the driving unit to move the optical unit.
  • a control unit may be located within the image sensor. In addition, it may be located in the light receiving unit or the light emitting unit. In addition, such a control unit may be formed separately from a control unit that outputs a light irradiation signal or an exposure signal. That is, according to the embodiment, there may be a plurality of control units and may have various positions.
  • control unit may output a driving signal output to the driving unit to move the optical unit.
  • the driving signal may at least partially overlap the exposure signal.
  • the driving signal output in the previous frame period will be excluded.
  • the driving signal is output to the optical unit, and the optical unit may perform vertical movement by the driving signal.
  • the light irradiated from the light source by the vertical movement of the optical unit may be converted into a dot shape or a planar shape to be irradiated onto the object.
  • the driving signal may be output before the output of the light irradiation signal.
  • the driving signal may be output between the exposure signal and the light irradiation signal within one frame period.
  • the output of the driving signal may be started between the exposure signal and the light irradiation signal within one frame period. That is, after the exposure signal is output within one frame period, the driving signal may be output.
  • the driving signal may be maintained even after the output of the light irradiation signal.
  • the driving signal may be terminated in the same manner as the light irradiation signal, or may not be output after the output of the light irradiation signal is terminated.
  • the movement of the optical unit may be performed before light irradiation by the light source is performed. have.
  • the optical unit is moved to a desired position before the light irradiation signal is output, and this may be maintained until the light irradiation by the light source is finished.
  • the magnitude of the signal applied for maintenance may be the same as or different from the magnitude of the signal at the settling time. Accordingly, a distance image can be captured in a desired pattern. Accordingly, distance measurement can be performed more accurately.
  • the driving signal may partially overlap the exposure signal.
  • the output of the driving signal may be terminated after the output start point (next frame period) of the exposure signal.
  • the driving signal according to the embodiment may include a first section PE1 ′ before the output of the light irradiation signal and a second section PE2 ′ continuous to the first section PE1 ′.
  • the first period PE1 ′ may overlap with an idle time of the exposure signal. Also, the first section PE1 ′ may not overlap with the light irradiation signal (application of the light irradiation signal). Accordingly, energy consumption for movement of the optical unit may be minimized. In other words, the energy efficiency of the camera module may be improved. In addition, it is possible to improve the reliability of the device by minimizing vibration generated by an actuator that moves the optical unit.
  • the second section PE2 ′ may at least partially overlap the exposure signal. Accordingly, the optical unit may move to the initial position during the exposure period. Accordingly, a margin for ending the movement of the optical unit after the output of the light irradiation signal is finished can be easily secured.
  • 33 is a view for explaining the operation of the control unit according to the third embodiment.
  • the control unit may provide the light irradiation signal as a light source as described above. Accordingly, the light source may emit light having a predetermined period according to the light irradiation signal.
  • the light irradiation signal may correspond to the aforementioned incident light or incident light signal.
  • the light irradiation signal is a signal for driving the light source, and may be composed of a plurality of pulses as described above.
  • the light irradiation signal may be a signal having a plurality of wavelengths. Except for the contents described below, the above contents may be applied in the same way.
  • the controller may be located in the image sensor. That is, the light irradiation signal may move from the image sensor to the light source. With this configuration, synchronization between the exposure signal and the light irradiation signal is facilitated, thereby minimizing a time error due to transmission. And by the minimized time error, the driving accuracy of the component may be improved.
  • the controller may output an exposure signal for controlling exposure of the image sensor.
  • the first and second light receiving units in the image sensor may convert the absorbed input light signal into an electric signal and output the converted signal by the exposure signal. Except for the description of the exposure signal, the above description may be applied in the same way.
  • control unit may output a driving signal output to the driving unit to move the optical unit.
  • a control unit may be located within the image sensor. In addition, it may be located in the light receiving unit or the light emitting unit. In addition, such a control unit may be formed separately from a control unit that outputs a light irradiation signal or an exposure signal. That is, according to the embodiment, there may be a plurality of control units and may have various positions.
  • control unit may output a driving signal output to the driving unit to move the optical unit.
  • the driving signal may overlap the exposure signal.
  • the driving signal may be partially output even after the exposure signal.
  • the driving signal output in the previous frame period will be excluded.
  • the driving signal is output to the optical unit, and the optical unit may perform vertical movement by the driving signal.
  • the light irradiated from the light source by the vertical movement of the optical unit may be converted into a dot shape or a planar shape to be irradiated onto the object.
  • the driving signal may be output before the output of the light irradiation signal.
  • the driving signal may be output between the exposure signal and the light irradiation signal within one frame period.
  • the output of the driving signal may be started between the exposure signal and the light irradiation signal within one frame period. That is, after the exposure signal is output within one frame period, the driving signal may be output.
  • the driving signal may be maintained even after the output of the light irradiation signal.
  • the driving signal may be terminated in the same manner as the light irradiation signal, or may not be output after the output of the light irradiation signal is terminated.
  • the movement of the optical unit may be performed before light irradiation by the light source is performed. have.
  • the optical unit is moved to a desired position before the light irradiation signal is output, and this may be maintained until the light irradiation by the light source is finished. Accordingly, a distance image can be captured in a desired pattern. Accordingly, distance measurement can be performed more accurately.
  • the driving signal may overlap the exposure signal.
  • the output of the driving signal may be terminated after the output start point (next frame period) of the exposure signal and after the output end point.
  • the driving signal according to the embodiment may include a first section PE1′′ before the output of the light irradiation signal and a second section PE2′′ continuous to the first section PE1′′. have.
  • the first period PE1 ′′ may overlap an idle time of the exposure signal.
  • the first section PE1 ′′ may not overlap with the light irradiation signal (application of the light irradiation signal). Accordingly, energy consumption for movement of the optical unit may be minimized. In other words, the energy efficiency of the camera module may be improved.
  • it is possible to improve the reliability of the device by minimizing vibration generated by an actuator that moves the optical unit.
  • the second section PE2 ′′ may overlap the exposure signal (or the output of the exposure signal). Furthermore, the second section PE2 ′′ may be maintained for a predetermined time even after the output of the exposure signal is terminated. Accordingly, it is possible to prevent the output of the exposure signal, that is, vibration due to the movement of the optical unit (erotic, movement to the initial position) during the exposure period from occurring. Accordingly, the depth image may improve accuracy.
  • FIG. 34 is a perspective view of a camera module according to another embodiment
  • FIG. 35 is an exploded perspective view of a camera module according to another embodiment
  • FIG. 36A is a cross-sectional view taken along line AA' of FIG. 34
  • FIG. is a cross-sectional view viewed from
  • FIG. 36C is a cross-sectional view viewed from CC′ of FIG. 34
  • FIG. 36D is a cross-sectional view viewed from DD′ of FIG. 34 .
  • the ToF camera device may include a camera device.
  • the ToF camera device may include a camera module.
  • the camera module may include a light emitting unit 1 .
  • the light emitting unit 1 may be a light emitting module, a light emitting unit, a light emitting assembly, or a light emitting device. As for this description, the above contents may be applied in the same way.
  • the camera module 20 may include a light receiving unit 2 .
  • the light receiving unit 2 may be a light receiving module, a light receiving unit, a light receiving assembly, or a light receiving device, and may be a component of a camera module.
  • the light receiving unit 2 may receive light emitted from the light emitting unit 1 and reflected from the object, and may convert the received light into an electrical signal.
  • the above contents may be applied in the same manner except for the contents described below.
  • the light receiving unit 2 includes a housing 1000 , a lens module 2000 , a substrate 3000 , a coil unit 4000 , a holder 5000 , a magnet unit 6000 , an elastic member 7000 , and an optical member 8000 , a cover 9000 and an image sensor IS may be included.
  • the housing 1000 may be located inside the cover 9000 to be described later.
  • the housing 1000 may be coupled to a lens module 2000 , a substrate 3000 , a coil unit 4000 , and an elastic member 7000 to be described later. A detailed description thereof will be given later.
  • the housing 1000 may include an inner part 1100 , an outer part 1200 , and a connection part 1300 disposed between the inner part 1100 and the outer part 1200 . A detailed description thereof will be given later.
  • the lens module 2000 may pass light reflected from the object.
  • the optical axis of the lens module 2000 and the optical axis of the image sensor IS may be aligned.
  • the lens module 2000 may be coupled to the housing 1000 .
  • the lens module 2000 may be fixed to the housing 1000 .
  • the lens module 2000 may be formed of a plurality of optical members, but is not limited thereto.
  • the lens module 2000 may include a lens accommodating part 2100 on which the optical member is seated and a lens cover 2200 surrounding the lens accommodating part 2100 .
  • the lens cover 2200 is in contact with the housing 1000 and may be moved up and down by a voice coil motor or the like, as will be described later. Accordingly, the focus of the light passing through the lens module 2000 may be changed.
  • the substrate 3000 may be coupled to the housing 1000 .
  • the substrate 3000 may be coupled to a substrate protrusion formed on a side surface of the housing 1000 .
  • the substrate 3000 may further include a terminal unit 3200 .
  • the terminal part 3200 is a portion extending downward from the body part 3100 of the board 3000 and may be electrically connected to the main board 4 .
  • the coil unit 4000 includes a plurality of coils and may be located on a side surface of the housing 1000 .
  • the coil unit 4000 may be located in each housing hole formed on the side surface of the housing 1000 .
  • the coil unit 4000 may be electrically connected to the substrate 3000 .
  • the coil unit 4000 may be connected to the substrate 3000 through a wire or the like.
  • the coil unit 4000 since the substrate 3000 is coupled to the housing 1000 as described above, the coil unit 4000 may also be seated in the housing hole formed on the side surface of the housing 1000 to be coupled to the housing. A detailed description will be given later.
  • the holder 5000 may be accommodated in the housing 1000 . And the holder 5000 may be coupled to the optical member 8000 and the magnet unit 6000 to be described later. In an embodiment, the holder 5000 may be tilted.
  • the holder 5000 may include a base 5100 , a sidewall 5200 , and a second protrusion 5300 . A detailed description thereof will be given later.
  • the magnet unit 6000 may be formed of a plurality of magnets.
  • the magnet part 6000 may be seated in a holder groove formed on a side surface of the holder 5000 .
  • the magnet unit 6000 may be positioned to face the coil unit 4000 .
  • the elastic member 7000 may be disposed on the housing 1000 and the holder 5000 .
  • the elastic member 7000 may be positioned between the cover 9000 and the holder 5000 . A detailed description thereof will be given later.
  • the optical member 8000 may be coupled to the holder 5000 .
  • the optical member 8000 may be disposed between the lens module 2000 and the image sensor IS.
  • the optical member 8000 may be disposed on an optical path between the object and the image sensor IS.
  • the optical member 8000 may filter light having a predetermined wavelength range.
  • the optical member 8000 may pass light of a specific wavelength. That is, the optical member 8000 may block by reflecting or absorbing light other than a specific wavelength.
  • the optical member 8000 may pass infrared rays and block light of wavelengths other than infrared rays.
  • the optical member 8000 may pass visible light and block light having a wavelength other than the visible light.
  • the optical member 8000 may move.
  • the optical member 8000 may move integrally with the holder 5000 .
  • the optical member 8000 may be tilted.
  • the optical member 8000 may be tilted to adjust the optical path.
  • a path of light incident to the image sensor IS may be changed.
  • the optical member 8000 may change a field of view (FOV) angle or a direction of the FOV of the incident light.
  • FOV field of view
  • the optical member 8000 may be a filter.
  • the optical member 8000 may be an infrared rays bandpass filter. Accordingly, the optical member 8000 may pass only infrared light.
  • the optical member may be a separate focus fixed lens or a variable focus lens (ex: liquid lens) separated from the lens module.
  • the optical member 8000 may change a path through which light enters as it is tilted to enable high-resolution Time of Flight (ToF).
  • ToF Time of Flight
  • the cover 9000 may be a bracket.
  • the cover 9000 may include a 'cover can'.
  • the cover 9000 may be disposed to surround the housing 1000 .
  • the cover 9000 may be coupled to the housing 1000 .
  • the cover 9000 may accommodate the housing 1000 therein.
  • the cover 9000 may be located on the outermost side of the camera module.
  • the cover 9000 may have a hexahedral shape with an open lower surface.
  • the cover 9000 may be a non-magnetic material. Also, the cover 9000 may be formed of metal. Also, the cover 9000 may be formed of a metal plate.
  • the cover 9000 may be connected to the ground portion of the main board 4 . Through this, the cover 9000 may be grounded. And the cover 9000 may block electromagnetic interference (EMI). In this case, the cover 9000 may be referred to as an 'EMI shield can'.
  • the cover 9000 is a finally assembled component and may protect the product from external impact.
  • the cover 9000 may be formed of a material having a thin thickness and high strength.
  • the image sensor IS may detect input light.
  • the image sensor IS may sense the input light and output it as an electrical signal.
  • the image sensor IS may detect light having a wavelength corresponding to the wavelength of light output from the light source 400 .
  • the image sensor IS may detect infrared rays.
  • the image sensor IS may detect visible light.
  • the image sensor IS may include various image sensors that sense light.
  • the image sensor IS includes a pixel array that receives light passing through the lens module 2000 and converts it into an electric signal corresponding to the light, a driving circuit that drives a plurality of pixels included in the pixel array, and an analog pixel signal of each pixel. It may include a read-out circuit for reading the (read).
  • the readout circuit may generate a digital pixel signal (or an image signal) through analog-to-digital conversion by comparing the analog pixel signal with a reference signal.
  • the digital pixel signal of each pixel included in the pixel array constitutes an image signal, and as the image signal is transmitted in units of frames, it may be defined as an image frame. That is, the image sensor may output a plurality of image frames.
  • the light receiving unit 2 may further include a position sensor 4500 .
  • the position sensor 4500 may be used for feedback control.
  • the position sensor 4500 may include a Hall sensor or a Hall IC.
  • the position sensor 4500 may detect the magnet unit 6000 .
  • the position sensor 4500 may detect a magnetic force of the magnet unit 6000 .
  • the position sensor 4500 may be disposed between the coil units 4000 .
  • the position sensor 4500 may be disposed on the inner surface of the substrate 3000 .
  • the present invention is not limited thereto, and the position sensor 4500 may be removed to reduce complexity in the camera module.
  • the position sensor 4500 may include a plurality of position sensors.
  • the position sensor 4500 may include two sensors.
  • the position sensor 4500 may include a first position sensor 4510 and a second position sensor 4520 .
  • the first position sensor 4510 and the second position sensor 4520 may be disposed so that the directions are perpendicular to each other. Through this, the first position sensor 4510 and the second position sensor 4520 may detect both the X-axis and Y-axis movement of the magnet unit 6000 in the horizontal direction.
  • an additional sensor for detecting movement in the Z-axis direction (vertical direction, optical axis direction) of the magnet unit 6000 may be further provided.
  • the Z-axis direction is an optical axis direction or a vertical direction as the third direction.
  • the X-axis direction is a direction perpendicular to the Z-axis direction, and is a direction from the light emitting part to the light receiving part in the embodiment.
  • the Y-axis direction is a direction perpendicular to the X-axis direction and the Z-axis direction. It will be described below based on this.
  • the light receiving unit 2 may further include an image combining unit.
  • the image synthesizing unit may include an image processor that receives an image signal from the image sensor IS and processes the image signal (eg, interpolation, frame synthesis, etc.).
  • the image synthesizing unit may combine the image signals (low resolution) of a plurality of frames into an image signal (high resolution) of one frame. That is, the image synthesizing unit may synthesize a plurality of image frames included in the image signal received from the image sensor IS, and generate the synthesized result as a composite image.
  • the composite image generated by the image synthesizing unit may have a higher resolution than a plurality of image frames output from the image sensor IS.
  • the image synthesizing unit may generate a high-resolution image through a super resolution (SR) technique.
  • the plurality of image frames may include image frames generated by changing different optical paths by movement of the optical member 8000 .
  • Such an image synthesizing unit may be located inside or outside the light receiving unit 2 .
  • the camera module 20 may include a main board 4 (PCB, Printed Circuit Board).
  • the light emitting unit 1 and the light receiving unit 2 may be disposed on the main substrate 4 .
  • the main substrate 4 may be electrically connected to the light emitting unit 1 and the light receiving unit 2 .
  • the camera module may include a connect part (3).
  • the connecting part 3 may be electrically connected to the main board 4 .
  • the connector 3 may include an extension board 5 on which the connector 7 is disposed and connected to the connection board 6 .
  • the extension substrate 5 may be a PCB, but is not limited thereto.
  • the camera module may include a connecting board 6 .
  • the connecting board 6 may connect the main board 4 and the extension board 5 of the connecting part 3 .
  • the connecting substrate 6 may have flexibility.
  • the connection board 6 may be a flexible printed circuit board (FPCB, Flexible PCB).
  • main substrate 4, the connecting substrate 6, and the extension substrate 5 may be formed integrally or separately.
  • the camera module may include a reinforcing plate 8 .
  • the reinforcing plate 8 may include a stiffener.
  • the reinforcing plate 8 may be disposed on the lower surface of the main substrate 4 .
  • the reinforcing plate 8 may be formed of a SUS.
  • the camera module (or the light receiving unit) may include a lens driving device.
  • the camera module may include a voice coil motor (VCM).
  • VCM voice coil motor
  • the camera module may include a lens driving motor.
  • the camera module may include a lens driving actuator.
  • FIG. 37 is a perspective view of a partial configuration of a light receiving unit of a camera module according to another embodiment
  • FIG. 38 is a perspective view of a housing of a camera module according to another embodiment
  • FIG. 39 is a perspective view of a partial configuration of a camera module according to another embodiment am.
  • the cover 9000 may include a top plate 9100 and a side plate 9200 .
  • the cover 9000 may include a top plate 9100 including a cover hole 9110, and a side plate 9200 extending downward from an outer periphery or edge of the top plate 9100. have.
  • a housing 1000 , a holder 5000 , and the like may be positioned inside the upper plate 9100 .
  • the side plate 9200 may be located on the side of the housing 1000 .
  • a first step 1240 of the housing 1000 may be positioned at a lower end of the side plate 9200 .
  • the inner surface of the side plate 9200 may be coupled to the housing 1000 .
  • An adhesive member (not shown) may be disposed between the inner surface of the side plate 9200 and the housing 1000 . Accordingly, the side plate 9200 may be fixed to the housing 1000 .
  • the upper plate 9100 of the cover 9000 may include a cover hole 911 corresponding to the holder hole 5110 of the holder 5000 .
  • the cover 9000 may serve to support the substrate 3000 and the coil unit 4000 so as not to be pushed by the Lorentz force.
  • the cover 9000 may serve to radiate heat generated from the coil unit 4000 through conduction.
  • the side plate 9200 of the cover 9000 may include a bent portion in which a portion of the side plate 9200 is bent inwardly and contacts the outer surface of the substrate 3000 .
  • the bent part may include any one or more of a pressing part, a press-fitting part, and a concave part.
  • the coil unit 4000, the substrate 3000, and the cover 9000 are connected through a structure in which the bent portion contacts the substrate 3000, so that the heat generated in the coil unit 4000 is conducted through conduction. It can be radiated to the outside.
  • the side plate 9200 of the cover 9000 may include a plurality of side plates.
  • the plurality of side plates may include first to fourth side plates.
  • the side plate 9200 of the cover 9000 includes a first side plate and a second side plate disposed to face each other or opposite to each other, and a third side plate disposed to face each other or opposite to each other between the first side plate and the second side plate, and A fourth side plate may be included.
  • the first to fourth side plates may contact the first to fourth portions 301 to 304 (refer to FIG. 40 ) of the substrate 3000 to be described later, respectively.
  • the housing 1000 may be disposed on the main board 4 .
  • the housing 1000 may accommodate the holder 5000 therein.
  • the lens module 2000 may be coupled to the housing 1000 .
  • the housing 1000 may be coupled to a barrel of the lens module 2000 .
  • the housing 1000 may be a coil case to which a coil is fixed. Accordingly, the housing 1000 may be coupled to the coil unit 4000 and the substrate 3000 connected to the coil unit 4000 .
  • the housing 1000 may include an inner part 1100 to which the lens module 2000 is coupled and an outer part 1200 to which the coil part 4000 is coupled.
  • the inner part 1100 and the outer part 1200 may be formed integrally or separately.
  • the inner part 1100 may be located inside the housing 1000 . Also, the inner portion 1100 of the housing 1000 may include a hole 1110 . The hole 1110 may be hollow. The hole 1110 may pass through the housing 1000 in the optical axis direction.
  • a screw thread 1120 may be provided on the inner circumferential surface of the inner portion 1100 .
  • the screw thread 1120 of the inner part 1100 may be coupled to the lens module 2000 .
  • the screw thread 1120 on the inner circumferential surface of the inner portion 1100 may be located on the lower side. Accordingly, the image side on the inner peripheral surface of the inner portion 1100 may be disposed to face and spaced apart from the outer peripheral surface of the lens module 2000 .
  • the inner portion 1100 of the housing 1000 may include a protrusion 1130 .
  • the protrusion 1130 may extend upward.
  • the protrusion 1130 may prevent a foreign material from being injected into the lens module 2000 located inside the inner part 1100 .
  • the outer part 1200 may be disposed outside the inner part 1100 .
  • the outer part 1200 and the inner part 1100 may be formed as separate members or integrally.
  • the outer portion 1200 of the housing 1000 may include a sidewall.
  • the sidewall of the housing 1000 may be disposed outside the holder 5000 .
  • the outer part 1200 may have a coil part.
  • the sidewall of the housing 1000 may include a first housing sidewall to a fourth housing sidewall.
  • the housing 1000 may include a first housing sidewall and a second housing sidewall disposed opposite to each other, and a third housing sidewall and a fourth housing sidewall disposed opposite to each other between the first housing sidewall and the second housing sidewall. have.
  • the outer portion 1200 of the housing 1000 may include a housing hole 1210 .
  • the housing hole 1210 may have a shape corresponding to the shape of the coil unit 4000 .
  • the housing hole 1210 may have a larger area than the coil unit 4000 . Accordingly, the housing hole 1210 may accommodate the coil unit 4000 .
  • the housing hole 1210 may be located on the side wall of the housing 1000 .
  • the housing hole 1210 may be formed in each of the first housing sidewall to the fourth housing sidewall of the housing 1000 .
  • the housing hole 1210 may include an extension groove 1220 extending downward. An end of the coil unit 4000 may be disposed in the extension groove 1220 .
  • the sidewall of the housing 1000 may include a first groove and a second groove that are formed to be diagonally recessed from the lower end of the housing hole 1210 . That is, the first groove and the second groove may be formed to be recessed toward the sidewall of the housing 1000 adjacent to the housing hole 1210 . With this configuration, an electrical connection between the wire connected to the coil unit 4000 and the substrate can be easily made.
  • the coupling protrusion 1230 may be positioned on the outer surface of the housing 1000 (or the outer surface of the outer part 1200 ).
  • the housing 1000 may be coupled to the substrate through the coupling protrusion 1230 .
  • the coupling protrusion 1230 may be positioned to correspond to the body portion 310 of the substrate (refer to FIG. 40 ).
  • the coupling protrusion 1230 may be plural.
  • the outer portion 1200 of the housing 1000 may include a first step 1240 and a second step 1260 .
  • the first step 1240 and the second step 1260 may be positioned above and below the sidewall of the housing 1000 .
  • the first step 1240 and the second step 1260 may have a structure extending outward from the outer surface of the sidewall of the housing 1000 .
  • the first step 1240 and the second step 1260 may overlap the substrate in the optical axis direction.
  • the first step 1240 may be disposed below a portion of the substrate 3000 .
  • the first step 1240 may be located under the body 3100 of the substrate 3000 .
  • the terminal part 3200 and the first step 1240 may overlap in a direction perpendicular to the optical axis direction.
  • the second step 1260 may be located on the outer surface of the housing 1000 and the corners of the outer surface.
  • the second step 1260 may be located above the body 3100 .
  • first step 1240 and the second step 1260 may be formed in a shape corresponding to the substrate 3000 .
  • the substrate 3000 may be disposed on the outer surface of the sidewall of the housing 1000 by the first step 1240 and the second step 1260 .
  • the first step 1240 may include a first step groove 1250 .
  • the first step groove 1250 may be formed in the first step 1240 .
  • a foreign material preventing member may be disposed in the first stepped groove 1250 .
  • the second step 1260 may be disposed to be spaced apart from the substrate 3000 at an end thereof.
  • the outer part 1200 of the housing 1000 may include a damper protrusion 1270 .
  • the damper protrusion 1270 may be formed on the outer surface of the outer portion 1200 of the housing 1000 .
  • the damper protrusion 1270 may be inserted into the substrate hole 3110 of the substrate 3000 .
  • the damper protrusion 1270 may include a plurality of protrusions.
  • the outer portion 1200 of the housing 1000 may include a damper protrusion 1270 protruding toward the inside, for example, the holder 5000 .
  • the damper protrusion 1270 may be located on the inner surface of the outer part 1200 .
  • the damper protrusion 1270 may overlap an elastic member 7000 to be described later in a direction perpendicular to the optical axis direction.
  • the damper protrusion 1270 may be coupled to at least a portion of the elastic member 7000 by means of a damper liquid. According to this configuration, it is possible to reduce vibrations generated during tilting to improve the reliability of the device and to minimize the tilt of the optical member due to vibration.
  • the outer portion 1200 of the housing 1000 may include a housing protrusion 1280 .
  • the housing protrusion 1280 may be inserted into the hole of the second coupling part 7200 . Accordingly, the housing protrusion 1280 may be coupled to the second coupling part 7200 .
  • the outer part 1200 of the housing 1000 may include a housing guide part 1290 .
  • the housing guide part 1290 may be located at a corner of the housing 1000 .
  • the cover 9000 may be seated on the housing guide part 1290 . That is, the cover 9000 and the uppermost part of the sidewall 5200 (eg, the uppermost surface of the sidewall 5200) may be spaced apart from each other by the housing guide part 1290 .
  • the housing protrusion 1280 may be disposed inside the housing guide part 1290 . That is, the housing guide part 1290 may be disposed outside the housing protrusion 1280 . In addition, the housing guide 1290 may be disposed outside the elastic member to be described later.
  • the housing protrusion 1280 may have a bottom surface 1280a lower than the bottom surface 1290a of the housing guide part 1290 . That is, the bottom surface 1280a of the housing protrusion 1280 and the bottom surface 1290a of the housing guide part 1290 may form a step difference.
  • an upper surface of the housing protrusion 1290 may be located lower than the upper surface of the housing guide part 1290 . That is, the housing guide part 1290 may be spaced apart from the first protrusion of the holder to provide a space for the first protrusion to easily perform tilting within the housing 1000 .
  • the guiding part GP may be disposed outside the elastic member.
  • the guiding part GP may protrude from the housing 1000 in the optical axis direction or the third direction.
  • the guiding part GP may be located at each corner of the housing 1000 .
  • the guiding part GP may be disposed at the corners facing each other.
  • the guiding part GP may be positioned between the housing guide parts 1290 facing each other.
  • the guiding part GP and the housing guide part 1290 may be disposed in different diagonal directions.
  • the guiding part GP may be formed to protrude from the bottom surface 1280a of the housing protrusion 1280 in the optical axis direction.
  • the guiding part GP may be positioned between the bottom surface 1280a of the housing protrusion 1280 and the bottom surface 1290a of the housing guide part 1290 .
  • the guiding part GP may be disposed outside the elastic member and the housing protrusion 1280 .
  • the guiding portion GP may include a shape corresponding to at least a portion of the outer periphery of the second coupling portion of the elastic member.
  • the second coupling part may extend in a first direction (X-axis direction) and a second direction (Y-axis direction).
  • the guiding portion GP has a side surface GE2 extending in the first direction corresponding to the portion in which the second coupling portion extends in the first direction, and the second coupling portion corresponds to the portion extending in the second direction.
  • the side surface GE1 extending in the second direction may be provided.
  • the inner surface of the guiding portion GP may correspond to the outer surface of the second coupling portion.
  • the guiding portion GP may correspond to the outer periphery or the outer surface of the second coupling portion facing the inner surface.
  • the guiding portion GP may be formed along the edge of the second coupling portion adjacent to the inner surface.
  • the position movement of the elastic member is restricted by the guiding part GP of the housing 1000 and deformation, etc. may be blocked. That is, the guiding portion GP of the housing 1000 may prevent deformation of the elastic member and fix the position thereof, thereby reliably maintaining accurate movement of the holder connected to the elastic member.
  • the housing 1000 may include a connection part 1300 .
  • the connector 1300 may connect the inner part 1100 and the outer part 1200 . At least a portion of the connection part 1300 may overlap the holder 5000 in the optical axis direction.
  • the connection part 1300 may be disposed on at least a part of the holder 5000 .
  • the housing 1000 can reduce the size and reduce the number of parts through the aforementioned integrated structure.
  • the housing 1000 may be formed of a non-magnetic material.
  • the housing 1000 includes a first corner corresponding to a first corner of the holder 5000 , a second corner corresponding to a second corner of the holder 5000 , and a third of the holder 5000 , which will be described later.
  • a third corner corresponding to the corner portion and a fourth corner corresponding to the fourth corner portion of the holder 5000 may be included.
  • FIG. 40 is a perspective view of a substrate and a coil of a camera module according to another embodiment
  • FIG. 41 is a diagram illustrating a coupling between a coil and a substrate of a camera module according to various other embodiments.
  • the substrate 3000 may be positioned on the outer surface of the sidewall of the housing as described above. Also, the substrate 3000 may be disposed between the side plate of the cover and the side wall of the housing. A portion of the substrate 3000 may be positioned between the first step and the second step of the housing. The substrate 3000 may be disposed to surround outer surfaces of four sidewalls of the housing.
  • the substrate 3000 may be electrically connected to the coil unit 4000 .
  • the coil unit 4000 may be disposed on the inner surface of the substrate 3000 .
  • the substrate 3000 may be electrically connected to the main substrate so as to give a signal to the coil unit 4000 .
  • the substrate 3000 may be fixed to the housing 1000 which is a coil case so that the coil unit 4000 is stably fixed.
  • a position sensor 4500 for sensing the position of the magnet unit 6000 may also be coupled to the substrate 3000 .
  • the substrate 3000 may include an FPCB.
  • the position sensor 4500 and the coil unit 4000 may be SMT on the substrate 3000 .
  • the position sensor 4500 as the position sensor 4500 is coupled to the substrate 3000 , it may be a structure that does not require a separate component for energizing the position sensor 4500 .
  • the board 3000 is placed outside the housing 1000 to solder the terminal part 3200 of the board 3000 and the main board 4 , so that the space required for connection can be minimized.
  • the substrate 3000 may include a first portion 3010 to a fourth portion 3040 .
  • the substrate 3000 includes a first portion 3010 disposed on the first housing sidewall of the housing 1000 , a second portion 3020 disposed on the second housing sidewall of the housing 1000 , and the housing 1000 . It may include a third portion 3030 disposed on the third housing sidewall and a fourth portion 3040 disposed on the fourth housing sidewall of the housing 1000 .
  • the fourth part 3040 may connect the first part 3010 and the second part 3020 , and the second part 3020 may connect the third part 3030 and the fourth part 3040 .
  • first part 3010 and the third part 3030 may be spaced apart from each other.
  • An end of the first portion 3010 and an end of the third portion 3030 may be positioned in a seating portion protruding from a corner where the first housing sidewall and the third housing sidewall of the housing 1000 meet.
  • the length of the first portion 3010 to the fourth portion 3040 may decrease in the third direction at the portion in contact with each other.
  • the inner surface may have a curvature at the contact portion. Accordingly, stress may be reduced in a region where the substrate 3000 is easily coupled to the outer surface of the housing 1000 and is bent.
  • the substrate 3000 may include a body 3100 .
  • the coil part 4000 may be seated on the body part 3100 , and the body part 3100 may be coupled to the coil part 4000 .
  • a position sensor 4500 may be coupled to the body 3100 .
  • the body part 3100 may be disposed on the outer surface of the housing 1000 .
  • the body 3100 of the substrate 3000 may include a substrate hole 3110 .
  • the substrate hole 3110 may be penetrated by the coupling protrusion 1230 of the housing 1000 . Accordingly, the substrate 3000 and the housing 1000 may be coupled to each other through the coupling protrusion 1230 and the substrate hole 3110 .
  • the substrate 3000 may include a terminal unit 3200 .
  • the terminal part 3200 may extend downward from the body part 3100 and include a plurality of terminals. That is, the terminal part 3200 may extend from the body part 3100 toward the lower main board. And the terminal part 3200 may be coupled to the main board by soldering. Since the terminal part 3200 is positioned under the board 3000 , it may be positioned between the main board and the body part 3100 . With this configuration, an electrical connection between the board 3000 and the terminal unit 3200 can be easily made. For example, an electrical connection between the coil unit 4000 and the substrate 3000 may be easily made. In addition, it is possible to secure the ease of assembly by minimizing the space for electrical connection.
  • the terminal part 3200 may be formed to correspond to the shape of the first step 1240 . In an embodiment, the terminal part 3200 may be positioned between the first steps 1240 .
  • the substrate 3000 may include an extension 3300 .
  • the extension part 3300 may extend upwardly from the body part 3100 .
  • the extension 3300 may be located on the upper end of the substrate 3000 .
  • the extension portion 3300 may be formed to extend from the body portion 3100 toward the upper plate of the cover.
  • the extension 3300 may be formed to correspond to the shape of the second step 1260 .
  • the extension 3300 may be positioned between the second steps 1260 .
  • the coil unit 4000 may be positioned on the substrate 3000 to be coupled to the substrate 3000 .
  • the coil unit 4000 may be coupled to the substrate 3000 through a bonding member or the like.
  • the coil unit 4000 may be coupled to the inner surface of the substrate 3000 .
  • the coil unit 4000 may be electrically connected to the substrate 3000 .
  • the coil unit 4000 may be located in a housing hole of a side wall of the housing 1000 .
  • the coil unit 4000 may be disposed to face a magnet unit, which will be described later. That is, the coil unit 4000 may be disposed to face the magnet unit.
  • the coil unit 4000 may electromagnetically interact with the magnet unit.
  • the magnet unit when a current is supplied to the coil unit 4000 to form an electromagnetic field around the coil unit 4000 , the magnet unit is connected to the coil unit 4000 by electromagnetic interaction between the coil unit 4000 and the magnet unit. can move against The coil unit 4000 and the magnet unit 6000 may be disposed at positions opposite to each other.
  • the coil unit 4000 may include a pair of ends (lead wires) for supplying power.
  • the first end 4010 may be drawn out to the left and lower sides of the coil unit 4000
  • the second end 4020 may be drawn out to the right and lower sides of the coil unit 4000 .
  • the coil unit 4000 may include a first end 4010 and a second end 4020 coupled to the substrate 3000 .
  • both ends of the coil are concentrated in the center, and the impact is concentrated in the central region of the coil unit 4000, so that the coil unit is deformed or cracked. ) and is difficult to manufacture, but according to the embodiment, this problem can be solved.
  • the first end 4010 and the second end 4020 may be coupled to the terminal 3120 of the substrate 3000 .
  • the first end 4010 and the second end 4020 may be coupled to the terminal 3120 of the substrate 3000 by soldering or Ag epoxy. Through this, the coil unit 4000 may be coupled to the substrate 3000 .
  • the first end 4010 and the second end 4020 are coupled to the terminal 3120 of the substrate 3000 through a separate coupling member 3050 .
  • the coupling member 3050 may be a coil support.
  • the coil unit 4000 may be SMTed to the substrate 3000 by application of the coupling member 3050 .
  • there is an advantage of increasing assembly convenience through manual solder placement workability and shortening of working time and there is an advantage in that the tolerance of position shift of the coil unit 4000 due to assembly compared to manual soldering is reduced.
  • center deviation between the coil unit 4000 and the magnet unit may be prevented.
  • the first end 4010 and the second end 4020 may be disposed in the extension groove 1220 of the housing 1000 .
  • the conducting material connected to the first end 4010 and the second end 4020 and/or the above-described coupling member 3050 may also be disposed in the extension groove 1220 of the housing 1000 .
  • the coil unit 4000 may include a plurality of coils.
  • the coil unit 4000 may include four coils.
  • the coil unit 4000 may include a first coil 4100 to a fourth coil 4400 .
  • Current may be applied to the first coil 4100 to the fourth coil 4400 , respectively.
  • the first coil 4100 to the fourth coil 4400 may be electrically separated.
  • the first coil 4100 to the fourth coil 4400 may have opposite directions of current flowing in the coils facing each other.
  • the first coil 4100 and the third coil 4300 may be formed in an antiparallel structure to each other, and the second coil 4200 and the fourth coil 4400 may be formed in an antiparallel structure to each other.
  • first coil 4100 to the fourth coil 4400 are coils facing each other, and currents having different directions may be applied thereto. Through this, the control of the diagonal tilt or the horizontal tilt of the optical member can be made.
  • the coil unit 4000 includes a first coil 4100 facing the first magnet 6010 (see FIG. 42 ), a second coil 4200 facing the second magnet 6020 (see FIG. 42 ), and a second It may include a third coil 4300 facing the third magnet 6030 (refer to FIG. 42 ) and a fourth coil 4400 facing the fourth magnet 6040 (refer to FIG. 42 ).
  • first coil 4100 may be disposed on the first housing sidewall of the housing.
  • second coil 4200 may be disposed on the second housing sidewall of the housing.
  • third coil 4300 may be disposed on the third housing sidewall of the housing.
  • fourth coil 4400 may be disposed on the fourth housing sidewall of the housing.
  • the four coils may be controlled by two channels.
  • the first coil 4100 and the second coil 4200 may be electrically connected.
  • the direction of the Lorentz force generated between the first coil 4100 and the first magnet 6010 and the direction of the Lorentz force generated between the second coil 4200 and the second magnet 6020 may be opposite.
  • the first coil 4100 and the second coil 4200 may be disposed so that currents in opposite directions flow.
  • the first coil 4100 and the second coil 4200 may be wound in opposite directions.
  • the first coil 4100 and the second coil 4200 may be wound in the same direction, and the polarity arrangement of the first magnet 6010 and the polarity arrangement of the second magnet 6020 may be arranged in different directions.
  • the first coil 4100 and the second coil 4200 may be electrically separated and may be integrally controlled by the controller.
  • the third coil 4300 and the fourth coil 4400 may be electrically connected.
  • the direction of the Lorentz force generated between the third coil 4300 and the third magnet 6030 and the direction of the Lorentz force generated between the fourth coil 4400 and the fourth magnet 6040 may be opposite.
  • the third coil 4300 and the fourth coil 4400 may be disposed such that currents in opposite directions flow.
  • the third coil 4300 and the fourth coil 4400 may be wound in opposite directions.
  • the third coil 4300 and the fourth coil 4400 may be wound in the same direction, and the polarity arrangement of the third magnet 6030 and the polarity arrangement of the fourth magnet 6040 may be arranged in different directions.
  • the third coil 4300 and the fourth coil 4400 may be electrically separated and may be controlled integrally by the controller.
  • FIG. 42 is an exploded perspective view showing a holder, a magnet, and an optical member of a camera module according to another embodiment
  • FIG. 43 is an exploded perspective view showing a holder, a magnet, and an optical member of a camera module according to another embodiment
  • FIG. 44 is a perspective view from another angle in FIG. 43
  • FIG. 45 is a top view of a holder, a magnet, and an optical member of a camera module according to another embodiment
  • FIG. 46 is a view for explaining the Lorentz force between the magnet and the coil in the embodiment
  • FIG. 47 is a view for explaining the diagonal tilting control of the optical member in the embodiment.
  • the holder 5000 may be coupled to the magnet unit 6000 and the optical member 8000 .
  • the holder 5000 may include a holder hole 5110 as described above.
  • the lens module may be seated in the holder hole 5110 .
  • a groove portion 5110a extending outwardly may be added to the holder hole 5110 . Due to the groove portion 5110a, assembly tolerance can be minimized during assembly.
  • the holder 5000 may include a side wall groove 5220 , and a magnet part 6000 may be disposed in the side wall groove 5220 .
  • the optical member 8000 may be disposed under the holder 5000 .
  • the holder 5000 may move integrally with the optical member 8000 .
  • the optical member 8000 coupled to the holder 5000 may also be tilted.
  • the magnet unit 6000 coupled to the holder 5000 may also be tilted.
  • the holder 5000 may be a case in which the optical member 8000 and the magnet unit 6000 are assembled.
  • the holder 5000 may use a non-magnetic material in order to minimize the influence of magnetic force with the magnet unit 6000 .
  • the holder 5000 may be spaced apart from the housing 1000 within the housing 1000 .
  • the holder 5000 may be connected to the elastic member (7000).
  • the holder 5000 may be tilted by being coupled to the elastic member 7000 and the optical member 8000 in a first diagonal direction. Since the holder 5000 is a part that is actually driven, the weight (size) needs to be minimized.
  • the holder 5000 may include a first side surface, a second side surface disposed opposite to the first side surface, and a third side surface and a fourth side surface disposed between the first side surface and the second side surface opposite to each other.
  • the holder 5000 has a first corner portion between the first side and a third side, a second corner portion between the second side and the third side, a third corner portion between the second side and the fourth side, and a fourth side and a fourth corner portion between the first side surface.
  • the diagonal direction may be a direction from the first corner portion toward the third corner portion or a direction from the third corner portion toward the first corner portion. Further, the diagonal direction may be a direction from the second corner portion toward the fourth corner portion or a direction from the fourth corner portion toward the second corner portion.
  • the holder 5000 may include a base 5100 , a sidewall 5200 , and a second protrusion 5300 .
  • the base 5100 may be located in the housing.
  • An optical member 8000 may be positioned under the base 5100 .
  • the base 5100 may include a base groove 5120 formed on the lower surface.
  • An optical member 8000 may be disposed in the base groove 5120 .
  • the base groove 5120 may be formed in a shape corresponding to the optical member 8000 . At least a portion of the optical member 8000 may be accommodated in the base groove 5120 .
  • the optical member 8000 may be coupled to the base 5100 by an adhesive member.
  • coupling grooves 5120a to 5120d may be positioned at corners under the base 5100 .
  • the base groove 5120 may include a first coupling groove 5120a, a second coupling groove 5120b, a third coupling groove 5120c, and a fourth coupling groove 5120d.
  • the first coupling groove 5120a may be positioned between the first edge surface M1 and the fourth edge surface M4.
  • the second coupling groove (5120b) may be located between the second edge surface (M2) and the third edge surface (M3).
  • the third coupling groove (5120c) may be located between the second edge surface (M2) and the fourth edge surface (M4).
  • the fourth coupling groove (5120d) may be located between the first edge surface (M1) and the third edge surface (M3).
  • the first edge surface M1 to the fourth edge surface M4 may be each side surface of the base 5100 by the base groove 5120 .
  • a bonding member may be injected into the first coupling groove 5120a, the second coupling groove 5120b, the third coupling groove 5120c, and the fourth coupling groove 5120d.
  • the bonding member is a first coupling groove (5120a), a second coupling groove (5120b), a third coupling groove (5120c) and a fourth coupling groove. (5120d) can be injected.
  • the bonding member may spread to the bottom surface of the base groove 5120 through a capillary phenomenon. In other words, the bonding member may be positioned between one surface of the optical member 8000 and the bottom surface of the base groove 5120 .
  • the optical member 8000 may be disposed to be spaced apart from the base groove 5120 by a first separation distance in the third direction or the second direction.
  • the first separation distance may be 20 ⁇ m to 100 ⁇ m. If the separation distance is less than 20 ⁇ m, the coupling force between the optical member and the holder may be lowered, and when the separation distance is greater than 100 ⁇ m, it is difficult to easily perform the capillary phenomenon by the bonding member and there is a problem that the size of the holder becomes large. do.
  • the base 5100 may include a base hole, and the base hole may be hollow.
  • the base hole may be formed to penetrate the base 5100 in the optical axis direction.
  • the sidewall 5200 may extend upwardly from the base 5100 .
  • the sidewall 5200 is located on the upper surface of the base 5100 and may be disposed along the edge of the base 5100 .
  • a magnet unit 6000 may be fixed to the sidewall 5200 .
  • the sidewall 5200 may include a first protrusion 5210 .
  • the first protrusion 5210 may be located at an upper portion of the sidewall 5200 .
  • the first protrusion 5210 may be coupled to the elastic member. More specifically, the first protrusion 5210 may be coupled to the first coupling part 7100 . And through the elastic member, the first protrusion 5210 and the housing may be coupled to each other.
  • the sidewall 5200 or the first protrusion 5210 may include a protrusion 5210a and a guide protrusion 5210b.
  • the protrusion 5210a is located on the upper surface of the first protrusion 5210 and may protrude upward.
  • the protrusion 5210a may be coupled to the first coupling part 7100 .
  • the protrusion 5210a may be inserted into the hole of the first coupling part 7100 .
  • the protrusion 5210a may be positioned to correspond to the first protrusion 5210 .
  • the first protrusion 5210 may protrude upward in a diagonal direction.
  • the protrusion 5210a may include a first protrusion 5210a-1 and a second protrusion 5210a-2.
  • first protrusion 5210a-1 and the second protrusion 5210a-2 may be disposed in a diagonal direction.
  • the first protrusion 5210a-1 and the second protrusion 5210a-2 may be disposed at corners facing each other, and may be disposed symmetrically in the optical axis direction.
  • the guide protrusion 5210b may be located outside the protrusion 5210a. In an embodiment, since the guide protrusion 5210b is disposed on the first protrusion 5210, it may be positioned in a diagonal direction. In addition, the protrusions 5210a disposed in the diagonal direction may be positioned between the guide protrusions 5210b disposed in the diagonal direction. Accordingly, the elastic member 7000 to be described later may be guided by the guide protrusion 5210b while being coupled to the protrusion 5210a. The guide protrusion 5210b guides the elastic member 7000 to be seated on the first protrusion 5210 of the holder 5000 , and can prevent deformation of the elastic member 7000 even when an impact occurs due to tilt or the like.
  • the thickness of the guide protrusion 5210b may have a ratio of 1:1 to 1:2 with the thickness of the elastic member 7000 .
  • the ratio of the thickness is less than 1:1, there is a limit in which the deformation of the elastic member due to the impact occurs. There are problems that arise.
  • the thickness means the length in the third direction.
  • the guide protrusion 5210b may include a shape corresponding to at least a portion of the outer periphery of the first coupling part 7100 disposed at the corner of the elastic member 7000 .
  • the guide protrusion 5210b may include a first guide protrusion 5210b-1 and a second guide protrusion 5210b-2.
  • the first guide protrusion 5210b-1 and the second guide protrusion 5210b-2 may be disposed to face each other.
  • the first guide protrusion 5210b-1 and the second guide protrusion 5210b-2 may have inner surfaces corresponding to at least a portion of the outer periphery of the first coupling part.
  • the first guide protrusion 5210b-1 and the second guide protrusion 5210b-2 may be positioned so that an inner surface thereof corresponds to an outer surface of the first coupling part.
  • inner surfaces of the first guide protrusion 5210b-1 and the second guide protrusion 5210b-2 may be positioned to face the outer surface of the first coupling part.
  • the first coupling portion may have an outer surface extending in the first direction or the second direction.
  • the guide protrusion 5210b may have an inner surface extending in the first direction or the second direction corresponding to the outer surface of the first coupling portion.
  • the first guide protrusion 5210b-1 and the second guide protrusion 5210b-2 may include at least one of an inner surface extending in the first direction or an inner surface extending in the second direction.
  • the first guide protrusion 5210b-1 and the second guide protrusion 5210b-2 may be located outside the elastic member. With this configuration, the guide protrusion 5210b maintains the coupling force between the elastic member and the protrusion 5210a and can easily prevent movement deformation of the elastic member.
  • the sidewall 5200 may include a sidewall groove 5220 .
  • the side wall groove 5220 may be located on the outer surface of the side wall 5200 .
  • the side wall groove 5220 may be positioned to correspond to the housing groove of the first housing side wall to the fourth housing side wall of the housing.
  • the magnet part 6000 may be seated in the side wall groove 5220 .
  • the side wall groove 5220 may be a recess.
  • the side wall groove 5220 may support the magnet part 6000 .
  • the magnet part 6000 may be adhered to the side wall groove 5220 by an adhesive member. Accordingly, the side wall groove 5220 may fix the magnet unit 6000 .
  • an adhesive groove 5230 may be disposed at the upper end and/or lower end of the side wall 5200 .
  • a bonding member may be disposed in the adhesive groove 5230 .
  • the magnet part 6000 is seated in the sidewall groove 5220 , and a bonding member may be injected through the adhesive groove 5230 to fix the holder 5000 and the magnet part 6000 .
  • the bonding member may be injected between the magnet part 6000 and the sidewall groove 5220 by a capillary phenomenon along the adhesive groove 5230 . Accordingly, the bonding member may improve the bonding force between the housing and the substrate.
  • the magnet part 6000 and the side wall groove 5220 may have a second separation distance d11.
  • the second separation distance d11 may be 20 ⁇ m to 100 ⁇ m. If the second separation distance is less than 20 ⁇ m, the coupling force between the holder and the magnet may be reduced, and when the second separation distance is greater than 100 ⁇ m, it is difficult to easily perform the capillary phenomenon by the bonding member and the size of the holder becomes large. The problem exists.
  • the bonding member may fix the magnet part 6000 to the side wall groove 5220 by ultraviolet (UV) curing, thermal curing, or the like.
  • UV ultraviolet
  • step structure or hole in each component of the camera module as well as the holder 5000 facilitates coupling between the components as an alignment mark, and minimizes the volume of the component to finally minimize the weight of the camera module make it
  • the assembly groove 5200k may be located on the upper surface of the side wall 5200 .
  • the coupling position can be easily grasped. Accordingly, assembly can be easily performed.
  • the second protrusion 5300 may protrude downward from the base 5100 .
  • the upper side or the upper side may mean one direction in the optical axis direction or the third direction
  • the lower side or the lower side may mean a direction opposite to the one direction in the optical axis direction or the third direction.
  • the upper portion may mean an area in one direction in the optical axis direction or the third direction
  • the lower portion may mean an area opposite to the one direction in the optical axis direction or the third direction.
  • the optical axis direction or the second protrusion 5300 may be located at a corner of the base 5100 .
  • the second protrusion 5300 may limit a tilt range when the optical member 8000 and the holder 5000 tilt in a diagonal direction.
  • the second protrusion 5300 can be prevented from being transmitted directly to the optical member 8000, the magnet unit 6000, or the like during tilting. With this configuration, the second protrusion 5300 may improve the reliability of the camera module.
  • the magnet part 6000 may be disposed on the holder 5000 .
  • the magnet unit 6000 may be disposed on the sidewall 5200 of the holder 5000 .
  • the magnet part 6000 may be disposed on the outer peripheral surface of the holder 5000 .
  • the magnet part 6000 may protrude from the outer surface of the holder 5000 .
  • the magnet part 6000 may be disposed to face the coil part in the above-described housing hole.
  • the magnet unit 6000 may electromagnetically interact with the coil unit 4000 .
  • the magnet unit 6000 may be a flat magnet having a flat plate shape.
  • the present invention is not limited thereto, and the magnet unit 6000 may be disposed at a corner between the sidewalls 5200 .
  • the magnet unit 6000 may be a corner magnet having a hexahedral shape with an inner side surface wider than an outer side surface.
  • the magnet unit 6000 may include a plurality of magnets.
  • the magnet unit 6000 may include four magnets.
  • the magnet unit 6000 may include first magnets 6010 to fourth magnets 6040 .
  • the magnet unit 6000 includes a first magnet 6010 , a second magnet 6020 disposed opposite to the first magnet 6010 , a third magnet 6030 , and a third magnet 6030 disposed opposite to the third magnet 6030 . 4 magnets 6040 may be included.
  • first magnet 6010 is disposed on the first side of the holder 5000
  • second magnet 6020 is disposed on the second side of the holder 5000
  • third magnet 6030 is the holder 5000
  • fourth magnet 6040 may be disposed on the fourth side of the holder (5000).
  • the optical member 8000 (or the holder 5000) may be tilted with a Lorentz force acting on the magnet unit 6000 and the coil unit 4000 through which current flows.
  • the actuator In order to generate the Lorentz force, the actuator is largely a magnet. It may be divided into a part and a coil part. When the Lorentz force is generated, the part that is actually operated may be the magnet part 6000. However, as a modification, the coil part 4000 may be moved by the Lorentz force.
  • the magnet unit 6000 In order to drive in the direction, the magnet unit 6000 may be positively magnetized as shown in Fig. 46(b), that is, the magnet unit 6000 may be in the form of stacking two magnets having positive poles.
  • a current generating a Lorentz force may flow in one direction (a of FIG. 46(c)) in the coil unit 4000 as shown in FIG. 46(c).
  • current may flow in the forward direction in the coil unit 4000 .
  • current may flow in the coil unit 4000 in the other direction opposite to the one direction (a). That is, current may flow in the reverse direction in the coil unit 4000 .
  • the N pole (S pole in the inner region) in the upper outer region of the magnet part 6000 and the S pole in the lower outer region (N pole in the inner region) are arranged and the current flows in one direction to the Lorentz force Accordingly, the driving direction upward (c in Fig. 47(a)) can act.
  • the optical member 8000 is a forward current is applied to two adjacent coils among the first coil 4100 to the fourth coil 4400 and a reverse current is applied to the other two coils to form the optical member 8000 ) may be arranged to tilt in the diagonal direction.
  • the optical member 8000 may be tilted in a diagonal direction by controlling the current applied to the first coil 4100 and the third coil 4300 .
  • the optical member 8000 may be disposed such that current is applied to two adjacent coils of the first coil 4100 to the fourth coil 4400 to tilt the optical member 8000 in a diagonal direction.
  • the optical member 8000 may include a first corner disposed at a position corresponding to the first corner of the holder 5000 .
  • the first edge of the optical member 8000 may be tilted in the upward direction of the optical axis by the first coil 4100 and the third coil 4300 .
  • the optical member 8000 may include a third corner disposed at a position corresponding to the third corner of the holder 5000 .
  • the third edge of the optical member 8000 is tilted downward of the optical axis by the second coil 4200 and the fourth coil 4400 , and the first edge of the optical member 8000 is the second coil 4200 .
  • the fourth coil 4400 may be further tilted in the upward direction of the optical axis.
  • the tilting driving principle of the camera module is as follows.
  • Four driving units using Lorentz force may be applied to the camera module.
  • the first driving unit including the first coil 4100 and the first magnet 6010
  • the third driving unit including the third coil 4300 and the third magnet 6030
  • the 'quantity A second driving unit including a second coil 4200 and a second magnet 6020 and a fourth coil 4400 and a fourth magnet 6040 to generate a Lorentz force in the '+) direction' 4
  • the Lorentz force is generated in the 'negative (-) direction' in the driving unit, the upper left diagonal is tilted upward (a1 in FIG. 47), and conversely, the lower right diagonal is tilted downward (a2 in FIG.
  • the second driving unit including the second coil 4200 and the second magnet 6020 and the third driving unit including the third coil 4300 and the third magnet 6030 the 'positive (+) direction' to generate a Lorentz force
  • the first driving unit including the first coil 4100 and the first magnet 6010 and the fourth driving unit including the fourth coil 4400 and the fourth magnet 6040 ' A Lorentz force can occur in the (-) direction.
  • the upper right diagonal line may be tilted upward (a3 of FIG. 47 ), and conversely, the lower left diagonal line may be tilted downward (a4 of FIG. 47 ).
  • the negative (-) direction ' to generate a Lorentz force
  • the second driving unit including the second coil 4200 and the second magnet 6020 and the fourth driving unit including the fourth coil 4400 and the fourth magnet 6040 ' A Lorentz force can occur in the positive (+) direction.
  • the lower right diagonal line may be tilted upward (a5 of FIG. 47 ), and conversely, the upper left diagonal line may be tilted downward (a6 of FIG. 47 ).
  • the negative (-) direction ' to generate a Lorentz force
  • the first driving unit including the first coil 4100 and the first magnet 6010 and the fourth driving unit including the fourth coil 4400 and the fourth magnet 6040 ' A Lorentz force can occur in the positive (+) direction.
  • the lower left diagonal line may be tilted upward (a7 of FIG. 47 ), and conversely, the upper right diagonal line may be tilted downward (a8 of FIG. 47 ).
  • the positive direction used above may be upward, and the negative direction may be downward.
  • such tilting driving may be sequentially performed in four directions (top left, top right, bottom right, bottom left).
  • the elastic member 7000 may be connected to the housing 1000 .
  • the elastic member 7000 may connect the holder 5000 and the housing 1000 .
  • the elastic member 7000 may have elasticity.
  • the elastic member 7000 may include a portion having elasticity.
  • the elastic member 7000 may include a leaf spring.
  • the elastic member 7000 may be formed of a metal material.
  • the elastic member 7000 may be assembled to the housing protrusion 1280 of the housing 1000 and the protrusion 5210a of the first protrusion 5210 of the holder 5000 and then fixed by bonding.
  • the elastic member 7000 since the assembly and fixing part of the elastic member 7000 is external, it can have a relatively easy assembly structure.
  • the elastic member 7000 may have a structure that can have an upper/lower degree of freedom for a spring position.
  • the elastic member 7000 may be placed only on the upper side according to each embodiment, may be placed on both the upper and lower sides, or may be placed only on the lower side.
  • the elastic member 7000 may include a first coupling part 7100 and a second coupling part 7200 .
  • the first coupling part 7100 may be coupled to a corner of the holder 5000 .
  • the first coupling part 7100 may be disposed to be symmetrical to the optical axis in the first diagonal direction of the optical member 8000 .
  • the two first coupling portions may be disposed opposite to each other with respect to the optical axis.
  • the first coupling part 7100 may be coupled to each of the first corner part of the holder 5000 and the third corner part of the holder 5000 .
  • the second coupling part 7200 may be coupled to a corner of the housing 1000 corresponding to another corner part of the holder 5000 adjacent to a corner part of the holder 5000 to which the first coupling part 7100 is coupled. .
  • the second coupling part 7200 may be coupled to the housing protrusion 1280 of the housing 1000 .
  • the number of second coupling units 7200 may be two.
  • the second coupling part 7200 may be disposed to be symmetrical to the optical axis in a second diagonal direction different from the first diagonal direction of the optical member 8000 .
  • the second coupling parts 7200 may be disposed opposite to each other with respect to the optical axis.
  • the second coupling part 7200 may be coupled to each of the second corner of the housing 1000 and the fourth corner of the housing 1000 .
  • the protrusion 5200a of the holder 5000 and the housing protrusion 1280 of the housing 1000 may be disposed to overlap at least partially in the first direction (X-axis direction) or in the second direction (Y-axis direction).
  • the center of the protrusion 5200a and the center of the housing protrusion 1280 may be displaced in the first direction (X-axis direction) or in the second direction (Y-axis direction). Accordingly, the center of the protrusion 5200a and the center of the housing protrusion 1280 may not overlap in the first direction (X-axis direction) or in the second direction (Y-axis direction).
  • the elastic member 7000 has a bonding force between the housing 1000 and the holder 5000 , and shock or vibration can be easily blocked.
  • the holder 5000 and the housing 1000 may be connected and fixed to each other through the elastic member 7000 as described above.
  • the elastic member 7000 may include an elastic connection part 7300 .
  • the elastic connection part 7300 may connect the first coupling part 7100 and the second coupling part 7200 to each other.
  • the elastic connection part 7300 may elastically connect the first coupling part 7100 and the second coupling part 7200 .
  • the elastic connection part 7300 may have elasticity.
  • the elastic connection part 7300 may include a bent part 7310 .
  • the bent portion 7310 may be a portion formed in a zigzag shape rather than being folded.
  • the elastic connection part 7300 may include a bending part or a round part.
  • the plurality of bent portions 7310 may be continuously formed in the longitudinal direction of the elastic connection portion 7300 .
  • the elastic member 7000 may be coupled to the housing 1000 and the holder 5000 at an upper portion of the housing 1000 and an upper portion of the holder 5000 .
  • the elastic member 7000 may be formed in various shapes so as to find an optimal shape and strength (stiffness).
  • the bent part 7310 of the elastic connection part 7300 may be formed to be flat in a region corresponding to the damper protrusion 1270 of the housing 1000 (eg, an opposing region 0).
  • the damper protrusion 1270 may be coupled to each other through the adjacent elastic connection part 7300 and the damper member dp.
  • the elastic member 7000 may also vibrate due to the tilt of the holder 5000 and the optical member 8000 .
  • the damper member dp can easily reduce the vibration of the elastic member 7000 to improve the reliability of the device.
  • the damper member dp may be made of a material that is cured by ultraviolet rays or heat.
  • the elastic connection part 7300 may be formed to be rounded at the point where it meets the first coupling part 7100 and the second coupling part 7200 .
  • the elastic connection part 7300 may include a plurality of bent parts 7310 .
  • the elastic connection part 7300 may include an elastic protrusion part 7320 .
  • a plurality of damper protrusions 1270-1 and 1270-2 of the housing 1000 may be provided.
  • the damper protrusions 1270-1 and 1270-2 may at least partially overlap the elastic protrusion 7320 in the first direction (X-axis direction) or the second direction (Y-axis direction).
  • the elastic protrusion 7320 and the damper protrusions 1270-1 and 1270-2 may be coupled to each other by the damper member dp.
  • the damper protrusions 1270-1 and 1270-2 may prevent the damper member dp from flowing to areas other than the damper protrusions 1270-1 and 1270-2. In addition, the influence of the damper member dp on the rigidity of the elastic member 7000 can be minimized.
  • the elastic member 7000 may have different diagonal directions connected to the holder or the housing depending on the arrangement position, such as the lower part or the upper part of the holder 5000 . Through this, tilting of the holder 5000 in the initial state can be prevented and diagonal direction control can be performed with the same current.
  • the elastic member 7000 may be configured such that deformation due to stress from an upper impact does not occur, in the first direction (X-axis direction), in the second direction (Y-axis direction), and in the third direction (Z-axis direction). can dissipate the stress.
  • the elastic member 7000 may have a safety factor of 2 or more in the first direction (X-axis direction), the second direction (Y-axis direction), and the third direction (Z-axis direction).
  • the elastic connection part 7300 is respectively located on the first side, the second side, the third side, and the fourth side of the holder 5000 and may be symmetrically disposed.
  • the elastic connection part 7300 in the elastic member 7000 may have the same shape when it moves by 90 degrees in a clockwise or counterclockwise direction. Accordingly, the tilting (eg, diagonal tilting) of the holder 5000 may be made symmetrically.
  • each of the first coupling part 7100 and the second coupling part 7200 has first and second coupling holes for coupling with the protrusion 5210a and the housing protrusion 1280, and the first and second coupling holes are adjacent to each other. It may further include a coupling groove formed extending toward the elastic connection (7300). These coupling grooves absorb external shocks, thereby minimizing deformation of the elastic member 7000 due to external shocks.
  • the stiffness of the elastic member 7000 may be 53 mN/mm to 80 mN/mm.
  • the rigidity of the elastic member 7000 may be that of the elastic connection part 7300 of the elastic member 7000 .
  • the rigidity of the elastic member 7000 is less than 53 mN/mm, a problem occurs larger than the target tilting angle even if the current level is lowered when referring to the measured value of the Analyze step, and 80 mN/mm is set in the limited space of this embodiment It may be the largest value.
  • the level of current applied to the coil unit 4000 may be 18 mA to 22 mA. If the current applied to the coil unit 4000 is less than 18 mA, there is a problem with the tilting angle is small when the strength of the elastic member 7000 is 53 mN/mm during the analysis stage test. There are limitations that arise.
  • the housing 1000 may include a stopper for limiting a tilt range of the holder 5000 in the first direction (X-axis direction) or the second direction (Y-axis direction).
  • the stopper may be located on inner surfaces of the first housing sidewall to the fourth housing sidewall. And the stopper may protrude toward the inside.
  • the stopper may include a first stopper ST1 and a second stopper ST2 .
  • the first stopper ST1 and the second stopper ST2 may be located on the inner surface of the outer portion 1200 of the housing 1000 .
  • the first stopper ST1 may be positioned on the second housing sidewall or the fourth housing sidewall.
  • the second stopper ST2 may be positioned on the first housing sidewall or the fourth housing sidewall.
  • the first stopper ST1 may limit the rotation range of the holder 5000 in the second direction (Y-axis direction).
  • the second stopper ST2 may limit the rotation range of the holder 5000 in the first direction (X-axis direction). Accordingly, it is possible to prevent deformation of the elastic member 7000 by minimizing the stress applied to the elastic member 7000 according to the separation distance between the housing 1000 and the holder 5000 .
  • the stopper may further include a third stopper ST3.
  • the third stopper ST3 may be located on the upper surface of the connection part 1300 .
  • the third stopper ST3 may be formed to protrude upward. Accordingly, the third stopper ST3 may limit the rotation range of the holder 5000 in the third direction (Z-axis direction). Accordingly, it is possible to prevent deformation of the elastic member 7000 by minimizing the stress applied to the elastic member 7000 according to the separation distance between the housing 1000 and the holder 5000 .
  • the camera module may have an elastic member disposed thereunder.
  • the lower elastic member may be coupled to a lower portion of the housing 1000 and a lower portion of the holder 5000 .
  • the lower elastic member includes a first coupling region coupled to the lower portion of the holder 5000 , a second coupling region coupled to the lower portion of the housing 1000 , and a connection region connecting the first coupling region and the second coupling region can do.
  • the first coupling region of the lower elastic member may be coupled to another corner of the holder 5000 (a corner different from the corner connected between the upper elastic member and the holder).
  • the first coupling region of the lower elastic member may be coupled to the second protrusion of the holder 5000 .
  • the upper elastic member and the lower elastic member may be coupled in different diagonal directions. That is, the diagonal direction connecting the portion to which the upper elastic member is coupled and the diagonal direction connecting the portion to which the lower elastic member is coupled may be different. Through this, it is possible to prevent tilt of the holder 5000 in the initial state and to control with the same current in all four diagonal direction controls.
  • FIG. 51 is a perspective view of a camera module according to another embodiment
  • FIG. 52 is a cross-sectional view taken from EE' in FIG. 51
  • FIG. 53 is a cross-sectional view taken along FF' in FIG. 51
  • FIG. 54 is GG' in FIG. It is a cut cross-section.
  • the first protrusion 5210 may be positioned in the first diagonal direction in the holder 5000 as described above, and may not be positioned in the second diagonal direction.
  • the sidewall 5200 of the holder 5000 may have a different length in the third direction at each corner. That is, the length of the sidewall of the holder 5000 at the first corner portion and the third corner portion may be greater than the length at the second corner portion and the fourth corner portion.
  • the first protrusion 5210 may be positioned in, for example, only the first corner portion and the third corner portion in the first diagonal direction.
  • the first protrusion 5210 may be spaced apart from the upper surface of the housing 1000 by a first distance d1 in the third direction.
  • the upper surface of the protrusion 5210a and the uppermost surface of the housing 1000 may be spaced apart from each other by the first distance d10 .
  • the holder 5000 can be easily diagonally in the space by the first distance d10. can be tilted
  • the holder 5000 may rotate at a first angle ⁇ 1 in the first diagonal direction. Since the first angle ⁇ 1 includes both positive/negative (+/-0), STEP1 and STEP3 (or STEP2 and STEP4) may be performed as described below.
  • the holder 5000 may rotate at a second angle ⁇ 2 in the second diagonal direction. Since the second angle ⁇ 2 includes both positive/negative (+/-0), STEP2 and STEP4 (or STEP1 and STEP3) may be performed as described below.
  • the first distance d1 may be determined by Equation 3 below.
  • may correspond to a tilting angle of the holder required to perform STEP1 to STEP4 described later to obtain an SR image.
  • the elastic member may be sent by an overshoot by the elastic member.
  • 55 is a view for explaining a tilt unit according to another exemplary embodiment.
  • the camera module may include an optical member (or a filter, hereinafter referred to as tilting of the filter) or a control unit (CLO) capable of three-dimensionally tilting the lens module.
  • the controller CLO may tilt the filter so that the optical path of the input optical signal passing through the filter moves repeatedly according to a predetermined rule.
  • the control unit CLO may correspond to or include the above-described control unit CLO.
  • the predetermined rule may include a first tilt sequence to a fourth tilt sequence.
  • the first to fourth tilt sequences may allow optical paths of the input optical signal that have passed through the filter to be disposed at different positions.
  • the first to fourth tilt sequences may cause optical paths of the input optical signal that have passed through the filter to move in different diagonal directions.
  • the controller CLO may tilt the filter so that the optical path of the input optical signal passing through the filter moves toward the upper left of the sensor according to the first tilt sequence.
  • the controller CLO may tilt the filter so that the optical path of the input optical signal passing through the filter moves toward the upper right of the sensor according to the second tilt sequence.
  • the controller CLO may tilt the filter so that the optical path of the input optical signal passing through the filter moves toward the lower right of the image sensor according to the third tilt sequence.
  • the controller CLO may tilt the filter so that the optical path of the input light signal passing through the filter moves toward the lower left of the image sensor according to the fourth tilt sequence.
  • the line segment formed by the upper left vertex and the center of the filter forms a positive tilting angle with the reference plane that is the plane of the IR filter before tilting
  • the line segment formed by the lower right vertex and the center of the filter is the reference plane according to the first tilt sequence.
  • the filter can be tilted to achieve a negative tilt angle with
  • the line segment formed by the upper right vertex and the center of the filter forms a positive tilting angle with the reference plane, which is the face of the filter before tilting
  • the line segment formed by the lower left vertex and the center of the filter is the reference plane and the second tilt sequence.
  • the filter can be tilted to achieve a negative tilt angle.
  • the line segment formed by the lower right vertex and the center of the filter forms a positive tilting angle with the reference plane that is the face of the filter before tilting, and the line segment formed by the upper left vertex and the center of the filter is the reference plane and the The filter can be tilted to achieve a negative tilt angle.
  • the line segment formed by the lower left vertex and the center of the filter forms a positive tilting angle with the reference plane that is the face of the filter before tilting, and the line segment formed by the upper right vertex and the center of the filter is the reference plane and the The filter can be tilted to achieve a negative tilt angle.
  • the controller CLO may tilt the filter such that any one of combinations in which the first to fourth tilt sequences are sequentially performed is repeated.
  • the controller CLO may tilt the filter by repeating a predetermined rule having an order of [first tilt sequence -> second tilt sequence -> third tilt sequence -> fourth tilt sequence].
  • the controller CLO may tilt the filter by repeating a predetermined rule having an order of [second tilt sequence -> third tilt sequence -> fourth tilt sequence -> first tilt sequence].
  • the controller CLO may tilt the filter by repeating a predetermined rule having an order of [first tilt sequence -> third tilt sequence -> second tilt sequence -> fourth tilt sequence].
  • the controller CLO may include a tilt controller TC and a tilt driver TD.
  • the control unit CLO may include the tilt actuator TA, but will be described as separate components hereinafter.
  • the tilt actuator TA is included in the light receiving unit 2 and may be driven by the above-described coil unit and magnet unit. A detailed description thereof will be given later.
  • the tilt controller TC may generate a control signal for controlling driving of the tilt driver TD.
  • the tilt controller TC may be a microcontroller unit (MCU) capable of generating a control signal, but is not limited thereto.
  • the tilt controller TC may input the generated control signal to the tilt driver TD.
  • the tilt controller TC may transmit/receive a control signal to and from the tilt driver TD through an I2C (Inter-Integrated Circuit) communication method.
  • I2C Inter-Integrated Circuit
  • the tilt controller TC may be a master mode device, and the tilt driver TD may be a slave mode device.
  • the tilt controller TC in the master mode may transmit a control signal to the tilt driver TD in the slave mode.
  • the tilt controller TC may be connected to a serial clock (SCL) communication line and a serial data (SDA) communication line, respectively.
  • the tilt controller TC communicates with the tilt driver TD through the I2C method as an example, but is not limited thereto.
  • the tilt controller TC may control on/off of the tilt driver TD through a control signal. That is, the control signal may include information for controlling the operation start and operation stop of the tilt driver TD.
  • the tilt controller TC may control the voltage level of the output signal of the tilt driver TD through the control signal. That is, the control signal may include information capable of controlling the voltage level of the output signal of the tilt driver TD.
  • the tilt controller TC may control the delay time through a control signal. That is, the control signal may include control information on the delay time.
  • the delay time may mean an interval between a time point at which a specific waveform of the trigger signal is generated and a time point at which a specific waveform of the output signal is generated.
  • the tilt controller TC may control the frame time through a control signal. That is, the control signal may include control information for the frame time.
  • the frame time may mean a time taken for the camera device to generate one image frame, and may be a period in which a specific waveform is generated from a trigger signal.
  • the tilt controller TC may be disposed outside the camera module as shown in FIG. 55A .
  • the tilt controller TC when the camera module is installed in the mobile terminal, the tilt controller TC may be disposed in the mobile terminal.
  • the control unit CLO included in the camera module may include a tilt driver TD.
  • the tilt controller TC may be included in the controller CLO as shown in (b) of FIG. 55 .
  • the tilt controller TC may be disposed in one space of the camera module.
  • the controller CLO included in the camera module may include a tilt driver TD and a tilt controller TC.
  • the tilt driver TD may generate an output signal synchronized with the exposure period of the above-described sensor based on a trigger signal input from a sensor (eg, an image sensor).
  • a sensor eg, an image sensor
  • the tilt driver TD may receive a voltage from the camera module.
  • the tilt driver TD may receive the first voltage and the second voltage branched from the voltage supplied from the camera module.
  • the controller CLO may further include an inductor as a branching element to branch the voltage input from the power source of the camera module into a first voltage and a second voltage.
  • the branched first voltage and the second voltage may be respectively input to the tilt driver TD.
  • the first voltage may be a voltage used to drive the tilting and tilt driver TD
  • the second voltage may be a voltage used to drive the tilt actuator TA.
  • the first voltage and the second voltage may have the same voltage level, and may be a DC voltage of 3.3 [V], but is not limited thereto.
  • the tilt driver TD may include a first power input terminal receiving a first voltage and a second power input terminal receiving a second voltage.
  • the tilt driver TD may receive a trigger signal.
  • the trigger signal may be output from a sensor, that is, an image sensor.
  • the trigger signal may be a square wave signal of a certain period.
  • the tilt driver TD may use a trigger signal to synchronize the driving period of the tilt actuator TA and the driving period of the sensor.
  • the tilt driver TD may include a terminal receiving a trigger signal.
  • the tilt driver TD may receive a control signal from the tilt controller TC.
  • the tilt driver TD may include a communication connection terminal for communication connection with the tilt driver TD.
  • the communication connection terminal may be composed of two terminals.
  • the tilt driver TD generates an output signal based on a voltage and a trigger signal input from the camera module, and a control signal input from the tilt controller TC. A detailed description of the output signal generation will be described with reference to the drawings below.
  • the tilt driver TD may output an output signal to the tilt actuator TA.
  • the output signal is a signal composed of two channels, and may include a first output signal and a second output signal. Accordingly, the tilt driver TD may include a first output terminal for outputting a first output signal and an output terminal for outputting a second output signal, each terminal of the tilt actuator TA through a signal line can be connected with
  • the output signal may vary depending on the channel. This will be described below based on various embodiments.
  • the tilt actuator TA may tilt the filter in a diagonal direction through an output signal.
  • the tilt actuator TA may include first to fourth driving units, and each driving unit may include one coil and one magnet. That is, the tilt actuator TA may include a magnet part and a coil part. Furthermore, the tilt actuator TA may further include the above-described substrate 3000 and holder 5000 . Accordingly, the filter may be tilted in a diagonal direction or a horizontal direction by receiving the first output signal and the second output signal.
  • the first output signal may be input to the first driver and the third driver.
  • the first output signal may be input to the first coil of the first driving unit and the third coil of the third driving unit.
  • the second output signal may be input to the second driver and the fourth driver.
  • the first output signal may be input to the second coil of the second driving unit and the fourth coil of the fourth driving unit. That is, the tilt actuator TA may tilt the filter in a diagonal direction through an output signal including the first output signal and the second output signal.
  • the tilt actuator TA may apply at least one of the first output signal and the second output signal to the coil unit, and in response to this, in the camera module, the filter may tilt in a diagonal direction or in a horizontal direction. .
  • the 56A illustrates a form in which the first to fourth coils of the tilt actuator TA are disposed on the substrate 3000 .
  • the first to fourth coils may be disposed on the substrate 3000 to be spaced apart from each other by a predetermined distance.
  • the substrate 3000 may be implemented in a form that can be folded between the first coil and the second coil, between the second coil and the third coil, and between the third coil and the fourth coil.
  • both the first output signal and the second output signal may be applied to the camera module to the tilt actuator TA in order to tilt the filter diagonally.
  • the camera module may apply only one of the first output signal and the second output signal within the frame period to the tilt actuator TA in order to horizontally tilt the filter.
  • the first output signal and the second output signal may be applied to the tilt actuator TA without overlapping time. With this configuration, energy efficiency for the output of the signal can be improved.
  • a pad on which the tilt actuator TA is mounted may be disposed on a portion of the printed circuit board 4 where the light receiving unit is disposed.
  • the pad may include a first pad and a second pad disposed at a position facing the first pad.
  • FIG. 56(c) shows a form in which the substrate on which the first to fourth coils shown in FIG. 56(a) are disposed is coupled to the printed circuit board 4 .
  • the substrate on which the first to fourth coils shown in (a) of FIG. 56 are disposed may have a rectangular shape folded at regular intervals and at regular angles.
  • the substrate 3000 on which the rectangular first to fourth coils are disposed may be coupled to the printed circuit board 4 .
  • the first pad and the second pad disposed on the printed circuit board 4 may be coupled to a portion of the substrate on which the first coil and the second coil are disposed. In this case, the substrate and the printed circuit board 4 may be coupled by soldering the first pad and the second pad portion.
  • the first to fourth magnets may be disposed to correspond to the first to fourth coils, respectively.
  • the first output signal X may be input to the first coil and the third coil.
  • a second output signal Y may be input to the second coil and the fourth coil.
  • FIG. 57A is a diagram for explaining the driving sequence of the tilt unit
  • FIG. 57B is a diagram for explaining the output of the driving unit according to FIG. 57A in 1 STEP
  • FIG. 57C is a diagram for explaining the output of the driving unit according to FIG. 57A per frame period is a drawing for
  • 57A illustrates a first output signal and a second output signal generated according to a trigger signal.
  • the first output signal may be input to the first coil and the third coil, and the second output signal may be input to the second coil and the fourth coil.
  • the trigger signal may be a square wave signal in which a pulse is generated at a constant period.
  • the trigger signal may be generated in response to the above-described driving of the sensor (exposure period) and driving of the sensor.
  • the pulse interval of the trigger signal that is, the pulse period may be one frame interval.
  • the interval from the rising edge of the pulse to the rising edge of the next pulse in the trigger signal may be one frame interval.
  • the pulse width of the trigger signal may be set to be smaller than one frame interval.
  • the current levels of the first output signal and the second output signal may be 0 level.
  • the 0 level may mean a current of 0 [A], but is not limited thereto.
  • the current level of the first output signal and the second output signal is controlled after a delay time (Delay T) set based on the falling edge of the pulse of the trigger signal passes.
  • Current levels of the first output signal and the second output signal may be controlled for each frame interval.
  • the first output signal and the second output signal may be controlled to have a high level current or a low level current for each frame interval.
  • the high level current may mean a state having a current value greater than the reference level current
  • the low level current may mean a state having a current value lower than the reference level current.
  • a high level may mean a current having a (+) value
  • a low level may mean a current having a (-) value. That is, the reference level may be no current applied.
  • the current level of the output signal is different in successive steps, it may take a predetermined time to increase or decrease the current level.
  • Table 1 below is a table showing the first output signal and the second output signal shown in FIG. 57A.
  • (-) means a low-level current
  • (+) means a high-level current.
  • the low-level current and the high-level current may mean the same magnitude and different directions of current.
  • STEP 1 is a first tilt sequence
  • STEP 2 is a second tilt sequence
  • STEP 3 is a third tilt sequence
  • STEP 4 is a fourth tilt sequence.
  • the driving sequence of the tilt actuator TA starts, the current levels of the first output signal and the second output signal may be controlled after a delay time set at the falling edge of the first pulse passes (STEP 1).
  • the first output signal may be controlled from a current of a reference level to a current of a low level.
  • the second output signal may be controlled from a current of a reference level to a current of a high level. That is, STEP 1 may be controlled such that the first output signal has a low-level current and the second output signal has a high-level current.
  • the first output signal and the second output signal may include a first signal sg1 and a second signal sg2.
  • the second signal sg2 may exist continuously to the first signal sg1 .
  • the first signal sg1 may have a first magnitude A1 or A1'.
  • the second signal sg2 may have a second magnitude A2 or A2'.
  • the second signal sg2 may correspond to the above-described high-level or low-level current.
  • the high-level or low-level current may be a value set to tilt the filter. It should be understood that since the tilt degree of the filter is changed according to the size of the sensor, the size of the pixels in the sensor, the type of the lens module, and the like, the high-level or low-level current may also be changed accordingly.
  • the first magnitude A1 or A1' of the first signal sg1 may be a value between a reference level (eg, 0 Level) and the second magnitude A2 or A2' of the second signal sg2. Accordingly, the second magnitude A2 or A2' of the second signal sg2 may be greater than the first magnitude A1 or A1' of the first signal sg1.
  • the first magnitude A1 or A1' of the first signal sg1 may be 0.3 to 0.7 times the second magnitude A2 or A2' of the second signal sg2.
  • the first magnitude A1 or A1' of the first signal sg1 may be set to 0.5 times the second magnitude A2 or A2' of the second signal sg2.
  • the first signal sg1 may be maintained during the first period TA.
  • the first period may be 0.6 times to 0.9 times the natural vibration period of the tilt actuator. When the first period is less than 0.6 times the natural vibration period of the tilt actuator, vibration removal by the second signal may not be easily performed. In addition, when the first period is greater than 0.9 times the natural vibration period of the tilt actuator, there is a limit to the reduction of the response time.
  • the natural frequency period is the reciprocal of the natural frequency, and in this case, the natural frequency may be the natural frequency of an actual tilt actuator in consideration of damping or the damping natural frequency of a spring-damper system.
  • the tilt actuator since the first output signal and the second output signal have the first signal sg1 continuous before the second signal sg2, an improved time response may be provided compared to the threshold response. That is, the tilt actuator according to another embodiment includes an elastic member. And, since the tilt actuator has a mechanical drive called tilt, it may be a system in which the motion of a vibration system in which mechanical drive and elasticity are combined is finally performed.
  • the output signal may be an input applied for the motion, and may be an output as a displacement generated according to the input of the positions of the first to fourth driving units described above.
  • the tilt actuator may have a rising time, an overshoot, and a setting time having a response time corresponding to the output signal.
  • the tilt actuator according to another embodiment reduces overshoot and settling time by having the output signal have the first signal sg1 and the second signal sg2, thereby facilitating generation of a frame image by tilting.
  • the first signal sg1 and the second signal sg2 of the tilt actuator may provide an output corresponding to a response according to a critical attenuation of a response time.
  • the first signal sg1 and the second signal sg2 of the tilt actuator may provide movement of the first to fourth drivers corresponding to the threshold attenuation.
  • the first signal may be output when the second signal of the other output signal is maintained or turned off (non-applied).
  • the first signal of the second output signal may be output when the second signal of the first output signal is maintained at a high or low level or is changed to a reference level.
  • FIG. 57B (a) is a graph illustrating the movement of the driver during one frame period when the output signal consists only of the second signal, and (b) of FIG. 57B illustrates the movement of the driver in the case of an output signal according to another embodiment It is a graph showing during one frame period.
  • V voltage
  • the tilt actuator may quickly tilt the filter to a desired angle, and reduce the generation of vibration caused by the tilt, thereby improving the resolution of an image by the SR technique, which will be described later.
  • FIG. 57c (a) is a graph illustrating the movement of the driving unit during a plurality of frame periods when the output signal consists only of the second signal
  • FIG. 57b (b) is a graph illustrating the movement of the driving unit in case of an output signal according to another embodiment It is a graph showing for a plurality of frame periods.
  • the output signal includes the first signal sg1 and the second signal sg2 rather than the case where the output signal consists only of the second signal sg2, it is over even during a plurality of frame periods. It can be seen that the chute is small and the magnitude of oscillation is small. In addition, it can be seen that the settling time is reduced as described above.
  • the current levels of the first output signal and the second output signal may be controlled (STEP 2).
  • the first output signal may be controlled from a low-level current controlled in STEP 1 to a high-level current.
  • the second output signal may be controlled to maintain a high level of current controlled in STEP 1. That is, STEP 2 may be controlled such that the first output signal has a high-level current and the second output signal has a high-level current.
  • the first output signal may have the first signal after the delay time set at the falling edge of the second pulse passes, and the second signal having a high level after the first signal.
  • the current levels of the first output signal and the second output signal may be controlled (STEP 3).
  • the first output signal may be controlled to maintain a high level current controlled in STEP 2 .
  • the second output signal may be controlled from a high-level current controlled in STEP 2 to a low-level current. That is, STEP 3 may be controlled such that the first output signal has a high-level current and the second output signal has a low-level current.
  • the second output signal may have the first signal after a delay time set at the falling edge of the third pulse passes, and may have a second signal having a low level after the first signal.
  • the current levels of the first output signal and the second output signal may be controlled (STEP 4).
  • the first output signal may be controlled from a high-level current controlled in STEP 3 to a low-level current.
  • the second output signal may be controlled to maintain a low level current controlled in STEP 3 . That is, STEP 4 may be controlled such that the first output signal has a low-level current and the second output signal has a low-level current.
  • the first output signal may have the first signal after a delay time set at the falling edge of the fourth pulse passes, and may have the second signal having a low level after the first signal.
  • STEP 1 to STEP 4 operate as one cycle, and may be continuously repeated while the tilt actuator (TA) driving sequence operates.
  • TA tilt actuator
  • Table 2 below shows a modified example of the driving sequence of the tilt actuator TA.
  • the current levels for each STEP of the first output signal and the second output signal described with reference to Table 1 and FIG. 57A are an example and may be set in other combinations as in a modified example.
  • current levels for each step of the first output signal and the second output signal may be set by a control signal of the tilt controller TC.
  • the contents described in Table 1 above with respect to the tilt actuator may be equally applied.
  • the control of the output signal is reduced. The power consumption is reduced and the vibration of the driving unit (first and third driving units) is further reduced, so that the tilt of the filter can be performed more accurately.
  • 58 illustrates a light path movement process according to another first embodiment.
  • 59 is a conceptual diagram conceptually sequentially illustrating a plurality of images acquired for a super resolution (SR) technique in a camera module according to another first embodiment.
  • 60 is a diagram sequentially illustrating images of first to fourth frames acquired for the SR technique in the camera module according to another first embodiment.
  • SR super resolution
  • the filter may be maintained in a non-tilted state.
  • 59(a) shows the optical path of the input light in STEP 0.
  • a dot represents the center of a pixel with respect to the input light.
  • the center of the pixel with respect to the input light and the center of the pixel with respect to the sensor may coincide with each other. That is, the optical path of the light passing through the filter does not change.
  • the tilt actuator can tilt the filter according to STEP 1. Due to the tilting according to STEP 1, the upper left portion of the filter may rise with respect to the reference plane and the lower right portion may descend.
  • the reference plane may mean a plane on which the filter is disposed in STEP 0. Rising may mean moving away from the sensor, and falling may mean getting closer to the sensor.
  • 59(b) shows the optical path of the input light in STEP 1.
  • the filter is tilted according to STEP 1
  • the light path of the input light may move 0.25 pixels to the left and 0.25 pixels to the upper side from the reference light path.
  • the camera module according to another embodiment of the present invention may acquire the first frame image from the optical path moved according to STEP 1.
  • the tilt actuator may tilt the filter according to STEP 2. Due to the tilting according to STEP 2, the upper-right portion of the filter may rise with respect to the reference plane and the lower-left portion may descend. The corners of the upper left part and the lower right part of the filter raised or lowered in STEP 1 may be moved to the reference position. 59(c) shows the optical path of the input light in STEP 2 .
  • the optical path of the input light may move 0.25 pixels to the right and 0.25 pixels upward from the reference optical path.
  • the camera module according to another embodiment of the present invention may acquire the second frame image from the optical path moved according to STEP 2 .
  • the tilt actuator may tilt the filter according to STEP 3. Due to the tilting according to STEP 3, the upper-left portion of the filter may be lowered with respect to the reference plane and the lower-right portion of the filter may be raised. The corners of the upper right part and the lower left part of the filter raised or lowered in STEP 2 may be moved to the reference position. 59D shows the optical path of the input light in STEP 3 .
  • the optical path of the input light may move 0.25 pixels to the right and 0.25 pixels downward from the reference optical path.
  • the camera module according to another embodiment of the present invention may acquire the third frame image from the optical path moved according to STEP 3 .
  • the tilt actuator may tilt the filter according to STEP 4. Due to the tilting according to STEP 4, the upper-right portion of the filter may rise with respect to the reference plane and the lower-left portion may descend. The corners of the upper left part and the lower right part of the filter raised or lowered in STEP 3 may be moved to the reference position. 59(e) shows the optical path of the input light in STEP 4; When the filter is tilted according to STEP 4, the optical path of the input light may move 0.25 pixels to the left and 0.25 pixels to the bottom from the reference optical path. In STEP 2, when the optical path of the input light is viewed as a reference, the optical path of the input light may shift 0.5 pixels to the left. Then, the camera module according to another embodiment of the present invention may acquire the fourth frame image from the optical path moved according to STEP 4 .
  • the tilt actuator has been described as a VCM structure in which a magnet and a coil are applied, but the present invention is not limited thereto.
  • the present invention can also be implemented through a variable lens such as a liquid lens with a liquid lens, an optical member that controls the optical path by controlling the thin film and the liquid.
  • the first output signal and the second output signal may be generated by a tilt driver that is driven separately.
  • the tilt driver may include a plurality of drivers.
  • the tilt driver includes a first tilt driver and a second tilt driver, the first tilt driver generates a first output signal and transmits it to the tilt actuator, and the second tilt driver generates a second output signal and transmits it to the tilt actuator can do.
  • the first tilt driver and the second tilt driver individually generate output signals to reduce power consumption of the tilt driver when at least one of the first output signal or the second output signal is not generated (eg, 0 level). can do. This can be equally applied to other embodiments.
  • 61 is a diagram for describing an SR video.
  • each of the first to fourth frame images is a 4X4 frame image, that is, an image composed of 16 pixels.
  • one SR image may be generated by disposing pixel values of four frame images corresponding to the moving direction of the optical path. That is, the first to fourth frame images having a size of 4X4 (16 pixels) may be one SR image having a size of 8X8 (64 pixels).
  • the upper left pixel of the first to fourth frames is pixel 1 and the lower right pixel is pixel 16
  • the upper left pixel of the SR image is pixel 1
  • the lower right pixel is pixel 64
  • Pixel 1 of the first frame image moved 0.25 pixels to the left and 0.25 pixels to the top in the reference optical path may be arranged as the value of pixel 1 of the SR image.
  • the second pixel of the first frame image may be arranged as the value of the third pixel of the SR image.
  • Pixel 3 of the first frame image may be arranged as a value of pixel 5 of the SR image.
  • the fourth pixel of the first frame image may be arranged as the value of the seventh pixel of the SR image.
  • Pixel 1 of the second frame image moved by 0.25 pixels to the right and 0.25 pixels upward from the reference light path may be arranged as the value of pixel 2 of the SR image.
  • the second pixel of the second frame image may be arranged as the value of the fourth pixel of the SR image.
  • Pixel 3 of the second frame image may be arranged as a value of pixel 6 of the SR image.
  • the fourth pixel of the second frame image may be arranged as the value of the eighth pixel of the SR image.
  • Pixel 1 of the third frame image moved 0.25 pixels to the right and 0.25 pixels downward from the reference optical path may be arranged as a value of pixel 9 of the SR image.
  • Pixel 2 of the third frame image may be arranged as a value of pixel 11 of the SR image.
  • Pixel 3 of the third frame image may be arranged as a value of pixel 13 of the SR image.
  • Pixel 4 of the third frame image may be arranged as a value of pixel 15 of the SR image.
  • Pixel 1 of the fourth frame image shifted by 0.25 pixels to the left and 0.25 pixels downward from the reference optical path may be arranged as a value of pixel 10 of the SR image.
  • Pixel 2 of the fourth frame image may be arranged as a value of pixel 12 of the SR image.
  • Pixel 3 of the fourth frame image may be arranged as a value of pixel 14 of the SR image.
  • Pixel 4 of the fourth frame image may be arranged as a value of pixel 16 of the SR image.
  • pixel values of the first to fourth frame images are arranged to generate one SR image. That is, one image is acquired through four images. Therefore, in the case of an image of 100 FPS, it may be an SR image of 25 FPS.
  • the image synthesizing unit may correct the SR image by removing the outermost pixel of the SR image, that is, a pixel value shaded in FIG. 61 .
  • the pixel values disposed at the outermost part of the SR image may include data irrelevant to information to be captured during the tilting process.
  • the image synthesizing unit may remove the shadow of the outermost pixel in order to remove data irrelevant to information to be photographed.
  • 62 is a view for explaining a driving sequence of a tilt unit according to another second exemplary embodiment.
  • FIG. 62 shows a first output signal and a second output signal generated according to a trigger signal.
  • the first output signal may be input to the first coil and the third coil
  • the second output signal may be input to the second coil and the fourth coil.
  • the trigger signal may be a square wave signal in which a pulse is generated at a constant period.
  • the trigger signal may be generated in response to the above-described driving of the sensor (exposure period) and driving of the sensor.
  • the pulse interval of the trigger signal that is, the pulse period may be one frame interval.
  • the interval from the rising edge of the pulse to the rising edge of the next pulse in the trigger signal may be one frame interval.
  • the pulse width of the trigger signal may be set to be smaller than one frame interval.
  • the current levels of the first output signal and the second output signal may be 0 level.
  • the 0 level may indicate that no current is applied.
  • a 0 level may mean a current of 0 [A], but is not limited thereto. As for this description, the above contents may be applied in the same way.
  • the first output signal and the second output signal have a current level controlled after the delay time (Delay T) set based on the falling edge of the pulse of the trigger signal passes.
  • Current levels of the first output signal and the second output signal may be controlled for each frame interval.
  • the first output signal and the second output signal may be controlled to have a high level current or a low level current for each frame interval.
  • the high level current may mean a state having a current value greater than the reference level current
  • the low level current may mean a state having a current value lower than the reference level current.
  • a high level may mean a current having a (+) value
  • a low level may mean a current having a (-) value.
  • Table 3 below is a table showing the first output signal and the second output signal shown in FIG. 62 .
  • (-) means a low-level current
  • (+) means a high-level current.
  • 0 Level may be a reference level.
  • the low-level current and the high-level current may mean the same magnitude and different directions of current.
  • STEP 1 is a first tilt sequence
  • STEP 2 is a second tilt sequence
  • STEP 3 is a third tilt sequence
  • STEP 4 is a fourth tilt sequence.
  • the first output signal may be controlled from a reference level of current to a high level of current.
  • the second output signal may be controlled to a reference level. That is, STEP 1 may be controlled such that the first output signal has a high level current and the second output signal has a reference level current.
  • the current levels of the first output signal and the second output signal may be controlled (STEP 2).
  • the first output signal may be controlled from the high level current controlled in STEP 1 to the reference level current.
  • the second output signal may be controlled from the reference level current controlled in STEP 1 to the high level current. That is, STEP 2 may be controlled such that the first output signal has a current of a reference level and the second output signal has a current of a high level.
  • the second output signal may have the first signal after a delay time set at the falling edge of the second pulse has passed, and may have the second signal having a high level after the first signal.
  • the first output signal and the second output signal may include the first signal sg1 and the second signal sg2.
  • the second signal sg2 may exist continuously to the first signal sg1 .
  • the first signal sg1 may have a first magnitude.
  • the second signal sg2 may have a second magnitude.
  • the second signal sg2 may correspond to the above-described high-level or low-level current.
  • the high-level or low-level current may be a value set to tilt the filter. It should be understood that since the tilt degree of the filter is changed according to the size of the sensor, the size of the pixels in the sensor, the type of the lens module, and the like, the high-level or low-level current may also be changed accordingly.
  • the first level of the first signal sg1 may be between a reference level (eg, 0 Level) and a second level of the second signal sg2.
  • the second magnitude of the second signal sg2 may be greater than the first magnitude of the first signal sg1.
  • the first signal sg1 may be maintained during the first period TA.
  • the first period may be 0.6 times to 0.9 times the natural vibration period of the tilt actuator. When the first period is less than 0.6 times the natural vibration period of the tilt actuator, vibration removal by the second signal may not be easily performed. In addition, when the first period is greater than 0.9 times the natural vibration period of the tilt actuator, there is a limit to the reduction of the response time.
  • the first output signal and the second output signal have the first signal sg1 continuous before the second signal sg2, thereby providing an improved time response than the threshold response.
  • the tilt actuator according to another embodiment reduces overshoot and settling time by having the output signal have the first signal sg1 and the second signal sg2, thereby facilitating generation of a frame image by tilt .
  • the current levels of the first output signal and the second output signal may be controlled (STEP 3).
  • the first output signal may be controlled from the reference level current controlled in STEP 2 to the low level current.
  • the second output signal may be controlled from the high level current controlled in STEP 2 to the reference level current. That is, STEP 3 may be controlled such that the first output signal has a low level current and the second output signal has a reference level current.
  • the first output signal may have the first signal after a delay time set at the falling edge of the third pulse passes, and may have a second signal having a low level after the first signal.
  • the current levels of the first output signal and the second output signal may be controlled (STEP 4).
  • the first output signal may be controlled from the low level current controlled in STEP 3 to the reference level current.
  • the second output signal may be controlled from the reference level current controlled in STEP 3 to the low level current. That is, STEP 4 may be controlled such that the first output signal has a current of a reference level and the second output signal has a current of a low level.
  • the second output signal may have the first signal after a delay time set at the falling edge of the fourth pulse passes, and may have a second signal having a low level after the first signal.
  • STEP 1 to STEP 4 operate in one cycle, and may be continuously repeated while the tilt actuator driving sequence is operated.
  • the first output signal may have a 1-1 output signal corresponding to the first trigger signal and a 1-2 output signal corresponding to the third trigger signal. That is, the 1-1 output signal is the first output signal in STEP1, and the 1-2 output signal is the first output signal in STEP3.
  • the second output signal may have a 2-1 th output signal corresponding to the second trigger signal and a 2-2 th output signal corresponding to the fourth trigger signal. That is, the 2-1 output signal is the second output signal in STEP2, and the 2-2 output signal is the first output signal in STEP4.
  • the 1-1 output signal may have opposite directions to the 1-2 output signal.
  • the 2-1 th output signal may have opposite directions to the 2-2 th output signal.
  • the 2-1 output signal is applied between the 1-1 output signal and the 1-2 output signal
  • the 1-2 output signal is applied between the 2-1 output signal and the 2-2 output signal can be
  • the first output signal and the second output signal are reduced to the reference voltage before the high or low level current is applied, so that the residual current in the coil by the first output signal and the second output signal affects the next sequence.
  • the current remaining in the tilt actuator is attenuated by the 1-1 output signal by the section in which the reference level current is maintained, so that the 1-2 output signal
  • the initial current value may be close to zero.
  • the driving of the tilt driver is stopped in a section in which the current of the reference level is maintained between the 1-1 output signal and the 1-2 output signal, so that the power consumption of the tilt actuator is reduced. can be reduced.
  • FIG. 63 is a view for explaining tilting control of a filter by driving a tilt unit according to a second embodiment
  • FIG. 64 is a view showing a process of moving an optical path according to a second embodiment
  • FIG. It is a conceptual diagram conceptually sequentially illustrating a plurality of images acquired for a super resolution (SR) technique in a camera module according to an embodiment.
  • SR super resolution
  • the camera module may acquire a plurality of images for the SR technique by horizontal tilting in addition to the aforementioned diagonal tilting.
  • the optical member (or filter) may be maintained in a non-tilted state.
  • 65 (a) shows the optical path of the input light in STEP 0.
  • a dot represents the center of a pixel with respect to the input light.
  • the center of the pixel with respect to the input light and the center of the pixel with respect to the sensor may coincide with each other. That is, it means that the optical path of the light passing through the optical member (or filter) does not change.
  • the tilt actuator may tilt the optical member (or filter) in the horizontal direction according to STEP 1 . Due to the tilting according to STEP 1, the left part of the optical member (or filter) may be lowered with respect to the reference plane and the right part may be raised.
  • the reference plane may mean a plane on which the optical member (or filter) is disposed in STEP 0. Rising may mean moving away from the sensor, and falling may mean getting closer to the sensor.
  • 65 (b) shows the optical path of the input light in STEP 1.
  • the optical path of the input light may move to the right by 0.25 pixels from the reference optical path.
  • the movement of the pixel may be changed according to the SR technique or according to the sensor. That is, it should be understood that the movement distance of the pixel relative to the reference light path may be changed by the driving sequence of the tilt actuator.
  • a first frame image may be acquired from the optical path moved according to STEP 1.
  • the tilt actuator may tilt the optical member (or filter) according to STEP 2 . Due to the tilting according to STEP 2, the upper part of the optical member (or filter) may be raised with respect to the reference plane and the lower part may be lowered.
  • the optical path of the input light shows the optical path of the input light in STEP 2 .
  • the optical member or filter
  • the optical path of the input light may move upward by 0.25 pixels from the reference optical path.
  • the camera module may acquire the second frame image from the optical path moved according to STEP 2 .
  • the tilt actuator may tilt the optical member (or filter) according to STEP 3 . Due to the tilting according to STEP 3, the left side of the optical member (or filter) may rise with respect to the reference plane and the right side may descend. 65D shows the optical path of the input light in STEP 3 .
  • the optical path of the input light may move to the left by 0.25 pixels from the reference optical path.
  • the camera module according to another embodiment of the present invention may acquire the third frame image from the optical path moved according to STEP 3 .
  • the tilt actuator may tilt the optical member (or filter) according to STEP 4 . Due to the tilting according to STEP 4, the lower portion of the optical member (or the filter) may be raised with respect to the reference plane and the upper portion may be lowered.
  • 65E shows the optical path of the input light in STEP 4 .
  • the optical path of the input light may move downward by 0.25 pixels from the reference optical path.
  • the camera module according to another embodiment of the present invention may acquire the fourth frame image from the optical path moved according to STEP 4 .
  • 66 is a view for explaining a tilt actuator according to another embodiment.
  • FIG. 66( a ) shows a form in which the first to fourth coils of the tilt actuator are disposed on the substrate 3000 .
  • the first to fourth coils may be disposed on the substrate 3000 to be spaced apart from each other by a predetermined distance.
  • the substrate 3000 may be implemented in a form that can be folded between the first coil and the second coil, between the second coil and the third coil, and between the third coil and the fourth coil.
  • currents I1 to I4 may be individually applied to the first to fourth coils.
  • FIGS. 66(b) and 66(c) the contents described with reference to FIG. 56 may be applied in the same manner except for the contents described below.
  • a third output signal X1 and a fourth output signal X2 for controlling the tilt in the X-axis direction may be input to the first coil and the third coil, respectively.
  • a fifth output signal Y1 and a sixth output signal Y2 for controlling the tilt in the Y-axis direction may be input to the second coil and the fourth coil. It will be described below on the basis of Ir.
  • 67 is a view for explaining a driving sequence of a tilt unit according to another third exemplary embodiment.
  • the third output signal and the fourth output signal may be input to the first coil and the third coil, respectively, and the fifth output signal and the sixth output signal may be input to the second coil and the fourth coil, respectively.
  • the trigger signal may be a square wave signal in which a pulse is generated at a constant period.
  • the trigger signal may be generated in response to the above-described driving of the sensor (exposure period) and driving of the sensor.
  • the pulse interval of the trigger signal that is, the pulse period may be one frame interval.
  • the interval from the rising edge of the pulse to the rising edge of the next pulse in the trigger signal may be one frame interval.
  • the pulse width of the trigger signal may be set to be smaller than one frame interval.
  • the current levels of the third output signal to the sixth output signal may be 0 level.
  • the 0 level may mean a current of 0 [A], but is not limited thereto.
  • the current level of the third output signal to the sixth output signal is controlled after the delay time (Delay T) set based on the falling edge of the pulse of the trigger signal passes.
  • Current levels of the third to sixth output signals may be controlled for each frame interval.
  • the third to sixth output signals may be controlled to have a high level current or a low level current for each frame interval.
  • the high level current may mean a state having a current value greater than the reference level current
  • the low level current may mean a state having a current value lower than the reference level current.
  • a high level may mean a current having a (+) value
  • a low level may mean a current having a (-) value.
  • Table 4 below is a table showing the third output signal to the sixth output signal shown in FIG. 67 .
  • STEP third output signal (X1) fourth output signal (X2) 5th output signal Y1 6th output signal (Y2) One (-) (+) (+) (-) 2 (+) (-) (+) (-) 3 (+) (-) (-) (+) 4 (-) (+) (-) (+)
  • (-) means a low-level current
  • (+) means a high-level current.
  • the low-level current and the high-level current may mean the same magnitude and different directions of current.
  • STEP 1 is a first tilt sequence
  • STEP 2 is a second tilt sequence
  • STEP 3 is a third tilt sequence
  • STEP 4 is a fourth tilt sequence.
  • the driving sequence of the tilt actuator is started, the current levels of the third to sixth output signals may be controlled after a delay time set at the falling edge of the first pulse has elapsed (STEP 1).
  • the third output signal may be controlled from a current to a low level current.
  • the fourth output signal may be controlled to a high level current.
  • the fifth output signal may be controlled with a high level current.
  • the sixth output signal may be controlled with a low-level current.
  • Each of the third to sixth output signals may include a first signal sg1 and a second signal sg2.
  • the second signal sg2 may exist continuously to the first signal sg1 .
  • the descriptions of the first signal and the second signal may be equally applied. Accordingly, the tilt actuator according to another embodiment reduces overshoot and correction time by having the output signal have the first signal sg1 and the second signal sg2, thereby facilitating generation of a frame image by tilt .
  • the third output signal to the sixth output signal current level may be controlled (STEP 2).
  • the third output signal may be controlled from a current to a high level of current.
  • the fourth output signal may be controlled with a low level current.
  • the fifth output signal may be controlled with a high level current.
  • the sixth output signal may be controlled with a low-level current.
  • the third output signal and the fourth output signal may have the first signal after the delay time set at the falling edge of the second pulse passes, and the second signal having a high level after the first signal.
  • the current levels of the third to sixth output signals may be controlled (STEP 3).
  • the third output signal may be controlled from a current to a high level of current.
  • the fourth output signal may be controlled with a low level current.
  • the fifth output signal may be controlled with a low level current.
  • the sixth output signal may be controlled to a high level current.
  • the fifth output signal and the sixth output signal may have the first signal after the delay time set at the falling edge of the third pulse has passed, and the second signal having a low level after the first signal.
  • the current levels of the third to sixth output signals may be controlled (STEP 4).
  • the third output signal may be controlled from a current to a low level current.
  • the fourth output signal may be controlled to a high level current.
  • the fifth output signal may be controlled with a low level current.
  • the sixth output signal may be controlled to a high level current.
  • the third output signal and the fourth output signal may have a first signal after a delay time set at the falling edge of the fourth pulse passes, and a second signal having a low level after the first signal.
  • STEP 1 to STEP 4 operate in one cycle, and may be continuously repeated while the tilt actuator driving sequence is operated.
  • a plurality of images acquired for the SR technique, first to second The same content for the image of 4 frames may be applied.
  • 68 is a diagram for describing a driving sequence of a tilt unit according to another fourth embodiment.
  • the third output signal and the fourth output signal may be input to the first coil and the third coil, respectively, and the fifth output signal and the sixth output signal may be input to the second coil and the fourth coil, respectively.
  • Table 5 below is a table showing the third to sixth output signals shown in FIG. 67 .
  • STEP third output signal (X1) fourth output signal (X2) 5th output signal Y1 6th output signal (Y2) One (+) (-) 0 Level 0 Level 2 0 Level 0 Level (+) (-) 3 (-) (+) 0 Level 0 Level 4 0 Level 0 Level (-) (+)
  • (-) means a low-level current
  • (+) means a high-level current.
  • the low-level current and the high-level current may mean the same magnitude and different directions of current.
  • STEP 1 is a first tilt sequence
  • STEP 2 is a second tilt sequence
  • STEP 3 is a third tilt sequence
  • STEP 4 is a fourth tilt sequence.
  • the driving sequence of the tilt actuator is started, the current levels of the third to sixth output signals may be controlled after a delay time set at the falling edge of the first pulse has elapsed (STEP 1).
  • the third output signal may be controlled from a current to a high level of current.
  • the fourth output signal may be controlled with a low level current.
  • the fifth output signal may be controlled with a reference level of current.
  • the sixth output signal may be controlled with a reference level of current.
  • the third to fourth output signals may include a first signal sg1 and a second signal sg2, respectively.
  • the second signal sg2 may exist continuously to the first signal sg1 .
  • the descriptions of the first signal and the second signal may be equally applied. Accordingly, the tilt actuator according to another embodiment reduces overshoot and correction time by having the output signal have the first signal sg1 and the second signal sg2, thereby facilitating generation of a frame image by tilt .
  • the third output signal to the sixth output signal current level may be controlled (STEP 2).
  • the third output signal may be controlled from current to a reference level of current.
  • the fourth output signal may be controlled with a reference level of current.
  • the fifth output signal may be controlled with a high level current.
  • the sixth output signal may be controlled with a low-level current.
  • the fifth output signal and the sixth output signal may have the first signal after the delay time set at the falling edge of the second pulse passes, and the second signal having a high level after the first signal.
  • the current levels of the third to sixth output signals may be controlled (STEP 3).
  • the third output signal may be controlled from a current to a low level current.
  • the fourth output signal may be controlled to a high level current.
  • the fifth output signal may be controlled with a reference level of current.
  • the sixth output signal may be controlled with a reference level of current.
  • the third output signal and the fourth output signal may have a first signal after a delay time set at the falling edge of the third pulse passes, and a second signal having a low level after the first signal.
  • the current levels of the third to sixth output signals may be controlled (STEP 4).
  • the third output signal may be controlled from current to a reference level of current.
  • the fourth output signal may be controlled with a reference level of current.
  • the fifth output signal may be controlled with a low level current.
  • the sixth output signal may be controlled to a high level current.
  • the fifth output signal and the sixth output signal may have the first signal after the delay time set at the falling edge of the fourth pulse passes, and the second signal having a low level after the first signal.
  • STEP 1 to STEP 4 operate in one cycle, and may be continuously repeated while the tilt actuator driving sequence is operated.
  • the optical path movement process described in the above-described tilt unit or the camera module according to the first exemplary embodiment a plurality of images acquired for the SR technique, first to second The same content for the image of 4 frames may be applied.
  • the above-described contents may be equally applied to other contents.
  • 69 is a view for explaining a driving sequence of a tilt unit according to a modified example.
  • the first output signal and the second output signal may include a first signal sg1 and a second signal sg2.
  • the first output signal and the second output signal may further include a third signal sg3 continuous to the second signal sg2 .
  • the third signal sg3 may be continuous to the second signal sg2 within one frame interval.
  • the tilt actuator since the tilt actuator receives the third signal sg3 after tilting the filter to a desired angle, it may return to the neutral sequence state. Accordingly, even when the tilt actuator receives the first signal sg1 and the second signal sg2 in the next STEP, the current value in the coil of each driving unit may approach 0 immediately before the first signal sg1 is applied. With this configuration, the current remaining in the coil is removed, so that vibration caused by the initial current can be removed. That is, vibration may be reduced when the tilt actuator is driven.
  • 70 is a diagram illustrating an optical device including a camera module according to an embodiment.
  • the optical device includes a front case (fc), a rear case (rc), and a camera module (10) provided in or between the front case (fc) and the rear case (rc). do.
  • the camera module 10 may be the camera module of the above-described embodiment or another embodiment. Accordingly, the optical device may take a stereoscopic image through the camera module 10 that outputs such a three-dimensional depth image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 실시예에 따른 광원; 상기 광원에서 출력되는 광을 면 형태 또는 복수의 점 형태로 변환하여 출력하는 광학부; 및 이미지 센서;를 포함하고, 상기 광원은 주기적으로 온(on)/오프(off)되고, 상기 광학부는 상기 광원이 온(on)될 때 제1 위치에 위치하도록 이동하고, 상기 광학부는 상기 광원이 오프(off)될 때 초기위치로 이동하는 카메라 모듈을 개시한다.

Description

카메라 모듈
실시예는 카메라 모듈에 관한 것이다.
3 차원 콘텐츠는 게임, 문화뿐만 아니라 교육, 제조, 자율주행 등 많은 분야에서 적용되고 있으며, 3차원 콘텐츠를 획득하기 위하여 깊이 정보(Depth Map)가 필요하다. 깊이 정보는 공간 상의 거리를 나타내는 정보이며, 2차원 영상의 한 지점에 대하여 다른 지점의 원근 정보를 나타낸다. 깊이 정보를 획득하는 방법으로, IR(Infrared) 구조광을 객체에 투사하는 방식, 스테레오 카메라를 이용하는 방식, TOF(Time of Flight) 방식 등이 이용되고 있다.
이러한 TOF 방식이나 구조광 방식의 경우 적외선 파장 영역의 빛을 이용하고 있는데, 최근에는 적외선 파장 영역의 특징을 이용하여 생체 인증에 이용하고자 하는 시도가 있다. 예를 들어, 손가락 등에 퍼진 정맥의 모양은 태아 때부터 일생 동안 변하지 않고, 사람마다 다르다고 알려져 있다. 이에 따라, 적외선 광원이 탑재된 카메라 장치를 이용하여 정맥 패턴을 식별할 수 있다. 이를 위하여, 손가락을 촬영한 후, 손가락의 색과 형상을 기반으로 배경을 제거하여 각 손가락을 검출할 수 있으며, 검출된 각 손가락의 색 정보로부터 각 손가락의 정맥 패턴을 추출할 수 있다. 즉, 손가락의 평균 색깔, 손가락에 분포된 정맥의 색깔, 및 손가락에 있는 주름의 색깔은 서로 상이할 수 있다. 예를 들어, 손가락에 분포된 정맥의 색깔은 손가락의 평균 색깔에 비하여 적색이 약할 수 있으며, 손가락에 있는 주름의 색깔은 손가락의 평균 색깔에 비하여 어두울 수 있다. 이러한 특징을 이용하여 픽셀 별로 정맥에 근사한 값을 계산할 수 있으며, 계산한 결과를 이용하여 정맥 패턴을 추출할 수 있다. 그리고, 추출된 각 손가락의 정맥 패턴과 미리 등록된 데이터를 대비하여 개인을 식별할 수 있다.
하지만, 현재 ToF 방식의 경우 한 프레임당 얻을 수 있는 정보, 즉 해상도가 낮은 문제점이 있다.
해상도를 높이기 위해 센서의 화소 수를 높일 수 있으나, 이 경우 카메라 모듈의 부피 및 제조 비용이 크게 증가하는 문제가 있다.
또한, 출력되는 광신호의 패턴을 거리에 따라 변형시키는 경우, 사람의 안구 등을 손상시키는 문제가 존재한다. 또한, 에너지 효율이 저하되는 문제가 존재한다.
본 실시예는 ToF 방식에 사용되어 해상도를 높일 수 있는 카메라 모듈을 제공하고자 한다.
또한, 슈퍼레졸루션(Super Resolution, SR) 기법을 수행 가능한 카메라 모듈을 제공하고자 한다.
또한, 진동이 감소된 카메라 모듈을 제공한다.
실시예는 광신호의 형태를 변형하는 구동부를 포함하는 카메라 장치를 제공하기 위한 것이다.
실시예는 렌즈와 렌즈 모듈의 손상 등의 이상을 용이하게 감지하여 인체 등이 광신호의 에너지에 의해 손상을 입는 것을 방지하는 카메라 모듈을 제공한다.
실시예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.
본 발명의 실시예에 따른 카메라 모듈은 광원; 상기 광원에서 출력되는 광을 면 형태 또는 복수의 점 형태로 변환하여 출력하는 광학부; 및 이미지 센서;를 포함하고, 상기 광원은 주기적으로 온(on)/오프(off)되고, 상기 광학부는 상기 광원이 온(on)될 때 제1 위치에 위치하도록 이동하고, 상기 광학부는 상기 광원이 오프(off)될 때 초기위치로 이동한다.
상기 광학부는 광원이 온(on) 되기 소정의 시간 전에 초기위치에서 제1 위치를 향하여 이동할 수 있다.
상기 광학부가 상기 초기위치에 위치할 때, 상기 광학부는 상기 광을 상기 면 형태와 상기 복수의 점 형태 중 어느 하나로 출력하고, 상기 광학부가 제1 위치에 위치할 때, 상기 광학부는 상기 광을 상기 면 형태와 상기 복수의 점 형태 중 다른 하나로 출력할 수 있다.
상기 광학부는 상기 초기위치와 상기 제1 위치 중 어느 하나의 위치에 있는 경우, 상기 광학부와 상기 광원 간의 거리는 상기 광학부의 후방초점거리와 같을 수 있다.
상기 제1 위치는 제1-A 위치 및 제1-B 위치를 포함하고, 상기 광학부는 상기 제1-A 위치에 위치할 때, 상기 광을 상기 복수의 점 형태로 출력하고, 상기 광학부는 상기 제1-B 위치에 위치할 때, 상기 광을 상기 면 형태로 출력할 수 있다.
상기 광원과 상기 제1-A 위치에서의 상기 광학부 사이의 거리는 상기 광원과 상기 초기위치에서의 상기 광학부 사이의 거리보다 작고, 상기 광원과 상기 제1-B 위치에서의 상기 광학부 사이의 거리는 상기 광원과 상기 초기위치에서의 상기 광학부 사이의 거리보다 클 수 있다.
상기 초기위치와 상기 제1-A 위치 사이의 거리는 상기 초기위치와 상기 제1-B 위치 사이의 거리보다 작을 수 있다.
상기 광원과 상기 제1-A 위치에서의 상기 광학부 사이의 거리는 상기 광원과 초기위치에서의 상기 광학부 사이의 거리보다 크고, 상기 제1-B 위치에서의 상기 광원과 상기 광학부 사이의 거리는 상기 제1-A 위치에서의 상기 광원과 상기 광학부 사이의 거리보다 클 수 있다.
상기 제1-A 위치와 상기 초기위치 사이의 거리는 상기 제1-B 위치와 상기 초기위치 사이의 거리보다 작을 수 있다.
상기 광원과 상기 초기위치에서의 상기 광학부 사이의 거리는 상기 광원과 상기 제1-B 위치에서의 상기 광학부 사이의 거리보다 크고, 상기 제1-B 위치에서의 상기 광원과 상기 광학부 사이의 거리는 상기 제1-A 위치에서의 상기 광원과 상기 광학부 사이의 거리보다 클 수 있다.
상기 광학부를 상하 이동시키는 구동부; 및 상기 광원이 상기 광을 출력하도록 제어하는 광조사 신호와, 상기 광학부의 이동을 위해 상기 구동부로 출력되는 구동신호를 출력하는 제어부;를 더 포함하고, 상기 구동신호는 상기 광조사 신호의 출력 이전에 출력되어 상기 광학부가 상기 광원의 온(on) 상태가 되기 이전에 상기 제1 위치로 이동할 수 있다.
상기 광원의 오프(off) 상태가 된 이후에 상기 광학부가 초기상태로 이동할 수 있다.
상기 광조사 신호는 프레임 주기를 가질 수 있다.
상기 이미지 센서는 노출신호에 따라 노출(exposure)을 수행할 수 있다.
상기 구동신호는 상기 노출신호와 적어도 일부 중첩되고, 상기 구동신호는 상기 노출신호가 오프(off) 된 이후 소정의 시간 이후에 온(on)될 수 있다.
상기 구동신호는 상기 광조사 신호의 온(on) 이전에 온(on)되는 제1 구간, 상기 광조사 신호의 온(on) 구간과 중첩되는 제2 구간을 포함할 수 있다,.
상기 제1 구간은 유휴 구간과 중첩될 수 있다.
상기 제1 구간의 길이는 상기 면 형태 또는 상기 점 형태에 대응하여 조절될 수 있다.
상기 구동신호는 상기 면 형태에 대응하는 극성과 상기 점 형태에 대응하는 극성이 서로 반대일 수 있다.
실시예에 따른 카메라 모듈은 광원; 상기 광원 상에 배치되는 광학부; 및 이미지 센서;를 포함하고, 상기 광원은 광조사 신호에 의해 제어되고, 상기 광학부는 상기 광조사 신호가 온될 때 특정 위치로 위치하도록 이동하고, 상기 광조사 신호가 오프될 때, 초기 위치로 이동한다.
상기 광학부는 구동신호에 의해 이동하고, 상기 광조사 신호는 프레임 주기를 갖고, 상기 구동신호는 상기 광조사 신호의 온(on) 이전에 온(on)되는 제1 구간, 상기 광조사 신호의 온(on) 구간과 중첩되는 제2 구간을 포함할 수 있다.
실시예에 따른 구동 방법은 광원의 온(on)/오프(off)를 제어하는 광조사 신호를 송신하는 단계; 및 상기 광조사 신호에 의해 상기 광원이 온(on)될 때 광학부를 제1 위치로 이동하고, 상기 광원이 오프(off)될 때 초기위치로 이동하는 구동신호를 출력하는 단계;를 포함하고, 상기 광학부는 상기 광원에서 출력되는 광을 면 형태 또는 복수의 점 형태로 변환하여 출력한다.
실시예에 따른 카메라 모듈은 광원; 상기 광원의 출력을 제어하는 광제어부; 상기 광원에서 출력되는 광 경로에 배치되는 광학부; 상기 광학부의 위치를 제어하는 구동제어부; 복수 개의 픽셀을 포함하는 이미지 센서; 및 제어부를 포함하고, 상기 이미지 센서는 상기 픽셀의 노출 주기에 대응하는 트리거 신호를 출력하고, 상기 제어부는 상기 트리거 신호를 수신하여 상기 구동제어부로 구동신호를 출력하고, 상기 구동제어부는 상기 구동신호의 온(on) 또는 오프(off)에 따라 상기 광학부의 위치를 초기위치 또는 제1위치로 이동시키고, 상기 구동신호는 상기 트리거 신호가 오프(off)된 이후에 온(on)되고, 상기 구동신호는 상기 트리거 신호가 오프(off)에서 온(on)된 이후에도 온(on)으로 유지되고, 상기 구동신호는 상기 트리거 신호가 온(on)에서 오프(off)로 변할 때 또는 오프(off)된 이후에 오프(off)된다.
실시예에 따른 카메라 모듈은 발광부; 수광부; 및 제어부를 포함하고, 상기 수광부는 틸트 엑츄에이터 및 상기 틸트 엑츄에이터를 구동하는 코일부과 마그네트부를 포함하고, 상기 마그네트부는 제1 마그네트 및 제2 마그네트를 포함하고, 상기 코일부는 상기 제1 마그네트과 대향하는 제1 코일 및 상기 제2 마그네트과 대향하는 제2 코일을 포함하고, 상기 제어부는 상기 제1 코일에 입력되는 제1 출력 신호 및 상기 제1 출력 신호 및 상기 제2 코일에 입력되는 제2 출력 신호를 출력하고, 상기 제1 출력 신호 및 상기 제2 출력 신호는 상기 틸트 엑츄에이터의 고유진동주기보다 짧은 시간 동안 제1 크기의 제1 신호 및 상기 제1 신호 이후에 상기 제1 크기보다 큰 제2 신호를 포함한다.
상기 제어부는 상기 수광부로부터 트리거 신호를 수신하고, 상기 제1 출력 신호 및 상기 제2 출력 신호는 상기 트리거 신호에 대응하여 상기 제어부로부터 출력될 수 있다.
상기 제1 신호의 주기는 상기 제1 출력 신호 및 상기 제2 출력 신호에서 상기 틸트 엑츄에이터의 고유진동주기의 0.6배 내지 0.9배일 수 있다.
상기 마그네트부는 제3 마그네트 및 제4 마그네트를 포함하고, 상기 제3 마그네트는 상기 제1 마그네트의 반대편에 배치되고, 상기 제4 마그네트는 상기 제2 마그네트의 반대편에 배치되고, 상기 코일부는 상기 제3 마그네트와 대향하는 제3 코일 및 상기 제4 마그네트와 대향하는 제4 코일을 포함할 수 있다.
상기 제1 마그네트와 상기 제1 코일이 상호작용하여 생성되는 힘의 방향은 상기 제2 마그네트와 상기 제2 코일이 상호작용하여 생성되는 힘의 방향과 반대 방향이고, 상기 제3 마그네트와 상기 제3 코일이 상호작용하여 생성되는 힘의 방향은 상기 제4 마그네트와 상기 제4 코일이 상호작용하여 생성되는 힘의 방향과 반대방향일 수 있다.
상기 제1 출력 신호 및 상기 제2 출력 신호는 로우 레벨의 전류, 하이 레벨의 전류 및 기준 레벨의 전류 중 어느 하나가 인가되고, 상기 기준 레벨의 전류는 전류 비인가일 수 있다.
상기 제1 코일과 상기 제3 코일은 코일에 흐르는 전류의 방향이 서로 반대가 되는 역평행(antiparallel) 구조로 배치되고, 상기 제2 코일과 상기 제4 코일은 코일에 흐르는 전류의 방향이 서로 반대가 되는 역평행 구조로 배치될 수 있다.
상기 제3 코일에 상기 제1 출력 신호가 입력되고, 상기 제4 코일에 상기 제2 출력 신호가 입력되고, 상기 트리거 신호는 동일한 프레임 주기를 갖고 순차로 수신되는 제1 트리거 신호 내지 제4 트리거 신호를 포함할 수 있다.
상기 제1 출력 신호는 상기 제1 트리거 신호에 대응하는 제1-1 출력 신호 및 상기 제3 트리거 신호에 대응하는 제1-2 출력 신호;를 포함하고, 상기 제2 출력 신호는 상기 제2 트리거 신호에 대응하는 제2-1 출력 신호 및 상기 제4 트리거 신호에 대응하는 제2-2 출력 신호를 포함하고, 상기 제2-1 출력 신호 및 상기 제2-2 출력 신호는 서로 방향이 반대일 수 있다.
상기 제2-1 출력 신호는 상기 제1-1 출력 신호와 상기 제1-2 출력 신호 사이에 인가되고, 상기 제1-2 출력 신호는 상기 제2-1 출력 신호와 상기 제2-2 출력 신호 사이에 인가되고, 상기 제1-1 출력 신호와 상기 제1-2 출력 신호는 방향이 반대이고, 상기 제2-1 출력 신호와 상기 제2-2 출력 신호는 방향이 반대일 수 있다.
상기 제1 출력 신호 및 상기 제2 출력 신호 중 적어도 하나는 상기 코일부로 인가될 수 있다.
상기 출력 신호는 상기 트리거 신호 대비 소정의 딜레이를 가질 수 있다.
상기 수광부는, 객체에 의해 반사된 반사광 신호가 통과하는 광학부재; 상기 광학부재와 연결된 탄성 부재; 및 상기 반사광 신호를 수신하여 전기 신호를 생성하는 이미지 센서;를 포함하고, 상기 틸트 엑츄에이터는 상기 광학부재를 통과하는 상기 반사광 신호의 경로를 소정의 규칙에 따라 반복하여 이동하도록 상기 광학부재를 틸팅시킬 수 있다.
상기 틸트 엑츄에이터는 상기 광학부재를 통과한 상기 반사광 신호가 상기 이미지 센서 상에서 서로 상이한 위치에 배치되는 제1 내지 제4 틸트 시퀀스로 반복하여 이동할 수 있다.
상기 광학부재는 상기 제1 내지 제4 틸트 시퀀스에서 서로 상이한 대각 방향 및 수평 방향으로 이동할 수 있다.
상기 제1 내지 제4 틸트 시퀀스에 대응하는 이미지를 합성하여 고해상 이미지를 생성하는 이미지 합성부를 더 포함할 수 있다.
상기 광학부재는 상기 이미지 센서에 평행하게 배치된 상태일 때의 상기 반사광 신호의 경로를 기준으로 상기 이미지 센서의 대각 방향 또는 수평 방향 중 어느 하나의 방향으로 이동할 수 있다.
상기 틸트 엑츄에이터는, 상기 제1 내지 제4 틸트 시퀀스가 순차적으로 수행되는 조합 중 어느 하나의 조합이 반복되도록 상기 광학부재를 틸팅시킬 수 있다.
실시예에 따른 카메라 모듈은 발광부; 수광부; 및 제어부를 포함하고, 상기 수광부는 틸트 엑츄에이터 및 상기 엑츄에이터를 구동하는 코일과 마그네트를 포함하고, 상기 마그네트은 제1 마그네트 및 제2 마그네트을 포함하고, 상기 코일은 상기 제1 마그네트과 대향하는 제1 코일 및 상기 제2 마그네트과 대향하는 제2 코일을 포함하고, 상기 제어부는 상기 제1 코일에 입력되는 제1 출력 신호 및 상기 제1 출력 신호 및 상기 제2 코일에 입력되는 제2 출력 신호를 출력하고, 상기 제1 출력 신호 및 상기 제2 출력 신호는 상기 제1 크기의 제1 신호 및 상기 제1 신호 이후에 상기 제1 크기보다 큰 제2 신호를 포함하고, 상기 제2 출력 신호의 제1 신호는, 상기 제1 출력 신호의 제2 신호가 유지 되거나 또는 상기 제1 출력 신호의 제2 신호가 오프 되었을 때 출력된다.
상기 제1 출력 신호 및 상기 제2 출력 신호는 상기 엑츄에이터의 고유진동주기보다 짧은 시간 동안 제1 크기의 제1 신호 및 상기 제1 신호 이후에 상기 제1 크기보다 큰 제2 신호를 포함할 수 있다.
실시예에 따르면, 객체와의 거리, 해상도 등 다양한 변수에 따라 광 또는 광신호의 광패턴을 변경함으로써 다양한 어플리케이션의 요구에 따라 유연하게 구동될 수 있다.
또한, 실시예에 따르면 렌즈와 렌즈 모듈의 손상 등의 이상을 용이하게 감지하여 인체 등이 광신호의 에너지에 의해 손상을 입는 것을 방지할 수 있다.
실시예에 따르면, 소비 전력을 줄일 수 있다.
본 실시예를 통해, 센서의 화소 수를 크게 증가시키지 않고도 높은 해상도로 깊이 정보를 획득할 수 있다.
또한, 본 실시예에 따른 카메라 모듈에서 얻어진 복수의 저해상 영상으로부터 SR 기법을 통해 고해상 영상을 획득할 수 있다.
또한, SR 기법을 수행 시 진동이 감소되어 정확도가 개선된 영상을 제공하는 카메라 모듈을 제작할 수 있다.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은 실시예에 따른 카메라 모듈의 사시도이고,
도 2는 도 1에서 II'로 절단된 단면도이고,
도 3은 실시예에 따른 카메라 모듈의 분해 사시도이고,
도 4는 실시예에 따른 발광부의 하우징을 도시한 도면이고,
도 5는 실시예에 따른 발광부의 제1 광학부 및 제1 렌즈 배럴을 도시한 도면이고,
도 6은 실시예에 따른 발광부의 구동 마그넷부 및 구동 코일부을 도시한 도면이고,
도 7은 실시예에 따른 발광부의 탄성부의 결합을 나타낸 도면이고,
도 8은 실시예에 따른 발광부의 제1 탄성부재를 도시한 도면이고,
도 9는 실시예에 따른 발광부의 제2 탄성부재를 도시한 도면이고,
도 10은 실시예에 따른 발광부의 측면 기판의 일측을 도시한 도면이고,
도 11은 실시예에 따른 발광부의 측면 기판의 타측을 도시한 도면이고,
도 12는 실시예에 따른 카메라 모듈의 베이스를 도시한 도면이고,
도 13은 실시예에 따른 수광부의 제2 광학부 및 제2 렌즈 배럴을 도시한 도면이고,
도 14는 실시예에 따른 카메라 모듈의 커버를 도시한 도면이고,
도 15는 실시예에 따른 발광부에서 제1 광학부 및 제1 렌즈 모듈의 이동을 설명하는 도면이고,
도 16은 제1 광학부 및 제1 렌즈 모듈의 이동에 따른 광신호 형태를 설명하는 도면이고,
도 17은 제1 광학부 및 제1 렌즈 모듈의 이동에 따른 수광부의 이미지의 예를 도시한 도면이고,
도 18는 실시예에 따른 센서에서 전기 신호 생성 과정을 설명하기 위한 도면이고,
도 19은 실시예에 따른 센서를 설명하기 위한 도면이고,
도 20는 실시예에 따른 센서에서 1 프레임을 생성하는 타이밍도이고,
도 21는 다른 실시예에 따른 센서에서 거리 영상을 생성하는 1 프레임 주기의 타이밍도이고
도 22은 도 21에서 프레임 주기 내의 노출 주기 별 전기 신호를 생성하는 타이밍도이고,
도 23은 도 21에서 노출 주기(PL1)에서 타이밍도이고,
도 24은 도 21에서 노출 주기(PL2)에서 타이밍도이고,
도 25는 도 21에서 노출 주기(PL3)에서 타이밍도이고,
도 26은 도 21에서 노출 주기(PL4)에서 타이밍도이고,
도 27a은 실시예에 따른 제어부의 구동을 설명하는 도면이고,
도 27b는 제1 실시예에 따른 광학부의 이동을 설명하는 도면이고,
도 27c는 제2 실시예에 따른 광학부의 이동을 설명하는 도면이고,
도 27d는 제3 실시예에 따른 광학부의 이동을 설명하는 도면이고,
도 27e는 제4 실시예에 따른 광학부의 이동을 설명하는 도면이고,
도 27f는 제5 실시예에 따른 광학부의 이동을 설명하는 도면이고,
도 27g는 실시예에 따른 카메라 모듈의 블록도이고,
도 28은 제1 실시예에 따른 제어부의 구동을 설명하는 도면이고,
도 29는 면 형태 또는 점 형태를 제공하기 위한 구동신호의 조절을 설명하는 도면이고,
도 30은 면 형태 또는 점 형태를 제공하기 위한 구동신호의 제1 예를 설명하는 도면이고,
도 31은 면 형태 또는 점 형태를 제공하기 위한 구동신호의 제2 예를 설명하는 도면이고,
도 32는 제2 실시예에 따른 제어부의 구동을 설명하는 도면이고,
도 33은 제3 실시예에 따른 제어부의 구동을 설명하는 도면이고,
도 34은 다른 실시예에 따른 카메라 모듈의 사시도이고,
도 35는 다른 실시예에 따른 카메라 모듈의 분해사시도이고,
도 36a는 도 34의 AA'에서 바라본 단면도이고,
도 36b는 도 34의 BB'에서 바라본 단면도이고,
도 36c는 도 34의 CC'에서 바라본 단면도이고,
도 36d는 도 34의 DD'에서 바라본 단면도이고,
도37는 다른 실시예에 따른 카메라 모듈의 수광부의 일부 구성의 사시도이고,
도 38는 다른 실시예에 따른 카메라 모듈의 하우징의 사시도이고,
도 39은 다른 실시예에 따른 카메라 모듈의 일부 구성의 사시도이고,
도 40은 다른 실시예에 따른 카메라 모듈의 기판과 코일의 사시도이고,
도 41은 다양한 다른 실시예에 따른 카메라 모듈의 코일과 기판의 결합을 도시한 도면이고,
도 42는 다른 실시예에 따른 카메라 모듈의 홀더, 마그네트 및 광학부재를 도시한 분해사시도이고,
도 43은 다른 실시예에 따른 카메라 모듈의 홀더, 마그네트 및 광학부재를 도시한 분해사시이고,
도 44은 도 43에서 다른 각도의 사시도이고,
도 45는 다른 실시예에 따른 카메라 모듈의 홀더, 마그네트 및 광학부재의 상면도이고,
도 46은 실시예에서 마그네트와 코일 사이의 로렌츠 힘을 설명하기 위한 도면이고,
도 47는 실시예에서 광학부재의 대각방향 틸팅 제어를 설명하기 위한 도면이고,
도 48는 다른 실시예에 따른 탄성부재를 포함하는 카메라 모듈의 일부의 사시도이다.
도 49은 다른 실시예에 따른 탄성부재를 포함하는 카메라 모듈의 일부의 상면도이고,
도 50은 변형예에 따른 다른 실시예에 따른 탄성부재를 포함하는 카메라 모듈의 일부의 도면이고,
도 51는 다른 실시예에 따른 카메라 모듈의 사시도이고,
도 52은 도 51의 EE'에서 바라본 단면도이고,
도 53은 도 51에서 FF'로 절단된 단면도이고,
도 54는 도 51에서 GG'로 절단된 단면도이고,,
도 55는 본 다른 실시예에 따른 틸트부를 설명하기 위한 도면이고,
도 56은 틸트 엑츄에이터를 상세하게 설명하기 위한 도면이고,
도 57a는 제1 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이고,
도 57b는 1 STEP에서 도 57a에 의한 구동부의 출력을 설명하기 위한 도면이고,
도 57c는 프레임 주기 당 도 57a에 의한 구동부의 출력을 설명하기 위한 도면이고,
도 58은 제1 다른 실시예에 따른 광경로 이동 과정을 나타낸 도면이고,
도 59은 제1 다른 실시예에 따른 카메라 모듈에서 슈퍼레졸루션(Super Resolution, SR) 기법을 위해 획득하는 복수의 영상을 개념적으로 순차적으로 도시한 개념도이고,
도 60은 제1 다른 실시예에 따른 카메라 모듈에서 SR 기법을 위해 획득하는 제1 내지 제4프레임의 영상을 순차적으로 도시한 도면이고,
도 61는 SR 영상을 설명하기 위한 도면이고,
도 62은 제2 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이고,
도 63은 제2 다른 실시예에 따른 틸트부의 구동으로 필터의 틸팅 제어를 설명하기 위한 도면이고,
도 64는 제2 다른 실시예에 따른 광경로 이동 과정을 나타낸 도면이고,
도 65은 제2 다른 실시예에 따른 카메라 모듈에서 슈퍼레졸루션(Super Resolution, SR) 기법을 위해 획득하는 복수의 영상을 개념적으로 순차적으로 도시한 개념도이고,
도 66는 다른 다른 실시예에 따른 틸트 엑츄에이터를 설명하기 위한 도면이고,
도 67는 제3 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이고,
도 68은 제4 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이고,
도 69은 변형예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이고,
도 70는 실시예에 따른 카메라 모듈을 포함하는 광학기기를 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
이하에서는 본 실시예에 따른 광학기기를 설명한다.
광학기기는 핸드폰, 휴대폰, 스마트폰(smart phone), 휴대용 스마트 기기, 디지털 카메라, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 및 네비게이션 중 어느 하나를 포함할 수 있다. 다만, 광학기기의 종류가 이에 제한되는 것은 아니며 영상 또는 사진을 촬영하기 위한 어떠한 장치도 광학기기에 포함될 수 있다.
광학기기는 본체를 포함할 수 있다. 본체는 바(bar) 형태일 수 있다. 또는, 본체는 2개 이상의 서브 몸체(sub-body)들이 상대 이동 가능하게 결합하는 슬라이드 타입, 폴더 타입, 스윙(swing) 타입, 스위블(swirl) 타입 등 다양한 구조일 수 있다. 본체는 외관을 이루는 케이스(케이싱, 하우징, 커버)를 포함할 수 있다. 예컨대, 본체는 프론트 케이스와 리어(rear) 케이스를 포함할 수 있다. 프론트 케이스와 리어 케이스의 사이에 형성된 공간에는 광학기기의 각종 전자 부품이 내장될 수 있다.
광학기기는 디스플레이를 포함할 수 있다. 디스플레이는 광학기기의 본체의 일면에 배치될 수 있다. 디스플레이는 영상을 출력할 수 있다. 디스플레이는 카메라에서 촬영된 영상을 출력할 수 있다.
광학기기는 카메라를 포함할 수 있다. 카메라는 ToF(Time of Flight) 카메라 장치를 포함할 수 있다. ToF 카메라 장치는 광학기기의 본체의 전면에 배치될 수 있다. 이 경우, ToF 카메라 장치는 광학기기의 보안인증을 위한 사용자의 얼굴인식, 홍채인식 등 다양한 방식의 생체인식에 사용될 수 있다.
이하에서는 본 실시예에 따른 ToF 카메라 장치의 구성을 도면을 참조하여 설명한다.
도 1은 실시예에 따른 카메라 모듈의 사시도이고, 도 2는 도 1에서 II'로 절단된 단면도이고, 도 3은 실시예에 따른 카메라 모듈의 분해 사시도이다.
도 1 내지 도 3을 참조하면, 실시예에 따른 카메라 모듈(10)은 발광부(1), 수광부(2), 커넥트부(3), 메인 기판(4), 연장 기판(5), 연결 기판(6) 및 커넥터(7)를 포함할 수 있다. 그리고 실시예에 따른 카메라 모듈(10)은 제어부(CT)를 포함할 수 있다. 제어부(CT)는 발광부(1), 수광부(2), 커넥트부(3), 메인 기판(4) 중 어느 하나에 위치할 수 있다. 또한, 제어부(CT)는 후술하는 제어부에 대응하거나 후술하는 제어부에 포함되는 개념일 수 있다. 또한, 본 명세서에서 카메라 모듈은 발광부(1) 및 수광부(2) 중 어느 하나만을 갖는 개념일 수 있다. 또는 카메라 모듈은 발광부(1) 및 수광부(2) 중 어느 하나와 전기적으로 연결된 기판(예로, 메인 기판(4))을 포함하는 개념일 수 있다.
먼저, 발광부(1)는 발광모듈, 발광유닛, 발광어셈블리 또는 발광장치일 수 있다. 발광부(1)는 광 또는 광신호를 생성한 후 객체에 조사할 수 있다. 이하에서, 광 또는 광신호를 혼용하여 사용한다. 이때, 발광부(1)는 펄스파(pulse wave)의 형태나 지속파(continuous wave)의 형태로 광신호를 생성하여 출력할 수 있다. 지속파는 사인파(sinusoid wave)나 사각파(squared wave)의 형태일 수 있다.
그리고 광신호를 펄스파나 지속파 형태로 생성함으로써, 예컨대, ToF 카메라 장치는 발광부(1)로부터 출력된 광신호와 광신호가 객체(O)로부터 반사된 후 ToF 카메라 장치의 수광부(2)로 입력된 입력광 사이의 위상 차를 검출할 수 있다. 본 명세서에서, 출력광은 발광부(1)로부터 출력되어 객체(O)에 입사되는 광신호를 의미하고, 입력광 또는 반사광은 발광부(1)로부터 출력되어 객체(O)에 도달하여 객체(O)로부터 반사된 후 ToF 카메라 장치로 입력되는 광신호를 의미할 수 있다. 또한, 객체(O)의 입장에서 출력광은 입사광이 될 수 있고, 입력광은 반사광이 될 수 있다.
발광부(1)는 생성된 광신호를 소정의 노출주기(integration time) 동안 객체(O)에 조사한다. 여기서, 노출주기란 1개의 프레임 주기를 의미한다. 복수의 프레임을 생성하는 경우, 설정된 노출주기가 반복될 수 있다. 예를 들어, ToF 카메라 장치가 20 FPS로 객체를 촬영하는 경우, 노출주기는 1/20[sec]가 된다. 그리고 100개의 프레임을 생성하는 경우, 노출주기는 100번 반복될 수 있다. 이에 대응하여 광원도 프레임 주기로 출사될 수 있다.
또한, 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 생성할 수 있다. 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 순차적으로 반복하여 생성할 수 있다. 또는, 발광부(1)는 서로 다른 주파수를 가지는 복수의 광신호를 동시에 생성할 수도 있다.
발광부(1)는 광원(LS)을 포함할 수 있다. 광원(LS)은 빛을 생성 또는 출력 또는 조사할 수 있다. 광원(LS)이 생성하는 빛은 파장이 770㎚ 내지 3000㎚인 적외선일 수 있다. 또는 광원(LS)이 생성하는 빛은 파장이 380㎚ 내지 770㎚인 가시광선일 수 있다. 광원(LS)은 광을 생성하여 출력하는 다양한 소자를 모두 포함할 수 있다. 예컨대, 광원(LS)은 발광 다이오드(Light Emitting Diode, LED), 수직 공진 표면 발광 레이저 (VCSEL, Vertical Cavity Surface Emitting Laser)을 포함할 수 있다. 예를 들어, 광원(LS)이 수직 공진 표면 발광 레이저인 경우, 복수 개의 이미터가 광축에 수직한 평면에 가로 또는 세로 방향으로 배치된 형태로 이루어질 수 있다. 나아가, 점 형태로 광이 출력되는 경우, 이러한 점 형태는 이미터가 배열된 형태와 대응할 수 있다. 예컨대, 이미터가 3X3(가로X세로)인 경우, 점 형태의 광도 3X3일 수 있다.
또한, 광원(LS)은 일정한 패턴에 따라 배열된 형태의 복수의 발광 다이오드를 포함할 수 있다. 뿐만 아니라, 광원(LS)은 유기 발광 다이오드(Organic light emitting diode, OLED)나 레이저 다이오드(Laser diode, LD)를 포함할 수 있다.
발광부(1)는 빛을 변조하는 광변조부를 포함할 수 있다. 광원(LS)은 일정 시간 간격으로 점멸(on/off)을 반복하여 펄스파 형태나 지속파 형태의 광신호를 생성할 수 있다. 일정 시간 간격은 광신호의 주파수에 대응할 수 있다. 또한, 광원(LS)의 점멸은 광변조부에 의해 제어될 수 있다.
광변조부는 광원(LS)의 점멸을 제어하여 광원(LS)이 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부는 주파수 변조(frequency modulation)나 펄스 변조(pulse modulation) 등을 통해 광원(LS)이 지속파나 펄스파 형태의 광신호를 생성하도록 제어할 수 있다. 광변조부는 제어부 내에 위치할 수 있다. 이에, 후술하는 바와 같이 제어부는 광변조부를 제어하여 광원에 의한 광신호의 출력을 차단(off 또는 꺼진) 또는 제공(on)할 수 있음을 이해해야 한다.
발광부(1)는 디퓨져(미도시됨)를 포함할 수 있다. 디퓨져(미도시됨)는 디퓨져 렌즈일 수 있다. 디퓨져(미도시됨)는 광원(LS)의 전방에 배치될 수 있다. 광원(LS)으로부터 출사된 광은 디퓨져(미도시됨)를 통과하여 객체(O)에 입사될 수 있다. 디퓨져(미도시됨)는 광원(LS)으로부터 출사되는 광의 경로를 변경할 수 있다. 디퓨져(미도시됨)는 광원(LS)으로부터 출사되는 광을 확산할 수 있다. 디퓨져(미도시됨)는 후술하는 제1 광학부 내에 위치할 수도 있다.
구체적으로, 발광부(1)는 상술한 광원(LS), 하우징(110), 제1 광학부(120), 제1 렌즈 배럴(130), 구동 마그넷부(140)와 구동 코일부(150)를 포함하는 구동부, 탄성부(160), 측면 기판(170), 위치 센서(180)를 포함할 수 있다.
먼저, 하우징(110)은 후술하는 커버(400) 내측에 위치할 수 있다. 하우징(110)은 후술하는 제1 렌즈 배럴(130), 측면 기판(170), 구동 코일부(150), 탄성부(160)와 결합할 수 있다.
하우징(110)은 내부에 개구된 배럴 수용부를 포함할 수 있다. 배럴 수용부에는 상술한 제1 렌즈 배럴(130) 및 구동 코일부(150)가 위치할 수 있다.
제1 광학부(120)는 하우징(110) 내에 위치할 수 있다. 제1 광학부(120)는 후술하는 제1 렌즈 배럴(130)에 의해 홀딩(holding)되고, 제1 렌즈 배럴(130)을 통해 하우징(110)과 결합할 수 있다.
제1 광학부(120)는 복수 개의 광학 요소 또는 렌즈로 이루어질 수 있다. 예컨대, 제1 광학부(120)는 복수 개의 렌즈로 이루어질 수 있다.
또한, 제1 광학부(120)는 콜리메이터 렌즈(collimator lens)를 포함할 수 있다. 예를 들어, 콜리메이터 렌즈는 복수 개의 렌즈로 구성될 수 있으며, 60도 내지 120도의 화각(FoI)을 가질 수 있다. 이러한 콜리메이터 렌즈는 광원에서 출력되는 광의 발산각을 낮춰줄 수 있다. 광원인 수직 공진 표면 발광 레이저(VCESL)의 각 어퍼처의 레이저 발산각이 20도 내지 25도인 경우 콜리메이터 렌즈를 통과한 광의 발산각이 1도 이하일 수 있다.
그리고 제1 광학부(120)는 광원(LS)으로부터 출력된 광신호를 기 설정된 복제 패턴에 따라 복제할 수 있다. 이에, 제1 광학부(120)는 회절광학소자(diffractive optical element, DOE)나 디퓨져 렌즈(diffuser lens)를 포함할 수 있다. 예컨대, 제1 광학부(120)는 마이크로 스케일(micro scale)이나 나노 스케일(nano scale)의 구조를 갖는 광학소자 또는 광학부재 또는 광학 요소를 포함할 수 있다.
광원(LS)으로부터 객체를 향해 출사하는 광신호(출력광)가 제1 렌즈 배럴(130)을 통과할 수 있다. 제1 렌즈 배럴(130)의 광축과 광원(LS)의 광축은 얼라인(align)될 수 있다. 또한, 제1 렌즈 배럴(130)은 하우징(110)과 결합될 수 있다. 그리고 제1 렌즈 배럴(130)은 하우징(110)에 고정될 수 있다. 제1 렌즈 배럴(130)은 복수의 광학 요소로 이루어진 제1 광학부(120)를 홀딩(holding)할 수 있다.
제1 렌즈 배럴(130)은 제1 광학부(120)가 안착하는 렌즈 수용부(131)를 포함할 수 있다. 제1 렌즈 배럴(130)은 후술하는 바와 같이 보이스 코일 모터 등에 의하여 상하 등으로 이동될 수 있다. 즉, 제1 렌즈 배럴(130)은 보이스 코일 모터 등인 엑추에이터(actuator)에 의해 광축 방향을 따라 상하 이동할 수 있다. 이로써, 후술하는 바와 같이 광원에서 발생된 광이 제1 렌즈 배럴(130)을 지나면서 면 형태 또는 점 형태로 바뀔 수 있다. 그리고 제1 렌즈 배럴(130)은 구동 마그넷부가 안착하는 마그넷 안착홈(132)을 포함할 수 있다.
또한, 렌즈 수용부(131)의 측면에는 제1 광학부(120)와의 결합을 위해 나사산 구조가 형성될 수 있다. 이에, 제1 광학부(120)는 후술하는 구동부에 의해 제1 렌즈 배럴(130)과 함께 하우징(110) 내에서 상하 이동할 수 있다. 다만, 이러한 결합 구조에 한정되는 것은 아니다.
또한, 측면 기판(170)은 하우징(110)과 결합할 수 있다. 측면 기판(170)은 하우징(110)의 측면에 위치하는 기판홈(112)에 위치할 수 있다. 또한, 측면 기판(170)은 메인 기판(4)과 전기적으로 연결될 수 있다.
또한, 구동부는 구동 마그넷부(140)와 구동 코일부(150)를 포함할 수 있다.
구동 마그넷부(140)는 복수 개의 마그넷을 포함할 수 있다. 복수 개의 마그넷은 제1 렌즈 배럴(130)의 측면에 위치한 마그넷 안착홈(132)에 위치할 수 있다
구동 마그넷부(140)는 후술하는 구동 코일부(150)와 전자기적 상호작용에 의해 제1 렌즈 배럴(130) 및 제1 광학부(120)를 하우징(110)에 대해 상하 이동할 수 있다. 이에 따라, 하부의 광원(LS)으로부터 제1 광학부(120) 및 제1 렌즈 배럴(130)까지의 이격 거리가 증가 또는 감소될 수 있다. 그리고 상술한 이격 거리에 따라 출력광이 객체에 대해 면 형태(또는 면 광원) 또는 점 형태(또는 점 광원)의 광원 형태를 가질 수 있다.
구동 코일부(150)는 복수 개의 코일을 포함하며, 하우징(110)의 측면에 위치할 수 있다. 구동 코일부(150)는 구동 마그넷부(140)와 대향하여 위치할 수 있다. 이에, 구동 코일부(150)로 전류가 주입되면 구동 코일부(150)와 구동 마그넷부(140) 간의 전자기적 상호 작용(예컨대, 로렌츠의 힘)으로 제1 렌즈 배럴(130)이 이동할 수 있다.
구동 코일부(150)는 하우징(110)의 측면에 형성된 각 코일 안착부(114)에 위치할 수 있다. 구동 코일부(150)는 측면 기판(170)과 전기적으로 연결될 수 있다. 예컨대, 구동 코일부(150)는 측면 기판(170)과 와이어 등을 통해 전기적으로 연결될 수 있다. 그리고 측면 기판(170)은 상술한 바와 같이 하우징(110)과 결합하므로, 구동 코일부(150)도 하우징(110)의 측면에 형성된 코일 안착부(114) 내에 안착하여 하우징과 결합할 수 있다. 이에 대한 자세한 설명은 후술한다.
탄성부(160)는 하우징(110) 상에 배치될 수 있다. 탄성부(160)는 제1 렌즈 배럴(130) 및 하우징(110)과 결합할 수 있다. 하우징(110)은 메인 기판(4) 또는 후술하는 베이스(200)와 결합되어 고정될 수 있다. 이와 달리, 제1 렌즈 배럴(130)은 상술한 로렌츠의 힘에 의해 하우징(110)에 대해 상하로 이동할 수 있다. 탄성부(160)는 이러한 제1 렌즈 배럴(130) 또는 제1 광학부(120)의 상하 이동에 대해 예압을 제공할 수 있다. 이에 따라, 구동부에 의한 로렌츠의 힘이 발생하지 않는 경우 제1 렌즈 배럴(130)은 하우징(110)에 대해 소정의 위치를 유지할 수 있다. 또한, 구동부에 의한 로렌츠의 힘이 발생하는 경우에도 제1 렌즈 배럴(130)과 하우징(110) 간의 위치 관계를 일정 범위로 유지하므로 카메라 모듈의 신뢰성이 개선될 수 있다.
위치 센서(180)는 측면 기판(170)과 전기적으로 연결될 수 있다. 또한, 위치 센서(180)는 측면 기판(170) 상에 위치할 수 있다. 그리고 위치 센서(180)는 상술한 구동 마그넷부(140)와 소정 거리 이격 배치될 수 있다.
위치 센서(180)는 홀 센서 또는 홀 IC를 포함할 수 있다. 위치 센서(180)는 구동 마그넷부(140)의 자기력을 감지할 수 있다.
실시예에 따른 위치 센서(180)는 구동 마그넷부로부터의 자기장 세기를 감지하여 제1 렌즈 배럴(130) 또는 제1 광학부(120)의 광원(LS)에 대한 위치 정보를 출력할 수 있다. 이에 따라, 제어부는 위치 센서(180)의 위치 정보를 바탕으로 제1 광학부(120) 또는 제1 렌즈 배럴(130)의 결함을 판단하고 판단한 결과에 대응하여 광원(LS)의 출력을 제어(on/off)할 수 있다.
실시예로, 위치 센서(180)는 복수의 위치 센서를 포함할 수 있다. 위치 센서(180)는 2개의 센서를 포함할 수 있다. 위치 센서(180)는 광축 방향으로의 제1 렌즈 배럴(130) 및 제1 광학부(120)의 이동을 감지할 수 있다. 본 명세서에서, Z축 방향은 제3 방향으로 광축 방향 또는 수직 방향이다. 그리고 X축 방향은 Z축 방향에 수직한 방향이며 실시예에서 발광부에서 수광부를 향한 방향으로 제1 방향이다. 그리고 Y축 방향은 X축 방향과 Z축 방향에 수직한 방향이며 제2 방향이다. 이를 기준으로 이하 설명한다.
수광부(2)는 수광모듈, 수광유닛, 수광어셈블리 또는 수광장치일 수 있으며, 카메라 모듈의 일 구성요소일 수 있다. 이러한 수광부(2)는 발광부(1)로부터 출사되어 객체로부터 반사된 광(반사광)을 수신하고, 수신된 광을 전기 신호로 변환할 수 있다.
수광부(2)는 발광부(1)에서 출력된 광신호에 대응하는 입력광을 생성할 수 있다. 수광부(2)는 발광부(1)와 나란히 배치될 수 있다. 수광부(2)는 발광부(1) 옆에 배치될 수 있다. 수광부(2)는 발광부(1)와 같은 방향으로 배치될 수 있다. 이러한 구성에 의하여, 수광부(2)에서는 입력광의 수신 효율이 개선될 수 있다.
수광부(2)는 반사광을 노출주기 동안 수신하고 이에 대한 전기신호를 생성할 수 있다. 실시예로, 카메라 모듈은 수광부(2)를 통해 직접(direct) 거리 측정 또는 비직접(indirect) 거리 측정을 수행할 수 있다.
먼저, 직접 거리 측정의 경우, 카메라 모듈은 반사광의 수신 시점과 출력광의 출력시점의 시간차를 통해 객체에 대한 거리를 측정할 수 있다.
그리고 비직접 거리 측정의 경우, 카메라 모듈은 출력광에 대해 동기화되고 위상이 상이한 참조신호와 반사광 간의 합성을 통해 객체에 대한 거리를 측정할 수 있다.
직접 거리 측정은 비직접 거리 측정 대비 원거리 측정이 용이하며, 스위칭속도가 나노초로 측정속도가 상대적으로 빠를 수 있고, 복수의 에코(echoes)에 강하다. 이에 대비하여 비직접 거리 측정은 직접 거리 측정 대비 스위칭 속도가 느리나 근거리 측정이 용이하며 다수픽셀에 적용가능하며 거리측정을 위한 데이터 볼륨이 적은 이점이 있다.
실시예에 다른 카메라 모듈은 상술한 직접 비행거리시간측정(direct-TOF)(또는 직접 거리 측정에 대응) 또는 비직접 비행거리시간측정(indirect-TOF)(또는 비직접 거리 측정에 대응)을 수행할 수 있다.
수광부(2)는 제2 렌즈 배럴(320), 제2 광학부(310) 및 이미지 센서(IS)를 포함할 수 있다.
제2 렌즈 배럴(320)은 후술하는 베이스(200)와 결합할 수 있다. 제2 렌즈 배럴(320)은 후술하는 베이스와 나사 결합 등으로 결합할 수 있다. 이에, 제2 렌즈 배럴(320)은 측면에 위치한 나사산을 포함할 수 있다. 제2 렌즈 배럴(320)은 제2 광학부(310)와 일체로 이루어질 수도 있다. 다만, 이에 한정되는 것은 아니다.
제2 광학부(310)는 제2 렌즈 배럴(320)과 결합할 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)을 통해 베이스(200)와 결합될 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)과 다양한 결합 방식을 통해 결합될 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)과 상술한 바와 같이 나사 결합을 통해 이루어질 수 있다.
제2 광학부(310)는 복수 개의 렌즈를 포함할 수 있다. 그리고 제2 광학부(310)는 하부의 이미지 센서(IS)와 정렬(align)될 수 있다. 이에, 제2 광학부(310)를 통과한 반사광이 이미지 센서(IS)로 수광될 수 있다.
이미지 센서(IS)는 반사광을 감지할 수 있다. 그리고 이미지 센서(IS)는 반사광을 감지하여 전기적 신호로 출력할 수 있다. 실시예로, 이미지 센서(IS)는 광원(LS)에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예컨대, 이미지 센서(IS)는 적외선을 감지할 수 있다. 또는, 이미지 센서(IS)는 가시광선을 감지할 수 있다. 이러한 이미지 센서(IS)는 광을 센싱하는 다양한 이미지 센서를 포함할 수 있다.
실시예로, 이미지 센서(IS)는 제2 렌즈 배럴(320) 및 제2 광학부(310)를 통과한 광을 수신하여 광에 대응하는 전기 신호로 변환하는 픽셀 어레이, 픽셀 어레이에 포함된 복수의 픽셀을 구동하는 구동 회로 및 각 픽셀의 아날로그 픽셀 신호를 리드(read)하는 리드아웃회로를 포함할 수 있다. 리드아웃회로는 아날로그 픽셀 신호를 기준 신호와 비교하여 아날로그-디지털 변환을 통해 디지털 픽셀 신호(또는 영상 신호)를 생성할 수 있다. 여기서, 픽셀 어레이에 포함된 각 픽셀의 디지털 픽셀 신호는 영상 신호를 구성하며, 영상 신호는 프레임 단위로 전송됨에 따라 이미지 프레임으로 정의될 수 있다. 즉, 이미지 센서는 복수의 이미지 프레임을 출력할 수 있다.
나아가, 수광부(2)는 이미지 합성부를 더 포함할 수 있다. 이미지 합성부는 이미지 센서(IS)로부터 영상 신호를 수신하고, 영상 신호를 처리(예컨대, 보간, 프레임 합성 등)하는 이미지 프로세서를 포함할 수 있다. 특히, 이미지 합성부는 복수의 프레임의 영상 신호(저해상도)를 이용하여 하나의 프레임의 영상 신호(고해상도)로 합성할 수 있다. 즉, 이미지 합성부는 이미지 센서(IS)로부터 받은 영상 신호에 포함된 복수의 이미지 프레임을 합성하고, 합성된 결과를 합성 이미지로서 생성할 수 있다. 이미지 합성부에서 생성된 합성 이미지는 이미지 센서(IS)로부터 출력되는 복수의 이미지 프레임보다 높은 해상도를 가질 수 있다. 즉, 이미지 합성부는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 이미지를 생성할 수 있다. 복수의 이미지 프레임은 필터(F, F')의 이동에 의해 서로 다른 광 경로로 변경되어 생성된 이미지 프레임을 포함할 수 있다. 이러한 이미지 합성부는 수광부(2) 내에 또는 외부에 위치할 수 있다. 상술한 슈퍼레졸루션은 수광부(2) 내에 틸트되는 광학 부재를 통해 이루어질 수 있다. 이에, 본 명세서에서 카메라 모듈은 수광부(2) 내의 광학 부재를 틸팅하기 위한 장치가 존재하거나 존재하지 않을 수 있다. 슈퍼레졸루션을 위해 수광부(2) 내에 광학 부재를 틸팅하는 구성에 대한 자세한 설명은 후술한다.
필터(F, F')는 베이스(200)에 결합될 수 있다. 필터(F, F')는 제1 렌즈 배럴(130)과 광원(LS) 사이에 또는 제2 렌즈 배럴(320)과 이미지 센서(IS) 사이에 배치될 수 있다. 이에, 필터(F, F')는 객체와 이미지 센서(IS) 사이의 광경로 또는 객체와 광원(LS) 사이의 광경로 상에 배치될 수 있다. 필터(F, F')는 소정 파장 범위를 갖는 광을 필터링할 수 있다.
필터(F, F')는 특정 파장의 광을 통과시킬 수 있다. 즉, 필터(F, F')는 특정 파장 외의 광을 반사 또는 흡수하여 차단할 수 있다. 예컨대, 필터(F, F')는 적외선을 통과시키고 적외선 이외의 파장의 광을 차단시킬 수 있다. 또는, 필터(F, F')는 가시광선을 통과시키고 가시광선 이외의 파장의 광을 차단시킬 수 있다. 필터(F, F')는 적외선 통과 필터(infrared rays band pass filter)일 수 있다. 이로써, 필터(F, F')는 적외선의 광만을 통과할 수 있다. 다만, 이러한 기능에 한정되는 것은 아니다. 또는 광학 부재는 렌즈 모듈과 분리된 별도의 초점고정렌즈 또는 초점가변렌즈(ex: 액체렌즈) 일 수 있다.
또한, 필터(F, F')는 이동할 수 있다. 실시예로, 필터(F, F')는 틸팅(tilting)될 수 있다. 필터(F, F')가 틸팅되면, 광경로가 조절될 수 있다. 필터(F, F')가 틸팅되면 이미지 센서(IS)로 입사되는 광의 경로가 변경될 수 있다. 예컨대, 수광부(2)에서 필터(F')는 입사되는 광의 FOV(Field of View) 각도 또는 FOV의 방향 등을 변경시킬 수 있다. 또한, 실시예에서 필터(F, F')는 경사지게 틸팅 됨에 따라 빛이 들어오는 경로를 변경하여 고해상도 ToF(Time of Flight)가 가능하게 할 수 있다.
커버(400)는 브라켓일 수 있다. 커버(400)는 '커버 캔'을 포함할 수 있다. 커버(400)는 발광부(1) 및 수광부(2)를 감싸도록 배치될 수 있다. 커버(400)는 하우징(110) 및 베이스(200)에 결합될 수 있다. 커버(400)는 발광부(1) 및 수광부(2)를 수용할 수 있다. 이에, 커버(400)는 카메라 모듈의 최외측에 위치할 수 있다.
또한, 커버(400)는 비자성체일 수 있다. 또한, 커버(400)는 금속으로 형성될 수 있다. 또한, 커버(400)는 금속의 판재로 형성될 수 있다.
커버(400)는 메인 기판(4)의 그라운드부와 연결될 수 있다. 이를 통해, 커버(400)는 그라운드될 수 있다. 그리고 커버(400)는 전자 방해 잡음(EMI, electromagnetic interference)을 차단할 수 있다. 이때, 커버(400)는 'EMI 쉴드캔'으로 호칭될 수 있다. 커버(400)는 최종적으로 조립되는 부품으로 제품을 외부의 충격에서부터 보호할 수 있다. 커버(400)는 두께가 얇으면서 강도가 높은 재질로 형성될 수 있다.
또한, 실시예에 따른 카메라 모듈(10)에서 메인 기판(4)(PCB, Printed Circuit Board) 상에는 발광부(1)와 수광부(2)가 배치될 수 있다. 메인 기판(4)은 발광부(1) 및 수광부(2)와 전기적으로 연결될 수 있다.
또한, 카메라 모듈(10)에서 커넥트부(3)는 메인 기판(4)과 전기적으로 연결될 수 있다. 커넥트부(3)는 광학기기의 구성과 연결될 수 있다. 커넥트부(3)는 광학기기의 구성과 연결되는 커넥터(7)를 포함할 수 있다. 커넥트부(3)에는 커넥터(7)가 배치되고 연결 기판(6)과 연결되는 연장 기판(5)을 포함할 수 있다. 연장 기판(5)은 PCB일 수 있으나, 이에 한정되는 것은 아니다.
또한, 카메라 모듈에서 연결 기판(6)은 메인 기판(4)과 커넥트부(3)의 연장 기판(5)을 연결할 수 있다. 연결 기판(6)은 연성을 가질 수 있다. 연결 기판(6)은 연성의 인쇄회로기판(FPCB, Flexible PCB)일 수 있다.
또한, 메인 기판(4), 연결 기판(6) 및 연장 기판(5)은 일체로 또는 분리되어 형성될 수 있다.
카메라 모듈은 보강판(8)을 포함할 수 있다. 보강판(8)은 스티프너(stiffener)를 포함할 수 있다. 보강판(8)은 메인 기판(4)의 하면에 배치될 수 있다. 보강판(8)은 서스(SUS)로 형성될 수 있다.
나아가, 수광부(2)는 렌즈 구동 장치를 포함할 수 있다. 즉, 수광부(2)는 보이스 코일 모터(VCM, Voice Coil Motor)를 포함할 수 있다. 또한, 수광부(2)는 렌즈 구동 모터를 포함할 수 있다. 또한, 수광부(2)는 렌즈 구동 액츄에이터를 포함할 수 있다. 이러한 구성에 의하여, 상술한 바와 같이 실시예에 따른 수광부(2)는 필터(F')를 틸트(tilt)시킬 수 있다. 그리고 필터(F')가 틸트됨에 따라, 필터(F, F')를 통과한 입력광의 광경로가 소정의 규칙에 따라 반복하여 이동할 수 있다. 이로써, 수광부(2)는 필터(F')의 틸트에 따라 이미지 센서에서 변환한 복수 개의 이미지 정보를 이용하여 고해상도의 이미지 정보를 출력하고, 출력된 이미지 정보는 외부의 광학기기로 제공될 수 있다.
도 4는 실시예에 따른 발광부의 하우징을 도시한 도면이고, 도 5는 실시예에 따른 발광부의 제1 광학부 및 제1 렌즈 배럴을 도시한 도면이고, 도 6은 실시예에 따른 발광부의 구동 마그넷부 및 구동 코일부을 도시한 도면이고, 도 7은 실시예에 따른 발광부의 탄성부의 결합을 나타낸 도면이고, 도 8은 실시예에 따른 발광부의 제1 탄성부재를 도시한 도면이고, 도 9는 실시예에 따른 발광부의 제2 탄성부재를 도시한 도면이고, 도 10은 실시예에 따른 발광부의 측면 기판의 일측을 도시한 도면이고, 도 11은 실시예에 따른 발광부의 측면 기판의 타측을 도시한 도면이고, 도 12는 실시예에 따른 카메라 모듈의 베이스를 도시한 도면이고, 도 13은 실시예에 따른 수광부의 제2 광학부 및 제2 렌즈 배럴을 도시한 도면이고, 도 14는 실시예에 따른 카메라 모듈의 커버를 도시한 도면이다.
도 4를 참조하면, 실시예에 따른 발광부의 하우징(110)은 하우징 홀(111), 기판홈(112), 센서홀(113) 및 코일 안착부(114)를 포함할 수 있다.
하우징 홀(111)은 하우징(110)의 중앙에 위치할 수 있다. 하우징 홀(111)에는 제1 광학부와 제1 렌즈 배럴 그리고 구동부가 안착할 수 있다.
기판홈(112)은 하우징(110)의 외측면에 위치할 수 있다. 하우징(110)은 평면상 사각형 형상일 수 있다. 다만, 이에 한정되는 것은 아니며 다양한 형상으로 이루어질 수 있다.
또한, 기판홈(112)에는 측면 기판과 결합하기 위한 결합 돌기가 위치할 수 있다. 결합 돌기는 하우징(110)의 측면에서 외측을 향해 연장될 수 있다. 또한, 측면 기판에는 결합 홀이 구비되며, 결합 돌기가 결합 홀로 삽입되어 측면 기판과 하우징(110)이 서로 결합할 수 있다.
센서홀(113)은 기판홈(112)과 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 중첩할 수 있다. 센서홀(113)에는 위치 센서가 안착할 수 있다. 이에, 위치 센서는 측면 기판과 전기적으로 용이하게 연결될 수 있다. 또한, 위치 센서는 하우징(110)과의 결합 위치가 고정되어 구동 마그넷부의 위치를 정확하게 측정할 수 있다.
코일 안착부(114)는 하우징(110)의 내측면에 위치할 수 있다. 예를 들어, 코일 안착부(114)는 하우징(110)의 내측면에서 내측으로 연장된 턱으로 이루어질 수 있다. 본 명세서에서, 내측은 하우징에서 제1 광학부를 향한 방향이고, 외측은 내측의 반대 방향으로 제1 광학부에서 하우징을 향한 방향일 수 있다.
코일 안착부(114)에는 구동 코일부가 안착할 수 있다. 구동 안착부(114)는 다양한 구조의 구동 코일부에 대응한 형상을 가질 수 있다. 예컨대, 코일 구동부는 후술하는 바와 같이 폐루프 형태일 수 있다. 이에, 코일 안착부(114)도 구동 코일부의 형상에 대응하여 폐루프 형상일 수 있다.
도 5를 참조하면, 발광부의 제1 광학부(120)는 제1 렌즈 배럴(130)의 렌즈 수용부(131) 내로 삽입될 수 있다. 상술한 바와 같이 제1 광학부(120)는 복수 매의 렌즈로 이루어질 수 있다. 그리고 제1 광학부(120)는 외측면에 위치한 나사산을 포함할 수 있다. 제1 렌즈 배럴(130)도 내측면에 제1 광학부(120)의 상기 나사산에 대응하는 홈을 가질 수 있다. 이에, 제1 광학부(120)와 제1 렌즈 배럴(130)은 서로 나사 결합할 수 있다.
또한, 제1 렌즈 배럴(130)은 상술한 렌즈 수용부(131)뿐만 아니라, 마그넷 안착홈(132)을 포함할 수 있다. 마그넷 안착홈(132)은 복수 개일 수 있다. 실시예로, 마그넷 안착홈(132)은 4개이며, 제1 렌즈 배럴(130)의 서로 마주보는 제1 외측면(132a)과 제2 외측면(132b) 그리고 서로 마주보며 제1 외측면(132a)과 제2 외측면(132b) 사이에 위치하는 제3 외측면(132c)과 제4 외측면(132d)에 위치할 수 있다.
즉, 마그넷 안착홈(132)은 제1 외측면(132a) 내지 제4 외측면(132d) 각각에 위치하여 후술하는 제1 마그넷 내지 제4 마그넷이 제1 외측면(132a) 내지 제4 외측면(132d)의 마그넷 안착홈(132)에 안착할 수 있다. 마그넷 안착홈(132)에는 접합부재가 도포될 수 있다. 이에, 제1 마그넷 내지 제4 마그넷과 제1 렌즈 배럴(130) 간의 결합력이 개선될 수 있다.
도 6을 참조하면, 구동부는 구동 마그넷부(140)와 구동 코일부(150)를 포함할 수 있다. 구동 마그넷부(140)는 복수 개의 마그넷을 포함할 수 있다.
실시예로, 구동 마그넷부(140)는 제1 마그넷(141) 내지 제4 마그넷(144)을 포함할 수 있다. 제1 마그넷(141) 및 제2 마그넷(142)은 서로 마주보게 위치할 수 있다. 예컨대, 제1 마그넷(141)과 제2 마그넷(142)은 제2 방향을 기준으로 대칭으로 배치될 수 있다.
제3 마그넷(143)과 제4 마그넷(144)은 서로 마주보게 위치하며, 제1 마그넷(141)과 제2 마그넷(142) 사이에 위치할 수 있다. 예컨대, 제3 마그넷(143)과 제4 마그넷(144)은 제1 방향을 기준으로 대칭으로 배치될 수 있다.
제1 마그넷(141) 내지 제4 마그넷(144)은 상술한 마그넷 안착홈에 위치할 수 있다.
구동 코일부(150)는 상술한 바와 같이 평면 상(XY) 폐루프 형상일 수 있다. 구동 코일부(150)는 코일 안착부에 안착할 수 있다. 그리고 구동 코일부(150)는 구동 마그넷부(140)와 적어도 일부가 제1 방향 또는 제2 방향으로 중첩될 수 있다.
또한, 구동 코일부(150)는 구동 마그넷부(140)를 감싸도록 배치될 수 있다. 즉, 구동 마그넷부(140)는 구동 코일부(150)의 폐루프 상에 위치할 수 있다.
또한, 구동 코일부(150)는 구동 마그넷부(140)와 소정 거리 이격 배치될 수 있다.
또한, 구동 코일부(150)는 일단에 측면 기판과 전기적으로 연결하기 위한 제1 와이어(W1)와 제2 와이어(W2)를 포함할 수 있다. 제1 와이어(W1)와 제2 와이어(W2)는 측면 기판에 대응하는 위치에 배치되어 전기적 저항이 최소화될 수 있다. 이에, 저항에 의한 정확도 감소가 방지되고 전력 효율이 향상될 수 있다.
제1 와이어(W1)와 제2 와이어(W2)는 코일로 이루어진 구동 코일부(150)의 일단과 타단 각각에 연결될 수 있다.
도 7 내지 도 9를 참조하면, 탄성부(160)는 제1 탄성부재(161) 및 제2 탄성부재(162)를 포함할 수 있다. 탄성부(160)는 제1 렌즈 배럴(130)의 상부 또는 하부에 위치하여 하우징(110) 및 제1 렌즈 배럴(130)과 결합할 수 있다. 이에, 구동부에 의해 제1 렌즈 배럴(130)이 상하 이동하더라도 하우징(110)과 결합된 탄성부(160)를 통해 제1 렌즈 배럴(130)의 상하 이동에 예압이 가해질 수 있다. 이에, 구동 코일부에 전류가 인가되지 않는다면, 제1 렌즈 배럴(130)은 하우징(110) 내에서 탄성부(160)의 복원력에 의해 동일한 위치에 존재할 수 있다.
제1 탄성부재(161)는 제1 렌즈 배럴(130)의 상부에 위치할 수 있다. 제2 탄성부재(162)는 제1 렌즈 배럴(130)의 하부에 위치할 수 있다.
제1 탄성부재(161)는 제1 탄성결합부(P1)와 제2 탄성결합부(P2)를 포함할 수 있다. 제1 탄성결합부(P1)는 제2 탄성결합부(P2)보다 외측에 위치할 수 있다. 그리고 제1 탄성결합부(P1)는 하우징(110)의 돌기와 결합할 수 있다. 또한, 제2 탄성결합부(P2)는 제1 렌즈 배럴(130)과 결합할 수 있다. 이 때, 제1 탄성결합부(P1)와 제2 탄성결합부(P2)에는 상술한 결합을 위해 접합 부재가 도포될 수 있다. 예컨대, 접합 부재는 댐퍼액을 포함할 수 있다. 또한, 댐퍼액은 예컨대 에폭시 등을 포함할 수 있다.
마찬가지로, 제2 탄성부재(162)는 제3 탄성결합부(P3)와 제4 탄성결합부(P4)를 포함할 수 있다. 제3 탄성결합부(P3)는 제4 탄성결합부(P4)보다 외측에 위치할 수 있다.
그리고 제3 탄성결합부(P3)는 하우징(110)의 돌기와 결합할 수 있다. 또한, 제4 탄성결합부(P4)는 제1 렌즈 배럴(130)과 결합할 수 있다. 이 때, 제3 탄성결합부(P3)와 제4 탄성결합부(P4)에도 접합 부재가 도포되어 상술한 결합이 이루어질 수 있다.
또한, 제1 탄성결합부(P1)와 제2 탄성결합부(P2) 사이에는 다양한 굴곡을 갖는 제1 패턴부(PT)가 위치할 수 있다. 즉, 제1 패턴부(PT)를 사이에 두고 제1 탄성결합부(P1)와 제2 탄성결합부(P2)는 서로 결합할 수 있다. 이러한 제1 패턴부(PT)는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 대칭으로 위치할 수 있다.
마찬가지로, 제3 탄성결합부(P3)와 제4 탄성결합부(P4) 사이에는 다양한 굴곡을 갖는 제2 패턴부(PT')가 위치할 수 있다. 즉, 제2 패턴부(PT')를 사이에 두고 제3 탄성결합부(P3)와 제4 탄성결합부(P4)는 서로 결합할 수 있다. 이러한 제2 패턴부(PT')는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 대칭으로 위치할 수 있다.
도 10 내지 도 11을 참조하면, 측면 기판(170)은 일측면과 일측면에 대향하고 하우징과 접하는 타측면을 가질 수 있다.
측면 기판(170)은 일측면 상에 구동 코일부의 제1,2 와이어와 연결되는 제1,2 도전부(EC1, EC2)를 포함할 수 있다. 그리고 측면 기판(170)은 타측면에 결합 홀(170a)을 포함할 수 있다. 결합홀(170a)은 상술한 바와 같이 하우징의 결합 돌기와 결합할 수 있다. 이에, 측면 기판(170)은 하우징의 측면에 결합할 수 있다.
그리고 측면 기판(170)의 타측면 상에는 위치 센서(180)가 위치할 수 있다. 위치 센서(180)는 측면 기판(170)의 타측면 상에 안착하여 센서홀로 삽입될 수 있다.
도 12를 참조하면, 베이스(200)는 메인 기판(4) 상에 위치하며, 메인 기판(4)과 접할 수 있다. 또한, 베이스(200)에는 상술한 제1 렌즈 배럴, 제1 광학부, 제2 렌즈 배럴, 제2 광학부 및 하우징이 안착할 수 있다.
베이스(200)는 이격 배치되는 제1 베이스부(210)와 제2 베이스부(220)를 포함할 수 있다. 제1 베이스부(210)에는 제1 광학부, 제1 렌즈 배럴 및 하우징 등 발광부의 구성요소가 안착할 수 있다. 그리고 제2 베이스부(220)는 제2 광학부 및 제2 렌즈 배럴이 안착할 수 있다.
제1 베이스부(210)와 제2 베이스부(220)는 각각 베이스홀(210a, 220a)을 포함할 수 있다. 이러한 베이스홀(210a, 220a)을 통해 광원으로부터의 광신호가 객체를 향해 출력되고, 객체에서 반사된 광신호(반사광)가 이미지 센서로 제공될 수 있다.
또한, 제1 베이스부(210)와 제2 베이스부(220)에는 상술한 필터가 각각 안착할 수 있다. 나아가, 제1 베이스부(210)와 제2 베이스부(220)는 일체형으로 도시되어 있으나, 분리될 수 있다. 그리고 제2 베이스부(220)는 상술한 바와 같이 틸트될 수 있고, 제2 베이스부(220)에 부착된 필터도 틸트되어 실시예에 따른 카메라 모듈은 상술한 슈퍼 레졸루션 기법을 수행할 수 있다.
도 13을 참조하면, 제2 광학부(310)는 제2 렌즈 배럴(320)과 결합할 수 있다. 제2 광학부(310)는 제2 렌즈 배럴(320)에서 중앙에 위치한 홀에 삽입될 수 있다. 또한, 제2 렌즈 배럴(320)은 외측면에 나사산을 가져 베이스(200)의 제2 베이스부(220)와 나사 결합될 수 있다.
제2 광학부(310)도 복수 매의 렌즈로 이루어질 수 있다.
도 14를 참조하면, 커버(400)는 상술한 내용 이외에 제1 커버부(410)와 제2 커버부(420)를 포함할 수 있다. 제1 커버부(410)는 제1 베이스부 상에 위치하며, 제1 광학부와 중첩되는 제1 커버홀(410a)을 포함할 수 있다. 제1 커버홀(410a)을 통해 제1 광학부를 통과한 광신호(출력광)가 객체로 조사될 수 있다.
제2 커버부(420)는 제2 베이스부 상에 위치하며, 제2 광학부와 중첩되는 제2 커버홀(420a)을 포함할 수 있다. 제2 커버홀(420a)을 통해 제2 광학부를 통과한 광신호(반사광)가 이미지 센서로 조사될 수 있다.
도 15는 실시예에 따른 발광부에서 제1 광학부 및 제1 렌즈 모듈의 이동을 설명하는 도면이고, 도 16은 제1 광학부 및 제1 렌즈 모듈의 이동에 따른 광신호 형태를 설명하는 도면이고, 도 17은 제1 광학부 및 제1 렌즈 모듈의 이동에 따른 수광부의 이미지의 예를 도시한 도면이다.
도 15 내지 도 17을 참조하면, 실시예에 따른 제1 광학부 및 제1 렌즈 모듈이 상하 방향으로 이동하여 광신호(출력광)는 면 광원 또는 점 광원으로 변환될 수 있다.
즉, 출력광은 광원과 제1 렌즈 모듈(또는 제1 광학부/제2 광학부(이하 광학부와 둥과 혼용함) 사이의 간격에 따라 면 광원이나 점 광원의 형태 또는 패턴으로 출력될 수 있다.
실시예로, 제1 광학부 및 제1 렌즈 모듈은 구동부에 의해 광축 방향(Z축 방향)으로 이동할 수 있다. 그리고 상술한 바와 같이 구동 코일부에 흐르는 전류의 양에 따라 제1 광학부 및 제1 렌즈 모듈 상부로 이동하는 이동량이 조절될 수 있다.
예를 들어, 실시예에 따른 카메라 모듈에서 제1 광학부 및 제1 렌즈 모듈은 광원으로부터의 거리가 최대(도 15(a) 참조)에서 최소(도 15(b) 참조)를 갖도록 이동할 수 있다. 구체적으로, 상술한 광원과 광학부(제1 광학부) 간의 거리는 광원의 어퍼쳐의 최상면에서 광학부의 최하면 사이의 거리일 수 있다. 그리고 광원의 어퍼처의 최상면과 광학부의 최하면 사이가 소정의 거리(예로, 80㎛)이하인 경우에 광이 점 형태로 출력된다. 또한, 광원의 어퍼처의 최상면과 광학부의 최하면 사이가 소정의 거리(예로, 530㎛)이상인 경우에 광원이 면 형태로 출력될 수 있다. 다만,상술한 거리에 한정되는 것은 아니다.
즉, 제어부는 구동 코일부로 제공되는 전류의 양을 제어하여 제1 렌즈 모듈(또는 제1 광학부)와 광원 사이의 거리를 조절하여, 최종적으로 출력광의 형태(면 광원 또는 점 광원)를 제어할 수 있다. 예컨대, 제어부는 구동 코일부로 제공되는 전류의 양이 변경되면(예로, 전류값 증가/감소) 엑추에이터에 의한 제1 렌즈 모듈의 이동량이 변경될 수 있다.
실시예로, 광원과 제1 렌즈 모듈(또는 제1 광학부) 사이의 간격이 일정 거리 이상이 되면, 광신호(출력광)는 도 16(a) 및 도 17(a)와 같이 면 광원 또는 면 형태로 출력될 수 있다. 즉, 광원과 제1 렌즈 모듈(또는 제1 광학부) 사이의 거리가 기설정된 거리(또는 일정 거리)와 최대거리 사이라면, 광신호(출력광)는 면 광원 또는 면 형태로 출력될 수 있다. 여기서, 최대거리는 광원과 이동 가능한 제1 렌즈 모듈 사이의 간격이 최대일 때의 거리이며, 엑추에이터의 최대 구동(예로, 전류 최대) 시 제1 렌즈 모듈의 위치와 광원 사이의 거리일 수 있다.
반면, 광원과 제1 렌즈 모듈(또는 제1 광학부) 사이의 간격이 일정 거리 이하가 되면, 광신호는 도 16(b) 및 도 17(b)와 같이 점 광원 또는 점 형태로 출력될 수 있다. 즉, 광원과 제1 렌즈 모듈(또는 제1 광학부) 사이의 거리가 기설정된 거리(또는 일정 거리)와 최소거리 사이라면 광신호는 점 광원 또는 점 형태로 출력될 수 있다. 여기서, 최소거리는 광원과 이동 가능한 제1 렌즈 모듈(또는 제1 광학부) 사이의 간격이 최소일 때의 거리이며, 엑추에이터의 미 구동 시 제1 렌즈 모듈의 위치(초기위치)와 광원 사이의 거리일 수 있다. 다만, 이러한 위치에 대한 다양한 실시예는 후술한다.
또한, 소정 거리 이하의 범위에서 광원으로부터의 광신호(출력광)는 상술한 바와 같이 점 형태로 출력되고, 객체에 보다 높은 에너지가 가해질 수 있다.
본 발명의 실시예에 따른 카메라 모듈(10)은 출력광의 해상도, 객체와의 거리, 전력 소모 정도 등에 따라 출력광의 광패턴을 면 광원에서 점 광원으로 변경하거나 점 광원의 해상도를 변경할 수 있어, 다양한 어플리케이션의 요구 사항에 유연하게 대처하는 이점을 제공한다.
도 18는 실시예에 따른 센서에서 전기 신호 생성 과정을 설명하기 위한 도면이다.
도 18를 참조하면, 상술한 바와 같이 반사광(입력광, LS2)은 입사광(출력광, LS1)이 객체에 입사된 후 반사되어 돌아오는 거리만큼 위상이 지연될 수 있다.
또한, 참조 신호는 상술한 바와 같이 복수 개일 수 있으며, 실시예에서는 도 18에 나타난 바와 같이 참조 신호는 4개(C1 내지 C4)일 수 있다. 그리고 각 참조 신호(C1 내지 C4)는 광 신호와 동일한 주파수를 가지되, 서로 90도 위상차를 가질 수 있다. 4개의 참조 신호 중 하나(예컨대, C1)는 광 신호와 동일한 위상을 가질 수 있다. 그리고 이러한 참조 신호(C1 내지 C4)는 센서 내로 인가되어, 센서는 참조 신호에 따라 반사광(LS2)으로부터 전기 신호를 생성할 수 있다. 실시예로, 센서는 전기 신호를 발생하는 충전 소자와 스위칭 소자를 포함할 수 있으며, 스위칭 소자는 참조 신호에 따라 On/Off 동작을 수행할 수 있다. 다시 말해, 센서는 각 참조 신호에 대응하여 센서의 유효 영역을 노출시키며, 노출시키는 시간(노출 시간) 동안에 광 신호를 수광할 수 있다. 즉, 센서는 참조 신호가 on(양)인 경우에 반사광(LS2)으로부터 전하를 충전하여 전기 신호를 생성할 수 있다. 이에 따라, 센서는 도 18의 음영 부분에 대응하는 전기 신호를 생성할 수 있다.
또한, 이 때 충전 소자는 커패시터(capacitor) 등을 포함하며, 스위칭 소자는 전계 효과 트랜지스터 등 다양한 스위칭 소자를 포함할 수 있으며, 상술한 종류에 한정되지 않는다.
또한, 본 발명에서 센서는 이미지 센서를 의미하며, 제어부는 카메라 모듈 내 또는 이미지 센서 내에 위치할 수 있다. 그리고 후술하는 바와 같이 제어부는 광원으로부터 제공되는 입사광의 출력을 제어하는 제어신호(후술하는 조사광 신호)를 출력할 수 있다. 또한, 제어부는 출력된 제어신호와 동기화되어 노출신호를 출력할 수 있다. 노출신호는 상술한 참조 신호에 대응할 수 있다. 그리고 참조신호 또는 노출신호는 입사광의 출력과 제어신호의 송신을 위한 소정의 딜레이를 가질 수 있다(이하 도 28 이하). 다만, 이론상 설명을 위해 도 18 내지 도 26에서는 동일 시점으로 설명한다.
그리고 다른 실시예로 노출 시간 동안 복수의 주파수로 광 신호가 생성될 수 있다. 이 때, 센서는 복수의 주파수에 따른 입력광 신호를 흡수한다. 예를 들어, 주파수 f1과 f2로 광 신호가 생성되고, 복수의 참조 신호는 서로 90도의 위상차를 가진다고 가정한다. 그러면, 입사광 신호 역시 주파수 f1과 f2를 가지므로, 주파수가 f1인 입력광 신호와 이에 대응하는 4개의 참조 신호를 통해 4개의 전기 신호가 생성될 수 있다. 그리고 주파수가 f2인 입력광 신호와 이에 대응하는 4개의 참조 신호를 통해 4개의 전기 신호가 생성될 수 있다. 따라서, 전기 신호는 총 8개가 생성될 수 있다. 이하에서는 하나의 주파수로 광 신호가 생성된 경우(4개의 전기 신호 생성)로 설명하나, 상술한 바와 같이 광 신호는 복수 개의 주파수를 가지고 생성될 수 있다.
도 19은 실시예에 따른 센서를 설명하기 위한 도면이고, 도 20는 실시예에 따른 센서에서 1 프레임을 생성하는 타이밍도이다.
먼저, 도 19을 참조하면 이미지 센서(IS)는 상술한 바와 같이 복수의 픽셀을 가지고 어레이 구조로 이루어질 수 있다. 이 때, 이미지 센서(IS)는 능동 픽셀 센서(Active pixel sensor, APS)로 CMOS(Complementary Metal Oxide Semiconductor) 센서일 수 있다. 또한, 이미지 센서(IS)는 CCD(Charge Coupled Device) 센서일 수도 있다. 이러한 이미지 센서(IS)는 피사체에 반사되는 광(예, 적외선)을 받아들여 시간 또는 위상 차를 이용해 거리를 측정하는 ToF 센서를 포함할 수 있다.
예컨대, 이미지 센서(IS)에서 복수 개의 픽셀은 제1 방향 및 제2 방향으로 나란히 배치될 수 있다. 일예로, 복수 개의 픽셀은 매트릭스 형태일 수 있다. 또한, 실시예로 제1 픽셀 및 제2 픽셀을 포함할 수 있다. 이러한 제1 픽셀 및 제2 픽셀은 제1 방향 및 제2 방향으로 교번하여 배치될 수 있다. 즉, 하나의 제1 픽셀에서 복수의 제2 픽셀이 제1 방향 및 제2 방향으로 인접하게 배치될 수 있다. 예컨대, 이미지 센서(IS)에서 제1 픽셀 및 제2 픽셀은 체커보드 패턴(checkerboard pattern)으로 배치될 수 있다. 즉, 도 19과 같이 320x240 해상도의 이미지 센서(IS)의 경우 76,800개의 픽셀이 그리드(grid) 형태로 배열될 수 있다.
또한, 제1 픽셀과 제2 픽셀은 서로 다른 파장 대역을 피크 파장으로 수광하는 픽셀일 수 있다. 예컨대, 제1 픽셀은 적외선 대역을 피크 파장으로 갖는 광을 받을 수 있다. 그리고 제2 픽셀은 적외선 대역 이외의 파장을 피크 파장으로 갖는 광을 받을 수 있다. 뿐만 아니라, 제1 픽셀 및 제2 픽셀 중 어느 하나는 광을 받지 않을 수 있다.
그리고 실시예로, 복수의 픽셀은 수광 소자가 배치되는 유효 영역 및 유효 영역 이외의 영역인 비유효 영역을 포함할 수 있다. 유효 영역은 수광하여 소정의 전기 신호를 생성할 수 있고, 비유효 영역은 수광하여 전기신호를 생성하지 않거나 수광하지 않는 영역일 수 있다. 즉, 비유효 영역은 내부에 수광 소자가 위치하더라도, 광에 의한 전기적 신호를 생성하지 못하는 경우도 포함하는 의미일 수 있다.
또한, 제1 픽셀은 유효 영역을 포함할 수 있으나, 제2 픽셀은 유효 영역이 존재하지 않는 비유효 영역으로만 이루어질 수 있다. 예컨대, 포토 다이오드 등의 수광 소자가 제1 픽셀에만 위치하고, 제2 픽셀에 위치하지 않을 수 있다. 또한, 예를 들어 이미지 센서(IS)는 행 방향으로 교번하여 배치되는 유효 영역과 비유효 영역을 포함하는 복수 개의 행 영역을 포함할 수 있다. 또한, 실시예에서 이미지 센서(IS)는 열 방향으로 교번하여 배치되는 유효 영역과 비유효 영역을 포함하는 복수 개의 열 영역을 포함할 수 있다.
또한, 복수 개의 픽셀은 사각형, 삼각형, 다각형, 원형 등 다양한 형상으로 이루어질 수 있다. 나아가, 픽셀 내의 유효 영역도 사각형, 삼각형, 다각형, 원형 등 다양한 형상으로 이루어질 수 있다.
즉, 복수의 픽셀은 일정한 간격으로 서로 이격 배치될 수 있다. 이러한 이격된 거리는 픽셀의 크기 대비 매우 작을 수 있고, 와이어 등이 배치될 수 있다. 이하에서 본 명세서에는 이러한 이격 거리를 무시하여 설명한다.
또한, 실시예로, 각 픽셀(DX, 예컨대 제1 픽셀)은 제1 포토 다이오드 및 제1 트랜지스터를 포함하는 제1 픽셀(DX-1)과 제2 포토 다이오드 및 제2 트랜지스터를 포함하는 제2 픽셀(DX-2)을 포함할 수 있다.
제1 픽셀(DX-1)은 출력광의 파형과 동일 위상에서 입력광 신호를 수신한다. 즉, 광원이 켜진 시간에, 제1 포토 다이오드는 턴온(turn-on)되어 입력광 신호를 흡수한다. 그리고 광원이 꺼진(off) 시간에, 제1 포토 다이오드는 턴오프(turn-off)되어 입력광 흡수를 중단한다. 제1 포토 다이오드는 흡수한 입력광 신호를 전류로 변환하여 제1 트랜지스터에 전달한다. 제1 트랜지스터는 전달받은 전류를 전기 신호로 변환하여 출력한다.
제2 픽셀(DX-2)은 출력광의 파형과 반대 위상(예, 180도)에서 입력광 신호를 수신한다. 즉, 광원이 켜진 시간에, 제2 포토 다이오드는 턴오프되어 입력광 신호를 흡수한다. 그리고 광원이 꺼진 시간에, 제2 포토 다이오드는 턴온되어 입력광 흡수를 중단한다. 제2 포토 다이오드는 흡수한 입력광 신호를 전류로 변환하여 제2 트랜지스터에 전달한다. 제2 트랜지스터는 전달받은 전류를 전기 신호로 변환한다.
이에 따라, 제1 픽셀(DX-1)은 In-Phase 수신 유닛이라 할 수 있고, 제2 픽셀(DX-2)은 Out-Phase 수신 유닛이라 할 수 있다. 이와 같이, 제1 픽셀(DX-1) 및 제2 픽셀(DX-2)이 시간 차를 두고 활성화되면, 객체와의 거리에 따라 수신되는 광량에 차이가 발생하게 된다. 예를 들어, 객체가 카메라 모듈 바로 앞에 있는 경우(즉, 거리=0인 경우)에는 광원로부터 광이 출력된 후 객체에서 반사되어 오는데 걸리는 시간이 0이므로, 광원의 점멸 주기는 그대로 광의 수신 주기가 된다. 이에 따라, 제1 픽셀(DX-1)만이 빛을 수신하게 되고, 제2 픽셀(DX-2)은 빛을 수신하지 못하게 된다. 다른 예로, 객체가 카메라 모듈과 소정 거리 떨어져 위치하는 경우, 광원로부터 광이 출력된 후 객체에서 반사되어 오는데 시간이 걸리므로, 광원의 점멸 주기는 광의 수신 주기와 차이가 나게 된다. 이에 따라, 제1 픽셀(DX-1)과 제2 픽셀(DX-2)이 수신하는 빛의 양에 차이가 발생하게 된다. 즉, 제1 픽셀(DX-1)과 제2 픽셀(DX-2)에 입력된 광량의 차를 이용하여 객체의 거리가 연산될 수 있다. 다시 말해, 제어부는 이러한 이미지 센서(IS)로부터 수신한 전기 신호를 이용하여 출력광과 입력광 사이의 위상차를 계산하고, 위상차를 이용하여 객체와 카메라 모듈 사이의 거리를 계산한다.
보다 구체적으로, 제1 노출 주기(PL1) 동안 제1 픽셀(DX-1)에 제1 참조 신호(C1)가 제공되고, 제2 픽셀(DX-2)에 제2 참조 신호(C2)가 제공될 수 있다. 그리고 제2 노출 주기(PL2) 동안 제1 픽셀(DX-1)에 제3 참조 신호(C3)가 제공되고 제2 픽셀(DX-2)에 제4 참조 신호(C4)가 제공될 수 있다. 제1 노출 주기(PL1)와 제2 노출 주기(PL2)는 하나의 프레임 주기를 이룰 수 있으며, 제1 노출 주기(PL1)와 제2 노출 주기(PL2) 사이에는 리드아웃(read out)이 존재할 수 있다. 이 때, 리드아웃(read out)은 픽셀 내 각 수광부에 충전된 전하량을 방전하는 구간이다. 이 때, 제1 참조 신호(C1) 내지 제4 참조 신호(C4)는 픽셀 내에서 충전 소자의 충전을 조절하는 신호로 스위칭 소자에서 게이트 신호일 수 있으며, 이는 도 18에서 설명한 내용과 동일하게 적용될 수 있다. 이러한 방식을 통해, 이미지 센서(IS)는 복수 개의 픽셀 각각에서 참조 신호에 대응하는 전기 신호를 각각 출력할 수 있다. 그리고 참조 신호를 통해 입사광과 반사광 차이의 위상차를 계산할 수 있다. 상기에서 설명한 바와 같이, 광 신호에 대해 하나의 프레임 주기 마다 전기 신호는 4개가 생성될 수 있다. 따라서, 제어부는 아래의 수학식 1을 이용하여 광 신호와 입력광 신호 사이의 위상차(td)를 계산할 수 있다.
Figure PCTKR2021001784-appb-img-000001
여기서, Q1 내지 Q4는 4개의 전기 신호 각각의 전하충전량(이하 전하량)이다. Q1은 광 신호와 동일한 위상의 참조 신호에 대응하는 전기 신호의 전하량이다. Q2는 광 신호보다 위상이 180도 느린 참조 신호에 대응하는 전기 신호의 전하량이다. Q3는 광 신호보다 위상이 90도 느린 참조 신호에 대응하는 전기 신호의 전하량이다. Q4는 광 신호보다 위상이 270도 느린 참조 신호에 대응하는 전기 신호의 전하량이다.
다만, 하나의 프레임 주기에서 광 신호와 입력광 신호 사이의 위상차(td)를 계산하기 위해 필요한 노출 주기는 이미지 센서(IS) 내의 충전 소자의 개수, 스위칭 소자의 개수 및 수광부의 개수에 따라 다양하게 변경될 수 있다. 예컨대, 각 수광부에 2개의 충전 소자가 연결될 수도 있다(즉, 2개의 수광부는 전체 4개의 충전 소자를 가짐). 이 때, 하나의 노출 주기에서 각 수광부마다 2개의 참조 신호가 제공될 수 있다. 예를 들어, 제1 노출 주기에서 제1 참조 신호 및 제2 참조 신호가 제1 수광부에 제공되고, 제3 참조 신호 및 제4 참조 신호가 제2 수광부에 제공될 수 있다. 이를 통해, 각 참조 신호에 대응하는 전기 신호가 생성되고, 제어부는 상술한 바와 같이 각 전기 신호의 전차 충전량을 이용하여 광 신호와 입력광 신호 사이의 위상차(td)를 계산할 수 있다.
또한, 다른 실시예로 하나의 프레임 주기에 4개의 노출 주기가 존재하고, 각 노출 주기마다 90도 위상차이를 갖는 4개의 참조 신호가 수광부로 제공될 수 있다. 그리고 제어부는 각 노출 주기 동안 생성된 전기 신호의 전하량을 이용하여 상술한 광 신호와 입력광 신호 사이의 위상차(td)를 계산할 수 있다.
또한, 도 20를 참조하면, 하나의 프레임 주기는 순차로 제1 노출 주기와 제2 노출 주기를 포함할 수 있다. 이미지 센서(IS)는 제1 노출 주기 동안 제1 참조 신호(C1)와 제2 참조 신호(C2)를 각각 제1 픽셀(DX-1)과 제2 픽셀(DX-2)로 제공할 수 있다. 그리고 제2 노출 주기 동안 제3 참조 신호(C3)와 제4 참조 신호(C4)를 각각 제1 픽셀(DX-1)과 제2 픽셀(DX-2)로 제공할 수 있다. 이에 따라, 제1 노출 주기에서 Q1, Q2를 생성하고, 제2 노출 주기에서 Q3, Q4를 생성할 수 있다. 이에 따라, 제어부는 하나의 프레임에서 Q1 내지 Q4를 모두 생성할 수 있고, 생성된 4개의 전기 신호의 전하량을 이용하여 광 신호와 입력광 신호 사이의 위상차(td)를 계산할 수 있다.
또한, 제어부는 광 신호와 입력광 신호의 위상차(td)를 이용하여 객체와 카메라 모듈 사이의 거리를 계산할 수 있다. 이때, 제어부는 아래의 수학식 2를 이용하여 객체와 카메라 모듈 사이의 거리(d, 수학식 2 참조)를 계산할 수 있다.
Figure PCTKR2021001784-appb-img-000002
여기서, c는 빛의 속도이고, f는 출력광의 주파수이다.
실시예에 따르면, 카메라 모듈로부터 ToF IR 영상 및 거리(depth) 영상을 얻을 수 있다. 이에 따라, 본 발명의 실시예에 따른 카메라 모듈은 ToF 카메라 모듈 또는 ToF 카메라 모듈이라 지칭될 수도 있다.
나아가, 하나의 프레임에서 제1 참조 신호 내지 제4 참조신호는 동일한 노출 주기에 인가될 수도 있고, 상술한 바와 같이 일부 또는 각각 서로 다른 노출 주기가 인가될 수도 있다.
이와 관련하여 더욱 구체적으로 설명하면, 도 21에 예시된 바와 같이 실시예에 따른 카메라 모듈은 4개의 위상에 대한 로우(raw) 영상을 생성할 수 있다. 여기서, 4개의 위상은 0°, 90°, 180°, 270°일 수 있으며, 각 위상에 대한 로우 영상은 위상 별로 디지털화된 픽셀 값 또는 아날로그 픽셀 값으로 이루어진 영상일 수 있고, 위상 영상, 위상 IR 영상 등과 혼용될 수 있다.
도 21는 다른 실시예에 따른 센서에서 거리 영상을 생성하는 1 프레임 주기의 타이밍도이고, 도 22은 도 21에서 프레임 주기 내의 노출 주기 별 전기 신호를 생성하는 타이밍도이고, 도 23은 도 21에서 노출 주기(PL1)에서 타이밍도이고, 도 24은 도 21에서 노출 주기(PL2)에서 타이밍도이고, 도 25는 도 21에서 노출 주기(PL3)에서 타이밍도이고, 도 26은 도 21에서 노출 주기(PL4)에서 타이밍도이다.
도 21를 참조하면, 다른 실시예에 따른 센서에서 거리 영상 이미지를 추출할 수 있는 1 프레임 주기 동안 4개의 노출 주기(integration time) 및 4개의 리드아웃이 존재할 수 있다. 다만, 상술한 바와 같이, 노출 주기의 개수 및 리드아웃의 개수는 수광부의 개수, 충전 소자 및 스위칭의 개수에 따라 다양하게 변경될 수 있다. 또한, 도 21 내지 도 26에서는 입사광(LS1)의 듀티비(duty ratio)를 25%로 설정하여 설명한다. 다만, 본 발명에서 입사광의 듀티비는 이에 제한되지 않고 다양하게 변경될 수 있다.
1 프레임 주기는 순차로 수행되는 제1 노출 주기(PL1), 제2 노출 주기(PL2), 제3 노출 주기(PL3) 및 제4 노출 주기(PL4)를 포함할 수 있다. 그리고 각 노출 주기 사이에는 리드아웃이 수행될 수 있다. 이에, 1 프레임 주기는 제1 노출 주기 내지 제4 노출 주기(PL1 내지 PL4)와 리드아웃(예로, 4개)을 포함할 수 있다. 이에 대한 설명은 상술한 내용과 동일하게 적용될 수 있다. 또한, 각 노출 주기는 입사광(LS1)의 주기와 동일할 수 있다.
도 22를 참조하면, 각 노출 주기마다 각 픽셀에서는 상이한 위상에 대한 전기 신호를 생성할 수 있다. 즉, 상이한 참조 신호가 인가될 수 있다. 구체적으로, 하나의 픽셀은 제1 픽셀(DX-1) 및 제2 픽셀(DX-2)으로 이루어지는 것으로 이하 설명한다. 제1 노출 주기(PL1)에서 제1 픽셀(DX-1)은 입사광(LS1)과 동일한 위상을 갖는 제1 참조 신호(상술한 C1에 대응)가 인가되고, 제2 픽셀(DX-2)은 제1 참조 신호와 180도 위상이 늦은 제2 참조 신호(상술한 C2에 대응)가 인가될 수 있다. 그리고 제2 노출 주기(PL2)에서 제1 픽셀(DX-1)은 제1 참조 신호(C1)에 90도 늦은 제3 참조 신호(상술한 C3에 대응)가 인가되고, 제2 픽셀(DX-2)은 제3 참조 신호와 180도 위상이 늦은 제4 참조 신호(상술한 C4에 대응)가 인가될 수 있다. 또한, 제3 노출 주기(PL3)에서 제1 픽셀(DX-1)은 제2 참조 신호(C2)가 인가되고 제2 픽셀(DX-2)은 제1 참조 신호(C1)가 인가될 수 있다. 그리고 제4 노출 주기(PL4)에서 제1 픽셀(DX-1)은 제4 참조 신호(C4)가 인가되고, 제2 픽셀(DX-2)은 제3 참조 신호(C3)가 인가될 수 있다.
이에 따라, 제1 노출 주기(PL1)에서 제1 픽셀(DX-1)은 상술한 전하량(Q1)에 대응하는 전하량(Q0°)을 생성하고, 제2 픽셀(DX-2)은 상술한 전하량(Q2)에 대응하는 전하량(Q180°)을 생성할 수 있다. 그리고 제2 노출 주기(PL2)에서 제1 픽셀(DX-1)은 상술한 전하량(Q3)에 대응하는 전하량(Q90°)을 생성하고, 제2 픽셀(DX-2)은 상술한 전하량(Q4)에 대응한 전하량(Q270°)을 생성할 수 있다. 또한, 제3 노출 주기(PL3)에서 제1 픽셀(DX-1)은 전하량(Q180°)을 생성하고, 제2 픽셀(DX-2)은 전하량(Q0°)을 생성하며, 제4 노출 주기(PL4)에서 제1 픽셀(DX-1)은 전하량(Q270°)을 생성하고, 제2 픽셀(DX-2)은 전하량(Q90°)을 생성할 수 있다.
그리고 실시예에 따르면 픽셀은 각 노출 주기에서 제1 수광부와 제2 수광부에서 생성한 전기 신호의 차를 출력할 수 있다. 즉, 픽셀은 제1 노출 주기에서 전하량(Q0°)와 전하량(Q180°)의 차이(Q0°- Q180°)를 출력하고, 제2 노출 주기에서 전하량(Q90°)와 전하량(Q270°)의 차이(Q90°- Q270°)을 출력할 수 있다.
도 22 내지 도 26을 참조하면, 복수 개의 노출 주기(P1 내지 P4)는 복수 개의 서브 노출 주기로 이루어질 수 있다. 예컨대, 제1 노출 주기(PL1)는 복수 개의 서브 노출 주기(PL11 내지 PL13)을 포함하고, 제2 노출 주기(PL2)는 복수 개의 서브 노출 주기(PL21 내지 PL23)을 포함하고, 제3 노출 주기(PL3)는 복수 개의 서브 노출 주기(PL31 내지 PL33)을 포함하고, 제4 노출 주기(PL4)는 복수 개의 서브 노출 주기(PL41 내지 PL43)을 포함할 수 있다. 이 경우, 각 서브 노출 주기가 입사광(LS1)의 주기와 동일할 수 있다. 그리고 각 노출주기에서 제1 픽셀(DX-1)과 제2 픽셀(DX-2)에서 생성되는 전기 신호는 도 21에서 상술한 내용과 동일하다.
이 때, 제어부는 복수 개의 서브 노출 주기를 통해 얻은 전기 신호의 평균을 1 노출 주기의 전기 신호로 처리할 수 있다. 이에 따라, 거리에 대한 전기 신호의 정확도를 더욱 개선할 수 있다.
도 27a는 실시예에 따른 제어부의 구동을 설명하는 도면이다.
도 27a를 참조하면, 실시예에 따른 카메라 장치에서 제어부는 소정의 주기(예로, 프레임 주기)로 광원이 광을 조사하도록 제어하는 광조사 신호를 출력할 수 있다. 실시예로, 광원은 제어부의 광조사 신호에 의해 주기적으로 온(on) 또는 오프(off)될 수 있다.
제어부는 광조사 신호를 광원으로 제공할 수 있다. 이에, 광원은 광조사 신호에 따라 소정의 주기를 갖는 광을 출사할 수 있다. 예컨대, 조사된 광은 상술한 입사광에 대응할 수 있다. 그리고 광은 소정의 프레임 주기로 조사될 수 있다. 예컨대, 광은 30FPS로 조사될 수 있다. 이에 따라, 실시예에 따른 카메라 모듈은 1초당 30프레임을 생성할 수 있다. 또한, 광조사 신호는 상술한 입사광 또는 입사광 신호에 대응할 수 있다.
광조사 신호는 광원을 구동하는 신호이며, 상술한 바와 같이 복수 개의 펄스로 이루어질 수 있다. 실시예로, 광조사 신호는 복수 개의 파장을 갖는 신호일 수 있다.
또한, 예로써 광조사 신호는 1프레임 주기에서, 복수 개의 펄스로 이루어질 수 있다. 즉, 광조사 신호는 1프레임 주기에서 복수 개의 펄스를 갖고, 복수 개의 펄스에 대해 이미지 센서가 노출 신호에 따라 거리 측정을 위한 상술한 전기 신호를 생성할 수 있다.
또한, 상술한 바와 하나의 프레임 주기에서 복수 개의 노출신호는 동시에 또는 서로 다른 노출 주기로 출력될 수 있다. 이는 이미지 센서의 수광부의 개수 및 상 구동 방식에 따라 변경될 수 있다.
예컨대, 광조사 신호는 하나의 프레임 주기에서, 4개의 펄스를 가질 수 있다. 4개의 펄스에 의해 4개의 참조 신호를 통한 4개의 전기 신호가 생성될 수 있다. 그리고 상술한 바와 같이 4개의 전기 신호에 의해 하나의 프레임 마다 영상이 생성될 수 있다. 그리고 노출주기는 4개의 전기 신호에 대응하여 1, 2, 4개 등 다양할 수 있다. 이하에서는 하나의 프레임 주기는 하나의 노출주기를 갖는 것으로 설명한다. 즉, 하나의 노출신호의 주기(노출 주기) 동안 4개의 전기 신호가 생성되는 것을 기준으로 설명한다.
제어부는 이미지 센서 내에 위치할 수 있다. 즉, 광조사 신호는 이미지 센서에서 광원으로 이동할 수 있다. 이러한 구성에 의하여, 노출신호와 광조사 신호 간의 동기화 또는 싱크(sync)가 용이하기 이루어져 전송에 따른 시간오차를 최소화할 수 있다. 그리고 최소화된 시간오차에 의해, 구성요소의 구동 정확도가 개선될 수 있다.
또한, 제어부는 이미지 센서의 노출(exposure)을 제어하는 노출 신호를 출력할 수 있다. 보다 구체적으로, 노출 신호는 이미지 센서 내의 이미지 센서 제어부(또는 드라이버)로부터 출력될 수 있다. 이에 대한 자세한 설명은 후술한다.
그리고 노출 신호에 의해 이미지 센서 내의 제1,2 수광부는 흡수한 입력광 신호를 전기 신호로 변환하여 출력할 수 있다. 이러한 수행은 상술한 비직접 비행거리시간측정(indirect-TOF)에서의 수행일 수 있다.
그리고 직접 비행거리시간측정(direct-TOF) 시에 노출 신호는 이미지 센서가 반사광을 수신한 신호일 수 있다. 즉, 제어부는 광조사 신호에 의해 입사광이 출력된 이후에 반사광을 노출신호와 같이 수신할 수 있다. 이 때, 제어부는 후술하는 바와 동일하게 광조사 신호 즉, 입력광이 출력되기 전에 후술하는 구동신호를 출력하여 광학부를 원하는 위치로 이동시킬 수 있다.
이하에서는 비직접 비행거리시간측정(indirect-TOF)을 기준으로 설명한다.
노출 신호는 상술한 노출 주기(integration time)와, 리드아웃(read out) 및 유휴 구간을 가질 수 있다. 유후 구간(Idle time)은 프레임 주기 내에서 노출 주기(integration time)와 리드아웃(read out) 이후에 위치할 수 있다. 유휴 구간은 이미지 센서 내의 수광부의 동작이 수행되지 않는 구간일 수 있다.
또한, 제어부는 상술한 바와 같이 이미지 센서 내에 위치할 수 있다. 그리고 노출 신호를 기준으로 광조사 신호 및 후술하는 구동신호가 동기화될 수 있다. 이로써, 이미지 센서의 노출 신호를 기준으로 광조사 신호가 출력되어 입사광 및 반사광에 따른 거리 측정의 오차를 최소화할 수 있다.
또한, 후술하는 바와 같이 제어부는 광학부의 이동을 위해 구동부로 출력되는 구동신호를 출력할 수 있다. 제어부는 이미지 센서 내에 또는 카메라 모듈 내에 위치할 수 있다. 뿐만 아니라, 수광부 또는 발광부에 위치할 수 있다. 그리고 이러한 제어부는 광조사 신호 또는 노출 신호를 출력하는 제어부와 별도로 이루어질 수 있다. 즉, 실시예에 따르면 제어부는 복수 개일 수 있으며, 다양한 위치를 가질 수 있다. 이에 대한 자세한 설명은 후술한다.
그리고 실시예에 따르면 광조사 신호가 인가될 때, 카메라 모듈의 광학부는 구동부에 의해 초기(initial)위치에서 광이 점 형태를 제공하는 위치(spot) 또는 광이 면 형태를 제공하는 위치(flood)로 이동할 수 있다. 또는 광학부는 구동부에 의해 점 형태의 광을 제공하는 위치 또는 면 형태의 광을 제공하는 위치로 이동할 수 있다. 실시예로, 광학부는 광원이 온(on)되기 소정의 시간 전에 초기위치에서 제1 위치(면 형태에서의 광학부 위치 또는 점 형태에서의 광학부 위치)로 이동할 수 있다. 이하 이러한 광학부의 이동에 대해 설명한다. 그리고 본 명세서에서 초기위치는 구동신호가 인가되지 않은 경우 광학부의 위치를 의미한다. 또한, 점 형태의 광은 광학부를 통과한 후 광원 또는 광학부(또는 카메라 모듈)과 소정의 거리 이격된 객체에서 가장 작은 크기를 제공하는 광일 수 있다. 또는 면 형태의 광은 광학부를 통과한 후 광원 또는 광학부(또는 카메라 모듈)과 소정의 거리 이격된 객체에서 가장 큰 크기를 제공하는 광일 수 있다. 또한, 이는 초기위치를 제외한 광학부의 제어되는 범위에서 적용될 수 있다.
도 27b는 제1 실시예에 따른 광학부의 이동을 설명하는 도면이다.
도 27b를 참조하면, 제1 실시예에 따른 광학부는 광원이 온(on)될 때, 제1 위치로 이동하고, 광원이 오프(off)될 때 초기위치로 이동할 수 있다. 즉, 인가된 구동 신호에 따라 광학부가 제1 위치에 위치하며, 구동 신호에 따라 광학부를 통해 면 형태 또는 점 형태 중 어느 하나의 광이 출력될 수 있다. 이하에서, 광원이 온(on)되는 경우는 소정의 주기 내에서 복수 개의 펄스 전체 또는 적어도 하나의 복수 개의 펄스가 온(on) 또는 인가되는 경우를 의미한다. 그리고 광원이 오프(off)되는 경우는 소정의 주기 내에서 복수 개의 펄스 전체 이후 또는 이전의 오프되는 경우를 의미한다. 다만 설명을 위해 복수의 펄스 전체를 기준으로 설명한다.
실시예에 따르면, 광학부가 초기위치에 위치할 때, 광학부는 광을 면 형태와 복수의 점 형태 중 어느 하나로 출력할 수 있다. 또한, 광학부가 제1 위치에 위치할 때 광학부는 광을 면 형태와 점 형태 중 다른 하나로 출력할 수 있다.
본 실시예에서는, 광학부가 초기 위치에 위치한 경우, 점 형태로 광이 출력될 수 있다. 그리고 광학부가 제1 위치에 있을 때 카메라 모듈은 광을 면 형태로 출력할 수 있다.
그리고 실시예에서 광학부가 초기위치 또는 제1 위치 중 어느 하나의 위치에 있는 경우 광학부와 광원 간의 거리는 광학부의 후방초점거리 또는 백포커스(backfocus)의 거리와 같을 수 있다.
제1 실시예에서, 광학부의 후방초점거리는 광학부가 초기위치 또는 점 형태에서의 위치에 있는 경우 광학부와 광원 간의 거리와 동일할 수 있다.
또한, 제1 실시예에서 초기 위치 또는 점 패턴에서의 광학부와 광원 사이의 거리(dd1)는 면 패턴에서의 광학부와 광원 사이의 거리(dd2)보다 작을 수 있다.
도 27c는 제2 실시예에 따른 광학부의 이동을 설명하는 도면이다.
도 27c를 참조하면, 제2 실시예에 따른 광학부는 광원이 온(on)될 때, 제1 위치로 이동하고, 광원이 오프(off)될 때 초기위치로 이동할 수 있다.
실시예에 따르면, 광학부가 초기위치에 위치할 때, 광학부는 광을 면 형태와 복수의 점 형태 중 어느 하나로 출력할 수 있다. 또한, 광학부가 제1 위치에 위치할 때 광학부는 광을 면 형태와 점 형태 중 다른 하나로 출력할 수 있다.
본 실시예에서는, 광학부가 초기 위치에서 면 형태로 광을 출력할 수 있다. 그리고 광학부가 제1 위치에 있을 때 광을 복수의 점 형태로 출력할 수 있다.
또한, 상술한 바와 같이 실시예에 따른 카메라 모듈에서 광학부가 초기위치 또는 제1 위치 중 어느 하나의 위치에 있는 경우 광학부와 광원 간의 거리는 광학부의 후방초점거리 또는 백포커스(backfocus)의 거리와 같을 수 있다.
제2 실시예에서, 광학부의 후방초점거리는 광학부가 초기위치 또는 면 패턴에서의 위치에 있는 경우 광학부와 광원 간의 거리와 동일할 수 있다.
또한, 상술한 바와 같이 제2 실시예에서 점 패턴에서의 광학부와 광원 사이의 거리(dd1)는 초기 위치 또는 면 패턴에서의 광학부와 광원 사이의 거리(dd2)보다 작을 수 있다.
도 27d는 제3 실시예에 따른 광학부의 이동을 설명하는 도면이다.
도 27d를 참조하면, 제3 실시예에 따른 광학부는 광원이 온(on)될 때, 제1 위치로 이동하고, 광원이 오프(off)될 때 초기위치로 이동할 수 있다.
실시예에 따르면, 광학부가 제1 위치에 위치할 때, 광학부는 광을 면 형태와 복수의 점 형태 중 어느 하나로 출력할 수 있다. 또한, 광학부가 제1 위치에 위치할 때 광학부는 광을 면 형태와 점 형태 중 다른 하나로 출력할 수 있다.
보다 구체적으로, 광학부는 광을 점 형태로 출력하는 경우 제1-A 위치에 위치할 수 있다. 그리고 광학부는 광을 면 형태로 출력하는 경우 제1-B 위치에 위치할 수 있다.
본 실시예에서는, 광학부는 초기위치, 제1-A위치 및 제1-B 위치로 이동할 수 있다. 그리고 광원과 제1-A 위치에서의 광학부 간의 거리(dd1)는 광원과 초기위치에서의 광학부 간의 거리(dd0)보다 클 수 있다. 또한, 광원과 제1-B 위치에서의 광학부 간의 거리(dd2)는 광원과 제1-A 위치에서의 광학부 간의 거리(dd1)보다 클 수 있다.
또한, 초기위치와 제1-A 위치 사이의 거리(dd1-dd0)는 초기위치와 제1-B 위치 사이의 거리(dd2-dd0)보다 작을 수 있다.
이로써, 본 실시예에 따른 카메라 모듈에서, 광학부는 일 방향으로 이동하면서 점 패턴 또는 면 패턴으로 광을 출력할 수 있다. 이에 따라, 광학부의 이동이 용이하게 제어될 수 있다. 나아가, 먼 거리를 주로 사용하는 경우 광학부는 점 패턴의 광을 면 패턴 대비 용이하게 제공할 수 있다. 이로써, 전력 효율이 개선될 수 있다.
도 27e는 제4 실시예에 따른 광학부의 이동을 설명하는 도면이다.
도 27e를 참조하면, 제4 실시예에 따른 광학부는 광원이 온(on)될 때, 제1 위치로 이동하고, 광원이 오프(off)될 때 초기위치로 이동할 수 있다.
그리고 실시예에서 광학부가 제1 위치에 위치할 때, 광학부는 광을 면 형태와 복수의 점 형태 중 어느 하나로 출력할 수 있다. 또한, 광학부가 제1 위치에 위치할 때 광학부는 광을 면 형태와 점 형태 중 다른 하나로 출력할 수 있다.
보다 구체적으로, 광학부는 광을 점 형태로 출력하는 경우 제1-A 위치에 위치할 수 있다. 그리고 광학부는 광을 면 형태로 출력하는 경우 제1-B 위치에 위치할 수 있다. 이에 따라, 광학부는 초기위치, 제1-A위치 및 제1-B 위치로 이동할 수 있다.
그리고 광원과 제1-A 위치에서의 광학부 간의 거리(dd1')는 광원과 초기위치에서의 광학부 간의 거리(dd0')보다 작을 수 있다. 또한, 광원과 제1-B 위치에서의 광학부 간의 거리(dd2')는 광원과 초기위치에서의 광학부 간의 거리(dd0')보다 클 수 있다.
또한, 초기위치와 제1-A 위치 사이의 거리(dd0'-dd1')는 초기위치와 제1-B 위치 사이의 거리(dd2'-dd0')보다 작을 수 있다.
이로써, 본 실시예에 따른 카메라 모듈에서, 광학부는 상부 또는 하부 방향으로 모두로 이동하면서 점 패턴 또는 면 패턴으로 광을 출력할 수 있다. 이에 따라, 광학부의 이동량을 줄일 수 있다. 이로써, 전력 효율이 향상될 수 있다. 나아가, 초기위치와 제1-A 위치 간의 거리와 초기위치와 제1-B 위치 간의 거리를 동일 또는 상이하게 조절할 수 있다. 예컨대, 초기위치와 제1-A 위치 간의 거리와 초기위치와 제1-B 위치 간의 거리가 서로 동일한 경우, 광학부의 이동 범위가 최소화될 수 있다. 또한, 초기위치와 제1-A 위치 간의 거리와 초기위치와 제1-B 위치 간의 거리가 상이한 경우, 주로 사용하는 케이스에 맞춰 전력 효율을 더욱 향상시킬 수 있다. 예를 들어, 먼 거리의 객체에 대해 주로 사용하는 경우 광학부에서 초기위치와 제1-A 위치 간의 거리가 초기위치와 제1-B 위치 간의 거리보다 작을 수 있다. 반대로 가까운 거리의 객체에 대해 주로 사용하는 경우 광학부에서 초기위치와 제1-A 위치 간의 거리가 초기위치와 제1-B 위치 간의 거리보다 클 수 있다.
도 27f는 제5 실시예에 따른 광학부의 이동을 설명하는 도면이다.
도 27f를 참조하면, 제5 실시예에 따른 광학부는 광원이 온(on)될 때, 제1 위치로 이동하고, 광원이 오프(off)될 때 초기위치로 이동할 수 있다.
그리고 실시예에서 광학부가 제1 위치에 위치할 때, 광학부는 광을 면 형태와 복수의 점 형태 중 어느 하나로 출력할 수 있다. 또한, 광학부가 제1 위치에 위치할 때 광학부는 광을 면 형태와 점 형태 중 다른 하나로 출력할 수 있다.
보다 구체적으로, 광학부는 광을 점 형태로 출력하는 경우 제1-A 위치에 위치할 수 있다. 그리고 광학부는 광을 면 형태로 출력하는 경우 제1-B 위치에 위치할 수 있다. 이에 따라, 광학부는 초기위치, 제1-A위치 및 제1-B 위치로 이동할 수 있다.
그리고 광원과 초기위치에서의 광학부 간의 거리(dd0'')는 광원과 제1-B 위치에서의 광학부 간의 거리(dd2'')보다 클 수 있다. 또한, 광원과 제1-B 위치에서의 광학부 간의 거리(dd2'')는 광원과 제1-A 위치에서의 광학부 간의 거리(dd1'')보다 클 수 있다.
또한, 초기위치와 제1-A 위치 사이의 거리(dd0''-dd1'')는 제1-B 위치와 제1-A 위치 사이의 거리(dd2''-dd1'')보다 클 수 있다.
이로써, 본 실시예에 따른 카메라 모듈에서, 광학부는 일 방향(하부)로 이동하면서 점 패턴 또는 면 패턴으로 광을 출력할 수 있다. 이에 따라, 광학부의 이동이 용이하게 제어될 수 있다. 나아가, 가까운 거리를 주로 사용하는 경우 광학부는 면 패턴의 광을 복수의 점 패턴대비 용이하게 제공할 수 있다. 이로써, 전력 효율이 개선될 수 있다.
도 27g는 실시예에 따른 카메라 모듈의 블록도이다.
도 27g를 참조하면, 실시예에 따른 카메라 모듈은 제어부(CLO), 이미지 센서(IS)의 센서 제어부(ISD), 광원(LS)의 광제어부(LSD), 구동부(AT)의 구동제어부(ATD)를 포함할 수 있다. 실시예로, 카메라 모듈은 내부에 제어부(CLO)를 포함할 수 있다. 또는 제어부(CLO)가 어플리케이션 프로세서(Application processor)일 수 있다.
먼저, 이미지 센서(IS)의 센서 제어부(ISD)는 제어부(CLO)로 노출신호에 동기화된 트리거 신호(Trigger out)를 출력할 수 있다. 나아가, 센서 제어부(ISD)는 제어부(CLO)로 노출신호에 대응한 광원의 광출력 신호(Mode SE_out)를 출력할 수 있다. 즉, 트리거 신호(Trigger out)와 광출력 신호(Mode SE_out)는 모두 노출신호에 대응하기에 서로간에도 동시 또는 소정의 시간차로 출력될 수 있다. 그리고 센서 제어부(ISD)는 이미지 센서(IS) 내에 위치할 수 있다. 그리고 광원(LS)에서 광조사부는 예를 들어 수직 공진 표면 발광 레이저(vcsels)일 수 있다. 이에, 광제어부(LSD)는 광조사부에 대응하여 'vcsels Driver IC'로 도시한다. 또한, 구동부(AT)에서 VCM은 전류를 주입받는 구동 코일부(150)에 대응하고, 이에 따라 구동제어부(ATD)는 'VCM Driver IC'로 도시한다.
그리고 실시예로, 센서 제어부(ISD)는 광원(LS)의 광제어부(LSD)를 온(on)시키는 신호(LD_EN)를 출력할 수 있다. 이후에, 광제어부(LSD)는 제어부(CLO)로부터 광조사 신호(Mode SE_in)를 수신하므로 전력 효율이 극대화될 수 있다.
또한, 실시예에 따른 제어부(ISD)는 이미지 센서(IS)로부터 트리거 신호(Trigger out)와 광출력 신호(Mode SE_out)를 수신하면 이에 동기화된 광조사 신호(Mod SE_in)와 구동신호를 출력할 수 있다. 이에, 광조사 신호에 의해 광원(LS)은 광을 출력할 수 있다. 또한, 구동신호에 의해 구동부에 의해 광학부가 이동할 수 있다.
이 때, 광조사 신호와 구동신호는 노출신호에 대해 동기화될 수 있다. 예컨대, 노출신호에 따라 광을 수광하는 시구간 이전에 광조사 신호에 따라 광원(LS)에서 광 출력이 이루어질 수 있다. 나아가, 광원(LS)에서 광출력이 이루어지기 전에 구동부에 의해 광학부의 이동이 이루어질 수 있다. 다시 말해, 광조사 신호의 인가 이전에 구동신호의 인가로 시간동기화될 수 있다. 이에 대한 자세한 설명은 후술한다.
도 28은 제1 실시예에 따른 제어부의 구동을 설명하는 도면이다.
도 28을 참조하면, 상술한 바와 같이 제어부는 광학부의 이동을 위해 구동부로 출력되는 구동신호를 출력할 수 있다.
구동신호는 광학부로 출력되고, 광학부는 제어부로부터 출력된 구동신호에 의해 상하이동을 수행할 수 있다. 그리고 이러한 광학부의 상하이동에 의해 광원으로부터 조사된 광이 점 형태 또는 면 형태로 변환되어 객체에 조사될 수 있다. 그리고 상술한 제3 실시예에 따른 광학부의 이동을 기준으로 이하 설명한다.
구동신호는 제어부에 의해 노출신호를 기준으로 동기화되어 출사될 수 있다. 실시예로, 구동신호는 제어부에 의해 1개의 프레임 주기에서 노출신호 이후에 출력될 수 있다. 이하에서, 1개의 프레임 주기는 도면과 같이 노출 신호의 주기를 기준으로 설명한다. 그리고 노출 신호는 복수 개의 노출 주기로 이루어질 수 있으나, 하나의 노출 주기를 기준으로 이하 설명한다. 이에 따라, 노출 신호의 시작 및 종료는 하나의 프레임을 생성할 수 있는 복수 개의 노출 주기 또는 하나의 노출 주기에서 설명한다. 또한, 광조사 신호도 복수 개의 펄스로 이루어질 수 있으나, 이하에서는 하나의 펄스로 설명한다. 그리고 광조사 신호의 시작 및 종료도 하나의 프레임을 생성할 수 있는 복수 또는 하나의 주기로 설명한다. 또한, 광조사 신호의 주기도 하나의 프레임 주기와 동일할 수 있다. 또한, 본 명세서에서 광조사 신호와 구동신호는 펄스 부분에서 출력되는 것으로 설명한다. 그리고 출력 또는 인가는 하이(high) 구간에 대응할 수 있다. 또한, 하이(high)는 온(on)에 대응한다. 그리고 종료는 로우(low) 상태일 수 있다. 그리고 로우(low)는 오프(off)에 대응한다.
구동신호는 광조사 신호의 출력 이전에 출력될 수 있다. 실시예로, 구동신호는 1개의 프레임 주기 내에서 노출신호와 광조사 신호 사이에 출력될 수 있다. 즉, 제어부에 의해 1개의 프레임 주기 내에서 노출신호가 출력된 이후에 구동신호가 출력될 수 있다. 제어부는 노출 신호의 출력을 기준으로 광조사 신호와 구동신호의 출력을 조정할 수 있다.
또한, 구동신호는 광조사 신호의 출력 이후에도 유지될 수 있다. 또한, 구동신호는 광조사 신호의 출력의 종료와 동일하게 종료되거나, 출력의 종료 이후에 출력되지 않을 수 있다. 예컨대, 구동신호는 프레임 주기 직전의 프레임 주기에서 광조사 신호가 출력되기 전에 인가될 수 있다. 또는 구동신호가 프레임 주기에서 출력된 이후에 동일한 프레임 주기에서 광조사 신호가 출력될 수 있다. 그리고 광조사 신호가 출력된 이후에 소정 시간 또는 시간차(dh) 이후에 노출 신호가 출력될 수 있다. 이러한 구성에 의하여, 실시예에 따른 카메라 모듈에서 광학부가 원하는 위치로 이동되는데 걸리는 시간을 고려하여(예로, 정착 시간(settling time)) 광원에 의한 광조사가 이루어지기 전에 광학부의 이동이 수행될 수 있다.
또한, 광조사 신호가 출력되기 전에 광학부가 원하는 위치로 이동되고, 이는 광원에 의한 광 조사가 프레임 주기 내에서 끝날때까지 유지될 수 있다. 이에 따라, 거리 영상을 원하는 패턴으로 촬영할 수 있다. 이에, 거리 측정이 보다 정확하게 이루어질 수 있다.
또한, 실시예에 따르면 구동신호는 노출신호와 중첩되지 않을 수 있다. 구동신호는 광조사 신호의 출력 종료 지점과 노출신호의 출력 시작 지점(다음 프레임 주기) 사이에서 출력의 종료될 수 있다. 이에 따라, 광학부의 이동을 위한 에너지 소모를 최소화할 수 있다. 즉, 카메라 모듈의 에너지 효율이 향상될 수 있다. 또한, 광학부를 이동시키는 엑추에이터 등에서 발생하는 진동을 최소화하여 소자의 신뢰성을 개선할 수 있다.
실시예로, 구동신호는 광조사 신호의 출력 이전의 제1 구간(PE1) 및 제1 구간(PE1)에 연속하는 제2 구간(PE2)을 포함할 수 있다.
제1 구간(PE1)은 노출신호의 유휴 구간(Idle time)과 중첩될 수 있다. 또한, 제1 구간(PE1)은 광조사 신호(광조사 신호의 인가)와 중첩되지 않을 수 있다. 이에, 1개의 프레임 주기 내에서 광학부의 구동에 대한 에너지 소모를 줄일 수 있다.
또한, 구동신호는 노출신호의 인가 종료 이후에 시간차(dh)를 갖고 인가될 수 있다. 이로써, 구동신호에 의한 전력 소모를 줄일 수 있다. 이러한 시간차(dh)는 노출 신호의 종료 이후에 기설정된 시간 내에 출력되는 광조사 신호의 인가의 시점을 고려하여 설정될 수 있다. 즉, 시간차(dh)는 면 형태 또는 점 형태의 출사를 위한 최대 정착 시간(settling time)을 고려한 최대 딜레이 시간차일 수 있다. 그리고 이러한 구성에 의하여, 에너지 효율이 개선될 수 있다.
도 29는 면 형태 또는 점 형태를 제공하기 위한 구동신호의 조절을 설명하는 도면이다.
도 29를 참조하면, 실시예에 따른 카메라 모듈에서 제어부는 구동신호에서 제1 구간(PE1)의 폭을 조절하여 광을 점 형태 또는 면 형태로 조절할 수 있다.
실시예로, 구동신호에서 제1 구간(PE1)은 제1 폭(TW1) 또는 제2 폭(TW2)을 가질 수 있다. 그리고 제1 폭(TW1)은 제2 폭(TW2)보다 작을 수 있다. 다시 말해, 제어부는 구동신호의 전체 폭이 상이하게 조절할 수 있다.
실시예로, 제1 구간(PE1)이 제1 폭(TW)을 갖는 경우는 제2 구간(PE2)이 제2 폭(TW2)을 갖는 경우 대비, 광학부의 이동량이 작을 수 있다. 그리고 광학부의 초기(initial) 위치가 하부에 위치하는 경우, 구동신호가 제1 폭(TW1)을 가짐으로써 점 형태의 광이 출력될 수 있다. 또한, 광학부의 초기(initial) 위치가 하부에 위치하는 경우, 구동신호가 제2 폭(TW2)을 가짐으로써 면 형태의 광이 출력될 수 있다. 다만, 이러한 조절에 대한 설명은 상술한 바와 같이 광학부의 초기(initial) 위치가 이미지 센서에 인접한 하부로 설정된 경우를 기준으로 설명한다. 광학부의 초기(initial) 위치가 상부로 설정된 경우는 반대일 수 있다.
실시예에서는 깊이 영상의 정확도를 위해 에너지가 집중되는 점 형태의 광이 출사되는 지점 또는 이에 인접하게 광학부의 초기 위치(initial)가 설정될 수 있다. 이로써, 광학부의 이동에 대한 에너지 효율을 더욱 향상시킬 수 있다.
또한, 실시예에서는 면 형태를 가는 경우 구동신호가 최대의 폭을 가질 수 있다. 이 때, 하나의 프레임 주기에서 최대폭의 제1 구간(PE1)과 노출 신호는 시간차(dh)를 가질 수 있다.
또한, 제2 구간(PE2)은 면 형태 또는 점 형태와 무관하게 유지될 수 있다. 이러한 구성에 의하여, 광원이 조사되는 구간에 광학부의 이동 또는 진동이 최소화되어, 깊이 영상의 정확도가 개선될 수 있다.
도 30은 면 형태 또는 점 형태를 제공하기 위한 구동신호의 제1 예를 설명하는 도면이다.
도 30을 참조하면, 구동신호는 도 29에서 설명한 바와 같이 폭(ex. 펄스 폭)이 변경될 수 있고, 광은 이에 대응하여 점 형태 또는 면 형태를 가질 수 있다. 이하에서는 상술한 바와 같이 광학부의 초기(initial) 위치가 하부에 위치하는 경우를 기준으로 설명한다. 즉, 광학부와 광원 사이의 거리가 멀어지면 광이 점 형태에서 면 형태로 순차로 변환한다. 그리고 인가 전류는 광학부의 이동을 위해 코일로 인가되는 전류를 의미하며, 전류의 크기는 상술한 구동신호의 폭의 크기에 대응하여 조절될 수 있다.
실시에로, 구동신호는 면 형태의 극성과 점 형태의 극성이 동일할 수 있다. 초기 위치에 대응하는 구동신호의 전류(Iini), 점 형태에 대응하는 구동신호에 의한 전류(Ispot) 및 면 형태에 대응하는 구동신호의 전류(Iflood)는 순차로 위치할 수 있다. 이에 따라, 구동신호의 폭이 증가하면 광학부는 초기 위치에서 점 형태를 제공하는 위치 그리고 면 형태를 제공하는 위치로 이동할 수 있다. 실시예에서 깊이 영상의 정확도를 위해 에너지가 집중되는 점 형태의 광이 출사되는 지점에 인접하게 광학부의 초기 위치(initial)가 설정되어, 광학부의 이동에 대한 에너지 효율을 더욱 향상시킬 수 있다.
그리고 광학부가 최대 이동하는 경우 즉, 면 형태에 대응하는 구동신호의 전류(Iflood)가 인가된 경우 최대 전력(Pmax1)을 소모할 수 있다.
도 31은 면 형태 또는 점 형태를 제공하기 위한 구동신호의 제2 예를 설명하는 도면이다.
구동신호는 도 29에서 설명한 바와 같이 폭(ex. 펄스 폭)이 변경될 수 있고, 광은 이에 대응하여 점 형태 또는 면 형태를 가질 수 있다. 또한, 상술한 바와 같이 광학부의 초기(initial) 위치가 점 형태를 제공하는 위치와 면 형태를 제공하는 위치 사이에 위치하는 경우를 기준으로 설명한다. 예컨대, 초기 위치는 상부 또는 하부에 인접할 수 있다. 도면 상으로는 초기 위치가 하부에 인접하게 위치할 수 있다. 즉, 광학부와 광원 간의 거리가 감소하면 광이 점 형태로 변환하고, 광학부와 광원 간의 거리가 증가하면 광원이 면 형태로 변환할 수 있다. 점 형태와 면 형태로의 변환은 상술한 바와 같이 소정의 거리보다 작거나 큰 경우에 발생한다.
그리고 인가 전류는 광학부의 이동을 위해 코일로 인가되는 전류를 의미하며, 전류의 크기는 상술한 구동신호의 폭의 크기에 대응하여 조절될 수 있다.
실시에로, 구동신호는 면 형태의 극성과 점 형태의 극성과 상이할 수 있다. 예컨대, 구동신호는 면 형태의 극성과 점 형태의 극성과 반대일 수 있다.
이에, 초기 위치에 대응하는 구동신호의 전류(Iini)는 점 형태에 대응하는 구동신호에 의한 전류(Ispot)와 면 형태에 대응하는 구동신호의 전류(Iflood) 사이에 위치할 수 있다. 이에 따라, 구동신호의 폭과 극성에 따라 광학부의 위치가 조절될 수 있다. 실시예로, 구동신호의 극성은 광학부의 이동 방향을 결정할 수 있다.
예컨대, 광학부는 초기 위치에서 점 형태를 제공하는 위치 그리고 면 형태를 제공하는 위치로 이동할 수 있다. 이 때, 초기 위치는 점 형태를 제공하는 위치와 면 형태를 제공하는 위치 사이에 존재한다.
또한, 구동신호의 극성이 음(-)인 경우 광학부는 하부로 이동하고, 구동신호의 극성이 양(+)인 경우 광학부는 상부로 이동할 수 있다.
그리고 광학부가 최대 이동하는 경우 즉, 면 형태에 대응하는 구동신호의 전류(Iflood)가 인가된 경우 최대 전력(Pmax1)을 소모할 수 있다. 다만, 이는 상술한 바와 같이 광이 점 형태로 출사되는 것을 기준으로 하기 때문이며, 초기 위치는 spot과 flood 중간에 위치할 수도 있다.
그리고 면 형태에 대응하는 구동신호의 극성과 점 형태에 대응하는 구동신호의 극성이 서로 반대인 경우 광학부가 최대 이동하는 경우(예, 면 형태에 대응하는 구동신호의 전류(Iflood)가 인가된 경우)에 최대 전력(Pmax2)이 상술한 최대 전력(Pmax1)보다 작을 수 있다. 즉, 전력 효율이 향상될 수 있다.
실시예에서 깊이 영상의 정확도를 위해 에너지가 집중되는 점 형태의 광이 출사되는 지점에 인접하게 광학부의 초기 위치(initial)가 설정되어, 광학부의 이동에 대한 에너지 효율을 더욱 향상시킬 수 있다.
나아가, 상술한 구성에 의하여, 전류의 최대 크기가 도 31에서 설명한 경우 대비 감소할 수 있다. 예컨대, 초기 위치에 대응하는 구동신호의 전류(Iini)는 점 형태에 대응하는 구동신호에 의한 전류(Ispot)와 면 형태에 대응하는 구동신호의 전류(Iflood)의 중간값(예컨대, 0)을 가질 수 있다. 이러한 구성에 의하여, 광학부의 구동을 위해 인가되는 전류의 최대 크기가 감소할 수 있다. 이로써, 광학부의 이동을 위해 소모되는 전력을 최소화할 수 있다.
또한, 실시예에 따른 제어부의 구동 방법은 광원의 광 출력 이전에 광학부의 이동을 위한 구동신호를 구동부로 송신하는 단계, 상기 광원의 광 출력을 제어하는 광조사 신호를 송신하는 단계 및 노출주기에 따라 이미지 센서가 수광하는 단계를 포함할 수 있다. 여기서, 구동신호와 광조사 신호 그리고 노출신호 또는 노출주기는 상술한 내용이 동일하게 적용될 수 있다.
보다 구체적으로, 제어부는 광원의 온(on)/오프(off)를 제어하는 광조사 신호를 송신할 수 있다. 그리고 제어부는 광조사 신호에 의해 광원이 온(on)될 때 광학부를 제1 위치로 이동하고, 광원이 오프(off)될 때 초기위치로 이동하는 구동신호를 출력할 수 있다. 다만, 구동신호는 광조사 신호에 의해 광원이 온(on)되기 이전에 조사될 수 있다. 또한, 광학부는 상기 광원에서 출력되는 광을 면 형태 또는 복수의 점 형태로 변환하여 출력할 수 있다.
나아가, 광학부의 이동을 위한 구동신호를 구동부로 송신하는 단게 이전에 제어부는 이미지 센서로부터 트리거 신호(Trigger out)와 광출력 신호(Mode SE_out)를 수신할 수 있다. 트리거 신호(Trigger out)와 광출력 신호(Mode SE_out)는 모두 노출신호에 대응한다. 이로써, 이미지 센서의 노출 주기를 기준으로 트리거 신호(Trigger out)와 광출력 신호(Mode SE_out)가 제어부로 출력되므로, 하나의 동작을 기준으로 이미지 센서의 동작(노출주기), 광원의 동작(온/오프) 및 광학부의 이동(구동부의 동작)이 이루어질 수 있다. 이로써, 이러한 동작들 간의 시간적 오차를 최소화하여 용이하게 이루어질 수 있다.
즉, 실시예로, 제어부는 트리거 신호를 수신하여 구동제어부로 구동신호를 출력하고, 이에 대응하여 구동제어부는 구동신호의 온(on) 또는 오프(off)에 따라 광학부의 위치를 초기위치 또는 제1 위치로 이동시킬 수 있다.
그리고 실시예로 구동신호는 트리거 신호가 오프(off)된 이후에 온(on)될 수 있다. 또한, 구동신호는 트리거 신호가 오프(off)에서 온(on)된 이후에도 온(on)으로 유지될 수 있다. 그리고 구동신호는 상기 유지된 트리거 신호가 온(on)에서 오프(off)로 변할 때 또는 오프(off)된 이후에 오프(off)될 수 있다(도 27a 또는 도 28) 다시 말해, 이는 상술한 바와 같이 트리거 신호의 온(on)에 대응한 광제어부의 온(on) 이전에 구동신호에 의한 광학부 이동이 이루어지고, 광부의 이동이 유지된 이후에 트리거신호의 변화(off -> on)에 대응하여 또는 상기 변화이후에 구동신호가 오프(off, 광학부 이동 종료에 대응될 수 있다.
즉, 트리거 신호의 출력과 동기화되어 광원(LS)의 광제어부(LSD)를 온(on)시키는 신호(LD_EN)가 출력될 수 있다. 나아가, 각 제어부의 동작이 상술한 바와 같이 이루어질 수 있음을 이해해야 한다. 나아가, 후술하는 다른 실시예에 따른 제어부의 구동도 동일하게 이루어질 수 있다.
도 32는 제2 실시예에 따른 제어부의 구동을 설명하는 도면이다.
도 32를 참조하면, 제2 실시예에 따른 제어부는 상술한 바와 같이 광조사 신호를 광원으로 제공할 수 있다. 이에, 광원은 광조사 신호에 따라 소정의 주기를 갖는 광을 출사할 수 있다. 광조사 신호는 상술한 입사광 또는 입사광 신호에 대응할 수 있다. 그리고 광조사 신호는 광원을 구동하는 신호이며, 상술한 바와 같이 복수 개의 펄스로 이루어질 수 있다. 실시예로, 광조사 신호는 복수 개의 파장을 갖는 신호일 수 있다. 이하에서 설명하는 내용을 제외하고 상술한 내용이 동일하게 적용될 수 있다.
또한, 제어부는 이미지 센서 내에 위치할 수 있다. 즉, 광조사 신호는 이미지 센서에서 광원으로 이동할 수 있다. 이러한 구성에 의하여, 노출신호와 광조사 신호 간의 동기화(sync)가 용이하기 이루어져 전송에 따른 시간오차를 최소화할 수 있다. 그리고 최소화된 시간오차에 의해, 구성요소의 구동 정확도가 개선될 수 있다.
또한, 제어부는 이미지 센서의 노출(exposure)을 제어하는 노출 신호를 출력할 수 있다. 노출 신호에 의해 이미지 센서 내의 제1,2 수광부는 흡수한 입력광 신호를 전기 신호로 변환하여 출력할 수 있다. 노출 신호에 대한 설명도 후술하는 내용을 제외하고 상술한 내용이 동일하게 적용될 수 있다.
또한, 제어부는 광학부의 이동을 위해 구동부로 출력되는 구동신호를 출력할 수 있다. 이러한 제어부는 이미지 센서 내에 위치할 수 있다. 뿐만 아니라, 수광부 또는 발광부에 위치할 수 있다. 그리고 이러한 제어부는 광조사 신호 또는 노출 신호를 출력하는 제어부와 별도로 이루어질 수 있다. 즉, 실시예에 따르면 제어부는 복수 개일 수 있으며, 다양한 위치를 가질 수 있다.
본 실시예에서, 제어부는 광학부의 이동을 위해 구동부로 출력되는 구동신호를 출력할 수 있다. 이 때, 구동신호는 노출신호와 적어도 일부 중첩될 수 있다. 본 실시예에서 이전 프레임 주기에서 출력된 구동신호는 제외하여 설명한다.
또한, 구동신호는 광학부로 출력되고, 광학부는 구동신호에 의해 상하이동을 수행할 수 있다. 이러한 광학부의 상하이동에 의해 광원으로부터 조사된 광이 점 형태 또는 면 형태로 변환되어 객체에 조사될 수 있다.
본 실시예에서, 그리고 구동신호는 광조사 신호의 출력 이전에 출력될 수 있다. 실시예로, 구동신호는 1개의 프레임 주기 내에서 노출신호와 광조사 신호 사이에서 출력될 수 있다. 또는 구동신호의 출력은 1개의 프레임 주기 내에서 노출신호와 광조사 신호 사이에서 시작될 수 있다. 즉, 1개의 프레임 주기 내에서 노출신호가 출력된 이후에 구동신호가 출력될 수 있다.
그리고 구동신호는 광조사 신호의 출력 이후에도 유지될 수 있다. 구동신호는 광조사 신호의 동일하게 종료되거나, 출력의 종료 이후에 출력되지 않을 수 있다. 이러한 구성에 의하여, 실시예에 따른 카메라 모듈에서 광학부가 원하는 위치로 이동되는데 걸리는 시간을 고려하여(예로, 정착 시간(settling time)) 광원에 의한 광조사가 이루어지기 전에 광학부의 이동이 수행될 수 있다. 또한, 광조사 신호가 출력되기 전에 광학부가 원하는 위치로 이동되고, 이는 광원에 의한 광 조사가 끝날때까지 유지될 수 있다. 이에, 유지를 위해서 인가되는 신호의 크기는 정착 시간에서의 신호의 크기와 동일 또는 상이할 수 있다. 이에 따라, 거리 영상을 원하는 패턴으로 촬영할 수 있다. 이에, 거리 측정이 보다 정확하게 이루어질 수 있다.
또한, 실시예에 따르면 구동신호는 노출신호와 일부 중첩될 수 있다. 구동신호는 노출신호의 출력 시작 지점(다음 프레임 주기) 이후에 출력이 종료될 수 있다. 이와 관련하여, 실시예에 따른 구동신호는 광조사 신호의 출력 이전의 제1 구간(PE1') 및 제1 구간(PE1')에 연속하는 제2 구간(PE2')을 포함할 수 있다.
제1 구간(PE1')은 노출신호의 유휴 구간(Idle time)과 중첩될 수 있다. 또한, 제1 구간(PE1')은 광조사 신호(광조사 신호의 인가)와 중첩되지 않을 수 있다. 이로써, 광학부의 이동을 위한 에너지 소모를 최소화할 수 있다. 다시 말해, 카메라 모듈의 에너지 효율이 향상될 수 있다. 또한, 광학부를 이동시키는 엑추에이터 등에서 발생하는 진동을 최소화하여 소자의 신뢰성을 개선할 수 있다.
그리고 제2 구간(PE2')은 노출신호와 적어도 일부 중첩될 수 있다. 이에, 광학부는 노출주기에 초기 위치로 이동할 수 있다. 이로써, 광조사 신호의 출력이 종료된 이후에 광학부의 이동이 종료될 수 있는 마진이 용이하게 확보될 수 있다.
도 33은 제3 실시예에 따른 제어부의 구동을 설명하는 도면이다.
제3 실시예에 따른 제어부는 상술한 바와 같이 광조사 신호를 광원으로 제공할 수 있다. 이에, 광원은 광조사 신호에 따라 소정의 주기를 갖는 광을 출사할 수 있다. 광조사 신호는 상술한 입사광 또는 입사광 신호에 대응할 수 있다. 그리고 광조사 신호는 광원을 구동하는 신호이며, 상술한 바와 같이 복수 개의 펄스로 이루어질 수 있다. 실시예로, 광조사 신호는 복수 개의 파장을 갖는 신호일 수 있다. 이하에서 설명하는 내용을 제외하고 상술한 내용이 동일하게 적용될 수 있다.
또한, 제어부는 이미지 센서 내에 위치할 수 있다. 즉, 광조사 신호는 이미지 센서에서 광원으로 이동할 수 있다. 이러한 구성에 의하여, 노출신호와 광조사 신호 간의 싱크(sync)가 용이하기 이루어져 전송에 따른 시간오차를 최소화할 수 있다. 그리고 최소화된 시간오차에 의해, 구성요소의 구동 정확도가 개선될 수 있다.
또한, 제어부는 이미지 센서의 노출(exposure)을 제어하는 노출 신호를 출력할 수 있다. 노출 신호에 의해 이미지 센서 내의 제1,2 수광부는 흡수한 입력광 신호를 전기 신호로 변환하여 출력할 수 있다. 노출 신호에 대한 설명도 후술하는 내용을 제외하고 상술한 내용이 동일하게 적용될 수 있다.
또한, 제어부는 광학부의 이동을 위해 구동부로 출력되는 구동신호를 출력할 수 있다. 이러한 제어부는 이미지 센서 내에 위치할 수 있다. 뿐만 아니라, 수광부 또는 발광부에 위치할 수 있다. 그리고 이러한 제어부는 광조사 신호 또는 노출 신호를 출력하는 제어부와 별도로 이루어질 수 있다. 즉, 실시예에 따르면 제어부는 복수 개일 수 있으며, 다양한 위치를 가질 수 있다.
본 실시예에서, 제어부는 광학부의 이동을 위해 구동부로 출력되는 구동신호를 출력할 수 있다. 이 때, 구동신호는 노출신호와 중첩될 수 있다. 나아가, 구동신호는 노출신호 이후에도 일부 출력될 수 있다. 본 실시예에서 이전 프레임 주기에서 출력된 구동신호는 제외하여 설명한다.
또한, 구동신호는 광학부로 출력되고, 광학부는 구동신호에 의해 상하이동을 수행할 수 있다. 이러한 광학부의 상하이동에 의해 광원으로부터 조사된 광이 점 형태 또는 면 형태로 변환되어 객체에 조사될 수 있다.
본 실시예에서, 그리고 구동신호는 광조사 신호의 출력 이전에 출력될 수 있다. 실시예로, 구동신호는 1개의 프레임 주기 내에서 노출신호와 광조사 신호 사이에서 출력될 수 있다. 또는 구동신호의 출력은 1개의 프레임 주기 내에서 노출신호와 광조사 신호 사이에서 시작될 수 있다. 즉, 1개의 프레임 주기 내에서 노출신호가 출력된 이후에 구동신호가 출력될 수 있다.
그리고 구동신호는 광조사 신호의 출력이후에도 유지될 수 있다. 구동신호는 광조사 신호의 동일하게 종료되거나, 출력의 종료 이후에 출력되지 않을 수 있다. 이러한 구성에 의하여, 실시예에 따른 카메라 모듈에서 광학부가 원하는 위치로 이동되는데 걸리는 시간을 고려하여(예로, 정착 시간(settling time)) 광원에 의한 광조사가 이루어지기 전에 광학부의 이동이 수행될 수 있다. 또한, 광조사 신호가 출력되기 전에 광학부가 원하는 위치로 이동되고, 이는 광원에 의한 광 조사가 끝날때까지 유지될 수 있다. 이에 따라, 거리 영상을 원하는 패턴으로 촬영할 수 있다. 이에, 거리 측정이 보다 정확하게 이루어질 수 있다.
또한, 실시예에 따르면 구동신호는 노출신호와 중첩될 수 있다. 구동신호는 노출신호의 출력 시작 지점(다음 프레임 주기)을 지나 출력 종료 지점 이후에 출력이 종료될 수 있다. 이와 관련하여, 실시예에 따른 구동신호는 광조사 신호의 출력 이전의 제1 구간(PE1'') 및 제1 구간(PE1'')에 연속하는 제2 구간(PE2'')을 포함할 수 있다. 실시예로, 제1 구간(PE1'')은 노출신호의 유휴 구간(Idle time)과 중첩될 수 있다. 또한, 제1 구간(PE1'')은 광조사 신호(광조사 신호의 인가)와 중첩되지 않을 수 있다. 이로써, 광학부의 이동을 위한 에너지 소모를 최소화할 수 있다. 다시 말해, 카메라 모듈의 에너지 효율이 향상될 수 있다. 또한, 광학부를 이동시키는 엑추에이터 등에서 발생하는 진동을 최소화하여 소자의 신뢰성을 개선할 수 있다.
그리고 제2 구간(PE2'')은 노출신호(또는 노출신호의 출력)과 중첩될 수 있다. 나아가, 제2 구간(PE2'')은 노출신호의 출력 종료 이후에도 소정 시간 유지될 수 있다. 이로써, 이에, 노출신호의 출력 즉, 노출주기 동안 광학부의 이동(에로, 초기 위치로 이동)함에 따른 진동이 발생하는 것을 방지할 수 있다. 이에, 깊이 영상이 정확도를 개선할 수 있다.
도 34은 다른 실시예에 따른 카메라 모듈의 사시도이고, 도 35는 다른 실시예에 따른 카메라 모듈의 분해사시도이고, 도 36a는 도 34의 AA'에서 바라본 단면도이고, 도 36b는 도 34의 BB'에서 바라본 단면도이고, 도 36c는 도 34의 CC'에서 바라본 단면도이고, 도 36d는 도 34의 DD'에서 바라본 단면도이다.
ToF 카메라 장치는 카메라 장치를 포함할 수 있다. ToF 카메라 장치는 카메라 모듈을 포함할 수 있다.
도 34 내지 도 36d를 참조하면, 카메라 모듈은 발광부(1)를 포함할 수 있다. 발광부(1)는 발광모듈, 발광유닛, 발광어셈블리 또는 발광장치일 수 있다. 이에 대한 설명은 상술한 내용이 동일하게 적용될 수 있다.
또한, 카메라 모듈(20)은 수광부(2)를 포함할 수 있다. 수광부(2)는 수광모듈, 수광유닛, 수광어셈블리 또는 수광장치일 수 있으며, 카메라 모듈의 일 구성요소일 수 있다. 이러한 수광부(2)는 발광부(1)로부터 출사되어 객체로부터 반사된 광을 수신하고, 수신된 광을 전기 신호로 변환할 수 있다. 이러한 수광부(2)에 대한 설명은 이하 설명하는 내용을 제외하고 상술한 내용이 동일하게 적용될 수 있다.
본 실시예에서 수광부(2)는 하우징(1000), 렌즈모듈(2000), 기판(3000), 코일부(4000), 홀더(5000), 마그네트부(6000), 탄성부재(7000), 광학부재(8000), 커버(9000) 및 이미지 센서(IS)를 포함할 수 있다.
먼저, 하우징(1000)은 후술하는 커버(9000) 내측에 위치할 수 있다. 하우징(1000)은 후술하는 렌즈모듈(2000), 기판(3000), 코일부(4000), 탄성부재(7000)와 결합할 수 있다. 이에 대한 자세한 설명은 후술한다.
실시예로, 하우징(1000)은 내측부(1100), 외측부(1200) 및 내측부(1100)와 외측부(1200) 사이에 배치되는 연결부(1300)를 포함할 수 있다. 이에 대한 자세한 설명은 후술한다.
렌즈모듈(2000)은 객체로부터 반사된 광이 통과될 수 있다. 렌즈모듈(2000)의 광축과 이미지 센서(IS)의 광축은 얼라인(align)될 수 있다. 또한, 렌즈모듈(2000)은 하우징(1000)과 결합될 수 있다. 그리고 렌즈모듈(2000)은 하우징(1000)에 고정될 수 있다. 렌즈모듈(2000)은 복수의 광학부재로 이루어질 수 있으나, 이에 한정되는 것은 아니다.
렌즈모듈(2000)은 광학부재가 안착하는 렌즈 수용부(2100)와 렌즈 수용부(2100)를 둘러싸는 렌즈 커버(2200)를 포함할 수 있다. 렌즈 커버(2200)는 하우징(1000)과 접하고 후술하는 바와 같이 보이스 코일 모터 등에 의하여 상하 등으로 이동될 수 있다. 이에 따라, 렌즈모듈(2000)을 통과하는 광의 초점이 변경될 수 있다.
기판(3000)은 하우징(1000)과 결합할 수 있다. 기판(3000)은 하우징(1000)의 측면에 형성된 기판돌기와 결합할 수 있다. 또한, 기판(3000)은 단자부(3200)를 더 포함할 수 있다. 단자부(3200)는 기판(3000)의 몸체부(3100)에서 하단으로 연장된 부분으로, 메인 기판(4)과 전기적으로 연결될 수 있다.
코일부(4000)는 복수 개의 코일을 포함하며, 하우징(1000)의 측면에 위치할 수 있다. 코일부(4000)는 하우징(1000)의 측면에 형성된 각 하우징홀 내에 위치할 수 있다. 코일부(4000)는 기판(3000)과 전기적으로 연결될 수 있다. 예컨대, 코일부(4000)는 기판(3000)과 와이어 등을 통해 연결될 수 있다. 그리고 기판(3000)은 상술한 바와 같이 하우징(1000)과 결합하므로, 코일부(4000)도 하우징(1000)의 측면에 형성된 하우징홀 내에 안착하여 하우징과 결합할 수 있다. 에 대한 자세한 설명은 후술한다.
홀더(5000)는 하우징(1000) 내부에 수용될 수 있다. 그리고 홀더(5000)는 후술하는 광학부재(8000) 및 마그네트부(6000)와 결합할 수 있다. 실시예로, 홀더(5000)는 틸트될 수 있다. 홀더(5000)는 베이스(5100), 측벽(5200) 및 제2 돌출부(5300)를 포함할 수 있다. 이에 대한 자세한 설명은 후술한다.
마그네트부(6000)는 복수의 마그네트로 이루어질 수 있다. 마그네트부(6000)는 홀더(5000)의 측면에 형성된 홀더홈 내에 안착할 수 있다. 그리고 마그네트부(6000)는 코일부(4000)와 마주보도록 위치할 수 있다. 이러한 구성에 의하여, 로렌츠의 힘이 발생하고, 로렌츠의 힘에 의해 마그네트부(6000), 마그네트부(6000)에 결합된 홀더(5000) 및 홀더(5000)에 결합된 광학부재(8000)가 틸트될 수 있다. 이에 대한 자세한 설명은 후술한다.
탄성부재(7000)는 하우징(1000) 및 홀더(5000) 상에 배치될 수 있다. 탄성부재(7000)는 커버(9000)와 홀더(5000) 사이에 위치할 수 있다. 이에 대한 자세한 설명은 후술한다.
광학부재(8000)는 홀더(5000)에 결합될 수 있다. 광학부재(8000)는 렌즈모듈(2000)과 이미지 센서(IS) 사이에 배치될 수 있다. 광학부재(8000)는 객체와 이미지 센서(IS) 사이의 광경로 상에 배치될 수 있다. 광학부재(8000)는 소정 파장 범위를 갖는 광을 필터링할 수 있다. 광학부재(8000)는 특정 파장의 광을 통과시킬 수 있다. 즉, 광학부재(8000)는 특정 파장 외의 광을 반사 또는 흡수하여 차단할 수 있다. 예컨대, 광학부재(8000)는 적외선을 통과시키고 적외선 이외의 파장의 광을 차단시킬 수 있다. 또는, 광학부재(8000)는 가시광선을 통과시키고 가시광선 이외의 파장의 광을 차단시킬 수 있다.
또한, 광학부재(8000)는 이동할 수 있다. 광학부재(8000)는 홀더(5000)와 일체로 이동할 수 있다. 실시예로, 광학부재(8000)는 틸팅(tilting)될 수 있다. 광학부재(8000)는 틸팅되어 광경로를 조절할 수 있다. 광학부재(8000)가 틸팅되면 이미지 센서(IS)로 입사되는 광의 경로가 변경될 수 있다. 광학부재(8000)는 입사되는 광의 FOV(Field of View) 각도 또는 FOV의 방향 등을 변경시킬 수 있다.
이러한 광학부재(8000)는 필터(filter)일 수 있다. 예컨대, 광학부재(8000)는 적외선 통과 필터(infrared rays bandpass filter)일 수 있다. 이로써, 광학부재(8000)는 적외선의 광만을 통과할 수 있다. 또는 광학부재는 렌즈 모듈과 분리된 별도의 초점고정렌즈 또는 초점가변렌즈(ex: 액체렌즈) 일 수 있다.
또한, 실시예에서 광학부재(8000)는 경사지게 틸팅 됨에 따라 빛이 들어오는 경로를 변경하여 고해상도 ToF(Time of Flight)가 가능하게 할 수 있다.
커버(9000)는 브라켓일 수 있다. 커버(9000)는 '커버 캔'을 포함할 수 있다. 커버(9000)는 하우징(1000)을 감싸도록 배치될 수 있다. 커버(9000)는 하우징(1000)에 결합될 수 있다. 커버(9000)는 하우징(1000)을 안에 수용할 수 있다. 커버(9000)는 카메라 모듈의 최외측에 위치할 수 있다. 커버(9000)는 하면이 개방된 육면체 형상일 수 있다.
또한, 커버(9000)는 비자성체일 수 있다. 또한, 커버(9000)는 금속으로 형성될 수 있다. 또한, 커버(9000)는 금속의 판재로 형성될 수 있다.
커버(9000)는 메인 기판(4)의 그라운드부와 연결될 수 있다. 이를 통해, 커버(9000)는 그라운드될 수 있다. 그리고 커버(9000)는 전자 방해 잡음(EMI, electro magnetic interference)을 차단할 수 있다. 이때, 커버(9000)는 'EMI 쉴드캔'으로 호칭될 수 있다. 커버(9000)는 최종적으로 조립되는 부품으로 제품을 외부의 충격에서부터 보호할 수 있다. 커버(9000)는 두께가 얇으면서 강도가 높은 재질로 형성될 수 있다.
이미지 센서(IS)는 입력광을 감지할 수 있다. 그리고 이미지 센서(IS)는 입력광을 감지하여 전기적 신호로 출력할 수 있다. 실시예로, 이미지 센서(IS)는 광원(400)에서 출력하는 광의 파장에 대응하는 파장의 광을 감지할 수 있다. 예컨대, 이미지 센서(IS)는 적외선을 감지할 수 있다. 또는, 이미지 센서(IS)는 가시광선을 감지할 수 있다. 이러한 이미지 센서(IS)는 광을 센싱하는 다양한 이미지 센서를 포함할 수 있다.
이미지 센서(IS)는 렌즈모듈(2000)을 통과한 광을 수신하여 광에 대응하는 전기 신호로 변환하는 픽셀 어레이, 픽셀 어레이에 포함된 복수의 픽셀을 구동하는 구동 회로 및 각 픽셀의 아날로그 픽셀 신호를 리드(read)하는 리드아웃회로를 포함할 수 있다. 리드아웃회로는 아날로그 픽셀 신호를 기준 신호와 비교하여 아날로그-디지털 변환을 통해 디지털 픽셀 신호(또는 영상 신호)를 생성할 수 있다. 여기서, 픽셀 어레이에 포함된 각 픽셀의 디지털 픽셀 신호는 영상 신호를 구성하며, 영상 신호는 프레임 단위로 전송됨에 따라 이미지 프레임으로 정의될 수 있다. 즉, 이미지 센서는 복수의 이미지 프레임을 출력할 수 있다.
또한, 수광부(2)는 위치 센서(4500)를 더 포함할 수 있다. 위치 센서(4500)는 피드백(feedback) 제어를 위해 사용될 수 있다. 위치 센서(4500)는 홀 센서 또는 홀 IC를 포함할 수 있다. 위치 센서(4500)는 마그네트부(6000)를 감지할 수 있다. 위치 센서(4500)는 마그네트부(6000)의 자기력을 감지할 수 있다. 위치 센서(4500)는 코일부(4000)의 사이에 배치될 수 있다. 또한, 위치 센서(4500)는 기판(3000)의 내면에 배치될 수 있다. 다만, 이에 한정되는 것은 아니며, 위치 센서(4500)가 제거되어 카메라 모듈 내의 복잡도를 감소할 수도 있다.
위치 센서(4500)는 복수의 위치 센서를 포함할 수 있다. 위치 센서(4500)는 2개의 센서를 포함할 수 있다. 위치 센서(4500)는 제1 위치 센서(4510) 및 제2 위치 센서(4520)를 포함할 수 있다. 제1 위치 센서(4510)와 제2 위치 센서(4520)는 향하는 방향이 수직이 되도록 배치될 수 있다. 이를 통해, 제1 위치 센서(4510)와 제2 위치 센서(4520)가 마그네트부(6000)의 수평방향으로의 X축, Y축 방향 이동을 모두 감지할 수 있다. 또한, 실시예에서 마그네트부(6000)의 Z축 방향(수직 방향, 광축 방향) 이동을 감지하는 추가적인 센서가 더 구비될 수 있다. 본 명세서에서, Z축 방향은 제3 방향으로 광축 방향 또는 수직 방향이다. 그리고 X축 방향은 Z축 방향에 수직한 방향이며 실시예에서 발광부에서 수광부를 향한 방향이다. 그리고 Y축 방향은 X축 방향과 Z축 방향에 수직한 방향이다. 이를 기준으로 이하 설명한다.
수광부(2)는 이미지 합성부를 더 포함할 수 있다. 이미지 합성부는 이미지 센서(IS)로부터 영상 신호를 수신하고, 영상 신호를 처리(예컨대, 보간, 프레임 합성 등)하는 이미지 프로세서를 포함할 수 있다. 특히, 이미지 합성부는 복수의 프레임의 영상 신호(저해상도)를 이용하여 하나의 프레임의 영상 신호(고해상도)로 합성할 수 있다. 즉, 이미지 합성부는 이미지 센서(IS)로부터 받은 영상 신호에 포함된 복수의 이미지 프레임을 합성하고, 합성된 결과를 합성 이미지로서 생성할 수 있다. 이미지 합성부에서 생성된 합성 이미지는 이미지 센서(IS)로부터 출력되는 복수의 이미지 프레임보다 높은 해상도를 가질 수 있다. 즉, 이미지 합성부는 슈퍼레졸루션(Super Resolution, SR) 기법을 통해 고해상도의 이미지를 생성할 수 있다. 복수의 이미지 프레임은 광학부재(8000)의 이동에 의해 서로 다른 광 경로로 변경되어 생성된 이미지 프레임을 포함할 수 있다. 이러한 이미지 합성부는 수광부(2) 내에 또는 외부에 위치할 수 있다.
카메라 모듈(20)은 메인 기판(4)(PCB, Printed Circuit Board)을 포함할 수 있다. 메인 기판(4) 상에는 발광부(1)와 수광부(2)가 배치될 수 있다. 메인 기판(4)은 발광부(1) 및 수광부(2)와 전기적으로 연결될 수 있다.
또한, 카메라 모듈은 커넥트부(3)를 포함할 수 있다. 커넥트부(3)는 메인 기판(4)과 전기적으로 연결될 수 있다. 커넥트부(3)에는 커넥터(7)가 배치되고 연결 기판(6)과 연결되는 연장 기판(5)을 포함할 수 있다. 연장 기판(5)은 PCB일 수 있으나, 이에 한정되는 것은 아니다.
카메라 모듈은 연결 기판(6)을 포함할 수 있다. 연결 기판(6)은 메인 기판(4)과 커넥트부(3)의 연장 기판(5) 연결할 수 있다. 연결 기판(6)은 연성을 가질 수 있다. 연결 기판(6)은 연성의 인쇄회로기판(FPCB, Flexible PCB)일 수 있다.
또한, 메인 기판(4), 연결 기판(6) 및 연장 기판(5)은 일체로 또는 분리되어 형성될 수 있다.
카메라 모듈은 보강판(8)을 포함할 수 있다. 보강판(8)은 스티프너(stiffener)를 포함할 수 있다. 보강판(8)은 메인 기판(4)의 하면에 배치될 수 있다. 보강판(8)은 서스(SUS)로 형성될 수 있다.
카메라 모듈(또는 수광부)은 렌즈 구동 장치를 포함할 수 있다. 카메라 모듈은 보이스 코일 모터(VCM, Voice Coil Motor)를 포함할 수 있다. 카메라 모듈은 렌즈 구동 모터를 포함할 수 있다. 카메라 모듈은 렌즈 구동 엑츄에이터를 포함할 수 있다. 이러한 구성에 의하여, 상술한 바와 같이 다른 실시예에 따른 카메라 모듈은 광학부재(8000)에 3차원 틸트(tilt)를 수행할 수 있다. 그리고 광학부재(8000)가 틸트됨에 따라, 광학부재(8000)를 통과한 입력광의 광경로가 소정의 규칙에 따라 반복하여 이동할 수 있다.
도37는 다른 실시예에 따른 카메라 모듈의 수광부의 일부 구성의 사시도이고, 도 38는 다른 실시예에 따른 카메라 모듈의 하우징의 사시도이고, 도 39은 다른 실시예에 따른 카메라 모듈의 일부 구성의 사시도이다.
도37 내지 도 39을 참조하면, 실시예에서 커버(9000)는 상판(9100) 및 측판(9200)을 포함할 수 있다. 구체적으로, 커버(9000)는 커버홀(9110)을 포함하는 상판(9100)과, 상판(9100)의 외주(outer periphery) 또는 에지(edge)로부터 아래로 연장되는 측판(9200)을 포함할 수 있다.
상판(9100)의 내부에는 하우징(1000), 홀더(5000) 등이 위치할 수 있다. 그리고 측판(9200)은 하우징(1000)의 측면에 위치할 수 있다. 측판(9200)의 하단에는 하우징(1000)의 제1 단차(1240)가 위치할 수 있다.
그리고 측판(9200)의 내면은 하우징(1000)과 결합할 수 있다. 측판(9200)의 내면과 하우징(1000) 사이에는 접착부재(미도시됨0)가 배치될 수 있다. 이에, 측판(9200)은 하우징(1000)에 고정될 수 있다. 커버(9000)의 상판(9100)은 홀더(5000)의 홀더홀(5110)에 대응하는 커버홀(9110)을 포함할 수 있다.
또한, 커버(9000)는 기판(3000)과 코일부(4000)가 로렌츠 힘에 의해 밀리지 않도록 지지해 주는 역할을 할 수 있다. 또한, 커버(9000)는 코일부(4000)로부터 발생한 열을 전도를 통해 방열시켜 주는 역할을 할 수 있다. 커버(9000)의 측판(9200)은 측판(9200)의 일부가 내측으로 절곡되어 기판(3000)의 외면과 접촉하는 절곡부를 포함할 수 있다. 절곡부는 눌림부, 압입부 및 오목부 중 어느 하나 이상을 포함할 수 있다. 본 실시예에서는 방열 최적화 구조로서 절곡부가 기판(3000)과 접촉하는 구조를 통해 코일부(4000), 기판(3000) 및 커버(9000)가 연결되어 코일부(4000)에서 발생한 열이 전도를 통해 외부로 방열될 수 있다.
커버(9000)의 측판(9200)은 복수의 측판을 포함할 수 있다. 복수의 측판은 제1 내지 제4 측판을 포함할 수 있다. 커버(9000)의 측판(9200)은 서로 마주보는 또는 서로 반대편에 배치되는 제1 측판과 제2 측판, 및 제1 측판과 제2 측판 사이에 서로 마주보는 또는 서로 반대편에 배치되는 제3 측판과 제4 측판을 포함할 수 있다. 그리고 제1 내지 제4 측판은 후술하는 기판(3000)의 제1 부분 내지 제4 부분(301 내지 304, 도 40 참조)과 각각 접할 수 있다.
그리고 실시예에서 하우징(1000)은 메인 기판(4) 상에 배치될 수 있다.
또한, 하우징(1000)은 내부에 홀더(5000)를 수용할 수 있다. 또한, 하우징(1000)에는 렌즈모듈(2000)이 결합될 수 있다. 하우징(1000)은 렌즈모듈(2000)의 배럴(barrel)과 결합될 수 있다.
또한, 하우징(1000)은 코일이 고정되는 코일 케이스일 수 있다. 이에, 하우징(1000)은 코일부(4000) 및 코일부(4000)와 연결된 기판(3000)과 결합할 수 있다.
구체적으로, 하우징(1000)은 렌즈모듈(2000)이 결합되는 내측부(1100) 및 코일부(4000)가 결합되는 외측부(1200)를 포함할 수 있다. 내측부(1100)와 외측부(1200)는 일체 또는 분리되어 형성될 수 있다.
내측부(1100)는 하우징(1000)의 내측에 위치할 수 있다. 또한, 하우징(1000)의 내측부(1100)는 홀(1110)을 포함할 수 있다. 홀(1110)은 중공일 수 있다. 홀(1110)은 하우징(1000)을 광축 방향으로 관통할 수 있다.
그리고 내측부(1100)의 내주면에는 나사산(1120)이 마련될 수 있다. 내측부(1100)의 나사산(1120)은 렌즈모듈(2000)과 결합될 수 있다.
실시예로, 내측부(1100)의 내주면에서 나사산(1120)은 하측에 위치할 수 있다. 이에 따라, 내측부(1100)의 내주면에서 상측은 렌즈모듈(2000)의 외주면과 대향하고 이격 배치될 수 있다.
또한, 하우징(1000)의 내측부(1100)는 돌출부(1130)를 포함할 수 있다. 돌출부(1130)는 상부로 연장될 수 있다. 돌출부(1130)는 내측부(1100)의 내측에 위치하는 렌즈모듈(2000)로 이물이 주입되는 것을 방지할 수 있다.
외측부(1200)는 내측부(1100)의 외측에 배치될 수 있다. 외측부(1200)와 내측부(1100)는 별도의 부재 또는 일체로 형성될 수 있다. 하우징(1000)의 외측부(1200)는 측벽을 포함할 수 있다. 하우징(1000)의 측벽은 홀더(5000)의 외측에 배치될 수 있다. 그리고 외측부(1200)는 코일부가 배치될 수 있다.
또한, 하우징(1000)의 측벽은 제1 하우징측벽 내지 제4 하우징측벽을 포함할 수 있다. 하우징(1000)은 서로 반대편에 배치되는 제1 하우징측벽 및 제2 하우징측벽과, 제1 하우징측벽과 제2 하우징측벽 사이에서 서로 반대편에 배치되는 제3 하우징측벽 및 제4 하우징측벽을 포함할 수 있다.
또한, 하우징(1000)의 외측부(1200)는 하우징홀(1210)을 포함할 수 있다. 하우징홀(1210)은 코일부(4000)의 형상과 대응하는 형상을 가질 수 있다. 하우징홀(1210)은 코일부(4000) 보다 큰 면적을 가질 수 있다. 이에, 하우징홀(1210)은 코일부(4000)를 수용할 수 있다. 다시 말해, 하우징홀(1210)은 하우징(1000)의 측벽에 위치할 수 있다. 실시예로, 하우징홀(1210)은 하우징(1000)의 제1 하우징측벽 내지 제4 하우징측벽 각각에 형성될 수 있다.
하우징홀(1210)은 하측으로 연장된 연장홈(1220)을 포함할 수 있다. 연장홈(1220)에는 코일부(4000)의 단부가 배치될 수 있다.
구체적으로, 하우징(1000)의 측벽에는 하우징홀(1210)에서 하단 대각으로 함몰되게 형성되는 제1 홈과 제2 홈을 포함할 수 있다. 즉, 제1 홈과 제2 홈은 하우징홀(1210)에서 인접한 하우징(1000)의 측벽을 향해 함몰되게 형성될 수 있다. 이러한 구성에 의하여, 코일부(4000)에 연결된 와이어와 기판 간의 전기적 연결이 용이하게 이루어질 수 있다.
또한, 하우징(1000)의 외측면(또는 외측부(1200)의 외측면)에는 결합돌기(1230)가 위치할 수 있다. 하우징(1000)은 결합돌기(1230)를 통해 기판과 결합할 수 있다. 결합돌기(1230)는 기판의 몸체부(310, 도 40 참조)에 대응하도록 위치할 수 있다. 결합돌기(1230)는 복수 개일 수 있다.
또한, 하우징(1000)의 외측부(1200)는 제1 단차(1240)와 제2 단차(1260)를 포함할 수 있다. 제1 단차(1240)와 제2 단차(1260)는 하우징(1000)의 측벽에서 상부 및 하부에 위치할 수 있다. 또한, 제1 단차(1240)와 제2 단차(1260)는 하우징(1000)의 측벽의 외측면에서 외측으로 연장된 구조일 수 있다. 그리고 제1 단차(1240)와 제2 단차(1260)는 광축 방향으로 기판 중첩될 수 있다.
제1 단차(1240)는 기판(3000)의 일부에 대해 하부에 배치될 수 있다. 실시예로, 제1 단차(1240)는 기판(3000)의 몸체부(3100) 하부에 위치할 수 있다. 그리고 단자부(3200)와 제1 단차(1240)는 광축 방향에 수직한 방향으로 중첩될 수 있다.
제2 단차(1260)는 하우징(1000)의 외면 및 외면의 모서리 상에 위치할 수 있다. 제2 단차(1260)는 몸체부(3100) 상부에 위치할 수 있다.
또한, 제1 단차(1240)와 제2 단차(1260)는 기판(3000)에 대응하는 형상으로 형성될 수 있다. 그리고 제1 단차(1240)와 제2 단차(1260)에 의해 기판(3000)이 하우징(1000)의 측벽의 외측면에 배치될 수 있다.
그리고 제1 단차(1240)는 제1 단차홈(1250)을 포함할 수 있다. 제1 단차홈(1250)은 제1 단차(1240)에 형성될 수 있다. 제1 단차홈(1250)에는 이물방지부재가 배치될 수 있다. 이러한 구성에 의하여, 외부로부터 이물이 하우징(1000) 내부로 주입되는 것을 방지할 수 있다. 이에, 다른 실시예에 따른 카메라 모듈의 신뢰성과 정확도가 개선될 수 있다.
제2 단차(1260)는 단부에서 기판(3000)과 이격 배치될 수 있다.
하우징(1000)의 외측부(1200)는 댐퍼돌기(1270)를 포함할 수 있다. 댐퍼돌기(1270)는 하우징(1000)의 외측부(1200)의 외면에 형성될 수 있다. 댐퍼돌기(1270)는 기판(3000)의 기판홀(3110)에 삽입될 수 있다. 댐퍼돌기(1270)는 복수의 돌기를 포함할 수 있다.
하우징(1000)의 외측부(1200)는 내측으로 예컨대, 홀더(5000)를 향해 돌출된 댐퍼돌기(1270)를 포함할 수 있다. 댐퍼돌기(1270)는 외측부(1200)의 내면에 위치할 수 있다.
그리고 댐퍼돌기(1270)는 후술하는 탄성부재(7000)와 광축 방향에 수직한 방향으로 중첩될 수 있다. 그리고 댐퍼돌기(1270)는 탄성부재(7000)의 적어도 일부와 댐퍼액에 의해 결합할 수 있다. 이러한 구성에 의하여, 틸팅 시에 발생하는 진동을 감소하여 소자의 신뢰성을 개선하고 진동에 의한 광학부재의 틸트를 최소화할 수 있다.
하우징(1000)의 외측부(1200)는 하우징돌기(1280)를 포함할 수 있다. 하우징돌기(1280)는 제2 결합부(7200)의 홀에 삽입될 수 있다. 이에 따라, 하우징돌기(1280)는 제2 결합부(7200)와 결합될 수 있다.
하우징(1000)의 외측부(1200)는 하우징 가이드부(1290)를 포함할 수 있다. 하우징 가이드부(1290)는 하우징(1000)의 모서리에 위치할 수 있다. 하우징 가이드부(1290) 상에는 커버(9000)가 안착할 수 있다. 즉, 하우징 가이드부(1290)에 의해 커버(9000)와 측벽(5200) 최상부(예컨대, 측벽(5200)의 최상면)과는 서로 이격 될 수 있다.
하우징돌기(1280)는 하우징 가이드부(1290)보다 내측에 배치될 수 있다. 즉, 하우징 가이드부(1290)는 하우징돌기(1280)보다 외측에 배치될 수 있다. 또한, 하우징 가이드부(1290)는 후술하는 탄성부재보다 외측에 배치될 수 있다.
하우징돌기(1280)는 저면(1280a)이 하우징 가이드부(1290)의 저면(1290a)보다 하부에 위치할 수 있다. 즉, 하우징돌기(1280)의 저면(1280a)과 하우징 가이드부(1290)의 저면(1290a)은 단차를 이룰 수 있다.
또한, 하우징 돌기(1290)는 상면이 하우징 가이드부(1290)의 상면보다 하부에 위치할 수 있다. 즉, 하우징 가이드부(1290)는 홀더의 제1 돌출부와 이격 배치되어 제1 돌출부가 하우징(1000) 내에서 틸트를 용이하게 수행할 수 있는 공간을 제공할 수 있다.
가이딩부(GP)는 탄성부재의 외측에 배치될 수 있다. 그리고 가이딩부(GP)는 하우징(1000)에서 광축 방향 또는 제3 방향으로 돌출될 수 있다.
가이딩부(GP)는 하우징(1000)에서 각 코너에 위치할 수 있다. 실시예로, 가이딩부(GP)는 서로 마주보는 커너에 배치될 수 있다. 또한, 가이딩부(GP)는 서로 마주보는 하우징 가이드부(1290) 사이에 위치할 수 있다. 예컨대, 가이딩부(GP)와 하우징 가이드부(1290)는 서로 다른 대각 방향으로 배치될 수 있다. 이러한 구성에 의하여, 탄성부재는 하우징 및 홀더와 결합하여 틸트, 충격 등에 의한 변형을 최소화할 수 있다.
가이딩부(GP)는 하우징돌기(1280)의 저면(1280a)에서 광 축방향으로 돌출되어 형성될 수 있다. 예컨대, 가이딩부(GP)는 하우징돌기(1280)의 저면(1280a)에서 하우징 가이드부(1290)의 저면(1290a) 사이에 위치할 수 있다. 그리고 가이딩부(GP)는 탄성부재 및 하우징돌기(1280)의 외측에 배치될 수 있다.
또한, 가이딩부(GP)는 탄성부재의 제2 결합부의 외주의 적어도 일부와 대응되는 형상을 포함할 수 있다. 실시예로, 제2 결합부는 제1 방향(X축 방향) 및 제2 방향(Y축 방향)으로 연장될 수 있다. 이에 대응하여, 가이딩부(GP)는 제2 결합부가 제1 방향으로 연장된 부분에 대응하여 제1 방향으로 연장된 측면(GE2)을 갖고, 제2 결합부가 제2 방향으로 연장된 부분에 대응하여 제2 방향으로 연장된 측면(GE1)을 가질 수 있다. 다시 말해, 가이딩부(GP)는 내측면이 제2 결합부의 외면에 대응할 수 있다. 특히, 가이딩부(GP)는 내측면이 마주보는 제2 결합부의 외주 또는 외면과 대응할 수 있다. 다시 말해, 가이딩부(GP)는 내측면이 인접한 제2 결합부의 가장자리를 따라 형성될 수 있다.
이러한 구조에 의하여 탄성부재는 하우징(1000)의 가이딩부(GP)에 의해 위치 이동이 제한되고 변형 등이 차단될 수 있다. 즉, 하우징(1000)의 가이딩부(GP)는 탄성부재의 변형을 방지하고 위치를 고정하여 탄성부재에 연결된 홀더 등의 정확한 이동을 신뢰성 있게 유지할 수 있다.
하우징(1000)은 연결부(1300)를 포함할 수 있다. 연결부(1300)는 내측부(1100)와 외측부(1200)를 연결할 수 있다. 연결부(1300)는 적어도 일부가 홀더(5000)와 광축 방향으로 중첩될 수 있다. 연결부(1300)는 홀더(5000)의 적어도 일부 상에 배치될 수 있다.
또한, 하우징(1000)은 언급한 일체형 구조를 통해 사이즈 축소 및 부품수를 절감할 수 있다. 나아가, 하우징(1000)은 비자성 재질로 형성될 수 있다.
또한, 하우징(1000)은 후술하는 홀더(5000)의 제1 코너부에 대응하는 제1 코너와, 홀더(5000)의 제2 코너부에 대응하는 제2 코너와, 홀더(5000)의 제3 코너부에 대응하는 제3 코너와, 홀더(5000)의 제4 코너부에 대응하는 제4 코너를 포함할 수 있다.
도 40은 다른 실시예에 따른 카메라 모듈의 기판과 코일의 사시도이고, 도 41은 다양한 다른 실시예에 따른 카메라 모듈의 코일과 기판의 결합을 도시한 도면이다.
도 40 및 도 41을 참조하면, 기판(3000)은 상술한 바와 같이 하우징의 측벽에서 외면에 위치할 수 있다. 또한, 기판(3000)은 커버의 측판과 하우징의 측벽 사이에 배치될 수 있다. 기판(3000)은 일부가 하우징의 제1 단차와 제2 단차 사이에 위치할 수 있다. 기판(3000)은 하우징의 4개의 측벽의 외면을 둘러싸도록 배치될 수 있다.
또한, 기판(3000)은 코일부(4000)와 전기적으로 연결될 수 있다. 기판(3000)의 내면에 코일부(4000)가 배치될 수 있다. 그리고 기판(3000)은 코일부(4000)에 신호를 줄 수 있도록 메인 기판과 전기적으로 연결될 수 있다. 기판(3000)은 코일부(4000)가 안정적으로 고정되도록 코일 케이스인 하우징(1000)에 고정될 수 있다. 기판(3000)에는 마그네트부(6000)의 위치를 센싱하는 위치 센서(4500)도 결합될 수 있다.
또한, 기판(3000)은 FPCB를 포함할 수 있다. 그리고 기판(3000)에는 위치 센서(4500)와 코일부(4000)가 SMT될 수 있다. 실시예는 기판(3000)에 위치 센서(4500)가 결합됨에 따라 위치 센서(4500)를 통전하기 위한 별도의 부품 필요없는 구조일 수 있다.
또한, 실시예에서는 기판(3000)을 하우징(1000)의 외측으로 두어 기판(3000)의 단자부(3200)와 메인 기판(4)을 솔더링할 수 있도록 하여 연결에 필요한 공간을 최소화할 수 있다.
먼저, 기판(3000)은 제1 부분(3010) 내지 제4 부분(3040)을 포함할 수 있다. 기판(3000)은 하우징(1000)의 제1 하우징측벽에 배치되는 제1 부분(3010)과, 하우징(1000)의 제2 하우징측벽에 배치되는 제2 부분(3020)과, 하우징(1000)의 제3 하우징측벽에 배치되는 제3 부분(3030)과, 하우징(1000)의 제4 하우징측벽에 배치되는 제4 부분(3040)을 포함할 수 있다.
제4 부분(3040)은 제1 부분(3010)과 제2 부분(3020)을 연결하고, 제2 부분(3020)은 제3 부분(3030)과 제4 부분(3040)을 연결할 수 있다.
또한, 제1 부분(3010)과 제3 부분(3030)은 서로 이격될 수 있다. 제1 부분(3010)의 단부와 제3 부분(3030)의 단부는 하우징(1000)의 제1 하우징측벽과 제3 하우징측벽이 만나는 코너에 돌출 형성된 안착부에 위치할 수 있다.
또한, 제1 부분(3010) 내지 제4 부분(3040)은 서로 접하는 부분에서 제3 방향으로 길이가 감소할 수 있다. 또한, 상기 접하는 부분에서 내면이 곡률을 가질 수 있다. 이에, 기판(3000)이 하우징(1000)의 외면에 용이하게 결합하고 절곡되는 영역에서 스트레스가 감소할 수 있다.
보다 구체적으로, 기판(3000)은 몸체부(3100)를 포함할 수 있다. 몸체부(3100)에는 코일부(4000)가 안착할 수 있으며, 몸체부(3100)는 코일부(4000)와 결합할 수 있다. 또한, 몸체부(3100)에는 위치 센서(4500)가 결합될 수 있다.
몸체부(3100)는 하우징(1000)의 외면에 배치될 수 있다. 기판(3000)의 몸체부(3100)는 기판홀(3110)을 포함할 수 있다. 기판홀(3110)은 하우징(1000)의 결합돌기(1230)가 관통할 수 있다. 이에, 기판(3000)과 하우징(1000)은 결합돌기(1230)와 기판홀(3110)을 통해 서로 결합할 수 있다.
또한, 기판(3000)은 단자부(3200)를 포함할 수 있다. 단자부(3200)는 몸체부(3100)로부터 하부로 연장되고 복수의 단자를 포함할 수 있다. 즉, 단자부(3200)는 몸체부(3100)에서 하부의 메인 기판을 향해 연장될 수 있다. 그리고 단자부(3200)는 메인 기판과 솔더링에 의해 결합될 수 있다. 단자부(3200)는 기판(3000)의 하부에 위치하므로, 메인 기판과 몸체부(3100) 사이에 위치할 수 있다. 이러한 구성에 의하여, 기판(3000)과 단자부(3200) 간의 전기적 연결이 용이하게 이루어질 수 있다. 예컨대, 코일부(4000)와 기판(3000) 간의 전기적 연결이 쉽게 이루어질 수 있다. 또한, 전기적 연결을 위한 공간을 최소화하여 조립 용이성도 확보할 수 있다.
또한, 단자부(3200)는 제1 단차(1240)의 형상에 대응하여 형성될 수 있다. 실시예로, 단자부(3200)는 제1 단차(1240) 사이에 위치할 수 있다.
기판(3000)은 연장부(3300)를 포함할 수 있다. 연장부(3300)는 몸체부(3100)로부터 상부로 연장될 수 있다. 연장부(3300)는 기판(3000)의 상단에 위치할 수 있다. 다시 말해, 연장부(3300)는 몸체부(3100)에서 커버의 상판을 향해 연장되어 형성될 수 있다.
연장부(3300)는 제2 단차(1260)의 형상에 대응하여 형성될 수 있다. 연장부(3300)는 제2 단차(1260) 사이에 위치할 수 있다.
또한, 코일부(4000)는 기판(3000) 상에 위치하여 기판(3000)과 결합할 수 있다. 코일부(4000)는 기판(3000)과 본딩부재 등을 통해 결합할 수 있다. 코일부(4000)는 기판(3000)의 내면에 결합될 수 있다. 그리고 코일부(4000)는 기판(3000)과 전기적으로 연결될 수 있다. 또한, 코일부(4000)는 하우징(1000)의 측벽의 하우징홀에 위치할 수 있다.
또한, 코일부(4000)는 후술하는 마그네트부와 대향하게 배치될 수 있다. 즉, 코일부(4000)는 마그네트부와 마주보게 배치될 수 있다. 그리고 코일부(4000)는 마그네트부와 전자기적 상호작용할 수 있다. 실시예로, 코일부(4000)에 전류가 공급되어 코일부(4000) 주변에 전자기장이 형성되면, 코일부(4000)와 마그네트부 사이의 전자기적 상호작용에 의해 마그네트부가 코일부(4000)에 대하여 이동할 수 있다. 코일부(4000)와 마그네트부(6000)는 서로 반대의 위치에 배치될 수 있다.
또한, 코일부(4000)는 전원 공급을 위한 한 쌍의 단부(인출선)를 포함할 수 있다. 이때, 제1 단부(4010)는 코일부(4000)의 좌측 및 하측으로 인출되고 제2 단부(4020)는 코일부(4000)의 우측 및 하측으로 인출될 수 있다. 코일부(4000)는 기판(3000)과 결합되는 제1 단부(4010)와 제2 단부(4020)를 포함할 수 있다. 또한, 제1 단부(4010)와 제2 단부(4020)가 상부 또는 하부로만 연장되면 코일의 양단이 중앙에 집중되어 코일부(4000)의 중앙 영역에 충격이 집중되어 코일부가 변형 또는 크랙(crack)되기 용이해지며, 제작도 어려우나, 실시예에 따르면 이러한 문제를 해결할 수 있다.
도 41(a)에 도시된 바와 같이 제1 단부(4010)와 제2 단부(4020)는 기판(3000)의 단자(3120)에 결합될 수 있다. 실시예로, 제1 단부(4010)와 제2 단부(4020)는 기판(3000)의 단자(3120)에 솔더링(soldering) 또는 Ag 에폭시에 의해 결합될 수 있다. 이를 통해, 코일부(4000)는 기판(3000)과 결합할 수 있다.
한편, 도 41(b)에 도시된 바와 같이 변형예로서 제1 단부(4010)와 제2 단부(4020)는 기판(3000)의 단자(3120)에 별도의 결합부재(3050)를 통해 결합될 수 있다. 결합부재(3050)는 코일 서포트(coil support)일 수 있다. 코일부(4000)는 결합부재(3050)의 적용으로 기판(3000)에 SMT될 수 있다. 이 경우, 수작업 솔더 배치 작업성 및 작업 시간 단축 통한 조립 편이성이 높아지는 장점이 있고, 수작업 솔더 대비 조립에 의한 코일부(4000)의 위치 틀어짐 공차가 작아지는 장점이 있다. 또한, 코일부(4000)와 마그네트부 사이의 센터 틀어짐이 방지될 수 있다.
제1 단부(4010)와 제2 단부(4020)는 하우징(1000)의 연장홈(1220)에 배치될 수 있다. 이때, 제1 단부(4010)와 제2 단부(4020)에 연결된 통전물질 및/또는 상술한 결합부재(3050)도 하우징(1000)의 연장홈(1220)에 배치될 수 있다.
코일부(4000)는 복수의 코일을 포함할 수 있다. 코일부(4000)는 4개의 코일을 포함할 수 있다. 코일부(4000)는 제1 코일(4100) 내지 제4 코일(4400)을 포함할 수 있다. 제1 코일(4100) 내지 제4 코일(4400)에는 각각 전류가 인가될 수 있다. 제1 코일(4100) 내지 제4 코일(4400)은 전기적으로 분리될 수 있다. 또는 제1 코일(4100) 내지 제4 코일(4400)은 서로 마주보는 코일에 흐르는 전류의 방향이 반대일 수 있다. 예컨대, 제1 코일(4100) 및 제3 코일(4300)은 서로 역평행 구조로 형성되고, 제2 코일(4200) 및 제4 코일(4400)은 서로 역평행 구조로 형성될 수 있다.
또한, 제1 코일(4100) 내지 제4 코일(4400)은 서로 마주보는 코일로 방향이 상이한 전류가 인가될 수 있다. 이를 통해, 광학부재의 대각 틸트 또는 수평 틸트의 제어가 이루어질 수 있다.
또한, 제1 코일(4100), 제2 코일(4200), 제3 코일(4300) 및 제4 코일(4400) 중 서로 마주보는 2개의 코일로 전류가 인가될 수 있다. 이에 따라, 후술하는 바와 같이, 수평 방향으로 광학부재 틸트 제어가 이루어질 수 있다. 이에 대한 자세한 설명은 후술한다.
구체적으로, 코일부(4000)는 제1 마그네트(6010, 도 42 참조)와 대향하는 제1 코일(4100), 제2 마그네트(6020, 도 42 참조)와 대향하는 제2 코일(4200), 제3 마그네트(6030, 도 42 참조)와 대향하는 제3 코일(4300) 및 제4 마그네트(6040, 도 42 참조)와 대향하는 제4 코일(4400)을 포함할 수 있다.
또한, 제1 코일(4100)은 하우징의 제1 하우징측벽에 배치될 수 있다. 그리고 제2 코일(4200)은 하우징의 제2 하우징측벽에 배치될 수 있다. 제3 코일(4300)은 하우징의 제3 하우징측벽에 배치될 수 있다. 또한, 제4 코일(4400)은 하우징의 제4 하우징측벽에 배치될 수 있다.
또한, 실시예에서 4개의 코일은 2채널로 제어될 수 있다. 제1 코일(4100)과 제2 코일(4200)은 전기적으로 연결될 수 있다. 다만, 제1 코일(4100)과 제1 마그네트(6010) 사이에서 발생되는 로렌츠 힘의 방향과 제2 코일(4200)과 제2 마그네트(6020) 사이에서 발생되는 로렌츠 힘의 방향은 반대일 수 있다. 일례로, 제1 코일(4100)과 제2 코일(4200)은 서로 반대방향의 전류가 흐르도록 배치될 수 있다. 실시예로, 제1 코일(4100)과 제2 코일(4200)은 반대방향으로 감겨서 배치될 수 있다. 또는, 제1 코일(4100)과 제2 코일(4200)은 같은 방향으로 감겨서 배치되고 제1 마그네트(6010)의 극성 배치와 제2 마그네트(6020)의 극성 배치가 다른 방향으로 배치될 수 있다. 한편, 제1 코일(4100)과 제2 코일(4200)이 전기적으로 분리되고 제어부에서 일체로 제어될 수도 있다.
또한, 제3 코일(4300)과 제4 코일(4400)은 전기적으로 연결될 수 있다. 다만, 제3 코일(4300)과 제3 마그네트(6030) 사이에서 발생되는 로렌츠 힘의 방향과 제4 코일(4400)과 제4 마그네트(6040) 사이에서 발생되는 로렌츠 힘의 방향은 반대일 수 있다. 제3 코일(4300)과 제4 코일(4400)은 서로 반대방향의 전류가 흐르도록 배치될 수 있다. 일례로, 제3 코일(4300)과 제4 코일(4400)은 반대방향으로 감겨서 배치될 수 있다. 또는, 제3 코일(4300)과 제4 코일(4400)은 같은 방향으로 감겨서 배치되고 제3 마그네트(6030)의 극성 배치와 제4 마그네트(6040)의 극성 배치가 다른 방향으로 배치될 수 있다. 한편, 제3 코일(4300)과 제4 코일(4400)이 전기적으로 분리되고 제어부에서 일체로 제어할 수도 있다.
도 42는 다른 실시예에 따른 카메라 모듈의 홀더, 마그네트 및 광학부재를 도시한 분해사시도이고, 도 43은 다른 실시예에 따른 카메라 모듈의 홀더, 마그네트 및 광학부재를 도시한 분해사시이고, 도 44은 도 43에서 다른 각도의 사시도이고, 도 45는 다른 실시예에 따른 카메라 모듈의 홀더, 마그네트 및 광학부재의 상면도이고, 도 46은 실시예에서 마그네트와 코일 사이의 로렌츠 힘을 설명하기 위한 도면이고, 도 47는 실시예에서 광학부재의 대각방향 틸팅 제어를 설명하기 위한 도면이다.
도 42 내지 도 47를 참조하면, 홀더(5000)에는 마그네트부(6000) 및 광학부재(8000)와 결합할 수 있다.
먼저, 홀더(5000)는 상술한 바와 같이 홀더홀(5110)을 포함할 수 있다. 그리고 홀더홀(5110)에는 렌즈모듈이 안착할 수 있다. 홀더홀(5110)에는 외측으로 연장되는 홈부(5110a)가 추가될 수 있다. 홈부(5110a)에 의해, 조립시 조립 공차가 최소화될 수 있다.
그리고 홀더(5000)는 측벽홈(5220)을 포함하고, 측벽홈(5220)에는 마그네트부(6000)가 배치될 수 있다. 또한, 홀더(5000)의 하부에는 광학부재(8000)가 배치될 수 있다. 홀더(5000)는 광학부재(8000)와 일체로 이동할 수 있다. 예컨대, 홀더(5000)가 틸트되면 홀더(5000)에 결합된 광학부재(8000)도 틸트될 수 있다. 또한, 홀더(5000)가 틸트되면 홀더(5000)에 결합된 마그네트부(6000)도 틸트될 수 있다. 이러한 홀더(5000)는 광학부재(8000)와 마그네트부(6000)가 조립되는 케이스(case)일 수 있다.
홀더(5000)는 마그네트부(6000)와의 자력의 영향을 최소화하기 위해 비자성 재질을 사용할 수 있다. 홀더(5000)는 하우징(1000) 내에서 하우징(1000)과 이격될 수 있다. 그리고 홀더(5000)는 탄성부재(7000)와 연결될 수 있다. 홀더(5000)는 탄성부재(7000)와 광학부재(8000)의 제1 대각방향으로 결합되어 틸팅될 수 있다. 홀더(5000)는 실제 구동되는 부위이기 때문에 무게(사이즈) 최소화될 필요가 있다.
홀더(5000)는 제1 측면과, 제1 측면의 반대편에 배치되는 제2 측면과, 제1 측면과 제2 측면 사이에 서로 반대편에 배치되는 제3 측면과 제4 측면을 포함할 수 있다. 홀더(5000)는 제1 측면과 제3 측면 사이의 제1 코너부, 제2 측면과 제3 측면 사이의 제2 코너부, 제2 측면과 제4 측면 사이의 제3 코너부 및 제4 측면과 제1 측면 사이의 제4 코너부를 포함할 수 있다. 대각방향은 제1 코너부에서 제3 코너부를 향한 방향 또는 제3 코너부에서 제1 코너부를 향한 방향일 수 있다. 또한, 대각방향은 제2 코너부에서 제4 코너부를 향한 방향 또는 제4 코너부에서 제2 코너부를 향한 방향일 수 있다.
홀더(5000)는 베이스(5100), 측벽(5200) 및 제2 돌출부(5300)를 포함할 수 있다.
베이스(5100)는 하우징 내에 위치할 수 있다. 베이스(5100)의 하부에는 광학부재(8000)가 위치할 수 있다. 실시예로, 베이스(5100)는 하면에 형성된 베이스홈(5120)을 포함할 수 있다. 베이스홈(5120)에는 광학부재(8000)가 배치될 수 있다. 베이스홈(5120)은 광학부재(8000)와 대응하는 형상으로 형성될 수 있다. 베이스홈(5120)에 광학부재(8000)의 적어도 일부가 수용될 수 있다. 그리고 베이스홈(5120)에서 광학부재(8000)는 접착부재에 의해 베이스(5100)와 결합할 수 있다.
접착부재에 의해 베이스(5100)와 광학부재(8000)의 결합력을 향상시키기 위해, 베이스(5100) 하부의 코너에 결합홈(5120a 내지 5120d)이 위치할 수 있다.
실시예로, 베이스홈(5120)은 제1 결합홈(5120a), 제2 결합홈(5120b), 제3 결합홈(5120c) 및 제4 결합홈(5120d)을 포함할 수 있다. 제1 결합홈(5120a)은 제1 에지면(M1)과 제4 에지면(M4) 사이에 위치할 수 있다. 또한, 제2 결합홈(5120b)은 제2 에지면(M2)과 제3 에지면(M3) 사이에 위치할 수 있다. 또한, 제3 결합홈(5120c)은 제2 에지면(M2)과 제4 에지면(M4) 사이에 위치할 수 있다. 또한, 제4 결합홈(5120d)은 제1 에지면(M1)과 제3 에지면(M3) 사이에 위치할 수 있다. 제1 에지면(M1) 내지 제4 에지면(M4)은 베이스홈(5120)에 의한 베이스(5100)의 각 측면일 수 있다.
제1 결합홈(5120a), 제2 결합홈(5120b), 제3 결합홈(5120c) 및 제4 결합홈(5120d)에는 본딩부재가 주입될 수 있다. 실시예로, 광학부재(8000)가 베이스홈(5120)에 안착한 후, 본딩부재가 제1 결합홈(5120a), 제2 결합홈(5120b), 제3 결합홈(5120c) 및 제4 결합홈(5120d)으로 주입될 수 있다. 이 때, 본딩부재는 모세관 현상을 통해 베이스홈(5120)의 저면 등으로 퍼질 수 있다. 다시 말해, 본딩부재는 광학부재(8000)의 일면과 베이스홈(5120)의 저면 사이에 위치할 수 있다.
또한, 광학부재(8000)는 베이스홈(5120)과 제3 방향 또는 제1/2 방향으로 제1 이격 거리만큼 이격 배치될 수 있다. 제1 이격 거리는 20㎛ 내지 100㎛일 수 있다. 이격 거리가 20㎛보다 작은 경우에는 광학부재와 홀더 간의 결합력이 저하될 수 있고, 이격 거리가 100㎛보다 큰 경우에 본딩부재의 의한 모세관 현상이 용이하게 수행되기 어렵고 홀더의 크기가 커지는 문제가 존재한다.
그리고 베이스(5100)는 베이스홀을 포함하며, 베이스홀은 중공일 수 있다. 베이스홀은 베이스(5100)를 광축 방향으로 관통하도록 형성될 수 있다.
측벽(5200)은 베이스(5100)로부터 상부로 연장될 수 있다. 측벽(5200)은 베이스(5100)의 상면에 위치하며 베이스(5100)의 가장자리를 따라 배치될 수 있다. 이러한 측벽(5200)에는 마그네트부(6000)가 고정될 수 있다.
측벽(5200)은 제1 돌출부(5210)를 포함할 수 있다. 제1 돌출부(5210)는 측벽(5200)에서 상부에 위치할 수 있다. 제1 돌출부(5210)는 탄성부재와 결합할 수 있다. 보다 구체적으로, 제1 돌출부(5210)는 제1 결합부(7100)와 결합될 수 있다. 그리고 탄성부재를 통해, 제1 돌출부(5210) 및 하우징은 서로 결합할 수 있다.
측벽(5200) 또는 제1 돌출부(5210)는 돌기(5210a) 및 가이드돌기(5210b)를 포함할 수 있다. 돌기(5210a)는 제1 돌출부(5210)의 상면에 위치하며 상부로 돌출될 수 있다. 돌기(5210a)는 제1 결합부(7100)와 결합될 수 있다. 돌기(5210a)는 제1 결합부(7100)의 홀에 삽입될 수 있다. 실시예로, 돌기(5210a)는 제1 돌출부(5210)에 대응하여 위치할 수 있다. 제1 돌출부(5210)는 대각 방향으로 상부로 돌출될 수 있다. 그리고 이러한 구성에 대응하여, 돌기(5210a)는 제1 돌기(5210a-1) 및 제2 돌기(5210a-2)를 포함할 수 있다. 이 때, 제1 돌기(5210a-1)과 제2 돌기(5210a-2)는 대각 방향으로 배치될 수 있다. 예컨대, 제1 돌기(5210a-1)과 제2 돌기(5210a-2)는 서로 마주보는 코너부에 배치될 수 있으며, 광축 방향으로 대칭으로 배치될 수 있다.
가이드돌기(5210b)는 돌기(5210a)의 외측에 위치할 수 있다. 실시예로, 가이드돌기(5210b)는 제1 돌출부(5210) 상에 배치되므로 대각방향에 위치할 수 있다. 또한, 대각방향으로 배치된 돌기(5210a)는 대각 방향으로 배치된 가이드돌기(5210b) 사이에 위치할 수 있다. 이에 따라, 후술하는 탄성부재(7000)는 돌기(5210a)와 결합함과 동시에 가이드돌기(5210b)에 의해 가이드될 수 있다. 가이드돌기(5210b)는 탄성부재(7000)가 홀더(5000)의 제1 돌출부(5210) 상에 안착하도록 가이드하며, 틸트 등에 의해 충격이 발생하더라도 탄성부재(7000)의 변형을 방지할 수 있다.
가이드돌기(5210b)의 두께는 탄성부재(7000)의 두께와 비가 1:1 내지 1:2일 수 있다. 상기 두께의 비가 1:1보다 작은 경우에는 충격에 의한 탄성 부재의 변형이 발생하는 한계가 존재하며, 상기 두께의 비가 1:2보다 큰 경우에는 광학부재의 틸트가 수행되는 범위를 제한하고 이탈이 발생하는 문제가 존재한다. 여기서, 두께는 제3 방향으로 길이를 의미한다.
가이드돌기(5210b)는 탄성부재(7000)의 코너에 배치되는 제1 결합부(7100)의 외주의 적어도 일부와 대응하는 형상을 포함할 수 있다.
가이드돌기(5210b)는 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)를 포함할 수 있다. 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)는 서로 마주보도록 배치될 수 있다. 예컨대, 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)는 제1 결합부의 외주의 적어도 일부와 대응되는 내측면을 가질 수 있다. 이에, 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)는 내측면이 제1 결합부의 외측면과 대응하도록 위치할 수 있다. 실시예로, 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)의 내측면이 제1 결합부의 외측면과 마주보도록 위치할 수 있다.
예컨대, 제1 결합부는 제1 방향 또는 제2 방향으로 연장되는 외측면을 가질 수 있다. 이러한 제1 결합부의 외측면에 대응하여, 가이드돌기(5210b)는 제1 결합부의 외측면에 대응하여 제1 방향 또는 제2 방향으로 연장되는 내측면을 가질 수 있다. 이 때, 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)는 제1 방향으로 연장되는 내측면 또는 제2 방향으로 연장되는 내측면 중 적어도 하나를 포함할 수 있다. 또한, 제1 가이드돌기(5210b-1) 및 제2 가이드돌기(5210b-2)는 탄성부재의 외측에 위치할 수 있다. 이러한 구성에 의하여, 가이드돌기(5210b)는 탄성부재와 돌기(5210a)간의 결합력을 유지하고 탄성부재의 이동 변형을 용이하게 방지할 수 있다.
측벽(5200)은 측벽홈(5220)을 포함할 수 있다. 측벽홈(5220)은 측벽(5200)의 외면에 위치할 수 있다. 측벽홈(5220)은 하우징의 제1 하우징측벽 내지 제4 하우징측벽의 하우징홈에 대응하도록 위치할 수 있다. 측벽홈(5220)에는 마그네트부(6000)가 안착할 수 있다. 이러한 측벽홈(5220)은 리세스일 수 있다.
즉, 측벽홈(5220)은 마그네트부(6000)를 지지할 수 있다. 측벽홈(5220) 에는 마그네트부(6000)가 접착부재에 의해 접착될 수 있다. 이에 따라, 측벽홈(5220)은 마그네트부(6000)를 고정할 수 있다.
또한, 측벽(5200)의 상단 및/또는 하단에는 접착홈(5230)이 배치될 수 있다. 그리고 접착홈(5230)에는 본딩부재가 배치될 수 있다. 실시예로, 측벽홈(5220)에 마그네트부(6000)가 안착하고, 홀더(5000)와 마그네트부(6000) 간의 고정을 위해 본딩부재가 접착홈(5230)을 통해 주입될 수 있다. 본딩부재는 접착홈(5230)을 따라 모세관 현상에 의해 마그네트부(6000)와 측벽홈(5220) 사이로 주입될 수 있다. 이에 따라, 본딩부재는 하우징과 기판 간의 결합력을 향상시킬 수 있다. 이 경우, 마그네트부(6000)와 측벽홈(5220)은 제2 이격 거리(d11)를 가질 수 있다. 상기 제2 이격 거리(d11)는 20㎛ 내지 100㎛일 수 있다. 제2 이격 거리가 20㎛보다 작은 경우에는 홀더와 마그네트 간의 결합력이 저하될 수 있고, 제2 이격 거리가 100㎛보다 큰 경우에 본딩부재의 의한 모세관 현상이 용이하게 수행되기 어렵고 홀더의 크기가 커지는 문제가 존재한다.
또한, 본딩부재는 자외선(UV) 경화, 열 경화 등에 의해 마그네트부(6000)를 측벽홈(5220)에 고정할 수 있다.
또한, 홀더(5000)뿐만 아니라, 카메라 모듈의 각 구성요소에서 단차 구조 또는 홀은 얼라인 마크로서 구성요소 간의 결합을 용이하게 수행하고, 구성요소의 부피를 최소화하여 최종적으로 카메라 모듈의 무게를 최소화시킨다.
실시예로, 측벽(5200)의 상면에 조립홈(5200k)이 위치할 수 있다. 조립홈(5200k)을 통해 하우징(1000)과 홀더(5000) 간의 결합 시에 결합 위치를 용이하게 파악할 수 있다. 이에 따라, 조립이 용이하게 수행될 수 있다.
제2 돌출부(5300)는 베이스(5100)에서 하부를 향해 돌출될 수 있다. 본 명세서에서, 상부측 또는 상측은 광축 방향 또는 제3 방향에서 일 방향을 의미하고, 하부측 또는 하측은 광축 방향 또는 제3 방향에서 일 방향의 반대 방향을 의미할 수 있다. 이에 대응하여, 상부는 광축 방향 또는 제3 방향에서 일 방향의 영역을 의미하고, 하부는 광축 방향 또는 제3 방향에서 일 방향의 반대 방향의 영역을 의미할 수 있다.
광축 방향 또는 제2 돌출부(5300)는 베이스(5100)의 코너에 위치할 수 있다. 제2 돌출부(5300)는 광학부재(8000) 및 홀더(5000)가 대각 방향으로 틸트하는 경우 틸트 범위를 제한할 수 있다. 또한, 제2 돌출부(5300)는 틸트 시 광학부재(8000), 마그네트부(6000) 등에 직접 전달되는 것을 방지할 수 있다. 이러한 구성에 의하여, 제2 돌출부(5300)는 카메라 모듈의 신뢰성을 개선할 수 있다.
마그네트부(6000)는 홀더(5000)에 배치될 수 있다. 마그네트부(6000)는 홀더(5000)의 측벽(5200)에 배치될 수 있다. 마그네트부(6000)는 홀더(5000)의 외주면에 배치될 수 있다. 마그네트부(6000)는 홀더(5000)의 외면보다 돌출될 수 있다. 마그네트부(6000)는 상술한 하우징홀 내의 코일부와 대향하게 배치될 수 있다. 그리고 마그네트부(6000)는 코일부(4000)와 전자기적 상호작용할 수 있다.
그리고 마그네트부(6000)는 평판(flat plate) 형상을 갖는 평판 마그네트일 수 있다. 이에 한정되는 것은 아니며, 마그네트부(6000)는 측벽(5200) 사이의 코너에 배치될 수 있다. 이때, 마그네트부(6000)는 내측 측면이 외측 측면 보다 넓은 육면체 형상을 갖는 코너 마그네트일 수 있다.
마그네트부(6000)는 복수의 마그네트를 포함할 수 있다. 마그네트부(6000)는 4개의 마그네트를 포함할 수 있다. 마그네트부(6000)는 제1 마그네트(6010) 내지 제4 마그네트(6040)를 포함할 수 있다. 마그네트부(6000)는 제1 마그네트(6010), 제1 마그네트(6010)의 반대편에 배치된 제2 마그네트(6020), 제3 마그네트(6030) 및 제3 마그네트(6030)의 반대편에 배치된 제4 마그네트(6040)를 포함할 수 있다.
또한, 제1 마그네트(6010)는 홀더(5000)의 제1 측면에 배치되고, 제2 마그네트(6020)는 홀더(5000)의 제2 측면에 배치되고, 제3 마그네트(6030)는 홀더(5000)의 제3 측면에 배치되고, 제4 마그네트(6040)는 홀더(5000)의 제4 측면에 배치될 수 있다.
실시예에서 광학부재(8000)(또는 홀더(5000)는 마그네트부(6000)와 전류가 흐르는 코일부(4000)에 작용하는 로렌츠 힘으로 틸팅될 수 있다. 로렌츠 힘을 발생시키기 위해 엑츄에이터는 크게 마그네트부와 코일부로 나뉠 수 있다. 로렌츠 힘이 발생되었을 때 실제 동작하는 부위는 마그네트부(6000)일 수 있다. 다만, 변형예로 로렌츠 힘에 의해 코일부(4000)가 이동할 수 있다. 상/하 방향으로 구동 시키기 위해 마그네트부(6000)는 도 46(b)에 도시된 바와 같이 양극 착자될 수 있다. 즉, 마그네트부(6000)는 양극을 갖는 2개의 마그네트가 적층된 형태일 수 있다.
또한, 코일부(4000)에는 도 46(c)에 도시된 바와 같이 로렌츠 힘을 발생시키는 전류가 일방향(도 46 (c)의 a)으로 흐를 수 있다. 그리고 코일부(4000)에는 정방향으로 전류가 흐를 수 있다. 한편, 코일부(4000)에는 일방향(a)과 반대인 타방향으로 전류가 흐를 수 있다. 즉, 코일부(4000)에는 역방향으로 전류가 흐를 수 있다. 그리고 마그네트부(6000)의 상부의 외측 영역에 N극(내측 영역에 S극), 하부의 외측 영역(내측 영역에 N극)에는 S극 을 배치하고 전류에 일방향으로 전류를 흘려보내 로렌츠 힘에 따라 상방(도 47(a)의 c)으로의 구동 방향을 작용하게 할 수 있다.
상술한 내용에 따라, 광학부재(8000)는 제1 코일(4100) 내지 제4 코일(4400) 중 인접한 2개의 코일에는 정방향 전류가 인가되고 다른 2개의 코일에는 역방향 전류가 인가되어 광학부재(8000)의 대각방향으로 틸팅되도록 배치될 수 있다. 실시예로, 광학부재(8000)는 제1 코일(4100)과 제3 코일(4300)에 인가되는 전류 제어로 대각방향으로 틸트될 수 있다. 광학부재(8000)는 제1 코일(4100) 내지 제4 코일(4400) 중 인접한 2개의 코일에 전류가 인가되어 광학부재(8000)의 대각방향으로 틸팅되도록 배치될 수 있다. 광학부재(8000)는 홀더(5000)의 제1 코너부와 대응되는 위치에 배치되는 제1 모서리를 포함할 수 있다. 이때, 광학부재(8000)의 제1 모서리는 제1 코일(4100)과 제3 코일(4300)에 의해 광축의 상방향으로 틸팅될 수 있다. 광학부재(8000)는 홀더(5000)의 제3 코너부와 대응되는 위치에 배치되는 제3 모서리를 포함할 수 있다. 이때, 광학부재(8000)의 제3 모서리는 제2 코일(4200)과 제4 코일(4400)에 의해 광축의 하방향으로 틸팅되고, 광학부재(8000)의 제1 모서리는 제2 코일(4200)과 제4 코일(4400)에 의해 광축의 상방향으로 더 틸팅될 수 있다.
실시예에서 카메라 모듈의 틸팅(Tilting) 구동 원리는 다음과 같다. 카메라 모듈에는 로렌츠 힘을 이용한 구동부 4개소가 적용될 수 있다. 도 47에 도시된 바와 같이 제1 코일(4100)과 제1 마그네트(6010)를 포함하는 제1 구동부와 제3 코일(4300)과 제3 마그네트(6030)를 포함하는 제3 구동부에서 '양(+)의 방향'으로 로렌츠 힘이 발생되게 하고, 제2 코일(4200)과 제2 마그네트(6020)를 포함하는 제2 구동부와 제4 코일(4400)과 제4 마그네트(6040)를 포함하는 제4 구동부에서 '음(-)의 방향'으로 로렌츠 힘이 발생하게 하면, 좌상 대각선은 상방(도 47의 a1)으로 틸팅되고, 이와 반대로 우하 대각선은 하방(도 47의 a2)으로 틸팅될 수 있다. 이후, 제2 코일(4200)과 제2 마그네트(6020)를 포함하는 제2 구동부와 제3 코일(4300)과 제3 마그네트(6030)를 포함하는 제3 구동부에서 '양(+)의 방향'으로 로렌츠 힘이 발생되게 하고, 제1 코일(4100)과 제1 마그네트(6010)를 포함하는 제1 구동부와 제4 코일(4400)과 제4 마그네트(6040)를 포함하는 제4 구동부에서 '음(-)의 방향'으로 로렌츠 힘이 발생할 수 있다. 이 경우, 우상 대각선은 상방(도 47의 a3)으로 틸팅되고, 이와 반대로 좌하 대각선은 하방(도 47의 a4)으로 틸팅될 수 있다.
다음으로, 제1 코일(4100)과 제1 마그네트(6010)를 포함하는 제1 구동부와 제3 코일(4300)과 제3 마그네트(6030)를 포함하는 제3 구동부에서 '음(-)의 방향'으로 로렌츠 힘이 발생되게 하고, 제2 코일(4200)과 제2 마그네트(6020)를 포함하는 제2 구동부와 제4 코일(4400)과 제4 마그네트(6040)를 포함하는 제4 구동부에서 '양(+)의 방향'으로 로렌츠 힘이 발생할 수 있다. 이 경우, 우하 대각선은 상방(도 47의 a5)으로 틸팅되고, 이와 반대로 좌상 대각선은 하방(도 47의 a6)으로 틸팅될 수 있다.
다음으로, 제2 코일(4200)과 제2 마그네트(6020)를 포함하는 제2 구동부와 제3 코일(4300)과 제3 마그네트(6030)를 포함하는 제3 구동부에서 '음(-)의 방향'으로 로렌츠 힘이 발생되게 하고, 제1 코일(4100)과 제1 마그네트(6010)를 포함하는 제1 구동부와 제4 코일(4400)과 제4 마그네트(6040)를 포함하는 제4 구동부에서 '양(+)의 방향'으로 로렌츠 힘이 발생할 수 있다. 이 경우, 좌하 대각선은 상방(도 47의 a7)으로 틸팅되고, 이와 반대로 우상 대각선은 하방(도 47의 a8)으로 틸팅될 수 있다. 이상에서 사용된 양의 방향은 상방이고, 음의 방향은 하방일 수 있다. 본 실시예에서는 이런 틸팅 구동이 4방향으로 순차적 (좌상, 우상, 우하, 좌하)으로 이루어질 수 있다.
본 실시예에서는 구동부를 4개소 적용함으로써 구동부 힘을 각각 제어(Control)할 수 있어 정밀 제어에 유리한 장점을 갖는다. 한편, 틸팅이 상/하 대칭으로 이루어지기 때문에 틸팅 거리를 짧게 할 수 있다.
탄성부재(7000)는 하우징(1000)과 연결될 수 있다. 탄성부재(7000)는 홀더(5000)와 하우징(1000)을 연결할 수 있다. 탄성부재(7000)는 탄성을 가질 수 있다. 또는 탄성부재(7000)는 탄성을 갖는 부분을 포함할 수 있다. 실시예로, 탄성부재(7000)는 판스프링(Leaf spring)을 포함할 수 있다. 탄성부재(7000)는 금속재로 형성될 수 있다.
탄성부재(7000)는 하우징(1000)의 하우징돌기(1280)와 홀더(5000)의 제1 돌출부(5210)의 돌기(5210a)에 조립 후 본딩으로 고정될 수 있다. 본 실시예에서는 탄성부재(7000)의 조립 및 고정부가 외부이기 때문에 비교적 쉬운 조립 구조 가질 수 있다. 본 실시예에서 탄성부재(7000)는 스프링 위치를 상/하 자유도를 가질 수 있는 구조일 수 있다. 탄성부재(7000)는 실시예 별로 상측에만 둘 수 있고, 상하측 모두에 둘 수 있고, 하측에만 둘 수도 있다.
탄성부재(7000)는 제1 결합부(7100) 및 제2 결합부(7200)를 포함할 수 있다.
제1 결합부(7100)는 홀더(5000)의 코너에 결합될 수 있다. 제1 결합부(7100)는 2개일 수 있다. 제1 결합부(7100)는 광학부재(8000)의 제1 대각방향 상에 광축에 대칭되도록 배치될 수 있다. 2개의 제1 결합부는 광축에 대하여 서로 반대편에 배치될 수 있다. 제1 결합부(7100)는 홀더(5000)의 제1 코너부와, 홀더(5000)의 제3 코너부 각각에 결합될 수 있다.
제2 결합부(7200)는 제1 결합부(7100)가 결합되는 홀더(5000)의 코너부와 인접하는 홀더(5000)의 다른 코너부와 대응되는 하우징(1000)의 코너에 결합될 수 있다.
또한, 제2 결합부(7200)는 하우징(1000)의 하우징돌기(1280)와 결합할 수 있다. 실시예로, 제2 결합부(7200)는 2개일 수 있다.
제2 결합부(7200)는 광학부재(8000)의 제1 대각방향과 상이한 제2 대각방향 상에 광축에 대칭되도록 배치될 수 있다. 제2 결합부(7200)는 광축에 대하여 서로 반대편에 배치될 수 있다. 제2 결합부(7200)는 하우징(1000)의 제2 코너와 하우징(1000)의 제4 코너 각각에 결합될 수 있다.
홀더(5000)의 돌기(5200a)와 하우징(1000)의 하우징돌기(1280)는 제1 방향(X 축 방향) 또는 제2 방향(Y축 방향)으로 적어도 일부 중첩되도록 배치될 수 있다. 실시예로, 돌기(5200a)의 중심과 하우징돌기(1280)의 중심은 제1 방향(X 축 방향) 또는 제2 방향(Y축 방향)으로 어긋나게 배치될 수 있다. 이에, 돌기(5200a)의 중심과 하우징돌기(1280)의 중심은 제1 방향(X 축 방향) 또는 제2 방향(Y축 방향)으로 중첩되지 않을 수 있다. 이에, 홀더(5000)가 하우징(1000)의 내측에 안착하더라도 탄성부재(7000)에 의해 하우징(1000)과 홀더(5000) 간의 결합력을 갖고, 충격 또는 진동을 용이하게 차단할 수 있다. 홀더(5000)와 하우징(1000)은 상술한 바와 같이 탄성부재(7000)를 통해 서로 연결 및 고정될 수 있다.
탄성부재(7000)는 탄성연결부(7300)를 포함할 수 있다. 탄성연결부(7300)는 제1 결합부(7100)와 제2 결합부(7200)를 연결할 수 있다. 탄성연결부(7300)는 제1 결합부(7100)와 제2 결합부(7200)를 탄성적으로 연결할 수 있다. 탄성연결부(7300)는 탄성을 가질 수 있다. 탄성연결부(7300)는 절곡부(7310)를 포함할 수 있다. 절곡부(7310)는 접어서 형성된 것이 아니라 지그재그의 형상으로 형성된 부분일 수 있다. 탄성연결부(7300)는 밴딩부 또는 라운드부를 포함할 수 있다. 복수의 절곡부(7310)는 탄성연결부(7300)의 길이방향으로 연속적으로 형성될 수 있다.
탄성부재(7000)는 하우징(1000)의 상부 및 홀더(5000)의 상부에서 하우징(1000) 및 홀더(5000)와 결합할 수 있다.
그리고 탄성부재(7000)는 최적의 형상과 강도(stiffness)를 찾을 수 있도록 다양한 형상으로 형성될 수 있다.
실시예에서 탄성연결부(7300)의 절곡부(7310)는 하우징(1000)의 댐퍼돌기(1270)와 대응하는 영역(예컨대, 마주보는 영역0)에서 플랫(flat)하게 형성될 수 있다. 그리고 댐퍼돌기(1270)는 인접한 탄성연결부(7300)와 댐퍼부재(dp)를 통해 서로 결합할 수 있다. 이에, 홀더(5000), 광학부재(8000) 등이 틸트로 인해 탄성부재(7000)도 진동할 수 있다. 이 때, 댐퍼부재(dp)는 탄성부재(7000)의 진동을 용이하게 저감하여 소자의 신뢰성을 개선할 수 있다. 댐퍼부재(dp)는 자외선이나 열로 경화되는 물질로 이루어질 수 있다.
그리고 탄성연결부(7300)가 제1 결합부(7100) 및 제2 결합부(7200)와 만나는 지점에서는 라운드지게 형성될 수 있다.
변형예에서 도 50에 도시된 바와 같이 탄성연결부(7300)는 복수의 절곡부(7310)를 포함할 수 있다. 탄성연결부(7300)는 탄성돌기부(7320)를 포함할 수 있다. 또한, 하우징(1000)의 댐퍼돌기(1270-1, 1270-2)는 복수 개일 수 있다. 이 때, 댐퍼돌기(1270-1, 1270-2)는 탄성돌기부(7320)와 제1 방향(X축 방향) 또는 제2 방향(Y축 방향)으로 적어도 일부 중첩될 수 있다. 그리고 탄성돌기부(7320)와 댐퍼돌기(1270-1, 1270-2)는 댐퍼부재(dp)에 의해 서로 결합할 수 있다. 댐퍼돌기(1270-1, 1270-2)는 댐퍼부재(dp)가 댐퍼돌기(1270-1, 1270-2) 이외의 영역으로 유동하는 것을 방지할 수 있다. 또한, 탄성부재(7000)의 강성에 대한 댐퍼부재(dp)가 미치는 영향을 최소화할 수 있다.
또한, 탄성부재(7000)는 홀더(5000) 하부 또는 상부 등 배치 위치에 따라 홀더 또는 하우징과 연결되는 대각방향이 서로 상이할 수 있다. 이를 통해, 홀더(5000)의 초기상태에서의 틸트를 방지하고 대각 방향 제어를 동일한 전류로 수행할 수 있다.
또한, 실시예에서, 탄성부재(7000)는 위부 충격으로부터 스트레스에 의한 변형이 발생하지 않도록, 제1 방향(X축 방향), 제2 방향(Y축 방향) 및 제3 방향(Z축 방향)으로 스트레스를 분산할 수 있다. 예컨대, 탄성부재(7000)는 제1 방향(X축 방향), 제2 방향(Y축 방향) 및 제3 방향(Z축 방향)으로 안전 계수(Safety Factor)가 2이상일 수 있다.
그리고 탄성연결부(7300)는 홀더(5000)의 제1 측면, 제2 측면, 제3 측면 및 제4 측면 상에 각각 위치하며 대칭으로 배치될 수 있다. 다시 말해, 탄성부재(7000)에서 탄성연결부(7300)는 시계 방향 또는 반시계 방향으로 90도만큼 이동할 때 동일한 형상을 가질 수 있다. 이에 따라, 홀더(5000)의 틸팅(예컨대, 대각 틸팅)이 대칭으로 이루어질 수 있다.
추가적으로, 제1 결합부(7100) 및 제2 결합부(7200) 각각은 돌기(5210a) 및 하우징돌기(1280)와 결합을 위한 제1,2 결합홀을 갖고, 제1, 2 결합홀은 인접한 탄성연결부(7300)를 향해 연장 형성된 결합홈을 더 포함할 수 있다. 이러한 결합홈은 외부 충격을 흡수하여 외부 충격에 의한 탄성부재(7000)의 변형을 최소화할 수 있다.
실시예에서 탄성부재(7000)의 강성(stiffness)은 53mN/mm 내지 80mN/mm일 수 있다. 이때, 탄성부재(7000)의 강성은 탄성부재(7000)의 탄성연결부(7300)의 강성일 수 있다. 탄성부재(7000)의 강성이 53mN/mm 미만일 경우 분석(Analyze) 단계의 측정 값을 참조할 때 전류 수준을 낮게 해도 목표 틸팅 각도 보다 큰 문제가 발생하고, 80mN/mm는 본 실시예의 제한된 공간 상에서 가장 큰 값일 수 있다.
또한, 본 실시예에서 코일부(4000)에 인가되는 전류의 수준은 18mA 내지 22mA일 수 있다. 코일부(4000)에 인가되는 전류가 18mA 미만일 경우 분석 단계 테스트 시 탄성부재(7000)의 강도 53mN/mm일 때 틸팅 각도가 작은 문제가 있고 22mA 초과일 경우 소모 되는 전류량이 크고, 코일에서 열이 발생하는 한계가 존재한다.
또한, 하우징(1000)은 제1 방향(X축 방향) 또는 제2 방향(Y축 방향)으로 홀더(5000)가 틸트되는 범위를 제한하는 스토퍼를 포함할 수 있다. 스토퍼는 제1 하우징측벽 내지 제4 하우징측벽의 내면에 위치할 수 있다. 그리고 스토퍼는 내측을 향해 돌출될 수 있다.
실시예로, 스토퍼는 제1 스토퍼(ST1), 제2 스토퍼(ST2)를 포함할 수 있다. 그리고 제1 스토퍼(ST1)와 제2 스토퍼(ST2)는 하우징(1000)의 외측부(1200)에서 내면에 위치할 수 있다.
제1 스토퍼(ST1)는 제2 하우징측벽 또는 제4 하우징측벽에 위치할 수 있다. 또한, 제2 스토퍼(ST2)는 제1 하우징측벽 또는 제4 하우징측벽에 위치할 수 있다. 이러한 구성에 의하여, 제1 스토퍼(ST1)는 제2 방향(Y축 방향)으로 홀더(5000)가 회전하는 범위를 제한할 수 있다. 그리고 제2 스토퍼(ST2)는 제1 방향(X축 방향)으로 홀더(5000)가 회전하는 범위를 제한할 수 있다. 이에 따라, 하우징(1000)과 홀더(5000) 간의 이격 거리에 따라 탄성부재(7000)에 가해지는 스트레스를 최소화하여 탄성부재(7000)의 변형이 발생하는 것을 방지할 수 있다.
뿐만 아니라, 스토퍼는 제3 스토퍼(ST3)를 더 포함할 수 있다. 제3 스토퍼(ST3)는 연결부(1300) 상면에 위치할 수 있다. 그리고 제3 스토퍼(ST3)는 상부로 돌출형성될 수 있다. 이에 따라, 제3 스토퍼(ST3)는 홀더(5000)가 제3 방향(Z축 방향)으로 회전하는 범위를 제한할 수 있다. 이에 따라, 하우징(1000)과 홀더(5000) 간의 이격 거리에 따라 탄성부재(7000)에 가해지는 스트레스를 최소화하여 탄성부재(7000)의 변형이 발생하는 것을 방지할 수 있다.
추가 변형예로, 카메라 모듈은 탄성부재가 하부에 배치될 수 있다. 이하 하부 탄성부재로 설명한다. 하부 탄성부재는 하우징(1000)의 하부와 홀더(5000)의 하부에 결합될 수 있다. 하부 탄성부재는 홀더(5000)의 하부와 결합되는 제1 결합 영역과, 하우징(1000)의 하부와 결합되는 제2 결합 영역과, 제1 결합 영역과 제2 결합 영역을 연결하는 연결 영역을 포함할 수 있다.
하부 탄성부재의 제1 결합 영역은 홀더(5000)의 다른 코너(상부의 탄성부재와 홀더 간에 연결된 코너와 상이한 코너)에 결합될 수 있다. 하부 탄성부재의 제1 결합 영역은 홀더(5000)의 제2 돌출부와 결합될 수도 있다.
예컨대, 실시예에서 상부의 탄성부재와 하부 탄성부재는 서로 다른 대각 방향으로 결합이 이루어질 수 있다. 즉, 상부 탄성부재가 결합되는 부분을 연결하는 대각방향과 하부 탄성부재가 결합되는 부분을 연결하는 대각방향이 다를 수 있다. 이를 통해, 홀더(5000)의 초기상태에서의 틸트를 방지하고 4개의 대각 방향 제어 모두에서 동일한 전류로 제어할 수 있다.
도 51는 다른 실시예에 따른 카메라 모듈의 사시도이고, 도 52은 도 51의 EE'에서 바라본 단면도이고, 도 53은 도 51에서 FF'로 절단된 단면도이고, 도 54는 도 51에서 GG'로 절단된 단면도이다.
도 51 내지 도 54을 참조하면, 제1 돌출부(5210)는 상술한 바와 같이 홀더(5000)에서 제1 대각방향으로 위치할 수 있으며, 제2 대각방향으로 위치하지 않을 수 있다. 실시예로, 홀더(5000)의 측벽(5200)은 각 코너부에서 제3 방향으로 길이가 상이할 수 있다. 즉, 홀더(5000)의 측벽은 제1 코너부 및 제3 코너부에서 길이가 제2 코너부 및 제4 코너부에서 길이보다 클 수 있다. 제1 돌출부(5210)는 제1 대각방향으로 예컨대 제1 코너부 및 제3 코너부에만 위치할 수 있다.
또한, 제1 돌출부(5210)는 하우징(1000)의 상면과 제3 방향으로 제1 거리(d1)만큼 이격 배치될 수 있다. 예컨대, 제1 돌출부(5210)에 돌기(5210a)가 배치되는 경우 돌기(5210a)의 상면과 하우징(1000)의 최상면은 제1 거리(d10)만큼 이격 배치될 수 있다.
그리고 제1 돌출부(5210)는 하우징(1000)의 상면과 제3 방향으로 제1 거리(d1)만큼 이격 배치되므로, 제1 거리(d10)에 의한 공간에서 홀더(5000)가 대각방향으로 용이하게 틸트할 수 있다.
홀더(5000)는 제1 대각방향에서 제1 각도(θ1)로 회전할 수 있다. 제1 각도(θ1)는 양/음(+/-0)을 모두 포함하므로, 후술하는 바와 같이 STEP1와 STEP3(또는 STEP2와 STEP4)가 수행될 수 있다.
또한, 홀더(5000)는 제2 대각방향에서 제2 각도(θ2)로 회전할 수 있다. 제2 각도(θ2)는 양/음(+/-0)을 모두 포함하므로, 후술하는 바와 같이 STEP2와 STEP4(또는 STEP1와 STEP3)가 수행될 수 있다.
제1 거리(d1)는 하기 수학식 3에 의해 결정될 수 있다.
Figure PCTKR2021001784-appb-img-000003
(여기서, L은 상기 베이스의 최대 길이이고, θ는 홀더의 대각 방향 틸팅 최대 각도이다)
θ는 SR 영상을 얻기위해 후술하는 STEP1 내지 STEP4를 수행하는데 요구되는 홀더의 틸팅 각도에 대응할 수도 있다.
제1 거리가 L X tan(0.75 X θ)보다 작은 경우에, 홀더가 틸팅시 홀더와 하우징 간의 간섭이 발생하여 소자의 신뢰성이 저하되는 문제가 존재한다. 예컨대, 탄성부재에 의한 오버슈트(overshoot)로 탄성부재가 송산될 수 있다.
그리고 제1 거리가 L X tan(1.25 X θ)보다 큰 경우에, 하우징의 크기가 증가하여 카메라 모듈의 전체 높이가 증가하는 한계가 존재한다.
도 55는 본 다른 실시예에 따른 틸트부를 설명하기 위한 도면이다.
도 55에 도시된 것처럼, 카메라 모듈은 광학부재(또는 필터, 이하에서는 필터의 틸팅으로 설명함) 또는 렌즈모듈을 3차원 틸팅할 수 있는 제어부(CLO)를 포함할 수 있다. 상기에서 살펴본 것처럼, 제어부(CLO)는 필터를 통과한 입력광 신호의 광경로가 소정의 규칙에 따라 반복하여 이동하도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는 상술한 제어부(CLO)에 대응하거나 이를 포함할 수 있다.
그리고 소정의 규칙은 제1 틸트 시퀀스 내지 제4 틸트 시퀀스를 포함할 수 있다. 제1 틸트 시퀀스 내지 제4 틸트 시퀀스는 필터를 통과한 입력광 신호의 광경로가 서로 상이한 위치에 배치되도록 할 수 있다. 제1 내지 제4 틸트 시퀀스는 필터를 통과한 입력광 신호의 광경로가 서로 상이한 대각 방향으로 이동하도록 할 수 있다.
제어부(CLO)는 제1 틸트 시퀀스에 따라, 필터를 통과한 입력광 신호의 광경로가 센서의 좌측 상단 방향으로 이동하도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는 제2 틸트 시퀀스에 따라, 필터를 통과한 입력광 신호의 광경로가 센서의 우측 상단 방향으로 이동하도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는, 제3 틸트 시퀀스에 따라, 필터를 통과한 입력광 신호의 광경로가 이미지 센서의 우측 하단 방향으로 이동하도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는 제4 틸트 시퀀스에 따라, 필터를 통과한 입력광 신호의 광경로가 이미지 센서의 좌측 하단 방향으로 이동하도록 필터를 틸팅시킬 수 있다.
제어부(CLO)는 제1 틸트 시퀀스에 따라, 필터의 좌측 상단 꼭짓점과 중심점이 이루는 선분이 틸팅 전 IR필터의 면인 기준면과 양의 틸팅각을 이루고, 필터의 우측 하단 꼭짓점과 중심점이 이루는 선분이 기준면과 음의 틸팅각을 이루도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는 제2 틸트 시퀀스에 따라, 필터의 우측 상단 꼭짓점과 중심점이 이루는 선분이 틸팅 전 필터의 면인 기준면과 양의 틸팅각을 이루고, 필터의 좌측 하단 꼭짓점과 중심점이 이루는 선분이 기준면과 음의 틸팅각을 이루도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는 제3 틸트 시퀀스에 따라, 필터의 우측 하단 꼭짓점과 중심점이 이루는 선분이 틸팅 전 필터의 면인 기준면과 양의 틸팅각을 이루고, 필터의 좌측 상단 꼭짓점과 중심점이 이루는 선분이 기준면과 음의 틸팅각을 이루도록 필터를 틸팅시킬 수 있다. 제어부(CLO)는 제4 틸트 시퀀스에 따라, 필터의 좌측 하단 꼭짓점과 중심점이 이루는 선분이 틸팅 전 필터의 면인 기준면과 양의 틸팅각을 이루고, 필터의 우측 상단 꼭짓점과 중심점이 이루는 선분이 기준면과 음의 틸팅각을 이루도록 필터를 틸팅시킬 수 있다.
제어부(CLO)는 제1 내지 제4 틸트 시퀀스가 순차적으로 수행되는 조합 중 어느 하나의 조합이 반복되도록 필터를 틸팅시킬 수 있다. 예를 들어, 제어부(CLO)는 [제1 틸트 시퀀스 -> 제2 틸트 시퀀스 -> 제3 틸트 시퀀스 -> 제4 틸트 시퀀스]의 순서를 가진 소정의 규칙을 반복하여 필터를 틸팅시킬 수 있다. 다른 예로, 제어부(CLO)는 [제2 틸트 시퀀스 -> 제3 틸트 시퀀스 -> 제4 틸트 시퀀스 -> 제1 틸트 시퀀스]의 순서를 가진 소정의 규칙을 반복하여 필터를 틸팅시킬 수 있다. 다른 예로, 제어부(CLO)는 [제1 틸트 시퀀스 -> 제3 틸트 시퀀스 -> 제2 틸트 시퀀스 -> 제4 틸트 시퀀스]의 순서를 가진 소정의 규칙을 반복하여 필터를 틸팅시킬 수도 있다.
상기의 기능을 구현하기 위하여, 제어부(CLO)는 틸트 컨트롤러(TC), 틸트 드라이버(TD)를 포함할 수 있다. 경우에 따라, 제어부(CLO)는 틸트 엑츄에이터(TA)를 포함할 수 있으나, 이하에서는 분리된 구성요소로 설명한다. 그리고 틸트 엑츄에이터(TA)는 수광부(2)에 포함되며, 상술한 코일부와 마그네트부에 의해 구동될 수 있다. 이에 대한 자세한 설명은 후술한다.
먼저, 틸트 컨트롤러(TC)는 틸트 드라이버(TD)의 구동을 제어하는 제어 신호를 생성할 수 있다. 틸트 컨트롤러(TC)는 제어 신호를 생성할 수 있는 마이크로 컨트롤러(Micro Controller Unit, MCU)일 수 있으나, 이에 한정되지 않는다. 틸트 컨트롤러(TC)는 생성된 제어 신호를 틸트 드라이버(TD)에 입력할 수 있다. 틸트 컨트롤러(TC)는 틸트 드라이버(TD)와 I2C(Inter-Integrated Circuit) 통신 방식을 통해 제어 신호를 송수신할 수 있다. 예를 들어, I2C 통신에서 틸트 컨트롤러(TC)는 마스터 모드(master mode)의 디바이스일 수 있고, 틸트 드라이버(TD)는 슬레이브 모드(slave mode)의 디바이스일 수 있다. 마스터 모드의 틸트 컨트롤러(TC)는 슬레이브 모드의 틸트 드라이버(TD)에 제어 신호를 전송할 수 있다. 이를 위해, 틸트 컨트롤러(TC)는 시리얼 클럭(serial clock, SCL) 통신 라인 및 시리얼 데이터(serial data, SDA) 통신 라인 각각과 연결될 수 있다. 틸트 컨트롤러(TC)가 I2C 방식을 통해 틸트 드라이버(TD)와 통신하는 것은 일례로서 이에 한정되지 않는다.
틸트 컨트롤러(TC)는 제어 신호를 통해 틸트 드라이버(TD)의 온/오프를 제어할 수 있다. 즉, 제어 신호는 틸트 드라이버(TD)의 작동 시작 및 작동 중지를 제어할 수 있는 정보를 포함할 수 있다. 틸트 컨트롤러(TC)는 제어 신호를 통해 틸트 드라이버(TD)의 출력 신호의 전압 레벨을 제어할 수 있다. 즉, 제어 신호는 틸트 드라이버(TD)의 출력 신호의 전압 크기를 제어할 수 있는 정보를 포함할 수 있다. 틸트 컨트롤러(TC)는 제어 신호를 통해 딜레이 시간을 제어할 수 있다. 즉, 제어 신호는 딜레이 시간에 대한 제어 정보를 포함할 수 있다. 여기서 딜레이 시간이란 트리거 신호의 특정 파형이 발생한 시점에서 출력 신호의 특정 파형이 발생하는 시점 사이의 간격을 의미할 수 있다. 틸트 컨트롤러(TC)는 제어 신호를 통해 프레임 시간을 제어할 수 있다. 즉, 제어 신호는 프레임 시간에 대한 제어 정보를 포함할 수 있다. 여기서, 프레임 시간이란 카메라 장치가 1장의 이미지 프레임을 생성하는데 걸리는 시간을 의미할 수 있으며, 트리거 신호에서 특정 파형이 발생하는 주기일 수 있다.
한편, 틸트 컨트롤러(TC)는 도 55의 (a)와 같이 카메라 모듈 외부에 배치될 수 있다. 예를 들어, 카메라 모듈이 이동 단말에 설치된 경우, 틸트 컨트롤러(TC)는 이동 단말에 배치될 수 있다. 이 경우, 카메라 모듈에 포함된 제어부(CLO)는 틸트 드라이버(TD)를 포함하여 구성될 수 있다. 다른 실시예로 틸트 컨트롤러(TC)는 도 55의 (b)와 같이 제어부(CLO)에 포함될 수 있다. 예를 들어, 틸트 컨트롤러(TC)는 카메라 모듈의 일 공간에 배치될 수 있다. 이 경우, 카메라 모듈에 포함된 제어부(CLO)는 틸트 드라이버(TD) 및 틸트 컨트롤러(TC)를 포함하여 구성될 수 있다.
틸트 드라이버(TD)는 센서(예, 이미지 센서)로부터 입력받은 트리거 신호에 기초하여 상술한 센서의 노출 주기와 동기화 된 출력 신호를 생성할 수 있다.
틸트 드라이버(TD)는 카메라 모듈로부터 전압을 입력 받을 수 있다. 실시예로, 틸트 드라이버(TD)는 카메라 모듈로부터 공급되는 전압으로부터 분기된 제1 전압 및 제2 전압을 입력받을 수 있다. 제어부(CLO)는 카메라 모듈의 전원에서 입력된 전압을 제1 전압 및 제2 전압으로 분기하기 위하여 분기소자로 인덕터(inductor)를 더 포함할 수 있다. 분기된 제1 전압 및 제2 전압은 각각 틸트 드라이버(TD)에 입력될 수 있다. 제1 전압은 틸팅 틸트 드라이버(TD)의 구동에 이용되는 전압일 수 있고, 제2 전압은 틸트 엑츄에이터(TA)의 구동에 이용되는 전압일 수 있다. 제1 전압과 제2 전압은 동일한 전압 크기를 가질 수 있으며, 3.3[V] 크기의 직류 전압일 수 있으나, 이에 한정되지 않는다. 틸트 드라이버(TD)는 제1 전압을 입력받는 제1 전원 입력 단자와 제2 전압을 입력받는 제2 전원 입력 단자를 포함할 수 있다.
틸트 드라이버(TD)는 트리거 신호(trigger signal)를 입력 받을 수 있다. 트리거 신호는 센서, 즉 이미지 센서로부터 출력될 수 있다. 트리거 신호는 일정 주기의 구형파 신호일 수 있다. 틸트 드라이버(TD)는 틸트 엑츄에이터(TA)의 구동 주기와 센서의 구동 주기를 동기화하는데 트리거 신호를 이용할 수 있다. 틸트 드라이버(TD)는 트리거 신호를 입력받는 단자를 포함할 수 있다.
틸트 드라이버(TD)는 틸트 컨트롤러(TC)로부터 제어 신호를 입력받을 수 있다. 틸트 드라이버(TD)는 틸트 드라이버(TD)와 통신 연결을 위한 통신 연결 단자를 포함할 수 있다. I2C 통신 방식을 이용할 경우, 통신 연결 단자는 2개의 단자로 구성될 수 있다.
틸트 드라이버(TD)는 카메라 모듈로부터 입력 받은 전압 및 트리거 신호, 그리고 틸트 컨트롤러(TC)로부터 입력받은 제어 신호에 기초하여 출력 신호를 생성한다. 출력 신호 생성에 대한 구체적인 설명은 아래에서 도면을 통해 살펴보도록 한다.
틸트 드라이버(TD)는 출력 신호를 틸트 엑츄에이터(TA)로 출력할 수 있다. 출력 신호는 2채널로 구성된 신호로서, 제1 출력 신호 및 제2 출력 신호를 포함할 수 있다. 따라서, 틸트 드라이버(TD)는 제1 출력 신호를 출력하기 위한 제1 출력 단자와 제2 출력 신호를 출력하기 위한 출력 단자를 포함할 수 있으며, 각각의 단자는 신호 라인을 통해 틸트 엑츄에이터(TA)와 연결될 수 있다. 다만, 출력 신호는 채널에 따라 다양할 수 있다. 이에 대해서는 이하 다양한 실시예를 기준으로 설명한다.
틸트 엑츄에이터(TA)는 출력 신호를 통해 필터를 대각 방향으로 틸팅시킬 수 있다. 틸트 엑츄에이터(TA)는 제1 구동부 내지 제4 구동부를 포함할 수 있으며, 각 구동부는 하나의 코일 및 하나의 마그네트를 포함할 수 있다. 즉, 틸트 엑츄에이터(TA)는 마그네트부와 코일부를 포함할 수 있다. 나아가, 틸트 엑츄에이터(TA)는 상술한 기판(3000) 및 홀더(5000)를 더 포함할 수 있다. 이로써, 제1 출력 신호와 제2 출력 신호 등을 수신하여 필터를 대각 방향 또는 수평 방향으로 틸트할 수 있다.
예를 들어, 제1 출력 신호는 제1 구동부 및 제3 구동부에 입력될 수 있다. 상세하게 제1 출력 신호는 제1 구동부의 제1 코일 및 제3 구동부의 제3 코일에 입력될 수 있다. 제2 출력 신호는 제2 구동부 및 제4 구동부에 입력될 수 있다. 상세하게 제1 출력 신호는 제2 구동부의 제2 코일 및 제4 구동부의 제4 코일에 입력될 수 있다. 즉, 틸트 엑츄에이터(TA)는 제1 출력 신호 및 제2 출력 신호를 포함하는 출력 신호를 통해 필터를 대각 방향으로 틸팅시킬 수 있다.
실시예로, 틸트 엑츄에이터(TA)는 제1 출력 신호 및 제2 출력 신호 중 적어도 하나를 코일부로 인가할 수 있고, 이에 대응하여 카메라 모듈에서는 필터가 대각 방향으로 틸트하거나 수평 방향으로 틸트할 수 있다.
도 56은 틸트 엑츄에이터를 상세하게 설명하기 위한 도면이다.
도 56의 (a)는 틸트 엑츄에이터(TA)의 제1 코일 내지 제4 코일이 기판(3000)에 배치된 형태를 나타낸다. 제1 코일 내지 제4 코일은 서로 일정 거리만큼 이격되어 기판(3000)에 배치될 수 있다. 기판(3000)은 제1 코일과 제2 코일 사이, 제2 코일과 제3 코일 사이, 제3 코일과 제4 코일 사이가 접힐 수 있는 형태로 구현될 수 있다.
제1 코일 내지 제4 코일 중 서로 마주보는 코일은 코일에 흐르는 전류의 방향이 서로 반대가 되는 역평행(antiparallel) 구조로 형성될 수 있다. 즉, 제1 코일 및 제3 코일은 서로 역평행 구조로 형성되고, 제2 코일 및 제4 코일은 서로 역평행 구조로 형성될 수 있다. 제1 코일 및 제3 코일이 서로 역평행 구조를 가지므로, 제1 코일에 흐르는 전류(I1)와 제3 코일에 흐르는 전류(I3)는 서로 역평행 관계를 가질 수 있다(I1=-I3). 제2 코일 및 제4 코일이 서로 역평행 구조를 가지므로, 제2 코일에 흐르는 전류(I2)와 제4 코일에 흐르는 전류(I4)는 서로 역평행 관계를 가질 수 있다(I2=-I4).
실시예로 카메라 모듈은 필터를 대각 틸트하기 위해서 틸트 엑츄에이터(TA)로 제1 출력 신호 및 제2 출력 신호가 모두 인가될 수 있다. 다만, 카메라 모듈은 필터를 수평 틸트하기 위해서 틸트 엑츄에이터(TA)로 프레임 주기 내에서 제1 출력 신호 및 제2 출력 신호 중 어느 하나만 인가할 수 있다. 예컨대, 프레임 주기 내에서 제1 출력 신호 및 제2 출력 신호는 시간이 중첩되지 않으면서 틸트 엑츄에이터(TA)로 인가도리 수 있다. 이러한 구성에 의하여, 신호의 출력에 대한 에너지 효율이 개선될 수 있다.
도 56의 (b)는 제1 코일 내지 제4 코일이 배치된 기판(3000)이 배치되는 인쇄회로기판(4)을 나타낸다. 인쇄회로기판(4)의 수광부가 배치되는 부분에는 틸트 엑츄에이터(TA)가 탑재되는 패드(pad)가 배치될 수 있다. 패드는 제1 패드 및 제1 패드에 마주보는 위치에 배치되는 제2 패드를 포함할 수 있다.
도 56의 (c)는 도 56의 (a)에 도시된 제1 코일 내지 제4 코일이 배치된 기판이 인쇄회로기판(4)에 결합된 형태를 도시한다. 도 56의 (a)에 도시된 제1 코일 내지 제4 코일이 배치된 기판은 일정한 간격 및 일정한 각도로 접힌 사각형상일 수 있다. 사각형상의 제1 코일 내지 제4 코일이 배치된 기판(3000)은 인쇄회로기판(4) 상에 결합될 수 있다. 인쇄회로기판(4)에 배치된 제1 패드 및 제2 패드는 제1 코일 및 제2 코일이 배치된 기판의 부분과 결합될 수 있다. 이때, 기판과 인쇄회로기판(4)은 제1 패드 및 제2 패드 부분을 솔더링(soldering)함으로써 결합될 수 있다. 제1 마그네트 내지 제4 마그네트는 각각 제1 코일 내지 제4 코일에 대응하여 배치될 수 있다. 제1 코일 및 제3 코일에는 제1 출력 신호(X)가 입력될 수 있다. 제2 코일 및 제4 코일에는 제2 출력 신호(Y)가 입력될 수 있다.
도 57a는 틸트부의 구동 시퀀스를 설명하기 위한 도면이고, 도 57b는 1 STEP에서 도 57a에 의한 구동부의 출력을 설명하기 위한 도면이고, 도 57c는 프레임 주기 당 도 57a에 의한 구동부의 출력을 설명하기 위한 도면이다.
도 57a는 트리거 신호에 따라 생성된 제1 출력 신호 및 제2 출력 신호를 도시한다. 제1 출력 신호는 제1 코일 및 제3 코일에 입력되고, 제2 출력 신호는 제2 코일 및 제4 코일에 입력될 수 있다.
도 57a에 도시된 것처럼, 트리거 신호는 일정한 주기로 펄스가 발생하는 구형파 신호일 수 있다. 트리거 신호는 상술한 센서의 구동(노출 주기)센서의 구동에 대응하여 발생할 수 있다. 그리고 트리거 신호의 펄스 간격, 즉 펄스 주기는 1개의 프레임 간격일 수 있다. 또한, 트리거 신호에서 펄스의 상승 에지에서 다음 펄스의 상승 에지까지의 간격이 1개의 프레임 간격일 수 있다. 트리거 신호의 펄스폭은 1개의 프레임 간격보다 작게 설정될 수 있다.
틸트 엑츄에이터의 구동 시퀀스가 시작되기 전, 즉 디폴트(default) 상태에서 제1 출력 신호 및 제2 출력 신호의 전류 레벨은 0 레벨일 수 있다. 여기서 0 레벨(0 Level)은 0 [A]의 전류를 의미할 수 있으나 이에 한정되지 않는다.
틸트 엑츄에이터의 구동 시퀀스가 시작되면, 제1 출력 신호 및 제2 출력 신호는 트리거 신호의 펄스의 하강 에지를 기준으로 설정된 딜레이 시간(Delay T)이 지난 후 전류 레벨이 제어된다. 제1 출력 신호 및 제2 출력 신호의 전류 레벨은 하나의 프레임 간격마다 제어될 수 있다. 제1 출력 신호 및 제2 출력 신호는 하나의 프레임 간격마다 하이 레벨의 전류 또는 로우 레벨의 전류를 가지도록 제어될 수 있다. 하이 레벨의 전류은 기준 레벨의 전류보다 큰 전류 값을 가진 상태를 의미할 수 있으며, 로우 레벨의 전류은 기준 레벨의 전류보다 낮은 전류 값을 가진 상태를 의미할 수 있다. 예를 들어, 기준 레벨을 0[A]로 설정한 경우, 하이 레벨은 (+)값을 가지는 전류를 의미할 수 있고, 로우 레벨은 (-)값을 가지는 전류를 의미할 수 있다. 즉, 기준 레벨은 전류 비인가일 수 있다. 연속되는 스텝에서 출력 신호의 전류 레벨이 다를 경우, 전류 레벨을 상승 또는 하강시키기 위한 소정의 시간이 소요될 수 있다.
아래의 표 1은 도 57a에 도시된 제1 출력 신호 및 제2 출력 신호를 나타낸 표이다.
STEP 제1 출력 신호(X) 제2 출력 신호(Y)
1 (-) (+)
2 (+) (+)
3 (+) (-)
4 (-) (-)
표 1에서 (-)는 로우 레벨의 전류를 의미하고, (+)는 하이 레벨의 전류를 의미한다. 로우 레벨의 전류와 하이 레벨의 전류는 동일한 크기 및 서로 다른 방향의 전류를 의미할 수 있다. 그리고 STEP 1은 제1 틸트 시퀀스, STEP 2는 제2 틸트 시퀀스, STEP 3은 제3 틸트 시퀀스, STEP 4는 제4 틸트 시퀀스를 의미한다. 틸트 엑츄에이터(TA)의 구동 시퀀스가 시작되면, 첫번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 1). 제1 출력 신호는 기준 레벨의 전류에서 로우 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 기준 레벨의 전류에서 하이 레벨의 전류로 제어될 수 있다. 즉, STEP 1은 제1 출력 신호가 로우 레벨의 전류를 가지고 제2 출력 신호가 하이 레벨의 전류를 가지도록 제어될 수 있다.
제1 출력 신호 및 제2 출력 신호는 제1 신호(sg1)와 제2 신호(sg2)를 포함할 수 있다.
먼저, 제1 출력 신호를 기준으로, 제2 신호(sg2)는 제1 신호(sg1)에 연속하여 존재할 수 있다. 그리고 제1 신호(sg1)는 제1 크기(A1 또는 A1')를 가질 수 있다. 또한, 제2 신호(sg2)는 제2 크기(A2 또는 A2')를 가질 수 있다. 여기서, 제2 신호(sg2)는 상술한 하이 레벨 또는 로우 레벨의 전류에 대응할 수 있다. 그리고 하이 레벨 또는 로우 레벨의 전류는 필터를 틸트하기 위해 설정된 값일 수 있다. 이는 센서의 크기, 센서 내의 픽셀의 크기, 렌즈 모듈의 종류 등에 따라 필터의 틸트 정도가 변경되므로, 하이 레벨 또는 로우 레벨의 전류도 이에 따라 변경될 수 있음을 이해해야 한다.
또한, 제1 신호(sg1)의 제1 크기(A1 또는 A1')는 기준 레벨(예, 0 Level)과 제2 신호(sg2)의 제2 크기(A2 또는 A2') 사이의 값일 수 있다. 이에, 제2 신호(sg2)의 제2 크기(A2 또는 A2')는 제1 신호(sg1)의 제1 크기(A1 또는 A1')보다 클 수 있다. 제1 신호(sg1)의 제1 크기(A1 또는 A1')는 제2 신호(sg2)의 제2 크기(A2 또는 A2')의 0.3배 내지 0.7배일 수 있다. 예를 들면 제1 신호(sg1)의 제1 크기(A1 또는 A1')는 제2 신호(sg2)의 제2 크기(A2 또는 A2')의 0.5배로 설정할 수 있다.
또한, 제1 신호(sg1)는 제1 주기(TA)동안 유지될 수 있다. 제1 주기는 틸트 엑츄에이터의 고유 진동주기의 0.6배 내지 0.9배일 수 있다. 상기 제1 주기가 틸트 엑츄에이터의 고유진동주기의 0.6배보다 작은 경우에는 제2 신호에 의한 진동 제거가 용이하게 수행되지 않을 수 있다. 또한, 상기 제1 주기가 틸트 엑츄에이터의 고유진동주기의 0.9배보다 큰 경우에는 응답 시간의 감소에 한계가 존재한다. 고유 진동주기는 고유 진동수의 역수이며, 이 때 고유 진동수는 감쇠가 고려된 실제 틸트 엑츄에이터의 고유 진동수 또는 스프링-댐퍼 시스템의 감쇠 고유 진동수 일 수 있다.
이와 같이, 제1 출력 신호와 제2 출력 신호는 제2 신호(sg2) 이전에 연속되는 제1 신호(sg1)를 가짐으로써 임계 응답보다 개선된 응답 시간(time response)를 제공할 수 있다. 즉, 다른 실시예에 따른 틸트 엑츄에이터는 탄성부재를 포함한다. 그리고 틸트 엑츄에이터는 틸트라는 기계적 구동을 가지므로, 최종적으로 기계적 구동과 탄성이 결합된 진동계의 운동이 수행되는 시스템일 수 있다. 그리고 출력 신호는 상기 운동을 위해 인가되는 입력이고, 상술한 제1 내지 제4 구동부의 위치가 입력에 따라 발생하는 변위로서 출력일 수 있다.
그리고 틸트 엑츄에이터는 출력 신호에 대응하여 응답 시간이 상승 시간(rising time), 오버슈트(overshoot), 정정시간(setting time)을 가질 수 있다. 다른 실시예에 따른 틸트 엑츄에이터는 출력 신호가 제1 신호(sg1)와 제2 신호(sg2)를 가짐으로써 오버슈트, 정정시간을 감소하여, 틸트에 의한 프레임 영상 생성을 용이하게 수행하게 한다.
실시예에 따르면 틸트 엑츄에이터의 제1 신호(sg1)와 제2 신호(sg2)는 응답 시간을 임계 감쇠에 따른 응답에 대응하는 출력을 제공할 수 있다. 다시 말해, 틸트 엑츄에이터의 제1 신호(sg1)와 제2 신호(sg2)는 임계 감쇠에 대응하는 제1 내지 제4 구동부의 이동을 제공할 수 있다. 이러한 구성에 의하여, 본 다른 실시예에 따른 틸트 엑츄에이터는 필터의 틸트를 정확하고 신속하게 수행할 수 있다.
또한, 제1 신호는 다른 출력 신호의 제2 신호가 유지되거나 오프(비인가)된 경우에 출력될 수 있다. 예컨대, 제2 출력 신호의 제1 신호는 제1 출력 신호의 제2 신호가 하이 또는 로우 레벨로 유지되거나, 기준 레벨로 변경된 경우에 출력될 수 있다.
도 57b의 (a)는 출력 신호가 제2 신호로만 이루어진 경우 구동부의 이동을 1개의 프레임 주기 동안 도시한 그래프이고, 도 57b의 (b)는 다른 실시예에 따른 출력 신호의 경우 구동부의 이동을 1개의 프레임 주기 동안 도시한 그래프이다. 구동부의 이동은 홀 센서 또는 위치 센서에 의해 감지되면 본 그래프에서 전압(V)으로 도시하였다.
도 57b의 (a) 및 (b)를 참조하면, 상술한 바와 같이 출력 신호가 제2 신호(sg2)로만 이루어진 경우보다 제1 신호(sg1) 및 제2 신호(sg2)를 포함한 경우 오버슈트가 적고, 진동(oscillation)의 크기가 적음을 알 수 있다. 또한, 출력 신호가 제2 신호(sg2)로만 이루어진 경우보다 제1 신호(sg1) 및 제2 신호(sg2)를 포함한 경우 정정시간도 감소함을 알 수 있다. 이에 따라, 다른 실시예에 따른 틸트 엑츄에이터는 필터의 틸트를 원하는 각도로 신속하게 수행하고, 틸트에 의한 진동 발생을 감소하여 후술하는 SR 기법에 의한 영상의 해상도를 향상시킬 수 있다.
도 57c의 (a)는 출력 신호가 제2 신호로만 이루어진 경우 구동부의 이동을 복수 개의 프레임 주기 동안 도시한 그래프이고, 도 57b의 (b)는 다른 실시예에 따른 출력 신호의 경우 구동부의 이동을 복수 개의 프레임 주기 동안 도시한 그래프이다.
도 57c의 (a) 및 (b)를 참조하면, 출력 신호가 제2 신호(sg2)로만 이루어진 경우보다 제1 신호(sg1) 및 제2 신호(sg2)를 포함한 경우 복수 개의 프레임 주기 동안에도 오버슈트가 적고, 진동(oscillation)의 크기가 적음을 알 수 있다. 뿐만 아니라, 상술한 바와 같이 정정시간이 감소함을 알 수 있다.
나아가, 두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 2). 제1 출력 신호는 STEP 1에서 제어된 로우 레벨의 전류에서 하이 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 STEP 1에서 제어된 하이 레벨의 전류를 유지하도록 제어될 수 있다. 즉, STEP 2는 제1 출력 신호가 하이 레벨의 전류를 가지고 제2 출력 신호가 하이 레벨의 전류를 가지도록 제어될 수 있다.
상술한 바와 마찬가지로 제1 출력 신호는 두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 하이 레벨인 제2 신호를 가질 수 있다.
세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 3). 제1 출력 신호는 STEP 2에서 제어된 하이 레벨의 전류를 유지하도록 제어될 수 있다. 제2 출력 신호는 STEP 2에서 제어된 하이 레벨의 전류에서 로우 레벨의 전류로 제어될 수 있다. 즉, STEP 3은 제1 출력 신호가 하이 레벨의 전류를 가지고 제2 출력 신호가 로우 레벨의 전류를 가지도록 제어될 수 있다.
그리고 제2 출력 신호는 세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 4). 제1 출력 신호는 STEP 3에서 제어된 하이 레벨의 전류에서 로우 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 STEP 3에서 제어된 로우 레벨의 전류를 유지하도록 제어될 수 있다. 즉, STEP 4는 제1 출력 신호가 로우 레벨의 전류를 가지고 제2 출력 신호가 로우 레벨의 전류를 가지도록 제어될 수 있다.
제1 출력 신호는 네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
STEP 1 내지 STEP 4는 하나의 사이클로 동작하며, 틸트 엑츄에이터(TA) 구동 시퀀스가 동작하는 동안 계속 반복될 수 있다.
또한, STEP1과 STEP2에서 제2 출력 신호가 제1 신호 이후에 제2 신호(하이 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제2,4 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
또한, STEP2와 STEP3에서 제1 출력 신호가 제1 신호 이후에 제2 신호(하이 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제1,3 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
또한, STEP3와 STEP4에서 제2 출력 신호가 제1 신호 이후에 제2 신호(로우 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제2,4 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
아래의 표 2는 틸트 엑츄에이터(TA)의 구동 시퀀스의 변형예를 나타낸다.
STEP 제1 출력 신호(X) 제2 출력 신호(Y)
1 (+) (+)
2 (+) (-)
3 (-) (-)
4 (-) (+)
표 2에 나타난 바와 같이, 표 1 및 도 57a를 통해 설명한 제1 출력 신호 및 제2 출력 신호의 STEP별 전류 레벨은 일 실시예이며 변형예와 같이 다른 조합으로 설정될 수 있다. 이를 위해 제1 출력 신호 및 제2 출력 신호의 STEP 별 전류 레벨은 틸트 컨트롤러(TC)의 제어 신호에 의해 설정될 수 있다. 틸트 엑츄에이터와 관련하여 상기 표 1을 통해 설명한 내용이 동일하게 적용될 수 있다.다만, STEP1과 STEP2에서 제1 출력 신호가 제1 신호 이후에 제2 신호(하이 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제1,3 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
또한, STEP2와 STEP3에서 제2 출력 신호가 제1 신호 이후에 제2 신호(로우 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제2,4 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
또한, STEP3와 STEP4에서 제1 출력 신호가 제1 신호 이후에 제2 신호(로우 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제1,3 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
도 58은 제1 다른 실시예에 따른 광경로 이동 과정을 나타낸다. 도 59은 제1 다른 실시예에 따른 카메라 모듈에서 슈퍼레졸루션(Super Resolution, SR) 기법을 위해 획득하는 복수의 영상을 개념적으로 순차적으로 도시한 개념도이다. 도 60은 제1 다른 실시예에 따른 카메라 모듈에서 SR 기법을 위해 획득하는 제1 내지 제4프레임의 영상을 순차적으로 도시한 도면이다.
우선, 틸트 엑츄에이터의 구동 시퀀스가 시작되기 전인 STEP 0(중립 시퀀스)에서, 필터는 틸팅되지 않은 상태로 유지될 수 있다. 도 59의 (a)는 STEP 0에서 입력광의 광경로를 나타낸다. 도 59에서 점은 입력광을 기준으로 픽셀의 중심을 나타낸 것이다. STEP 0에서는 입력광을 기준으로 하는 픽셀의 중심과 센서를 기준으로 하는 픽셀의 중심이 서로 일치할 수 있다. 즉, 필터를 통과하는 빛의 광경로가 변하지 않음을 의미한다.
틸트 엑츄에이터의 구동 시퀀스가 시작되면, 틸트 엑츄에이터는 STEP 1에 따라 필터를 틸팅할 수 있다. STEP 1에 따른 틸팅으로 인해, 필터는 기준면을 중심으로 좌측 상단 부분이 상승하고 우측 하단 부분이 하강할 수 있다. 기준면이란 STEP 0에서 필터가 배치된 면을 의미할 수 있다. 상승이란 센서로부터 멀어지는 것을 의미하고 하강이란 센서로 가까워지는 것을 의미할 수 있다. 도 59의 (b)는 STEP 1에서 입력광의 광경로를 나타낸다. STEP 1에 따라 필터가 틸팅되면, 입력광의 광경로는 기준 광경로에서 좌측으로 0.25 픽셀, 상측으로 0.25 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 1에 따라 이동된 광경로에서 제1 프레임 영상을 획득할 수 있다.
STEP 1에 따른 틸트 엑츄에이터의 구동 시퀀스 후, 틸트 엑츄에이터는 STEP 2에 따라 필터를 틸팅할 수 있다. STEP 2에 따른 틸팅으로 인해, 필터는 기준면을 중심으로 우측 상단 부분이 상승하고 좌측 하단 부분이 하강할 수 있다. STEP 1에서 상승 또는 하강한 필터의 좌측 상단 부분 및 우측 하단 부분의 모서리는 기준 위치로 이동할 수 있다. 도 59의 (c)는 STEP 2에서 입력광의 광경로를 나타낸다. STEP 2에 따라 필터가 틸팅되면, 입력광의 광경로는 기준 광경로에서 우측으로 0.25 픽셀, 상측으로 0.25 픽셀 이동할 수 있다. STEP 1에서 입력광의 광경로를 기준으로 보면, 입력광의 광경로는 우측으로 0.5 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 2에 따라 이동된 광경로에서 제2 프레임 영상을 획득할 수 있다.
STEP 2에 따른 틸트 엑츄에이터의 구동 시퀀스 후, 틸트 엑츄에이터는 STEP 3에 따라 필터를 틸팅할 수 있다. STEP 3에 따른 틸팅으로 인해, 필터는 기준면을 중심으로 좌측 상단 부분이 하강하고 우측 하단 부분이 상승할 수 있다. STEP 2에서 상승 또는 하강한 필터의 우측 상단 부분 및 좌측 하단 부분의 모서리는 기준 위치로 이동할 수 있다. 도 59의 (d)는 STEP 3에서 입력광의 광경로를 나타낸다. STEP 3에 따라 필터가 틸팅되면, 입력광의 광경로는 기준 광경로에서 우측으로 0.25 픽셀, 하측으로 0.25 픽셀 이동할 수 있다. STEP 2에서 입력광의 광경로를 기준으로 보면, 입력광의 광경로는 하측으로 0.5 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 3에 따라 이동된 광경로에서 제3 프레임 영상을 획득할 수 있다.
STEP 3에 따른 틸트 엑츄에이터의 구동 시퀀스 후, 틸트 엑츄에이터는 STEP 4에 따라 필터를 틸팅할 수 있다. STEP 4에 따른 틸팅으로 인해, 필터는 기준면을 중심으로 우측 상단 부분이 상승하고 좌측 하단 부분이 하강할 수 있다. STEP 3에서 상승 또는 하강한 필터의 좌측 상단 부분 및 우측 하단 부분의 모서리는 기준 위치로 이동할 수 있다. 도 59의 (e)는 STEP 4에서 입력광의 광경로를 나타낸다. STEP 4에 따라 필터가 틸팅되면, 입력광의 광경로는 기준 광경로에서 좌측으로 0.25 픽셀, 하측으로 0.25 픽셀 이동할 수 있다. STEP 2에서 입력광의 광경로를 기준으로 보면, 입력광의 광경로는 좌측으로 0.5 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 4에 따라 이동된 광경로에서 제4 프레임 영상을 획득할 수 있다.
틸트 엑츄에이터에 대해 마그넷과 코일이 적용된 VCM구조로 설명 하였으나, 본 발명은 이에 한정되지 않고 하나 또는 둘(상호 계면을 형성하는 전도성 액체 및 비전도성 액체) 이상의 액체의 제어를 통해 광 경로를 제어할 수 있는 액체 렌즈, 박막과 액체를 제어하여 광 경로를 제어하는 광학부재 등의 가변 렌즈를 통해서도 본 발명을 구현 할 수 있다.
또한, 제1 출력 신호와 제2 출력 신호는 개별적으로 구동하는 틸트 드라이버에 의해 발생할 수 있다. 예컨대, 틸트 드라이버는 복수 개의 드라이버로 이루어질 수 있다. 틸트 드라이버는 제1 틸트 드라이버 및 제2 틸트 드라이버를 포함하고, 제1 틸트 드라이버는 제1 출력 신호를 생성하여 틸트 엑츄에이터로 송신하며, 제2 틸트 드라이버는 제2 출력 신호를 생성하여 틸트 엑츄에이터로 송신할 수 있다. 이에, 제1 틸트 드라이버와 제2 틸트 드라이버는 서로 개별적으로 출력 신호를 생성하여 제1 출력 신호 또는 제2 출력 신호 적어도 하나를 생성하지 않는 경우(예컨대, 0 level)에 틸트 드라이버의 전력 소모를 감소할 수 있다. 이는 다른 실시예에도 동일하게 적용될 수 있다.
도 61는 SR 영상을 설명하기 위한 도면이다.
도 61는 STEP 1 내지 STEP 4를 통해 생성된 제1 내지 제4 프레임 영상을 이용하여 1개의 고해상 SR 영상을 생성하는 과정을 설명한다. 도 61에서는 설명의 편의상 제1 내지 제4 프레임 영상 각각이 4X4 크기의 프레임 영상, 즉 16 픽셀로 이루어진 영상임을 가정하여 도시한다.
도 61에 나타난 것처럼, 광경로의 이동 방향에 대응하여 4개의 프레임 영상의 픽셀값이 배치되어 하나의 SR 영상이 생성될 수 있다. 즉, 4X4(16픽셀) 크기의 제1 내지 제4 프레임 영상은 8X8(64픽셀) 크기의 하나의 SR 영상이 될 수 있다.
제1 내지 제4 프레임의 좌측 상단의 픽셀을 1번 픽셀, 우측 하단의 픽셀을 16번 픽셀이라고 가정하고, SR 영상의 좌측 상단의 픽셀을 1번 픽셀, 우측 하단의 픽셀을 64번 픽셀이라고 가정하여 픽셀값이 배치되는 과정을 설명하도록 한다.
기준 광경로에서 좌측으로 0.25픽셀 및 상측으로 0.25 픽셀 이동한 제1 프레임 영상의 1번 픽셀은 SR영상의 1번 픽셀의 값으로 배치될 수 있다. 제1 프레임 영상의 2번 픽셀은 SR영상의 3번 픽셀의 값으로 배치될 수 있다. 제1 프레임 영상의 3번 픽셀은 SR 영상의 5번 픽셀의 값으로 배치될 수 있다. 제1 프레임 영상의 4번 픽셀은 SR 영상의 7번 픽셀의 값으로 배치될 수 있다.
기준 광경로에서 우측으로 0.25픽셀 및 상측으로 0.25 픽셀 이동한 제2 프레임 영상의 1번 픽셀은 SR영상의 2번 픽셀의 값으로 배치될 수 있다. 제2 프레임 영상의 2번 픽셀은 SR영상의 4번 픽셀의 값으로 배치될 수 있다. 제2 프레임 영상의 3번 픽셀은 SR 영상의 6번 픽셀의 값으로 배치될 수 있다. 제2 프레임 영상의 4번 픽셀은 SR 영상의 8번 픽셀의 값으로 배치될 수 있다.
기준 광경로에서 우측으로 0.25픽셀 및 하측으로 0.25 픽셀 이동한 제3 프레임 영상의 1번 픽셀은 SR영상의 9번 픽셀의 값으로 배치될 수 있다. 제3 프레임 영상의 2번 픽셀은 SR영상의 11번 픽셀의 값으로 배치될 수 있다. 제3 프레임 영상의 3번 픽셀은 SR 영상의 13번 픽셀의 값으로 배치될 수 있다. 제3 프레임 영상의 4번 픽셀은 SR 영상의 15번 픽셀의 값으로 배치될 수 있다.
기준 광경로에서 좌측으로 0.25픽셀 및 하측으로 0.25 픽셀 이동한 제4 프레임 영상의 1번 픽셀은 SR영상의 10번 픽셀의 값으로 배치될 수 있다. 제4 프레임 영상의 2번 픽셀은 SR영상의 12번 픽셀의 값으로 배치될 수 있다. 제4 프레임 영상의 3번 픽셀은 SR 영상의 14번 픽셀의 값으로 배치될 수 있다. 제4 프레임 영상의 4번 픽셀은 SR 영상의 16번 픽셀의 값으로 배치될 수 있다.
위와 같이 제1 내지 제4 프레임 영상의 픽셀값이 배치되어 하나의 SR 영상이 생성될 수 있다. 즉, 4개의 영상을 통해 1개의 영상을 획득하게 된다. 따라서, 100FPS의 영상의 경우 25FPS의 SR영상이 될 수 있다.
한편, 이미지 합성부는 SR 영상의 최외곽 픽셀, 즉 도 61에서 음영이 표시된 픽셀값을 제거하여 SR영상을 보정할 수 있다. SR 영상의 최외곽에 배치된 픽셀값들은 틸팅 과정에서 촬영하고자 하는 정보와 무관한 데이터가 포함될 수 있다. 이미지 합성부는 촬영하고자 하는 정보와 무관한 데이터를 제거하기 위하여 최외곽 픽셀의 음영을 제거할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
도 62는 제2 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이다.
도 62을 참조하면, 도 62은 트리거 신호에 따라 생성된 제1 출력 신호 및 제2 출력 신호를 도시한다. 상술한 바와 같이 제1 출력 신호는 제1 코일 및 제3 코일에 입력되고, 제2 출력 신호는 제2 코일 및 제4 코일에 입력될 수 있다.
도 62에 도시된 것처럼, 트리거 신호는 일정한 주기로 펄스가 발생하는 구형파 신호일 수 있다. 트리거 신호는 상술한 센서의 구동(노출 주기)센서의 구동에 대응하여 발생할 수 있다. 그리고 트리거 신호의 펄스 간격, 즉 펄스 주기는 1개의 프레임 간격일 수 있다. 또한, 트리거 신호에서 펄스의 상승 에지에서 다음 펄스의 상승 에지까지의 간격이 1개의 프레임 간격일 수 있다. 트리거 신호의 펄스폭은 1개의 프레임 간격보다 작게 설정될 수 있다.
틸트 엑츄에이터의 구동 시퀀스가 시작되기 전, 즉 디폴트(default) 상태에서 제1 출력 신호 및 제2 출력 신호의 전류 레벨은 0 레벨일 수 있다. 여기서 0 레벨(0 Level)은 전류가 인가되지 않는 것일 수 있다. 예컨대, 0 레벨(0 Level)은 0 [A]의 전류를 의미할 수 있으나 이에 한정되지 않는다. 이에 대한 설명은 상술한 내용이 동일하게 적용될 수 있다.
또한, 상술한 바와 같이 틸트 엑츄에이터의 구동 시퀀스가 시작되면, 제1 출력 신호 및 제2 출력 신호는 트리거 신호의 펄스의 하강 에지를 기준으로 설정된 딜레이 시간(Delay T)이 지난 후 전류 레벨이 제어된다. 제1 출력 신호 및 제2 출력 신호의 전류 레벨은 하나의 프레임 간격마다 제어될 수 있다. 제1 출력 신호 및 제2 출력 신호는 하나의 프레임 간격마다 하이 레벨의 전류 또는 로우 레벨의 전류를 가지도록 제어될 수 있다. 하이 레벨의 전류은 기준 레벨의 전류보다 큰 전류 값을 가진 상태를 의미할 수 있으며, 로우 레벨의 전류은 기준 레벨의 전류보다 낮은 전류 값을 가진 상태를 의미할 수 있다. 예를 들어, 기준 레벨을 0[A]로 설정한 경우, 하이 레벨은 (+)값을 가지는 전류를 의미할 수 있고, 로우 레벨은 (-)값을 가지는 전류를 의미할 수 있다. 연속된 스텝에서 출력 신호의 전류 레벨이 다를 경우, 전류 레벨을 상승 또는 하강시키기 위한 소정의 시간이 소요될 수 있다.
아래의 표 3은 도 62에 도시된 제1 출력 신호 및 제2 출력 신호를 나타낸 표이다.
STEP 제1 출력 신호(X) 제2 출력 신호(Y)
1 (+) 0 Level
2 0 Level (+)
3 (-) 0 Level
4 0 Level (-)
표 3에서 (-)는 로우 레벨의 전류를 의미하고, (+)는 하이 레벨의 전류를 의미한다. 0 Level은 기준 레벨일 수 있다. 그리고 로우 레벨의 전류와 하이 레벨의 전류는 동일한 크기 및 서로 다른 방향의 전류를 의미할 수 있다. 그리고 STEP 1은 제1 틸트 시퀀스, STEP 2는 제2 틸트 시퀀스, STEP 3은 제3 틸트 시퀀스, STEP 4는 제4 틸트 시퀀스를 의미한다. 틸트 엑츄에이터의 구동 시퀀스가 시작되면, 첫번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 1). 제1 출력 신호는 기준 레벨의 전류에서 하이 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 기준 레벨로 제어될 수 있다. 즉, STEP 1은 제1 출력 신호가 하이 레벨의 전류를 가지고 제2 출력 신호가 기준 레벨의 전류를 가지도록 제어될 수 있다.
두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 2). 제1 출력 신호는 STEP 1에서 제어된 하이 레벨의 전류에서 기준 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 STEP 1에서 제어된 기준 레벨의 전류에서 하이 레벨의 전류로 제어될 수 있다. 즉, STEP 2는 제1 출력 신호가 기준 레벨의 전류를 가지고 제2 출력 신호가 하이 레벨의 전류를 가지도록 제어될 수 있다.
상술한 바와 마찬가지로 제2 출력 신호는 두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 하이 레벨인 제2 신호를 가질 수 있다.
즉, 제1 출력 신호 및 제2 출력 신호는 제1 신호(sg1)와 제2 신호(sg2)를 포함할 수 있다.
제1 출력 신호를 기준으로, 제2 신호(sg2)는 제1 신호(sg1)에 연속하여 존재할 수 있다. 그리고 제1 신호(sg1)는 제1 크기를 가질 수 있다. 또한, 제2 신호(sg2)는 제2 크기를 가질 수 있다. 여기서, 제2 신호(sg2)는 상술한 하이 레벨 또는 로우 레벨의 전류에 대응할 수 있다. 그리고 하이 레벨 또는 로우 레벨의 전류는 필터를 틸트하기 위해 설정된 값일 수 있다. 이는 센서의 크기, 센서 내의 픽셀의 크기, 렌즈 모듈의 종류 등에 따라 필터의 틸트 정도가 변경되므로, 하이 레벨 또는 로우 레벨의 전류도 이에 따라 변경될 수 있음을 이해해야 한다.
또한, 제1 신호(sg1)의 제1 크기는 기준 레벨(예, 0 Level)과 제2 신호(sg2)의 제2 크기 사이의 값일 수 있다. 제2 신호(sg2)의 제2 크기는 제1 신호(sg1)의 제1 크기보다 클 수 있다
또한, 제1 신호(sg1)는 제1 주기(TA)동안 유지될 수 있다. 제1 주기는 틸트 엑츄에이터의 고유 진동주기의 0.6배 내지 0.9배일 수 있다. 상기 제1 주기가 틸트 엑츄에이터의 고유진동주기의 0.6배보다 작은 경우에는 제2 신호에 의한 진동 제거가 용이하게 수행되지 않을 수 있다. 또한, 상기 제1 주기가 틸트 엑츄에이터의 고유진동주기의 0.9배보다 큰 경우에는 응답 시간의 감소에 한계가 존재한다.
이러한 구성에 의하여, 제1 출력 신호와 제2 출력 신호는 제2 신호(sg2) 이전에 연속되는 제1 신호(sg1)를 가짐으로써 임계 응답보다 개선된 응답 시간(time response)를 제공할 수 있다. 또한, 다른 실시예에 따른 틸트 엑츄에이터는 출력 신호가 제1 신호(sg1)와 제2 신호(sg2)를 가짐으로써 오버슈트, 정정시간을 감소하여, 틸트에 의한 프레임 영상 생성을 용이하게 수행하게 한다.
세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 3). 제1 출력 신호는 STEP 2에서 제어된 기준 레벨의 전류에서 로우 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 STEP 2에서 제어된 하이 레벨의 전류에서 기준 레벨의 전류로 제어될 수 있다. 즉, STEP 3은 제1 출력 신호가 로우 레벨의 전류를 가지고 제2 출력 신호가 기준 레벨의 전류를 가지도록 제어될 수 있다.
그리고 제1 출력 신호는 세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 출력 신호 및 제2 출력 신호의 전류 레벨이 제어될 수 있다(STEP 4). 제1 출력 신호는 STEP 3에서 제어된 로우 레벨의 전류에서 기준 레벨의 전류로 제어될 수 있다. 제2 출력 신호는 STEP 3에서 제어된 기준 레벨의 전류에서 로우 레벨의 전류로 제어될 수 있다. 즉, STEP 4는 제1 출력 신호가 기준 레벨의 전류를 가지고 제2 출력 신호가 로우 레벨의 전류를 가지도록 제어될 수 있다.
제2 출력 신호는 네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
또한, STEP 1 내지 STEP 4는 하나의 사이클로 동작하며, 틸트 엑츄에이터 구동 시퀀스가 동작하는 동안 계속 반복될 수 있다.
본 실시예에서, 제1 출력 신호는 제1 트리거 신호에 대응하는 제1-1 출력 신호 및 제3 트리거 신호에 대응하는 제1-2 출력 신호를 가질 수 있다. 즉, 제1-1 출력 신호는 STEP1에서 제1 출력 신호이고, 제1-2 출력 신호는 STEP3에서 제1 출력 신호이다.
또한, 제2 출력 신호는 제2 트리거 신호에 대응하는 제2-1 출력 신호 및 제4 트리거 신호에 대응하는 제2-2 출력 신호를 가질 수 있다. 즉, 제2-1 출력 신호는 STEP2에서 제2 출력 신호이고, 제2-2 출력 신호는 STEP4에서 제1 출력 신호이다.
제1-1 출력 신호는 제1-2 출력 신호와 서로 방향이 반대일 수 있다. 또한, 제2-1 출력 신호는 제2-2 출력 신호와 서로 방향이 반대일 수 있다. 또한, 제2-1 출력 신호는 제1-1 출력 신호와 제1-2 출력 신호 사이에 인가되고, 제1-2 출력 신호는 제2-1 출력 신호와 제2-2 출력 신호 사이에 인가될 수 있다.
이와 같이, 제1-1 출력 신호와 제1-2 출력 신호 사이에는 기준 레벨의 전류가 유지되는 구간(제2-1 출력 신호가 인가되는 구간)이 존재한다. 또한, 제2-1 출력 신호와 제2-2 출력 신호 사이에는 기준 레벨의 전류가 유지되는 구간(제1-2 출력 신호가 인가되는 구간)이 존재한다.
이와 같이, 제1 출력 신호와 제2 출력 신호는 하이 또는 로우 레벨의 전류가 인가되기 전에 기준 전압으로 감소하여 제1 출력 신호 및 제2 출력 신호에 의한 코일에 잔류 전류가 다음 시퀀스에 영향을 주는 것을 최소화할 수 있다. 예컨대, 제1-1 출력 신호와 제1-2 출력 신호 사이에는 기준 레벨의 전류가 유지되는 구간에 의해, 제1-1 출력 신호에 의해 틸트 엑츄에이터에 잔존하는 전류가 감쇠하므로 제1-2 출력 신호에 의한 틸트 엑츄에이터의 구동 시점에서 초기 전류값이 0에 근접할 수 있다. 이러한 구성에 의하여, 틸트 엑츄에이터를 통한 필터의 틸트에 진동이 감소할 수 있다.
나아가, 상술한 바와 같이 틸트 드라이버가 복수 개인 경우, 제1-1 출력 신호와 제1-2 출력 신호 사이에는 기준 레벨의 전류가 유지되는 구간에서 틸트 드라이버의 구동이 중단되어 틸트 엑츄에이터의 전력 소모가 감소될 수 있다.
도 63은 제2 다른 실시예에 따른 틸트부의 구동으로 필터의 틸팅 제어를 설명하기 위한 도면이고, 도 64는 제2 다른 실시예에 따른 광경로 이동 과정을 나타낸 도면이고, 도 65은 제2 다른 실시예에 따른 카메라 모듈에서 슈퍼레졸루션(Super Resolution, SR) 기법을 위해 획득하는 복수의 영상을 개념적으로 순차적으로 도시한 개념도이다.
도 63 내지 도 65을 참조하면, 본 다른 실시예에 따른 카메라 모듈은 상술한 대각틸팅 이외에 수평 틸팅으로도 SR 기법을 위해 복수의 영상을 획득할 수 있다.
틸트 엑츄에이터의 구동 시퀀스가 시작되기 전인 STEP 0(중립 시퀀스)에서, 광학부재(또는 필터)는 틸팅되지 않은 상태로 유지될 수 있다. 도 65의 (a)는 STEP 0에서 입력광의 광경로를 나타낸다. 도 65에서 점은 입력광을 기준으로 픽셀의 중심을 나타낸 것이다. STEP 0에서는 입력광을 기준으로 하는 픽셀의 중심과 센서를 기준으로 하는 픽셀의 중심이 서로 일치할 수 있다. 즉, 광학부재(또는 필터)를 통과하는 빛의 광경로가 변하지 않음을 의미한다.
틸트 엑츄에이터의 구동 시퀀스가 시작되면, 틸트 엑츄에이터는 STEP 1에 따라 광학부재(또는 필터)를 수평 방향으로 틸팅할 수 있다. STEP 1에 따른 틸팅으로 인해, 광학부재(또는 필터)는 기준면을 중심으로 좌측 부분이 하강하고 우측 부분이 상승할 수 있다. 기준면이란 STEP 0에서 광학부재(또는 필터)가 배치된 면을 의미할 수 있다. 상승이란 센서로부터 멀어지는 것을 의미하고 하강이란 센서로 가까워지는 것을 의미할 수 있다. 도 65의 (b)는 STEP 1에서 입력광의 광경로를 나타낸다. STEP 1에 따라 광학부재(또는 필터)가 틸팅되면, 입력광의 광경로는 기준 광경로에서 우측으로 0.25 픽셀 이동할 수 있다. 픽셀의 이동은 SR 기법에 따라 또는 센서에 따라 변경될 수 있다. 즉, 틸트 엑츄에이터의 구동 시퀀스에 의해 기준 광경로 대비 픽셀의 이동 거리는 변경될 수 있음을 이해해야 한다.
먼저, STEP 1에 따라 이동된 광경로에서 제1 프레임 영상을 획득할 수 있다.
STEP 1에 따른 틸트 엑츄에이터의 구동 시퀀스 후, 틸트 엑츄에이터는 STEP 2에 따라 광학부재(또는 필터)를 틸팅할 수 있다. STEP 2에 따른 틸팅으로 인해, 광학부재(또는 필터)는 기준면을 중심으로 상단 부분이 상승하고 하단 부분이 하강할 수 있다.
도 65의 (c)는 STEP 2에서 입력광의 광경로를 나타낸다. STEP 2에 따라 광학부재(또는 필터)가 틸팅되면, 입력광의 광경로는 기준 광경로에서 상측으로 0.25 픽셀 이동할 수 있다. STEP 1에서 입력광의 광경로를 기준으로 보면, 입력광의 광경로는 상측으로 0.25 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 2에 따라 이동된 광경로에서 제2 프레임 영상을 획득할 수 있다.
STEP 2에 따른 틸트 엑츄에이터의 구동 시퀀스 후, 틸트 엑츄에이터는 STEP 3에 따라 광학부재(또는 필터)를 틸팅할 수 있다. STEP 3에 따른 틸팅으로 인해, 광학부재(또는 필터)는 기준면을 중심으로 좌측이 상승하고 우측이 하강할 수 있다. 도 65의 (d)는 STEP 3에서 입력광의 광경로를 나타낸다. STEP 3에 따라 광학부재(또는 필터)가 틸팅되면, 입력광의 광경로는 기준 광경로에서 좌측으로 0.25 픽셀 이동할 수 있다. STEP 2에서 입력광의 광경로를 기준으로 보면, 입력광의 광경로는 좌측으로 0.25 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 3에 따라 이동된 광경로에서 제3 프레임 영상을 획득할 수 있다.
STEP 3에 따른 틸트 엑츄에이터의 구동 시퀀스 후, 틸트 엑츄에이터는 STEP 4에 따라 광학부재(또는 필터)를 틸팅할 수 있다. STEP 4에 따른 틸팅으로 인해, 광학부재(또는 필터)는 기준면을 중심으로 하단 부분이 상승하고 상단 부분이 하강할 수 있다. 도 65의 (e)는 STEP 4에서 입력광의 광경로를 나타낸다. STEP 4에 따라 광학부재(또는 필터)가 틸팅되면, 입력광의 광경로는 기준 광경로에서 하측으로 0.25 픽셀 이동할 수 있다. STEP 2에서 입력광의 광경로를 기준으로 보면, 입력광의 광경로는 하측으로 0.25 픽셀 이동할 수 있다. 그러면, 본 발명의 다른 실시예에 따른 카메라 모듈은 STEP 4에 따라 이동된 광경로에서 제4 프레임 영상을 획득할 수 있다. 도 66는 다른 다른 실시예에 따른 틸트 엑츄에이터를 설명하기 위한 도면이다.
도 66의 (a)는 틸트 엑츄에이터의 제1 코일 내지 제4 코일이 기판(3000)에 배치된 형태를 나타낸다. 제1 코일 내지 제4 코일은 서로 일정 거리만큼 이격되어 기판(3000)에 배치될 수 있다. 기판(3000)은 제1 코일과 제2 코일 사이, 제2 코일과 제3 코일 사이, 제3 코일과 제4 코일 사이가 접힐 수 있는 형태로 구현될 수 있다. 그리고 제1 코일 내지 제4 코일은 개별적으로 전류(I1 내지 I4)가 인가될 수 있다.
또한, 도 66의 (b) 및 도 66의 (c)는 이하에 설명하는 내용을 제외하고 상기 도 56에서 설명한 내용이 동일하게 적용될 수 있다. 이하에서 제1 코일 및 제3 코일에는 X축 방향으로의 틸트를 제어하는 제3 출력 신호(X1) 및 제4 출력 신호(X2)가 각각 입력될 수 있다. 제2 코일 및 제4 코일에는 Y축 방향으로의 틸트를 제어하는 제5 출력 신호(Y1) 및 제6 출력 신호(Y2)가 입력될 수 있다. 이르 기준으로 이하 설명한다.
도 67는 제3 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이다.
도 67는 트리거 신호에 따라 생성된 제3 출력 신호 내지 제6 출력 신호를 도시한다. 제3 출력 신호 및 제4 출력 신호는 각각 제1 코일 및 제3 코일에 입력되고, 제5 출력 신호 및 제6 출력 신호는 각각 제2 코일 및 제4 코일에 입력될 수 있다.
상술한 바와 같이, 트리거 신호는 일정한 주기로 펄스가 발생하는 구형파 신호일 수 있다. 트리거 신호는 상술한 센서의 구동(노출 주기)센서의 구동에 대응하여 발생할 수 있다. 그리고 트리거 신호의 펄스 간격, 즉 펄스 주기는 1개의 프레임 간격일 수 있다. 또한, 트리거 신호에서 펄스의 상승 에지에서 다음 펄스의 상승 에지까지의 간격이 1개의 프레임 간격일 수 있다. 트리거 신호의 펄스폭은 1개의 프레임 간격보다 작게 설정될 수 있다.
또한, 틸트 엑츄에이터의 구동 시퀀스가 시작되기 전, 즉 디폴트(default) 상태에서 제3 출력 신호 내지 제6 출력 신호의 전류 레벨은 0 레벨일 수 있다. 여기서 0 레벨(0 Level)은 0 [A]의 전류를 의미할 수 있으나 이에 한정되지 않는다.
틸트 엑츄에이터의 구동 시퀀스가 시작되면, 제3 출력 신호 내지 제6 출력 신호는 트리거 신호의 펄스의 하강 에지를 기준으로 설정된 딜레이 시간(Delay T)이 지난 후 전류 레벨이 제어된다. 제3 출력 신호 내지 제6 출력 신호의 전류 레벨은 하나의 프레임 간격마다 제어될 수 있다. 제3 출력 신호 내지 제6 출력 신호는 하나의 프레임 간격마다 하이 레벨의 전류 또는 로우 레벨의 전류를 가지도록 제어될 수 있다. 하이 레벨의 전류은 기준 레벨의 전류보다 큰 전류 값을 가진 상태를 의미할 수 있으며, 로우 레벨의 전류은 기준 레벨의 전류보다 낮은 전류 값을 가진 상태를 의미할 수 있다. 예를 들어, 기준 레벨을 0[A]로 설정한 경우, 하이 레벨은 (+)값을 가지는 전류를 의미할 수 있고, 로우 레벨은 (-)값을 가지는 전류를 의미할 수 있다. 연속된 스텝에서 출력 신호의 전류 레벨이 다를 경우, 전류 레벨을 상승 또는 하강시키기 위한 소정의 시간이 소요될 수 있다.
아래의 표 4은 도 67에 도시된 제3 출력 신호 내지 제6 출력 신호를 나타낸 표이다.
STEP 제3 출력 신호(X1) 제4 출력 신호(X2) 제5 출력 신호(Y1) 제6 출력 신호(Y2)
1 (-) (+) (+) (-)
2 (+) (-) (+) (-)
3 (+) (-) (-) (+)
4 (-) (+) (-) (+)
표 4에서 (-)는 로우 레벨의 전류를 의미하고, (+)는 하이 레벨의 전류를 의미한다. 로우 레벨의 전류와 하이 레벨의 전류는 동일한 크기 및 서로 다른 방향의 전류를 의미할 수 있다. 그리고 STEP 1은 제1 틸트 시퀀스, STEP 2는 제2 틸트 시퀀스, STEP 3은 제3 틸트 시퀀스, STEP 4는 제4 틸트 시퀀스를 의미한다. 틸트 엑츄에이터의 구동 시퀀스가 시작되면, 첫번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호의 전류 레벨이 제어될 수 있다(STEP 1). 제3 출력 신호는 전류에서 로우 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 하이 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 하이 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 로우 레벨의 전류로 제어될 수 있다.
제3 출력 신호 내지 제6 출력 신호는 각각이 제1 신호(sg1)와 제2 신호(sg2)를 포함할 수 있다. 또한, 제3 출력 신호 내지 제6 출력 신호에서 제2 신호(sg2)는 제1 신호(sg1)에 연속하여 존재할 수 있다. 이러한 제1 신호와 제2 신호에 대한 설명은 동일하게 적용될 수 있다. 이로써, 다른 실시예에 따른 틸트 엑츄에이터는 출력 신호가 제1 신호(sg1)와 제2 신호(sg2)를 가짐으로써 오버슈트, 정정시간을 감소하여, 틸트에 의한 프레임 영상 생성을 용이하게 수행하게 한다.
두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호전류 레벨이 제어될 수 있다(STEP 2). 제3 출력 신호는 전류에서 하이 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 로우 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 하이 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 로우 레벨의 전류로 제어될 수 있다.
상술한 바와 마찬가지로 제3 출력 신호 및 제4 출력 신호는 두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 하이 레벨인 제2 신호를 가질 수 있다.
세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호의 전류 레벨이 제어될 수 있다(STEP 3). 제3 출력 신호는 전류에서 하이 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 로우 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 로우 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 하이 레벨의 전류로 제어될 수 있다.
그리고 제5 출력 신호 및 제6 출력 신호는 세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호의 전류 레벨이 제어될 수 있다(STEP 4). 제3 출력 신호는 전류에서 로우 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 하이 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 로우 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 하이 레벨의 전류로 제어될 수 있다.
제3 출력 신호 및 제4 출력 신호는 네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
STEP 1 내지 STEP 4는 하나의 사이클로 동작하며, 틸트 엑츄에이터 구동 시퀀스가 동작하는 동안 계속 반복될 수 있다.
또한, STEP1과 STEP2에서 제5 출력 신호 및 제6 출력 신호가 제1 신호 이후에 제2 신호(하이 레벨 또는 로우 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제2,4 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
또한, STEP2와 STEP3에서 제3 출력 신호 및 제4 출력 신호가 제1 신호 이후에 제2 신호(하이 레벨 또는 로우 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제1,3 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
또한, STEP3와 STEP4에서 제5 출력 신호 및 제6 출력 신호가 제1 신호 이후에 제2 신호(로우 레벨)로 유지되므로 출력 신호의 제어를 위한 전력 소모가 감소하고 구동부의 진동(제2,4 구동부)이 더욱 감소하여 필터의 틸트가 보다 정확하게 수행될 수 있다.
그리고 제3 다른 실시예에 따른 틸트부의 구동 시퀀스에 의하면, 상술한 제1 다른 실시예에 따른 틸트부 또는 카메라 모듈에서 설명한 광경로 이동 과정, SR 기법을 위해 획득하는 복수의 영상, 제1 내지 제4 프레임의 영상에 대한 내용이 동일하게 적용될 수 있다.
도 68은 제4 다른 실시예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이다.
도 67는 트리거 신호에 따라 생성된 제3 출력 신호 내지 제6 출력 신호를 도시한다. 제3 출력 신호 및 제4 출력 신호는 각각 제1 코일 및 제3 코일에 입력되고, 제5 출력 신호 및 제6 출력 신호는 각각 제2 코일 및 제4 코일에 입력될 수 있다.
아래의 표 5은 도 67에 도시된 제3 출력 신호 내지 제6 출력 신호를 나타낸 표이다.
STEP 제3 출력 신호(X1) 제4 출력 신호(X2) 제5 출력 신호(Y1) 제6 출력 신호(Y2)
1 (+) (-) 0 Level 0 Level
2 0 Level 0 Level (+) (-)
3 (-) (+) 0 Level 0 Level
4 0 Level 0 Level (-) (+)
표 5에서 (-)는 로우 레벨의 전류를 의미하고, (+)는 하이 레벨의 전류를 의미한다. 로우 레벨의 전류와 하이 레벨의 전류는 동일한 크기 및 서로 다른 방향의 전류를 의미할 수 있다. 그리고 STEP 1은 제1 틸트 시퀀스, STEP 2는 제2 틸트 시퀀스, STEP 3은 제3 틸트 시퀀스, STEP 4는 제4 틸트 시퀀스를 의미한다. 틸트 엑츄에이터의 구동 시퀀스가 시작되면, 첫번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호의 전류 레벨이 제어될 수 있다(STEP 1). 제3 출력 신호는 전류에서 하이 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 로우 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 기준 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 기준 레벨의 전류로 제어될 수 있다.
제3 출력 신호 내지 제4 출력 신호는 각각이 제1 신호(sg1)와 제2 신호(sg2)를 포함할 수 있다. 또한, 제3 출력 신호 내지 제4 출력 신호에서 제2 신호(sg2)는 제1 신호(sg1)에 연속하여 존재할 수 있다. 이러한 제1 신호와 제2 신호에 대한 설명은 동일하게 적용될 수 있다. 이로써, 다른 실시예에 따른 틸트 엑츄에이터는 출력 신호가 제1 신호(sg1)와 제2 신호(sg2)를 가짐으로써 오버슈트, 정정시간을 감소하여, 틸트에 의한 프레임 영상 생성을 용이하게 수행하게 한다.
두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호전류 레벨이 제어될 수 있다(STEP 2). 제3 출력 신호는 전류에서 기준 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 기준 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 하이 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 로우 레벨의 전류로 제어될 수 있다.
상술한 바와 마찬가지로 제5 출력 신호 및 제6 출력 신호는 두번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 하이 레벨인 제2 신호를 가질 수 있다.
세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호의 전류 레벨이 제어될 수 있다(STEP 3). 제3 출력 신호는 전류에서 로우 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 하이 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 기준 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 기준 레벨의 전류로 제어될 수 있다.
그리고 제3 출력 신호 및 제4 출력 신호는 세번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제3 출력 신호 내지 제6 출력 신호의 전류 레벨이 제어될 수 있다(STEP 4). 제3 출력 신호는 전류에서 기준 레벨의 전류로 제어될 수 있다. 제4 출력 신호는 기준 레벨의 전류로 제어될 수 있다. 제5 출력 신호는 로우 레벨의 전류로 제어될 수 있다. 제6 출력 신호는 하이 레벨의 전류로 제어될 수 있다.
제5 출력 신호 및 제6 출력 신호는 네번째 펄스의 하강 에지에서 설정된 딜레이 시간이 지난 후 제1 신호를 갖고, 제1 신호 이후에 로우 레벨인 제2 신호를 가질 수 있다.
STEP 1 내지 STEP 4는 하나의 사이클로 동작하며, 틸트 엑츄에이터 구동 시퀀스가 동작하는 동안 계속 반복될 수 있다.
그리고 제3 다른 실시예에 따른 틸트부의 구동 시퀀스에 의하면, 상술한 제1 다른 실시예에 따른 틸트부 또는 카메라 모듈에서 설명한 광경로 이동 과정, SR 기법을 위해 획득하는 복수의 영상, 제1 내지 제4 프레임의 영상에 대한 내용이 동일하게 적용될 수 있다. 또한, 이외의 내용은 상술한 내용이 동일하게 적용될 수 있다.
도 69은 변형예에 따른 틸트부의 구동 시퀀스를 설명하기 위한 도면이다.
도 69을 참조하면, 상술한 바와 같이 제1 출력 신호 및 제2 출력 신호는 제1 신호(sg1)와 제2 신호(sg2)를 포함할 수 있다. 변형예로, 제1 출력 신호 및 제2 출력 신호는 제2 신호(sg2)에 연속하는 제3 신호(sg3)를 더 포함할 수 있다. 이 때, 제3 신호(sg3)는 1개의 프레임 간격 내에서 제2 신호(sg2)에 연속할 수 있다.
변형예에 따른 틸트부에서 틸트 엑츄에이터는 원하는 각도로 필터를 틸트한 이후에 제3 신호(sg3)를 수신하므로 중립 시퀀스 상태로 돌아갈 수 있다. 이에 따라, 다음 STEP에서 틸트 엑츄에이터가 제1 신호(sg1) 및 제2 신호(sg2)를 수신하더라도 제1 신호(sg1) 인가 직전에 각 구동부의 코일에서 전류값이 0에 근접할 수 있다. 이러한 구성에 의하여, 코일에 잔존하는 전류가 제거되어 초기 전류에 의한 진동이 제거될 수 있다. 즉, 틸트 엑츄에이터 구동 시에 진동이 감소할 수 있다.
도 70는 실시예에 따른 카메라 모듈을 포함하는 광학기기를 도시한 도면이다.
도 70를 참조하면, 실시예에 따른 광학기기는 전면 케이스(fc), 후면 케이스(rc) 및 전면 케이스(fc)와 후면 케이스(rc)에 또는 그 사이에 구비되는 카메라 모듈(10)을 포함한다.
그리고 카메라 모듈(10)은 상술한 실시예 또는 다른 실시예의 카메라 모듈일 수 있다. 이에, 광학기기는 이러한 3차원 깊이 이미지를 출력하는 카메라 모듈(10)을 통해 입체영상을 촬영할 수 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 광원;
    상기 광원에서 출력되는 광을 면 형태 또는 복수의 점 형태로 변환하여 출력하는 광학부; 및
    이미지 센서;를 포함하고,
    상기 광원은 주기적으로 온(on)/오프(off)되고,
    상기 광학부는 상기 광원이 온(on)될 때 제1 위치에 위치하도록 이동하고,
    상기 광학부는 상기 광원이 오프(off)될 때 초기위치로 이동하는 카메라 모듈.
  2. 제1항에 있어서,
    상기 광학부는 광원이 온(on) 되기 소정의 시간 전에 초기위치에서 제1 위치를 향하여 이동하는 카메라 모듈.
  3. 제1항에 있어서,
    상기 광학부가 상기 초기위치에 위치할 때, 상기 광학부는 상기 광을 상기 면 형태와 상기 복수의 점 형태 중 어느 하나로 출력하고,
    상기 광학부가 제1 위치에 위치할 때, 상기 광학부는 상기 광을 상기 면 형태와 상기 복수의 점 형태 중 다른 하나로 출력하는 카메라 모듈.
  4. 제3항에 있어서,
    상기 광학부는 상기 초기위치와 상기 제1 위치 중 어느 하나의 위치에 있는 경우, 상기 광학부와 상기 광원 간의 거리는 상기 광학부의 후방초점거리와 같은 카메라 모듈.
  5. 제1항에 있어서,
    상기 제1 위치는 제1-A 위치 및 제1-B 위치를 포함하고,
    상기 광학부는 상기 제1-A 위치에 위치할 때, 상기 광을 상기 복수의 점 형태로 출력하고,
    상기 광학부는 상기 제1-B 위치에 위치할 때, 상기 광을 상기 면 형태로 출력하는 카메라 모듈.
  6. 제5항에 있어서,
    상기 광원과 상기 제1-A 위치에서의 상기 광학부 사이의 거리는 상기 광원과 상기 초기위치에서의 상기 광학부 사이의 거리보다 작고,
    상기 광원과 상기 제1-B 위치에서의 상기 광학부 사이의 거리는 상기 광원과 상기 초기위치에서의 상기 광학부 사이의 거리보다 큰 카메라 모듈.
  7. 제6항에 있어서,
    상기 초기위치와 상기 제1-A 위치 사이의 거리는 상기 초기위치와 상기 제1-B 위치 사이의 거리보다 작은 카메라 모듈.
  8. 제5항에 있어서,
    상기 광원과 상기 제1-A 위치에서의 상기 광학부 사이의 거리는 상기 광원과 초기위치에서의 상기 광학부 사이의 거리보다 크고,
    상기 제1-B 위치에서의 상기 광원과 상기 광학부 사이의 거리는 상기 제1-A 위치에서의 상기 광원과 상기 광학부 사이의 거리보다 큰 카메라 모듈.
  9. 제8항에 있어서,
    상기 제1-A 위치와 상기 초기위치 사이의 거리는 상기 제1-B 위치와 상기 초기위치 사이의 거리보다 작은 카메라 모듈.
  10. 제5항에 있어서,
    상기 광원과 상기 초기위치에서의 상기 광학부 사이의 거리는 상기 광원과 상기 제1-B 위치에서의 상기 광학부 사이의 거리보다 크고,
    상기 제1-B 위치에서의 상기 광원과 상기 광학부 사이의 거리는 상기 제1-A 위치에서의 상기 광원과 상기 광학부 사이의 거리보다 큰 카메라 모듈.
PCT/KR2021/001784 2020-02-13 2021-02-10 카메라 모듈 WO2021162450A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180028466.0A CN115380523A (zh) 2020-02-13 2021-02-10 相机模块
US17/797,581 US12085838B2 (en) 2020-02-13 2021-02-10 Camera module
EP21754386.7A EP4106308A4 (en) 2020-02-13 2021-02-10 CAMERA MODULE

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0017599 2020-02-13
KR1020200017599A KR20210103182A (ko) 2020-02-13 2020-02-13 카메라 모듈
KR1020200078434A KR20220000599A (ko) 2020-06-26 2020-06-26 카메라 모듈
KR10-2020-0078434 2020-06-26

Publications (1)

Publication Number Publication Date
WO2021162450A1 true WO2021162450A1 (ko) 2021-08-19

Family

ID=77291545

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/001784 WO2021162450A1 (ko) 2020-02-13 2021-02-10 카메라 모듈

Country Status (4)

Country Link
US (1) US12085838B2 (ko)
EP (1) EP4106308A4 (ko)
CN (1) CN115380523A (ko)
WO (1) WO2021162450A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200132319A (ko) * 2019-05-16 2020-11-25 엘지이노텍 주식회사 카메라 모듈

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0181797B1 (ko) * 1996-03-29 1999-04-15 이형도 레이저 스캐닝 유니트의 왜곡수차 보정을 위한 광원위치 가변장치
KR20070118654A (ko) * 2005-03-23 2007-12-17 마이크로스캔 시스템즈 인코포레이티드 광원 및 이미지 센서를 사용하는 포커싱 시스템
KR20100097920A (ko) * 2009-02-27 2010-09-06 삼성전자주식회사 카메라에서 렌즈계의 위치를 측정하기 위한 장치 및 방법
KR20190110231A (ko) * 2018-03-20 2019-09-30 엘지이노텍 주식회사 카메라 모듈 및 이를 포함하는 광학 기기
US20190313007A1 (en) * 2018-04-06 2019-10-10 Samsung Electro-Mechanics Co., Ltd. Infrared camera module, image sensor thereof, and electronic device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6230409B2 (ja) * 2013-12-20 2017-11-15 オリンパス株式会社 内視鏡装置
US9325973B1 (en) * 2014-07-08 2016-04-26 Aquifi, Inc. Dynamically reconfigurable optical pattern generator module useable with a system to rapidly reconstruct three-dimensional data
US10542245B2 (en) * 2017-05-24 2020-01-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
KR101961666B1 (ko) * 2017-12-21 2019-03-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN108337492B (zh) * 2018-01-15 2020-04-17 深圳奥比中光科技有限公司 动态投影成像装置
KR102572974B1 (ko) * 2018-04-26 2023-08-31 엘지이노텍 주식회사 카메라 모듈 및 그의 깊이 정보 추출 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0181797B1 (ko) * 1996-03-29 1999-04-15 이형도 레이저 스캐닝 유니트의 왜곡수차 보정을 위한 광원위치 가변장치
KR20070118654A (ko) * 2005-03-23 2007-12-17 마이크로스캔 시스템즈 인코포레이티드 광원 및 이미지 센서를 사용하는 포커싱 시스템
KR20100097920A (ko) * 2009-02-27 2010-09-06 삼성전자주식회사 카메라에서 렌즈계의 위치를 측정하기 위한 장치 및 방법
KR20190110231A (ko) * 2018-03-20 2019-09-30 엘지이노텍 주식회사 카메라 모듈 및 이를 포함하는 광학 기기
US20190313007A1 (en) * 2018-04-06 2019-10-10 Samsung Electro-Mechanics Co., Ltd. Infrared camera module, image sensor thereof, and electronic device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4106308A4 *

Also Published As

Publication number Publication date
US12085838B2 (en) 2024-09-10
EP4106308A1 (en) 2022-12-21
EP4106308A4 (en) 2024-02-07
US20230076838A1 (en) 2023-03-09
CN115380523A (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
WO2017043884A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2017196045A1 (ko) 렌즈 구동 장치, 카메라 모듈 및 휴대용 디바이스
WO2017160094A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2018084584A1 (ko) 카메라 모듈, 듀얼 카메라 모듈, 광학기기 및 듀얼 카메라 모듈의 제조방법
WO2016099051A1 (ko) 렌즈 구동장치
WO2018128489A1 (ko) 듀얼 렌즈 구동 장치, 듀얼 카메라 모듈 및 광학기기
WO2017126842A2 (ko) 렌즈 구동 장치, 카메라 모듈 및 광학기기
WO2021107524A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2017196047A1 (ko) 렌즈 구동 장치, 카메라 모듈 및 광학기기
WO2020213994A1 (ko) 카메라 모듈
WO2018216955A1 (ko) 렌즈 구동 장치, 카메라 모듈 및 광학 기기
WO2017078393A1 (ko) 렌즈 구동장치 및 이를 포함하는 카메라 모듈
WO2020076112A1 (ko) 카메라 액추에이터, 및 이를 포함하는 카메라 모듈
WO2018147697A1 (ko) 렌즈 구동 장치, 카메라 모듈 및 광학기기
WO2019039804A1 (ko) 렌즈 구동 장치 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2021158082A1 (ko) 카메라 장치
WO2021025511A1 (ko) 렌즈 구동 장치, 카메라 모듈 및 광학 기기
WO2021225362A1 (ko) 카메라 장치
WO2021107525A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2020101232A1 (ko) 카메라 모듈
WO2022234958A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2021177692A1 (ko) 거리 측정 카메라 장치
WO2021162450A1 (ko) 카메라 모듈
WO2021221410A1 (ko) 카메라 액추에이터 및 이를 포함하는 카메라 모듈
WO2021025361A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754386

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021754386

Country of ref document: EP

Effective date: 20220913