WO2020213862A1 - 카메라 모듈 및 광학 기기 - Google Patents

카메라 모듈 및 광학 기기 Download PDF

Info

Publication number
WO2020213862A1
WO2020213862A1 PCT/KR2020/004546 KR2020004546W WO2020213862A1 WO 2020213862 A1 WO2020213862 A1 WO 2020213862A1 KR 2020004546 W KR2020004546 W KR 2020004546W WO 2020213862 A1 WO2020213862 A1 WO 2020213862A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving unit
information
unit
correction value
moving
Prior art date
Application number
PCT/KR2020/004546
Other languages
English (en)
French (fr)
Inventor
오영돈
Original Assignee
엘지이노텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍(주) filed Critical 엘지이노텍(주)
Priority to US17/602,454 priority Critical patent/US20220217278A1/en
Priority to CN202080029530.2A priority patent/CN113711581B/zh
Publication of WO2020213862A1 publication Critical patent/WO2020213862A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • G03B2205/0015Movement of one or more optical elements for control of motion blur by displacing one or more optical elements normal to the optical axis

Definitions

  • the embodiment relates to a camera module and an optical device including the same.
  • VCM voice coil motor
  • the embodiment provides a camera module capable of preventing deterioration of a resolution due to a shift in an optical center of a lens moving unit due to gravity during camera shake correction, and improving accuracy of camera shake correction, and an optical device including the same.
  • the camera module includes an image sensor; A moving part including a lens and disposed on the image sensor; Fixed part; An elastic member connecting the fixing part and the moving part;
  • a control unit for acquiring a correction value for correcting an inclination amount of the moving unit, and controlling the movement of the moving unit using the correction value.
  • the camera module may include a motion sensor, and the control unit may acquire posture information of the moving unit by using sensing information of the motion sensor.
  • the posture information of the moving unit includes a tilt angle of the reference axis at the current position of the moving unit based on the reference axis at the reference position, and the reference position is the reference axis perpendicular to the sensor surface of the image sensor. It may be a position that becomes parallel to the direction.
  • a memory storing correction value information of the moving unit according to the posture information of the moving unit, and the control unit may obtain the correction value by using the posture information of the moving unit and correct the inclination amount of the moving unit.
  • the correction value information of the moving part stored in the memory may include at least one of the inclination amount of the moving part and a change in the position of the optical center of the moving part.
  • the control unit may control the moving unit to move the moving unit in a direction perpendicular to the optical axis for correcting camera shake.
  • the hand shake may be corrected by reflecting the correction value.
  • the controller may correct the inclination amount of the moving part and correct the hand shake.
  • the controller calculates target position information of the moving unit by reflecting the correction value for correcting the hand shake, obtains current position information of the moving unit, and based on the target position information and the current position information of the moving unit It is possible to obtain error information for camera shake correction and control to move the moving unit in a direction perpendicular to the optical axis based on the error information.
  • the controller may receive acceleration information of the camera module, and obtain the attitude information of the moving unit by using the received acceleration information of the camera module.
  • the control unit may obtain the inclination amount of the moving unit by using the Z-axis acceleration of the camera module.
  • an OIS position sensor disposed on the fixing unit and outputting an output signal according to a result of detecting a movement of the moving unit in a direction perpendicular to the optical axis to the control unit, and the control unit is the output of the OIS position sensor Based on a signal, the current location information of the mobile unit may be obtained.
  • the control unit includes a look-up table for storing correction value information corresponding to each of preset posture information of the moving unit, and the control unit includes the moving unit corresponding to the obtained posture information of the moving unit using the look-up table.
  • the correction value can be obtained.
  • the correction value information may include an inclined angle of the moving part.
  • the correction value information may include a change amount between the position of the optical center at the reference position of the moving unit and the position of the optical center at the current position of the moving unit.
  • the correction value information may include a basic change amount, which is a change amount of the position of the optical center of the moving part when the moving part is tilted by a reference angle in the direction of gravity in the preset posture information.
  • the control unit includes: a correction value generator configured to generate the correction value using the obtained posture information of the moving unit; A target position calculator configured to calculate target position information of the moving unit based on the correction value; A position detection unit for detecting position information of the moving unit; A driving signal generating unit generating a driving control signal using the target position information of the moving unit and the position information of the moving unit; And a driving unit controlling movement of the moving unit in a direction perpendicular to the optical axis based on the driving control signal.
  • the optical center of the lens moving unit may be distorted due to gravity during image stabilization, so that the resolution may be prevented from deteriorating, and accuracy of image stabilization may be improved.
  • FIG. 1 is an exploded perspective view of a camera module according to an embodiment.
  • FIG. 2 is a cross-sectional view illustrating a lens moving unit of FIG. 1 according to an exemplary embodiment.
  • FIG. 3 is a block diagram of a lens moving unit, a motion sensor, and a control unit of the camera module of FIG. 1.
  • FIG. 4 is a flowchart illustrating a method of controlling a hand-shake by a hand-shake controller according to an exemplary embodiment.
  • FIG. 5 is a block diagram showing an embodiment of a hand shake control unit.
  • 6A is an example of correction value information stored in a correction value generator.
  • 6B is another embodiment of correction value information stored in a correction value generator.
  • 6C is another embodiment of correction value information stored in a correction value generator.
  • FIG. 7 is a flowchart showing a method of generating a correction value stored in a correction value generator.
  • FIG. 8 shows a method of obtaining a change amount of the optical center of the moving part of FIG. 7.
  • FIG. 10 shows a difference in posture of the moving unit according to preset posture information of the moving unit and coordinate values of the position of the optical center of the moving unit.
  • FIG. 11 shows an embodiment of a method for obtaining a correction value of a moving unit.
  • FIG. 12 is a diagram for explaining measurement of a basic change amount of a position of an optical center of a moving unit according to FIG. 11
  • FIG. 13 shows a state in which the posture difference of the moving part is corrected by the hand shake control unit.
  • FIG. 14 illustrates a hand shake controller according to another embodiment.
  • 15 is a perspective view of a portable terminal according to an embodiment.
  • FIG. 16 shows a configuration diagram of the portable terminal shown in FIG. 15.
  • first, second, A, B, (a), and (b) may be used in describing the constituent elements of the embodiment of the present invention. These terms are only for distinguishing the component from other components, and are not limited to the nature, order, or order of the component by the term.
  • a component when a component is described as being'connected','coupled' or'connected' to another component, the component is not only directly connected, coupled or connected to the other component, but also the component and The case of being'connected','coupled' or'connected' due to another component between the other components may also be included.
  • the top (top) or bottom (bottom) when it is described as being formed or disposed on the “top (top) or bottom (bottom)” of each component, the top (top) or bottom (bottom) is one as well as when the two components are in direct contact with each other. It also includes a case in which the above other component is formed or disposed between the two components.
  • upper (upper) or lower (lower) when expressed as "upper (upper) or lower (lower)", the meaning of not only an upward direction but also a downward direction based on one component may be included.
  • the description is made using Cartesian coordinate systems (x, y, z), but other coordinate systems may be used, and embodiments are not limited thereto.
  • the x-axis and y-axis mean a direction perpendicular to the z-axis, which is the optical axis direction
  • the z-axis direction which is the optical axis direction
  • the x-axis direction is called the'second direction'
  • y The axial direction may be referred to as a'third direction'.
  • the camera module according to the embodiment may perform an'auto focusing function'.
  • the auto-focusing function refers to automatically focusing the image of the subject on the image sensor surface.
  • the camera module according to the embodiment may perform a'handshake correction function'.
  • the image stabilization function refers to preventing that the outline of the captured image is not formed clearly due to vibration caused by the user's hand shake when capturing a still image.
  • the lens moving unit may be referred to as being replaced with a lens driving device, a voice coil motor (VCM), or an actuator, and the term “coil” hereinafter may be expressed as a coil unit
  • VCM voice coil motor
  • the term “elastic member” may be represented by replacing it with an elastic unit or a spring
  • the support member may be represented by replacing it with a wire or a spring
  • terminal may be represented by replacing it with a pad, an electrode, a conductive layer, or a bonding part.
  • FIG. 1 is an exploded perspective view of a camera module 200 according to an embodiment.
  • the camera module 200 includes a lens module 400, a lens moving part 100, an adhesive member 612, a filter 610, a holder 600, a circuit board 800, An image sensor 810, a motion sensor 820, a controller 830, and a connector 840 may be included.
  • the lens module 400 may be mounted on the bobbin 110 of the lens moving part 100.
  • the lens module 400 may include a plurality of lenses.
  • the lens module 400 may include a plurality of lenses and a lens barrel for mounting the lenses.
  • the holder 600 may be disposed under the base 210 of the lens moving part 100.
  • the holder 600 may be represented by replacing it with “sensor base”, and may be omitted in other embodiments.
  • the filter 610 is mounted on the holder 600, and the holder 600 may include a seating portion 500 on which the filter 610 is mounted.
  • the seating part 500 may have a structure protruding from the upper surface of the holder 600, but is not limited thereto, and in another embodiment may be a groove shape recessed from the upper surface of the holder 600.
  • the adhesive member 612 may couple or attach the base 210 of the lens moving part 100 to the holder 600. In addition to the above-described adhesive role, the adhesive member 612 may serve to prevent foreign substances from flowing into the lens moving unit 100.
  • the adhesive member 612 may be an epoxy, a thermosetting adhesive, or an ultraviolet curable adhesive.
  • the filter 610 may serve to block light of a specific frequency band in the light passing through the lens module 400 from entering the image sensor 810.
  • the filter 610 may be an infrared cut filter, but is not limited thereto. In this case, the filter 610 may be disposed parallel to the x-y plane.
  • An opening may be formed at a portion of the holder 600 on which the filter 610 is mounted so that the light passing through the filter 610 can enter the image sensor 810.
  • the circuit board 800 may be disposed under the holder 600, and the image sensor 810 may be disposed or mounted on the circuit board 800.
  • the image sensor 810 is a portion where the light that has passed through the filter 610 is incident and an image including the light is formed.
  • the circuit board 800 may be provided with various circuits, elements, control units, etc. to convert an image formed by the image sensor 810 into an electrical signal and transmit it to an external device.
  • a circuit pattern and a plurality of terminals may be formed on the circuit board 800.
  • the circuit board 800 may be implemented as a printed circuit board or a flexible printed circuit board, but is not limited thereto.
  • the image sensor 810 may be electrically connected to the circuit board 800, receives an image included in the light incident through the lens moving unit 100, and converts the received image into an electrical signal. Active Area, AR) or an effective area.
  • the filter 610 and the image sensor 810 may be disposed to be spaced apart to face each other in the first direction.
  • the motion sensor 820 may be disposed or mounted on the circuit board 800, and may be electrically connected to the controller 830 through a circuit pattern provided on the circuit board 800.
  • the motion sensor 820 outputs rotation angular velocity information and acceleration information according to the movement of the camera module 200.
  • the motion sensor 820 may detect a change in angular velocity with respect to the movement of the camera module 200 and a position of the lens moving unit 100 that is moved according to the movement of the camera module 200.
  • the motion sensor 820 may include a 3-axis gyro sensor, an angular velocity sensor, or/and an acceleration sensor, or an inertial measurement unit (IMU).
  • IMU inertial measurement unit
  • the motion sensor 820 is omitted from the camera module 200 and may be mounted on an optical device. In another embodiment, the motion sensor may be mounted on both the camera module and the optical device.
  • the control unit 830 is disposed or mounted on the circuit board 800.
  • the control unit 830 may be electrically connected to the circuit board 800, and the circuit board 800 may be electrically connected to the circuit board 250 of the lens moving unit 100.
  • the control unit 830 may be electrically connected to the first coil 120 and the second coil of the lens moving unit 100.
  • control unit 830 may be electrically connected to an AF position sensor and an OIS (Optical Image Stabilizer) position sensor.
  • OIS Optical Image Stabilizer
  • the control unit 830 may provide a driving signal to each of the first coil 120 and the second coil. In addition, the control unit 830 may provide a driving signal to each of the AF position sensor and the OIS position sensor, and may receive outputs of the AF position sensor and the OIS position sensor.
  • control unit 830 is based on the angular velocity data provided from the motion sensor and the output signal provided from the OIS position sensor of the lens moving unit 100, the OIS movable unit (or OIS unit) of the lens moving unit 100 It is possible to control a driving signal capable of performing image stabilization.
  • the connector 840 is electrically connected to the circuit board 800 and may include a port for electrically connecting to an external device.
  • FIG. 2 is a cross-sectional view of the lens moving unit 100 of FIG. 1 according to an exemplary embodiment.
  • the lens moving unit 100 may move the lens module 400.
  • the lens moving part 100 includes a bobbin 110, a first coil 120, a magnet 130, a housing 140, an upper elastic member 150, a lower elastic member 160, and a support member 220.
  • a second coil, and OIS (Optical Image Stabilization) position sensors 240a and 240b may be included.
  • the lens moving unit 100 may further include a base 210, a circuit board 250, and a cover member 300.
  • the bobbin 110 is disposed inside the housing 140, and in the optical axis (OA) direction or the first direction (eg, Z-axis direction) by an electromagnetic interaction between the first coil 120 and the magnet 130. Can be moved.
  • OA optical axis
  • Z-axis direction the first direction
  • the bobbin 110 may have an opening for mounting a lens or a lens barrel.
  • the bobbin 110 may include a first stopper protruding from an upper surface.
  • the bobbin 110 may include a second stopper protruding from a lower surface.
  • a first coupling portion for coupling and fixing the upper elastic member 150 may be formed on the upper or upper surface of the bobbin 110, and the lower elastic member 160 is coupled and fixed to the lower or lower surface of the bobbin 110 It may include a second coupling portion for.
  • each of the first and second coupling portions of the bobbin 110 may have a protrusion, a groove, or a planar shape.
  • a seating groove in which the first coil 120 is seated, inserted, or disposed on the outer surface of the bobbin 110 may be provided, but is not limited thereto.
  • the first coil 120 is disposed on the bobbin 110.
  • the first coil 120 may be disposed on the outer surface of the bobbin 110.
  • the first coil 120 may have a closed loop shape, a coil block, or a coil ring shape disposed on the outer surface of the bobbin 110.
  • the first coil 120 may be a coil ring shape wound around the outer surface of the bobbin 110 around the optical axis, but is not limited thereto.
  • a coil ring wound around a straight line perpendicular to the optical axis It may be a shape.
  • a driving signal is provided to the first coil 120, and the driving signal provided at this time may include a DC signal or an AC signal, or include a DC signal and an AC signal, and may be in the form of a voltage or a current.
  • a driving signal e.g., a driving current
  • an electromagnetic force may be generated by the interaction between the first coil 120 and the magnet 130, and the AF movable unit (e.g., , The bobbin 110 may move in a first direction (eg, a z-axis direction) or the AF movable part may be tilted.
  • the AF movable part (eg, the bobbin 110) may be moved upward or downward, which is referred to as bidirectional driving of the AF movable part.
  • the AF movable part (eg, bobbin 110) may be moved upward, which is referred to as unidirectional driving of the AF movable part.
  • the AF movable unit may include a bobbin 110 and components coupled to the bobbin 110 (eg, the first coil 120).
  • the initial position of the AF movable part is the initial position of the AF movable part in the state that power is not applied to the first coil 120, or the upper and lower elastic members 150 and 160 are elastically deformed only by the weight of the AF movable part. It may be a position where the movable part is placed.
  • the initial position of the bobbin 110 is the position where the AF movable part is placed when gravity acts from the bobbin 110 to the base 210, or vice versa, when the gravity acts from the base 210 to the bobbin 110.
  • the housing 140 accommodates the bobbin 110 inside and supports the magnet 130.
  • the housing 140 may have a hollow column shape as a whole.
  • the housing 140 may have a polygonal (eg, quadrangle or octagonal) or circular opening for mounting or arranging the bobbin 110, and the opening of the housing 140 opens the housing 140 in the optical axis direction. It may be in the form of a through hole passing through.
  • the housing 140 may include a plurality of side portions and corner portions.
  • Each of the corner portions of the housing 140 may be disposed or positioned between two adjacent side portions, and may connect the side portions to each other.
  • Each of the side portions of the housing 140 may be disposed parallel to a corresponding one of the side plates of the cover member 300.
  • the housing 140 may be provided with a first stopper on the upper, upper, or upper surface.
  • a second stopper provided on the lower, lower, or lower surface of the housing 140 may be formed.
  • At least one first coupling portion coupled to the first outer frame of the upper elastic member 150 may be provided on the upper, upper, or upper surface of the housing 140, and at the lower, lower, or lower surface of the housing 140
  • a second coupling portion coupled to and fixed to the second outer frame of the lower elastic member 160 may be provided.
  • each of the first coupling portion and the second coupling portion of the housing 140 may have a protrusion, a groove, or a planar shape.
  • the magnet 130 may be disposed in the housing 140.
  • the magnet 130 may be disposed on at least one of the side portions of the housing 140.
  • the magnet 130 may be disposed on at least one of the corner portions of the housing 140.
  • the housing 140 may have a seating portion for seating the magnet 130, and the seating portion may be in the form of an opening, a hole, or a groove.
  • the magnet 130 may be a single-pole magnet or a positive-pole magnet.
  • the lens moving unit 100 may further include a sensing magnet and an AF position sensor for driving feedback AF.
  • the sensing magnet may be disposed on the bobbin 110, and the AF position sensor may be disposed on the housing 140.
  • the lens moving unit 100 may further include a circuit board disposed on the housing 140 and on which the AF position sensor is disposed or mounted.
  • the circuit board may include terminals electrically connected to the AF position sensor.
  • the sensing magnet may be moved along the bobbin 110 in the optical axis direction, and the AF position sensor detects the strength of the magnetic field of the sensing magnet that changes according to the movement of the bobbin 110. ) Can be printed.
  • the sensing magnet may be disposed on the housing 140 and the AF position sensor may be disposed on the bobbin 110.
  • the AF position sensor may be implemented as a Hall sensor alone or in the form of a driver integrated circuit (IC) including a Hall sensor and a driver.
  • IC driver integrated circuit
  • the upper elastic member 150 may be coupled to the upper, upper, or upper surface of the bobbin 110
  • the lower elastic member 160 may be coupled to the lower, lower, or lower surface of the bobbin 110.
  • the upper elastic member 150 may be coupled to the upper, upper, or upper surface of the bobbin 110 and the upper, upper, or upper surface of the housing 140, and the lower elastic member 160 is The lower, lower, or lower surface and the lower, lower, or lower surface of the housing 140 may be combined.
  • the upper elastic member 150 and the lower elastic member 160 may elastically support the bobbin 110 with respect to the housing 140.
  • the support member 220 may support the housing 140 to be movable in a direction perpendicular to the optical axis with respect to the base 210 or/and the circuit board 250, and at least one of the upper or lower elastic members 150 and 160 One and the circuit board 250 may be electrically connected.
  • the upper elastic member 150 may include a plurality of upper elastic units electrically separated from each other, and the plurality of upper elastic units may be electrically connected to terminals of a circuit board on which the AF position sensor is disposed.
  • At least one of the upper elastic member or the plurality of upper elastic units may include a first outer frame coupled to the housing 140.
  • the upper elastic member includes a first inner frame coupled to the bobbin 110, a first outer frame coupled to the housing 140, and a first frame connection unit connecting the first inner frame and the first outer frame. I can.
  • the support member 220 may include a plurality of support members, and each of the plurality of support members electrically connects a corresponding one of the plurality of upper elastic units and a corresponding one of the terminals of the circuit board 250. Can be connected by
  • the support members 220 may be disposed at corners of the housing 140.
  • each of the support members 220 may be disposed on a corresponding one of the corner portions 142-1 to 142-4 of the housing 140.
  • the support members may be disposed on the side of the housing 140.
  • one end of the support member 220 may be coupled to the upper elastic member or the first outer frame of the upper elastic unit by solder or a conductive adhesive member, and the other end of the support member 220 is coupled to the circuit board 250 Can be.
  • the support member 220 is conductive and may be implemented as a member that can be supported by elasticity, for example, a suspension wire, a leaf spring, or a coil spring. In addition, in another embodiment, the support member 220 may be integrally formed with the upper elastic member 150.
  • the lower elastic member 160 may include a plurality of lower elastic units.
  • At least one of the lower elastic member 160 or the lower elastic units is a second inner frame coupled or fixed to the lower, lower, or lower end of the bobbin 110, the lower, lower, or lower portion of the housing 140, or It may include a second outer frame to be fixed, and a second frame connecting portion connecting the second inner frame and the second outer frame to each other.
  • the upper elastic member 150 (or the upper elastic unit) and the lower elastic member 160 (or the lower elastic unit) may be formed of a leaf spring, but are not limited thereto, and may be implemented as a coil spring.
  • the "elastic unit” expressed above may be represented by replacing it with “spring”
  • the "outer frame” may be represented by replacing it with “the outer part”
  • the “inner frame” may be represented by replacing the "inner part”
  • Support member 220 may be represented by replacing with a wire.
  • the first coil 120 may be directly connected or coupled to any two second inner frames of the lower elastic units.
  • the first coil 120 may be directly connected or coupled to any two first inner frames of the upper elastic units.
  • the AF position sensor may be electrically connected to the circuit board 250 through upper elastic units and support members.
  • the upper elastic units may be electrically connected to the circuit board on which the AF position sensor is mounted.
  • the first coil 120 may be electrically connected to the circuit board 250 through two lower elastic units (or two upper elastic units) and support members.
  • the base 210 may have an opening corresponding to the opening of the bobbin 110 or/and the opening of the housing 140, and may have a shape that matches or corresponds to the cover member 300, for example, a rectangular shape.
  • the opening of the base 210 may be in the form of a through hole passing through the base 210 in the optical axis direction.
  • a seating groove in which the OIS position sensor may be disposed may be provided on the upper surface of the base 210.
  • a seating portion on which the filter 610 of the camera module 200 is installed may be formed on the lower surface of the base 210.
  • the second coil may be disposed on the circuit board 250, and the OIS position sensor may be disposed in the mounting groove of the base 210 located under the circuit board 250.
  • the first coil may be represented by replacing the AF coil
  • the second coil may be represented by replacing the OIS coil.
  • the OIS position sensor may include a first sensor 240a and a second sensor 240b (refer to FIG. 7 ).
  • the first and second sensors 240a and 240b may sense the displacement of the OIS movable part in a direction perpendicular to the optical axis.
  • the OIS movable unit (or OIS unit) may include an AF movable unit and components (eg, a magnet 130, an AF position sensor, etc.) mounted on the housing 140.
  • the AF movable unit may include a bobbin 110 and components mounted on the bobbin 110 and moving together with the bobbin 110.
  • the AF movable unit may include a bobbin 110, a lens (not shown) mounted on the bobbin 110, a first coil 120, a sensing magnet, and the like.
  • the circuit board 250 is disposed on the upper surface of the base 210 and may have an opening corresponding to an opening of the bobbin 110, an opening of the housing 140, or/and an opening of the base 210.
  • the opening of the circuit board 250 may be in the form of a through hole.
  • the shape of the circuit board 250 may be a shape that matches or corresponds to the upper surface of the base 210, for example, a square shape.
  • the circuit board 250 may include a plurality of terminals receiving electrical signals from the outside.
  • the second coil may be disposed under the bobbin 110.
  • the second coil may include coil units 230-1 and 230-2 that correspond or face the magnet 130 disposed in the housing 140 in the optical axis direction.
  • the coil units 230-1 and 230-2 of the second coil may be disposed on the upper surface of the circuit board 250 or the upper surface of the circuit board 250.
  • the second coil may include a circuit member 231 and a plurality of coil units 230-1 and 230-1 formed on the circuit member 231.
  • the circuit member 231 may be expressed as a "substrate”, a “circuit board”, or a "coil board”.
  • the second coil includes two coil units 230-1 and 230-2 facing in a first horizontal direction (or a first diagonal direction) and two coil units facing each other in a second horizontal direction (or a second diagonal direction). It may include two coil units, but is not limited thereto.
  • first horizontal direction or a first diagonal direction
  • second horizontal direction or a second diagonal direction
  • the two coil units shown may be connected in series with each other, but are not limited thereto.
  • a first horizontal direction (or a first diagonal direction) and a second horizontal direction (or a second diagonal direction) may be perpendicular to each other.
  • the two coil units 230-1 and 230-2 facing in the first horizontal direction may move the OIS driving unit in the X-axis direction by interaction with the magnet 130.
  • it may be expressed as a "X-axis direction OIS coil”.
  • the two coil units facing in the second horizontal direction can move the OIS driving unit in the Y-axis direction by interaction with the magnet 130, and are replaced with "Y-axis direction OIS coil".
  • the first horizontal direction may be a direction in which two side portions facing each other of the housing 140 face each other
  • the second horizontal direction is a direction in which two other side portions facing each other of the housing 140 face each other.
  • the first diagonal direction may be a direction in which two corner portions facing each other of the housing 140 face each other
  • the second diagonal direction is a direction in which two other corner portions facing each other of the housing 140 face each other. It can be the direction you are looking at.
  • the second coil may include only one coil unit in the first horizontal direction (or the first diagonal direction) and one coil unit in the second horizontal direction (or the second diagonal direction). In another embodiment, the second coil may include four or more coil units.
  • Power or a driving signal may be provided to the second coil from the circuit board 250.
  • a first driving signal may be provided to any two coil units 230-1 and 230-2 connected in series, and a second driving signal may be provided to other two coil units connected in series.
  • the first driving signal and the second driving signal may be a DC signal or an AC signal, or may include a DC signal and an AC signal, and may be in the form of current or voltage.
  • the OIS movable part for example, the housing 140 may move in a second direction and/or a third direction, for example, in the x-axis and/or y-axis direction, through which Image stabilization can be performed.
  • the coil units of the second coil may be electrically connected to corresponding terminals among terminals of the circuit board 250 in order to receive a driving signal from the circuit board 250.
  • the coil units of the second coil are implemented in the form of a circuit pattern formed on the circuit board 250 and the separate circuit member 231, for example, in the form of an FP coil, but are not limited thereto.
  • the coil units of the second coil are implemented in the form of ring-shaped coil blocks with the circuit member 231 omitted, or in the form of a circuit pattern formed on the circuit board 250, for example, in the form of an FP coil. Can be.
  • the first sensor 240a may overlap with any one of two magnets facing each other in a first horizontal direction in the optical axis direction
  • the second sensor 240b may have two magnets facing each other in a second horizontal direction. Any one of the magnets may overlap in the optical axis direction.
  • Each of the first and second sensors 240a and 240b may be a Hall sensor, and any sensor capable of detecting magnetic field strength may be used.
  • each of the first and second sensors 240a and 240b may be implemented as a single position detection sensor such as a Hall sensor, or may be implemented in the form of a driver including a Hall sensor.
  • the circuit board 250 may have a terminal surface on which terminals are provided.
  • the circuit board 250 may be provided as a flexible circuit board (FPCB), but it is not limited thereto, and the terminals of the circuit board 250 are placed on the surface of the base 210 by using a surface electrode method or the like. It is also possible to form it directly.
  • FPCB flexible circuit board
  • the circuit board 250 may include a hole through which the support member 220 passes.
  • the support member 220 may pass through the hole of the circuit board 250 and be electrically connected to a pad (or circuit pattern) formed on the lower surface of the circuit board 250 through soldering or a conductive adhesive member, but is limited thereto. no.
  • the circuit board 250 may not have a hole, and the support members 220 are electrically connected to a circuit pattern or pad formed on the upper surface of the circuit board 250 through soldering or a conductive adhesive member. It can also be connected.
  • the support members 220-1 to 220-4 may connect the upper elastic units 150-1 to 150-4 and the circuit member 231, and the circuit member 231 is a circuit board It can be electrically connected to 250.
  • the cover member 300 includes a bobbin 110, a first coil 120, a magnet 130, a housing 140, an upper elastic member 150, and a lower elastic member in an accommodation space formed together with the base 210. 160), a support member 220, a second coil, an OIS position sensor, and a circuit board 250 are accommodated.
  • the cover member 300 has an open lower portion and may be in a box shape including an upper plate and side plates, and a lower portion of the cover member 300 may be coupled to an upper portion of the base 210.
  • the lens moving part 100 and the lens module 400 may include a moving part, a fixed part, and an elastic member connecting the moving part and the fixed part.
  • the moving part may include an OIS movable part and a lens module 400.
  • the OIS movable unit may include a bobbin 110, a first coil 120, a housing 140, and a magnet 130.
  • the OIS movable unit may include an AF position sensor.
  • the fixing part may include at least one of the base 210, the circuit board 250, and the second coil.
  • the elastic member may include at least one of the upper elastic member 150, the lower elastic member 160, and the support member 220.
  • the OIS position sensors 240a and 240b may be disposed on the fixed part, and may output an output signal according to a result of detecting the movement of the moving part in a direction perpendicular to the optical axis, and the control unit is the OIS position sensors 240a and 240b. Position information of the mobile unit may be obtained based on the output signal of ).
  • the meaning of "acquire" may include any one of receive, calculate, calculate, extract, or detect.
  • FIG. 3 is a block diagram of a lens moving unit 100, a motion sensor 820, and a control unit 830 of the camera module 200 of FIG. 1.
  • the motion sensor 820 provides location information (GI) of the camera module 200 according to the movement of the camera module 200 to the controller 830.
  • GI location information
  • the location information GI of the camera module 200 may include at least one of angular velocity information and acceleration information according to the movement of the camera module 200.
  • the angular velocity information of the motion sensor 820 may include at least one of an X-axis angular velocity, a Y-axis angular velocity, and a Z-axis angular velocity.
  • the acceleration information of the motion sensor 820 may include at least one of an X-axis acceleration, a Y-axis acceleration, and a Z-axis acceleration.
  • the controller 830 may generate a control signal CS for controlling the lens moving unit 100 and provide it to the lens moving unit 100.
  • control signal CS is an AF driving signal provided to the first coil 120 of the lens moving unit 100, an OIS driving signal provided to the second coils 230-1 and 230-2, and an OIS position. It may include an OIS sensor control signal for driving or controlling the sensors 240a and 240b.
  • control signal CS may further include an AF sensor control signal for driving or controlling the AF position sensor.
  • the control unit 830 may receive a first output signal V1 output from the first sensor 240a of the lens moving unit 100 and a second output signal V2 output from the second sensor 240b. have.
  • controller 830 may receive a third output signal V3 output from the AF position sensor of the lens moving unit 100.
  • the motion sensor may be omitted from the camera module, the motion sensor may be included in an optical device (eg, terminal 200A) to be described later, and the controller 830 is an optical device (eg, terminal 200A). It is also possible to receive rotational angular velocity information of the optical device from the motion sensor included in the.
  • the controller 78 included in the optical device may perform the operation of the controller 830 to be described later on behalf of the controller.
  • the control unit 830 may include a hand shake control unit for performing hand shake correction of the lens moving unit 100.
  • the hand shake control unit may acquire a correction value for correcting the inclination amount of the moving unit, and may use the obtained correction value (or based on the correction value) or control the movement of the moving unit.
  • the "declination amount" of the moving part may be expressed by replacing it with a deflection amount or a tilt angle.
  • the hand-shake controller may obtain a correction value for correcting the inclination (or deflection) of the "moving part" based on the direction of gravity or the optical axis using the posture information (or posture difference) of the moving part, and the obtained The movement of the "moving part" in the direction perpendicular to the optical axis can be controlled based on the correction value, thereby improving the accuracy of camera shake correction.
  • FIG. 4 is a flowchart illustrating a method of controlling a hand-shake by a hand-shake controller according to an exemplary embodiment.
  • the posture information of the moving unit is acquired (S10).
  • the hand shake controller may receive sensing information output from the motion sensor 820 and obtain posture information of the moving unit using the received sensing information (GI).
  • the motion sensor may be mounted on the camera module 200 or an optical device, for example, the terminal 200A.
  • the sensing information of the motion sensor 820 may be location information (GI), posture information, or motion information of the camera module 200 (optical device).
  • the hand-shake controller may acquire location information, posture information, or motion information of a camera module (or optical device) by using sensing information of the motion sensor 820, and obtain the position of the camera module (or optical device).
  • Posture information of the mobile unit may be obtained by using information, posture information, or motion information.
  • the posture information of the moving unit may include a tilt angle of the reference axis at the current position of the moving unit (or camera module, optical device) based on the reference axis at the reference position.
  • the reference position may be a position at which a reference axis perpendicular to the sensor surface of the image sensor 810 is parallel to the direction of gravity.
  • the sensor surface may be an active area of the image sensor 810.
  • the hand shake control unit may include a memory in which information on a correction value of the moving unit according to the posture information of the moving unit is stored.
  • the correction value information may include at least one of an inclination amount of the moving unit and a change in the position of the optical center of the moving unit.
  • the hand shake controller may obtain a correction value using the posture information.
  • the hand-shake controller may acquire posture information of the moving unit using the Z-axis acceleration of the camera module, and may acquire the inclination amount of the moving unit by using the posture information of the moving unit.
  • the camera shake control unit may correct the inclination amount of the moving unit using the correction value.
  • the hand-shake controller may control the movement of the moving part in a direction perpendicular to the optical axis to correct hand-shake.
  • the camera shake controller may correct the hand shake by reflecting the correction value when correcting the hand shake.
  • the hand shake controller may correct the tilt amount of the moving part by reflecting the correction value and then correct the hand shake of the moving part.
  • FIG. 5 is a block diagram illustrating an exemplary embodiment of the hand shake controller 510.
  • the hand shake control unit 510 includes a position detection unit 512, a target position calculation unit 514, a correction value generation unit 515, a driving signal generation unit 516, and a driving unit 518. I can.
  • the position detection unit 512 receives the output signals V1 and V2 received from the moving unit, for example, the OIS position sensors 240a and 240b of the lens moving unit 100, and the received output signals V1 and V2 Based on the location information (or location data) of the mobile unit may be generated.
  • the location information of the moving unit may be information or data on the current position of the moving unit or the lens of the lens moving unit 100.
  • the location information of the moving unit may include information on two-dimensional (x,y) coordinates for the X-axis and Y-axis.
  • the position detection unit 512 may generate position information in the X-axis direction of the moving unit and position information in the Y-axis direction based on the first output signal V1 and the second output signal V2.
  • the position detection unit 512 may include an amplifier and an analog-to-digital converter.
  • the first output signal V1 and the second output signal V2 may be amplified by the amplifier of the position detection unit 512, and the analog-to-digital converter of the position detection unit 512 is the amplified first output signal ( V1) and the second output signal V2 may be converted into digital data or digital code to generate position information PG of the moving unit.
  • the target position calculation unit 514 calculates target position information (or target position data) for camera shake correction using position information (GI) of the camera module 200 (or optical device) provided from the motion sensor 820 can do.
  • GI position information
  • Target location information may be expressed by replacing target information, target tilt angle, and target angle.
  • the target position calculator 514 may calculate target position information TG for camera shake correction by using at least one of angular velocity information and acceleration information provided from the motion sensor 820.
  • the target position calculator 514 may calculate the target position information TG based on the position information GI of the camera module 200 and the correction value GA provided from the correction value generator 515.
  • the target position calculation unit 514 integrates at least one of angular velocity information and acceleration information of the camera module 200 provided from the motion sensor 820, and an angle (or tilt) according to the result of the integration.
  • the shift can be calculated.
  • the target position calculating unit 514 is based on the calculated angle and/or moving distance and the correction value provided from the correction value generating unit 515, the target position information (TG, or target position) of the camera module 200. Data) can be calculated.
  • the correction value generator 515 may store correction value information according to the posture information of the moving unit.
  • the correction value generator 515 may include a memory for storing a lookup table for storing correction value information corresponding to the posture information of the moving unit.
  • the memory for storing the correction value information may be provided separately from the hand shake controller, may be provided in the camera module 200 or may be provided in an optical device (for example, the terminal 200A).
  • the correction value information may include at least one of an inclination (or correction value) of the moving unit, a change in the position of the optical center of the moving unit, and a basic change amount.
  • 6A is an example of correction value information stored in the correction value generator 515.
  • the correction value generator 515 may include a look-up table for storing correction value information corresponding to preset posture information of the moving unit.
  • the preset posture information of the moving unit may be 90 degrees, 15 degrees, 30 degrees, 45 degrees, or 60 degrees, but is not limited thereto.
  • the preset posture information may be further subdivided than that shown in FIG. 6A.
  • the correction value generator 515 may use sensing information of the motion sensor 820, for example, location information (GI), or obtain current posture information of the moving unit based on the sensing information.
  • sensing information of the motion sensor 820 for example, location information (GI), or obtain current posture information of the moving unit based on the sensing information.
  • GI location information
  • the correction value generator 515 may obtain the posture information of the moving unit using sensing information provided from the motion sensor 820 or position information (GI).
  • the correction value generation unit 515 may detect whether there is a difference in posture of the moving part by using the location information (GI) of the camera module 200 (or an optical device) provided from the motion sensor 820 and move. The degree of the negative posture difference can be determined, and posture difference or posture information of the moving unit can be obtained.
  • GI location information
  • the correction value generator 515 may obtain current posture information of the moving unit using the Z-axis acceleration provided from the motion sensor 820.
  • the correction value generator 515 may obtain or calculate the current posture information of the moving unit by using the result of integrating the Z-axis acceleration of the camera module 200.
  • the correction value generating unit 515 may obtain a correction value corresponding to the current posture information of the moving unit calculated by the correction value generating unit 515 by using correction value information stored in the lookup table.
  • the correction value generating unit 515 is a correction value for compensating the deflection of the moving unit due to gravity ( A1, B1) can be acquired or created.
  • the hand shake control unit 510 uses the Z-axis acceleration of the camera module 200 provided from the motion sensor 820 to Information may be obtained, and a correction value GA for compensating for deflection of the moving part due to gravity at a position according to the obtained posture information may be generated or obtained.
  • the camera shake control unit 510 can correct an error or an error in the target location information TG caused by the influence of gravity using the obtained correction value GA, thereby improving the accuracy of camera shake correction. have.
  • the driving signal generator 516 may generate a driving control signal based on or using the target position information TG and the position information PG of the moving unit (eg, the lens moving unit 100 ).
  • the driving signal generation unit 516 is based on the target position information TG and the position information PG of the moving unit (for example, the lens moving unit 100), or by using the error information (or Error data) can be obtained.
  • the error information may be a difference (TG-PG) between the target location information TG and the location information PG of the moving unit.
  • the driving signal generation unit 516 may generate a driving control signal DG for controlling the driving unit 518 based on or using the error information.
  • the driving signal generation unit 516 includes a comparator for comparing the target position information TG and the position information PG of the lens moving unit 100, and a PID controller for controlling the output of the comparator to PID (Proportional Integral Derivative).
  • PID Proportional Integral Derivative
  • the driving unit 518 may control movement of the moving unit in a direction perpendicular to the optical axis, for example, in the X-axis direction and/or in the Y-axis direction, based on the driving control signal DG.
  • the driving unit 518 generates a first signal for driving the OIS coil in the X-axis direction of the lens moving unit 100 and a second signal for driving the OIS coil in the Y-axis direction based on the driving control signal DG. can do.
  • the driver 518 is an amplifier for amplifying the output of the PID controller of the driving signal generator 516, a pulse signal generator that generates a pulse signal (eg, a PWM signal) based on the output of the amplifier, and the pulse signal.
  • a driver that generates the driving control signal DG may be included, but is not limited thereto.
  • 6B is another embodiment of correction value information stored in the correction value generator 515.
  • the correction value generator 515 may include a lookup table for storing a change amount of the optical center OC of the moving unit corresponding to preset posture information of the moving unit.
  • the change amount of the optical center of the moving part may include a change amount of the optical center in the X-axis direction and a change amount in the Y-axis direction, which will be described later.
  • the correction value generator 515 may store a function, an algorithm, or a program for obtaining a correction value corresponding to the current posture information of the moving unit by using the correction value information stored in the lookup table of FIG. 6B.
  • the correction value generator 515 may obtain a correction value corresponding to the current posture information of the moving unit by using the changes in the optical center of the moving unit (dx to dx4, dy to dy4) stored in the lookup table of FIG. 6B. .
  • 6C is another embodiment of correction value information stored in the correction value generator 515.
  • the correction value generator 515 may include a lookup table for storing a change amount of the optical center OC of the moving part and a basic change amount corresponding to preset posture information of the moving part.
  • the basic amount of change may include a basic amount of change in the X-axis direction and a basic amount of change in the Y-axis direction, which will be described later.
  • the correction value generator 515 may store a function, an algorithm, or a program for obtaining a correction value corresponding to the current posture information of the moving unit by using the correction value information stored in the lookup table of FIG. 6C.
  • the correction value generation unit 515 uses the changes in the optical center of the moving unit (dx to dx4, dy to dy4) and the basic change amounts (dPx to dPx4, dPy to dPy4) stored in the lookup table of FIG. 6B. A correction value corresponding to the posture information may be obtained.
  • FIG. 7 is a flowchart showing a method of generating a correction value stored in the correction value generation unit 515.
  • a change amount of an optical center (OC) of a moving part having a preset posture difference is obtained (S110).
  • a difference in posture of the moving unit may occur due to gravity, and the position of the optical center of the moving unit 100 may be changed due to the difference in posture of the moving unit.
  • the optical center of the moving part 100 may be the optical center of the lens of the moving part 100.
  • FIG. 8 shows a method of acquiring the amount of change in the optical center of the moving part of FIG. 7
  • FIG. 9 shows the position difference of the moving part at the reference position and the coordinate values of the position CO of the moving part
  • FIG. 10 It represents the posture difference of the moving part according to the preset posture information of the negative and the coordinate values of the position C1 of the optical center of the moving part.
  • the position of the optical center of the moving part from the reference position is measured in order to obtain a change in the optical center (OC) (S210).
  • the "reference position” can be referred to as the position of the moving part (or referred to as "first position”) when there is no posture difference.
  • the reference position may be set based on the gravity direction 301.
  • the reference position may be a position of the moving part when the reference axis 201 is positioned to be horizontal or parallel to the gravity direction 301.
  • the reference axis 201 may be a linear axis perpendicular to the sensor surface (eg, active area AR or effective area) of the image sensor 810.
  • the reference position may be a position of the moving part when the reference axis 201 is positioned to be horizontal or parallel to the optical axis of the moving part.
  • the tilt angle ⁇ z of the reference axis 201 from the reference position may be 0 degrees or 180 degrees.
  • the lens or bobbin looks upwards, as shown in the position of the camera module shown in FIG. 8.
  • the camera module of FIG. 8 rotates 180 degrees so that the lens or bobbin looks downward.
  • the moving part may be supported with respect to the fixed part by the elastic members 150 and 160 and the support member 220.
  • the moving part for example, the OIS moving part
  • the moving part is only affected in the Z-axis direction by gravity, and may not be affected in the X-axis or Y-axis direction.
  • the correction value may be zero.
  • the position of the optical center of the moving part may be expressed as an active area AR of the image sensor 810 or a specific coordinate value of an effective area.
  • the coordinate value of the active area AR of the image sensor 810 corresponding to the position of the optical center of the moving part at the reference position may be stored in the hand shake controller 510.
  • the position of the optical center of the moving unit may be defined as a coordinate value of the brightest pixel of the image sensor 810 when light passing through the lens of the moving unit is detected by the image sensor 810.
  • the brightest pixel may have the largest pixel value among pixels of an effective area of an image sensor that detects light passing through the lens.
  • the pixel value may be a voltage value stored in a pixel of the image sensor.
  • the difference in posture of the moving part may be expressed as "posture information" of the moving part.
  • the posture information of the moving unit may be a tilt angle ⁇ z of the reference axis 201 at a preset posture difference position of the moving unit based on the reference axis 201 at the reference position.
  • the preset posture difference position may be a position of a moving unit having a preset posture difference.
  • the posture information of the moving unit may mean a difference between the posture of the moving unit at the reference position and the posture of the moving unit at the position of the moving unit having a preset posture difference.
  • the position CO of the optical center of the moving part at the reference position may have first coordinate values X0 and Y0.
  • the elastic members 150 and 160 and the support member 220 of the moving part are affected by gravity, and are shown in FIG. 9 by gravity. As described above, the elastic members 150 and 160 and the support member 220 may be deformed, and the moving part may be inclined.
  • the support member 220 may be bent so that one end of the support member 220 coupled to the moving part is struck down by gravity, thereby Inclination or sagging may occur, and the position of the optical center of the moving part may be changed or moved.
  • one end 72 of the support member 220 may be a portion coupled to the upper elastic member 150, and the other end 71 of the support member 220 is coupled to the circuit board 250 or the base 210 Can be.
  • the inclination amount or the amount of deflection of the moving part may be determined according to the posture difference ⁇ z of the moving part, and the correction value may be generated based on the amount of deflection of the moving part.
  • the position C1 of the optical center of the moving part may have second coordinate values X1 and Y1.
  • the position of the optical center of the moving part at the reference position may be referred to as a "first position", and the position of the optical center of the moving part at a preset posture difference position may be referred to as a "second position”.
  • the amount of change in the position of the optical center of the moving unit may be a difference between the second coordinate values X1 and Y1 at the second position and the first coordinate values X0 and Y0 at the first position.
  • the position change amount dX in the X-axis direction may be a difference (X1-X0) between the X-axis coordinate value X1 at the second position and the X-axis coordinate value X0 at the first position.
  • the position change amount dY in the Y-axis direction may be a difference (Y1-Y0) between the Y-axis coordinate value Y1 at the second position and the Y-axis coordinate value Y0 at the first position.
  • a correction value of the moving unit is obtained using the amount of change in the position of the optical center of the lens moving unit 100 (S120).
  • the correction value may be generated or calculated based on the first coordinate value and the second coordinate value.
  • the correction value may be generated or calculated based on the position change amount dX in the X-axis direction and the position change amount dY in the Y-axis direction.
  • the correction value may be generated or calculated based on the amount of inclination or deflection of the moving part corresponding to the amount of change in the position of the optical center of the moving part.
  • FIG. 11 is a diagram illustrating an example of a method for obtaining a correction value of a moving part
  • FIG. 12 is a diagram for explaining measurement of a basic change amount of a position of an optical center of a moving part according to FIG.
  • the basic change amount of the position of the optical center of the moving unit can be measured. have.
  • the preset posture difference may include posture information ⁇ z described in FIGS. 6A to 6C.
  • the reference angle may be 1 degree, but is not limited thereto.
  • the reference angle may be set to easily calculate the inclination amount (or deflection amount) and the correction value of the moving part, and may be set to be greater than 1 or less than 1.
  • the coordinate value of the position of the optical center of the moving unit may be P1 (PX1, PY1), and ,
  • the coordinate value of the position of the optical center of the moving unit may be P2 (PX2, PY2).
  • the tilt angle d ⁇ between the support member 220 at the A1 position and the support member 220 at the A2 position may be a reference angle (eg, 1 degree).
  • the basic change amount may be a difference between the coordinate value P2 and the coordinate value P1.
  • a correction value of the moving part is calculated based on the change in the position of the optical center of the moving part in step S230 and the basic change amount in step S310 (S320).
  • the amount of change in the position of the optical center of the moving part at the preset posture difference position in step S230 may be converted into an inclination amount or deflection amount ( ⁇ k, see FIG. 8) of the moving part.
  • the amount of inclination (or amount of deflection) can be expressed as an inclined angle (or angle of deflection), and the correction value is expressed as an inclined angle (or deflection angle ( ⁇ k)) or inclined angle (or deflection angle ( ⁇ k)) It may include.
  • the sag angle ⁇ k may be an inclined angle with respect to one end 72 of the support member 220.
  • the inclined angle ⁇ k may be calculated based on a ratio between the change amount of the position of the optical center of the moving part and the basic change amount at the preset posture difference position.
  • the lookup table of the hand shake controller 510 may store a correction value (eg, an inclined angle ⁇ k) obtained as described with reference to FIGS. 8 and 11 (see FIG. 6A ).
  • a correction value eg, an inclined angle ⁇ k
  • the look-up table of the hand-shake controller 510 may store the amount of change in the position of the optical center of the moving unit obtained as described with reference to FIG. 8 (see FIG. 6B).
  • the look-up table of the hand shake controller 510 may store a change amount of the position of the optical center of the moving part and a basic change amount of the optical center of the moving part obtained as described with reference to FIGS. 8 and 11 (see FIG. 6C ).
  • the correction value generator 515 uses a look-up table (Figs. 6A, 6B, and 6C) to generate a correction value corresponding to the posture information (or posture difference) of the moving unit obtained by the correction value generating unit 515. Can be generated.
  • the correction value generator 515 may select one of the correction value information stored in the lookup table (Figs. 6A, 6B, and 6C) corresponding to the posture information of the moving unit obtained by the correction value generator 515. It may be selected and extracted, and the extracted correction value information may be provided to the target position calculator 514.
  • the correction value generating unit 515 is used in the lookup table (Fig. An approximate correction value may be calculated using the correction value information of 6A, 6B, and 6C).
  • the correction value generator 515 may store a function, an algorithm, or a program for calculating an approximate correction value using a lookup table.
  • FIG. 13 shows a state in which the posture difference of the moving part is corrected by the hand shake control unit 510.
  • the hand shake controller 510 may control an electromagnetic force due to an interaction between the OIS coil 230 and the magnet 130 by controlling a driving signal provided to the OIS coil 230 of the moving unit based on the correction value GA. And, it is possible to correct the inclination or deflection of the moving part due to gravity at the position difference of the posture of the moving part by the controlled electromagnetic force.
  • distortion of the optical center of the lens due to the deflection of the lens moving part due to gravity may be compensated for by using a correction value.
  • the hand-shake controller 510 may calculate target position information for hand-shake compensation using the correction value, thereby compensating for a shift in the optical center of the moving part due to the tilt of the moving part due to gravity.
  • FIG. 14 shows a hand shake controller 510A according to another embodiment.
  • the hand shake control unit 510A includes a position detection unit 512, a correction value generation unit 515, a target position calculation unit 514A, a driving signal generation unit 516, and a driving unit 518. I can.
  • the hand shake control unit 510 first corrects the inclination of the moving unit 100 due to gravity based on the correction value GA obtained by the correction value generating unit 515.
  • the driving signal generation unit 516 may generate a first control signal for controlling the driving unit 518 using the correction value GA, and the driving unit 518 may generate a lens moving unit based on the first control signal. It is possible to control the electromagnetic force between the OIS coil 230 and the magnet 130 of (100), thereby correcting the inclination of the moving unit due to gravity.
  • Target location information TG1 for camera shake correction may be calculated using the location information GI.
  • the driving signal generation unit 516 may generate the driving control signal DG by using the calculated target position information TG1 and the position information PG of the moving unit provided from the position detection unit 512.
  • the driving unit 518 controls the electromagnetic force between the OIS coil 230 of the lens moving unit 100 and the magnet 130 based on the driving control signal DG to move the moving unit in the X-axis direction and/or the Y-axis direction. The movement of the can be controlled, and thus, camera shake correction can be performed.
  • the inclination of the moving part due to gravity may be corrected by the hand shake control unit 510 As a result, it is possible to prevent the optical characteristics of the camera module (or optical device) from deteriorating, for example, the resolving power due to the shifting of the optical center of the moving part due to gravity when correcting the hand shake.
  • a dual or higher camera module including a lens moving part with an OIS function and a lens moving part without an OIS function
  • the posture difference of the lens moving part occurs, the inclination of the moving part due to gravity occurs only for the lens moving part with the OIS function. Accordingly, the tilt between the lens moving unit having the OIS function and the lens moving unit without the OIS function may increase, and the performance of the dual camera capable of controlling bokeh may be large.
  • the camera module according to the embodiment can correct the inclination according to the posture difference of the OIS lens moving unit, the relative tilt between the lens moving unit having the OIS function and the lens moving unit without the OIS function can be improved. Therefore, bokeh control performance may be improved.
  • the correction value information stored in the lookup table may be a correction value of the moving unit, a change amount of the optical center of the moving unit, or/and a basic change amount, but is not limited thereto.
  • the look-up table may store a basic amount of change and a position (eg, a first coordinate value) of the optical center of the moving unit from the reference position.
  • the hand-shake controller may acquire posture information of the moving unit by using sensing information provided from the motion sensor 820.
  • the hand-shake control unit acquires the position of the optical center of the moving unit in the obtained posture information (posture difference) of the moving unit in real time, and stores the obtained coordinate value of the position of the optical center of the moving unit in the memory.
  • the method of obtaining the position of the optical center of the moving unit in real time may be applied or inferred by the method of obtaining the second coordinate value described in FIG. 10.
  • the hand shake control unit determines the position of the optical center of the moving unit (eg, a first coordinate value) and a basic change amount from the reference position stored in the lookup table, and the position of the optical center of the moving unit (eg, a second coordinate value) stored in the memory. Can be used to obtain a correction value.
  • the change amount of the optical center of the moving part may be obtained using the first coordinate value and the second coordinate value
  • the correction value may be obtained using the change amount of the optical center of the moving part and the basic change amount.
  • the method of calculating the correction value may be applied or by analogy to the method described in FIGS. 8 and 11.
  • the camera module 200 forms an image of an object in space by using the characteristics of light such as reflection, refraction, absorption, interference, and diffraction, and aims to increase the visual power of the eye, or It may be included in an optical instrument for the purpose of recording and reproducing an image by means of an image, or for optical measurement, propagation or transmission of an image, etc.
  • optical devices according to the embodiment include mobile phones, mobile phones, smart phones, portable smart devices, digital cameras, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), and portable multimedia players (PMPs). ), navigation, etc., but is not limited thereto, and any device for capturing an image or a photograph may be used.
  • FIG. 15 is a perspective view of a portable terminal 200A according to an embodiment
  • FIG. 16 is a configuration diagram of the portable terminal shown in FIG. 15.
  • the portable terminal 200A (hereinafter referred to as "terminal") includes a body 850, a wireless communication unit 710, an A/V input unit 720, a sensing unit 740, and An output unit 750, a memory unit 760, an interface unit 770, a control unit 780, and a power supply unit 790 may be included.
  • the body 850 may be in the form of a bar, but is not limited thereto, and a slide type, a folder type, a swing type, a swivel type in which two or more sub-bodies are coupled so as to be relatively movable. It can be of various structures such as swirl) type.
  • the body 850 may include a case (casing, housing, cover, etc.) forming an exterior.
  • the body 850 may be divided into a front case 851 and a rear case 852.
  • Various electronic components of the terminal may be embedded in a space formed between the front case 851 and the rear case 852.
  • the wireless communication unit 710 may include one or more modules that enable wireless communication between the terminal 200A and a wireless communication system or between the terminal 200A and a network in which the terminal 200A is located.
  • the wireless communication unit 710 may be configured to include a broadcast reception module 711, a mobile communication module 712, a wireless Internet module 713, a short-range communication module 714, and a location information module 715. have.
  • the A/V (Audio/Video) input unit 720 is for inputting an audio signal or a video signal, and may include a camera 721 and a microphone 722.
  • the camera 721 may include the camera module 200 according to the embodiment.
  • the sensing unit 740 monitors the current state of the terminal 200A, such as the open/closed state of the terminal 200A, the position of the terminal 200A, the presence of user contact, the orientation of the terminal 200A, and acceleration/deceleration of the terminal 200A. By sensing, a sensing signal for controlling the operation of the terminal 200A may be generated. For example, when the terminal 200A is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. In addition, it is responsible for a sensing function related to whether the power supply unit 790 supplies power and whether the interface unit 770 is coupled to an external device.
  • the sensing unit 740 may include a motion sensor that outputs rotation angular velocity information and acceleration information by the movement of the portable terminal 200A, and the motion sensor is a 3-axis gyro sensor, an angular velocity sensor, or/ And an acceleration sensor.
  • the input/output unit 750 is for generating an input or output related to visual, auditory, or tactile sense.
  • the input/output unit 750 may generate input data for controlling the operation of the terminal 200A, and may also display information processed by the terminal 200A.
  • the input/output unit 750 may include a keypad unit 730, a display module 751, an audio output module 752, and a touch screen panel 753.
  • the keypad unit 730 may generate input data by inputting a keypad.
  • the display module 751 may include a plurality of pixels whose color changes according to an electrical signal.
  • the display module 751 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. It may include at least one of 3D displays.
  • the sound output module 752 outputs audio data received from the wireless communication unit 710 in a call signal reception, a call mode, a recording mode, a voice recognition mode, or a broadcast reception mode, or stored in the memory unit 760. Audio data can be output.
  • the touch screen panel 753 may convert a change in capacitance caused by a user's touch to a specific area of the touch screen into an electric input signal.
  • the memory unit 760 may store a program for processing and control of the controller 780, and store input/output data (eg, a phone book, a message, an audio, a still image, a picture, a video, etc.). Can be stored temporarily.
  • the memory unit 760 may store an image captured by the camera 721, for example, a photo or a video.
  • the interface unit 770 serves as a passage for connecting to external devices connected to the terminal 200A.
  • the interface unit 770 receives data from an external device, receives power, and transmits the data to each component inside the terminal 200A, or transmits data inside the terminal 200A to an external device.
  • the interface unit 770 includes a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port connecting a device equipped with an identification module, and an audio input/output (I/O) port. Output) port, video input/output (I/O) port, and earphone port.
  • the controller 780 may control the overall operation of the terminal 200A.
  • the controller 780 may perform related control and processing for voice calls, data communication, and video calls.
  • the controller 780 may include a multimedia module 781 for playing multimedia.
  • the multimedia module 781 may be implemented in the controller 180 or may be implemented separately from the controller 780.
  • the controller 780 may perform pattern recognition processing capable of recognizing a handwriting input or a drawing input performed on the touch screen as characters and images, respectively.
  • the power supply unit 790 may receive external power or internal power under the control of the control unit 780 to supply power required for operation of each component.
  • the embodiment can prevent the optical center of the lens moving unit from being distorted due to gravity during camera shake correction, resulting in deterioration of resolution, and can be used in a camera module and optical device capable of improving the accuracy of camera shake correction.

Abstract

실시 예는 이미지 센서, 렌즈를 포함하고 이미지 센서 상에 배치되는 이동부, 고정부, 고정부와 이동부를 연결하는 탄성 부재, 중력에 의해 이동부가 기울어졌을 때, 이동부의 기울어짐량을 보정하기 위한 보정값을 획득하고, 보정값을 이용하여 이동부의 이동을 제어하는 제어부를 포함한다.

Description

카메라 모듈 및 광학 기기
실시 예는 카메라 모듈 및 이를 포함하는 광학 기기에 관한 것이다.
초소형, 저전력 소모를 위한 카메라 모듈은 기존의 일반적인 카메라 모듈에 사용된 보이스 코일 모터(VCM:Voice Coil Motor)의 기술을 적용하기 곤란하여, 이와 관련 연구가 활발히 진행되어 왔다.
스마트폰 및 카메라가 장착된 휴대폰과 같은 전자 제품의 수요 및 생산이 증가되고 있다. 휴대폰용 카메라는 고화소화 및 소형화 추세이며, 그에 따라 액츄에이터도 소형화, 대구경화, 멀티 기능화되고 있다. 고화소화의 휴대폰용 카메라를 구현하기 위하여 휴대폰용 카메라의 성능 향상 및 오토 포커싱, 셔터 흔들림 개선, 및 줌(Zoom) 기능 등의 추가적인 기능이 요구된다.
실시 예는 손떨림 보정시 중력에 의하여 렌즈 이동부의 광학 중심이 틀어져서 해상력이 저하되는 것을 방지할 수 있고, 손떨림 보정의 정확도를 향상시킬 수 있는 카메라 모듈, 및 이를 포함하는 광학 기기를 제공한다.
실시 예에 따른 카메라 모듈은 이미지 센서; 렌즈를 포함하고 상기 이미지 센서 상에 배치되는 이동부; 고정부; 상기 고정부와 상기 이동부를 연결하는 탄성 부재; 중력에 의해 상기 이동부가 기울어졌을 때, 상기 이동부의 기울어짐량을 보정하기 위한 보정값을 획득하고, 상기 보정값을 이용하여 상기 이동부의 이동을 제어하는 제어부를 포함한다.
상기 카메라 모듈은 모션 센서를 포함하고, 상기 제어부는 상기 모션 센서의 센싱 정보를 이용하여 상기 이동부의 자세 정보를 획득할 수 있다.
상기 이동부의 상기 자세 정보는 기준 위치에서의 기준축을 기준으로 상기 이동부의 현재 위치에서의 상기 기준축의 틸트 각도를 포함하고, 상기 기준 위치는 상기 이미지 센서의 센서면과 수직한 상기 기준축이 상기 중력 방향과 평행하게 되는 위치일 수 있다.
상기 이동부의 상기 자세 정보에 따른 상기 이동부의 보정값 정보가 저장된 메모리를 포함하고, 상기 제어부는 상기 이동부의 상기 자세 정보를 이용하여 상기 보정값을 획득하고, 상기 이동부의 상기 기울어짐량을 보정할 수 있다.
상기 메모리에 저장된 상기 이동부의 상기 보정값 정보는 상기 이동부의 상기 기울어짐량 및 상기 이동부의 광학 중심의 위치의 변화량 중 적어도 하나를 포함할 수 있다.
상기 제어부는 손떨림 보정을 위해 상기 이동부를 광축과 수직한 방향으로 이동시키도록 상기 이동부를 제어할 수 있다.
상기 손떨림 보정시 상기 보정값을 반영하여 손떨림을 보정할 수 있다.
상기 제어부는 상기 이동부의 상기 기울어짐량을 보정하고, 상기 손떨림을 보정할 수 있다.
또한 상기 제어부는 상기 손떨림 보정을 위하여 상기 보정값을 반영하여 상기 이동부의 타겟 위치 정보를 산출하고, 상기 이동부의 현재 위치 정보를 획득하고, 상기 타겟 위치 정보와 상기 이동부의 상기 현재 위치 정보에 기초하여 손떨림 보정을 위한 오차 정보를 획득하고, 상기 오차 정보에 기초하여 상기 이동부를 상기 광축과 수직한 방향으로 이동시키도록 제어할 수 있다.
상기 제어부는 상기 카메라 모듈의 가속도 정보를 수신하고, 수신된 상기 카메라 모듈의 상기 가속도 정보를 이용하여 상기 이동부의 상기 자세 정보를 획득할 수 있다.
상기 제어부는 상기 카메라 모듈의 Z축 가속도를 이용하여 상기 이동부의 상기 기울어짐량을 획득할 수 있다.
상기 고정부에 배치되고, 상기 광축과 수직한 방향으로의 상기 이동부의 이동을 감지한 결과에 따른 출력 신호를 상기 제어부로 출력하는 OIS 위치 센서를 포함하고, 상기 제어부는 상기 OIS 위치 센서의 상기 출력 신호에 기초하여 상기 이동부의 상기 현재 위치 정보를 획득할 수 있다.
상기 제어부는 상기 이동부의 기설정된 자세 정보들 각각에 대응하는 보정값 정보를 저장하는 룩업 테이블을 포함하고, 상기 제어부는 상기 룩업 테이블을 이용하여 상기 획득된 상기 이동부의 자세 정보에 대응하는 상기 이동부의 상기 보정값을 획득할 수 있다.
상기 보정값 정보는 상기 이동부의 기울어진 각도를 포함할 수 있다.
상기 보정값 정보는 상기 이동부의 상기 기준 위치에서의 광학 중심의 위치와 상기 이동부의 상기 현재 위치에서의 광학 중심의 위치 간의 변화량을 포함할 수 있다.
상기 보정값 정보는 상기 기설정된 자세 정보에서 상기 이동부를 중력 방향으로 기준 각도만큼 틸트시킬 때, 상기 이동부의 광학 중심의 위치의 변화량인 기본 변화량을 포함할 수 있다.
상기 제어부는 획득된 상기 이동부의 상기 자세 정보를 이용하여 상기 보정값을 생성하는 보정값 생성부; 상기 보정값에 기초하여 상기 이동부의 타겟 위치 정보를 산출하는 타겟 위치 산출부; 상기 이동부의 위치 정보를 검출하는 위치 검출부; 상기 이동부의 상기 타겟 위치 정보와 상기 이동부의 상기 위치 정보를 이용하여 구동 제어 신호를 생성하는 구동 신호 생성부; 및 상기 구동 제어 신호에 기초하여 상기 광축과 수직한 방향으로 상기 이동부의 이동을 제어하는 구동부를 포함할 수 있다.
실시 예는 손떨림 보정시 중력에 의하여 렌즈 이동부의 광학 중심이 틀어져서 해상력이 저하되는 것을 방지할 수 있고, 손떨림 보정의 정확도를 향상시킬 수 있다.
도 1은 실시 예에 따른 카메라 모듈의 분해 사시도를 나타낸다.
도 2는 도 1의 렌즈 이동부의 일 실시 예에 따른 단면도를 나타낸다.
도 3은 도 1의 카메라 모듈의 렌즈 이동부, 모션 센서, 및 제어부의 블록도를 나타낸다.
도 4는 실시 예에 따른 손떨림 제어부의 손떨림 제어 방법을 나타내는 플로차트이다.
도 5는 손떨림 제어부의 일 실시 예를 나타내는 구성도이다.
도 6a는 보정값 생성부에 저장된 보정값 정보의 일 실시 예이다.
도 6b는 보정값 생성부에 저장된 보정값 정보의 다른 실시 예이다.
도 6c는 보정값 생성부에 저장된 보정값 정보의 또 다른 실시 예이다.
도 7은 보정값 생성부에 저장된 보정값을 생성하는 방법을 나타내는 플로챠트이다.
도 8은 도 7의 이동부의 광학 중심의 변화량을 획득하는 방법을 나타낸다.
도 9는 기준 위치에서의 이동부의 자세차 및 이동부의 광학 중심의 위치(CO)의 좌표값을 나타낸다.
도 10은 이동부의 기설정된 자세 정보에 따른 이동부의 자세차, 및 이동부의 광학 중심의 위치의 좌표값을 나타낸다.
도 11은 이동부의 보정값을 획득하기 위한 방법의 일 실시 예를 나타낸다.
도 12는 도 11에 따라 이동부의 광학 중심의 위치의 기본 변화량 측정을 설명하기 위한 도면이다
도 13은 손떨림 제어부에 의하여 이동부의 자세차가 보정된 상태를 나타낸다.
도 14는 다른 실시 예에 따른 손떨림 제어부를 나타낸다.
도 15는 실시 예에 따른 휴대용 단말기의 사시도를 나타낸다.
도 16은 도 15에 도시된 휴대용 단말기의 구성도를 나타낸다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들 간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.
또한 본 발명의 실시 예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.
또한, 본 발명의 실시 예에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C중 적어도 하나(또는 한개이상)"로 기재되는 경우 A,B,C로 조합할 수 있는 모든 조합중 하나 이상을 포함할 수 있다.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.
그리고, 어떤 구성 요소가 다른 구성 요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우 뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속'되는 경우도 포함할 수 있다. 또한, 각 구성 요소의 " 상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두개의 구성 요소들이 서로 직접 접촉되는 경우 뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한 "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
이하, 첨부된 도면을 참조하여 실시 예에 의한 카메라 모듈 및 이를 포함하는 광학 기기에 대해 다음과 같이 살펴본다. 설명의 편의상, 데카르트 좌표계(x, y, z)를 사용하여 설명하지만, 다른 좌표계를 사용하여 설명할 수도 있으며, 실시 예는 이에 국한되지 않는다. 각 도면에서 x축과 y축은 광축 방향인 z축에 대하여 수직한 방향을 의미하며, 광축 방향인 z축 방향을 '제1 방향'이라 칭하고, x축 방향을 '제2 방향'이라 칭하고, y축 방향을 '제3 방향'이라 칭할 수 있다.
실시 예에 따른 카메라 모듈은 '오토 포커싱 기능'을 수행할 수 있다. 여기서 오토 포커싱 기능이란 피사체의 화상의 초점을 자동으로 이미지 센서 면에 결상시키는 것을 말한다.
또한 실시 예에 따른 카메라 모듈은 '손떨림 보정 기능'을 수행할 수 있다. 여기서 손떨림 보정 기능이란 정지 화상의 촬영 시 사용자의 손떨림에 의해 기인한 진동으로 인해 촬영된 이미지의 외곽선이 또렷하게 형성되지 못하는 것을 방지할 수 있는 것을 말한다.
이하 렌즈 이동부는 렌즈 구동 장치, VCM(Voice Coil Motor), 또는 액츄에이터(Actuator) 등으로 대체하여 호칭될 수 있고, 이하 "코일"이라는 용어는 코일 유닛(coil unit)으로 대체하여 표현될 수 있고, "탄성 부재"라는 용어는 탄성 유닛, 또는 스프링으로 대체하여 표현될 수 있고, 지지 부재는 와이어 또는 스프링 등으로 대체하여 표현될 수 있다. 또한 "단자(terminal)"는 패드(pad), 전극(electrode), 도전층(conductive layer), 또는 본딩부 등으로 대체하여 표현될 수 있다.
도 1은 실시 예에 따른 카메라 모듈(200)의 분해 사시도를 나타낸다.
도 1을 참조하면, 카메라 모듈(200)은 렌즈 모듈(lens module, 400), 렌즈 이동부(100), 접착 부재(612), 필터(610), 홀더(600), 회로 기판(800), 이미지 센서(810), 모션 센서(motion sensor, 820), 제어부(830), 및 커넥터(connector, 840)를 포함할 수 있다.
렌즈 모듈(400)은 렌즈 이동부(100)의 보빈(110)에 장착될 수 있다. 렌즈 모듈(400)은 복수의 렌즈들을 포함할 수 있다. 또는 렌즈 모듈(400)은 복수의 렌즈들 및 렌즈들이 장착되기 위한 렌즈 배럴을 포함할 수도 있다.
홀더(600)는 렌즈 이동부(100)의 베이스(210) 아래에 배치될 수 있다.
홀더(600)는 "센서 베이스(sensor base)"로 대체하여 표현될 수도 있으며, 다른 실시 예에서는 생략될 수도 있다.
필터(610)는 홀더(600)에 장착되며, 홀더(600)는 필터(610)가 안착되는 안착부(500)를 구비할 수 있다. 예컨대, 안착부(500)는 홀더(600)의 상면으로부터 돌출된 구조일 수 있으나, 이에 한정되는 것은 아니며, 다른 실시 예에서는 홀더(600)의 상면으로부터 함몰된 홈 형태일 수도 있다.
접착 부재(612)는 렌즈 이동부(100)의 베이스(210)를 홀더(600)에 결합 또는 부착시킬 수 있다. 접착 부재(612)는 상술한 접착 역할 외에 렌즈 이동부(100) 내부로 이물질이 유입되지 않도록 하는 역할을 할 수도 있다.
예컨대, 접착 부재(612)는 에폭시, 열경화성 접착제, 자외선 경화성 접착제 등일 수 있다.
필터(610)는 렌즈 모듈(400)을 통과하는 광에서의 특정 주파수 대역의 광이 이미지 센서(810)로 입사하는 것을 차단하는 역할을 할 수 있다. 필터(610)는 적외선 차단 필터일 수 있으나, 이에 한정되는 것은 아니다. 이때, 필터(610)는 x-y평면과 평행하도록 배치될 수 있다.
필터(610)가 실장되는 홀더(600)의 부위에는 필터(610)를 통과하는 광이 이미지 센서(810)에 입사할 수 있도록 개구가 형성될 수 있다.
회로 기판(800)은 홀더(600)의 하부에 배치되고, 회로 기판(800)에는 이미지 센서(810)가 배치 또는 실장될 수 있다. 이미지 센서(810)는 필터(610)를 통과한 광이 입사하여 광이 포함하는 이미지가 결상되는 부위이다.
회로 기판(800)은 이미지 센서(810)에 결상되는 이미지를 전기적 신호로 변환하여 외부장치로 전송하기 위해, 각종 회로, 소자, 제어부 등이 구비될 수도 있다.
회로 기판(800)에는 회로 패턴 및 복수의 단자들이 형성될 수 있다. 예컨대, 회로 기판(800)은 인쇄회로기판 또는 연성인쇄회로기판으로 구현될 수 있으나, 이에 한정되는 것은 아니다.
이미지 센서(810)는 회로 기판(800)과 전기적으로 연결될 수 있고, 렌즈 이동부(100)를 통하여 입사되는 광에 포함되는 이미지를 수신하고, 수신된 이미지를 전기적 신호로 변환하기 위한 액티브 영역(Active Area, AR) 또는 유효 영역을 포함할 수 있다.
필터(610)와 이미지 센서(810)는 제1 방향으로 서로 대향되도록 이격하여 배치될 수 있다.
모션 센서(820)는 회로 기판(800)에 배치 또는 실장될 수 있고, 회로 기판(800)에 마련되는 회로 패턴을 통하여 제어부(830)와 전기적으로 연결될 수 있다.
모션 센서(820)는 카메라 모듈(200)의 움직임에 의한 회전 각속도 정보 및 가속도 정보를 출력한다.
모션 센서(820)는 카메라 모듈(200)의 움직임에 대한 각속도의 변화와 카메라 모듈(200)의 움직임에 따라 이동된 렌즈 이동부(100)의 위치를 감지할 수 있다.
모션 센서(820)는 3축 자이로 센서(Gyro Sensor), 각속도 센서, 또는/및 가속도 센서, 또는 관성 센서(IMU, Inertial Measurement Unit)를 포함할 수 있다.
다른 실시 예에서는 모션 센서(820)는 카메라 모듈(200)에서 생략되고, 광학 기기에 장착될 수도 있다. 또 다른 실시 예에서는 모션 센서는 카메라 모듈 및 광학 기기에 모두 장착될 수도 있다.
제어부(830)는 회로 기판(800)에 배치 또는 실장된다.
제어부(830)는 회로 기판(800)과 전기적으로 연결될 수 있고, 회로 기판(800)는 렌즈 이동부(100)의 회로 기판(250)과 전기적으로 연결될 수 있다.
제어부(830)는 렌즈 이동부(100)의 제1 코일(120), 및 제2 코일과 전기적으로 연결될 수 있다.
또한 제어부(830)는 AF 위치 센서 및 OIS(Optical Image Stabilizer) 위치 센서와 전기적으로 연결될 수 있다.
제어부(830)는 제1 코일(120) 및 제2 코일 각각에 구동 신호를 제공할 수 있다. 또한 제어부(830)는 AF 위치 센서 및 OIS 위치 센서 각각에 구동 신호를 제공할 수 있고, AF 위치 센서 및 OIS 위치 센서 각각의 출력을 수신할 수 있다.
예컨대, 제어부(830)는 모션 센서로부터 제공되는 각속도 데이터, 및 렌즈 이동부(100)의 OIS 위치 센서로부터 제공되는 출력 신호에 기초하여, 렌즈 이동부(100)의 OIS 가동부(또는 OIS 유닛)에 대한 손떨림 보정을 수행할 수 있는 구동 신호를 제어할 수 있다.
커넥터(840)는 회로 기판(800)과 전기적으로 연결되며, 외부 장치와 전기적으로 연결되기 위한 포트(port)를 구비할 수 있다.
도 2는 도 1의 렌즈 이동부(100)의 일 실시 예에 따른 단면도를 나타낸다.
도 2를 참조하면, 렌즈 이동부(100)는 렌즈 모듈(400)을 이동시킬 수 있다.
렌즈 이동부(100)는 보빈(bobbin, 110), 제1 코일(120), 마그네트(130), 하우징(140), 상부 탄성 부재(150), 하부 탄성 부재(160), 지지 부재(220), 제2 코일, OIS(Optical Image Stabilization) 위치 센서(240a, 240b)를 포함할 수 있다.
또한 렌즈 이동부(100)는 베이스(210), 회로 기판(250), 및 커버 부재(300)를 더 포함할 수 있다.
보빈(110)은 하우징(140)의 내측에 배치되고, 제1 코일(120)과 마그네트(130) 간의 전자기적 상호 작용에 의하여 광축(OA) 방향 또는 제1 방향(예컨대, Z축 방향)으로 이동될 수 있다.
보빈(110)은 렌즈 또는 렌즈 배럴을 장착하기 위한 개구을 가질 수 있다.
보빈(110)은 상면으로부터 돌출되는 제1 스토퍼를 포함할 수 있다. 또한 보빈(110)은 하면으로부터 돌출되는 제2 스토퍼를 포함할 수 있다.
보빈(110)의 상부 또는 상면에는 상부 탄성 부재(150)가 결합 및 고정되기 위한 제1 결합부가 형성될 수 있고, 보빈(110)의 하부 또는 하면에는 하부 탄성 부재(160)가 결합 및 고정되기 위한 제2 결합부를 포함할 수 있다. 예컨대, 보빈(110)의 제1 및 제2 결합부들 각각은 돌기, 홈 또는 평면 형상일 수 있다.
예컨대, 보빈(110)의 외측면에는 제1 코일(120)이 안착, 삽입, 또는 배치되는 안착홈이 마련될 수 있으나, 이에 한정되는 것은 아니다.
제1 코일(120)은 보빈(110)에 배치된다. 예컨대, 제1 코일(120)은 보빈(110)의 외측면 상에 배치될 수 있다.
예컨대, 제1 코일(120)은 보빈(110)의 외측면에 배치되는 폐루프 형상, 코일 블록 또는 코일 링 형상을 가질 수 있다. 예컨대, 제1 코일(120)은 광축을 축으로 보빈(110)의 외측면에 감긴 코일 링 형상일 수 있으나, 이에 한정되는 것은 아니며, 다른 실시 예에서는 광축과 수직한 직선을 축으로 감긴 코일 링 형상일 수도 있다.
제1 코일(120)에는 구동 신호가 제공되며, 이때 제공되는 구동 신호는 직류 신호 또는 교류 신호이거나 또는 직류 신호와 교류 신호를 포함할 수 있으며, 전압 또는 전류 형태일 수 있다.
제1 코일(120)에 구동 신호(예컨대, 구동 전류)가 공급되면, 제1 코일(120)과 마그네트(130)와의 상호 작용에 의하여 전자기력이 형성될 수 있으며, 형성된 전자기력에 의하여 AF 가동부(예컨대, 보빈(110))는 제1 방향(예컨대, z축 방향)으로 이동하거나 AF 가동부가 틸트(tilt)될 수 있다.
AF 가동부의 초기 위치에서, AF 가동부(예컨대, 보빈(110))는 상측 방향 또는 하측 방향으로 이동될 수 있으며, 이를 AF 가동부의 양방향 구동이라 한다. 또는 AF 가동부의 초기 위치에서, AF 가동부(예컨대, 보빈(110))는 상측 방향으로 이동될 수 있으며, 이를 AF 가동부의 단방향 구동이라 한다.
예컨대, AF 가동부는 보빈(110), 및 보빈(110)에 결합된 구성들(예컨대, 제1 코일(120))을 포함할 수 있다.
그리고 AF 가동부의 초기 위치는 제1 코일(120)에 전원을 인가하지 않은 상태에서 AF 가동부의 최초 위치이거나 또는 상부 및 하부 탄성 부재들(150,160)이 단지 AF 가동부의 무게에 의해서만 탄성 변형됨에 따라 AF 가동부가 놓이는 위치일 수 있다.
이와 더불어 보빈(110)의 초기 위치는 중력이 보빈(110)에서 베이스(210) 방향으로 작용할 때, 또는 이와 반대로 중력이 베이스(210)에서 보빈(110) 방향으로 작용할 때의 AF 가동부가 놓이는 위치일 수 있다.
하우징(140)은 내측에 보빈(110)을 수용하며, 마그네트(130)를 지지한다.
하우징(140)은 전체적으로 중공 기둥 형상일 수 있다. 예컨대, 하우징(140)은 보빈(110)을 장착 또는 배치시키기 위한 다각형(예컨대, 사각형, 또는 팔각형) 또는 원형의 개구을 구비할 수 있으며, 하우징(140)의 개구는 광축 방향으로 하우징(140)을 관통하는 관통 홀 형태일 수 있다.
하우징(140)은 복수의 측부들및 코너부들을 포함할 수 있다.
하우징(140)의 코너부들 각각은 인접하는 2개의 측부들 사이에 배치 또는 위치할 수 있고, 측부들을 서로 연결시킬 수 있다.
하우징(140)의 측부들 각각은 커버 부재(300)의 측판들 중 대응하는 어느 하나와 평행하게 배치될 수 있다.
커버 부재(300)의 상판의 내면에 직접 충돌하는 것을 방지하기 위하여, 하우징(140)은 상부, 상단, 또는 상면에는 제1 스토퍼가 마련될 수 있다. 그리고 하우징(140)의 하면이 베이스(210) 및/또는 회로 기판(250)과 충돌하는 것을 방지하기 위하여, 하우징(140)의 하부, 하단, 또는 하면에 마련되는 제2 스토퍼가 형성될 수 있다.
하우징(140)의 상부, 상단, 또는 상면에는 상부 탄성 부재(150)의 제1 외측 프레임과 결합하는 적어도 하나의 제1 결합부가 구비될 수 있고, 하우징(140)의 하부, 하단, 또는 하면에는 하부 탄성 부재(160)의 제2 외측 프레임에 결합 및 고정되는 제2 결합부가 구비될 수 있다.
예컨대, 하우징(140)의 제1 결합부 및 제2 결합부 각각은 돌기, 홈 또는 평면 형상일 수 있다.
마그네트(130)는 하우징(140)에 배치될 수 있다.
예컨대, 마그네트(130)는 하우징(140)의 측부들 중 적어도 하나에 배치될 수 있다. 또는 다른 실시 예에서는 예컨대, 마그네트(130)는 하우징(140)의 코너부들 중 적어도 하나에 배치될 수 있다. 하우징(140)은 마그네트(130)를 안착시키기 위한 안착부가 형성될 수 있으며, 안착부는 개구, 홀 또는 홈 형태일 수 있다.
예컨대, 마그네트(130)는 단극착자 마그네트 또는 양극착자 마그네트일 수 있다.
실시 예에 따른 렌즈 이동부(100)는 피드백 AF 구동을 위하여 센싱 마그네트 및 AF 위치 센서를 더 포함할 수 있다.
예컨대, 센싱 마그네트는 보빈(110)에 배치될 수 있고, AF 위치 센서는 하우징(140)에 배치될 수 있다. 또한 렌즈 이동부(100)는 하우징(140)에 배치되고 AF 위치 센서가 배치 또는 실장되는 회로 기판을 더 포함할 수도 있다. 이때 회로 기판은 AF 위치 센서와 전기적으로 연결되는 단자들을 포함할 수 있다.
센싱 마그네트는 보빈(110)과 함께 광축 방향으로 이동될 수 있고, AF 위치 센서는 보빈(110)의 이동에 따라 변화하는 센싱 마그네트의 자기장의 세기를 감지한 결과에 따른 감지 신호(예컨대, 감지 전압)을 출력할 수 있다.
다른 실시 예에서는 센싱 마그네트는 하우징(140)에 배치되고, AF 위치 센서는 보빈(110)에 배치될 수도 있다.
AF 위치 센서는 홀 센서(Hall sensor) 단독으로 구현되거나 또는 홀 센서와 드라이버를 포함하는 드라이버 IC(Driver Integrated Circuit) 형태로 구현될 수도 있다.
상부 탄성 부재(150)는 보빈(110)의 상부, 상단, 또는 상면과 결합될 수 있고, 하부 탄성 부재(160)는 보빈(110)의 하부, 하단, 또는 하면과 결합될 수 있다.
예컨대, 상부 탄성 부재(150)는 보빈(110)의 상부, 상단, 또는 상면과 하우징(140)의 상부, 상단, 또는 상면과 결합될 수 있고, 하부 탄성 부재(160)는 보빈(110)의 하부, 하단, 또는 하면과 하우징(140)의 하부, 하단, 또는 하면과 결합될 수 있다.
상부 탄성 부재(150) 및 하부 탄성 부재(160)는 하우징(140)에 대하여 보빈(110)을 탄성 지지할 수 있다.
지지 부재(220)는 하우징(140)을 베이스(210) 또는/및 회로 기판(250)에 대하여 광축과 수직인 방향으로 이동 가능하게 지지할 수 있고, 상부 또는 하부 탄성 부재들(150,160) 중 적어도 하나와 회로 기판(250)을 전기적으로 연결할 수 있다.
상부 탄성 부재(150)는 서로 전기적으로 분리된 복수의 상부 탄성 유닛들을 포함할 수 있으며, 복수의 상부 탄성 유닛들은 AF 위치 센서가 배치된 회로 기판의 단자들에 전기적으로 연결될 수 있다.
상부 탄성 부재 또는 복수의 상부 탄성 유닛들 중 적어도 하나는 하우징(140)과 결합되는 제1 외측 프레임을 포함할 수 있다. 예컨대, 상부 탄성 부재는 보빈(110)과 결합되는 제1 내측 프레임, 하우징(140)과 결합되는 제1 외측 프레임, 및 제1 내측 프레임과 제1 외측 프레임을 연결하는 제1 프레임 연결부를 포함할 수 있다.
지지 부재(220)는 복수의 지지 부재들을 포함할 수 있으며, 복수의 지지 부재들 각각은 복수의 상부 탄성 유닛들 중 대응하는 어느 하나와 회로 기판(250)의 단자들 중 대응하는 어느 하나를 전기적으로 연결할 수 있다.
지지 부재들(220)은 하우징(140)의 코너부들에 배치될 수 있다. 예컨대, 지지 부재들(220) 각각은 하우징(140)의 코너부들(142-1 내지 142-4) 중 대응하는 어느 하나에 배치될 수 있다. 다른 실시 예에서는 지지 부재들은 하우징(140)에 측부에 배치될 수도 있다.
예컨대, 솔더 또는 전도성 접착 부재에 의하여 지지 부재(220)의 일단은 상부 탄성 부재 또는 상부 탄성 유닛의 제1 외측 프레임에 결합될 수 있고, 지지 부재(220)의 타단은 회로 기판(250)에 결합될 수 있다.
지지 부재(220)는 전도성이고, 탄성에 의하여 지지할 수 있는 부재, 예컨대, 서스펜션와이어(suspension wire), 판스프링(leaf spring), 또는 코일스프링(coil spring) 등으로 구현될 수 있다. 또한 다른 실시 예에 지지 부재(220)는 상부 탄성 부재(150)와 일체로 형성될 수도 있다.
하부 탄성 부재(160)는 복수의 하부 탄성 유닛들을 포함할 수 있다.
하부 탄성 부재(160) 또는 하부 탄성 유닛들 중 적어도 하나는 보빈(110)의 하부, 하면, 또는 하단에 결합 또는 고정되는 제2 내측 프레임, 하우징(140)의 하부, 하면, 또는 하단에 결합 또는 고정되는 제2 외측 프레임, 및 제2 내측 프레임과 제2 외측 프레임을 서로 연결하는 제2 프레임 연결부를 포함할 수 있다.
상부 탄성 부재(150)(또는 상부 탄성 유닛) 및 하부 탄성 부재(160)(또는 하부 탄성 유닛)은 판 스프링으로 이루어질 수 있으나, 이에 한정되는 것은 아니며, 코일 스프링 등으로 구현될 수도 있다. 상기 표현된 "탄성 유닛"은 "스프링"으로 대체하여 표현될 수 있고, "외측 프레임"은 "외측부"로 대체하여 표현될 수 있고, "내측 프레임"은 "내측부"로 대체하여 표현될 수 있고, 지지 부재(220)는 와이어로 대체하여 표현될 수 있다.
예컨대, 제1 코일(120)은 하부 탄성 유닛들 중 어느 2개의 제2 내측 프레임에 직접 연결 또는 결합될 수 있다. 또는 제1 코일(120)은 상부 탄성 유닛들 중 어느 2개의 제1 내측 프레임에 직접 연결 또는 결합될 수도 있다.
AF 위치 센서는 상부 탄성 유닛들, 및 지지 부재들을 통하여 회로 기판(250)과 전기적으로 연결될 수 있다. AF 위치 센서가 하우징(140)에 배치된 회로 기판에 장착될 때에는 상부 탄성 유닛들은 AF 위치 센서가 장착된 회로 기판과 전기적으로 연결될 수 있다.
제1 코일(120)은 2개의 하부 탄성 유닛들(또는 2개의 상부 탄성 유닛들) 및 지지 부재들을 통하여 회로 기판(250)과 전기적으로 연결될 수 있다.
베이스(210)는 보빈(110)의 개구, 또는/및 하우징(140)의 개구에 대응하는 개구을 구비할 수 있고, 커버 부재(300)와 일치 또는 대응되는 형상, 예컨대, 사각형 형상일 수 있다. 예컨대, 베이스(210)의 개구는 광축 방향으로 베이스(210)를 관통하는 관통 홀 형태일 수 있다.
베이스(210)의 상면에는 OIS 위치 센서가 배치될 수 있는 안착홈이 마련될 수 있다. 베이스(210)의 하면에는 카메라 모듈(200)의 필터(610)가 설치되는 안착부가 형성될 수도 있다.
제2 코일은 회로 기판(250)의 상부에 배치될 수 있고, OIS 위치 센서는 회로 기판(250) 아래에 위치하는 베이스(210)의 안착홈 내에 배치될 수 있다. 제1 코일은 AF 코일로 대체하여 표현될 수 있고, 제2 코일은 OIS 코일로 대체하여 표현될 수 있다.
OIS 위치 센서는 제1 센서(240a) 및 제2 센서(240b, 도 7 참조)를 포함할 수 있다.
제1 및 제2 센서들(240a, 240b)은 광축과 수직인 방향으로 OIS 가동부의 변위를 감지할 수 있다. 여기서 OIS 가동부(또는 OIS 유닛)은 AF 가동부, 및 하우징(140)에 장착되는 구성 요소들(예컨대, 마그네트(130), AF 위치 센서 등)을 포함할 수 있다.
예컨대, AF 가동부는 보빈(110), 및 보빈(110)에 장착되어 보빈(110)과 함께 이동하는 구성들을 포함할 수 있다. 예컨대 AF 가동부는 보빈(110), 및 보빈(110)에 장착되는 렌즈(미도시), 제1 코일(120), 및 센싱 마그네트 등을 포함할 수 있다.
회로 기판(250)은 베이스(210)의 상면 상에 배치되며, 보빈(110)의 개구, 하우징(140)의 개구, 또는/및 베이스(210)의 개구에 대응하는 개구를 구비할 수 있다. 회로 기판(250)의 개구는 관통홀 형태일 수 있다.
회로 기판(250)의 형상은 베이스(210)의 상면과 일치 또는 대응되는 형상, 예컨대, 사각형 형상일 수 있다.
회로 기판(250)은 외부로부터 전기적 신호들을 공급받는 복수 개의 단자들(terminals)을 포함할 수 있다.
제2 코일은 보빈(110)의 아래에 배치될 수 있다. 예컨대, 제2 코일은 하우징(140)에 배치된 마그네트(130)와 광축 방향으로 대응하거나 또는 마주보는 코일 유닛들(230-1, 230-2)을 포함할 수 있다.
제2 코일의 코일 유닛들(230-1, 230-2)은 회로 기판(250)의 상부 또는 회로 기판(250)의 상면 상에 배치될 수 있다.
예컨대, 제2 코일은 회로 부재(231)와 회로 부재(231)에 형성되는 복수 개의 코일 유닛들(230-1, 230-1)을 포함할 수 있다. 여기서 회로 부재(231)는 "기판", "회로 기판", 또는 "코일 기판" 등으로 표현될 수 있다.
예컨대, 제2 코일은 제1 수평 방향(또는 제1 대각선 방향)으로 마주보는 2개의 코일 유닛들(230-1, 230-2) 및 제2 수평 방향(또는 제2 대각선 방향)으로 마주보는 2개의 코일 유닛들을 포함할 수 있으나, 이에 한정되는 것은 아니다.
예컨대, 제1 수평 방향(또는 제1 대각선 방향)으로 마주보는 2개의 코일 유닛들(230-1, 230-2)은 서로 직렬 연결될 수 있고, 제2 수평 방향(또는 제2 대각선 방향)으로 마주보는 2개의 코일 유닛들은 서로 직렬 연결될 수 있으나, 이에 한정되는 것은 아니다. 예컨대, 제1 수평 방향(또는 제1 대각선 방향)과 제2 수평 방향(또는 제2 대각선 방향)은 서로 수직한 방향일 수 있다.
예컨대, 제1 수평 방향(또는 제1 대각선 방향)으로 마주보는 2개의 코일 유닛들(230-1, 230-2)은 마그네트(130)와의 상호 작용에 의하여 OIS 구동부를 X축 방향으로 이동시킬 수 있으며, "X축 방향 OIS 코일"이라고 대체하여 표현될 수 있다.
또한 제2 수평 방향(또는 제2 대각선 방향)으로 마주보는 2개의 코일 유닛들은 마그네트(130)와의 상호 작용에 의하여 OIS 구동부를 Y축 방향으로 이동시킬 수 있으며, "Y축 방향 OIS 코일"이라고 대체하여 표현될 수 있다.
예컨대, 제1 수평 방향은 하우징(140)의 서로 대향하는 2개의 측부들이 서로 마주보는 방향일 수 있고, 제2 수평 방향은 하우징(140)의 서로 대향하는 다른 2개의 측부들이 서로 마주보는 방향일 수 있다. 또한 예컨대, 제1 대각선 방향은 하우징(140)의 서로 대향하는 2개의 코너부들이 서로 마주보는 방향일 수 있고, 제2 대각선 방향은 하우징(140)의 서로 대향하는 다른 2개의 코너부들이 서로 마주보는 방향일 수 있다.
다른 실시 예에서 제2 코일은 제1 수평 방향(또는 제1 대각선 방향)의 1개의 코일 유닛 및 제2 수평 방향(또는 제2 대각선 방향)의 1개의 코일 유닛만을 구비할 수도 있다. 또 다른 실시 예에서는 제2 코일은 4개 이상의 코일 유닛들을 포함할 수도 있다.
제2 코일에는 회로 기판(250)으로부터 전원 또는 구동 신호가 제공될 수 있다. 예컨대, 직렬 연결된 어느 2개의 코일 유닛들(230-1, 230-2)에 제1 구동 신호가 제공될 수 있고, 직렬 연결된 다른 2개의 코일 유닛들에 제2 구동 신호가 제공될 수 있다.
제1 구동 신호와 제2 구동 신호는 직류 신호 또는 교류 신호이거나 또는 직류 신호와 교류 신호를 포함할 수 있고, 전류 또는 전압 형태일 수 있다.
마그네트(130)와 코일 유닛들 간의 상호 작용에 의해 OIS 가동부, 예컨대, 하우징(140)이 제2 방향 및/또는 제3 방향, 예컨대, x축 및/또는 y축 방향으로 움직일 수 있고, 이를 통하여 손떨림 보정이 수행될 수 있다.
제2 코일의 코일 유닛들은 회로 기판(250)으로부터 구동 신호를 제공받기 위하여 회로 기판(250)의 단자들 중 대응하는 단자들과 전기적으로 연결될 수 있다.
제2 코일의 코일 유닛들은 회로 기판(250)과 별도의 회로 부재(231)에 형성되는 회로 패턴 형태, 예컨대, FP 코일 형태로 구현되지만, 이에 한정하는 것은 아니다. 다른 실시 예에서 제2 코일의 코일 유닛들은 회로 부재(231)가 생략되고 링 형상의 코일 블록들 형태로 구현되거나, 또는 회로 기판(250)에 형성되는 회로 패턴 형태, 예컨대, FP 코일 형태로 구현될 수 있다.
예컨대, 제1 센서(240a)는 제1 수평 방향으로 서로 마주보는 2개의 마그네트들 중 어느 하나와 광축 방향으로 오버랩될 수 있고, 제2 센서(240b)는 제2 수평 방향으로 서로 마주보는 2개의 마그네트들 중 어느 하나와 광축 방향으로 오버랩될 수 있다.
제1 및 제2 센서들(240a, 240b) 각각은 홀 센서일 수 있으며, 자기장 세기를 감지할 수 있는 센서라면 어떠한 것이든 사용 가능하다. 예컨대, 제1 및 제2 센서들(240a, 240b) 각각은 홀 센서 등과 같은 위치 검출 센서 단독으로 구현되거나 또는 홀 센서(Hall sensor)를 포함하는 드라이버 형태로 구현될 수 있다.
회로 기판(250)은 단자들이 마련되는 단자면을 구비할 수 있다.
실시 예에 따르면, 회로 기판(250)은 연성 회로 기판(FPCB)으로 마련될 수 있으나 이를 한정하는 것은 아니며, 회로 기판(250)의 단자들을 베이스(210)의 표면에 표면 전극 방식 등을 이용하여 직접 형성하는 것도 가능하다.
회로 기판(250)은 지지 부재(220)가 통과하는 홀을 포함할 수 있다. 지지 부재(220)는 회로 기판(250)의 홀을 통과하여 회로 기판(250)의 하면에 형성된 패드(또는 회로 패턴)과 납땜 또는 전도성 접착 부재 등을 통해 전기적으로 연결될 수 있으나, 이에 한정되는 것은 아니다.
다른 실시 예에서 회로 기판(250)은 홀을 구비하지 않을 수 있으며, 지지 부재들(220)은 회로 기판(250)의 상면에 형성되는 회로 패턴 또는 패드에 납땜 또는 전도성 접착 부재 등을 통하여 전기적으로 연결될 수도 있다.
또는 다른 실시 예에서 지지 부재들(220-1 내지 220-4)은 상부 탄성 유닛들(150-1 내지 150-4)과 회로 부재(231)를 연결할 수 있고, 회로 부재(231)는 회로 기판(250)과 전기적으로 연결될 수 있다.
커버 부재(300)는 베이스(210)와 함께 형성되는 수용 공간 내에 보빈(110), 제1 코일(120), 마그네트(130), 하우징(140), 상부 탄성 부재(150), 하부 탄성 부재(160), 지지 부재(220), 제2 코일, OIS 위치 센서, 및 회로 기판(250)을 수용한다.
커버 부재(300)는 하부가 개방되고, 상판 및 측판들을 포함하는 상자 형태일 수 있으며, 커버 부재(300)의 하부는 베이스(210)의 상부와 결합될 수 있다.
렌즈 이동부(100)와 렌즈 모듈(400)은 이동부, 고정부, 및 이동부와 고정부를 연결하는 탄성 부재를 포함할 수 있다.
예컨대, 이동부는 OIS 가동부와 렌즈 모듈(400)을 포함할 수 있다.
OIS 가동부는 보빈(110), 제1 코일(120), 하우징(140), 및 마그네트(130)를 포함할 수 있다. 또한 OIS 가동부는 AF 위치 센서를 포함할 수도 있다.
고정부는 베이스(210), 회로 기판(250), 제2 코일 중 적어도 하나를 포함할 수 있다.
탄성 부재는 상부 탄성 부재(150), 하부 탄성 부재(160), 및 지지 부재(220) 중 적어도 하나를 포함할 수 있다.
OIS 위치 센서(240a,240b)는 고정부에 배치될 수 있고, 광축과 수직한 방향으로의 이동부의 이동을 감지한 결과에 따른 출력 신호를 출력할 수 있고, 제어부는 OIS 위치 센서(240a,240b)의 출력 신호에 기초하여 이동부의 위치 정보를 획득할 수 있다. 이하 "획득하다"의 의미는 수신하다, 산출하다, 계산하다, 추출하다, 또는 검출하다 중 어느 하나의 의미를 포함할 수 있다.
도 3은 도 1의 카메라 모듈(200)의 렌즈 이동부(100), 모션 센서(820), 및 제어부(830)의 블록도를 나타낸다.
도 3을 참조하면, 모션 센서(820)는 카메라 모듈(200)의 움직임에 따른 카메라 모듈(200)의 위치 정보(GI)를 제어부(830)에 제공한다.
카메라 모듈(200)의 위치 정보(GI)는 카메라 모듈(200)의 움직임에 따른 각속도 정보 및 가속도 정보 중 적어도 하나를 포함할 수 있다.
예컨대, 모션 센서(820)의 각속도 정보는 X축 각속도, Y축 각속도, 및 Z축 각속도 중 적어도 하나를 포함할 수 있다. 또한 예컨대, 모션 센서(820)의 가속도 정보는 X축 가속도, Y축 가속도, 및 Z축 가속도 중 적어도 하나를 포함할 수 있다.
제어부(830)는 렌즈 이동부(100)를 제어하기 위한 제어 신호(CS)를 생성하여 렌즈 이동부(100)에 제공할 수 있다.
예컨대, 제어 신호(CS)는 렌즈 이동부(100)의 제1 코일(120)에 제공되는 AF 구동 신호, 제2 코일(230-1, 230-2)에 제공되는 OIS 구동 신호, 및 OIS 위치 센서(240a, 240b)를 구동 또는 제어하기 위한 OIS 센서 제어 신호를 포함할 수 있다.
또한 제어 신호(CS)는 AF 위치 센서를 구동 또는 제어하기 위한 AF 센서 제어 신호를 더 포함할 수도 있다.
제어부(830)는 렌즈 이동부(100)의 제1 센서(240a)로부터 출력되는 제1 출력 신호(V1), 및 제2 센서(240b)로부터 출력되는 제2 출력 신호(V2)를 수신할 수 있다.
또한 제어부(830)는 렌즈 이동부(100)의 AF 위치 센서로부터 출력되는 제3 출력 신호(V3)를 수신할 수도 있다.
다른 실시 예에서는 카메라 모듈에서 모션 센서가 생략될 수 있고, 모션 센서는 후술하는 광학 기기(예컨대, 단말기(200A))에 포함될 수 있으며, 제어부(830)는 광학 기기(예컨대, 단말기(200A))에 포함된 모션 센서로부터 광학 기기의 회전 각속도 정보를 수신할 수도 있다.
또 다른 실시 예에서는 후술하는 제어부(830)의 동작을 광학 기기(예컨대, 단말기(200A))에 포함된 제어부(78)가 대신하여 수행할 수도 있다.
제어부(830)는 렌즈 이동부(100)의 손떨림 보정을 수행하기 위한 손떨림 제어부를 포함할 수 있다.
손떨림 제어부는 중력에 의해 이동부가 기울어졌을 때, 이동부의 기울어짐량 을 보정하기 위한 보정값을 획득하고, 획득된 보정값을 이용하거나(또는 보정값에 기초하여) 이동부의 이동을 제어할 수 있다. 이때 이동부의 "기울어짐량"은 처짐량 또는 틸트 각도로 대체하여 표현될 수도 있다.
예컨대, 손떨림 제어부는 이동부의 자세 정보(또는 자세차)를 이용하여, 중력 방향 또는 광축을 기준으로 "이동부"의 기울어짐량(또는 처짐량)을 보정하기 위한 보정값을 획득할 수 있고, 획득된 보정값에 기초하여 광축과 수직한 방향으로의 "이동부"의 이동을 제어할 수 있고, 이로 인하여 손떨림 보정의 정확성을 향상시킬 수 있다.
도 4는 실시 예에 따른 손떨림 제어부의 손떨림 제어 방법을 나타내는 플로차트이다.
도 4를 참조하면, 먼저 이동부의 자세 정보를 획득한다(S10).
예컨대, 손떨림 제어부는 모션 센서(820)로부터 출력되는 센싱 정보를 수신하고, 수신된 센싱 정보(GI)를 이용하여 이동부의 자세 정보를 획득할 수 있다. 이때 모션 센서는 카메라 모듈(200) 또는 광학 기기, 예컨대, 단말기(200A)에 장착될 수 있다.
예컨대, 모션 센서(820)의 센싱 정보는 카메라 모듈(200, 광학 기기)의 위치 정보(GI), 자세 정보, 또는 움직임 정보일 수 있다.
예컨대, 손떨림 제어부는 모션 센서(820)의 센싱 정보를 이용하여 카메라 모듈(또는 광학 기기)의 위치 정보, 자세 정보, 또는 움직임 정보를 획득할 수 있고, 획득된 카메라 모듈(또는 광학 기기)의 위치 정보, 자세 정보, 또는 움직임 정보를 이용하여 이동부의 자세 정보를 획득할 수 있다.
이동부(또는 카메라 모듈, 광학 기기)의 자세 정보는 기준 위치에서의 기준축을 기준으로 이동부(또는 카메라 모듈, 광학 기기)의 현재 위치에서의 기준축의 틸트 각도를 포함할 수 있다. 예컨대, 기준 위치는 이미지 센서(810)의 센서면과 수직한 기준축이 중력 방향과 평행하게 되는 위치일 수 있다. 예컨대, 센서면은 이미지 센서(810)의 액티브 영역일 수 있다.
다음으로 이동부의 자세 정보를 이용하여 보정값을 획득한다(S20).
예컨대, 손떨림 제어부는 이동부의 자세 정보에 따른 이동부의 보정값 정보가 저장된 메모리를 포함할 수 있다. 예컨대, 보정값 정보는 이동부의 기울어짐량 및 이동부의 광학 중심의 위치의 변화량 중 적어도 하나를 포함할 수 있다. 그리고 손떨림 제어부는 자세 정보를 이용하여 보정값을 획득할 수 있다.
예컨대, 손떨림 제어부는 카메라 모듈의 Z축 가속도를 이용하여 이동부의 자세 정보를 획득할 수 있고, 이동부의 자세 정보를 이용하여 이동부의 기울어짐량을 획득할 수 있다.
다음으로 보정값을 이용하여 손떨림 보정을 수행한다.
손떨림 제어부는 보정값을 이용하여 이동부의 기울어짐량을 보정할 수 있다.
예컨대, 손떨림 제어부는 손떨림 보정을 위하여 광축과 수직한 방향으로의 이동부의 이동을 제어할 수 있다.
예컨대, 손떨림 제어부는 손떨림 보정시 보정값을 반영하여 손떨림을 보정할 수 있다.
또는 예컨대, 손떨림 제어부는 보정값을 반영하여 이동부의 기울어짐량을 보정한 후에 이동부의 손떨림을 보정할 수 있다.
도 5는 손떨림 제어부(510)의 일 실시 예를 나타내는 구성도이다.
도 5를 참조하면, 손떨림 제어부(510)는 위치 검출부(512), 타겟 위치 산출부(514), 보정값 생성부(515), 구동 신호 생성부(516), 및 구동부(518)를 포함할 수 있다.
위치 검출부(512)는 이동부, 예컨대, 렌즈 이동부(100)의 OIS 위치 센서(240a,240b)로부터 수신되는 출력 신호(V1, V2)를 수신하고, 수신된 출력 신호(V1,V2)에 기초하여 이동부의 위치 정보(또는 위치 데이터)를 생성할 수 있다.
예컨대, 이동부의 위치 정보는 이동부 또는 렌즈 이동부(100)의 렌즈의 현재 위치에 관한 정보 또는 데이터일 수 있다. 예컨대, 이동부의 위치 정보는 X축 및 Y축에 대한 2차원(x,y) 좌표에 관한 정보를 포함할 수 있다.
예컨대, 위치 검출부(512)는 제1 출력 신호(V1) 및 제2 출력 신호(V2)에 기초하여 이동부의 X축 방향으로의 위치 정보 및 Y축 방향으로의 위치 정보를 생성할 수 있다.
예컨대, 위치 검출부(512)는 증폭기(Amplifier), 및 아날로그-디지털 변환기를 포함할 수 있다.
예컨대, 위치 검출부(512)의 증폭기에 의하여 제1 출력 신호(V1) 및 제2 출력 신호(V2)는 증폭될 수 있고, 위치 검출부(512)의 아날로그-디지털 변환기는 증폭된 제1 출력 신호(V1) 및 제2 출력 신호(V2)를 디지털 데이터, 또는 디지털 코드(code)로 변환하여 이동부의 위치 정보(PG)를 생성할 수 있다.
타겟 위치 산출부(514)는 모션 센서(820)로부터 제공되는 카메라 모듈(200) (또는 광학 기기)의 위치 정보(GI)를 이용하여 손떨림 보정을 위한 타겟 위치 정보(또는 타겟 위치 데이터)를 산출할 수 있다.
"타겟 위치 정보"는 타겟 정보, 타겟 틸트 각도, 타겟 각도로 대체하여 표현될 수도 있다.
예컨대, 타겟 위치 산출부(514)는 모션 센서(820)로부터 제공되는 각속도 정보 및 가속도 정보 중 적어도 하나를 이용하여, 손떨림 보정을 위한 타겟 위치 정보(TG)를 산출할 수 있다.
타겟 위치 산출부(514)는 카메라 모듈(200)의 위치 정보(GI) 및 보정값 생성부(515)로부터 제공되는 보정값(GA)에 기초하여 타겟 위치 정보(TG)를 산출할 수 있다.
예컨대, 타겟 위치 산출부(514)는 모션 센서(820)로부터 제공되는 카메라 모듈(200)의 각속도 정보 및 가속도 정보 중 적어도 하나를 적분하고, 적분한 결과에 따른 각도(또는 틸트(tilt)) 및 이동 거리(shift)를 산출할 수 있다.
또한 예컨대, 타겟 위치 산출부(514)는 산출된 각도 및/또는 이동 거리와 보정값 생성부(515)로부터 제공되는 보정값에 기초하여 카메라 모듈(200)의 타겟 위치 정보(TG, 또는 타겟 위치 데이터)를 산출할 수 있다.
보정값 생성부(515)는 이동부의 자세 정보에 따른 보정값 정보를 저장할 수 있다.
예컨대, 보정값 생성부(515)는 이동부의 자세 정보에 대응하는 보정값 정보를 저장하는 룩업 테이블을 저장하는 메모리를 포함할 수 있다.
다른 실시 예에서는 보정값 정보를 저장하는 메모리는 손떨림 제어부와 별로도 구비될 수도 있으며, 카메라 모듈(200)에 구비되거나 또는 광학 기기(예컨대, 단말기(200A))에 구비될 수도 있다.
예컨대, 보정값 정보는 이동부의 기울어짐량(또는 보정값), 이동부의 광학 중심의 위치의 변화량, 및 기본 변화량 중 적어도 하나를 포함할 수 있다.
도 6a는 보정값 생성부(515)에 저장된 보정값 정보의 일 실시 예이다.
도 6a를 참조하면, 보정값 생성부(515)는 이동부의 기설정된 자세 정보에 대응하는 보정값 정보를 저장하는 룩업 테이블(look-up table)을 포함할 수 있다.
예컨대, 이동부의 기설정된 자세 정보는 90도, 15도, 30도, 45도, 60도일 수 있으나, 이에 한정되는 것은 아니다. 예컨대, 기설정된 자세 정보는 도 6a에 도시된 것보다 더 세분하게 구분될 수도 있다.
룩업 테이블은 기설정된 자세 정보들(예컨대, θz= 15도, 30도, 45도, 60도, 90도) 각각에 대응하는 보정값을 저장할 수 있다.
보정값은 기설정된 자세 정보(예컨대, θz= 15도, 30도, 45도, 60도, 90도)에 대응하는 X축 틸트 각도(A1 ~ A5) 및 Y축 틸트 각도(B1 내지 B5)을 포함할 수 있다.
보정값 생성부(515)는 모션 센서(820)의 센싱 정보, 예컨대, 위치 정보(GI)를 이용하거나 센싱 정보에 기초하여 이동부의 현재 자세 정보를 획득할 수 있다.
보정값 생성부(515)는 모션 센서(820)로부터 제공되는 센싱 정보, 또는 위치 정보(GI)를 이용하여 이동부의 자세 정보를 획득할 수 있다.
보정값 생성부(515)는 모션 센서(820)로부터 제공되는 카메라 모듈(200)(또는 광학 기기)의 위치 정보(GI)를 이용하여, 이동부의 자세차의 존재 여부를 감지할 수 있고, 이동부의 자세차의 정도를 판단할 수 있고, 이동부의 자세차 또는 자세 정보를 획득할 수 있다.
예컨대, 보정값 생성부(515)는 모션 센서(820)로부터 제공되는 Z축 가속도를 이용하여, 이동부의 현재 자세 정보를 획득할 수 있다.
예컨대, 보정값 생성부(515)는 카메라 모듈(200)의 Z축 가속도를 적분한 결과를 이용하여 이동부의 현재 자세 정보를 획득 또는 산출할 수 있다.
보정값 생성부(515)는 룩업 테이블에 저장된 보정값 정보를 이용하여 보정값 생성부(515)에 의하여 산출된 이동부의 현재 자세 정보에 대응하는 보정값을 획득할 수 있다.
예컨대, 도 6a을 참조하면, 보정값 생성부(515)에 의하여 획득된 이동부의 현재 자세 정보가 90도일 때, 보정값 생성부(515)는 중력에 의한 이동부의 처짐을 보상하기 위한 보정값(A1, B1)을 획득 또는 생성할 수 있다.
카메라 모듈(200)의 손떨림 보정을 위한 타겟 위치 정보(TG)를 획득함에 있어서, 손떨림 제어부(510)는 모션 센서(820)로부터 제공되는 카메라 모듈(200)의 Z축 가속도를 이용하여 이동부의 자세 정보를 획득할 수 있고, 획득된 자세 정보에 따른 위치에서 중력에 의한 이동부의 처짐을 보상하기 위한 보정값(GA)을 생성 또는 획득할 수 있다.
손떨림 제어부(510)는 획득된 보정값(GA)을 이용하여 중력의 영향에 기인하는 타겟 위치 정보(TG)의 오차 또는 에러(error)를 보정할 수 있고 이로 인하여 손떨림 보정의 정확도를 향상시킬 수 있다.
구동 신호 생성부(516)는 타겟 위치 정보(TG)와 이동부(예컨대, 렌즈 이동부(100))의 위치 정보(PG)에 기초하거나 또는 이를 이용하여 구동 제어 신호를 생성할 수 있다.
예컨대, 구동 신호 생성부(516)는 타겟 위치 정보(TG)와 이동부(예컨대, 렌즈 이동부(100))의 위치 정보(PG)에 기초하거나 또는 이를 이용하여 손떨림 보정에 관한 오차 정보(또는 오차 데이터)를 획득할 수 있다.
예컨대, 오차 정보는 타겟 위치 정보(TG)와 이동부의 위치 정보(PG) 간의 차이(TG-PG)일 수 있다.
예컨대, 구동 신호 생성부(516)는 오차 정보에 기초하거나 또는 오차 정보를 이용하여, 구동부(518)를 제어하기 위한 구동 제어 신호(DG)를 생성할 수 있다.
예컨대, 구동 신호 생성부(516)는 타겟 위치 정보(TG)와 렌즈 이동부(100)의 위치 정보(PG)를 비교하는 비교기, 비교기의 출력을 PID(Proportional Integral Derivative) 제어하기 위한 PID 제어기를 포함할 수 있다.
구동부(518)는 구동 제어 신호(DG)에 기초하여, 광축과 수직한 방향, 예컨대, X축 방향의 이동 및/또는 Y축 방향으로의 이동부의 이동을 제어할 수 있다.
예컨대, 구동부(518)는 구동 제어 신호(DG)에 기초하여 렌즈 이동부(100)의 X축 방향 OIS 코일을 구동하기 위한 제1 신호 및 Y축 방향 OIS 코일을 구동하기 위한 제2 신호를 생성할 수 있다.
예컨대, 구동부(518)는 구동 신호 생성부(516)의 PID 제어기의 출력을 증폭하기 위한 증폭기, 증폭기의 출력에 기초하여 펄스 신호(예컨대, PWM 신호)를 생성하는 펄스 신호 발생기, 및 펄스 신호에 기초하여 구동 제어 신호(DG)를 생성하는 드라이버를 포함할 수 있으나, 이에 한정되는 것은 아니다.
도 6b는 보정값 생성부(515)에 저장된 보정값 정보의 다른 실시 예이다.
도 6b를 참조하면, 보정값 생성부(515)는 이동부의 기설정된 자세 정보에 대응하는 이동부의 광학 중심(OC)의 변화량을 저장하는 룩업 테이블을 포함할 수 있다. 이동부의 광학 중심의 변화량은 광학 중심의 X축 방향의 변화량과 Y축 방향의 변화량을 포함할 수 있으며, 이에 대해서는 후술한다.
도 6b의 룩업 테이블에는 이동부의 기설정된 자세 정보들(예컨대, θz= 15도, 30도, 45도, 60도, 90도)에 대응하는 이동부의 광학 중심의 변화량들(dx ~ dx4, dy ~ dy4)이 저장될 수 있다.
보정값 생성부(515)는 도 6b의 룩업 테이블에 저장된 보정값 정보를 이용하여 이동부의 현재 자세 정보에 대응하는 보정값을 획득하기 위한 함수, 알고리즘, 또는 프로그램을 저장할 수 있다.
즉 보정값 생성부(515)는 도 6b의 룩업 테이블에 저장된 이동부의 광학 중심의 변화량들(dx ~ dx4, dy ~ dy4)을 이용하여 이동부의 현재 자세 정보에 대응하는 보정값을 획득할 수 있다.
도 6c는 보정값 생성부(515)에 저장된 보정값 정보의 또 다른 실시 예이다.
도 6c를 참조하면, 보정값 생성부(515)는 이동부의 기설정된 자세 정보에 대응하는 이동부의 광학 중심(OC)의 변화량, 및 기본 변화량을 저장하는 룩업 테이블을 포함할 수 있다. 기본 변화량은 X축 방향으로의 기본 변화량 및 Y축 방향으로의 기본 변화량을 포함할 수 있으며, 이에 대해서는 후술한다.
보정값 생성부(515)는 도 6c의 룩업 테이블에 저장된 보정값 정보를 이용하여 이동부의 현재 자세 정보에 대응하는 보정값을 획득하기 위한 함수, 알고리즘, 또는 프로그램을 저장할 수 있다.
즉 보정값 생성부(515)는 도 6b의 룩업 테이블에 저장된 이동부의 광학 중심의 변화량들(dx ~ dx4, dy ~ dy4) 및 기본 변화량(dPx ~ dPx4, dPy ~ dPy4)을 이용하여 이동부의 현재 자세 정보에 대응하는 보정값을 획득할 수 있다.
도 7은 보정값 생성부(515)에 저장된 보정값을 생성하는 방법을 나타내는 플로챠트이다.
도 7을 참조하면, 먼저 기설정된 자세차(posture difference)를 갖는 이동부의 광학 중심(optical center, OC)의 변화량을 획득한다(S110).
중력에 의하여 이동부의 자세차가 발생될 수 있으며, 이러한 이동부의 자세차로 인하여 이동부(100)의 광학 중심의 위치가 변화될 수 있다.
예컨대, 이동부(100)의 광학 중심은 이동부(100)의 렌즈의 광학 중심일 수 있다.
이동부의 자세 정보에 따라 판단한 결과 이동부의 자세차의 존재 여부, 및 이동부의 자세차의 정도가 판단될 수 있다.
도 8은 도 7의 이동부의 광학 중심의 변화량을 획득하는 방법을 나타내고,도 9는 기준 위치에서의 이동부의 자세차 및 이동부의 광학 중심의 위치(CO)의 좌표값을 나타내고, 도 10은 이동부의 기설정된 자세 정보에 따른 이동부의 자세차, 및 이동부의 광학 중심의 위치(C1)의 좌표값을 나타낸다.
광학 중심(optical center, OC)의 변화량을 획득하기 위하여 기준 위치에서의 이동부의 광학 중심의 위치를 측정한다(S210).
예컨대, "기준 위치"는 자세차 없을 때의 이동부의 위치(또는 "제1 위치"라 한다)라 할 수 있다.
이동부의 자세차에 따른 이동부의 기울어짐 또는 처짐은 중력에 의하여 발생될 수 있으므로, 예컨대, 기준 위치는 중력 방향(301)을 기준으로 설정될 수 있다.
예컨대, 기준 위치는 기준축(201)이 중력 방향(301)과 수평 또는 평행이 되도록 위치할 때의 이동부의 위치일 수 있다. 예컨대, 기준축(201)은 이미지 센서(810)의 센서면(예컨대, 액티브 영역(AR) 또는 유효 영역)과 수직한 직선축일 수 있다.
또는 예컨대, 기준 위치는 기준축(201)이 이동부의 광축과 수평 또는 평행이 되도록 위치할 때의 이동부의 위치일 수 있다.
예컨대, 중력 방향(301)과 평행한 축을 Z축이라고 할 때, 기준 위치에서 Z축을 기준으로 기준축(201)의 틸트 각도(θz)는 0도, 또는 180도일 수 있다.
틸트 각도(θz)가 0도일 때는 도 8에 도시된 카메라 모듈의 위치와 같이 렌즈 또는 보빈이 상측 방향을 바라본다. 반면에, 틸트 각도(θz)가 180도일 때는 도 8의 카메라 모듈이 180도 회전하여 렌즈 또는 보빈이 하측 방향을 바라본다.
예컨대, 탄성 부재(150, 160) 및 지지 부재(220)에 의하여 이동부는 고정부에 대하여 지지될 수 있다.
이동부가 기준 위치에 있을 때에는 중력에 의하여 이동부, 예컨대, OIS 가동부가 Z축 방향으로만 영향을 받을 뿐이고, X축 또는 Y축 방향으로는 영향을 받지 않을 수 있다. 예컨대, 기준 위치에 있을 때에는 이동부의 광학 중심은 중력에 영향을 받지 않을 수 있으므로, 보정값은 0일 수 있다.
이동부의 광학 중심의 위치는 이미지 센서(810)의 액티브 영역(AR) 또는 유효 역영의 어느 특정 좌표값으로 표현될 수 있다.
기준 위치에서의 이동부의 광학 중심의 위치에 해당하는 이미지 센서(810)의 액티브 영역(AR)의 좌표값은 손떨림 제어부(510)에 저장될 수도 있다.
예컨대, 이동부의 광학 중심의 위치는 이동부의 렌즈를 통과한 빛이 이미지 센서(810)에 의하여 감지될 때, 이미지 센서(810)의 가장 밝은 픽셀의 좌표값으로 정의될 수 있다.
예컨대, 가장 밝은 픽셀은 렌즈를 통과한 빛을 감지한 이미지 센서의 유효 영역의 픽셀들 중에서 픽셀 값이 가장 큰 것일 수 있다. 여기서 픽셀 값은 이미지 센서의 픽셀에 저장된 전압값일 수 있다.
예컨대, 이동부의 자세차는 이동부의 "자세 정보"로 표현될 수 있다.
이동부의 자세 정보는 기준 위치에서의 기준축(201)을 기준으로 이동부의 기설정된 자세차 위치에서의 기준축(201)의 틸트 각도(θz)일 수 있다. 예컨대, 기설정된 자세차 위치는 기설정된 자세차를 갖는 이동부의 위치일 수 있다.
예컨대, 이동부의 자세 정보는 기준 위치에서의 이동부의 자세와 기설정된 자세차를 갖는 이동부의 위치에서의 이동부의 자세의 차이를 의미할 수 있다.
예컨대, 기준 위치에서의 이동부의 광학 중심의 위치(CO)는 제1 좌표값(X0, Y0)을 가질 수 있다.
다음으로 기설정된 자세차를 갖는 이동부의 위치에서의 이동부의 광학 중심의 위치를 측정한다(S220).
도 10을 참조하면, 기설정된 자세차가 90도일 때(θz=90도), 이동부의 탄성 부재(150, 160) 및 지지 부재(220)는 중력의 영향을 받게 되고, 중력에 의하여 도 9에 도시된 바와 같이 탄성 부재(150, 160)와 지지 부재(220)가 변형될 수 있고, 이동부가 기울어질 수 있다.
예컨대, 기설정된 자세차가 90도일 때(θz=90), 중력에 의하여 이동부와 결합되는 지지 부재(220)의 일단이 아래로 쳐지도록 지지 부재(220)가 휘어질 수 있고, 이로 인하여 이동부의 기울어짐 또는 처짐이 발생될 수 있고, 이동부의 광학 중심의 위치가 변경 또는 이동될 수 있다.
예컨대, 지지 부재(220)의 일단(72)은 상부 탄성 부재(150)와 결합되는 부분일 수 있고, 지지 부재(220)의 타단(71)은 회로 기판(250) 또는 베이스(210)와 결합될 수 있다.
예컨대, 자세차가 없는 기준 위치(θz=0도)에서의 지지 부재(220)를 기준으로, 기설정된 자세차 위치(예컨대, θz=90도)에서의 지지 부재(220)의 휘어진 정도를 이동부의 기울어짐량 또는 처짐량이라고 할 수 있다. 이때 이동부의 기울어짐량 또는 처짐량은 이동부의 자세차(θz)에 따라 결정될 수 있으며, 보정값은 이동부의 처짐량에 기초하여 생성될 수 있다.
도 9에 도시된 바와 같이, 이동부의 기설정된 자세차가 90도일 때(θz=90도), 이동부의 광학 중심의 위치(C1)는 제2 좌표값(X1, Y1)을 가질 수 있다.
기준 위치에서의 이동부의 광학 중심의 위치를 "제1 위치"라 할 수 있고, 기설정된 자세차 위치에서의 이동부의 광학 중심의 위치를 "제2 위치"라 할 수 있다.
다음으로 제1 위치와 제2 위치 간의 이동부의 광학 중심의 위치의 변화량을 산출한다(S230).
예컨대, 이동부의 광학 중심의 위치의 변화량은 제2 위치에서의 제2 좌표값(X1, Y1)과 제1 위치에서의 제1 좌표값(X0, Y0)의 차이일 수 있다.
예컨대, X축 방향으로의 위치 변화량(dX)은 제2 위치에서의 X축 좌표값(X1)과 제1 위치에서의 X축 좌표값(X0)의 차이(X1-X0)일 수 있다. 또한 Y축 방향으로의 위치 변화량(dY)은 제2 위치에서의 Y축 좌표값(Y1)과 제1 위치에서의 Y축 좌표값(Y0)의 차이(Y1-Y0)일 수 있다.
다음으로 렌즈 이동부(100)의 광학 중심의 위치의 변화량을 이용하여 이동부의 보정값을 획득한다(S120).
예컨대, 보정값은 제1 좌표값과 제2 좌표값에 기초하여 생성 또는 산출될 수 있다.
예컨대, 다른 실시 예에서는 보정값은 X축 방향으로의 위치 변화량(dX), 및 Y축 방향으로의 위치 변화량(dY)에 기초하여 생성 또는 산출될 수 있다.
예컨대, 또 다른 실시 예에서는 보정값은 이동부의 광학 중심의 위치의 변화량에 대응하는 이동부의 기울어짐량 또는 처짐량에 기초하여 생성 또는 산출될 수 있다.
도 11은 이동부의 보정값을 획득하기 위한 방법의 일 실시 예를 나타내며, 도 12는 도 11에 따라 이동부의 광학 중심의 위치의 기본 변화량 측정을 설명하기 위한 도면이다
도 11 및 도 12를 참조하면, 먼저 기설정된 자세차 위치(기설정된 자세 정보)에서 중력 방향으로 이동부의 자세를 기준 각도만큼 틸트시킬 때, 이동부의 광학 중심의 위치의 변화량(이하 "기본 변화량"이라 한다)을 측정한다(S310).
예컨대, 기설정된 자세차 위치(기설정된 자세 정보)에서 렌즈 이동부(100)의 지지 부재(220)를 중력 방향으로 기준 각도만큼 틸트시킬 때, 이동부의 광학 중심의 위치의 기본 변화량을 측정할 수 있다.
예컨대, 기설정된 자세차는 90도일 수 있으며(θz=90도), 이에 한정되는 것은 아니며, 다른 실시 예에서 기설정된 자세차는 0도보다 크고 180도보다 작게 설정될 수 있다. 예컨대, 기설정된 자세차는 도 6a 내지 도 6c에서 설명한 자세 정보(θz)를 포함할 수 있다.
예컨대, 기준 각도는 1도일 수 있으나, 이에 한정되는 것은 아니다. 기준 각도는 이동부의 기울어짐량(또는 처짐량) 및 보정값을 용이하게 산출하기 위하여 설정될 수 있으며, 1보다 크거나 또는 1보다 작게 설정될 수도 있다.
도 12를 참조하면, 예컨대, θz=90도일 때, 렌즈 이동부(100)의 지지 부재(220)가 A1 위치일 때 이동부의 광학 중심의 위치의 좌표값은 P1(PX1, PY1)일 수 있고, 렌즈 이동부(100)의 지지 부재(200)가 A2 위치일 때의 이동부의 광학 중심의 위치의 좌표값은 P2(PX2, PY2)일 수 있다.
예컨대, A1 위치에서의 지지 부재(220)와 A2 위치에서의 지지 부재(220) 사이의 틸트 각도(dθ)는 기준 각도(예컨대, 1도)일 수 있다.
기본 변화량은 좌표값(P2)과 좌표값(P1) 간의 차이일 수 있다.
기본 변화량은 X축 방향의 변화량(dPx=PX2-PX1)과 Y축 방향의 변화량(dPy=PY2-PY1)을 포함할 수 있다.
다음으로 S230 단계에서의 이동부의 광학 중심의 위치의 변화량과 S310 단계에서의 기본 변화량에 기초하여, 이동부의 보정값을 산출한다(S320).
예컨대, S310 단계의 기본 변화량에 기초하여, S230 단계에서의 기설정된 자세차 위치에서의 이동부의 광학 중심의 위치의 변화량을 이동부의 기울어짐량 또는 처짐량(θk, 도 8 참조)으로 변환할 수 있다. 기울어짐량(또는 처짐량)은 기울어진 각도(또는 처짐 각도)로 표현될 수 있고, 보정값은 기울어진 각도(또는 처짐 각도(θk))로 표현되거나 또는 기울어진 각도(또는 처짐 각도(θk))를 포함할 수 있다.
예컨대, 이동부의 기울어진 각도(θk)는 기준 위치(θz=0)에서의 렌즈 이동부(100)의 지지 부재(220)를 기준으로 기설정된 자세차 위치(예컨대, θz=90도)에서의 렌즈 이동부(100)의 지지 부재(220)의 휘어진 또는 기울어진 각도일 수 있다. 예컨대, 처짐 각도(θk)는 지지 부재(220)의 일단(72)에 대한 기울어진 각도일 수 있다.
예컨대, 기울어진 각도(θk)는 기설정된 자세차 위치에서의 이동부의 광학 중심의 위치의 변화량과 기본 변화량 간의 비율에 기초하여 산출될 수 있다.
손떨림 제어부(510)의 룩업 테이블은 도 8 및 도 11에서 설명한 바와 같이 획득된 보정값(예컨대, 기울어진 각도(θk))을 저장할 수 있다(도 6a 참조).
또는 손떨림 제어부(510)의 룩업 테이블은 도 8에서 설명한 바와 같이 획득된 이동부의 광학 중심의 위치의 변화량을 저장할 수 있다(도 6b 참조).
또는 손떨림 제어부(510)의 룩업 테이블은 도 8 및 도 11에서 설명한 바와 같이 획득된 이동부의 광학 중심의 위치의 변화량, 및 이동부의 광학 중심의 기본 변화량을 저장할 수도 있다(도 6c 참조).
보정값 생성부(515)는 룩업 테이블(도 6a, 도 6b, 도 6c)을 이용하여, 보정값 생성부(515)에 의하여 획득된 이동부의 자세 정보(또는 자세차)에 대응하는 보정값을 생성할 수 있다.
예컨대, 보정값 생성부(515)는 룩업 테이블(도 6a, 도 6b, 도 6c)에 저장된 보정값 정보들 중에서 보정값 생성부(515)에 의하여 획득된 이동부의 자세 정보에 대응하는 어느 하나를 선택하여 추출할 수 있고, 추출된 보정값 정보를 타겟 위치 산출부(514)에 제공할 수 있다.
또한 이동부의 획득된 자세 정보(또는 자세차)에 대응하는 보정값 정보가 룩업 테이블(도 6a, 도 6b, 도 6c)에 저장되어 있지 않을 때에는, 보정값 생성부(515)는 룩업 테이블(도 6a, 도 6b, 도 6c)의 보정값 정보를 이용하여 근사 보정값을 산출할 수도 있다.
예컨대, 보정값 생성부(515)는 룩업 테이블을 이용하여 근사 보정값을 산출하기 위한 함수, 알고리즘, 또는 프로그램을 저장할 수 있다.
도 13은 손떨림 제어부(510)에 의하여 이동부의 자세차가 보정된 상태를 나타낸다.
도 13을 참조하면, 손떨림 제어부(510)는 보정값(GA)에 기초하여 이동부를 이동 또는/및 틸트시킴으로써, 이동부의 자세차 위치(예컨대, θz=90도)에서 이동부의 광학 중심의 위치가 기준 위치(예컨대, θz=90도)에서의 이동부의 광학 중심의 위치와 일치되도록 할 수 있다.
예컨대, 손떨림 제어부(510)는 보정값(GA)에 기초하여 이동부의 OIS 코일(230)에 제공되는 구동 신호를 제어하여 OIS 코일(230)과 마그네트(130) 간의 상호 작용에 의한 전자기력를 제어할 수 있고, 제어된 전자기력에 의하여 이동부의 자세차 위치에서의 중력에 기인하는 이동부의 기울어짐 또는 처짐을 보정할 수 있다.
도 5에서 설명한 바와 같이, 손떨림 보상을 하는 과정에서 보정값을 이용하여 중력에 기인한 렌즈 이동부의 처짐에 따른 렌즈 광학 중심의 틀어짐을 보상할 수 있다.
예컨대, 손떨림 제어부(510)는 보정값을 이용하여 손떨림 보상을 위한 타겟 위치 정보를 산출할 수 있고, 이로 인하여 중력에 의한 이동부의 기울어짐에 따른 이동부의 광학 중심이 틀어짐을 보상할 수 있다.
도 14는 다른 실시 예에 따른 손떨림 제어부(510A)를 나타낸다.
도 5와 동일한 도면 부호는 동일한 구성을 나타내고, 동일한 구성에 대해서는 설명을 간략하게 하거나 생략한다.
도 14를 참조하면, 손떨림 제어부(510A)는 위치 검출부(512), 보정값 생성부(515), 타겟 위치 산출부(514A), 구동 신호 생성부(516), 및 구동부(518)를 포함할 수 있다.
다른 실시 예에서는 손떨림 제어부(510)는 보정값 생성부(515)에 의하여 획득된 보정값(GA)에 기초하여 중력에 기인한 이동부(100)의 기울어짐을 먼저 보정한다.
예컨대, 구동 신호 생성부(516)는 보정값(GA)을 이용하여 구동부(518)를 제어하기 위한 제1 제어 신호를 생성할 수 있고, 구동부(518)는 제1 제어 신호에 의하여 렌즈 이동부(100)의 OIS 코일(230)과 마그네트(130) 간의 전자기력을 제어할 수 있고, 이로 인하여 중력에 기인한 이동부의 기울어짐을 보정할 수 있다.
그 다음으로 중력에 기인하는 기울어짐이 보정된 상태에서, 타겟 위치 산출부(514A)는 사용자 등에 의한 손떨림을 보정하기 위하여 모션 센서(820)로부터 제공되는 카메라 모듈(200)(또는 광학 기기)의 위치 정보(GI)를 이용하여 손떨림 보정을 위한 타겟 위치 정보(TG1)를 산출할 수 있다.
그리고 구동 신호 생성부(516)는 이렇게 산출된 타겟 위치 정보(TG1)와 위치 검출부(512)로부터 제공되는 이동부의 위치 정보(PG)를 이용하여, 구동 제어 신호(DG)를 생성할 수 있다. 그리고 구동부(518)는 구동 제어 신호(DG)에 기초하여 렌즈 이동부(100)의 OIS 코일(230)과 마그네트(130) 간의 전자기력을 제어하여 이동부의 X축 방향의 이동 및/또는 Y축 방향의 이동을 제어할 수 있고, 이로 인하여 손떨림 보정이 수행될 수 있다.
카메라 모듈(200)(또는 광학 기기)의 움직임에 따른 이동부의 자세차가 발생하더라도(예컨대, θz=90도), 실시 예는 손떨림 제어부(510)에 의하여 중력에 기인하는 이동부의 기울어짐을 보정할 수 있고, 이로 인하여 손떨림 보정시 중력에 의하여 이동부의 광학 중심이 틀어져서 카메라 모듈(또는 광학 기기)의 광학 특성, 예컨대 해상력이 저하되는 것을 방지할 수 있다.
또한 OIS 기능을 갖는 렌즈 이동부와 OIS 기능이 없는 렌즈 이동부를 포함하는 듀얼 이상의 카메라 모듈에서, 렌즈 이동부의 자세차가 발생될 때 OIS 기능을 갖는 렌즈 이동부에 대해서만 중력에 의한 이동부의 기울어짐이 발생될 수 있고, 이로 인하여 OIS 기능을 갖는 렌즈 이동부와 OIS 기능이 없는 렌즈 이동부 간의 틸트가 증가될 수 있고, 보케(bokeh) 제어가 가능한 듀얼 카메라 성능 저하가 클 수 있다.
그러나 실시 예에 따른 카메라 모듈은 OIS 렌즈 이동부의 자세차에 따른 기울어짐의 보정이 가능하기 때문에, OIS 기능을 갖는 렌즈 이동부와 OIS 기능이 없는 렌즈 이동부 간의 상대적인 틸트가 개선될 수 있고, 이로 인하여 보케(bokeh) 제어 성능이 개선될 수 있다.
도 6a 내지 도 6c에서 설명한 바와 같이, 룩업 테이블에 저장되는 보정값 정보는 이동부의 보정값, 이동부의 광학 중심의 변화량, 또는/및 기본 변화량일 수 있으나, 이에 한정되는 것은 아니다.
다른 실시 예에서는 룩업 테이블에는 기본 변화량 및 기준 위치에서의 이동부의 광학 중심의 위치(예컨대, 제1 좌표값)을 저장할 수 있다. 그리고 손떨림 제어부는 모션 센서(820)로부터 제공되는 센싱 정보를 이용하여 이동부의 자세 정보를 획득할 수 있다.
그리고 손떨림 제어부는 획득된 이동부의 자세 정보(자세차)에서의 이동부의 광학 중심의 위치를 실시간으로 획득하고, 획득된 이동부의 광학 중심의 위치의 좌표값을 메모리에 저장한다. 이동부의 광학 중심의 위치를 실시간으로 획득하는 방법은 도 10에서 설명한 제2 좌표값을 획득하는 방법이 적용 또는 유추 적용될 수 있다.
다음으로 손떨림 제어부는 룩업 테이블에 저장된 기준 위치에서의 이동부의 광학 중심의 위치(예컨대, 제1 좌표값)과 기본 변화량, 및 메모리에 저장된 이동부의 광학 중심의 위치(예컨대, 제2 좌표값)을 이용하여 보정값을 획득할 수 있다.
예컨대, 제1 좌표값과 제2 좌표값을 이용하여 이동부의 광학 중심의 변화량을 회득할 수 있고, 이동부의 광학 중심의 변화량과 기본 변화량을 이용하여 보정값을 획득할 수 있다. 보정값 산출 방법은 도 8 및 도 11에서 설명한 방법이 적용 또는 유추 적용될 수 있다.
또한 실시 예에 따른 카메라 모듈(200)은 빛의 특성인 반사, 굴절, 흡수, 간섭, 회절 등을 이용하여 공간에 있는 물체의 상을 형성시키고, 눈의 시각력 증대를 목표로 하거나, 렌즈에 의한 상의 기록과 그 재현을 목적으로 하거나, 광학적인 측정, 상의 전파나 전송 등을 목적으로 하는 광학 기기(opticla instrument)에 포함될 수 있다. 예컨대, 실시 예에 따른 광학 기기는 핸드폰, 휴대폰, 스마트폰(smart phone), 휴대용 스마트 기기, 디지털 카메라, 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등일 수 있으나, 이에 제한되는 것은 아니며 영상 또는 사진을 촬영하기 위한 어떠한 장치도 가능하다.
도 15는 실시 예에 따른 휴대용 단말기(200A)의 사시도를 나타내고, 도 16은 도 15에 도시된 휴대용 단말기의 구성도를 나타낸다.
도 15 및 도 16을 참조하면, 휴대용 단말기(200A, 이하 "단말기"라 한다.)는 몸체(850), 무선 통신부(710), A/V 입력부(720), 센싱부(740), 입/출력부(750), 메모리부(760), 인터페이스부(770), 제어부(780), 및 전원 공급부(790)를 포함할 수 있다.
몸체(850)는 바(bar) 형태일 수 있으나, 이에 한정되지 않고, 2개 이상의 서브 몸체(sub-body)들이 상대 이동 가능하게 결합하는 슬라이드 타입, 폴더 타입, 스윙(swing) 타입, 스위블(swirl) 타입 등 다양한 구조일 수 있다.
몸체(850)는 외관을 이루는 케이스(케이싱, 하우징, 커버 등)를 포함할 수 있다. 예컨대, 몸체(850)는 프론트(front) 케이스(851)와 리어(rear) 케이스(852)로 구분될 수 있다. 프론트 케이스(851)와 리어 케이스(852)의 사이에 형성된 공간에는 단말기의 각종 전자 부품들이 내장될 수 있다.
무선 통신부(710)는 단말기(200A)와 무선 통신시스템 사이 또는 단말기(200A)와 단말기(200A)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함하여 구성될 수 있다.
예를 들어, 무선 통신부(710)는 방송 수신 모듈(711), 이동통신 모듈(712), 무선 인터넷 모듈(713), 근거리 통신 모듈(714) 및 위치 정보 모듈(715)을 포함하여 구성될 수 있다.
A/V(Audio/Video) 입력부(720)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 카메라(721) 및 마이크(722) 등을 포함할 수 있다.
카메라(721)는 실시 예에 따른 카메라 모듈(200)을 포함할 수 있다.
센싱부(740)는 단말기(200A)의 개폐 상태, 단말기(200A)의 위치, 사용자 접촉 유무, 단말기(200A)의 방위, 단말기(200A)의 가속/감속 등과 같이 단말기(200A)의 현 상태를 감지하여 단말기(200A)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다. 예를 들어, 단말기(200A)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(790)의 전원 공급 여부, 인터페이스부(770)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당한다.
또한 센싱부(740)는 휴대용 단말기(200A)의 움직임에 의한 회전 각속도 정보 및 가속도 정보를 출력하는 모션 센서를 포함할 수 있으며, 모션 센서는 3축 자이로 센서(Gyro Sensor), 각속도 센서, 또는/및 가속도 센서를 포함할 수 있다.
입/출력부(750)는 시각, 청각 또는 촉각 등과 관련된 입력 또는 출력을 발생시키기 위한 것이다. 입/출력부(750)는 단말기(200A)의 동작 제어를 위한 입력 데이터를 발생시킬 수 있으며, 또한 단말기(200A)에서 처리되는 정보를 표시할 수 있다.
입/출력부(750)는 키 패드부(730), 디스플레이 모듈(751), 음향 출력 모듈(752), 및 터치 스크린 패널(753)을 포함할 수 있다. 키 패드부(730)는 키 패드 입력에 의하여 입력 데이터를 발생시킬 수 있다.
디스플레이 모듈(751)은 전기적 신호에 따라 색이 변화하는 복수 개의 픽셀들을 포함할 수 있다. 예컨대, 디스플레이 모듈(751)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
음향 출력 모듈(752)은 호(call) 신호 수신, 통화 모드, 녹음 모드, 음성 인식 모드, 또는 방송 수신 모드 등에서 무선 통신부(710)로부터 수신되는 오디오 데이터를 출력하거나, 메모리부(760)에 저장된 오디오 데이터를 출력할 수 있다.
터치 스크린 패널(753)은 터치 스크린의 특정 영역에 대한 사용자의 터치에 기인하여 발생하는 정전 용량의 변화를 전기적인 입력 신호로 변환할 수 있다.
메모리부(760)는 제어부(780)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 전화번호부, 메시지, 오디오, 정지영상, 사진, 동영상 등)을 임시 저장할 수 있다. 예컨대, 메모리부(760)는 카메라(721)에 의해 촬영된 이미지, 예컨대, 사진 또는 동영상을 저장할 수 있다.
인터페이스부(770)는 단말기(200A)에 연결되는 외부 기기와의 연결되는 통로 역할을 한다. 인터페이스부(770)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 단말기(200A) 내부의 각 구성 요소에 전달하거나, 단말기(200A) 내부의 데이터가 외부 기기로 전송되도록 한다. 예컨대, 인터페이스부(770)는 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 및 이어폰 포트 등을 포함할 수 있다.
제어부(controller, 780)는 단말기(200A)의 전반적인 동작을 제어할 수 있다. 예를 들어 제어부(780)는 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행할 수 있다.
제어부(780)는 멀티 미디어 재생을 위한 멀티미디어 모듈(781)을 구비할 수 있다. 멀티미디어 모듈(781)은 제어부(180) 내에 구현될 수도 있고, 제어부(780)와 별도로 구현될 수도 있다.
제어부(780)는 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(790)는 제어부(780)의 제어에 의해 외부의 전원, 또는 내부의 전원을 인가받아 각 구성 요소들의 동작에 필요한 전원을 공급할 수 있다.
이상에서 실시 예들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 예에 포함되며, 반드시 하나의 실시 예에만 한정되는 것은 아니다. 나아가, 각 실시 예에서 예시된 특징, 구조, 효과 등은 실시 예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
실시 예는 손떨림 보정시 중력에 의하여 렌즈 이동부의 광학 중심이 틀어져서 해상력이 저하되는 것을 방지할 수 있고, 손떨림 보정의 정확도를 향상시킬 수 있는 카메라 모듈 및 광학 기기에 사용될 수 있다.

Claims (10)

  1. 이미지 센서;
    렌즈를 포함하고 상기 이미지 센서 상에 배치되는 이동부;
    고정부;
    상기 고정부와 상기 이동부를 연결하는 탄성 부재;
    중력에 의해 상기 이동부가 기울어졌을 때, 상기 이동부의 기울어짐량을 보정하기 위한 보정값을 획득하고, 상기 보정값을 이용하여 상기 이동부의 이동을 제어하는 제어부를 포함하는 카메라 모듈.
  2. 제1항에 있어서,
    모션 센서를 포함하고,
    상기 제어부는,
    상기 모션 센서의 센싱 정보를 이용하여 상기 이동부의 자세 정보를 획득하는 카메라 모듈.
  3. 제2항에 있어서,
    상기 이동부의 상기 자세 정보는 기준 위치에서의 기준축을 기준으로 상기 이동부의 현재 위치에서의 상기 기준축의 틸트 각도를 포함하고,
    상기 기준 위치는 상기 이미지 센서의 센서면과 수직한 상기 기준축이 상기 중력 방향과 평행하게 되는 위치인 카메라 모듈.
  4. 제1항에 있어서,
    상기 이동부의 상기 자세 정보에 따른 상기 이동부의 보정값 정보가 저장된 메모리를 포함하고,
    상기 제어부는,
    상기 이동부의 상기 자세 정보를 이용하여 상기 보정값을 획득하고, 상기 이동부의 상기 기울어짐량을 보정하는 카메라 모듈.
  5. 제4항에 있어서,
    상기 메모리에 저장된 상기 이동부의 상기 보정값 정보는 상기 이동부의 상기 기울어짐량 및 상기 이동부의 광학 중심의 위치의 변화량 중 적어도 하나를 포함하는 카메라 모듈.
  6. 제1항에 있어서,
    상기 제어부는,
    손떨림 보정을 위해 상기 이동부를 광축과 수직한 방향으로 이동시키도록 상기 이동부를 제어하는 카메라 모듈.
  7. 제6항에 있어서,
    상기 손떨림 보정시 상기 보정값을 반영하여 손떨림을 보정하는 카메라 모듈,
  8. 제6항에 있어서,
    상기 제어부는 상기 이동부의 상기 기울어짐량을 보정하고, 상기 손떨림을 보정하는 카메라 모듈.
  9. 제6항에 있어서,
    상기 제어부는 상기 손떨림 보정을 위하여 상기 보정값을 반영하여 상기 이동부의 타겟 위치 정보를 산출하고, 상기 이동부의 현재 위치 정보를 획득하고,
    상기 타겟 위치 정보와 상기 이동부의 상기 현재 위치 정보에 기초하여 손떨림 보정을 위한 오차 정보를 획득하고, 상기 오차 정보에 기초하여 상기 이동부를 상기 광축과 수직한 방향으로 이동시키도록 제어하는 카메라 모듈.
  10. 제1항에 있어서,
    상기 제어부는,
    상기 카메라 모듈의 가속도 정보를 수신하고, 수신된 상기 카메라 모듈의 상기 가속도 정보를 이용하여 상기 이동부의 상기 자세 정보를 획득하는 카메라 모듈.
PCT/KR2020/004546 2019-04-17 2020-04-03 카메라 모듈 및 광학 기기 WO2020213862A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/602,454 US20220217278A1 (en) 2019-04-17 2020-04-03 Camera module and optical device
CN202080029530.2A CN113711581B (zh) 2019-04-17 2020-04-03 相机模块及光学装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190044716A KR20200122013A (ko) 2019-04-17 2019-04-17 카메라 모듈 및 광학 기기
KR10-2019-0044716 2019-04-17

Publications (1)

Publication Number Publication Date
WO2020213862A1 true WO2020213862A1 (ko) 2020-10-22

Family

ID=72838150

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/004546 WO2020213862A1 (ko) 2019-04-17 2020-04-03 카메라 모듈 및 광학 기기

Country Status (4)

Country Link
US (1) US20220217278A1 (ko)
KR (1) KR20200122013A (ko)
CN (1) CN113711581B (ko)
WO (1) WO2020213862A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022161092A1 (zh) * 2021-01-28 2022-08-04 华为技术有限公司 一种云台模组、摄像头模组和电子设备

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220311914A1 (en) * 2019-07-01 2022-09-29 Lg Innotek Co., Ltd. Lens driving apparatus, and camera module and optical device comprising same
WO2023008804A1 (ko) * 2021-07-26 2023-02-02 엘지이노텍 주식회사 카메라 장치 및 광학기기
CN114745490A (zh) * 2022-02-24 2022-07-12 Oppo广东移动通信有限公司 摄像头组件、电子设备、光学防抖方法及存储介质
WO2024071902A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 카메라 모듈을 포함하는 전자 장치 및 그 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160212332A1 (en) * 2015-01-16 2016-07-21 Mems Drive, Inc. Three-axis ois for super-resolution imaging
US20160227120A1 (en) * 2015-02-04 2016-08-04 Samsung Electro-Mechanics Co., Ltd. Optical image stabilizer for a camera module and method of calibrating gain thereof
KR20160093299A (ko) * 2015-01-29 2016-08-08 엘지이노텍 주식회사 모바일 장치
US20170082866A1 (en) * 2012-09-19 2017-03-23 Lg Innotek Co., Ltd. Camera module
KR20170050912A (ko) * 2015-11-02 2017-05-11 삼성전자주식회사 전자 장치 및 전자 장치의 손떨림 보정 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033879A (ja) * 2005-07-27 2007-02-08 Sony Corp 撮像レンズ装置及び撮像装置
KR101051509B1 (ko) * 2010-06-28 2011-07-22 삼성전기주식회사 카메라의 광량 제어 장치 및 방법
JP5720556B2 (ja) * 2011-12-14 2015-05-20 株式会社Jvcケンウッド 撮像装置及び画像ぶれ補正方法
JP6004785B2 (ja) * 2012-06-29 2016-10-12 キヤノン株式会社 撮像装置、光学機器、撮像システムおよび制御方法
US9232138B1 (en) * 2013-06-03 2016-01-05 Amazon Technologies, Inc. Image stabilization techniques
KR101642569B1 (ko) * 2014-04-18 2016-07-26 삼성전기주식회사 디지털 촬영시스템 및 그 제어방법
KR102296305B1 (ko) * 2014-06-11 2021-09-01 엘지이노텍 주식회사 렌즈 구동장치 및 이를 구비한 카메라 모듈
KR101657283B1 (ko) * 2015-06-15 2016-09-19 (주)엠씨넥스 광학식 손떨림 보정장치
JP6562773B2 (ja) * 2015-08-26 2019-08-21 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2018106051A (ja) * 2016-12-27 2018-07-05 ルネサスエレクトロニクス株式会社 カメラコントローラ、および補正レンズのキャリブレーション方法
KR102457618B1 (ko) * 2017-12-11 2022-10-21 한화테크윈 주식회사 틸트-각도 유지 방법, 틸팅 제어 방법, 및 감시 카메라
US11223767B1 (en) * 2020-12-16 2022-01-11 Semiconductor Components Industries, Llc Methods and apparatus for optical image stabilization

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170082866A1 (en) * 2012-09-19 2017-03-23 Lg Innotek Co., Ltd. Camera module
US20160212332A1 (en) * 2015-01-16 2016-07-21 Mems Drive, Inc. Three-axis ois for super-resolution imaging
KR20160093299A (ko) * 2015-01-29 2016-08-08 엘지이노텍 주식회사 모바일 장치
US20160227120A1 (en) * 2015-02-04 2016-08-04 Samsung Electro-Mechanics Co., Ltd. Optical image stabilizer for a camera module and method of calibrating gain thereof
KR20170050912A (ko) * 2015-11-02 2017-05-11 삼성전자주식회사 전자 장치 및 전자 장치의 손떨림 보정 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022161092A1 (zh) * 2021-01-28 2022-08-04 华为技术有限公司 一种云台模组、摄像头模组和电子设备

Also Published As

Publication number Publication date
US20220217278A1 (en) 2022-07-07
CN113711581B (zh) 2024-01-23
KR20200122013A (ko) 2020-10-27
CN113711581A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
WO2020213862A1 (ko) 카메라 모듈 및 광학 기기
WO2017160094A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2018016790A1 (ko) 렌즈 구동 장치, 이를 포함하는 카메라 모듈 및 광학 기기
WO2017078328A1 (ko) 렌즈 구동 장치 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2017090940A1 (ko) 렌즈 구동 장치 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2017196047A1 (ko) 렌즈 구동 장치, 카메라 모듈 및 광학기기
WO2017135649A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2017022995A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2020262876A1 (ko) 카메라 모듈 및 이를 포함하는 광학 기기
WO2020213994A1 (ko) 카메라 모듈
WO2017179845A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2020096423A1 (ko) 프리즘 장치, 이를 구비하는 카메라
WO2017155296A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2022203412A1 (ko) 액추에이터 장치
WO2019177390A1 (ko) 렌즈 구동 장치 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2018186673A1 (ko) 렌즈 구동 장치 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2019182308A1 (ko) 카메라 모듈 및 이를 포함하는 광학 기기
WO2021101123A1 (ko) 카메라 모듈 및 광학 기기
WO2020111577A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈 및 광학 기기
WO2022139556A1 (ko) 센서 구동 장치
WO2022124837A1 (ko) 카메라 장치
WO2021071277A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2021225362A1 (ko) 카메라 장치
WO2020197349A1 (ko) 카메라 모듈
WO2020197178A1 (ko) 렌즈 구동 장치, 및 이를 포함하는 카메라 모듈과 광학 기기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20791958

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20791958

Country of ref document: EP

Kind code of ref document: A1