WO2021225358A1 - 카메라 엑추에이터 및 이를 포함하는 카메라 장치 - Google Patents

카메라 엑추에이터 및 이를 포함하는 카메라 장치 Download PDF

Info

Publication number
WO2021225358A1
WO2021225358A1 PCT/KR2021/005613 KR2021005613W WO2021225358A1 WO 2021225358 A1 WO2021225358 A1 WO 2021225358A1 KR 2021005613 W KR2021005613 W KR 2021005613W WO 2021225358 A1 WO2021225358 A1 WO 2021225358A1
Authority
WO
WIPO (PCT)
Prior art keywords
mover
axis direction
image
lens
unit
Prior art date
Application number
PCT/KR2021/005613
Other languages
English (en)
French (fr)
Inventor
이성국
권재욱
오준석
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to EP21800688.0A priority Critical patent/EP4149107A4/en
Priority to JP2022567620A priority patent/JP2023525073A/ja
Priority to US17/923,870 priority patent/US20230168565A1/en
Priority to CN202180040905.XA priority patent/CN115702573A/zh
Publication of WO2021225358A1 publication Critical patent/WO2021225358A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B5/02Lateral adjustment of lens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/686Vibration or motion blur correction performed by mechanical compensation with a variable apex prism
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • G03B2205/0015Movement of one or more optical elements for control of motion blur by displacing one or more optical elements normal to the optical axis
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0007Movement of one or more optical elements for control of motion blur
    • G03B2205/0023Movement of one or more optical elements for control of motion blur by tilting or inclining one or more optical elements with respect to the optical axis
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Definitions

  • the present invention relates to a camera actuator and a camera device including the same.
  • a camera is a device that takes a picture or video of a subject, and is mounted on a portable device, a drone, a vehicle, or the like.
  • the camera device has an image stabilization (IS) function that corrects or prevents image shake caused by user movement in order to improve image quality, and automatically adjusts the distance between the image sensor and the lens to align the focal length of the lens. It may have a zooming function of increasing or decreasing the magnification of a distant subject through an auto-focusing (AF) function and a zoom lens.
  • IS image stabilization
  • AF auto-focusing
  • the resolution of the image sensor increases as the pixel becomes higher and the size of the pixel becomes smaller.
  • the amount of light received for the same time decreases. Therefore, the higher the pixel camera, the more severe the image shake caused by hand shake that occurs when the shutter speed is slowed in a dark environment.
  • ISO image stabilization
  • OIS optical image stabilizer
  • the movement of the camera is detected through a gyrosensor, etc., and the lens is tilted or moved based on the detected movement, or the camera module including the lens and the image sensor can be tilted or moved.
  • the lens or a camera module including a lens and an image sensor is tilted or moved for OIS, it is necessary to additionally secure a space for tilting or moving around the lens or camera module.
  • an actuator for OIS may be disposed around the lens.
  • the actuator for the OIS may include two axes perpendicular to the Z, that is, the optical axis direction, that is, an actuator in charge of tilting the X-axis and an actuator in charge of tilting the Y-axis.
  • the technical problem to be solved by the present invention is to provide a camera actuator that corrects image information using position information of a mover.
  • the embodiment may provide a camera actuator that provides more accurate noise reduction by adjusting a change amount of a correction amount for position information according to a change in a focal length of a lens.
  • a camera actuator includes: a mover including an optical member for changing a path of incident light; a driving unit for moving the mover in a first direction or a second direction perpendicular to the optical axis direction; an output unit for outputting a control signal for moving the mover; a first position sensor for detecting position information in the second direction of the mover; an image sensor for generating image information by receiving the light passing through the optical member; and a calculator configured to calculate a rotation correction amount of the image information based on the optical axis direction with respect to the image information by using the position information in the second direction of the mover.
  • the incident light may be incident in the first direction from the mover and may be output in the optical axis direction.
  • the optical member may be disposed to have an inclination that is not perpendicular to the first direction and the optical axis direction.
  • the optical member may be disposed to be inclined with respect to a plane in any one of the first direction and the optical axis direction and the second direction.
  • the optical member may be perpendicular to a plane in the first direction and the optical axis direction.
  • the method may further include at least one lens moving in the optical axis direction, wherein the calculator adjusts a change amount of the rotation correction amount for the position information according to a change in a focal length of the at least one lens.
  • the change amount of the rotation correction amount may increase when the focal length of the at least one lens increases, and decrease when the focal length of the at least one lens decreases.
  • It may further include; a second position sensor for detecting the position information in the first direction of the mover.
  • the calculator may not reflect the position information in the first direction of the mover to the rotation correction amount.
  • a camera actuator includes: a mover including an optical member for changing a path of incident light; a driving unit for moving the mover in a first direction or a second direction perpendicular to the optical axis direction; an output unit for outputting a control signal for moving the mover; a second position sensor for detecting position information in the second direction of the mover; an image sensor for generating image information by receiving the light passing through the optical member; and a calculator configured to calculate a rotation correction amount for rotating the image sensor based on the optical axis direction by using the position information in the second direction of the mover.
  • a camera actuator that corrects image information using location information of a mover.
  • the embodiment may implement a camera actuator that provides more accurate noise reduction by adjusting a change amount of a correction amount for position information according to a change in a focal length of a lens.
  • the actuator for OIS can be efficiently disposed without increasing the overall size of the camera device.
  • tilting in the X-axis direction and tilting in the Y-axis direction do not cause magnetic field interference with each other, and tilting in the X-axis direction and tilting in the Y-axis direction can be implemented with a stable structure, and for AF or Even with the actuator for zooming, it does not cause magnetic field interference, so precise OIS function can be realized.
  • FIG. 1 is a perspective view of a camera module according to an embodiment
  • FIG. 2 is an exploded perspective view of a camera module according to an embodiment
  • FIG. 3 is a cross-sectional view taken along line AA' in FIG. 1,
  • FIG. 4 is an exploded perspective view of a first camera actuator according to an embodiment
  • FIG. 5 is a perspective view of a first camera actuator according to an embodiment in which a shield can and a substrate are removed;
  • FIG. 6 is a cross-sectional view taken along line BB' in FIG. 5;
  • FIG. 7 is a cross-sectional view taken along CC' in FIG. 5;
  • FIG. 8 is a perspective view of a second camera actuator according to the embodiment.
  • FIG. 9 is an exploded perspective view of a second camera actuator according to the embodiment.
  • FIG. 10 is a cross-sectional view taken along DD' in FIG. 8;
  • FIG. 11 is a cross-sectional view taken along line EE' in FIG. 8;
  • FIG. 12 is a block diagram showing the configuration of a camera module according to an embodiment
  • FIG. 13 is a block diagram of a control unit according to an embodiment
  • FIG. 14 is a perspective view of a mover in the first camera actuator according to the embodiment.
  • FIG. 15 is a cross-sectional view of a first camera actuator according to an embodiment
  • 16 is a view showing image information according to movement in a second direction of a mover in a first camera actuator according to an embodiment
  • FIG. 17 is a view for explaining the image information of FIG. 16,
  • FIG. 18 is a view showing image information according to movement in a first direction of a mover in a first camera actuator according to an embodiment
  • FIG. 19 is a view for explaining the image information of FIG. 18,
  • 20 and 21 are diagrams for explaining the operation of the control unit of the camera module according to the embodiment to adjust the rotation correction amount according to the second position information
  • 22 is a view for explaining driving of a control unit according to another embodiment
  • FIG. 23 is a flowchart of a driving method of a control unit according to an embodiment
  • FIG. 24 is a perspective view of a mobile terminal to which a camera module according to an embodiment is applied;
  • 25 is a perspective view of a vehicle to which a camera module according to an embodiment is applied.
  • Terms including an ordinal number such as second, first, etc. may be used to describe various elements, but the elements are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
  • FIG. 1 is a perspective view of a camera module according to an embodiment
  • FIG. 2 is an exploded perspective view of a camera module according to an embodiment
  • FIG. 3 is a cross-sectional view taken along line AA′ in FIG. 1 .
  • the camera module 1000 may include a cover CV, a first camera actuator 1100 , a second camera actuator 1200 , and a circuit board 1300 .
  • the first camera actuator 1100 may be used as a first actuator
  • the second camera actuator 1200 may be used as a second actuator.
  • the cover CV may cover the first camera actuator 1100 and the second camera actuator 1200 .
  • the coupling force between the first camera actuator 1100 and the second camera actuator 1200 may be improved by the cover CV.
  • the cover CV may be made of a material that blocks electromagnetic waves. Accordingly, the first camera actuator 1100 and the second camera actuator 1200 in the cover CV can be easily protected.
  • the first camera actuator 1100 may be an OP1tical Image Stabilizer (OIS) actuator.
  • OIS OP1tical Image Stabilizer
  • the first camera actuator 1100 may include a lens.
  • the first camera actuator 1100 may include fixed focal length les disposed on a predetermined barrel (not shown). Fixed focal length les may also be referred to as “single focal length lenses” or “single focal length lenses”.
  • the first camera actuator 1100 may change the path of the light.
  • the first camera actuator 1100 may vertically change the optical path through an optical member (eg, a mirror or a prism) therein.
  • an optical member eg, a mirror or a prism
  • the second camera actuator 1200 may be disposed at a rear end of the first camera actuator 1100 .
  • the second camera actuator 1200 may be coupled to the first camera actuator 1100 . And the mutual coupling may be made by various methods.
  • the second camera actuator 1200 may be a zoom actuator or an auto focus (AF) actuator.
  • the second camera actuator 1200 may support one or a plurality of lenses and may perform an auto-focusing function or a zoom function by moving the lenses according to a control signal of a predetermined control unit.
  • the circuit board 1300 may be disposed behind the second camera actuator 1200 .
  • the circuit board 1300 may be electrically connected to the second camera actuator 1200 and the first camera actuator 1100 . Also, there may be a plurality of circuit boards 1300 .
  • the camera module according to the embodiment may be formed of a single or a plurality of camera modules.
  • the plurality of camera modules may include a first camera module and a second camera module.
  • the first camera module may include a single or a plurality of actuators.
  • the first camera module may include a first camera actuator 1100 and a second camera actuator 1200 .
  • the second camera module is disposed in a predetermined housing (not shown) and may include an actuator (not shown) capable of driving the lens unit.
  • the actuator may be a voice coil motor, a micro actuator, a silicon actuator, etc., and may be applied in various ways such as an electrostatic method, a thermal method, a bimorph method, an electrostatic force method, and the like, but is not limited thereto.
  • the camera actuator may be referred to as an actuator or the like.
  • a camera module including a plurality of camera modules may be mounted in various electronic devices such as a mobile terminal.
  • the camera module may include a first camera actuator 1100 performing an OIS function and a second camera actuator 1200 performing a zooming function and an AF function.
  • Light may be incident into the camera module through the opening area located on the upper surface of the first camera actuator 1100 . That is, the light may be incident into the interior of the first camera actuator 1100 along the X-axis direction, and the optical path may be changed in the vertical direction (eg, the Z-axis direction) through the optical member.
  • the light may pass through the second camera actuator 1200 and be incident to the image sensor IS located at one end of the second camera actuator 1200 (PATH).
  • the optical axis direction may be the Z axis direction, which is the direction of light incident to the image sensor.
  • the optical axis may be a central axis of incident light, but hereinafter may correspond to a Z-axis direction in the drawing as a movement direction of light after being reflected through the optical member.
  • the bottom means one side in the first direction.
  • the first direction is the X-axis direction in the drawing, and may be used interchangeably with the second axis direction.
  • the second direction is the Y-axis direction in the drawing and may be used interchangeably with the first axis direction.
  • the second direction is a direction perpendicular to the first direction.
  • the third direction is the Z-axis direction in the drawing, and may be used interchangeably with the third axis direction. The direction is perpendicular to both the first direction and the second direction.
  • the third direction (Z-axis direction) corresponds to the direction of the optical axis
  • the first direction (X-axis direction) and the second direction (Y-axis direction) are directions perpendicular to the optical axis and to be tilted by the first camera actuator.
  • the optical axis direction is the third direction (Z axis direction) and will be described below based on this.
  • the camera module according to the embodiment may improve the spatial limitation of the first camera actuator and the second camera actuator by changing the path of light. That is, the camera module according to the embodiment may extend the optical path while minimizing the thickness of the camera module in response to the change in the path of the light. Furthermore, it should be understood that the second camera actuator may provide a high range of magnification by controlling a focus or the like in the extended optical path.
  • the camera module according to the embodiment can implement OIS through control of the optical path through the first camera actuator, thereby minimizing the occurrence of a decent or tilt phenomenon, and providing the best optical characteristics. can pay
  • the second camera actuator 1200 may include an optical system and a lens driver.
  • a lens driver for example, at least one of a first lens assembly, a second lens assembly, a third lens assembly, and a guide pin may be disposed.
  • the second camera actuator 1200 may include a coil and a magnet to perform a high-magnification zooming function.
  • the first lens assembly and the second lens assembly may be a moving lens that moves through a coil, a magnet, and a guide pin
  • the third lens assembly may be a fixed lens, but is not limited thereto.
  • the third lens assembly may function as a concentrator to image light at a specific position, and the first lens assembly may re-image an image formed by the third lens assembly, which is a concentrator, to another location. It can perform the function of a variable (variator).
  • the magnification change may be large because the distance to the subject or the image distance is changed a lot, and the first lens assembly as the variable magnification may play an important role in changing the focal length or magnification of the optical system.
  • the image formed in the first lens assembly which is a variable changer
  • the second lens assembly may perform a position compensation function for the image formed by the variable magnifier.
  • the second lens assembly may perform a compensator function that accurately forms an image formed by the first lens assembly, which is a variable changer, at an actual image sensor position.
  • the first lens assembly and the second lens assembly may be driven by electromagnetic force due to an interaction between a coil and a magnet. The above description may be applied to a lens assembly to be described later.
  • the actuator for OIS and the actuator for AF or zoom are disposed according to an embodiment of the present invention
  • magnetic field interference with the magnet for AF or zoom can be prevented when OIS is driven. Since the first driving magnet of the first camera actuator 1100 is disposed separately from the second camera actuator 1200, magnetic field interference between the first camera actuator 1100 and the second camera actuator 1200 can be prevented.
  • OIS may be used interchangeably with terms such as hand shake correction, optical image stabilization, optical image correction, and image stabilization.
  • FIG. 4 is an exploded perspective view of a second camera actuator according to an embodiment.
  • the first camera actuator 1100 includes a first shield can (not shown), a first housing 1120 , a mover 1130 , a rotating unit 1140 , and a first driving unit 1150 . ) is included.
  • the mover 1130 may include a holder 1131 and an optical member 1132 seated on the holder 1131 .
  • the mover 1130 may change the path of the incident light.
  • the rotating unit 1140 includes a rotating plate 1141 , a first magnetic body 1142 having a coupling force with the rotating plate 1141 , and a second magnetic body 1143 positioned in the rotating plate 1141 .
  • the first driving unit 1150 includes a driving magnet 1151 , a driving coil 1152 , a Hall sensor unit 1153 , and a first substrate unit 1154 .
  • the first shield can (not shown) may be positioned at the outermost side of the first camera actuator 1100 to surround the rotating part 1140 and the first driving part 1150 to be described later.
  • the first shield can (not shown) may block or reduce electromagnetic waves generated from the outside. Accordingly, the occurrence of a malfunction in the rotating unit 1140 or the first driving unit 1150 may be reduced.
  • the first housing 1120 may be located inside the first shield can (not shown). In addition, the first housing 1120 may be located inside the first substrate unit 1154 to be described later. The first housing 1120 may be coupled to or fitted to a first shield can (not shown).
  • the first housing 1120 may include a plurality of housing sides. a first housing side 1121 , a second housing side 1122 , a third housing side 1123 , and a fourth housing side 1124 .
  • the first housing side 1121 and the second housing side 1122 may be disposed to face each other. Also, the third housing side 1123 and the fourth housing side 1124 may be disposed between the first housing side 1121 and the second housing side 1122 .
  • the third housing side 1123 may abut the first housing side 1121 , the second housing side 1122 , and the fourth housing side 1124 .
  • the third housing side portion 1123 may include a bottom surface as a lower portion from the first housing 1120 .
  • first housing side 1121 may include a first housing hole 1121a.
  • a first coil 1152a to be described later may be positioned in the first housing hole 1121a.
  • the second housing side 1122 may include a second housing hole 1122a.
  • a second coil 1152b to be described later may be positioned in the second housing hole 1122a.
  • the first coil 1152a and the second coil 1152b may be coupled to the first substrate unit 1154 .
  • the first coil 1152a and the second coil 1152b may be electrically connected to the first substrate unit 1154 so that current may flow. This current is a component of the electromagnetic force that the second camera actuator can tilt with respect to the X-axis.
  • the third housing side portion 1123 may include a third housing hole 1123a.
  • a third coil 1152c to be described later may be positioned in the third housing hole 1123a.
  • the third coil 1152c may be coupled to the first substrate unit 1154 .
  • the third coil 1152c may be electrically connected to the first substrate unit 1154 so that a current may flow. This current is a component of electromagnetic force that allows the second camera actuator to tilt with respect to the Y-axis.
  • the fourth housing side 1124 may include a first housing groove 1124a.
  • a first magnetic body 1142 to be described later may be disposed in a region facing the first housing groove 1124a. Accordingly, the first housing 1120 may be coupled to the rotation plate 1141 by magnetic force or the like.
  • first housing groove 1124a may be located on the inner surface or the outer surface of the fourth housing side 1124 . Accordingly, the first magnetic body 1142 may also be disposed to correspond to the position of the first housing groove 1124a.
  • first housing 1120 may include a receiving portion 1125 formed by the first to fourth housing sides 1121 to 1224 .
  • a mover 1130 may be positioned in the receiving part 1125 .
  • the mover 1130 includes a holder 1131 and an optical member 1132 mounted on the holder 1131 .
  • the holder 1131 may be seated in the receiving part 1125 of the first housing 1120 .
  • the holder 1131 includes the first housing side 1121, the second housing side 1122, the third housing side 1123, and the first prism outer surface corresponding to the fourth housing side 1124 to the fourth prism, respectively. side may be included.
  • a seating groove in which the second magnetic body 1143 can be seated may be disposed on an outer surface of the fourth prism facing the fourth housing side 1124 .
  • the optical member 1132 may be seated on the holder 1131 .
  • the holder 1131 may have a seating surface, and the seating surface may be formed by a receiving groove.
  • the optical member 1132 may include a reflector disposed therein.
  • the optical member 1132 may reflect light reflected from the outside (eg, an object) into the camera module.
  • the optical member 1132 may improve the spatial limit of the first camera actuator and the second camera actuator by changing the path of the reflected light.
  • the camera module may extend the optical path while minimizing thickness to provide a high range of magnifications.
  • the optical member 1132 may include a prism or a mirror.
  • the rotating unit 1140 includes a rotating plate 1141 , a first magnetic body 1142 having a coupling force with the rotating plate 1141 , and a second magnetic body 1143 positioned in the rotating plate 1141 .
  • the rotation plate 1141 may be coupled to the above-described mover 1130 and the first housing 1120 .
  • the rotation plate 1141 may include an additional magnetic material (not shown) positioned therein.
  • the rotation plate 1141 may be disposed adjacent to the optical axis. Accordingly, the actuator according to the embodiment can easily change the optical path according to the first and second axis tilt to be described later.
  • the rotation plate 1141 may include a first protrusion spaced apart in a first direction (X-axis direction) and a second protrusion spaced apart in a second direction (Y-axis direction). Also, the first protrusion and the second protrusion may protrude in opposite directions. A detailed description thereof will be given later.
  • the first magnetic body 1142 may include a plurality of yokes, and the plurality of yokes may be positioned to face each other with respect to the rotation plate 1141 .
  • the first magnetic body 1142 may be formed of a plurality of yokes facing each other.
  • the rotation plate 1141 may be located between the plurality of yokes.
  • the first magnetic body 1142 may be located in the first housing 1120 as described above. Also, as described above, the first magnetic body 1142 may be seated on the inner surface or the outer surface of the fourth housing side 1124 . For example, the first magnetic body 1142 may be seated in a groove formed on the outer surface of the fourth housing side 1124 . Alternatively, the first magnetic body 1142 may be seated in the above-described first housing groove 1124a.
  • the second magnetic body 1143 may be located on the outer surface of the mover 1130 , particularly the holder 1131 .
  • the rotation plate 1141 can be easily coupled to the first housing 1120 and the mover 1130 by a coupling force between the second magnetic body 1143 and the first magnetic body 1142 inside.
  • the positions of the first magnetic body 1142 and the second magnetic body 1143 may be moved to each other.
  • an attractive force or a repulsive force may act between the first magnetic body 1142 and the second magnetic body 1143 .
  • the attractive force of the first magnetic body 1142 and the second magnetic body 1143 may press the rotation plate 1141 between the holder and the housing. Accordingly, the posture or position of the rotation plate 1141 may be maintained except for the X/Y tilt by the first driving unit 1150 .
  • the first driving unit 1150 includes a driving magnet 1151 , a driving coil 1152 , a Hall sensor unit 1153 , and a first substrate unit 1154 .
  • the driving magnet 1151 may include a plurality of magnets.
  • the driving magnet 1151 may include a first magnet 1151a , a second magnet 1151b , and a third magnet 1151c .
  • the first magnet 1151a , the second magnet 1151b , and the third magnet 1151c may be located on the outer surface of the holder 1131 , respectively.
  • the first magnet 1151a and the second magnet 1151b may be positioned to face each other.
  • the third magnet 1151c may be located on the bottom of the outer surface of the holder 1131 . A detailed description thereof will be given later.
  • the driving coil 1152 may include a plurality of coils.
  • the driving coil 1152 may include a first coil 1152a , a second coil 1152b , and a third coil 1152c .
  • the first coil 1152a may be positioned to face the first magnet 1151a. Accordingly, the first coil 1152a may be located in the first housing hole 1121a of the first housing side 1121 as described above.
  • the second coil 1152b may be positioned to face the second magnet 1151b. Accordingly, the second coil 1152b may be located in the second housing hole 1122a of the second housing side 1122 as described above.
  • the first coil 1152a may be positioned to face the second coil 1152b. That is, the first coil 1152a may be symmetrically positioned with the second coil 1152b in the first direction (X-axis direction). This may be equally applied to the first magnet 1151a and the second magnet 1151b. That is, the first magnet 1151a and the second magnet 1151b may be symmetrically positioned with respect to the first direction (X-axis direction).
  • the first coil 1152a , the second coil 1152b , the first magnet 1151a , and the second magnet 1151b may be disposed to overlap at least partially in the second direction (Y-axis direction). With this configuration, the X-axis tilting can be accurately performed without inclination to one side by the electromagnetic force between the first coil 1152a and the first magnet 1151a and the electromagnetic force between the second coil 1152b and the second magnet 1151b. .
  • the third coil 1152c may be positioned to face the third magnet 1151c. Accordingly, the third coil 1152c may be positioned in the third housing hole 1123a of the third housing side 1123 as described above.
  • the third coil 1152c may perform Y-axis tilting of the mover 1130 and the rotating unit 1140 with respect to the first housing 1120 by generating electromagnetic force with the third magnet 1151c.
  • X-axis tilting means tilting based on the X-axis
  • Y-axis tilting means tilting based on the Y-axis
  • the Hall sensor unit 1153 may include a plurality of Hall sensors.
  • the Hall sensor corresponds to and is used interchangeably with a 'position sensor' to be described later.
  • the hall sensor may be used in various terms such as a position sensing sensor, a position sensing unit, and a position sensing unit.
  • the Hall sensor unit 1153 may include a first Hall sensor 1153a, a second Hall sensor 1153b, and a third Hall sensor 1153c.
  • the first Hall sensor 1153a may be located inside the first coil 1153a.
  • the second Hall sensor 1153b may be symmetrically disposed with the first Hall sensor 1153a in the first direction (X-axis direction) and the third direction (Z-axis direction).
  • the second Hall sensor 1153b may be located inside the second coil 1152b.
  • the first Hall sensor 1153a may detect a change in magnetic flux inside the first coil 1153a.
  • the second Hall sensor 1153b may detect a change in magnetic flux in the second coil 1153b. Accordingly, position sensing between the first and second magnets 1151a and 1151b and the first and second Hall sensors 1153a and 1153b may be performed.
  • the first and second Hall sensors 1153a and 1153b may control the X-axis tilt through the second camera actuator according to the embodiment.
  • the third Hall sensor 1153c may be located inside the third coil 1153c.
  • the third Hall sensor 1153c may detect a change in magnetic flux inside the third coil 1153c. Accordingly, position sensing between the third magnet 1151c and the third Hall sensor 1153c may be performed.
  • the second camera actuator according to the embodiment may control the Y-axis tilt through this.
  • the first substrate unit 1154 may be located under the first driving unit 1150 .
  • the first substrate unit 1154 may be electrically connected to the driving coil 1152 and the Hall sensor unit 1153 .
  • the first substrate unit 1154 may be coupled to the driving coil 1152 and the Hall sensor unit 1153 by SMT. However, it is not limited to this method.
  • the first substrate unit 1154 may be positioned between the first shield can (not shown) and the first housing 1120 to be coupled to the shield can 1101 and the first housing 1120 .
  • the coupling method may be variously made as described above.
  • the driving coil 1152 and the Hall sensor unit 1153 may be located in the outer surface of the first housing 1120 through the coupling.
  • the first board unit 1154 includes a circuit board having a wiring pattern that can be electrically connected, such as a rigid printed circuit board (Rigid PCB), a flexible printed circuit board (Flexible PCB), and a rigid flexible printed circuit board (RigidFlexible PCB). can do. However, it is not limited to this type.
  • FIG. 5 is a perspective view of the first camera actuator according to the embodiment in which the shield can and the substrate are removed
  • FIG. 6 is a sectional view taken along line BB′ in FIG. 5
  • FIG. 7 is a cross-sectional view taken along line CC′ in FIG. 5 .
  • the first coil 1152a may be located on the first housing side 1121 .
  • first coil 1152a and the first magnet 1151a may be positioned to face each other.
  • the first magnet 1151a may at least partially overlap the first coil 1152a in the second direction (Y-axis direction).
  • the second coil 1152b and the second magnet 1151b may be positioned to face each other.
  • the second magnet 1151b may at least partially overlap the second coil 1152b in the second direction (Y-axis direction).
  • first coil 1152a and the second coil 1152b overlap in the second direction (Y-axis direction), and the first magnet 1151a and the second magnet 1151b are disposed in the second direction (Y-axis direction).
  • the electromagnetic force applied to the outer surface of the holder is located on the parallel axis in the second direction (Y-axis direction) so that the X-axis tilt is accurate and precise. can be performed.
  • first receiving groove (not shown) may be located on the outer surface of the fourth holder.
  • first protrusions PR1a and PR1b may be disposed in the first receiving groove. Accordingly, when performing X-axis tilt, the first protrusions PR1a and PR1b may be the reference axis (or rotation axis) of the tilt. Accordingly, the rotation plate 1141 and the mover 1130 may move left and right.
  • the second protrusion PR2 may be seated in the groove of the inner surface of the fourth housing side 1124 as described above.
  • the rotation plate and the mover may rotate with the second protrusion PR2 as the reference axis of the Y-axis tilt.
  • OIS may be performed by the first protrusion and the second protrusion.
  • the first protrusion and the second protrusion may be disposed on opposite surfaces with respect to the base. That is, the first protrusion may be disposed on any one of the first surface and the second surface of the base. And the second protrusion may be disposed on the other one of the first surface and the second surface of the base.
  • a Y-axis tilt may be performed. That is, the OIS may be implemented by rotating in the first direction (X-axis direction).
  • the third magnet 1151c disposed under the holder 1131 may form an electromagnetic force with the third coil 1152c to tilt or rotate the mover 1130 in the first direction (X-axis direction). have.
  • the rotation plate 1141 is to be coupled to the first housing 1120 and the mover 1130 by the first magnetic body 1142 in the first housing 1120 and the second magnetic body 1143 in the mover 1130 .
  • the first protrusions PR1 may be spaced apart from each other in the first direction (X-axis direction) and supported by the first housing 1120 .
  • the rotation plate 1141 may rotate or tilt the second protrusion PR2 protruding toward the mover 1130 about a reference axis (or rotation axis). That is, the rotation plate 1141 may perform Y-axis tilt with respect to the second protrusion PR2 as a reference axis.
  • the mover 1130 is moved along the X-axis by the first electromagnetic forces F1A and F1B between the third magnet 1151c disposed in the third seating groove and the third coil 1152c disposed on the side of the third substrate.
  • the OIS may be implemented while rotating (X1->X1b or X1a) at a first angle ⁇ 1 in the direction.
  • the first angle ⁇ 1 may be ⁇ 1° to ⁇ 3°.
  • the present invention is not limited thereto.
  • an X-axis tilt may be performed. That is, the OIS may be implemented by rotating in the second direction (Y-axis direction).
  • the OIS may be implemented while the mover 1130 tilts or rotates (or tilts the X-axis) in the Y-axis direction.
  • the first magnet 1151a and the second magnet 1151b disposed in the holder 1131 form an electromagnetic force with the first coil 1152a and the second coil 1152b, respectively, in the second direction Y axial direction) by tilting or rotating the rotation plate 1141 and the mover 1130 .
  • the rotation plate 1141 may rotate or tilt the first protrusion PR1 in the second direction with respect to the reference axis (or rotation axis) (X-axis tilt).
  • the second electromagnetic force F2A between the first and second magnets 1151a and 1151b disposed in the first seating groove and the first and second coil units 1152a and 1152b disposed on the side of the first and second substrates; F2B), while rotating the mover 1130 at a second angle ⁇ 2 in the Y-axis direction (Y1->Y1a or Y1b), the OIS may be implemented.
  • the second angle ⁇ 2 may be ⁇ 1° to ⁇ 3°.
  • the present invention is not limited thereto.
  • the first actuator moves the rotation plate 1141 and the mover 1130 in the first direction (X-axis direction) or the second direction ( By controlling the rotation in the Y-axis direction), it is possible to minimize the occurrence of a decent or tilt phenomenon and provide the best optical characteristics when implementing OIS.
  • 'Y-axis tilt' corresponds to rotation or tilt in the first direction (X-axis direction)
  • 'X-axis tilt' corresponds to rotation or tilt in the second direction (Y-axis direction). do.
  • FIG. 8 is a perspective view of a second camera actuator according to the embodiment
  • FIG. 9 is an exploded perspective view of the second camera actuator according to the embodiment
  • FIG. 10 is a cross-sectional view taken along line DD′ in FIG. 8
  • FIG. 11 is FIG. It is a cross-sectional view cut from EE'.
  • the second camera actuator 1200 includes a lens unit 1220 , a second housing 1230 , a second driving unit 1250 , a base unit (not shown), and a second camera actuator 1200 .
  • Two substrate units 1270 may be included.
  • the second camera actuator 1200 may further include a second shield can (not shown), an elastic part (not shown), and a bonding member (not shown).
  • the second camera actuator 1200 according to the embodiment may further include an image sensor IS.
  • the second shield can (not shown) is located in one region (eg, the outermost side) of the second camera actuator 1200 and includes components (the lens unit 1220 , the second housing 1230 , and the elastic unit to be described later). (not shown), the second driving unit 1250, the base unit (not shown), the second substrate unit 1270, and the image sensor IS).
  • the second shield can (not shown) may block or reduce electromagnetic waves generated from the outside. Accordingly, the occurrence of a malfunction in the second driving unit 1250 may be reduced.
  • the lens unit 1220 may be located in the second shield can (not shown).
  • the lens unit 1220 may move in a third direction (Z-axis direction). Accordingly, the above-described AF function may be performed.
  • the lens unit 1220 may include a lens assembly 1221 and a bobbin 1222 .
  • the lens assembly 1221 may include at least one lens. In addition, there may be a plurality of lens assemblies 1221 , but one of them will be described below.
  • the lens assembly 1221 is coupled to the bobbin 1222 and can move in the third direction (Z-axis direction) by electromagnetic force generated from the fourth magnet 1252a and the second magnet 1252b coupled to the bobbin 1222 . .
  • the bobbin 1222 may include an opening area surrounding the lens assembly 1221 .
  • the bobbin 1222 may be coupled to the lens assembly 1221 by various methods.
  • the bobbin 1222 may include a groove in the side thereof, and may be coupled to the fourth magnet 1252a and the second magnet 1252b through the groove. A bonding member or the like may be applied to the groove.
  • the bobbin 1222 may be coupled to an elastic part (not shown) at the upper end and the rear end. Accordingly, the bobbin 1222 may be supported by an elastic part (not shown) to move in the third direction (Z-axis direction). That is, the position of the bobbin 1222 may be maintained while being maintained in the third direction (Z-axis direction).
  • the elastic part (not shown) may be formed of a leaf spring.
  • the second housing 1230 may be disposed between the lens unit 1220 and the second shield can (not shown). In addition, the second housing 1230 may be disposed to surround the lens unit 1220 .
  • a hole may be formed in a side of the second housing 1230 .
  • a fourth coil 1251a and a fifth coil 1251b may be disposed in the hole.
  • the hole may be positioned to correspond to the groove of the bobbin 1222 described above.
  • the fourth magnet 1252a may be positioned to face the fourth coil 1251a. Also, the second magnet 1252b may be positioned to face the fifth coil 1251b.
  • the elastic part (not shown) may include a first elastic member (not shown) and a second elastic member (not shown).
  • the first elastic member (not shown) may be coupled to the upper surface of the bobbin 1222 .
  • the second elastic member (not shown) may be coupled to the lower surface of the bobbin 1222 .
  • the first elastic member (not shown) and the second elastic member (not shown) may be formed of a leaf spring as described above.
  • the first elastic member (not shown) and the second elastic member (not shown) may provide elasticity with respect to the movement of the bobbin 1222 .
  • the second driving unit 1250 may provide driving forces F3 and F4 for moving the lens unit 1220 in the third direction (Z-axis direction).
  • the second driving unit 1250 may include a driving coil 1251 and a driving magnet 1252 .
  • the lens unit 1220 may move in the third direction (Z-axis direction) by the electromagnetic force formed between the driving coil 1251 and the driving magnet 1252 .
  • the lens unit 1220 may include a plurality of lens assemblies, and may move in the third direction (Z-axis direction) independently or subordinate to each other by the second driving unit 1250 .
  • the driving coil 1251 may include a fourth coil 1251a and a fifth coil 1251b.
  • the fourth coil 1251a and the fifth coil 1251b may be disposed in a hole formed in the side of the second housing 1230 .
  • the fourth coil 1251a and the fifth coil 1251b may be electrically connected to the second substrate unit 1270 . Accordingly, the fourth coil 1251a and the fifth coil 1251b may receive current or the like through the second substrate unit 1270 .
  • the driving magnet 1252 may include a fourth magnet 1252a and a fifth magnet 1252b.
  • the fourth magnet 1252a and the fifth magnet 1252b may be disposed in the aforementioned groove of the bobbin 1222 and may be positioned to correspond to the fourth coil 1251a and the fifth coil 1251b.
  • the base unit (not shown) may be positioned between the lens unit 1220 and the image sensor IS.
  • a component such as a filter may be fixed to the base portion (not shown).
  • the base part (not shown) may be disposed to surround the image sensor IS.
  • the second camera actuator may be a zoom actuator or an auto focus (AF) actuator.
  • the second camera actuator may support one or a plurality of lenses and may perform an autofocusing function or a zooming function by moving the lenses according to a control signal of a predetermined control unit.
  • the second camera actuator may be a fixed zoom or a continuous zoom.
  • the second camera actuator may provide movement of the lens assembly 1221 .
  • the second camera actuator may be formed of a plurality of lens assemblies.
  • the second camera actuator may include at least one of a first lens assembly (not shown), a second lens assembly (not shown), a third lens assembly (not shown), and a guide pin (not shown). can be placed.
  • the second camera actuator may perform a high-magnification zooming function through the driving unit.
  • the first lens assembly (not shown) and the second lens assembly (not shown) may be a moving lens that moves through a driving unit and a guide pin (not shown), and the third lens The assembly (not shown) may be a fixed lens, but is not limited thereto.
  • the third lens assembly may perform a function of a concentrator to image light at a specific location, and the first lens assembly (not shown) may serve as a concentrator. (not shown) may perform a variator function to reimage the image formed in another place.
  • the first lens assembly in the first lens assembly (not shown), the distance to the subject or the image distance is changed a lot, so the magnification change may be large. can play an important role in
  • the image formed in the first lens assembly (not shown), which is a variable changer may be slightly different depending on the location.
  • the second lens assembly may perform a position compensation function for the image formed by the variable changer.
  • the second lens assembly functions as a compensator to accurately image the image formed by the first lens assembly (not shown), which is a variable changer, at the actual image sensor position. can be done
  • the image sensor IS may be located inside or outside the second camera actuator. In an embodiment, as shown, the image sensor IS may be located inside the second camera actuator.
  • the image sensor IS may receive light and convert the received light into an electrical signal.
  • the image sensor IS may have a plurality of pixels in the form of an array. And the image sensor IS may be located on the optical axis.
  • FIG. 12 is a block diagram illustrating a configuration of a camera module according to an embodiment
  • FIG. 13 is a block diagram of a control unit according to an embodiment.
  • the camera module includes an image sensor 110 , an image signal processing unit 120 , a display unit 130 , a first driving unit 140 , a second driving unit 150 , and a first position sensor unit 160 . ), a second position sensor unit 170 , a storage unit 180 , and a control unit 190 .
  • the image sensor 110 processes the optical image of the subject formed through the lens. To this end, the image sensor 110 may pre-process the image acquired through the lens. Also, the image sensor 110 may convert the pre-processed image into electrical data and output the converted image.
  • This image sensor 110 corresponds to the above-described image sensor IS.
  • the image sensor 110 has a form in which a plurality of photodetectors are integrated as respective pixels, and may convert image information of a subject into electrical data and output the converted image information.
  • image information may be a concept including electrical data or a signal received by a plurality of photodetectors as each pixel.
  • the image sensor 110 accumulates an input amount of light, and outputs an image photographed by a lens according to the accumulated amount of light according to a vertical synchronization signal.
  • the image acquisition is performed by the image sensor 110 that converts light reflected from the subject into an electrical signal.
  • a color filter is required to obtain a color image using the image sensor 110 , and for example, a color filter array (CFA) filter may be employed.
  • the CFA passes only light representing one color per pixel, has a regularly arranged structure, and has various shapes depending on the arrangement structure.
  • the image signal processing unit 120 processes the image output through the image sensor 110 in units of frames.
  • the image signal processing unit 120 may also be referred to as an ISP (Image Signal Processor).
  • the image signal processing unit 120 may include a lens shading compensator (not shown).
  • the lens shading compensator is a block for compensating for a lens shading phenomenon that appears differently in the amount of light in the center and edge of the image, and receives a lens shading setting value from the control unit 190 to be described later, and adjusts the color of the center and edge of the image. compensate
  • the lens shading compensator may receive a shading variable set differently according to the type of illumination, and process the lens shading of the image according to the received variable. Accordingly, the lens shading compensator may perform the lens shading process by applying a different shading degree according to the type of illumination.
  • the lens shading compensator may receive a shading variable set differently according to an automatic exposure weight applied to a specific area of the image to prevent a saturation phenomenon occurring in the image, and process the lens shading of the image according to the received variable. . More specifically, the lens shading compensator compensates for the brightness change occurring in the edge region of the image signal as the automatic exposure weight is applied to the central region of the image signal. That is, when the image signal is saturated due to lighting, the intensity of light decreases from the center to the outside in the form of concentric circles, so the lens shading compensator amplifies the edge signal of the image signal to compensate for the brightness compared to the center.
  • the image signal processing unit 120 may measure the sharpness of an image obtained through the image sensor 110 . That is, the image signal processing unit 120 may measure the sharpness of the image in order to check the focus accuracy of the image acquired through the image sensor 110 . Sharpness may be measured for each image obtained according to the position of the focus lens.
  • the display unit 130 may display a captured image under the control of the controller 190, which will be described later, and may display a setting screen necessary for taking a picture or a screen for selecting a user's operation.
  • the display unit 130 may be located on the side of the mobile terminal outside the camera module.
  • the first driving unit 140 may correspond to the above-described first driving unit 1140 (refer to FIG. 4 ). That is, the first driver 140 may perform electromagnetic interaction between the first to third coils and the first to third magnets in response to the control signal received from the controller 190 . And OIS can be performed by this interaction. In other words, the first driving unit 140 may move the mover in a first direction (X-axis direction) or a second direction (Y-axis direction) perpendicular to the optical axis direction (third direction or Z-axis direction).
  • the second driving unit 150 may correspond to the above-described second driving unit 1250 (refer to FIG. 8 ). That is, the second driving unit 150 may perform electromagnetic interaction between the fourth to fifth coils and the fourth to fifth magnets in response to the control signal received from the controller 190 . And zooming or AF may be performed by this interaction. In other words, the second driving unit 150 may move the lens unit in the third direction (Z-axis direction). For example, the focus lens may be moved in the optical axis direction.
  • the first position sensor unit 160 includes a plurality of Hall sensors of the described first camera actuator, and thus detects a position of a mover or an optical member. That is, the first position sensor unit 160 may detect the position of the first driving unit disposed on the mover. This is to control the position of a mover or an optical member (eg, a prism or a mirror). And the first position sensor unit 160 provides position data for moving the mover or the optical member.
  • an optical member eg, a prism or a mirror
  • the second position sensor unit 170 includes a plurality of Hall sensors of the described second camera actuator, and thus detects the position of the lens unit 1220 (refer to FIG. 9 ). That is, the second position sensor unit 170 may detect the position of the second driver adjacent to the lens unit 1220 . This is to control the position of the lens unit. And the second position sensor unit 170 provides position data for moving the lens unit.
  • the storage unit 180 stores data necessary for the camera module to operate.
  • information on a zoom position and a focus position for each distance from a subject may be stored in the storage unit 180 . That is, the focus position may be a position of the focus lens for accurately focusing the subject.
  • the focus position may be changed according to the zoom position with respect to the zoom lens and the distance from the subject. Accordingly, the storage unit 180 stores the zoom position according to the distance and data on the focus position corresponding to the zoom position.
  • the storage unit 180 may store information about a driving signal (eg, current) applied to a coil corresponding to the motion information to compensate for the tilt or motion information of the camera module.
  • a driving signal eg, current
  • the controller 190 controls the overall operation of the camera module.
  • the controller 190 may control the first position sensor unit 160 and the second position sensor unit 170 to provide an anti-shake function, an auto focus function, and a magnification adjustment function.
  • the controller 190 may receive the position information of the mover or the optical member through the first position sensor unit 160 , and readjust the tilt amount of the mover using the position information.
  • the control unit 190 may use the current position information of the mover or the optical member through the first position sensor unit 160 in order to move the mover or the optical member to the target position.
  • the controller 190 controls to move the mover or the optical member to the target position based on the current position of the mover or the optical member.
  • a signal may be supplied to the first driving unit 140 .
  • the controller 190 may receive position information of the lens unit through the second position sensor unit 170 to readjust the position of the lens unit.
  • the controller 190 may use the current position information of the lens unit through the second position sensor unit 170 to move the lens unit to the target position.
  • control unit 190 supplies a control signal for moving the lens unit to the target position based on the current position of the lens unit to the second driving unit 150 .
  • each of the first position sensor unit 160 and the second position sensor unit 170 may include a plurality of position sensors (corresponding to the above-described 'Hall sensor'). And the plurality of position sensors perform a detection operation at each installation position. That is, the plurality of position sensors may detect the position of the mover, the position of the lens unit, and the like. At this time, in the present invention, the positions of the mover or the optical member and the lens unit may be respectively detected by using the differential signals of the detection signals obtained through the plurality of position sensors.
  • the first position sensor unit 160 includes a first position sensor that detects position information of the mover in the first direction (X-axis direction) and the mover in the second direction (Y-axis direction). It may include a second position sensor for detecting the position information of the.
  • the first position sensor may correspond to the first and second Hall sensors described above, and the second position sensor may correspond to the third Hall sensor.
  • the controller may calculate the rotation correction amount based on the optical axis direction (third direction or Z-axis direction) of the image information by using the position information in the first direction (X-axis direction) of the mover.
  • control unit 190 may include a receiving unit 191 , an output unit 192 , and a calculation unit 193 .
  • the receiver 191 may receive a control signal from an external, for example, an application processor (AP) of a mobile terminal for OIS, AF, or zooming.
  • the mobile terminal may receive motion information from the gyro sensor and provide a control signal for moving the mover in the first direction or the second direction to the camera module in order to perform OIS using the motion information.
  • AP application processor
  • the receiver 191 receives from the first position sensor unit 160 and the second position sensor unit 170 the position information of the mover (mixed with 'first position information') and the position information of the lens unit ('second position information'). can be used interchangeably with).
  • the receiving unit 191 includes a first position including position information in a first direction (X-axis direction) of the mover from the first position sensor and position information in a second direction (Y-axis direction) of the mover from the second position sensor. Information may be received from the first position sensor unit 160 .
  • the receiving unit 191 may receive second position information including position information in the third direction (Z-axis direction) of the lens unit from the second position sensor unit 170 .
  • the output unit 192 may output a driving signal for driving the first driving unit 140 and the second driving unit 150 in response to the control signal.
  • the driving signal may have information on the magnitude or direction of the current supplied to the first coil to the third coil of the first driver 140 .
  • the driving signal may have information on the magnitude or direction of the current supplied to the fourth to fifth coils of the second driver 150 .
  • the moving direction or the moving amount of the mover and the lens unit may be determined by the driving signal.
  • the calculator 193 may calculate a rotation correction amount based on a third direction or an optical axis direction with respect to the image information by using the first position information and the second position information received from the receiving unit 191 . A detailed description thereof will be given later.
  • first location information and second location information detected by a plurality of location sensors are respectively input to the controller 190 , and a mover or an optical member or a second lens based on the first location information and the second location information The position of the assembly may be detected.
  • FIG. 14 is a perspective view of a mover in a first camera actuator according to an embodiment
  • FIG. 15 is a cross-sectional view of a first camera actuator according to an embodiment
  • FIG. 16 is a second direction of the mover in the first camera actuator according to the embodiment It is a diagram illustrating image information according to movement
  • FIG. 17 is a diagram for explaining the image information of FIG. 16 .
  • the mover 1130 includes an optical member 1132 for changing the optical path as described above and a holder 1131 for holding the optical member 1132 .
  • the light may be incident in a first direction (X-axis direction) from the mover, may be reflected by the optical member 1132 and output in a third direction (Z-axis direction) that is an optical axis direction.
  • the optical member 1132 may have an inclination with respect to the optical axis direction (the Z-axis direction or the third direction) and one direction perpendicular to the optical axis direction.
  • the optical member 1132 may be positioned to have an inclination with respect to the first direction (X-axis direction).
  • the optical member 1132 may be positioned to have an inclination with respect to the optical axis direction, that is, the third direction (Z axis direction).
  • the optical member 1132 may be positioned to have an inclination with respect to the second direction (Y-axis direction) and the optical axis direction. It will be described with reference to the drawings below.
  • the optical member 1132 may be inclined with respect to a plane in any one of the optical axis direction, the first direction (X-axis direction), and the second direction (Y-axis direction).
  • the optical member 1132 may be inclined with respect to a plane by planes XY and YZ.
  • the optical member 1132 may be perpendicular to a plane in the first direction (X-axis direction) and the optical axis direction (Z-axis direction).
  • the optical member 1132 may be perpendicular to the plane XZ.
  • any one of the incident direction and the optical axis direction of the light incident to the optical member, the incident direction (eg, the first direction), and the other direction perpendicular to the optical axis direction (eg, the second direction (Y-axis direction)) can be inclined to the plane by
  • the optical member according to the embodiment may be rotated (or tilted along the X-axis) based on the first direction (X-axis direction) by the controller.
  • the optical member may move (or tilt the X-axis) in the second direction (Y-axis direction) by the controller.
  • the image information (or image) generated by the image sensor corresponds to the movement of the optical member in the second direction (Y-axis direction). It can move in two directions (Y-axis direction).
  • the image when the optical member moves in the second direction (Y-axis direction) (b, Y + movement), the image may move in the opposite direction to the second direction in response to the movement of the optical member (b, Y movement 1) ).
  • the image when the optical member moves in the opposite direction to the second direction (Y-axis direction) (c, Y-movement), the image may move in the second direction in response to the movement of the optical member (c, Y-movement 2) .
  • the image sensor will be described based on the first to third directions described in the above-described structure of the camera module. Accordingly, in the X-axis and Y-axis camera actuators for the image, the first direction (X-axis direction) and the second direction (Y-axis direction) correspond, respectively, and the Z-axis corresponds to the third direction (Z-axis direction) in the opposite direction.
  • the image may move in the same direction as the moving direction of the optical member.
  • the moving direction of the image may be changed according to the direction in which the optical member tilts with respect to the first direction (moving in the second direction or moving in the opposite direction to the second direction).
  • the image information (or image) generated by the image sensor corresponds to the movement of the optical member in the second direction (Y-axis direction) in the third direction (Z-axis direction) can be rotated.
  • the image when the optical member moves in the second direction (Y-axis direction), the image may move in the second direction in response to the movement of the optical member (C). Also, when the optical member moves in a direction opposite to the second direction (Y-axis direction), the image may move in a direction opposite to the second direction in response to the movement of the optical member.
  • the controller may calculate a rotation correction amount in which the image rotates in a counterclockwise direction ( ⁇ rotation with respect to the Z-axis).
  • the controller may calculate a rotational correction amount in which the image rotates in a clockwise direction (+rotation with respect to the Z-axis). That is, the controller may calculate a rotation correction amount having a different direction with respect to the Z-axis direction according to the position information of the optical member (whether the movement is in the second direction or the direction opposite to the second direction).
  • the control unit when the control unit detects that the mover moves in the second direction (Y-axis direction) in the first position information, the image is rotated at a predetermined angle ( ⁇ a, ⁇ ) based on the third direction (Z-axis direction) It is possible to calculate a rotation correction amount that compensates by b ).
  • the rotation correction amount may be a value corresponding to the above-described predetermined angles ⁇ a and ⁇ b .
  • the rotation correction amount may be transmitted to the image processing unit or an external mobile device. Accordingly, since the image is rotated and output by the angle, correction for hand-shake and errors for correction of hand-shake can be minimized.
  • FIG. 18 is a diagram illustrating image information according to movement of a mover in a first direction in a first camera actuator according to an embodiment
  • FIG. 19 is a diagram explaining the image information of FIG. 18 .
  • the optical member according to the embodiment may be rotated (Y-axis tilt) based on the second direction (Y-axis direction) by the controller.
  • the optical member may be moved (Y-axis tilt) in the first direction (X-axis direction) by the control unit.
  • the image information (or image) generated by the image sensor corresponds to the movement of the optical member in the first direction (X-axis direction) to the second It can move in one direction (X-axis direction).
  • the image when the optical member moves in the first direction (X-axis direction) (e, X + movement), the image may move in the opposite direction to the second direction in response to the movement of the optical member (e, X movement 1) ).
  • the image when the optical member moves in a direction opposite to the first direction (X-axis direction) (f, X-movement), the image may move in the second direction in response to the movement of the optical member (f, X-movement 2) .
  • the image information (or image) generated by the image sensor corresponds to the movement in the first direction (X-axis direction) of the optical member in the third direction It may not rotate as a reference.
  • the controller may not reflect the position information in the first direction (X-axis direction) of the mover to the rotation correction amount even if the position information is received from the second position sensor in the first direction (X-axis direction) of the mover.
  • the image when the optical member moves in the first direction (X-axis direction), the image may not rotate based on the third direction (Z-axis direction).
  • the controller determines that the image does not rotate based on the third direction (Z-axis direction) even if it detects that the mover moves in the first direction (X-axis direction) in the first location information. Accordingly, the controller may calculate the rotation correction amount without applying the rotation correction amount to the movement information in the first direction (X-axis direction).
  • the controller may calculate the amount of rotation information only from position information in the second direction (Y-axis direction) of the mover.
  • the rotation correction amount calculated therefrom may be transmitted to an image processing unit or an external mobile device. Accordingly, since the image is rotated and output by the angle, correction for hand-shake and errors for correction of hand-shake can be minimized.
  • 20 and 21 are diagrams for explaining an operation in which the controller of the camera module adjusts the rotation correction amount according to the second position information according to the embodiment.
  • the second camera actuator may include a lens unit that moves in the optical axis direction and includes at least one lens.
  • the calculator according to the embodiment may adjust the change amount of the rotation correction amount for the position information of the mover according to the change in the focal length of the lens unit or at least one lens.
  • FIGS. 20 and 21 show a wide-angle state and a telephoto state according to the movement of the lens unit of the second camera actuator.
  • FIG. 20 is a wide angle state
  • FIG. 21 is a telephoto state, which will be described as a reference.
  • the focal length L by the lens units 1100 and 1200 and the image sensor IS is greater than the focal length L′ by the lens units 1100 and 1200 and the image sensor IS in the telephoto state.
  • the lens units 1100 and 1200 are a lens unit of the second camera actuator or a single camera module, which simultaneously generates hand shake and corrects the hand shake as one configuration.
  • the angle of view ⁇ by the lens units 1100 and 1200 and the image sensor IS in the wide-angle state is smaller than the angle of view ⁇ ' by the lens units 1100 and 1200 and the image sensor IS in the telephoto state.
  • the image formed on the image sensor IS has a first shaking area SR with respect to the entire size or area of the image sensor IS.
  • the image formed on the image sensor IS may have a second shaking region SR with respect to the entire size or area of the image sensor IS.
  • the first shaking area SR1 may be smaller than the second shaking area SR. In other words, as the angle of view decreases, a shake area due to hand shake may increase.
  • the controller according to the embodiment may increase the change amount of the rotation correction amount when the focal length of the at least one lens increases.
  • the controller according to the embodiment may reduce the change amount of the rotation correction amount when the focal length of the at least one lens is reduced.
  • the controller may increase the increase or decrease of the rotation correction amount in response to the increase or decrease of the focal length. Accordingly, as described above, when the focal length is increased, the angle of view may decrease and the shake area may increase due to hand shake.
  • the control unit also increases the amount of rotation based on the third direction (Z-axis direction) of the image, and even if the shaking area further increases, Calibration can be performed accurately. Accordingly, the camera module according to the embodiment may more accurately correct for hand shake.
  • the control unit when the focal length is decreased, the angle of view may increase and the shake area may decrease for hand shake. Accordingly, as described above, as the mover moves in the second direction (Y-axis direction), the control unit also reduces the amount of rotation based on the third direction (Z-axis direction) of the image and further reduces the shaking area. It is possible to accurately perform shake correction corresponding to a change in an area. Accordingly, the camera module according to the embodiment may provide an accurate image.
  • 22 is a view for explaining driving of a control unit according to another embodiment.
  • a camera module includes an image sensor, an image signal processing unit, a display unit, a first driving unit, a second driving unit, a first position sensor unit, a second position sensor unit, a storage unit, and a control unit. can do.
  • the controller receives the first position information and the second position information detected by the plurality of position sensors, respectively, and the position of the mover or the optical member or the second lens assembly based on the first position information and the second position information can be detected.
  • the controller may calculate the rotation correction amount based on the optical axis direction (third direction or Z-axis direction) of the image information by using the position information in the first direction (X-axis direction) of the mover.
  • the controller may calculate a rotation correction amount of the image sensor based on a third direction or an optical axis direction with respect to the image information by using the first position information and the second position information.
  • the controller may calculate the rotation correction amount RT for rotating the image sensor itself based on the Z-axis direction or the optical axis OX direction.
  • the image sensor may rotate in the third direction (z-axis direction), and a third driving unit (not shown) for rotation may be located in an area adjacent to the image sensor.
  • 23 is a flowchart of a method of driving a control unit according to an embodiment.
  • the method of driving the control unit includes the steps of detecting a motion with a gyro sensor (S310), outputting a control signal for tilting the mover (S320), and detecting the position of the mover (S310). S330), calculating the rotation correction amount (S340), and rotating the image sensor or performing image processing (S350) may include.
  • the gyro sensor may detect a movement (inclination, etc.) of the camera module (S310).
  • the controller may receive tilt information of the camera module from the gyro sensor.
  • the above step may be performed when the gyro sensor is located in the camera module, but this step may be omitted when the gyro sensor is located outside.
  • the controller may output a control signal for tilting the mover (S320).
  • the mover may be moved in the first direction or the second direction in response to the motion information of the camera module. That is, the OIS function may be performed.
  • control unit may detect the position of the mover (S330).
  • the control unit may detect the positions of the mover and the lens unit from the first position sensor unit and the second position sensor unit.
  • the controller may detect movement of the mover in the first direction or the second direction through the first position sensor and the second position sensor.
  • the controller may calculate a rotation correction amount by using the position information in the second direction of the mover (S340).
  • the above contents may be applied in the same way.
  • controller may rotate the image sensor or perform image processing (S350).
  • the controller may rotate the image generated by the image sensor based on the orphan axis direction by the calculated rotation correction amount. Accordingly, an error in rotation based on the third direction (Z-axis direction) generated while the mover moves in the second direction (Y-axis direction) may be compensated. Accordingly, a more accurate anti-shake (OIS) function may be implemented.
  • OIS anti-shake
  • FIG. 24 is a perspective view of a mobile terminal to which a camera module according to an embodiment is applied;
  • the mobile terminal 1500 may include a camera module 1000 , a flash module 1530 , and an auto-focusing device 1510 provided on the rear side.
  • the camera module 1000 may include an image capturing function and an auto focus function.
  • the camera module 1000 may include an auto-focus function using an image.
  • the camera module 1000 processes an image frame of a still image or a moving image obtained by an image sensor in a shooting mode or a video call mode.
  • the processed image frame may be displayed on a predetermined display unit and stored in a memory.
  • a camera (not shown) may also be disposed on the front of the mobile terminal body.
  • the camera module 1000 may include a first camera module 1000 and a second camera module 1000, and OIS may be implemented together with an AF or zoom function by the first camera module 1000A.
  • the flash module 1530 may include a light emitting device that emits light therein.
  • the flash module 1530 may be operated by a camera operation of a mobile terminal or a user's control.
  • the autofocus device 1510 may include one of the packages of the surface light emitting laser device as a light emitting part.
  • the auto-focusing device 1510 may include an auto-focusing function using a laser.
  • the auto focus device 1510 may be mainly used in a condition in which the auto focus function using the image of the camera module 1000 is deteriorated, for example, close to 10 m or less or in a dark environment.
  • the autofocus device 1510 may include a light emitting unit including a vertical cavity surface emission laser (VCSEL) semiconductor device and a light receiving unit that converts light energy such as a photodiode into electrical energy.
  • a light emitting unit including a vertical cavity surface emission laser (VCSEL) semiconductor device and a light receiving unit that converts light energy such as a photodiode into electrical energy.
  • VCSEL vertical cavity surface emission laser
  • 25 is a perspective view of a vehicle to which a camera module according to an embodiment is applied.
  • FIG. 25 is an external view of a vehicle including a vehicle driving assistance device to which the camera module 1000 according to an embodiment is applied.
  • the vehicle 700 may include wheels 13FL and 13FR that rotate by a power source and a predetermined sensor.
  • the sensor may be the camera sensor 2000, but is not limited thereto.
  • the camera 2000 may be a camera sensor to which the camera module 1000 according to the embodiment is applied.
  • the vehicle 700 of the embodiment may acquire image information through a camera sensor 2000 that captures a front image or a surrounding image, and determines a lane unidentified situation using the image information and generates a virtual lane when unidentified can do.
  • the camera sensor 2000 may acquire a front image by photographing the front of the vehicle 700 , and a processor (not shown) may obtain image information by analyzing an object included in the front image.
  • the processor detects the object to be included in the video information.
  • the processor may further supplement the image information by acquiring distance information from the object detected through the camera sensor 2000 .
  • the image information may be information about an object photographed in an image.
  • the camera sensor 2000 may include an image sensor and an image processing module.
  • the camera sensor 2000 may process a still image or a moving image obtained by an image sensor (eg, CMOS or CCD).
  • an image sensor eg, CMOS or CCD
  • the image processing module may process a still image or a moving image obtained through the image sensor, extract necessary information, and transmit the extracted information to the processor.
  • the camera sensor 2000 may include a stereo camera to improve the measurement accuracy of the object and further secure information such as the distance between the vehicle 700 and the object, but is not limited thereto.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Cameras In General (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

본 발명의 실시예는 입사된 광의 경로를 변경하는 광학부재를 포함하는 무버; 상기 무버를 광축 방향에 수직한 제1 방향 또는 제2 방향으로 이동시키는 구동부; 상기 무버를 이동시키는 제어신호를 출력하는 출력부; 상기 무버의 상기 제2 방향으로 위치 정보를 감지하는 제1 위치 센서; 상기 광학부재를 통과한 광을 수광하여 이미지 정보를 생성하는 이미지 센서; 및 상기 무버의 상기 제2 방향으로 위치 정보를 이용하여 상기 이미지 정보에 대한 상기 광축 방향을 기준으로 이미지 정보의 회전 보정량을 산출하는 산출부;를 포함하는 카메라 엑추에이터를 개시한다.

Description

카메라 엑추에이터 및 이를 포함하는 카메라 장치
본 발명은 카메라 엑추에이터 및 이를 포함하는 카메라 장치에 관한 것이다.
카메라는 피사체를 사진이나 동영상으로 촬영하는 장치이며, 휴대용 디바이스, 드론, 차량 등에 장착되고 있다. 카메라 장치는 영상의 품질을 높이기 위하여 사용자의 움직임에 의한 이미지의 흔들림을 보정하거나 방지하는 영상 안정화(Image Stabilization, IS) 기능, 이미지 센서와 렌즈 사이의 간격을 자동 조절하여 렌즈의 초점 거리를 정렬하는 오토포커싱(Auto Focusing, AF) 기능, 줌 렌즈(zoom lens)를 통해 원거리의 피사체의 배율을 증가 또는 감소시켜 촬영하는 주밍(zooming) 기능을 가질 수 있다.
한편, 이미지센서는 고화소로 갈수록 해상도가 높아져 화소(Pixel)의 크기가작아지게 되는데, 화소가 작아질수록 동일한 시간 동안 받아들이는 빛의 양이 감소하게 된다. 따라서, 고화소 카메라일수록 어두운 환경에서 셔터속도가 느려지면서 나타나는 손떨림에 의한 이미지의 흔들림 현상이 더욱 심하게 나타날 수 있다. 영상 안정화(IS) 기술 중 대표적인 것으로 빛의 경로를 변화시킴으로써 움직임을 보정하는 기술인 광학식 영상 안정화(optical image stabilizer, OIS) 기술이 있다.
일반적인 OIS 기술에 따르면, 자이로 센서(gyrosensor) 등을 통해 카메라의 움직임을 감지하고, 감지된 움직임을 바탕으로 렌즈를 틸팅 또는 이동시키거나 렌즈와 이미지센서를 포함하는 카메라 모듈을 틸팅 또는 이동시킬 수 있다. 렌즈 또는 렌즈와 이미지센서를 포함하는 카메라 모듈이 OIS를 위하여 틸팅 또는 이동할 경우, 렌즈 또는 카메라 모듈 주변에 틸팅 또는 이동을 위한 공간이 추가적으로 확보될 필요가 있다.
한편, OIS를 위한 엑추에이터는 렌즈 주변에 배치될 수 있다. 이 때, OIS를 위한 엑추에이터는 광축 방향인 Z에 대하여 수직하는 두 축, 즉 X축 틸팅을 담당하는 엑추에이터와 Y축 틸팅을 담당하는 엑추에이터를 포함할 수 있다.
다만, 초슬림 및 초소형의 카메라 장치의 니즈에 따라 OIS를 위한 엑추에이터를 배치하기 위한 공간 상의 제약이 크며, 렌즈 또는 렌즈와 이미지센서를 포함하는 카메라 모듈 자체가 OIS를 위하여 틸팅 또는 이동할 수 있는 충분한 공간이 보장되기 어려울 수 있다. 또한, 고화소 카메라일수록 수광되는 빛의 양을 늘리기 위해 렌즈의 사이즈가 커지는 것이 바람직한데, OIS를 위한 엑추에이터가 차지하는 공간으로 인하여 렌즈의 사이즈를 키우는데 한계가 있을 수 있다.
또한, 카메라 장치 내에 주밍 기능, AF 기능 및 OIS 기능이 모두 포함되는 경우, OIS용 마그넷과 AF용 또는 Zoom용 마그넷이 서로 근접하게 배치되어 자계 간섭을 일으키는 문제도 있다.
또한, 위치 감지를 위한 홀 센서 등을 포함하는 위치 센서에 의한 노이즈 발생 등의 문제가 존재한다.
본 발명이 해결하고자 하는 기술적 과제는 무버의 위치 정보를 이용하여 이미지 정보의 보정을 수행하는 카메라 엑추에이터를 제공하는 것이다.
또한, 실시예는 렌즈의 초점 거리 변화에 따라 위치 정보에 대한 보정량의 변화량을 조절하여 보다 정확한 노이즈 저감을 제공하는 카메라 엑추에이터를 제공할 수 있다.
또한, 실시예로, 초슬림, 초소형 및 고해상 카메라에 적용 가능한 카메라 엑추에이터를 제공할 수 있다.
실시 예에서 해결하고자 하는 과제는 이에 한정되는 것은 아니며, 아래에서 설명하는 과제의 해결수단이나 실시 형태로부터 파악될 수 있는 목적이나 효과도 포함된다고 할 것이다.
본 발명의 실시예에 따른 카메라 엑추에이터는 입사된 광의 경로를 변경하는 광학부재를 포함하는 무버; 상기 무버를 광축 방향에 수직한 제1 방향 또는 제2 방향으로 이동시키는 구동부; 상기 무버를 이동시키는 제어신호를 출력하는 출력부; 상기 무버의 상기 제2 방향으로 위치 정보를 감지하는 제1 위치 센서; 상기 광학부재를 통과한 광을 수광하여 이미지 정보를 생성하는 이미지 센서; 및 상기 무버의 상기 제2 방향으로 위치 정보를 이용하여 상기 이미지 정보에 대한 상기 광축 방향을 기준으로 이미지 정보의 회전 보정량을 산출하는 산출부;를 포함할 수 있다.
상기 입사된 광은 상기 무버에서 상기 제1 방향으로 입사하고 상기 광축 방향으로 출력될 수 있다.
상기 광학부재는 상기 제1 방향 및 상기 광축 방향에 대해 수직이 아닌 기울기를 갖도록 배치될 수 있다.
상기 광학부재는 상기 제1 방향 및 상기 광축 방향 중 어느 하나와 상기 제2 방향에 의한 평면에 대해 경사지게 배치될 수 있다.
상기 광학부재는 상기 제1 방향 및 상기 광축 방향에 의한 평면에 대해 수직일 수 있다.
상기 광축 방향으로 이동하는 적어도 하나의 렌즈;를 더 포함하고, 상기 산출부는 상기 적어도 하나의 렌즈의 초점 거리의 변화에 따라 상기 위치 정보에 대한 상기 회전 보정량의 변화량을 조절할 수 있다.
상기 회전 보정량의 변화량은 상기 적어도 하나의 렌즈의 초점 거리가 증가하면 증가하고, 상기 적어도 하나의 렌즈의 초점 거리가 감소하면 감소할 수 있다.
상기 무버의 상기 제1 방향으로 위치 정보를 감지하는 제2 위치 센서;를 더 포함할 수 있다.
상기 산출부는 상기 무버의 상기 제1 방향으로 위치 정보를 상기 회전 보정량에 반영하지 않을 수 있다.
실시예에 따른 카메라 엑추에이터는 입사된 광의 경로를 변경하는 광학부재를 포함하는 무버; 상기 무버를 광축 방향에 수직한 제1 방향 또는 제2 방향으로 이동시키는 구동부; 상기 무버를 이동시키는 제어신호를 출력하는 출력부; 상기 무버의 상기 제2 방향으로 위치 정보를 감지하는 제2 위치 센서; 상기 광학부재를 통과한 광을 수광하여 이미지 정보를 생성하는 이미지 센서; 및 상기 무버의 상기 제2 방향으로 위치 정보를 이용하여 상기 이미지 센서를 상기 광축 방향을 기준으로 회전시키는 회전 보정량을 산출하는 산출부;를 포함할 수 있다.
본 발명의 실시예에 따르면, 무버의 위치 정보를 이용하여 이미지 정보의 보정을 수행하는 카메라 엑추에이터를 구현할 수 있다.
또한, 실시예는 렌즈의 초점 거리 변화에 따라 위치 정보에 대한 보정량의 변화량을 조절하여 보다 정확한 노이즈 저감을 제공하는 카메라 엑추에이터를 구현할 수 있다.
초슬림, 초소형 및 고해상 카메라에 적용 가능한 카메라 엑추에이터를 제공할 수 있다. 특히, 카메라 장치의 전체적인 사이즈를 늘리지 않으면서도 OIS용 엑추에이터를 효율적으로 배치할 수 있다.
본 발명의 실시예에 따르면, X축 방향의 틸팅 및 Y축 방향의 틸팅이 서로 자계 간섭을 일으키지 않으며, 안정적인 구조로 X축 방향의 틸팅 및 Y축 방향의 틸팅이 구현될 수 있고, AF용 또는 주밍용 엑추에이터와도 서로 자계 간섭을 일으키지 않아 정밀한 OIS 기능을 실현할 수 있다.
본 발명의 실시예에 따르면, 렌즈의 사이즈 제한을 해소하여 충분한 광량 확보가 가능하며, 저소비 전력의 OIS 구현이 가능하다.
본 발명의 다양하면서도 유익한 장점과 효과는 상술한 내용에 한정되지 않으며, 본 발명의 구체적인 실시형태를 설명하는 과정에서 보다 쉽게 이해될 수 있을 것이다.
도 1은 실시예에 따른 카메라 모듈의 사시도이고,
도 2는 실시예에 따른 카메라 모듈의 분해 사시도이고,
도 3는 도 1에서 AA'로 절단된 단면도이고,
도 4는 실시예에 따른 제1 카메라 엑추에이터의 분해 사시도이고,
도 5는 쉴드 캔 및 기판이 제거된 실시예에 따른 제1 카메라 엑추에이터의 사시도이고,
도 6은 도 5에서 BB'로 절단된 단면도이고,
도 7은 도 5에 CC'로 절단된 단면도이고,
도 8은 실시예에 따른 제2 카메라 엑추에이터의 사시도이고,
도 9는 실시예에 따른 제2 카메라 엑추에이터의 분해 사시도이고,
도 10은 도 8에서 DD'로 절단된 단면도이고,
도 11는 도 8에서 EE'로 절단된 단면도이고,
도 12는 실시예에 따른 카메라 모듈의 구성을 나타낸 블록도이고,
도 13은 실시예에 따른 제어부의 블록도이고,
도 14는 실시예에 따른 제1 카메라 엑추에이터에서 무버의 사시도이고,
도 15는 실시예에 따른 제1 카메라 엑추에이터의 단면도이고,
도 16은 실시예에 따른 제1 카메라 엑추에이터에서 무버의 제2 방향으로 이동에 따른 이미지 정보를 도시한 도면이고,
도 17은 도 16의 이미지 정보를 설명하는 도면이고,
도 18은 실시예에 따른 제1 카메라 엑추에이터에서 무버의 제1 방향으로 이동에 따른 이미지 정보를 도시한 도면이고,
도 19는 도 18의 이미지 정보를 설명하는 도면이고,
도 20 및 도 21은 실시예에 따른 카메라 모듈의 제어부가 제2 위치 정보에 따라 회전 보정량을 조절하는 동작을 설명하는 도면이고,
도 22는 다른 실시예에 따른 제어부의 구동을 설명하는 도면이고,
도 23은 실시예에 따른 제어부의 구동 방법의 순서도이고,
도 24는 실시예에 따른 카메라 모듈이 적용된 이동 단말기의 사시도이고,
도 25은 실시예에 따른 카메라 모듈이 적용된 차량의 사시도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한
실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 실시예에 따른 카메라 모듈의 사시도이고, 도 2는 실시예에 따른 카메라 모듈의 분해 사시도이고, 도 3는 도 1에서 AA'로 절단된 단면도이다.
도 1 및 도 2를 참조하면, 실시예에 따른 카메라 모듈(1000)은 커버(CV), 제1 카메라 엑추에이터(1100), 제2 카메라 엑추에이터(1200), 및 회로 기판(1300)으로 이루어질 수 있다. 여기서, 제1 카메라 엑추에이터(1100)는 제1 엑추에이터로, 제2 카메라 엑추에이터(1200)는 제2 엑추에이터로 혼용될 수 있다.
커버(CV)는 제1 카메라 엑추에이터(1100) 및 제2 카메라 엑추에이터(1200)를 덮을 수 있다. 커버(CV)에 의해 제1 카메라 엑추에이터(1100)와 제2 카메라 엑추에이터(1200) 간의 결합력이 개선될 수 있다.
나아가, 커버(CV)는 전자파 차단을 수행하는 재질로 이루어질 수 있다. 이에, 커버(CV) 내의 제1 카메라 엑추에이터(1100)와 제2 카메라 엑추에이터(1200)를 용이하게 보호할 수 있다.
그리고 제1 카메라 엑추에이터(1100)는 OIS(OP1tical Image Stabilizer) 엑추에이터일 수 있다.
제1 카메라 엑추에이터(1100)는 렌즈를 포함할 수 있다. 예컨대, 제1 카메라 엑추에이터(1100)는 소정의 경통(미도시)에 배치된 고정 초점 거리 렌즈(fixed focal length les)를 포함할 수 있다. 고정 초점 거리 렌즈(fixed focal length les)는“단일 초점 거리 렌즈” 또는 “단(單) 렌즈”로 칭해질 수도 있다.
제1 카메라 엑추에이터(1100)는 광의 경로를 변경할 수 있다. 실시예로, 제1 카메라 엑추에이터(1100)는 내부의 광학 부재(예컨대, 미러 또는 프리즘)를 통해 광 경로를 수직으로 변경할 수 있다. 이러한 구성에 의하여, 이동 단말기의 두께가 감소하더라도 광 경로의 변경을 통해 이동 단말기의 두께보다 큰 렌즈 구성이 이동 단말기 내에 배치되어 배율, 오토 포커싱(AF) 및 OIS 기능이 수행될 수 있다.
제2 카메라 엑추에이터(1200)는 제1 카메라 엑추에이터(1100) 후단에 배치될 수 있다. 제2 카메라 엑추에이터(1200)는 제1 카메라 엑추에이터(1100)와 결합할 수 있다. 그리고 상호 간의 결합은 다양한 방식에 의해 이루어질 수 있다.
또한, 제2 카메라 엑추에이터(1200)는 줌(Zoom) 엑추에이터 또는 AF(Auto Focus) 엑추에이터일 수 있다. 예를 들어, 제2 카메라 엑추에이터(1200)는 하나 또는 복수의 렌즈를 지지하며 소정의 제어부의 제어신호에 따라 렌즈를 움직여 오토 포커싱 기능 또는 줌 기능을 수행할 수 있다.
회로 기판(1300)은 제2 카메라 엑추에이터(1200) 후단에 배치될 수 있다. 회로 기판(1300)은 제2 카메라 엑추에이터(1200) 및 제1 카메라 엑추에이터(1100)와 전기적으로 연결될 수 있다. 또한, 회로 기판(1300)은 복수 개일 수 있다.
실시예에 따른 카메라 모듈은 단일 또는 복수의 카메라 모듈로 이루어질 수도 있다. 예컨대, 복수의 카메라 모듈은 제1 카메라 모듈과 제2 카메라 모듈을 포함할 수 있다.
그리고 제1 카메라 모듈은 단일 또는 복수의 엑추에이터를 포함할 수 있다. 예를 들어, 제1 카메라 모듈은 제1 카메라 엑추에이터(1100)와 제2 카메라 엑추에이터(1200)를 포함할 수 있다.
그리고 제2 카메라 모듈은 소정의 하우징(미도시)에 배치되고, 렌즈부를 구동할 수 있는 엑추에이터(미도시)를 포함할 수 있다. 엑추에이터는 보이스 코일 모터, 마이크로 엑추에이터, 실리콘 엑추에이터 등일 수 있고, 정전방식, 써멀 방식, 바이 모프 방식, 정전기력방식 등 여러 가지로 응용될 수 있으며 이에 한정되는 것은 아니다. 또한, 본 명세서에서 카메라 엑추에이터는 엑추에이터 등으로 언급할 수 있다. 또한, 복수 개의 카메라 모듈로 이루어진 카메라 모듈은 이동 단말기 등 다양한 전자 기기 내에 실장될 수 있다.
도 3을 참조하면, 실시예에 따른 카메라 모듈은 OIS 기능을 하는 제1 카메라 엑추에이터(1100) 및 주밍(zooming) 기능 및 AF 기능을 하는 제2 카메라 엑추에이터(1200)를 포함할 수 있다.
광은 제1 카메라 엑추에이터(1100)의 상면에 위치한 개구 영역을 통해 카메라 모듈 내로 입사될 수 있다. 즉, 광은 X축 방향을 따라 제1 카메라 엑추에이터(1100)의 내부로 입사되고, 광학 부재를 통해 광경로가 수직 방향(예컨대, Z축 방향)으로 변경될 수 있다. 그리고 광은 제2 카메라 엑추에이터(1200)를 통과하고, 제2 카메라 엑추에이터(1200)의 일단에 위치하는 이미지 센서(IS)로 입사될 수 있다(PATH). 이에, 광축 방향은 이미지 센서로 입사되는 광의 방향인 Z축 방향일 수 있다. 예컨대, 광축은 입사된 광의 중심축이나, 이하에서는 광학 부재를 통해 반사된 이후의 광의 이동 방향으로 도면상 Z축 방향에 대응할 수 있다.
그리고 본 명세서에서, 저면은 제1 방향에서 일측을 의미한다. 그리고 제1 방향은 도면 상 X축 방향이고 제2 축 방향 등과 혼용될 수 있다. 제2 방향은 도면 상 Y축 방향이며 제1 축 방향 등과 혼용될 수 있다. 제2 방향은 제1 방향과 수직한 방향이다. 또한, 제3 방향은 도면 상 Z축 방향이고, 제3 축 방향 등과 혼용될 수 있다. 제1 방향 및 제2 방향에 모두 수직한 방향이다. 여기서, 제3 방향(Z축 방향)은 광축의 방향에 대응하며, 제1 방향(X축 방향)과 제2 방향(Y축 방향)은 광축에 수직한 방향이며 제1 카메라 엑추에이터에 의해 틸팅될 수 있다. 이에 대한 자세한 설명은 후술한다.
또한, 이하에서 제1 카메라 엑추에이터(1100) 및 제2 카메라 엑추에이터(1200)에 대한 설명에서 광축 방향은 제3 방향(Z축 방향)이며 이를 기준으로 이하 설명한다.
그리고 이러한 구성에 의하여, 실시예에 따른 카메라 모듈은 광의 경로를 변경하여 제1 카메라 엑추에이터 및 제2 카메라 엑추에이터의 공간적 한계를 개선할 수 있다. 즉, 실시예에 따른 카메라 모듈은 광의 경로 변경에 대응하여 카메라 모듈의 두께가 최소화하면서 광 경로를 확장할 수 있다. 나아가, 제2 카메라 엑추에이터는 확장된 광 경로에서 초점 등을 제어하여 높은 범위의 배율을 제공할 수도 있음을 이해해야 한다.
또한, 실시예에 따른 카메라 모듈은 제1 카메라 엑추에이터를 통해 광경로의 제어를 통해 OIS를 구현할 수 있으며, 이에 따라 디센터(decent)나 틸트(tilt) 현상의 발생을 최소화하고, 최상의 광학적 특성을 낼 수 있다.
나아가, 제2 카메라 엑추에이터(1200)는 광학계와 렌즈 구동부를 포함할 수 있다. 예를 들어, 제2 카메라 엑추에이터(1200)는 제1 렌즈 어셈블리, 제2 렌즈 어셈블리, 제3 렌즈 어셈블리 및 가이드 핀 중 적어도 하나 이상이 배치될 수 있다.
또한. 제2 카메라 엑추에이터(1200)는 코일과 마그넷을 구비하여 고배율 주밍 기능을 수행할 수 있다.
예를 들어, 제1 렌즈 어셈블리와 제2 렌즈 어셈블리는 코일, 마그넷과 가이드 핀을 통해 이동하는 이동 렌즈(moving lens)일 수 있으며, 제3 렌즈 어셈블리는 고정 렌즈일 수 있으나 이에 한정되는 것은 아니다. 예를 들어, 제3 렌즈 어셈블리는 광을 특정 위치에 결상하는 집광자(focator)의 기능을 수행할 수 있고, 제1 렌즈 어셈블리는 집광자인 제3 렌즈 어셈블리에서 결상된 상을 다른 곳에 재결상시키는 변배자(variator) 기능을 수행할 수 있다. 한편, 제1 렌즈 어셈블리에서는 피사체와의 거리 또는 상 거리가 많이 바뀌어서 배율변화가 큰 상태일 수 있으며, 변배자인 제1 렌즈 어셈블리는 광학계의 초점 거리 또는 배율변화에 중요한 역할을 할 수 있다. 한편, 변배자인 제1 렌즈 어셈블리에서 결상되는 상점은 위치에 따라 약간 차이가 있을 수 있다. 이에 제2 렌즈 어셈블리는 변배자에 의해 결상된 상에 대한 위치 보상 기능을 할 수 있다. 예를 들어, 제2 렌즈 어셈블리는 변배자인 제1 렌즈 어셈블리에서 결상된 상점을 실제 이미지 센서 위치에 정확히 결상시키는 역할을 수행하는 보상자(compensator) 기능을 수행할 수 있다. 예를 들어, 제1 렌즈 어셈블리와 제2 렌즈 어셈블리는 코일과 마그넷의 상호작용에 의한 전자기력으로 구동될 수 있다. 상술한 내용은 후술하는 렌즈 어셈블리에 적용될 수 있다.
한편, 본 발명의 실시예에 따라 OIS용 엑추에이터와 AF 또는 Zoom용 엑추에이터가 배치될 경우, OIS 구동 시 AF 또는 Zoom용 마그넷과의 자계 간섭이 방지될 수 있다. 제1 카메라 엑추에이터(1100)의 제1 구동 마그넷이 제2 카메라 엑추에이터(1200)와 분리되어 배치되므로, 제1 카메라 엑추에이터(1100)와 제2 카메라 엑추에이터(1200) 간 자계 간섭이 방지될 수 있다. 본 명세서에서, OIS는 손떨림 보정, 광학식 이미지 안정화, 광학식 이미지 보정, 떨림 보정 등의 용어와 혼용될 수 있다.
도 4는 실시예에 따른 제2 카메라 엑추에이터의 분해 사시도이다.
도 4를 참조하면, 실시예에 따른 제1 카메라 엑추에이터(1100)는 제1 쉴드 캔(미도시됨), 제1 하우징(1120), 무버(1130), 회전부(1140), 제1 구동부(1150)를 포함한다.
무버(1130)는 홀더(1131)와 홀더(1131)에 안착하는 광학부재(1132)를 포함할 수 있다. 무버(1130)는 입사된 광의 경로를 변경할 수 있다. 그리고 회전부(1140)는 회전 플레이트(1141), 회전 플레이트(1141)와 서로 결합력을 갖는 제1 자성체(1142), 회전 플레이트(1141) 내에 위치하는 제2 자성체(1143)를 포함한다. 또한, 제1 구동부(1150)는 구동 마그넷(1151), 구동 코일(1152), 홀 센서부(1153) 및 제1 기판부(1154)를 포함한다.
제1 쉴드 캔(미도시됨)은 제1 카메라 엑추에이터(1100)의 최외측에 위치하여 후술하는 회전부(1140)와 제1 구동부(1150)를 감싸도록 위치할 수 있다.
이러한 제1 쉴드 캔(미도시됨)은 외부에서 발생한 전자기파를 차단 또는 저감할 수 있다. 이에 따라, 회전부(1140) 또는 제1 구동부(1150)에서 오작동의 발생이 감소할 수 있다.
제1 하우징(1120)은 제1 쉴드 캔(미도시됨) 내부에 위치할 수 있다. 또한, 제1 하우징(1120)은 후술하는 제1 기판부(1154) 내측에 위치할 수 있다. 제1 하우징(1120)은 제1 쉴드 캔(미도시됨)과 서로 끼워지거나 맞춰져 체결될 수 있다.
제1 하우징(1120)은 복수 개의 하우징 측부로 이루어질 수 있다. 제1 하우징 측부(1121), 제2 하우징 측부(1122), 제3 하우징 측부(1123), 제4 하우징 측부(1124)를 포함할 수 있다.
제1 하우징 측부(1121)와 제2 하우징 측부(1122)는 서로 마주보도록 배치될 수 있다. 또한, 제3 하우징 측부(1123)와 제4 하우징 측부(1124)는 제1 하우징 측부(1121)와 제2 하우징 측부(1122) 사이에 배치될 수 있다.
제3 하우징 측부(1123)는 제1 하우징 측부(1121), 제2 하우징 측부(1122) 및 제4 하우징 측부(1124)와 접할 수 있다. 그리고 제3 하우징 측부(1123)는 제1 하우징(1120)에서 하측부로 저면을 포함할 수 있다.
그리고 제1 하우징 측부(1121)는 제1 하우징 홀(1121a)을 포함할 수 있다. 제1 하우징 홀(1121a)에는 후술하는 제1 코일(1152a)이 위치할 수 있다.
또한, 제2 하우징 측부(1122)는 제2 하우징 홀(1122a)을 포함할 수 있다. 그리고 제2 하우징 홀(1122a)에는 후술하는 제2 코일(1152b)이 위치할 수 있다.
제1 코일(1152a)과 제2 코일(1152b)은 제1 기판부(1154)와 결합할 수 있다. 실시예로, 제1 코일(1152a)과 제2 코일(1152b)은 제1 기판부(1154)와 전기적으로 연결되어 전류가 흐를 수 있다. 이러한 전류는 제2 카메라 엑추에이터가 X축을 기준으로 틸팅할 수 있는 전자기력의 요소이다.
또한, 제3 하우징 측부(1123)는 제3 하우징 홀(1123a)을 포함할 수 있다. 제3 하우징 홀(1123a)에는 후술하는 제3 코일(1152c)이 위치할 수 있다. 제3 코일(1152c)은 제1 기판부(1154)와 결합할 수 있다. 그리고 제3 코일(1152c)은 제1 기판부(1154)와 전기적으로 연결되어 전류가 흐를 수 있다. 이러한 전류는 제2 카메라 엑추에이터가 Y축을 기준으로 틸팅할 수 있는 전자기력의 요소이다.
제4 하우징 측부(1124)는 제1 하우징 홈(1124a)을 포함할 수 있다. 제1 하우징 홈(1124a)에 마주하는 영역에 후술하는 제1 자성체(1142)가 배치될 수 있다. 이에 따라, 제1 하우징(1120)은 회전 플레이트(1141)와 자기력 등에 의해 결합할 수 있다.
또한, 실시예에 따른 제1 하우징 홈(1124a)은 제4 하우징 측부(1124)의 내측면 또는 외측면에 위치할 수 있다. 이에 따라, 제1 자성체(1142)도 제1 하우징 홈(1124a)의 위치에 대응하도록 배치될 수 있다.
또한, 제1 하우징(1120)은 제1 내지 제4 하우징 측부(1121 내지 1224)에 의해 형성되는 수용부(1125)를 포함할 수 있다. 수용부(1125)에는 무버(1130)가 위치할 수 있다.
무버(1130)는 홀더(1131)와 홀더(1131)에 안착하는 광학부재(1132)를 포함한다.
홀더(1131)는 제1 하우징(1120)의 수용부(1125)에 안착할 수 있다. 홀더(1131)는 제1 하우징 측부(1121), 제2 하우징 측부(1122), 제3 하우징 측부(1123), 제4 하우징 측부(1124)에 각각 대응하는 제1 프리즘 외측면 내지 제4 프리즘 외측면을 포함할 수 있다.
제4 하우징 측부(1124)와 마주하는 제4 프리즘 외측면에는 제2 자성체(1143)가 안착할 수 있는 안착홈이 배치될 수 있다.
광학부재(1132)는 홀더(1131)에 안착할 수 있다. 이를 위해, 홀더(1131)는 안착면을 가질 수 있으며, 안착면은 수용홈에 의해 형성될 수 있다. 광학부재(1132)는 내부에 배치되는 반사부를 포함할 수 있다. 다만, 이에 한정되는 것은 아니다. 그리고 광학부재(1132)는 외부(예컨대, 물체)로부터 반사된 광을 카메라 모듈 내부로 반사할 수 있다. 다시 말해, 광학부재(1132)는 반사된 광의 경로를 변경하여 제1 카메라 엑추에이터 및 제2 카메라 엑추에이터의 공간적 한계를 개선할 수 있다. 이로써, 카메라 모듈은 두께가 최소화하면서 광 경로를 확장하여 높은 범위의 배율을 제공할 수도 있음을 이해해야 한다. 예컨대, 광학부재(1132)는 프리즘 또는 미러 등을 포함할 수 있다.
회전부(1140)는 회전 플레이트(1141), 회전 플레이트(1141)와 서로 결합력을 갖는 제1 자성체(1142), 회전 플레이트(1141)내에 위치하는 제2 자성체(1143)를 포함한다.
회전 플레이트(1141)는 상술한 무버(1130) 및 제1 하우징(1120)과 결합할 수 있다. 회전 플레이트(1141)는 내부에 위치하는 추가적인 자성체(미도시됨)를 포함할 수 있다.
또한, 회전 플레이트(1141)는 광축과 인접하게 배치될 수 있다. 이로써, 실시예에 따른 엑추에이터는 후술하는 제1,2 축 틸트에 따라 광 경로의 변경을 용이하게 수행할 수 있다.
회전 플레이트(1141)는 제1 방향(X축 방향)으로 이격 배치되는 제1 돌출부와 제2 방향(Y축 방향)으로 이격 배치되는 제2 돌출부를 포함할 수 있다. 또한, 제1 돌출부와 제2 돌출부는 서로 반대 방향으로 돌출될 수 있다. 이에 대한 자세한 설명은 후술한다.
또한, 제1 자성체(1142)는 복수 개의 요크를 포함하며, 복수 개의 요크는 회전 플레이트(1141)를 기준으로 마주보게 위치할 수 있다. 실시예로, 제1 자성체(1142)는 마주보는 복수 개의 요크로 이루어질 수 있다. 그리고 회전 플레이트(1141)는 복수 개의 요크 사이에 위치할 수 있다.
제1 자성체(1142)는 상술한 바와 같이 제1 하우징(1120) 내에 위치할 수 있다. 또한, 상술한 바와 같이 제1 자성체(1142)는 제4 하우징 측부(1124)의 내측면 또는 외측면에 안착할 수 있다. 예컨대, 제1 자성체(1142)는 제4 하우징 측부(1124)의 외측면에 형성된 홈에 안착할 수 있다. 또는 제1 자성체(1142)는 상술한 제1 하우징 홈(1124a)에 안착할 수 있다.
그리고 제2 자성체(1143)는 무버(1130) 특히 홀더(1131)의 외측면에 위치할 수 있다. 이러한 구성에 의하여, 회전 플레이트(1141)는 내부의 제2 자성체(1143)와 제1 자성체(1142)간의 자기력에 의한 결합력으로 제1 하우징(1120) 및 무버(1130)와 용이하게 결합할 수 있다. 본 발명에서, 제1 자성체(1142)와 제2 자성체(1143)의 위치는 서로 이동될 수 있다. 예를 들어, 제1 자성체(1142)와 제2 자성체(1143) 간에 인력 또는 척력이 작용할 수 있다. 인력의 경우 제1 자성체(1142)와 제2 자성체(1143)의 인력이 홀더와 하우징 사이의 회전 플레이트(1141)를 가압할 수 있다. 이에 따라, 회전 플레이트(1141)가 제1 구동부(1150)에 의한 X/Y 틸트를 제외하고 자세 또는 위치가 유지될 수 있다.
제1 구동부(1150)는 구동 마그넷(1151), 구동 코일(1152), 홀 센서부(1153) 및 제1 기판부(1154)를 포함한다.
구동 마그넷(1151)은 복수 개의 마그넷을 포함할 수 있다. 실시예로, 구동 마그넷(1151)은 제1 마그넷(1151a), 제2 마그넷(1151b) 및 제3 마그넷(1151c)을 포함할 수 있다.
제1 마그넷(1151a), 제2 마그넷(1151b) 및 제3 마그넷(1151c)은 각각 홀더(1131)의 외측면에 위치할 수 있다. 그리고 제1 마그넷(1151a)과 제2 마그넷(1151b)은 서로 마주보도록 위치할 수 있다. 또한, 제3 마그넷(1151c)은 홀더(1131)의 외측면 중 저면 상에 위치할 수 있다. 이에 대한 자세한 설명은 후술한다.
구동 코일(1152)은 복수 개의 코일을 포함할 수 있다. 실시예로, 구동 코일(1152)은 제1 코일(1152a), 제2 코일(1152b) 및 제3 코일(1152c)을 포함할 수 있다.
제1 코일(1152a)은 제1 마그넷(1151a)과 대향하게 위치할 수 있다. 이에, 제1 코일(1152a)은 상술한 바와 같이 제1 하우징 측부(1121)의 제1 하우징 홀(1121a)에 위치할 수 있다.
또한, 제2 코일(1152b)은 제2 마그넷(1151b)과 대향하게 위치할 수 있다. 이에, 제2 코일(1152b)은 상술한 바와 같이 제2 하우징 측부(1122)의 제2 하우징 홀(1122a)에 위치할 수 있다.
제1 코일(1152a)은 제2 코일(1152b)과 마주보도록 위치할 수 있다. 즉, 제1 코일(1152a)은 제2 코일(1152b)과 제1 방향(X축 방향)을 기준으로 대칭으로 위치할 수 있다. 이는 제1 마그넷(1151a)과 제2 마그넷(1151b)에도 동일하게 적용될 수 있다. 즉, 제1 마그넷(1151a)과 제2 마그넷(1151b)은 제1 방향(X축 방향)을 기준으로 대칭으로 위치할 수 있다. 또한, 제1 코일(1152a), 제2 코일(1152b), 제1 마그넷(1151a) 및 제2 마그넷(1151b)은 제2 방향(Y축 방향)으로 적어도 일부 중첩되도록 배치될 수 있다. 이러한 구성에 의하여, 제1 코일(1152a)과 제1 마그넷(1151a) 간의 전자기력과 제2 코일(1152b)과 제2 마그넷(1151b) 간의 전자기력으로 X축 틸팅이 일측으로 기울어짐 없이 정확하게 이루어질 수 있다.
제3 코일(1152c)은 제3 마그넷(1151c)과 대향하게 위치할 수 있다. 이에, 제3 코일(1152c)은 상술한 바와 같이 제3 하우징 측부(1123)의 제3 하우징 홀(1123a)에 위치할 수 있다. 제3 코일(1152c)은 제3 마그넷(1151c)과 전자기력을 발생시킴으로써, 무버(1130) 및 회전부(1140)를 제1 하우징(1120)을 기준으로 Y축 틸팅을 수행할 수 있다.
여기서, X축 틸팅은 X축을 기준으로 틸트되는 것을 의미하며, Y축 틸팅은 Y축을 기준으로 틸트되는 것을 의미한다.
홀 센서부(1153)는 복수 개의 홀 센서를 포함할 수 있다. 홀 센서는 후술하는 '위치 센서'에 대응하며 이와 혼용한다. 나아가, 홀 센서는 위치 감지 센서, 위치 감지부, 위치 센싱부 등의 다양한 용어로 사용될 수 있다. 실시예로, 홀 센서부(1153)는 제1 홀 센서(1153a), 제2 홀 센서(1153b) 및 제3 홀 센서(1153c)를 포함할 수 있다.
제1 홀 센서(1153a)는 제1 코일(1153a) 내측에 위치할 수 있다. 그리고 제2 홀 센서(1153b)는 제1 홀 센서(1153a)와 제1 방향(X축 방향) 및 제3 방향(Z축 방향)으로 대칭으로 배치될 수 있다. 또한, 제2 홀 센서(1153b)는 제2 코일(1152b) 내측에 위치할 수 있다.
제1 홀 센서(1153a)는 제1 코일(1153a) 내측에서 자속 변화를 감지할 수 있다. 그리고 제2 홀 센서(1153b)는 제2 코일(1153b)에서 자속 변화를 감지할 수 있다. 이로써, 제1, 2 마그넷(1151a, 1151b)과 제1,2 홀 센서(1153a, 1153b) 간의 위치 센싱이 수행될 수 있다. 예컨대, 제1,2 홀 센서(1153a, 1153b)는 실시예에 따른 제2 카메라 엑추에이터는 이를 통해 X축 틸트를 제어할 수 있다.
또한, 제3 홀 센서(1153c)는 제3 코일(1153c) 내측에 위치할 수 있다. 제3 홀 센서(1153c)는 제3 코일(1153c) 내측에서 자속 변화를 감지할 수 있다. 이로써, 제3 마그넷(1151c)과 제3 홀 센서(1153c) 간의 위치 센싱이 수행될 수 있다. 실시예에 따른 제2 카메라 엑추에이터는 이를 통해 Y축 틸트를 제어할 수 있다.
제1 기판부(1154)는 제1 구동부(1150)의 하부에 위치할 수 있다. 제1 기판부(1154)는 구동 코일(1152), 홀 센서부(1153)와 전기적으로 연결될 수 있다. 예를 들어, 제1 기판부(1154)는 구동 코일(1152), 홀 센서부(1153)와 SMT로 결합될 수 있다. 다만, 이러한 방식에 한정되는 것은 아니다.
제1 기판부(1154)는 제1 쉴드 캔(미도시됨)과 제1 하우징(1120) 사이에 위치하여, 쉴드 캔(1101) 및 제1 하우징(1120)과 결합할 수 있다. 결합 방식은 상술한 바와 같이 다양하게 이루어질 수 있다. 그리고 상기 결합을 통해 구동 코일(1152)과 홀 센서부(1153)가 제1 하우징(1120)의 외측면 내에 위치할 수 있다.
이러한 제1 기판부(1154)는 경성 인쇄 회로 기판(Rigid PCB), 연성 인쇄 회로 기판(Flexible PCB), 경연성 인쇄 회로 기판(RigidFlexible PCB) 등 전기적으로 연결될 수 있는 배선 패턴이 있는 회로 기판을 포함할 수 있다. 다만, 이러한 종류에 한정되는 것은 아니다.
이러한 홀 센서부(1153)와 후술하는 제1 기판부(1154) 간의 구체적인 내용은 후술한다.
도 5는 쉴드 캔 및 기판이 제거된 실시예에 따른 제1 카메라 엑추에이터의 사시도이고, 도 6은 도 5에서 BB'로 절단된 단면도이고, 도 7은 도 5에 CC'로 절단된 단면도이다.
도 5 내지 도 7을 참조하면, 제1 코일(1152a)은 제1 하우징 측부(1121)에 위치할 수 있다.
그리고 제1 코일(1152a)과 제1 마그넷(1151a)은 서로 대향하여 위치할 수 있다. 제1 마그넷(1151a)은 제1 코일(1152a)과 제2 방향(Y축 방향)으로 적어도 일부 중첩될 수 있다.
또한, 제2 코일(1152b)의 제2 하우징 측부(1122)에 위치할 수 있다. 이에, 제2 코일(1152b)과 제2 마그넷(1151b)은 서로 대향하여 위치할 수 있다. 제2 마그넷(1151b)은 제2 코일(1152b)과 제2 방향(Y축 방향)으로 적어도 일부 중첩될 수 있다.
또한, 제1 코일(1152a)과 제2 코일(1152b)은 제2 방향(Y축 방향)으로 중첩되고, 제1 마그넷(1151a)과 제2 마그넷(1151b)은 제2 방향(Y축 방향)으로 중첩될 수 있다. 이러한 구성에 의하여, 홀더의 외측면(제1 홀더 외측면 및 제2 홀더 외측면)에 가해지는 전자기력이 제2 방향(Y축 방향)으로 평행 축 상에 위치하여 X축 틸트가 정확하고 정밀하게 수행될 수 있다.
또한, 제4 홀더 외측면에는 제1 수용홈(미도시됨)이 위치할 수 있다. 그리고 제1 수용홈에는 제1 돌출부(PR1a, PR1b)가 배치될 수 있다. 이에 따라, X축 틸트를 수행하는 경우, 제1 돌출부(PR1a, PR1b)가 틸트의 기준축(또는 회전축)일 수 있다. 이에, 회전 플레이트(1141), 무버(1130)가 좌우로 이동할 수 있다.
제2 돌출부(PR2)는 상술한 바와 같이 제4 하우징 측부(1124)의 내측면의 홈에 안착할 수 있다. 그리고 Y축 틸트를 수행하는 경우, 제2 돌출부(PR2)를 Y축 틸트의 기준축으로 회전 플레이트 및 무버가 회전할 수 있다.
실시예에 다르면, 이러한 제1 돌출부와 제2 돌출부에 의해, OIS가 수행될 수 있다. 나아가, 변형예로, 제1 돌출부와 제2 돌출부는 베이스를 기준으로 서로 반대면에 배치될 수 있다. 즉, 제1 돌출부는 베이스의 제1 면 및 제2 면 중 어느 하나에 배치될 수 있다. 그리고 제2 돌출부는 베이스의 제1 면 및 제2 면 중 다른 하나에 배치될 수 있다.
도 6을 참조하면, Y축 틸트가 수행될 수 있다. 즉, 제1 방향(X축 방향)으로 회전하여 OIS 구현이 이루어질 수 있다.
실시예로, 홀더(1131)의 하부에 배치되는 제3 마그넷(1151c)은 제3 코일(1152c)과 전자기력을 형성하여 제1 방향(X축 방향)으로 무버(1130)를 틸팅 또는 회전시킬 수 있다.
구체적으로, 회전 플레이트(1141)는 제1 하우징(1120) 내의 제1 자성체(1142)와 무버(1130) 내의 제2 자성체(1143)에 의해 제1 하우징(1120) 및 무버(1130)와 결합될 수 있다. 그리고 제1 돌출부(PR1)는 제1 방향(X축 방향)으로 이격되어 제1 하우징(1120)에 의해 지지될 수 있다.
그리고 회전 플레이트(1141)는 무버(1130)를 향해 돌출된 제2 돌출부(PR2)를 기준축(또는 회전축)으로 회전 또는 틸팅할 수 있다. 즉, 회전 플레이트(1141)는 제2 돌출부(PR2)를 기준축으로 Y축 틸트를 수행할 수 있다.
예를 들어, 제3 안착홈에 배치된 제3 마그넷(1151c)과 제3 기판 측부 상에 배치된 제3 코일(1152c) 간의 제1 전자기력(F1A, F1B)에 의해 무버(1130)를 X축 방향으로 제1 각도(θ1)로 회전(X1->X1b or X1a)하면서 OIS 구현이 이루어질 수 있다. 제1 각도(θ1)는 ±1° 내지 ±3°일 수 있다. 다만, 이에 한정되는 것은 아니다.
도 7를 참조하면, X축 틸트가 수행될 수 있다. 즉, 제2 방향(Y축 방향)으로 회전하여 OIS 구현이 이루어질 수 있다.
Y축 방향으로 무버(1130)가 틸팅 또는 회전(또는 X축 틸트)하면서 OIS 구현이 이루어질 수 있다.
실시예로, 홀더(1131)에 배치되는 제1 마그넷(1151a) 및 제2 마그넷(1151b)은 각각이 제1 코일(1152a)및 제2 코일(1152b)과 전자기력을 형성하여 제2 방향(Y축 방향)으로 회전 플레이트(1141) 및 무버(1130)를 틸팅 또는 회전시킬 수 있다.
회전 플레이트(1141)는 제1 돌출부(PR1)를 기준축(또는 회전축)으로 제2 방향으로 회전 또는 틸팅(X축 틸트)할 수 있다.
예를 들어, 제1 안착홈에 배치된 제1, 2 마그넷(1151a, 1151b)과 제1, 2 기판 측부 상에 배치된 제1, 2 코일부(1152a, 1152b) 간의 제2 전자기력(F2A, F2B)에 의해 무버(1130)를 Y축 방향으로 제2 각도(θ2) 회전(Y1->Y1a or Y1b)하면서 OIS 구현이 이루어질 수 있다. 제2 각도(θ2)는 ±1° 내지 ±3°일 수 있다. 다만, 이에 한정되는 것은 아니다.
이와 같이, 실시예에 따른 제1 엑추에이터는 홀더 내의 구동 마그넷과 하우징에 배치되는 구동 코일 간의 전자기력에 의해 회전 플레이트(1141) 및 무버(1130)를 제1 방향(X축 방향) 또는 제2 방향(Y축 방향)으로 회전 제어함으로써, OIS 구현 시 디센터(decent)나 틸트(tilt) 현상의 발생을 최소화하고 최상의 광학적 특성을 제공할 수 있다. 또한, 상술한 바와 같이 'Y축 틸트'는 제1 방향(X축 방향)으로 회전 또는 틸트하는 것에 대응하고, 'X축 틸트'는 제2 방향(Y축 방향)으로 회전 또는 틸트하는 것에 대응한다.
도 8은 실시예에 따른 제2 카메라 엑추에이터의 사시도이고, 도 9는 실시예에 따른 제2 카메라 엑추에이터의 분해 사시도이고, 도 10은 도 8에서 DD'로 절단된 단면도이고, 도 11는 도 8에서 EE'로 절단된 단면도이다.
도 8 내지 도 11을 참조하면, 실시예에 따른 제2 카메라 엑추에이터(1200)는 렌즈부(1220), 제2 하우징(1230), 제2 구동부(1250), 베이스부(미도시됨) 및 제2 기판부(1270)를 포함할 수 있다. 나아가, 제2 카메라 엑추에이터(1200)는 제2 쉴드 캔(미도시됨), 탄성부(미도시됨) 및 접합 부재(미도시됨)를 더 포함할 수 있다. 나아가, 실시예에 따른 제2 카메라 엑추에이터(1200)는 이미지 센서(IS)를 더 포함할 수 있다.
제2 쉴드 캔(미도시됨)은 제2 카메라 엑추에이터(1200)의 일 영역(예컨대, 최외측)에 위치하여, 후술하는 구성요소(렌즈부(1220), 제2 하우징(1230), 탄성부(미도시됨), 제2 구동부(1250), 베이스부(미도시됨), 제2 기판부(1270) 및 이미지 센서(IS))를 감싸도록 위치할 수 있다.
이러한 제2 쉴드 캔(미도시됨)은 외부에서 발생한 전자기파를 차단 또는 저감할 수 있다. 이에 따라, 제2 구동부(1250)에서 오작동의 발생이 감소할 수 있다.
렌즈부(1220)는 제2 쉴드 캔(미도시됨) 내에 위치할 수 있다. 렌즈부(1220)는 제3 방향(Z축 방향)으로 이동할 수 있다. 이에 따라 상술한 AF 기능이 수행될 수 있다.
구체적으로, 렌즈부(1220)는 렌즈 어셈블리(1221) 및 보빈(1222)을 포함할 수 있다.
렌즈 어셈블리(1221)는 적어도 하나 이상의 렌즈를 포함할 수 있다. 또한, 렌즈 어셈블리(1221)는 복수 개일 수 있으나, 이하에서는 하나를 기준으로 설명한다.
렌즈 어셈블리(1221)는 보빈(1222)과 결합되어 보빈(1222)에 결합된 제4 마그넷(1252a) 및 제2 마그넷(1252b)에서 발생한 전자기력에 의해 제3 방향(Z축 방향)으로 이동할 수 있다.
보빈(1222)은 렌즈 어셈블리(1221)를 감싸는 개구 영역을 포함할 수 있다. 그리고 보빈(1222)은 렌즈 어셈블리(1221)와 다양한 방법에 의해 결합될 수 있다. 또한, 보빈(1222)은 측면에 홈을 포함할 수 있으며, 상기 홈을 통해 제4 마그넷(1252a) 및 제2 마그넷(1252b)과 결합할 수 있다. 상기 홈에는 접합 부재 등이 도포될 수 있다.
또한, 보빈(1222)은 상단 및 후단에 탄성부(미도시됨)와 결합될 수 있다. 이에, 보빈(1222)은 제3 방향(Z축 방향)으로 이동하는데 탄성부(미도시됨)로부터 지지될 수 있다. 즉, 보빈(1222)의 위치가 유지되면서 제3 방향(Z축 방향)으로 유지될 수 있다. 탄성부(미도시됨)는 판스프링으로 이루어질 수 있다.
제2 하우징(1230)은 렌즈부(1220)와 제2 쉴드 캔(미도시됨) 사이에 배치될 수 있다. 그리고 제2 하우징(1230)은 렌즈부(1220)를 둘러싸도록 배치될 수 있다.
제2 하우징(1230)은 측부에 홀이 형성될 수 있다. 상기 홀에는 제4 코일(1251a) 및 제5 코일(1251b)이 배치될 수 있다. 상기 홀은 상술한 보빈(1222)의 홈에 대응하도록 위치할 수 있다.
제4 마그넷(1252a)은 제4 코일(1251a)과 마주보게 위치할 수 있다. 또한, 제2 마그넷(1252b)은 제5 코일(1251b)과 마주보게 위치할 수 있다.
탄성부(미도시됨)는 제1 탄성부재(미도시됨) 및 제2 탄성부재(미도시됨)를 포함할 수 있다. 제1 탄성부재(미도시됨)는 보빈(1222)의 상면과 결합될 수 있다. 제2 탄성부재(미도시됨)는 보빈(1222)의 하면과 결합할 수 있다. 또한, 제1 탄성부재(미도시됨)와 제2 탄성부재(미도시됨)는 상술한 바와 같이 판 스프링으로 형성될 수 있다. 또한, 제1 탄성부재(미도시됨)와 제2 탄성부재(미도시됨)는 보빈(1222)의 이동에 대한 탄성을 제공할 수 있다.
제2 구동부(1250)는 렌즈부(1220)를 제3 방향(Z축 방향)으로 이동시키는 구동력(F3, F4)을 제공할 수 있다. 이러한 제2 구동부(1250)는 구동 코일(1251) 및 구동 마그넷(1252)을 포함할 수 있다.
구동 코일(1251)및 구동 마그넷(1252) 간에 형성된 전자기력으로 렌즈부(1220)가 제3 방향(Z축 방향)으로 이동할 수 있다. 이 때, 렌즈부(1220)는 복수 개의 렌즈 어셈블리로 이루어질 수 있으며, 제2 구동부(1250)에 의해 서로 독립적으로 또는 종속되어 제3 방향(Z축 방향)으로 이동할 수 있다.
구동 코일(1251)은 제4 코일(1251a) 및 제5 코일(1251b)을 포함할 수 있다. 제4 코일(1251a) 및 제5 코일(1251b)은 제2 하우징(1230)의 측부에 형성된 홀 내에 배치될 수 있다. 그리고 제4 코일(1251a) 및 제5 코일(1251b)은 제2 기판부(1270)와 전기적으로 연결될 수 있다. 이에, 제4 코일(1251a) 및 제5 코일(1251b)은 제2 기판부(1270)를 통해 전류 등을 공급받을 수 있다.
구동 마그넷(1252)은 제4 마그넷(1252a) 및 제5 마그넷(1252b)을 포함할 수 있다. 제4 마그넷(1252a) 및 제5 마그넷(1252b)은 보빈(1222)의 상술한 홈에 배치될 수 있으며, 제4 코일(1251a) 및 제5 코일(1251b)에 대응하도록 위치할 수 있다.
베이스부(미도시됨)는 렌즈부(1220)와 이미지 센서(IS) 사이에 위치할 수 있다. 베이스부(미도시됨)는 필터 등의 구성요소가 고정될 수 있다. 또한, 베이스부(미도시됨)는 이미지 센서(IS)를 둘러싸도록 배치될 수 있다. 이러한 구성에 의하여, 이미지 센서(IS)는 이물질 등으로부터 자유로워지므로, 소자의 신뢰성이 개선될 수 있다.
또한, 제2 카메라 엑추에이터는 줌(Zoom) 엑추에이터 또는 AF(Auto Focus) 엑추에이터일 수 있다. 예를 들어, 제2 카메라 엑추에이터는 하나 또는 복수의 렌즈를 지지하며 소정의 제어부의 제어신호에 따라 렌즈를 움직여 오토포커싱 기능 또는 줌 기능을 수행할 수 있다.
그리고 제2 카메라 엑추에이터는 고정줌 또는 연속줌일 수 있다. 예컨대, 제2 카메라 엑추에이터는 렌즈 어셈블리(1221)의 이동을 제공할 수 있다.
뿐만 아니라, 제2 카메라 엑추에이터는 복수 개의 렌즈 어셈블리로 이루어질 수 있다. 예컨대, 제2 카메라 엑추에이터는 제1 렌즈 어셈블리(미도시됨), 제2 렌즈 어셈블리(미도시됨), 제3 렌즈 어셈블리(미도시됨), 및 가이드 핀(미도시됨) 중 적어도 하나 이상이 배치될 수 있다. 이에 대해서는 상술한 내용이 적용될 수 있다. 이에, 제2 카메라 엑추에이터는 구동부를 통해 고배율 주밍 기능을 수행할 수 있다. 예를 들어, 제1 렌즈 어셈블리(미도시됨)와 제2 렌즈 어셈블리(미도시됨)는 구동부와 가이드 핀(미도시됨)을 통해 이동하는 이동 렌즈(moving lens)일 수 있으며, 제3 렌즈 어셈블리(미도시됨)는 고정 렌즈일 수 있으나 이에 한정되는 것은 아니다. 예를 들어, 제3 렌즈 어셈블리(미도시됨)는 광을 특정 위치에 결상하는 집광자(focator)의 기능을 수행할 수 있고, 제1 렌즈 어셈블리(미도시됨)는 집광자인 제3 렌즈 어셈블리(미도시됨)에서 결상된 상을 다른 곳에 재결상시키는 변배자(variator) 기능을 수행할 수 있다. 한편, 제1 렌즈 어셈블리(미도시됨)에서는 피사체와의 거리 또는 상거리가 많이 바뀌어서 배율변화가 큰 상태일 수 있으며, 변배자인 제1 렌즈 어셈블리(미도시됨)는 광학계의 초점 거리 또는 배율변화에 중요한 역할을 할 수 있다. 한편, 변배자인 제1 렌즈 어셈블리(미도시됨)에서 결상되는 상점은 위치에 따라 약간 차이가 있을 수 있다. 이에 제2 렌즈 어셈블리(미도시됨)는 변배자에 의해 결상된 상에 대한 위치 보상 기능을 할 수 있다. 예를 들어, 제2 렌즈 어셈블리(미도시됨)는 변배자인 제1 렌즈 어셈블리(미도시됨)에서 결상된 상점을 실제 이미지 센서 위치에 정확히 결상시키는 역할을 수행하는 보상자(compensator) 기능을 수행할 수 있다.
이미지 센서(IS)는 제2 카메라 엑추에이터의 내측에 또는 외측에 위치할 수 있다. 실시예로는, 도시한 바와 같이 이미지 센서(IS)가 제2 카메라 엑추에이터의 내측에 위치할 수 있다. 이미지 센서(IS)는 광을 수신하고, 수광된 광을 전기신호로 변환할 수 있다. 또한, 이미지 센서(IS)는 복수 개의 픽셀이 어레이 형태로 이루어질 수 있다. 그리고 이미지 센서(IS)는 광축 상에 위치할 수 있다.
도 12는 실시예에 따른 카메라 모듈의 구성을 나타낸 블록도이고, 도 13은 실시예에 따른 제어부의 블록도이다.
도 12을 참조하면, 카메라 모듈은, 이미지 센서(110), 이미지 신호 처리부(120), 디스플레이부(130), 제1 구동부(140), 제2 구동부(150), 제1 위치 센서부(160), 제2 위치 센서부(170), 저장부(180) 및 제어부(190)를 포함할 수 있다.
이미지 센서(110)는 상기 설명한 바와 같이, 렌즈에 통해 맺힌 피사체의 광학 상을 처리한다. 이를 위해, 이미지 센서(110)는 렌즈를 통해 획득된 이미지를 선처리할 수 있다. 또한, 이미지 센서(110)는 선처리된 이미지를 전기적 데이터로 변환시켜 출력할 수 있다.
이러한 이미지 센서(110)는 상술한 이미지 센서(IS)에 대응된다. 그리고 이미지 센서(110)는 다수의 광 검출기들이 각각의 화소로서 집적된 형태이며, 피사체의 이미지 정보를 전기적 데이터로 변환시켜 출력할 수 있다. 본 명세서에서 이미지 정보는 전기적 데이터 또는 다수의 광 검출기들이 각각의 화소로서 수신한 신호를 포함하는 개념일 수 있다.
실시예로, 이미지 센서(110)는 입력되는 광량을 축적하고, 그 축적된 광량에 따라 렌즈에서 촬영된 이미지를 수직 동기신호에 맞추어 출력한다. 이 때, 이미지 획득은 피사체로부터 반사되어 나오는 빛을 전기적인 신호로 변환시켜주는 이미지 센서(110)에 의해 이루어진다. 한편, 이미지 센서(110)를 이용하여 컬러 영상을 얻기 위해서는 컬러 필터가 필요하며, 예를 들어, CFA(Color Filter Array) 필터가 채용될 수 있다. CFA는 한 픽셀마다 한 가지 컬러를 나타내는 빛만을 통과시키며, 규칙적으로 배열된 구조를 가지며, 배열 구조에 따라 여러 가지 형태를 가진다.
이미지 신호 처리부(120)는 이미지 센서(110)를 통해 출력되는 이미지를 프레임 단위로 처리한다. 이 때, 이미지 신호 처리부(120)는 ISP(Image Signal Processor)라고도 칭할 수 있다.
이 때, 이미지 신호 처리부(120)는 렌즈 쉐이딩 보상부(도시하지 않음)를 포함할 수 있다. 렌즈 쉐이딩 보상부는, 이미지의 중심과 가장자리 영역의 광량에 다르게 나타나는 렌즈 쉐이딩 현상을 보상하기 위한 블록으로써, 후술할 제어부(190)로부터 렌즈 쉐이딩 설정 값을 입력받아, 이미지의 중심과 가장자리 영역의 색상을 보상한다.
나아가, 렌즈 쉐이딩 보상부는 조명의 종류에 따라 다르게 설정된 쉐이딩 변수를 수신하고, 수신된 변수에 맞게 이미지의 렌즈 쉐이딩을 처리할 수도 있다. 이에 따라, 렌즈 쉐이딩 보상부는 조명 종류에 따라 쉐이딩 정도를 다르게 적용하여 렌즈 쉐이딩 처리를 수행할 수 있다. 한편, 렌즈 쉐이딩 보상부는 이미지에 발생하는 포화 현상을 방지하기 위해 이미지의 특정 영역에 적용되는 자동 노출 가중치에 따라 다르게 설정된 쉐이딩 변수를 수신하고, 수신된 변수에 맞게 이미지의 렌즈 쉐이딩을 처리할 수도 있다. 더욱 명확하게는, 렌즈 쉐이딩 보상부는, 영상신호의 중심 영역에 대해 자동 노출 가중치가 적용됨에 따라 영상신호의 가장자리 영역에 발생하는 밝기 변화를 보상한다. 즉, 조명에 의해 영상신호의 포화가 발생하는 경우, 동심원 형태로 빛의 세기가 중앙에서 외곽으로 갈수록 감소함으로, 렌즈 쉐이딩 보상부는 영상 신호의 가장자리 신호를 증폭하여 중심 대비 밝기를 보상하도록 한다.
한편, 이미지 신호 처리부(120)는 이미지 센서(110)를 통해 획득되는 이미지의 선명도를 측정할 수 있다. 즉, 이미지 신호 처리부(120)는 이미지 센서(110)를 통해 획득되는 이미지의 초점 정확도를 체크하기 위하여, 이미지의 선명도를 측정할 수 있다. 선명도는, 포커스 렌즈의 위치에 따라 획득되는 이미지에 대해 각각 측정될 수 있다.
디스플레이부(130)는 후술할 제어부(190)의 제어에 따라 촬영된 이미지를 표시하며, 사진 촬영 시 필요한 설정 화면이나, 사용자의 동작 선택을 위한 화면을 표시할 수 있다. 또한, 디스플레이부(130)는 카메라 모듈 외측인 모바일 단말기 측에 위치할 수도 있다.
제1 구동부(140)는 상술한 제1 구동부(1140, 도 4 참조)에 대응할 수 있다. 즉, 제1 구동부(140)는 제어부(190)로부터 수신한 제어 신호에 대응하여 제1 내지 제3 코일 및 제1 내지 제3 마그넷 간에 전자기적 상호 작용이 이루어질 수 있다. 그리고 이러한 상호 작용에 의해 OIS가 수행될 수 있다. 다시 말해, 제1 구동부(140)는 무버를 광축 방향(제3 방향 또는 Z축 방향)에 수직한 제1 방향(X축 방향) 또는 제2 방향(Y축 방향)으로 이동시킬 수 있다.
제2 구동부(150)는 상술한 제2 구동부(1250, 도 8 참조)에 대응할 수 있다. 즉, 제2 구동부(150)는 제어부(190)로부터 수신한 제어 신호에 대응하여 제4 내지 제5 코일 및 제4 내지 제5 마그넷 간에 전자기적 상호 작용이 이루어질 수 있다. 그리고 이러한 상호 작용에 의해 주밍 또는 AF가 수행될 수 있다. 다시 말해, 제2 구동부(150)는 렌즈부를 제3 방향(Z축 방향)으로 이동시킬 수 있다. 예컨대, 포커스 렌즈를 광축 방향으로 이동시킬 수 있다.
제1 위치 센서부(160)는 설명한 제1 카메라 엑추에이터의 복수 개의 홀 센서를 포함하며, 그에 따라 무버 또는 광학부재의 위치를 검출한다. 즉, 제1 위치 센서부(160)는 무버에 배치된 제1 구동부의 위치를 감지할 수 있다. 이는 무버 또는 광학부재(예, 프리즘 또는 미러)의 위치를 제어하기 위함이다. 그리고 제1 위치 센서부(160)는 무버 또는 광학부재를 이동시키기 위한 위치 데이터를 제공한다.
제2 위치 센서부(170)는 설명한 제2 카메라 엑추에이터의 복수 개의 홀 센서를 포함하며, 그에 따라 렌즈부(1220, 도 9 참조)의 위치를 검출한다. 즉, 제2 위치 센서부(170)는 렌즈부(1220)에 인접한 제2 구동부의 위치를 감지할 수 있다. 이는 렌즈부의 위치를 제어하기 위함이다. 그리고 제2 위치 센서부(170)는 렌즈부를 이동시키기 위한 위치 데이터를 제공한다.
저장부(180)는 카메라 모듈이 동작하는데 필요한 데이터를 저장한다. 실시예로, 저장부(180)에는 피사체와의 거리 별로 줌 위치 및 포커스 위치에 대한 정보가 저장될 수 있다. 즉, 포커스 위치는, 피사체의 초점을 정확히 맞추기 위한 포커스 렌즈의 위치일 수 있다. 그리고 포커스 위치는 줌 렌즈에 대한 줌 위치 및 피사체와의 거리에 따라 변화할 수 있다. 따라서, 저장부(180)는 거리에 따라 줌 위치 및 줌 위치에 대응하는 포커스 위치에 대한 데이터를 저장한다.
또한, 저장부(180)는 카메라 모듈의 기울기 또는 움직임 정보로부터 이를 보상하기 위해 움직임 정보에 대응하는 코일에 인가되는 구동 신호(예로 전류) 정보를 저장할 수 있다.
제어부(190)는 카메라 모듈의 전반적인 동작을 제어한다. 특히, 제어부(190)는 손떨림 방지 기능, 자동 초점 기능 및 배율 조정 기능을 제공하기 위하여, 제1 위치 센서부(160) 및 제2 위치 센서부(170)를 제어할 수 있다.
다시 말해서, 제어부(190)는 제1 위치 센서부(160)를 통해 무버 또는 광학부재의 위치 정보를 수신하고, 위치 정보를 이용하여 무버의 틸트량을 재조정할 수 있다. 바람직하게, 제어부(190)는 무버 또는 광학부재를 목표 위치로 이동시키기 위하여, 제1 위치 센서부(160)를 통해 무버 또는 광학부재의 현재 위치 정보를 이용할 수 있다. 그리고 제어부(190)는 제1 위치 센서부(160)를 통해 무버 또는 광학부재의 현재 위치 정보가 검출되면, 무버 또는 광학부재의 현재 위치를 기준으로 무버 또는 광학부재를 목표 위치로 이동시키기 위한 제어 신호를 상기 제1 구동부(140)에 공급할 수 있다.
또한, 제어부(190)는 제2 위치 센서부(170)를 통해 렌즈부의 위치 정보를 수신하여 렌즈부의 위치를 재조정할 수 있다. 제어부(190)는 렌즈부를 목표 위치로 이동시키기 위하여, 제2 위치 센서부(170)를 통해 렌즈부의 현재 위치 정보를 이용할 수 있다.
그리고 제어부(190)는 제2 위치 센서부(170)를 통해 렌즈부의 현재 위치가 검출되면, 렌즈부의 현재 위치를 기준으로 렌즈부를 목표 위치로 이동시키기 위한 제어 신호를 제2 구동부(150)에 공급할 수 있다
다시 말해서, 본 발명에서는 제1 위치 센서부(160) 및 제2 위치 센서부(170) 각각은 복수의 위치 센서(상술한 '홀 센서'에 대응)을 포함할 수 있다. 그리고 복수의 위치 센서는 각각의 설치 위치에서 검출 동작을 수행한다. 즉, 복수의 위치 센서는 무버의 위치, 렌즈부의 위치 등을 검출할 수 있다. 이 때, 본 발명에서는 복수의 위치 센서를 통해 획득된 검출신호의 차동 신호를 이용하여, 무버 또는 광학부재 및 렌즈부의 위치를 각각 검출할 수 있다.
나아가, 제1 위치 센서부(160)는 제1 카메라 엑추에이터에서 설명한 바와 같이 제1 방향(X축 방향)으로 무버의 위치 정보를 감지하는 제1 위치 센서 및 제2 방향(Y축 방향)으로 무버의 위치 정보를 감지하는 제2 위치 센서를 포함할 수 있다. 제1 위치 센서는 상술한 제1,2 홀 센서에 대응하고, 제2 위치 센서는 제3 홀 센서에 대응할 수 있다.
제어부는 무버의 제1 방향(X축 방향)으로 위치 정보를 이용하여 이미지 정보에 대한 광축 방향(제3 방향 또는 Z축 방향)을 기준으로 회전 보정량을 산출할 수 있다.
도 13을 참조하면, 제어부(190)는 수신부(191), 출력부(192) 및 산출부(193)를 포함할 수 있다.
먼저, 수신부(191)는 OIS, AF 또는 Zooming을 위해 외부 예컨대, 이동 단말기의 AP(Application Processor)로부터 제어 신호를 수신할 수 있다. 예컨대, 이동 단말기는 자이로 센서로부터 움직임 정보를 수신하고 움직임 정보를 이용하여 OIS를 수행하기 위하여 무버를 제1 방향으로 또는 제2 방향으로 이동하기 위한 제어 신호를 카메라 모듈로 제공될 수 있다.
수신부(191)는 제1 위치 센서부(160) 및 제2 위치 센서부(170)로부터 무버의 위치 정보('제1 위치 정보'와 혼용함)와 렌즈부의 위치 정보('제2 위치 정보'와 혼용함)를 수신할 수 있다.
수신부(191)는 제1 위치 센서로부터 무버의 제1 방향(X축 방향)으로의 위치 정보 및 제2 위치 센서로부터 무버의 제2 방향(Y축 방향)으로의 위치 정보를 포함하는 제1 위치 정보를 제1 위치 센서부(160)로부터 수신할 수 있다.
또한, 수신부(191)는 렌즈부의 제3 방향(Z축 방향)으로의 위치 정보를 포함하는 제2 위치 정보를 제2 위치 센서부(170)로부터 수신할 수 있다.
출력부(192)는 제어 신호에 대응하여 제1 구동부(140) 및 제2 구동부(150)를 구동시키는 구동 신호를 출력할 수 있다. 실시예로, 구동 신호는 제1 구동부(140)의 제1 코일 내지 제3 코일로 제공되는 전류의 크기 또는 방향에 대한 정보를 가질 수 있다. 또한, 구동 신호는 제2 구동부(150)의 제4 코일 내지 제5 코일로 제공되는 전류의 크기 또는 방향에 대한 정보를 가질 수 있다. 다시 말해, 구동 신호에 의해 무버 및 렌즈부의 이동방향 또는 이동량이 결정될 수 있다.
산출부(193)는 수신부(191)에서 수신된 제1 위치 정보와 제2 위치 정보를 이용하여 이미지 정보에 대한 제3 방향 또는 광축 방향을 기준으로 회전 보정량을 산출할 수 있다. 이에 대한 자세한 설명은 후술한다.
실시예로, 제어부(190)에는 복수의 위치 센서에서 검출된 제1 위치 정보 및 제2 위치 정보가 각각 입력되고, 제1 위치 정보 및 제2 위치 정보를 기반으로 무버 또는 광학부재나 제2 렌즈 어셈블리의 위치가 검출되도록 할 수 있다.
도 14는 실시예에 따른 제1 카메라 엑추에이터에서 무버의 사시도이고, 도 15는 실시예에 따른 제1 카메라 엑추에이터의 단면도이고, 도 16은 실시예에 따른 제1 카메라 엑추에이터에서 무버의 제2 방향으로 이동에 따른 이미지 정보를 도시한 도면이고, 도 17은 도 16의 이미지 정보를 설명하는 도면이다.
도 14 및 도 15를 참조하면, 실시예에 따른 제1 카메라 엑추에이터에서 무버(1130)는 상술한 바와 같이 광 경로를 변경하는 광학부재(1132)와 광학부재(1132)를 홀딩하는 홀더(1131)를 포함할 수 있다. 이 때, 광은 무버에서 제1 방향(X축 방향)으로 입사되고, 광학부재(1132)에서 반사되어 광축 방향인 제3 방향(Z축 방향)으로 출력될 수 있다.
실시예로, 광학부재(1132)는 광축 방향(Z축 방향 또는 제3 방향)과 광축 방향에 수직한 일 방향에 대해 기울기를 가질 수 있다. 본 실시예에서, 광학부재(1132)는 제1 방향(X축 방향)에 대해 기울기를 가지도록 위치할 수 있다. 또한, 광학부재(1132)는 광축 방향 즉, 제3 방향(Z축 방향)에 대해 기울기를 갖도록 위치할 수 있다.
또는, 다른 실시예로, 광학부재(1132)는 제2 방향(Y축 방향) 및 광축 방향에 대해 기울기를 갖도록 위치할 수 있다. 이하 도면을 기준으로 설명한다.
실시예로, 광학부재(1132)는 광축 방향 및 제1 방향(X축 방향) 중 어느 하나와 제2 방향(Y축 방향)에 의한 평면에 대해 경사질 수 있다. 예컨대, 광학부재(1132)는 평면(XY, YZ)에 의한 평면에 대해 경사질 수 있다.
또한, 광학부재(1132)는 제1 방향(X축 방향) 및 광축 방향(Z축 방향)에 의한 평면에 대해 수직일 수 있다. 예컨대, 광학부재(1132)는 평면(XZ)에 대해 수직일 수 있다.
또한, 다른 실시예로 광학부재로 입사되는 광의 입사 방향과 광축 방향 중 어느 하나와 입사 방향(예로, 제1 방향) 및 광축 방향에 수직한 다른 방향(예로, 제2 방향(Y축 방향))에 의한 평면에 경사질 수 있다.
도 16 및 도 17을 참조하면, 실시예에 따른 광학부재는 제어부에 의해 제1 방향(X축 방향)을 기준으로 회전(또는 X축 틸트)할 수 있다. 또는 광학부재는 제어부에 의해 제2 방향(Y축 방향)으로 이동(또는 X축 틸트)할 수 있다.
이 때, 광학부재가 제2 방향(Y축 방향)으로 이동하는 경우에, 이미지 센서에서 생성되는 이미지 정보(또는 이미지)는 광학부재의 제2 방향(Y축 방향)으로의 이동에 대응하여 제2 방향(Y축 방향)으로 이동할 수 있다.
실시예로, 광학 부재가 제2 방향(Y축 방향)으로 이동하는 경우(b, Y+이동) 이미지는 광학부재의 이동에 대응하여 제2 방향의 반대 방향으로 이동할 수 있다(b, Y이동1). 또한, 광학 부재가 제2 방향(Y축 방향)에 반대 방향으로 이동하는 경우(c, Y-이동) 이미지는 광학부재의 이동에 대응하여 제2 방향으로 이동할 수 있다(c, Y이동2).
본 실시예에서, 이미지 센서는 상술한 카메라 모듈의 구조에서 설명한 제1 내지 제3 방향을 기준으로 설명한다. 이에, 이미지에 대한 X축 및 Y축 카메라 엑추에이터에서 제1 방향(X축 방향)과 제2 방향(Y축 방향)에 각각 대응하고, Z축은 제3 방향(Z축 방향)에 반대 방향으로 대응할 수 있다.
이와 달리, 광학부재의 기능 및 렌즈의 구조 등에 따라 광학 부재가 제2 방향으로 이동하는 경우 이미지는 광학 부재의 이동 방향과 동일한 방향으로 이동할 수도 있다.
다만, 광학부재가 제1 방향을 기준으로 틸트하는 방향(제2 방향으로 이동 또는 제2 방향에 반대 방향으로 이동)에 따라 이미지도 이동 방향이 변경될 수 있다.
추가적으로, 광학부재가 제2 방향(Y축 방향)으로 이동하는 경우에, 이미지 센서에서 생성되는 이미지 정보(또는 이미지)는 광학부재의 제2 방향(Y축 방향)으로 이동에 대응하여 제3 방향(Z축 방향)을 기준으로 회전할 수 있다.
실시예로, 광학 부재가 제2 방향(Y축 방향)으로 이동하는 경우 이미지는 광학부재의 이동에 대응하여 제2 방향으로 이동할 수 있다(C). 또한, 광학 부재가 제2 방향(Y축 방향)에 반대 방향으로 이동하는 경우 이미지는 광학부재의 이동에 대응하여 제2 방향에 반대 방향으로 이동할 수 있다.
즉, 광학부재가 제2 방향(Y축 방향)으로 또는 제2 방향(Y축 방향)에 반대 방향으로 이동하면, 이미지 또는 이미지 정보는 제3 방향(Z축 방향)을 기준으로 소정의 각도(θ a, θ b)만큼 회전할 수 있다(b,c). 실시예로, 광학 부재가 제2 방향(Y축 방향)으로 이동하면, 제어부는 이미지가 반시계 방향(Z축 기준으로 - 회전)으로 회전하는 회전 보정량을 산출할 수 있다. 그리고 광학 부재가 제2 방향에 반대 방향으로 이동하면 제어부는 이미지가 시계 방향으로 회전(Z축 기준으로 +회전)하는 회전하는 회전 보정량을 산출할 수 있다. 즉, 제어부는 광학부재의 위치 정보(제2 방향으로 이동인지 제2 방향에 반대 방향으로 이동인지 여부)에 따라 Z축 방향을 기준으로 방향이 상이한 회전 보정량을 산출할 수 있다.
실시예로, 제어부는 제1 위치 정보에서 무버가 제2 방향(Y축 방향)으로 이동한 것을 감지하면 제3 방향(Z축 방향)을 기준으로 이미지가 회전한 소정의 각도(θ a, θ b)만큼 보상하는 회전 보정량을 산출할 수 있다. 회전 보정량은 상술한 소정의 각도(θ a, θ b)에 대응한 값일 수 있다. 회전 보정량은 이미지 처리부 또는 외부의 모바일 장치로 전송될 수 있다. 이에 따라, 이미지가 상기 각도만큼 회전하여 출력함으로써 손떨림에 대한 보정 및 손떨림 보정에 대한 오차도 최소화될 수 있다.
도 18은 실시예에 따른 제1 카메라 엑추에이터에서 무버의 제1 방향으로 이동에 따른 이미지 정보를 도시한 도면이고, 도 19는 도 18의 이미지 정보를 설명하는 도면이다.
도 18 및 도 19를 참조하면, 실시예에 따른 광학부재는 제어부에 의해 제2 방향(Y축 방향)을 기준으로 회전(Y축 틸트)할 수 있다. 또는 광학부재는 제어부에 의해 제1 방향(X축 방향)으로 이동(Y축 틸트)할 수 있다.
이 때, 광학부재가 제1 방향(X축 방향)으로 이동하는 경우에, 이미지 센서에서 생성되는 이미지 정보(또는 이미지)는 광학부재의 제1 방향(X축 방향)으로의 이동에 대응하여 제1 방향(X축 방향)으로 이동할 수 있다.
실시예로, 광학 부재가 제1 방향(X축 방향)으로 이동하는 경우(e, X+이동) 이미지는 광학부재의 이동에 대응하여 제2 방향의 반대 방향으로 이동할 수 있다(e, X이동1). 또한, 광학 부재가 제1 방향(X축 방향)에 반대 방향으로 이동하는 경우(f, X-이동) 이미지는 광학부재의 이동에 대응하여 제2 방향으로 이동할 수 있다(f, X이동2).
그리고 광학부재가 제1 방향(X축 방향)으로 이동하는 경우에, 이미지 센서에서 생성되는 이미지 정보(또는 이미지)는 광학부재의 제1 방향(X축 방향)으로 이동에 대응하여 제3 방향을 기준으로 회전하지 않을 수 있다.
즉, 제어부는 무버의 제1 방향(X축 방향)으로 위치 정보를 제2 위치 센서로부터 수신하더라도 무버의 제1 방향(X축 방향)으로 위치 정보를 회전 보정량에 반영하지 않을 수 있다.
보다 구체적으로, 이미지 정보를 참조하면, 광학부재가 제1 방향(X축 방향)으로 이동하면, 이미지는 제3 방향(Z축 방향)을 기준으로 회전하지 않을 수 있다.
이에 대해, 제어부는 제1 위치 정보에서 무버가 제1 방향(X축 방향)으로 이동한 것을 감지하더라도 이미지가 제3 방향(Z축 방향)을 기준으로 회전하지 않는 것으로 판단한다. 이에, 제어부는 이러한 제1 방향(X축 방향)으로의 이동 정보를 회전 보정량을 적용하지 않고 회전 보정량을 산출할 수 있다.
실시예로, 제어부는 무버의 제2 방향(Y축 방향)으로의 위치 정보만으로 회전 정보량을 산출할 수 있다. 이로부터 산출된 회전 보정량은 이미지 처리부 또는 외부의 모바일 정치로 전송될 수 있다. 이에 따라, 이미지가 상기 각도만큼 회전하여 출력함으로써 손떨림에 대한 보정 및 손떨림 보정에 대한 오차도 최소화될 수 있다.
도 20 및 도 21은 실시예에 따른 카메라 모듈의 제어부가 제2 위치 정보에 따라 회전 보정량을 조절하는 동작을 설명하는 도면이다.
먼저, 상술한 바와 같이 제2 카메라 엑추에이터는 광축 방향으로 이동하고 적어도 하나의 렌즈를 포함하는 렌즈부를 포함할 수 있다.
이에, 실시예에 따른 산출부는 렌즈부 또는 적어도 하나의 렌즈의 초점 거리의 변화에 따라 무버의 위치 정보에 대한 회전 보정량의 변화량을 조절할 수 있다.
도 20 및 도 21를 참조하면, 도 20 및 도 21은 제2 카메라 엑추에이터의 렌즈부의 이동에 따라 광각 상태 및 망원 상태이다. 도면상으로, 도 20은 광각(wide angle) 상태이고, 도 21는 망원(telephoto) 상태이며 이를 기준으로 설명한다.
광각 상태에서 렌즈부(1100, 1200)와 이미지 센서(IS)에 의한 초점 거리(L)는 망원 상태에서 렌즈부(1100, 1200)와 이미지 센서(IS)에 의한 초점 거리(L')보다 클 수 있다. 여기서, 렌즈부(1100, 1200)는 제2 카메라 엑추에이터의 렌즈부이나 하나의 카메라 모듈로서 손떨림이 동시에 발생하고 이에 대한 손떨림 보정도 함께 발생하여 하나의 구성으로 설명한다.
또한, 광각 상태에서 렌즈부(1100, 1200)와 이미지 센서(IS)에 의한 화각(θ)은 망원 상태에서 렌즈부(1100, 1200)와 이미지 센서(IS)에 의한 화각(θ')보다 작을 수 있다.
또한, 광각 상태에서 렌즈부(1100, 1200)가 사용자의 손떨림에 의해 떨리는 경우, 이미지 센서(IS)에 맺힌 상은 이미지 센서(IS)의 전체 크기 또는 면적에 대해 제1 흔들림 영역(SR)을 가질 수 있다.
망원 상태에서 렌즈부(1100, 1200)가 사용자의 손떨림에 의해 떨리는 경우, 이미지 센서(IS)에 맺힌 상은 이미지 센서(IS)의 전체 크기 또는 면적에 대해 제2 흔들림 영역(SR)을 가질 수 있다.
사용자에 의한 손떨림이 동일한 경우(예컨대, 소정의 흔들림 각도로 떨리는 경우) 제1 흔들림 영역(SR1)은 제2 흔들림 영역(SR)보다 작을 수 있다. 다시 말해, 화각이 감소할수록 손떨림에 의한 흔들림 영역이 증가할 수 있다.
이에, 실시예에 따른 제어부는 적어도 하나의 렌즈의 초점 거리가 증가하면 회전 보정량의 변화량을 증가할 수 있다. 또한, 실시예에 따른 제어부는 적어도 하나의 렌즈의 초점 거리가 감소하면 회전 보정량의 변화량을 감소시킬 수 있다.
즉, 제어부는 초점 거리의 증감에 대응하여 회전 보정량의 증감을 증가시킬 수 있다. 이에 따라, 상술한 바와 같이 초점 거리가 증가하는 경우에 화각이 감소하고 손떨림에 흔들림 영역이 증가할 수 있다.
이에 따라, 제어부는 상술한 바와 같이 무버의 제2 방향(Y축 방향)으로의 이동에 따라 이미지의 제3 방향(Z축 방향)을 기준으로 회전량도 증가하고 흔들림 영역도 더욱 증가하더라도 흔들림에 대한 보정이 정확하게 수행할 수 있다. 이로써, 실시예에 따른 카메라 모듈은 손떨림에 대한 보정을 보다 정확하게 수행할 수 있다.
반대로, 초점 거리가 감소하는 경우에 화각이 증가하고 손떨림에 흔들림 영역이 감소할 수 있다. 이에 따라, 제어부는 상술한 바와 같이 무버의 제2 방향(Y축 방향)으로의 이동에 따라 이미지의 제3 방향(Z축 방향)을 기준으로 회전량도 감소하고 흔들림 영역도 더욱 감소하므로 이러한 흔들림 영역의 변화에 대응한 흔들림 보정을 정확하게 수행할 수 있다. 이로써, 실시예에 따른 카메라 모듈은 정확한 이미지를 제공할 수 있다.
도 22는 다른 실시예에 따른 제어부의 구동을 설명하는 도면이다.
도 22를 참조하면, 다른 실시예에 따른 카메라 모듈은 이미지 센서, 이미지 신호 처리부, 디스플레이부, 제1 구동부, 제2 구동부, 제1 위치 센서부, 제2 위치 센서부, 저장부 및 제어부를 포함할 수 있다.
그리고 이미지 센서, 이미지 신호 처리부, 디스플레이부, 제1 구동부, 제2 구동부, 제1 위치 센서부, 제2 위치 센서부, 저장부 및 제어부는 이하 설명하는 내용을 제외하고 상술한 내용이 동일하게 적용될 수 있다.
다른 실시예에서 제어부는 복수의 위치 센서에서 검출된 제1 위치 정보 및 제2 위치 정보가 각각 입력되고, 제1 위치 정보 및 제2 위치 정보를 기반으로 무버 또는 광학부재나 제2 렌즈 어셈블리의 위치가 검출되도록 할 수 있다.
또한, 제어부는 무버의 제1 방향(X축 방향)으로 위치 정보를 이용하여 이미지 정보에 대한 광축 방향(제3 방향 또는 Z축 방향)을 기준으로 회전 보정량을 산출할 수 있다.
그리고 제어부는 제1 위치 정보와 제2 위치 정보를 이용하여 이미지 정보에 대한 제3 방향 또는 광축 방향을 기준으로 이미지 센서의 회전 보정량을 산출할 수 있다. 다시 말해, 제어부는 이미지 센서 자체의 Z축 방향 또는 광축(OX) 방향을 기준으로 회전시키기 위한 회전 보정량(RT)을 산출할 수 있다.
이로써, 다른 실시예에서 이미지 센서는 제3 방향(z축 방향)으로 회전할 수 있으며, 회전을 위한 제3 구동부(미도시됨)가 이미지 센서의 인접 영역에 위치할 수 있다.
도 23은 실시예에 따른 제어부의 구동 방법의 순서도이다.
도 23을 참조하면, 실시예에 따른 제어부의 구동 방법은 자이로 센서로 움직임을 감지하는 단계(S310), 무버를 틸트하는 제어 신호를 출력하는 단계(S320), 무버의 위치 감지를 수행하는 단계(S330), 회전 보정량을 산출하는 단계(S340) 및 이미지 센서를 회전 또는 이미지 처리를 수행하는 단계(S350)를 포함할 수 있다.
자이로 센서가 카메라 모듈의 움직임(기울기 등)을 감지할 수 있다(S310). 제어부는 자이로 센서로부터 카메라 모듈의 기울기 정보를 수신할 수 있다. 자이로 센서가 카메라 모듈 내에 위치한 경우에 상기 단계가 수행될 수 있으나, 자이로 센서가 외부에 위치하는 경우 본 단계는 생략될 수 있다.
그리고 제어부는 무버를 틸트하는 제어 신호를 출력할 수 있다(S320). 상술한 바와 같이 카메라 모듈의 움직임 정보에 대응하여 무버를 제1 방향 또는 제2 방향으로 이동시킬 수 있다. 즉, OIS 기능이 수행될 수 있다.
그리고 제어부는 무버의 위치 감지할 수 있다(S330). 제어부는 제1 위치 센서부와 제2 위치 센서부로부터 무버와 렌즈부의 위치를 감지할 수 있다. 실시예로, 제어부는 제1 위치 센서와 제2 위치 센서를 통해 무버의 제1 방향 또는 제2 방향으로 이동을 감지할 수 있다.
그리고 제어부는 무버의 제2 방향으로 위치 정보를 이용하여 회전 보정량을 산출할 수 있다(S340). 이에 대한 설명은 상술한 내용이 동일하게 적용될 수 있다
그리고 제어부는 이미지 센서를 회전 또는 이미지 처리를 수행할 수 있다(S350).
실시예로, 제어부는 산출된 회전 보정량만큼 이미지 센서로부터 생성된 이미지를 고아축 방향을 기준으로 회전할 수 있다. 이에, 무버가 제2 방향(Y축 방향)으로 이동하면서 발생한 제3 방향(Z축 방향)을 기준으로 회전한 오차가 보상될 수 있다. 이로써, 보다 정확한 손떨림 방지(OIS) 기능이 구현될 수 있다.
도 24는 실시예에 따른 카메라 모듈이 적용된 이동 단말기의 사시도이고,
도 24를 참조하면, 실시예의 이동단말기(1500)는 후면에 제공된 카메라 모듈(1000), 플래쉬모듈(1530), 자동초점장치(1510)를 포함할 수 있다.
카메라 모듈(1000)은 이미지 촬영 기능 및 자동 초점 기능을 포함할 수 있다. 예컨대, 카메라 모듈(1000)은 이미지를 이용한 자동 초점 기능을 포함할 수 있다.
카메라 모듈(1000)은 촬영 모드 또는 화상 통화 모드에서 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상의 화상 프레임을 처리한다.
처리된 화상 프레임은 소정의 디스플레이부에 표시될 수 있으며, 메모리에 저장될 수 있다. 이동단말기 바디의 전면에도 카메라(미도시)가 배치될 수 있다.
예를 들어, 카메라 모듈(1000)은 제1 카메라 모듈(1000)과 제2 카메라 모듈(1000)을 포함할 수 있고, 제1 카메라 모듈(1000A)에 의해 AF 또는 줌 기능과 함께 OIS 구현이 가능할 수 있다.
플래쉬모듈(1530)은 내부에 광을 발광하는 발광 소자를 포함할 수 있다. 플래쉬모듈(1530)은 이동단말기의 카메라 작동 또는 사용자의 제어에 의해 작동될 수 있다.
자동초점장치(1510)는 발광부로서 표면 광 방출 레이저 소자의 패키지 중의 하나를 포함할 수 있다.
자동초점장치(1510)는 레이저를 이용한 자동 초점 기능을 포함할 수 있다. 자동초점장치(1510)는 카메라 모듈(1000)의 이미지를 이용한 자동 초점 기능이 저하되는 조건, 예컨대 10m 이하의 근접 또는 어두운 환경에서 주로 사용될 수 있다.
자동초점장치(1510)는 수직 캐비티 표면 방출 레이저(VCSEL) 반도체 소자를 포함하는 발광부와, 포토 다이오드와 같은 빛 에너지를 전기 에너지로 변환하는 수광부를 포함할 수 있다.
도 25은 실시예에 따른 카메라 모듈이 적용된 차량의 사시도이다.
예를들어, 도 25는 실시예에 따른 카메라 모듈(1000)이 적용된 차량 운전 보조 장치를 구비하는 차량의 외관도이다.
도 25를 참조하면, 실시예의 차량(700)은, 동력원에 의해 회전하는 바퀴(13FL, 13FR), 소정의 센서를 구비할 수 있다. 센서는 카메라센서(2000)일 수 있으나 이에 한정되는 것은 아니다.
카메라(2000)는 실시예에 따른 카메라 모듈(1000)이 적용된 카메라 센서일 수 있다. 실시예의 차량(700)은, 전방 영상 또는 주변 영상을 촬영하는 카메라센서(2000)를 통해 영상 정보를 획득할 수 있고, 영상 정보를 이용하여 차선 미식별 상황을 판단하고 미식별시 가상 차선을 생성할 수 있다.
예를 들어, 카메라센서(2000)는 차량(700)의 전방을 촬영하여 전방 영상을 획득하고, 프로세서(미도시)는 이러한 전방 영상에 포함된 오브젝트를 분석하여 영상 정보를 획득할 수 있다.
예를 들어, 카메라센서(2000)가 촬영한 영상에 차선, 인접차량, 주행방해물, 및 간접 도로 표시물에 해당하는 중앙 분리대, 연석, 가로수 등의 오브젝트가 촬영된 경우, 프로세서는 이러한 오브젝트를 검출하여 영상 정보에 포함시킬 수 있다. 이 때, 프로세서는 카메라센서(2000)를 통해 검출된 오브젝트와의 거리 정보를 획득하여, 영상 정보를 더 보완할 수 있다.
영상 정보는 영상에 촬영된 오브젝트에 관한 정보일 수 있다. 이러한 카메라센서(2000)는 이미지 센서와 영상 처리 모듈을 포함할 수 있다.
카메라센서(2000)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지 영상 또는 동영상을 처리할 수 있다.
영상 처리 모듈은 이미지센서를 통해 획득된 정지 영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.
이 때, 카메라센서(2000)는 오브젝트의 측정 정확도를 향상시키고, 차량(700)과 오브젝트와의 거리 등의 정보를 더 확보할 수 있도록 스테레오 카메라를 포함할 수 있으나 이에 한정되는 것은 아니다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 입사된 광의 경로를 변경하는 광학부재를 포함하는 무버;
    상기 무버를 광축 방향에 수직한 제1 방향 또는 제2 방향으로 이동시키는 구동부;
    상기 무버를 이동시키는 제어신호를 출력하는 출력부;
    상기 무버의 상기 제2 방향으로 위치 정보를 감지하는 제1 위치 센서;
    상기 광학부재를 통과한 광을 수광하여 이미지 정보를 생성하는 이미지 센서; 및
    상기 무버의 상기 제2 방향으로 위치 정보를 이용하여 상기 이미지 정보에 대한 상기 광축 방향을 기준으로 이미지 정보의 회전 보정량을 산출하는 산출부;를 포함하는 카메라 엑추에이터.
  2. 제1항에 있어서,
    상기 입사된 광은 상기 무버에서 상기 제1 방향으로 입사하고 상기 광축 방향으로 출력되는 카메라 엑추에이터.
  3. 제2항에 있어서,
    상기 광학부재는 상기 제1 방향 및 상기 광축 방향에 대해 수직이 아닌 기울기를 갖도록 배치되는 카메라 엑추에이터.
  4. 제1항에 있어서,
    상기 광학부재는 상기 제1 방향 및 상기 광축 방향 중 어느 하나와 상기 제2 방향에 의한 평면에 대해 경사지게 배치되는 카메라 엑추에이터.
  5. 제1항에 있어서,
    상기 광학부재는 상기 제1 방향 및 상기 광축 방향에 의한 평면에 대해 수직인 카메라 엑추에이터.
  6. 제1항에 있어서,
    상기 광축 방향으로 이동하는 적어도 하나의 렌즈;를 더 포함하고,
    상기 산출부는 상기 적어도 하나의 렌즈의 초점 거리의 변화에 따라 상기 위치 정보에 대한 상기 회전 보정량의 변화량을 조절하는 카메라 엑추에이터.
  7. 제6항에 있어서,
    상기 회전 보정량의 변화량은 상기 적어도 하나의 렌즈의 초점 거리가 증가하면 증가하고, 상기 적어도 하나의 렌즈의 초점 거리가 감소하면 감소하는 카메라 엑추에이터.
  8. 제1항에 있어서,
    상기 무버의 상기 제1 방향으로 위치 정보를 감지하는 제2 위치 센서;를 더 포함하는 카메라 엑추에이터.
  9. 제8항에 있어서,
    상기 산출부는 상기 무버의 상기 제1 방향으로 위치 정보를 상기 회전 보정량에 반영하지 않는 카메라 엑추에이터.
  10. 입사된 광의 경로를 변경하는 광학부재를 포함하는 무버;
    상기 무버를 광축 방향에 수직한 제1 방향 또는 제2 방향으로 이동시키는 구동부;
    상기 무버를 이동시키는 제어신호를 출력하는 출력부;
    상기 무버의 상기 제2 방향으로 위치 정보를 감지하는 제2 위치 센서;
    상기 광학부재를 통과한 광을 수광하여 이미지 정보를 생성하는 이미지 센서; 및
    상기 무버의 상기 제2 방향으로 위치 정보를 이용하여 상기 이미지 센서를 상기 광축 방향을 기준으로 회전시키는 회전 보정량을 산출하는 산출부;를 포함하는 카메라 엑추에이터.
PCT/KR2021/005613 2020-05-06 2021-05-04 카메라 엑추에이터 및 이를 포함하는 카메라 장치 WO2021225358A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21800688.0A EP4149107A4 (en) 2020-05-06 2021-05-04 CAMERA ACTUATOR AND CAMERA DEVICE THEREFROM
JP2022567620A JP2023525073A (ja) 2020-05-06 2021-05-04 カメラアクチュエータおよびこれを含むカメラ装置
US17/923,870 US20230168565A1 (en) 2020-05-06 2021-05-04 Camera actuator and camera device including same
CN202180040905.XA CN115702573A (zh) 2020-05-06 2021-05-04 相机致动器和包括该相机致动器的相机装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200053857A KR20210135780A (ko) 2020-05-06 2020-05-06 카메라 엑추에이터 및 이를 포함하는 카메라 장치
KR10-2020-0053857 2020-05-06

Publications (1)

Publication Number Publication Date
WO2021225358A1 true WO2021225358A1 (ko) 2021-11-11

Family

ID=78468084

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/005613 WO2021225358A1 (ko) 2020-05-06 2021-05-04 카메라 엑추에이터 및 이를 포함하는 카메라 장치

Country Status (6)

Country Link
US (1) US20230168565A1 (ko)
EP (1) EP4149107A4 (ko)
JP (1) JP2023525073A (ko)
KR (1) KR20210135780A (ko)
CN (1) CN115702573A (ko)
WO (1) WO2021225358A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011147178A (ja) * 2011-03-30 2011-07-28 Casio Computer Co Ltd 撮像装置
KR20140106457A (ko) * 2014-06-20 2014-09-03 삼성전자주식회사 굴절면으로 구성된 굴곡 프리즘의 구동을 통한 광경로 보정 시스템 및 방법
KR20180095420A (ko) * 2017-02-17 2018-08-27 삼성전기주식회사 손떨림 보정 반사모듈 및 이를 포함하는 카메라 모듈
KR20190108375A (ko) * 2018-03-14 2019-09-24 엘지전자 주식회사 이미지 획득 장치
KR20190137036A (ko) * 2019-11-27 2019-12-10 엘지이노텍 주식회사 카메라 모듈
KR20200053857A (ko) 2018-11-09 2020-05-19 (주) 에어로매스터 항공기의 통합 대기 자료 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011147178A (ja) * 2011-03-30 2011-07-28 Casio Computer Co Ltd 撮像装置
KR20140106457A (ko) * 2014-06-20 2014-09-03 삼성전자주식회사 굴절면으로 구성된 굴곡 프리즘의 구동을 통한 광경로 보정 시스템 및 방법
KR20180095420A (ko) * 2017-02-17 2018-08-27 삼성전기주식회사 손떨림 보정 반사모듈 및 이를 포함하는 카메라 모듈
KR20190108375A (ko) * 2018-03-14 2019-09-24 엘지전자 주식회사 이미지 획득 장치
KR20200053857A (ko) 2018-11-09 2020-05-19 (주) 에어로매스터 항공기의 통합 대기 자료 시스템
KR20190137036A (ko) * 2019-11-27 2019-12-10 엘지이노텍 주식회사 카메라 모듈

Also Published As

Publication number Publication date
EP4149107A1 (en) 2023-03-15
EP4149107A4 (en) 2023-10-25
KR20210135780A (ko) 2021-11-16
JP2023525073A (ja) 2023-06-14
US20230168565A1 (en) 2023-06-01
CN115702573A (zh) 2023-02-14

Similar Documents

Publication Publication Date Title
WO2020076112A1 (ko) 카메라 액추에이터, 및 이를 포함하는 카메라 모듈
WO2021242079A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2020213994A1 (ko) 카메라 모듈
WO2021107524A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2021015482A1 (ko) 카메라 액추에이터, 이를 포함하는 카메라 모듈 및 카메라 장치
WO2022035192A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2019216676A1 (ko) 카메라 모듈 및 이의 동작 방법
WO2020071852A1 (ko) 카메라 액추에이터 및 이를 포함하는 카메라 모듈
WO2020213862A1 (ko) 카메라 모듈 및 광학 기기
WO2021107525A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2020101232A1 (ko) 카메라 모듈
WO2022235109A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2023018076A1 (ko) 렌즈 구동장치 및 이를 포함하는 카메라 장치
WO2022234958A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2020231110A1 (ko) 카메라 모듈 및 이를 포함하는 카메라 장치
WO2021187773A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2021071277A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2021235834A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2021230557A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2021225358A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2021010640A1 (ko) 카메라 액추에이터 및 이를 포함하는 카메라 모듈
WO2021015481A1 (ko) 카메라 액추에이터, 카메라 모듈 및 이를 포함하는 카메라 장치
WO2019194621A1 (ko) 카메라 장치의 캘리브레이션 방법
WO2023018143A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2023096286A1 (ko) 렌즈 구동장치 및 이를 포함하는 카메라 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21800688

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022567620

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021800688

Country of ref document: EP

Effective date: 20221206