WO2019194621A1 - 카메라 장치의 캘리브레이션 방법 - Google Patents

카메라 장치의 캘리브레이션 방법 Download PDF

Info

Publication number
WO2019194621A1
WO2019194621A1 PCT/KR2019/004038 KR2019004038W WO2019194621A1 WO 2019194621 A1 WO2019194621 A1 WO 2019194621A1 KR 2019004038 W KR2019004038 W KR 2019004038W WO 2019194621 A1 WO2019194621 A1 WO 2019194621A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
data
zoom
focus
zoom lens
Prior art date
Application number
PCT/KR2019/004038
Other languages
English (en)
French (fr)
Inventor
오준석
김민
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to CN201980038567.9A priority Critical patent/CN112272944B/zh
Priority to US17/044,770 priority patent/US12022195B2/en
Priority to EP19781050.0A priority patent/EP3764636B1/en
Publication of WO2019194621A1 publication Critical patent/WO2019194621A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B43/00Testing correct operation of photographic apparatus or parts thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0053Driving means for the movement of one or more optical element
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Definitions

  • the embodiment relates to a calibration method of a camera apparatus.
  • the camera module captures a subject and stores it as an image or a video.
  • the camera module is mounted on a mobile terminal such as a mobile phone, a laptop, a drone, or a vehicle.
  • portable devices such as smartphones, tablet PCs, and laptops have a compact camera module, which automatically adjusts the distance between the image sensor and the lens to align the focal length of the lens. ) Function can be performed.
  • a camera module may perform a zooming up or zooming out function by increasing or decreasing a magnification of a distant subject through a zoom lens.
  • the camera module includes a zoom lens and a focus lens, and accordingly, a zoom actuator for moving the zoom lens, a focus actuator for moving the focus lens, a driver for controlling the zoom actuator and the focus actuator, and the zoom lens. And a storage unit which stores position information of the focus lens.
  • the camera module having the zooming function as described above should be automatically focused as the zoom magnification is changed.
  • the stroke of the zoom actuator becomes longer, the stroke of the focus actuator accordingly becomes longer, and the autofocus progress speed due to the longer stroke becomes slower.
  • the calibration data is stored in the storage unit as described above, and a fast auto focusing speed is provided by moving the zoom lens and the focus lens of the camera module using the calibration data.
  • the actuator for moving the zoom lens and the focus lens is made on a spring or ball basis.
  • the spring or ball-based actuator has a characteristic such as a force (or elasticity) varies depending on the number of times of use, and thus there is a problem that the accuracy of lens movement decreases.
  • the present invention provides a camera module and an operation method thereof that can minimize lens movement related data stored in a memory.
  • the present invention is to provide a camera module and its operation method that can improve the movement accuracy of the lens by using a minimum of data.
  • the present invention is to provide a camera module and an operation method thereof that can update the pre-stored data on the basis of the data corresponding to the correct focus position, in consideration of the characteristics that change depending on the number of times of use of the actuator.
  • a calibration method of a camera apparatus may include obtaining first data including position values of a first zoom lens and position values of a first focus lens corresponding to position values of the first zoom lens; Setting at least two location points of the first zoom lens; Obtaining at least two position values corresponding to the position values of the first focus lens corresponding to the at least two position points of the first zoom lens; Acquiring second data corresponding to a value between at least two position values of the first zoom lens; And the at least two position values of the first zoom lens and the first focus lens when the difference value comparing the first data and the second data is within a preset threshold range. And setting the camera to a camera including the first focus lens.
  • the calibration method of the camera apparatus includes the steps of obtaining a first image at a first position of the zoom lens and a first position of the focus lens based on the data stored in the camera; Acquiring a second image by changing the focus lens at the first position of the zoom lens from the first position to a second position; Comparing a difference value between the sharpness of the first image and the sharpness of the second image; And updating the position value of the focus lens to the second position value when the difference value of the sharpness is out of a predetermined threshold range.
  • the second image is sharper than the first image.
  • the calibration method of the camera apparatus includes the steps of acquiring the actual data including the position values of the zoom lens and the position values of the focus lens corresponding to the position values of the zoom lens; Setting at least two position points of the position points of the zoom lens included in the actual data as sampling points; Using the actual data, acquiring sampling data including a position value of a zoom lens and a position value of a focus lens at the sampling point; Using the sampling data, obtaining interpolation data including a position value of a zoom lens and a position value of a focus lens of other position points except the sampling point; Storing the obtained sampling data when a difference value between the position values of the focus lens included in the actual data and the interpolation data is within a preset first threshold range; And acquiring an image by moving the position of the zoom lens and the position of the focus lens by using the stored sampling data.
  • the method may further include acquiring design data on a positional relationship between the zoom lens and the focus lens determined at the time of designing the zoom lens and the focus lens, wherein the design data includes the position values of the zoom lens and the Theoretical data including position values of the focus lens corresponding to position values of the zoom lens.
  • the acquiring of the actual data may include: moving the zoom lens or the focus lens by applying one of the position value of the zoom lens and the position value of the focus lens included in the design data; Adjusting the position of the other focus lens or the zoom lens to an optimal focusing position according to the movement of the zoom lens or the focus lens, and adjusting the position value of the focus lens or the position of the zoom lens whose position is adjusted. Obtaining.
  • the design data, the actual data, and the sampling data are each composed of a plurality of data depending on the distance from the subject.
  • the moving of the zoom lens or the focus lens may include moving the zoom lens by applying a position value of the zoom lens included in the design data when acquiring actual data corresponding to a first subject distance; Moving the focus lens by applying a position value of the focus lens included in the design data when acquiring actual data corresponding to a second subject distance different from the first subject distance.
  • the method may further include setting an interval of a position point of the zoom lens, wherein the sampling point is changed in position and number according to the interval of the set position point.
  • the method may further include resetting the interval of the location point to change the location and number of the sampling point when the difference value is out of the first threshold range.
  • the obtaining of the interpolation data may include obtaining the interpolation data by applying any one of a plurality of interpolation methods, and in addition to the applied interpolation method when the difference value is out of the first threshold range. Reacquiring the interpolation data by applying another interpolation method of.
  • the acquiring of the image may include extracting sampling data corresponding to a distance to a photographed subject from the stored sampling data, obtaining interpolation data by interpolating the extracted sampling data, and Moving the zoom lens and the focus lens based on interpolation data to obtain a first image.
  • the method may further include relocating the focus lens moved based on the interpolation data to an optimal focusing position to obtain a second image; Comparing a difference value between the sharpness of the first image and the sharpness of the second image; And updating the position value of the focus lens with respect to the zoom position point to the repositioned position value when the difference value of the sharpness is out of the second threshold range.
  • the camera module includes a zoom lens for adjusting the zoom magnification of the subject; A focus lens for adjusting a focus of the subject; A first lens driver to move the position of the zoom lens; A second lens driver to move the position of the focus lens; A storage unit configured to store sampling data including a position value of the zoom lens at some sampling points among the position points of the zoom lens and a position value of the focus lens corresponding thereto; And a controller configured to acquire the sampling data corresponding to the sampling point and store the sampling data in the storage unit and to move the positions of the zoom lens and the focus lens based on interpolation data obtained by interpolating the stored sampling data.
  • the control unit obtains design data on the positional relationship between the zoom lens and the focus lens determined at the time of designing the zoom lens and the focus lens, and uses the design data to determine the position values of the zoom lens and the zoom.
  • Each of the design data, the actual data, and the sampling data may include a plurality of data according to the distance to the subject, and the controller may be configured to provide the design data when acquiring the actual data corresponding to the first subject distance.
  • the zoom lens is moved by applying a position value of an included zoom lens, and the actual lens is acquired by adjusting the position of the focus lens to an optimal focusing position according to the movement of the zoom lens.
  • the focus lens is moved by applying a position value of a focus lens included in the design data, and the zoom lens is moved to an optimal focusing position according to the movement of the focus lens.
  • the controller reacquires the interpolation data by changing the position and number of the sampling points or by changing the interpolation method used to obtain the interpolation data when the difference value is out of a predetermined first threshold range. .
  • the controller may acquire the second image when a difference value between the sharpness of the first image acquired based on the interpolation data and the sharpness value of the second image acquired according to the auto focusing operation is out of a preset second threshold range.
  • the interpolation data is updated with a position value of the zoom lens and a position value of the focus lens applied at the time.
  • the present invention can minimize the size of the memory, thereby reducing the manufacturing cost.
  • the embodiment according to the present invention obtains interpolation data for points other than sampling points by using interpolation.
  • the sampling point is adjusted based on the difference between the interpolated data and the actual data.
  • the sampling point may be adjusted by adjusting the sampling interval, thereby adjusting the number of sampling points.
  • an autofocus function is provided by applying the interpolation data in which the difference with the actual data is minimized. Therefore, in the present invention, by executing the autofocus function using the interpolation data that does not differ from the actual data, the lens can be moved to the correct position even with the minimum sampling data, thereby improving product reliability. .
  • the auto focus function when executed, it is determined whether the interpolation data is abnormal based on the sharpness of the image.
  • the sharpness of the image acquired according to the application of the interpolation data is out of a predetermined allowable range, the pre-stored data is updated with the position value of the new zoom lens and the position value of the focus lens corresponding thereto. Therefore, in the present invention, the focus position accuracy can be improved without being affected by the operating characteristics that change according to the number of times of use of the camera module.
  • FIG. 1 is a perspective view of a camera module according to an embodiment.
  • FIG. 2 is a perspective view of the cover removed from the camera module according to the embodiment shown in FIG.
  • 3A is a perspective view of a mount in the camera module according to the embodiment shown in FIG. 2.
  • 3B is a perspective view of the mount removed from the camera module according to the embodiment shown in FIG.
  • FIG. 4A is a perspective view of a first lens assembly in the camera module according to the embodiment shown in FIG. 2.
  • FIG. 4B is a perspective view of a second lens assembly in the camera module according to the embodiment shown in FIG. 2.
  • FIG. 5A is a conceptual diagram of a first magnetization scheme of a magnet in the camera module according to the embodiment of FIG. 3B; FIG.
  • 5B is a second magnetization scheme of the magnet in the camera module according to the embodiment shown in FIG. 3A.
  • FIG. 6 is a plan view of the camera module according to the embodiment shown in FIG.
  • FIG. 7A is a view of a cut along the line A1-A1 'of the camera module according to the embodiment shown in FIG.
  • FIG. 7B is a view of a cut along the line A2-A2 'of the camera module according to the embodiment shown in FIG.
  • 7C is a view of a cut along the line A3-A3 'of the camera module according to the embodiment shown in FIG.
  • FIG. 8 is a block diagram showing the internal configuration of a camera module according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a step-by-step method of obtaining actual data according to an embodiment of the present invention.
  • 10A is a graph showing design data according to an embodiment of the present invention.
  • 10B is a graph showing actual data according to an embodiment of the present invention.
  • 10C is a comparison graph between design data and actual data according to an exemplary embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a step-by-step method of obtaining sampling data of a camera module according to an embodiment of the present invention.
  • 12A is a diagram for explaining a sampling point according to an embodiment of the present invention.
  • FIG. 12B is a graph showing interpolation data obtained based on the sampling point of FIG. 12A.
  • 12C is a graph illustrating a difference between actual data and interpolation data according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a step-by-step method of updating data of a camera module according to an embodiment of the present invention.
  • FIG. 14A illustrates a data update criterion according to an embodiment of the present invention.
  • 14B is a diagram for explaining updated data according to an embodiment of the present invention.
  • FIG. 1 is a perspective view of the camera module 100 according to an embodiment
  • FIG. 2 is a perspective view of the cover 10 removed from the camera module 100 according to the embodiment shown in FIG. 1.
  • various optical systems may be coupled to a predetermined mount 20 (see FIG. 2).
  • the prism 140 and the lens group may be disposed on the mount 20, and the cover 10 may be coupled through a hook 20H of the mount 20.
  • the cover 10 may be coupled to the mount 20.
  • the cover 10 may cover a part accommodated in the mount 20, thereby protecting components of the camera module.
  • the mount 20 may be referred to as a base.
  • the cover 10 may be coupled to the mount 20 through fitting.
  • the cover 10 may be coupled to the mount 20 by an adhesive.
  • a hook 20H may protrude from a side surface of the mount 20, and the cover 10 has a hole formed at a position corresponding to the hook H, and the hook of the mount 20.
  • the cover 10 and the mount 20 may be coupled to the hole of the cover 10.
  • the cover 10 may be stably coupled to the mount 20 by using an adhesive.
  • a circuit board 107 may be disposed below the mount 20.
  • the circuit board 107 may be electrically connected to lens driving units disposed in the mount 20.
  • the camera module 100 may include a first lens assembly 110, a second lens assembly 120, a third lens group 130, a prism 140, a first driver 310, At least one of the second driver 320, the rod 50, and the image sensor 210 may be included.
  • the first lens assembly 110, the second lens assembly 120, the third lens group 130, the prism 140, and the image sensor unit 210 may be classified as optical systems.
  • first driver 310, the second driver 320, the rod 50, and the like may be classified as a lens driver, and the first lens assembly 110 and the second lens assembly 120 also function as the lens driver. Can combine.
  • the first driver 310 and the second driver 320 may be a coil driver, but is not limited thereto.
  • the rod 50 may perform a guide function of the lens assembly to be moved, and may be provided in singular or plural.
  • the rod 50 may include, but is not limited to, a first rod 51 and a second rod 52.
  • the Z axis means an optical axis direction or a parallel direction thereof.
  • the Y axis means a direction perpendicular to the Z axis in the ground plane (YZ plane).
  • X axis means perpendicular to the ground.
  • the prism 140 converts incident light into parallel light.
  • the prism 140 changes the incident light into parallel light by changing the light path of the incident light to the optical axis Z parallel to the central axis of the lens group. Thereafter, the parallel light may pass through the third lens group 130, the first lens assembly 110, and the second lens assembly 120 to be incident on the image sensor unit 210 to capture an image.
  • the optical axis direction Z refers to a direction that is the same as or parallel to the direction in which the lens groups are aligned.
  • the camera module may perform a zooming function.
  • the first lens assembly 110 and the second lens assembly 120 move through a first driver 310, a second driver 320, and a rod 50. lens), and the third lens group 130 may be a fixed lens.
  • the first lens assembly 110 and the second lens assembly 120 may include a moving lens group
  • the third lens group 130 may be a fixed lens group
  • the third lens group 130 may perform a focator function to form parallel light at a specific position.
  • the first lens assembly 110 may perform a variable function of reimaging the image formed in the third lens group 130 that is the condenser. Meanwhile, the first lens assembly 110 may have a large change in magnification because the distance or image distance with the subject is changed a lot, and the first lens assembly 110, which is a changer, plays an important role in changing the focal length or magnification of the optical system. can do.
  • shops that are imaged in the first lens assembly 110 may differ slightly depending on the location.
  • the second lens assembly 120 may function as a position compensation for the image formed by the changer.
  • the second lens assembly 120 may function as a compensator for accurately forming a shop formed in the first lens assembly 110, which is a translator, at a position of the actual image sensor unit 210. Can be done.
  • the first lens assembly 110 may be a zoom lens assembly that performs a zooming function
  • the second lens assembly 120 may be a focus lens assembly that performs a focusing function.
  • FIG. 3A is a perspective view of a mount 20 in a camera module according to the embodiment shown in FIG. 2.
  • the mount 20 may have a rectangular parallelepiped shape and may include four side surfaces and a bottom surface 20e.
  • mount 20 may include first to fourth sides 20a, 20b, 20c, 20d, and first side 20a and second side 20b, third side 20c.
  • the fourth side surface 20d may face each other.
  • a hook 20H may be formed on at least one side of the mount 20 to be coupled to the hole of the cover 10.
  • a first guide groove 112G in which the first lens assembly 110, the second lens assembly 120, and the third lens group 130 are positioned is disposed on the bottom surface 20e of the mount 20. It may be formed in the Z) direction.
  • the first guide groove 112G may be concave downward according to the outer circumferential shape of the lens, but is not limited thereto.
  • a first opening portion 23a and a second opening portion in which the first driving unit 310 and the second driving unit 320 are respectively disposed on the first side surface 20a and the second side surface 20b of the mount 20. 23b) can be formed.
  • a third opening 22 may be formed in the third side surface 20c of the mount 20 in which the image sensor unit 210 is disposed.
  • a single or plural number of fourth openings 27 exposing the circuit board 107 may be formed on the bottom surface of the mount 20.
  • the third side 20c of the mount 20 and the fourth side 20d facing the mount 20 may be provided with a singular or plural coupling holes 25 to which the rod 50 is coupled.
  • the first coupling hole 25a, the second coupling hole 25b, the third coupling hole 25c, and the fourth side surface 20c and the fourth side surface 20d of the mount 20 may be used.
  • a coupling hole 25d may be formed, and the first rod 51, the second rod 52, the third rod 53, and the fourth rod 54 may be coupled thereto.
  • a prism mounting part 24 for arranging the prism 140 may be formed inside the fourth side surface 20d of the mount 20.
  • the material of the mount 20 may be formed of any one or more of plastic, glass-based epoxy, polycarbonate, metal, or composite materials.
  • FIG. 3B is a perspective view in which the mount 20 is removed from the camera module according to the embodiment shown in FIG. 2, and shows an optical system and a lens driver.
  • the lens driving device may include a mover and a fixing part.
  • the mover may be referred to as a moving part in a concept corresponding to the fixing part.
  • the mover may mean a lens assembly that is moved by rolling motion of a wheel.
  • the fixing part may mean a mount, a rod, etc., which are not moved.
  • the camera module may include a prism 140, a first lens assembly 110, a second lens assembly 120, a third lens group 130, and an image sensor unit 210 on the mount 20. It may include an optical system. Also, the camera module of the embodiment may include a lens driver such as a first driver 310, a second driver 320, and a rod 50. The first lens assembly 110 and the second lens assembly 120 may also perform a lens driving function.
  • the rod 50 may include first to fourth rods 51, 52, 53, and 54, and each of the first to fourth rods 51, 52, 53, and 54 may be a first coupling.
  • a hole may be coupled to the fourth coupling holes 25a, 25b, 25c, and 25d (see FIG. 3A) to function as a movement guide of the first lens assembly 110 and the second lens assembly 120.
  • the rod 50 may be formed of any one or more of plastic, glass-based epoxy, polycarbonate, metal, or composite materials.
  • the first driver 310 may be a coil driver, and may have a shape in which a first coil 314 is wound around a first core 312 such as an iron core.
  • the second driver 320 may also be a coil driver in which a second coil 324 is wound around a second core 322 such as an iron core.
  • the prism 140 changes the incident light into parallel light by changing the light path of the incident light into an optical axis parallel to the central axis Z of the lens group. Thereafter, the parallel light may pass through the third lens group 130, the first lens assembly 110, and the second lens assembly 120 to be captured by the image sensor unit 210.
  • the prism 140 may be an optical member having a triangular prism shape.
  • the embodiment may employ a reflector or a reflector instead of the prism 140.
  • the embodiment may further include an additional prism (not shown) for the light passing through the lens group to be captured by the image sensor unit 210 when the image sensor unit 210 is not disposed in the direction perpendicular to the optical axis. It may be.
  • the image sensor unit 210 may be disposed perpendicular to the optical axis direction of the parallel light.
  • the image sensor unit 210 may include a solid-state imaging device 214 disposed on the second circuit board 212.
  • the image sensor unit 210 may include a Charge Coupled Device (CCD) image sensor or a Complementary Metal-Oxide-Semiconductor (CMOS) image sensor.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal-Oxide-Semiconductor
  • the first lens assembly 110 and the second lens assembly 120 will be described in more detail in the embodiment.
  • FIG. 4A is a perspective view of the first lens assembly 110 in the camera module according to the embodiment shown in FIG. 2, and FIG. 4B is a perspective view of the second lens assembly 120 in the camera module according to the embodiment shown in FIG. 2. to be.
  • the first lens assembly 110 may include the first housing 112, the first lens group 114, the first wheel 117, the third driving unit 116, and the first position sensor ( 118).
  • the second lens assembly 120 of the embodiment includes a second housing 122, a second lens group 124, a second wheel 127, a fourth driving unit 126, and a second position. It may include any one or more of the sensor 128.
  • the first housing 112 of the first lens assembly 110 may include a first lens housing 112a and a first driver housing 112b.
  • the first lens housing 112a may function as a barrel, and the first lens group 114 may be mounted.
  • the first lens group 114 may be a moving lens group, and may include a single lens or a plurality of lenses.
  • the second housing 122 of the second lens assembly 120 may also include a second lens housing 122a and a second driver housing 122b.
  • a first guide groove 112G may be formed at a lower side of one end of the first lens housing 112a of the first lens assembly 110.
  • the first lens assembly 110 may be guided by the first guide groove 112G and move linearly in the optical axis direction while slidingly contacting the second rod 52.
  • a second guide groove 122G may be formed at a lower side of one end of the second lens housing 122a of the second lens assembly 120.
  • a third driving unit 116, a first wheel 117, and a first position sensor 118 may be disposed in the first driving unit housing 112b of the first lens assembly 110.
  • the first wheel 117 may include a plurality of wheels, and may include a first-first wheel 117a and a first-second wheel 117b.
  • a fourth driving unit 126, a second wheel 127, and a second position sensor 128 may also be disposed in the second driving unit housing 122b of the second lens assembly 120.
  • the second wheel 127 may include a plurality of wheels, and may include a second-first wheel 127a and a second-second wheel 127b.
  • the third driver 116 of the first lens assembly 110 may be a magnet driver, but is not limited thereto.
  • the third driver 116 may include a first magnet (magnet) that is a permanent magnet.
  • the fourth driver 126 of the second lens assembly 120 may also be a magnet driver, but is not limited thereto.
  • FIG. 5A is a conceptual diagram illustrating a first magnetization method of a first magnet in a third driving unit 116 of the first lens assembly 110, and the N pole of the permanent magnet is disposed to face the first driving unit 310.
  • the S pole may be positioned opposite to the first driver 310.
  • the direction of the electromagnetic force may be parallel to the direction of the optical axis, thereby driving the first lens assembly 110.
  • the first lens assembly 110 includes a first wheel 117 that is a rolling drive and moves on the rod 50 to minimize the friction torque. There is.
  • the lens assembly, the lens driving device, and the camera module including the same may improve the driving force by minimizing the occurrence of friction torque between the lens assembly and the guide rod that are moved during zooming. Accordingly, according to the embodiment, the power consumption may be reduced when zooming the camera module, and there is a technical effect of improving the control characteristics.
  • 5B is a conceptual diagram illustrating a second magnetization method of a magnet, which is a first driver 116B, in a camera module according to an embodiment.
  • the first driver 310 has a shape in which a first coil 314 is wound around a bar-shaped first core 312 (see FIG. 3B).
  • the 1-2 driving unit 310B shown in Figure 5b is a coil wound around the donut-shaped core.
  • the direction of the current in the region facing the third driver 116 in the first driver 310 of FIG. 5A is one direction.
  • the direction of the current in the region facing the third driver 116 in the first-second driver 310B of FIG. 5B is not the same, and accordingly, the N pole of the permanent magnet that is the third-second driver 116B. Both and S poles may be disposed to face the first-second driving unit 310B.
  • a first position sensor 118 may be disposed in the first driving unit housing 112b of the first lens assembly to detect the position and control the position of the first lens assembly 110.
  • the first position sensor 118 disposed in the first driver housing 112b may be disposed to face a first sensing magnet (not shown) disposed on the bottom surface of the mount 20.
  • the second position sensor 128 may be disposed in the second driving unit housing 122b of the second lens assembly to detect the position and control the position of the second lens assembly 120.
  • FIG. 6 is a plan view of the camera module according to the embodiment shown in FIG. 2.
  • FIG. 7A is a view of the cutting plane along the line A 1 -A 1 ′ of the camera module according to the embodiment illustrated in FIG. 6, in the Y-axis direction.
  • FIG. 7B is a view of the cutting plane along the line A2-A2 ′ of the camera module according to the embodiment illustrated in FIG. 6, in the Z-axis direction.
  • FIG. 7C is a view of the cut plane along the line A3-A3 ′ of the camera module according to the embodiment illustrated in FIG. 6, in the Z-axis direction.
  • the second driver housing 122 and the fourth driver 126 of the second lens assembly 120 are not cut.
  • a first lens group 114 may be mounted on the first lens housing 112a of the first lens assembly 110.
  • the first lens group 114 may be mounted on the first barrel 114b.
  • the second lens group 124 may be mounted on the second lens housing 122a of the second lens assembly 120.
  • the second lens group 124 may be mounted on the second barrel 124b.
  • the third lens group 130 may include a third lens 134 mounted on the third barrel 1132.
  • Each of the first to third lens groups 114, 124, and 134 may include one or a plurality of lenses.
  • the centers of the prism 140, the third lens group 130, the first lens group 114, and the second lens group 124 may be arranged in the optical axis Z direction.
  • the third lens group 130 may be disposed to face the prism 140, and light emitted from the prism 140 may be incident.
  • At least one of the first to third lens groups 114, 124, and 134 may be a fixed lens.
  • the third lens group 130 may be fixedly disposed on the camera module and may not move in the optical axis direction, but is not limited thereto.
  • the mount 20 may include a mounting part (not shown) to which the third lens group 130 is fixedly coupled.
  • the third lens group 130 may be mounted on the mounting portion and fixed to the mounting portion by an adhesive.
  • the second lens group 124 is spaced apart from the third lens group 130 in the optical axis direction and may move in the optical axis direction.
  • the third lens group 130 may be spaced apart from the second lens group 124 in the optical axis direction and move in the optical axis direction.
  • Light emitted from the third lens group 130 may be incident on the image sensor unit 210 disposed behind the third lens group 130.
  • the distance between the first lens group 114 and the third lens group 130 and the first lens group 114 and the first lens group 114 and the first lens group 114 and the first lens group 114 and the first lens group 114 can be adjusted, which allows the camera module to zoom in.
  • FIG. 7B is a view of the cutting plane along the line A2-A2 ′ of the camera module according to the embodiment illustrated in FIG. 6, in the Z-axis direction, and the first-first wheel of the first lens assembly 110. 117a and the first-three wheels 117c are cut, and the second-first wheel 127a and the second-three wheels 127c are cut from the second lens assembly 120. It became.
  • the first lens assembly 110 includes a first-first wheel 117a and a first-third wheel 117c, which are rolling drives, and the second lens assembly 120 is also a rolling drive. And a second-first wheel 127a and a second-third wheel 127c, respectively, on the first rod 51, the third rod 53, the second rod 52, and the fourth rod 54. Rolling movement by the electromagnetic force has a technical effect that can minimize the generation of friction torque.
  • the friction torque between the wheel and the guide rod 50 which is a rolling drive of the lens assembly moved in the optical axis (Z) direction when zooming (zooming)
  • the driving force can be improved by minimizing the occurrence.
  • the frictional resistance between the wheel and the rod 50 of the lens assembly may be minimized to reduce power consumption during zooming of the camera module, and there may be a technical effect of improving control characteristics.
  • 7c is a view of the cutting plane along the line A3-A3 'of the camera module according to the embodiment shown in FIG. 6 in the Z-axis direction, and the first-second wheel (1-2 wheel) in the first lens assembly 110.
  • 117b) and the first-fourth wheels 117d are cut, and the second-second wheels 127b, the second-fourth wheels 127d, and the second lens housing 122a are disposed on the second lens assembly 120.
  • the second lens group 124 is cut.
  • the first lens assembly 110 includes a first-second wheel 117b and a first-fourth wheel 117d, which are rolling drives, and the second lens assembly 120 is also a rolling drive.
  • 2-2 wheels (127b), 2-4 wheels (127d) having a cloud on each of the first rod 51, the third rod 53, the second rod 52 and the fourth rod 54 There is a technical effect to minimize the occurrence of friction torque by moving.
  • the driving force can be improved by minimizing the generation of friction torque between the wheel of the lens assembly and the rod 50 during zooming, the power consumption can be reduced, and the control characteristics can be improved. There is a complex technical effect.
  • FIG. 8 is a block diagram showing the internal configuration of a camera module according to an embodiment of the present invention.
  • the camera module includes an image sensor 210, an image signal processor 220, a display 230, a first lens driver 240, a second lens driver 250, and a storage 260. And a controller 270.
  • the image sensor 210 processes the optical image of the subject formed through the lens. To this end, the image sensor 210 may preprocess the image acquired through the lens. In addition, the image sensor 210 may convert the preprocessed image into electrical data and output the electrical data.
  • the image sensor 210 has a form in which a plurality of photo detectors are integrated as each pixel, and converts image information of the subject into electrical data and outputs the converted electrical data.
  • the image sensor 210 accumulates the input light amount, and outputs the image captured by the lens according to the accumulated light amount in accordance with the vertical synchronization signal. At this time, the image acquisition is performed by the image sensor 210 to convert the light reflected from the subject into an electrical signal.
  • a color filter is required, for example, a CFA (Color Filter Array) filter may be employed.
  • CFA Color Filter Array
  • the image signal processor 220 processes an image output through the image sensor 210 in units of frames.
  • the image signal processor 220 may also be referred to as an image signal processor (ISP).
  • ISP image signal processor
  • the image signal processor 220 may include a lens shading compensator (not shown).
  • the lens shading compensator is a block for compensating for the lens shading phenomenon that appears differently in the amount of light of the center and the edge region of the image.
  • the lens shading compensator receives the lens shading setting value from the controller 270 to be described later, and adjusts the color of the center and the edge region of the image. To compensate.
  • the lens shading compensator may receive a shading variable set differently according to the type of illumination and process the lens shading of the image according to the received parameter. Accordingly, the lens shading compensator may perform the lens shading process by applying a different degree of shading according to the type of illumination. Meanwhile, the lens shading compensator receives a shading variable differently set according to an automatic exposure weight applied to a specific area of the image to prevent saturation occurring in the image, and adjusts the lens shading of the image according to the received variable. It can also be processed. More specifically, the lens shading compensator compensates for the brightness change occurring in the edge region of the image signal as the auto exposure weight is applied to the center region of the image signal. That is, when saturation of the video signal occurs by illumination, the intensity of light decreases from the center to the outer in the form of concentric circles, so that the lens shading compensator amplifies the edge signal of the video signal to compensate for the brightness of the center contrast. do.
  • the image signal processor 220 may measure the sharpness of the image acquired through the image sensor 210. That is, the image signal processor 220 may measure the sharpness of the image to check the focus accuracy of the image acquired by the image sensor 210. The sharpness may be measured for each image obtained according to the position of the focus lens.
  • the display 230 displays an image captured by the control of the controller 270 to be described later, and displays a setting screen necessary for taking a picture or a screen for selecting an operation of a user.
  • the first lens driver 240 moves the first lens.
  • the first lens may include a first lens group included in the first lens assembly as described above, and may preferably be a zoom lens.
  • the first lens driver 240 may move the zoom lens in the optical axis direction to adjust the zoom position (or zoom magnification) of the zoom lens.
  • the second lens driver 250 moves the second lens.
  • the second lens may include a second lens group included in the second lens assembly as described above, and may preferably be a focus lens.
  • the second lens driver 250 may move the focus lens in the optical axis direction to adjust the focus position of the focus lens.
  • the storage unit 260 stores data necessary for the camera module 100 to operate.
  • the storage 260 may store information about a zoom position and a focus position for each distance from the subject. That is, the focus position may be a position of the focus lens for accurately focusing the subject. The focus position may change according to a zoom position with respect to the zoom lens and a distance from the subject. Therefore, the storage unit 260 stores data about a zoom position and a focus position corresponding to the zoom position according to the distance.
  • the stored data may be sampling data, not data about all zoom positions and focus positions respectively corresponding to all the zoom positions.
  • the sampling data may be at least two position values of a zoom position corresponding to a specific sampling point among all the zoom positions and a focus position corresponding to the zoom position of the sample rim point.
  • the present embodiment does not store data for all zoom positions / focus positions by distance, but only data for zoom positions / focus positions for a specific position point (which may be referred to as a sampling point) set by distance. Can be stored. Accordingly, the present invention can minimize the size of the memory, thereby reducing the manufacturing cost.
  • interpolation data is obtained using the sampling data, and the zoom position and the focus position according to the distance can be adjusted by applying the interpolation data.
  • the storage unit 260 in the present invention does not store the data for the zoom position and the focus position for all points, only the sampling data for the zoom position and the focus position for a specific sampling point is stored. . Accordingly, in the present invention, interpolation data is used to obtain interpolation data for a zoom position and a focus position for another point located between the sampling points. When the interpolation data is obtained, the focus position of the focus lens and the zoom position of the zoom lens are adjusted using the obtained interpolation data.
  • the controller 270 controls the overall operation of the camera module.
  • the controller 270 stores sampling data in the storage 260.
  • the controller 270 determines a sampling point having the least error with the actual data, and obtains sampling data corresponding to the determined sampling point.
  • the controller 270 may acquire the interpolation data using the sampling data, and adjust the zoom position and the focus position according to the distance to the subject by applying the obtained interpolation data. Make sure
  • the interpolation data should not be different from the actual data.
  • the actual data may be data on the position value of the zoom lens and the position of the focus lens according to the distance to the subject. That is, the actual data is data about an accurate focus position or a zoom position according to a zoom position or a focus position for each distance obtained through experiments. In this case, if the actual data is obtained, storing all the actual data in the storage unit 260 may be ideal for increasing lens shift accuracy. However, when storing the actual data within the entire range in the storage unit 260 as described above, there is a problem that the memory size is increased accordingly to increase the manufacturing cost.
  • a sampling point for obtaining interpolation data having almost no difference with the actual data is determined, and only the sampling data corresponding to the determined sampling point is stored in the storage unit 260.
  • an interval of an optimal sampling point should be determined. That is, in order to minimize the error range between the interpolated data and the actual data, the position of the optimal sampling point and the number of sampling points should be determined.
  • the controller 270 determines the sampling point that can minimize the difference with the interpolation data by using the actual data, obtains sampling data corresponding to the determined sampling point, and then stores the sampling data in the storage unit 260. Save it. Determination of the sampling point and acquisition of sampling data accordingly will be described in detail below.
  • first lens driver 240 and the second lens driver 250 may be driven based on a spring or a ball, and accordingly, characteristics may change according to the number of times of use.
  • the force or elasticity generated by the first lens driver 240 and the second lens driver 250 may vary according to the number of times of use, and thus the position of the zoom lens or the focus lens within the same conditions. May change depending on the number of uses.
  • the controller 270 compares the acquired focus position with a focus position included in the sampling data or interpolation data.
  • the controller 270 ignores the difference between the compared focus positions if it is within a preset tolerance range, and if the deviation is out of the tolerance range, the controller 270 has data corresponding to the acquired new zoom position and focus position.
  • the data stored at 260 is updated.
  • the updated data may be data of a point other than a sampling point corresponding to the sampling data. Therefore, when the data is updated, the update data may be further stored in the storage unit 260 together with the sampling data.
  • FIG. 9 is a flowchart illustrating a step-by-step method of obtaining actual data according to an embodiment of the present invention
  • FIG. 10A is a graph showing design data according to an embodiment of the present invention
  • FIG. 10B is an embodiment of the present invention
  • 10C is a graph showing actual data according to an embodiment of the present invention.
  • the controller 270 acquires design data as an initial step for acquiring actual data (step 101).
  • the design data is reference data obtained when the zoom lens and the focus lens included in the camera module are designed.
  • the design data theoretically includes information about the zoom position of the zoom lens and the focus position of the focus lens according to the distance. Accordingly, the design data may be referred to as reference data and may also be referred to as theoretical data.
  • the design data has a reference zoom lens and a reference focus lens as reference in the design process of the camera module, and when the zoom position of the reference zoom lens is 'A' according to the distance, the focus position of the reference focus lens is 'B' 'Theoretical data that will be precisely in focus.
  • the zoom position and the focus position are moved under the same conditions as the design data, an accurate focus may not occur. Therefore, in the present invention, using the design data, the actual data for accurate focusing in the actual use environment of the camera module is obtained.
  • the related art when the actual data is obtained, information about all zoom positions and focus positions according to all distances is stored as it is in the storage unit, and the auto focusing function is provided using the calibration data.
  • the design data alone does not allow accurate lens position control in various use environments of the camera module.
  • the focus lens except the zoom lens is included. Accordingly, in the related art, an auto focusing function can be realized only if the corresponding data exists in the distance from the subject and the position of the zoom lens.
  • the camera module of the present invention includes not only the focus lens but also the zoom lens. Accordingly, in order to move the correct position of the lens, it is necessary to know three pieces of information such as the distance to the subject, the zoom position of the zoom lens, and the focus position of the focus lens.
  • the distance to the subject may be obtained using a distance measurer (eg, a laser diode) provided in the camera module.
  • a distance measurer eg, a laser diode
  • the present invention uses the design data to obtain accurate actual data suitable for the actual use environment of the camera module.
  • the design data includes a plurality of design data.
  • the design data includes first data corresponding to the zoom position and the focus position applied to the first distance and second data corresponding to the zoom position and the focus position applied to the second distance.
  • the first distance may be infinity
  • the second distance may be a macro.
  • the design data is shown as including only the data for the zoom position and the focus position corresponding to the two distances, the distance may be further increased. That is, the camera module may require only data for two distances as described above. Alternatively, the camera module may require data for three or more distances. Therefore, the distance number may be set differently according to the model.
  • the controller 270 determines whether the zoom lens is in an initialized state (step 102). That is, the controller 270 may proceed to check the magnification of the zoom lens. To this end, the controller 270 determines whether the zoom lens is located at the center position.
  • the controller 270 moves the zoom lens to the center (step 103).
  • the controller 270 moves the zoom lens to the wide end (step 104), and stores the position information (referred to as wide position information) of the zoom lens moved to the wide end. (Step 105).
  • control unit 270 moves the zoom lens to the TELE stage (step 106), and position information on the zoom lens moved to the tele stage (Tele position information).
  • the storage unit 260 may be stored in the storage unit 260 (step 106).
  • the controller 270 sets the distance M from the object (step 108).
  • the distance number M may be set to two, such as infinity and macro, or alternatively, may be set to three or more including the distance between infinity and macro.
  • the controller 270 moves the position of the zoom lens or the focus lens by using the design data corresponding to the set distance of the subject.
  • the design data includes information about a focus position and a zoom position corresponding to the set distance.
  • the controller 270 may apply one of the focus position and the zoom position included in the design data, and adjust the other position accordingly to confirm the correct focus lens and the lens position. Can be.
  • the zoom position of the zoom lens of the design data when acquiring the actual data for the near field, the zoom position of the zoom lens of the design data is applied, and accordingly, the focus position of the focus lens is adjusted to track the exact focus position.
  • the focus position of the focus lens of the design data when acquiring the actual data for the long distance, the focus position of the focus lens of the design data is applied, and accordingly the zoom position of the zoom lens can be adjusted to track the correct zoom position.
  • the controller 270 extracts data corresponding to the set distance from the design data.
  • the controller 270 obtains zoom position information of the zoom lens from the extracted data, and moves the zoom position of the zoom lens based on the extracted data (step 110).
  • the controller 270 stores information about the moved zoom position in the storage unit 260 (step 111).
  • the control unit 270 tracks the correct focus position by adjusting the focus position of the focus lens while fixing the zoom lens to the moved zoom position (step 112).
  • the controller 270 may move the focus lens by using a focus position corresponding to the zoom position from the data acquired from the design data.
  • the controller 270 tracks the correct focus position by adjusting the focus position when the focus lens is not moved based on the design data (step 112). If the focus position is tracked, the controller 270 stores the tracked focus position (step 113).
  • the controller 270 tracks all the zoom positions and the corresponding focus positions with respect to the set subject distance, and stores them in the storage unit 260 as actual data corresponding to the subject distance.
  • the controller 270 determines whether actual data has been obtained for all object distances. If the actual data for all the object distances are not obtained, the controller 270 proceeds to the process of acquiring the actual acquired data corresponding to the next object distance.
  • the controller 270 extracts data corresponding to the set distance from the design data when the next distance of the subject is set (eg, set to a long distance).
  • the controller 270 obtains the focus position information of the focus lens from the extracted data, and moves the focus position of the focus lens based on this.
  • the controller 270 stores information about the moved focus position in the storage unit 260.
  • the controller 270 adjusts the zoom position of the zoom lens while the focus lens is fixed to the moved focus position, and tracks the zoom position that is precisely focused at the focus position.
  • the controller 270 may move the zoom lens using the zoom position corresponding to the focus position from the data acquired from the design data.
  • the controller 270 tracks the correct zoom position by adjusting the zoom position when the correct focus is not achieved while the zoom lens is moved based on the design data.
  • the controller 270 stores the tracked zoom position.
  • the correct lens position can be tracked while changing the focus position or the zoom position based on the determined fixed value.
  • information about a focus position and a zoom position corresponding thereto is stored as actual data.
  • the actual data may be first data including a position value of a zoom lens and a position value of a focus lens focused in correspondence with the position value of the zoom lens.
  • the actual data may include information about a zoom position and a corresponding focus position corresponding to a distance from a subject.
  • any one of the zoom position and the focus position of the actual data may have the same value as the actual data, and the other may be the same as or different from the actual data. This is because the design data obtained theoretically and the actual data on the exact lens position in the actual use environment of the camera module may be different.
  • the lens position is controlled by applying the design data as it is in the actual use environment of the camera module, it can be confirmed that the correct lens position accuracy is lowered.
  • the present invention obtains actual data for more accurate lens position control using the design data.
  • FIG. 11 is a flowchart illustrating a step-by-step method of obtaining sampling data of a camera module according to an embodiment of the present invention.
  • 12A is a diagram illustrating a sampling point according to an embodiment of the present invention
  • FIG. 12B is a graph illustrating interpolation data obtained based on the sampling point of FIG. 12A
  • FIG. 12C is actual data according to an embodiment of the present invention. The graph shows the difference between and interpolation data.
  • the control unit 270 acquires actual data corresponding to the set number of distances through the process as shown in FIG. 9 (step 201).
  • the real data may include two real data corresponding to two distances. That is, the real data may include first real data corresponding to an infinite distance and second real data corresponding to a macro distance.
  • the controller 270 sets a location point for each of the actual data (step 202).
  • the location point may also be referred to as a sampling point.
  • the sampling point may be set based on the zoom position, and may be preferably set at intervals with respect to the zoom position point.
  • the sampling interval may be set to 2, and thus, the sampling point may be set to '0', '2', '4', '6' and '8' based on the zoom position. In other words, the sampling interval may be set to '2' as a default value. Accordingly, since the zoom positions exist from 0 to 8, the sampling points may be set to five.
  • the sampling interval may be set differently according to each distance. This may be changed based on the difference between the interpolated data and the actual data obtained through interpolation later.
  • the control unit 270 obtains sampling data for each of the sampling points using the previously obtained actual data (step 203). That is, the controller 270 acquires the zoom position and the focus position for each sampling point by using the actual data.
  • the sampling data may include a position value with respect to the position point of the zoom lens corresponding to the sampling point and a position value of the focus lens corresponding to the focus point.
  • control unit 270 acquires second data at other points except for the sampling point by using the sampling data for the zoom position and the focus position acquired for the sampling point (step 203). That is, the controller 270 obtains interpolation data for zoom positions and focus positions of other points except for the sampling point by applying any one of a plurality of interpolation methods. That is, the second data may be referred to as the interpolation data.
  • the plurality of interpolation methods are linear interpolation, polynomial interpolation, spline interpolation, exponential interpolation, log_linear interpolation, and lagrange interpolation. ), Newton Interpolation, and Bilinear Interpolation.
  • the linear interpolation method estimates a function value on the assumption that the function to be known is the function of a straight line among the various interpolation methods.
  • the polynomial interpolation method has a second or more polynomial, and the more data points, the higher the order of the polynomial, so the complexity of the calculation increases.
  • Spline interpolation uses low-order polynomials in each interval.
  • the polynomial used in the spline interpolation method may be selected to be naturally connected to the polynomials of the front and rear intervals, wherein the front and rear spline functions at each point should be differentiable and have the same curvature.
  • the present invention selects any one of the various interpolation methods as described above, and obtains interpolation data for points other than the sampling point using the selected interpolation method.
  • the control unit 270 obtains interpolation data for a zoom position and a focus position of a point other than the sampling point by applying the determined specific interpolation method.
  • the interpolation data may not have the same value at all points and the actual data, and may have different values at specific points.
  • the controller 270 compares the difference between the obtained interpolation data and the actual data by applying a mean square error technique (step 204). That is, the control unit 270 compares the focus position according to the zoom position of the interpolation data with the degree of difference between the focus positions according to the zoom position of the actual data for each point.
  • the controller 270 determines whether a difference between each point of the interpolated data and the actual data is within a threshold range (step 205). In other words, the controller 270 determines whether the difference value between the interpolated data and the actual data is within a threshold value for each point.
  • the controller 270 adjusts the determined sampling point (step 206), and accordingly returns to the step (203), and adjusts the adjusted The process of acquiring sampling data for the sampling point and thus acquiring interpolation data is performed again.
  • the controller 270 may adjust the sampling interval to adjust the sampling point.
  • the controller 270 may reset the sampling interval at an interval smaller than a previously set sampling interval, and reset the sampling point according to the reset sampling interval.
  • the adjusted sampling interval may be '1.5', and thus the sampling point may be '0', '1.5', '3.0', '4.5', '6.0', or '7.5' based on the zoom position. Can be reset to '.
  • the controller 270 may first proceed with changing the applied interpolation method before adjusting the sampling point.
  • the previously applied interpolation method is polynomial interpolation
  • spline interpolation may be performed again to obtain interpolation data based on the previously obtained sampling data.
  • the process may proceed to step 206 to adjust the sampling point.
  • the controller 270 stores the sampling data and interpolation information used to acquire the interpolation data in the storage unit 260.
  • the controller 270 obtains interpolation data for each distance. In this case, it can be seen that the interpolation data has little difference from the actual data.
  • sampling data corresponding to a zoom position and a focus position corresponding to a specific sampling point are stored in a memory. Accordingly, the present invention can minimize the size of the memory, thereby reducing the manufacturing cost.
  • the embodiment according to the present invention obtains interpolation data for points other than sampling points by using interpolation.
  • the sampling point is adjusted based on the difference between the interpolated data and the actual data.
  • the sampling point may be adjusted by adjusting the sampling interval and thereby adjusting the number of sampling points.
  • an autofocus function is provided by applying the interpolation data in which the difference with the actual data is minimized. Therefore, in the present invention, by executing the autofocus function using the interpolation data that does not differ from the actual data, the lens can be moved to the correct position even with the minimum sampling data, thereby improving product reliability. .
  • FIG. 13 is a flowchart for explaining a data update method of a camera module according to an embodiment of the present invention step by step.
  • FIG. 14A is a diagram for describing a data update criterion according to an embodiment of the present invention.
  • the controller 270 obtains sampling data stored in the storage 260 and interpolation data based on the sampling data.
  • the controller 270 changes the focus position and the zoom position of the focus lens and the zoom lens by using the obtained interpolation data.
  • the image sensor 210 acquires an image formed by changing the positions of the focus lens and the zoom lens (step 301).
  • the image to be imaged may be an image that is in focus, or may be an image that is not in focus.
  • the controller 270 operates an auto focusing function to move the position of the focus lens (step 302).
  • the controller 270 moves the focus lens according to the operation of the auto focusing function, thereby acquiring a sharpness value of the image.
  • the focus position at the point where the sharpness value is the highest may be the optimal focus position.
  • the optimal focus position may be different from the focus position applied through the interpolation data. This is because it is difficult to determine the focus position of the focus lens as the optimal position in the spring or ball base as described above, and thus the focus position is determined within a certain error range.
  • the controller 270 extracts a zoom position and a focus position corresponding to the interpolation data applied before the auto focusing function is performed (step 304).
  • the controller 270 compares an optimal zoom position and a focus position applied according to the operation of the auto focusing function with a difference value between the zoom position and the focus position extracted from the interpolation data.
  • the controller 270 determines whether the difference is greater than a predetermined reference value.
  • the controller 270 updates the interpolation data by using data about a zoom position and a focus position newly acquired according to the auto focusing (step 307).
  • the update criteria of the interpolation data may be as follows.
  • the focus position of the focus lens is shifted while the zoom lens is fixed, and thus a contrast value of the image may be obtained.
  • the interpolation data may be maintained as it is.
  • the sharpness value of the image according to the zoom position and the focus position applied through the interpolation data is out of the two dotted lines, the data for the corresponding point may be updated.
  • the controller 270 May update the data for the corresponding point with the new value obtained through the auto focusing function.
  • the update point may be a zoom position of the '1' position, and the data for the point is updated based on the data about the optimal focus position tracked according to the movement of the focus position.
  • the data stored in the storage unit 260 is sampling data.
  • the controller 270 acquires interpolation data based on the sampling data to control the zoom position and the focus position. Accordingly, data for the update point may not be stored in the storage unit 260. Therefore, the controller 270 may store information about the zoom position and the focus position of the update point in the storage unit 260.
  • sampling data corresponding to a zoom position and a focus position corresponding to a specific sampling point are stored in a memory. Accordingly, the present invention can minimize the size of the memory, thereby reducing the manufacturing cost.
  • the embodiment according to the present invention obtains interpolation data for points other than sampling points by using interpolation.
  • the sampling point is adjusted based on the difference between the interpolated data and the actual data.
  • the sampling point may be adjusted by adjusting the sampling interval, thereby adjusting the number of sampling points.
  • an autofocus function is provided by applying the interpolation data in which the difference with the actual data is minimized. Therefore, in the present invention, by executing the autofocus function using the interpolation data that does not differ from the actual data, the lens can be moved to the correct position even with the minimum sampling data, thereby improving product reliability. .
  • the auto focus function when executed, it is determined whether or not the previously stored focus position is based on the sharpness of the image.
  • the sharpness corresponding to the stored focus position is out of a predetermined allowable range, the previously stored data is updated with the new zoom position and the data corresponding to the focus position. Therefore, in the present invention, the focus position accuracy can be improved without being affected by the operating characteristics that change according to the number of times of use of the camera module.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)

Abstract

실시 예에 따른 카메라 장치의 캘리브레이션 방법은 제1 줌 렌즈의 위치 값들 및 상기 제1 줌 렌즈의 위치 값들에 대응하는 제1 포커스 렌즈의 위치 값들을 포함하는 제1 데이터를 획득하는 단계; 상기 제1 줌 렌즈의 적어도 2개의 위치 포인트를 설정하는 단계; 상기 제1 줌 렌즈의 적어도 2개의 위치 포인트에 대응하는 상기 제1 포커스 렌즈의 위치 값에 해당하는 적어도 2개의 위치 값을 획득하는 단계; 상기 제1 줌 렌즈의 적어도 2개의 위치 값의 사이 값에 대응되는 제2 데이터를 획득하는 단계; 및 상기 제1 데이터와 상기 제2 데이터를 비교한 차이 값이 기설정된 임계 범위 이내이면, 상기 제1 줌 렌즈와 상기 제1 포커스 렌즈의 상기 적어도 2개의 위치 값을 상기 제1 줌 렌즈와 상기 제1 포커스 렌즈를 포함하는 카메라에 설정하는 단계;를 포함한다.

Description

카메라 장치의 캘리브레이션 방법
실시 예는 카메라 장치의 캘리브레이션 방법에 관한 것이다.
카메라 모듈은 피사체를 촬영하여 이미지 또는 동영상으로 저장하는 기능을 수행하며, 휴대폰 등의 이동단말기, 노트북, 드론, 차량 등에 장착되고 있다.
한편, 스마트폰, 태블릿 PC, 노트북 등의 휴대용 디바이스에는 초소형 카메라 모듈이 내장되며, 이러한 카메라 모듈은 이미지 센서와 렌즈 사이의 간격을 자동 조절하여 렌즈의 초점거리를 정렬하는 자동 초점(AF: Auto Focus) 기능을 수행할 수 있다.
최근 카메라 모듈은 줌 렌즈(zoom lens)를 통해 원거리의 피사체의 배율을 증가 또는 감소시켜 촬영하는 줌 업(zoom up) 또는 줌 아웃(zoom out)의 주밍(zooming) 기능을 수행할 수 있다.
이러한, 카메라 모듈은 줌 렌즈, 포커스 렌즈를 포함하고 있으며, 이에 따라 줌 렌즈의 이동을 위한 줌 액추에이터, 포커스 렌즈의 이동을 위한 포커스 액추에이터, 상기 줌 액추에이터와 포커스 액추에이터를 제어하는 드라이버와, 상기 줌 렌즈 및 상기 포커스 렌즈의 위치 정보를 저장하는 저장부를 포함하고 있다.
상기와 같은 주밍 기능을 구비한 카메라 모듈은 줌 배율의 변경에 따라 자동으로 초점을 맞춰줘야 한다. 그러나 상기 줌 렌즈의 줌 배율이 증가할수록 줌 액추에이터의 스트로크가 길어지고, 이에 따른 포커스 액추에이터의 스트로크가 길어지며, 상기 길어진 스트로크로 인한 자동 초점 진행 속도가 느려지는 문제점이 있다.
따라서, 최근에는 상기와 같이 저장부에 캘리브레이션 데이터를 저장하고, 이를 이용하여 카메라 모듈의 줌 렌즈 및 포커스 렌즈를 이동시켜 빠른 자동 초점 진행 속도를 제공하고 있다.
이때 상기와 같은 기능을 제공하기 위해서는, 모든 줌 배열에 따른 포커스 범위에 대응하는 캘리브레이션 데이터를 상기 저장부에 저장해야 한다. 그러나 상기와 같이 포커스 범위는 객체와의 거리(Macro, Infinity 등)에 따라 구분된다. 이에 따라, 종래에는 상기와 같은 모든 거리에 따른 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값에 대한 데이터를 모두 저장부에 저장해야만 하며, 이에 따른 메모리 사이즈가 커져 제조 단가가 증가하는 문제점이 있다.
또한, 카메라 모듈의 제조 공정상, 모든 배율에 따른 데이터를 특정하기에는 한계가 있으며, 이에 따른 데이터 정확도가 저하되는 문제점이 있다.
또한, 상기 줌 렌즈 및 포커스 렌즈를 이동시키는 액추에이터는 스프링 또는 볼(ball) 기반으로 이루어지고 있다. 그리고, 상기 스프링 또는 볼 기반의 액추에이터는 사용 횟수에 따라 힘(또는 탄성)과 같은 특성이 달라지며, 이에 따른 렌즈 이동 정확도가 저하되는 문제점이 있다.
본 발명에서는 메모리에 저장되는 렌즈 이동 관련 데이터를 최소화할 수 있는 카메라 모듈 및 이의 동작 방법을 제공하고자 한다.
또한, 본 발명에서는 최소의 데이터를 이용하여 렌즈의 이동 정확도를 향상시킬 수 있는 카메라 모듈 및 이의 동작 방법을 제공하고자 한다.
또한, 본 발명에서는 액추에이터의 사용 횟수에 따라 변화하는 특성을 감안하여, 정확한 포커스 위치에 대응하는 데이터를 기준으로 기저장된 데이터를 업데이트할 수 있는 카메라 모듈 및 이의 동작 방법을 제공하고자 한다.
제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
실시 예에 따른 카메라 장치의 캘리브레이션 방법은 제1 줌 렌즈의 위치 값들 및 상기 제1 줌 렌즈의 위치 값들에 대응하는 제1 포커스 렌즈의 위치 값들을 포함하는 제1 데이터를 획득하는 단계; 상기 제1 줌 렌즈의 적어도 2개의 위치 포인트를 설정하는 단계; 상기 제1 줌 렌즈의 적어도 2개의 위치 포인트에 대응하는 상기 제1 포커스 렌즈의 위치 값에 해당하는 적어도 2개의 위치 값을 획득하는 단계; 상기 제1 줌 렌즈의 적어도 2개의 위치 값의 사이 값에 대응되는 제2 데이터를 획득하는 단계; 및 상기 제1 데이터와 상기 제2 데이터를 비교한 차이 값이 기설정된 임계 범위 이내이면, 상기 제1 줌 렌즈와 상기 제1 포커스 렌즈의 상기 적어도 2개의 위치 값을 상기 제1 줌 렌즈와 상기 제1 포커스 렌즈를 포함하는 카메라에 설정하는 단계;를 포함한다.
또한, 실시 예에 따른 카메라 장치의 캘리브레이션 방법은 카메라에 저장된 데이터를 기준으로 줌 렌즈의 제1 위치와 포커스 렌즈의 제1 위치에서 제1 이미지를 획득하는 단계; 상기 줌 렌즈의 상기 제1 위치에서 상기 포커스 렌즈를 상기 제1 위치에서 제2 위치로 변경하여 제2 이미지를 획득하는 단계; 상기 제 1 이미지의 선명도와 상기 제 2 이미지의 선명도의 차이 값을 비교하는 단계; 및 상기 선명도의 차이 값이 기설정된 임계 범위를 벗어나면, 상기 포커스 렌즈의 위치 값을 상기 제2 위치 값으로 업데이트하는 단계를 포함한다.
또한, 상기 제2 이미지는 상기 제1 이미지보다 선명도가 높다.
또한, 실시 예에 따른 카메라 장치의 캘리브레이션 방법은 줌 렌즈의 위치 값들 및 상기 줌 렌즈의 위치 값들에 대응하는 포커스 렌즈의 위치 값들을 포함하는 실제 데이터를 획득하는 단계; 상기 실제 데이터에 포함된 상기 줌 렌즈의 위치 포인트들 중 적어도 2개의 위치 포인트를 샘플링 포인트로 설정하는 단계; 상기 실제 데이터를 이용하여, 상기 샘플링 포인트에서의 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값을 포함한 샘플링 데이터를 획득하는 단계; 상기 샘플링 데이터를 이용하여, 상기 샘플링 포인트를 제외한 다른 위치 포인트들의 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값을 포함한 보간 데이터를 획득하는 단계; 상기 실제 데이터 및 상기 보간 데이터에 포함된 포커스 렌즈의 위치 값들의 차이 값이 기설정된 제 1 임계 범위 이내이면, 상기 획득한 샘플링 데이터를 저장하는 단계; 및 상기 저장된 샘플링 데이터를 이용하여, 상기 줌 렌즈의 위치 및 상기 포커스 렌즈의 위치를 이동시켜 이미지를 획득하는 단계를 포함한다.
또한, 상기 줌 렌즈 및 상기 포커스 렌즈의 설계 시에 결정된 상기 줌 렌즈 및 상기 포커스 렌즈의 위치 관계에 대한 설계 데이터를 획득하는 단계를 더 포함하고, 상기 설계 데이터는, 상기 줌 렌즈의 위치 값들 및 상기 줌 렌즈의 위치 값들에 대응하는 상기 포커스 렌즈의 위치 값들을 포함한 이론 데이터이다.
또한, 상기 실제 데이터를 획득하는 단계는, 상기 설계 데이터에 포함된 상기 줌 렌즈의 위치 값 및 상기 포커스 렌즈의 위치 값 중 어느 하나의 위치 값을 적용하여 상기 줌 렌즈 또는 포커스 렌즈를 이동시키는 단계와, 상기 줌 렌즈 또는 포커스 렌즈의 이동에 따라 최적의 포커싱 위치로 다른 하나의 상기 포커스 렌즈 또는 줌 렌즈의 위치를 조절하는 단계와, 상기 위치가 조절된 포커스 렌즈의 위치 값 또는 줌 렌즈의 위치 값을 획득하는 단계를 포함한다.
또한, 상기 설계 데이터, 상기 실제 데이터 및 상기 샘플링 데이터 각각은, 피사체와의 거리에 따라 복수 개의 데이터로 구성된다.
또한, 상기 줌 렌즈 또는 포커스 렌즈를 이동시키는 단계는, 제 1 피사체 거리에 대응하는 실제 데이터 획득 시, 상기 설계 데이터에 포함된 줌 렌즈의 위치 값을 적용하여 상기 줌 렌즈를 이동시키는 단계와, 상기 제 1 피사체 거리와는 다른 제 2 피사체 거리에 대응하는 실제 데이터 획득 시, 상기 설계 데이터에 포함된 포커스 렌즈의 위치 값을 적용하여 상기 포커스 렌즈를 이동시키는 단계를 포함한다.
또한, 상기 줌 렌즈의 위치 포인트의 간격을 설정하는 단계를 더 포함하고, 상기 샘플링 포인트는, 상기 설정된 위치 포인트의 간격에 따라 위치 및 수가 변경된다.
또한, 상기 차이 값이 상기 제 1 임계 범위 이내를 벗어나면, 상기 위치 포인트의 간격을 재설정하여, 상기 샘플링 포인트의 위치 및 수를 변경하는 단계를 더 포함한다.
또한, 상기 보간 데이터를 획득하는 단계는 복수의 보간법 중 어느 하나의 보간법을 적용하여 상기 보간 데이터를 획득하는 단계를 포함하며, 상기 차이 값이 상기 제 1 임계 범위 이내를 벗어나는 경우에 상기 적용된 보간법 이외의 다른 보간법을 적용하여 상기 보간 데이터를 재획득하는 단계를 더 포함한다.
또한, 상기 이미지를 획득하는 단계는, 상기 저장된 샘플링 데이터 중 촬영될 피사체와의 거리에 대응하는 샘플링 데이터를 추출하는 단계와, 상기 추출한 샘플링 데이터를 보간하여 보간 데이터를 획득하는 단계와, 상기 획득한 보간 데이터를 토대로 상기 줌 렌즈 및 상기 포커스 렌즈를 이동시켜 제 1 이미지를 획득하는 단계를 포함한다.
또한, 상기 보간 데이터를 기준으로 이동한 상기 포커스 렌즈의 위치를 최적의 포커싱 위치로 재이동시켜 제 2 이미지를 획득하는 단계; 상기 제 1 이미지의 선명도와 상기 제 2 이미지의 선명도의 차이 값을 비교하는 단계; 및 상기 선명도의 차이 값이 기설정된 제 2 임계 범위를 벗어나면, 해당 줌 위치 포인트에 대한 포커스 렌즈의 위치 값을 상기 재이동된 위치 값으로 업데이트하는 단계를 더 포함한다.
한편, 실시 예에 따른 카메라 모듈은 피사체의 줌 배율을 조절하는 줌 렌즈; 상기 피사체의 초점을 조절하는 포커스 렌즈; 상기 줌 렌즈의 위치를 이동시키는 제 1 렌즈 구동부; 상기 포커스 렌즈의 위치를 이동시키는 제 2 렌즈 구동부; 상기 줌 렌즈의 위치 포인트들 중 일부 샘플링 포인트에서의 상기 줌 렌즈의 위치 값 및 이에 대응하는 상기 포커스 렌즈의 위치 값으로 구성된 샘플링 데이터를 저장하는 저장부; 및 상기 샘플링 포인트에 대응하는 상기 샘플링 데이터를 획득하여 상기 저장부에 저장하며, 상기 저장된 샘플링 데이터를 보간하여 획득한 보간 데이터를 토대로 상기 줌 렌즈 및 상기 포커스 렌즈의 위치를 이동시키는 제어부를 포함하고, 상기 제어부는, 상기 줌 렌즈 및 상기 포커스 렌즈의 설계 시에 결정된 상기 줌 렌즈 및 상기 포커스 렌즈의 위치 관계에 대한 설계 데이터를 획득하고, 상기 설계 데이터를 이용하여, 상기 줌 렌즈의 위치 값들 및 상기 줌 렌즈의 위치 값들에 대응하는 상기 포커스 렌즈의 위치 값들을 포함하는 실제 데이터를 획득하며, 상기 실제 데이터에 포함된 상기 줌 렌즈의 위치 포인트들 중 적어도 2개의 위치 포인트를 샘플링 포인트로 설정하고, 상기 실제 데이터를 이용하여 상기 샘플링 포인트에서의 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값을 포함한 샘플링 데이터를 획득하며, 상기 샘플링 데이터를 이용하여, 상기 샘플링 포인트를 제외한 다른 위치 포인트들의 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값을 포함한 보간 데이터를 획득하고, 상기 실제 데이터 및 상기 보간 데이터에 포함된 포커스 렌즈의 위치 값들의 차이 값이 기설정된 제 1 임계 범위 이내이면, 상기 획득한 샘플링 데이터를 상기 저장부에 저장한다.
또한, 상기 설계 데이터, 상기 실제 데이터 및 상기 샘플링 데이터 각각은, 상기 피사체와의 거리에 따라 복수 개의 데이터로 구성되며, 상기 제어부는, 제 1 피사체 거리에 대응하는 실제 데이터 획득 시, 상기 설계 데이터에 포함된 줌 렌즈의 위치 값을 적용하여 상기 줌 렌즈를 이동시키고, 상기 줌 렌즈의 이동에 따라 최적의 포커싱 위치로 상기 포커스 렌즈의 위치를 조절하여 상기 실제 데이터를 획득하고, 상기 제 1 피사체 거리와는 다른 제 2 피사체 거리에 대응하는 실제 데이터 획득 시, 상기 설계 데이터에 포함된 포커스 렌즈의 위치 값을 적용하여 상기 포커스 렌즈를 이동시키고, 상기 포커스 렌즈의 이동에 따라 최적의 포커싱 위치로 상기 줌 렌즈의 위치를 조절하여 상기 실제 데이터를 획득한다.
또한, 상기 제어부는, 상기 차이 값이 기설정된 제 1 임계 범위를 벗어나면, 상기 샘플링 포인트의 위치 및 수를 변경하거나, 상기 보간 데이터의 획득에 사용된 보간법을 변경하여 상기 보간 데이터를 재획득한다.
또한, 상기 제어부는, 상기 보간 데이터를 토대로 획득된 제 1 이미지의 선명도와 오토 포커싱 동작에 따라 획득된 제 2 이미지의 선명도의 차이 값이 기설정된 제 2 임계 범위를 벗어나면, 상기 제 2 이미지 획득 시에 적용된 상기 줌 렌즈의 위치 값 및 상기 포커스 렌즈의 위치 값으로 상기 보간 데이터를 업데이트한다.
본 발명에 따른 실시 예에서는, 특정 샘플링 포인트에 대응하는 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값에 대응하는 샘플링 데이터만을 메모리에 저장한다. 이에 따라, 본 발명에서는 메모리의 사이즈를 최소화할 수 있으며, 이에 따른 제조 비용을 감소시킬 수 있다.
또한, 본 발명에 따른 실시 예에서는 보간법을 이용하여 샘플링 포인트 이외의 포인트에 대한 보간 데이터를 획득한다. 그리고 상기 보간 데이터와 실제 데이터를 차이를 토대로 샘플링 포인트를 조정한다. 이때, 상기 샘플링 포인트의 조정은 샘플링 간격을 조정하여 이에 따른 샘플링 포인트의 수를 조정할 수 있다. 그리고, 카메라 모듈의 사용 환경에서는 상기 실제 데이터와 차이가 최소화된 상기 보간 데이터를 적용하여 자동 초점 기능을 제공한다. 따라서, 본 발명에서는 상기 실제 데이터와 차이가 없는 보간 데이터를 이용하여 자동 초점 기능을 실행함으로써, 최소의 샘플링 데이터를 가지고도 정확한 위치로 렌즈를 이동시킬 수 있으며, 이에 따른 제품 신뢰성을 향상시킬 수 있다.
또한, 본 발명에 따른 실시 예에서는 자동 초점 기능 실행 시에, 이미지의 선명도를 기준으로 보간 데이터의 이상 여부를 판단한다. 그리고, 상기 보간 데이터의 적용에 따라 획득되는 이미지의 선명도가 기설정된 허용 범위를 벗어나는 경우, 새로운 줌 렌즈의 위치 값 및 이에 대응하는 포커스 렌즈의 위치 값으로 기저장된 데이터를 업데이트한다. 따라서, 본 발명에서는 카메라 모듈의 사용 횟수에 따라 변경되는 동작 특성에 영향을 받지 않으면서, 포커스 위치 정확도를 향상시킬 수 있다.
도 1은 실시예에 따른 카메라 모듈의 사시도.
도 2는 도 1에 도시된 실시예에 따른 카메라 모듈에서 커버가 제거된 사시도.
도 3a는 도 2에 도시된 실시예에 따른 카메라 모듈에서 마운트의 사시도.
도 3b는 도 2에 도시된 실시예에 따른 카메라 모듈에서 마운트가 제거된 사시도.
도 4a는 도 2에 도시된 실시예에 따른 카메라 모듈에서 제1 렌즈 어셈블리의 사시도.
도 4b는 도 2에 도시된 실시예에 따른 카메라 모듈에서 제2 렌즈 어셈블리 사시도.
도 5a는 도 3b에 도시된 실시예에 따른 카메라 모듈에서 마그넷의 제1 착자 방식 개념도.
도 5b는 도 3a에 도시된 실시예에 따른 카메라 모듈에서 마그넷의 제2 착자 방식 개념도.
도 6은 도 2에 도시된 실시예에 따른 카메라 모듈의 평면도.
도 7a는 도 6에 도시된 실시예에 따른 카메라 모듈의 A1-A1'선을 따른 절단면의 도면.
도 7b는 도 6에 도시된 실시예에 따른 카메라 모듈의 A2-A2'선을 따른 절단면의 도면.
도 7c는 도 6에 도시된 실시예에 따른 카메라 모듈의 A3-A3'선을 따른 절단면의 도면.
도 8은 본 발명의 실시 예에 따른 카메라 모듈의 내부 구성을 나타낸 블록도.
도 9는 본 발명의 실시 예에 따른 실제 데이터의 획득 방법을 단계별로 설명하기 위한 흐름도.
도 10a는 본 발명의 실시 예에 따른 설계 데이터를 나타낸 그래프.
도 10b은 본 발명의 실시 예에 따른 실제 데이터를 나타낸 그래프.
도 10c는 본 발명의 실시 예에 따른 설계 데이터와 실제 데이터의 비교 그래프.
도 11은 본 발명의 실시 예에 따른 카메라 모듈의 샘플링 데이터 획득 방법을 단계별로 설명하기 위한 흐름도.
도 12a는 본 발명의 실시 예에 따른 샘플링 포인트의 설명하기 위한 도면.
도 12b는 도 12a의 샘플링 포인트를 토대로 획득한 보간 데이터를 나타낸 그래프.
도 12c는 본 발명의 실시 예에 따른 실제 데이터와 보간 데이터의 차이를 나타낸 그래프.
도 13은 본 발명의 실시 예에 따른 카메라 모듈의 데이터 업데이트 방법을 단계별로 설명하기 위한 흐름도.
도 14a는 본 발명의 실시 예에 따른 데이터 업데이트 기준을 설명하기 위한 도면.
도 14b는 본 발명의 실시 예에 따른 업데이트된 데이터를 설명하기 위한 도면.
이하, 첨부된 도면들을 참조하여 실시 예를 상세히 설명한다.
한편, 실시 예의 설명에 있어, 각 구성(element)의 "상/하" 또는 "위/아래"에 형성되는 것으로 기재되는 경우에 있어, ““상/하”” 또는 ““위/아래””는 두개의 구성이 서로 직접(directly) 접촉되거나, 하나 이상의 다른 구성이 두 구성 사이에 배치되어(indirectly) 형성되는 것을 모두 포함한다. 또한 ““상/하”” 또는 "위/아래””로 표현되는 경우 하나의 구성을 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.
또한, 이하에서 이용되는 "상/상부/위" 및 "하/하부/아래" 등과 같은 관계적 용어들은, 그런 구성 또는 요소들 간의 어떠한 물리적 또는 논리적 관계 또는 순서를 요구하거나 내포하지는 않으면서, 어느 한 구성 또는 요소를 다른 구성 또는 요소와 구별하기 위해서 이용될 수도 있다.
또한 실시 예의 설명에서 "제1", "제2" 등의 용어가 다양한 구성요소들을 설명하는 데 사용될 수 있지나, 이 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용된다. 또한, 실시 예의 구성 및 작용을 고려하여 특별히 정의된 용어들은 실시예를 설명하기 위한 것일 뿐이고, 실시 예의 범위를 한정하는 것이 아니다.
도 1은 실시 예에 따른 카메라 모듈(100)의 사시도이며, 도 2는 도 1에 도시된 실시 예에 따른 카메라 모듈(100)에서 커버(10)가 제거된 사시도이다.
먼저, 도 1을 주로 참조하면, 실시 예에 따른 카메라 모듈(100)은 소정의 마운트(20)(도 2 참조) 상에 각종 광학계들이 결합될 수 있다. 예를 들어, 상기 마운트(20) 위에는, 프리즘(140)과 렌즈군 들이 배치되고, 마운트(20)의 훅(hook)(20H)을 통해 커버(10)가 결합될 수 있다.
상기 커버(10)는 상기 마운트(20)와 결합될 수 있다. 상기 커버(10)는 상기 마운트(20)에 수용되는 부품을 덮을 수 있으며, 이에 따라 카메라 모듈의 구성부품들을 보호할 수 있다. 상기 마운트(20)는 베이스로 칭해질 수 있다.
상기 커버(10)는 상기 마운트(20)와 끼워 맞춤을 통해 결합될 수 있다. 또한, 상기 커버(10)는 접착제에 의해 상기 마운트(20)와 결합될 수 있다. 예를 들어, 상기 마운트(20)의 측면에는 훅(20H)이 돌출될 수 있고, 상기 커버(10)는 상기 훅(H)에 대응되는 위치에 홀이 형성되며, 상기 마운트(20)의 훅이 커버(10)의 홀에 장착되어 커버(10)와 마운트(20)가 결합될 수 있다. 더불어, 접착제를 사용하여 커버(10)가 마운트(20)에 안정적으로 결합될 수도 있다.
또한, 상기 마운트(20) 하측에는 회로기판(107)이 배치될 수 있다. 그리고, 상기 회로기판(107)은 상기 마운트(20) 내부에 배치된 렌즈 구동부들과 전기적으로 연결될 수 있다.
다음으로, 도 2를 참조하면, 실시 예에 따른 카메라 모듈(100)은 마운트(20)에 광학계와 렌즈 구동부가 배치될 수 있다. 예를 들어, 실시 예에 따른 카메라 모듈(100)은 제1 렌즈 어셈블리(110), 제2 렌즈 어셈블리(120), 제3 렌즈군(130), 프리즘(140), 제1 구동부(310), 제2 구동부(320), 로드(50), 이미지 센서부(210) 중 적어도 하나 이상을 포함할 수 있다.
상기 제1 렌즈 어셈블리(110), 상기 제2 렌즈 어셈블리(120), 상기 제3 렌즈군(130), 상기 프리즘(140), 상기 이미지 센서부(210) 등은 광학계로 분류될 수 있다.
또한, 상기 제1 구동부(310), 제2 구동부(320), 로드(50) 등은 렌즈 구동부로 분류될 수 있으며, 제1 렌즈 어셈블리(110)와 제2 렌즈 어셈블리(120)도 렌즈 구동부 기능을 겸비할 수 있다. 상기 제1 구동부(310)와 제2 구동부(320)는 코일 구동부일 수 있으나 이에 한정되는 것은 아니다.
상기 로드(50)는 이동되는 렌즈 어셈블리의 가이드 기능을 수행할 수 있으며, 단수 또는 복수로 구비될 수 있다. 예를 들어, 로드(50)는 제1 로드(51), 제2 로드(52)를 포함할 수 있으나 이에 한정되는 것은 아니다.
도 2에 도시된 축 방향에서, Z축은 광축(optic axis) 방향 또는 이와 평행방향을 의미한다. Y축은 지면(YZ 평면)에서 Z축과 수직인 방향을 의미한다. X축은 지면과 수직방향을 의미한다.
실시 예에서 프리즘(140)은 입사광을 평행광으로 변경시킨다. 예를 들어, 상기 프리즘(140)은 입사광의 광 경로를 렌즈군의 중심축에 평행한 광축(Z)으로 변경시켜 입사광을 평행광으로 변경시킨다. 이후 평행 광은 제3 렌즈군(130), 제1 렌즈 어셈블리(110) 및 제2 렌즈 어셈블리(120)을 통과하여 이미지 센서부(210)에 입사되어 영상이 촬상될 수 있다.
이하, 실시 예의 설명에서 이동 렌즈군(moving lens group)이 2개인 경우로 설명하나 이에 한정되는 것은 아니며, 이동 렌즈군은 3개, 4개 또는 5개 이상일 수 있다. 또한, 광축 방향(Z)은 렌즈군들이 정렬된 방향과 동일하거나 이와 평행한 방향을 의미한다.
실시 예에 따른 카메라 모듈은 주밍 기능을 수행할 수 있다. 예를 들어, 실시 예에서 제1 렌즈 어셈블리(110)와 제2 렌즈 어셈블리(120)는 제1 구동부(310), 제2 구동부(320), 및 로드(50)를 통해 이동하는 이동 렌즈(moving lens)일 수 있으며, 제3 렌즈군(130)은 고정 렌즈일 수 있다.
예를 들어, 실시 예에서 제1 렌즈 어셈블리(110), 제2 렌즈 어셈블리(120)는 이동 렌즈군을 포함할 수 있으며, 제3 렌즈군(130)은 고정 렌즈군일 수 있다.
상기 제3 렌즈군(130)은 평행광을 특정 위치에 결상하는 집광자(focator) 기능을 수행할 수 있다.
또한, 제1 렌즈 어셈블리(110)는 집광자인 제3 렌즈군(130)에서 결상된 상을 다른 곳에 재결상 시키는 변배자(variator) 기능을 수행할 수 있다. 한편, 제1 렌즈 어셈블리(110)에서는 피사체와의 거리 또는 상거리가 많이 바뀌어서 배율변화가 큰 상태일 수 있으며, 변배자인 제1 렌즈 어셈블리(110)는 광학계의 초점거리 또는 배율변화에 중요한 역할을 할 수 있다.
한편, 변배자인 제1 렌즈 어셈블리(110)에서 결상되는 상점은 위치에 따라 약간 차이가 있을 수 있다.
이에 제2 렌즈 어셈블리(120)는 변배자에 의해 결상된 상에 대한 위치 보상 기능을 할 수 있다. 예를 들어, 제2 렌즈 어셈블리(120)는 변배자인 제1 렌즈 어셈블리(110)에서 결상된 상점을 실제 이미지 센서부(210) 위치에 정확히 결상시키는 역할을 수행하는 보상자(compensator) 기능을 수행할 수 있다.
예를 들어, 상기 제 1 렌즈 어셈블리(110)는 주밍 기능을 수행하는 줌 렌즈 어셈블리일 수 있으며, 상기 제 2 렌즈 어셈블리(120)는 초점 기능을 수행하는 포커스 렌즈 어셈블리일 수 있다.
이하, 도 3a 내지 도 5d를 참조하여 실시예에 따른 카메라 모듈의 특징에 대해 상술하기로 한다.
우선, 도 3a는 도 2에 도시된 실시 예에 따른 카메라 모듈에서 마운트(20)의 사시도이다. 상기 마운트(20)는 직육면체 형상일 수 있고, 4 측면과 바닥면(20e)을 포함할 수 있다. 예를 들어, 마운트(20)는 제1 내지 제4 측면(20a, 20b, 20c, 20d)을 포함할 수 있으며, 제1 측면(20a)과 제2 측면(20b), 제3 측면(20c)과 제4 측면(20d)은 각각 서로 마주볼 수 있다.
상기 마운트(20)의 적어도 일 측면에 훅(20H)이 형성되어 커버(10)의 홀에 결합될 수 있다.
또한, 상기 마운트(20)의 바닥면(20e)에는 제1 렌즈 어셈블리(110), 제2 렌즈 어셈블리(120), 제3 렌즈군(130)이 위치하는 제1 가이드 홈(112G)이 광축(Z) 방향으로 형성될 수 있다. 상기 제1 가이드 홈(112G)은 렌즈의 외주 형상에 따라 아래로 오목한 형상일 수 있으나 이에 한정되는 것은 아니다.
또한, 상기 마운트(20)의 제1 측면(20a), 제2 측면(20b)에는 제1 구동부(310)와 제2 구동부(320)가 각각 배치되는 제1 개구부(23a), 제2 개구부(23b)가 형성될 수 있다. 또한, 상기 마운트(20)의 제3 측면(20c)에는 이미지 센서부(210)가 배치되는 제3 개구부(22)가 형성될 수 있다.
또한, 마운트(20)의 바닥면에는 회로 기판(107)이 노출되는 제4 개구부(27)가 단수 또는 복수로 형성될 수 있다.
또한, 마운트(20)의 제3 측면(20c)과 이를 마주보는 제4 측면(20d)에는 로드(50)가 결합되는 결합 홀(25)이 단수 또는 복수로 형성될 수 있다. 예를 들어, 상기 마운트(20)의 제3 측면(20c)과 제4 측면(20d)에 제1 결합 홀(25a), 제2 결합 홀(25b), 제3 결합 홀(25c), 제4 결합 홀(25d)이 형성될 수 있고, 여기에 제1 로드(51), 제2 로드(52), 제3 로드(53), 제4 로드(54)가 각각 결합될 수 있다.
또한, 상기 마운트(20)의 제4 측면(20d)의 내측에는 프리즘(140)을 배치하기 위한 프리즘 장착부(24)가 형성될 수 있다.
상기 마운트(20)의 재질은 플라스틱, 유리계열의 에폭시, 폴리카보네이트, 금속 또는 복합재료 중 어느 하나 이상으로 형성될 수 있다.
다음으로, 도 3b는 도 2에 도시된 실시 예에 따른 카메라 모듈에서 마운트(20)가 제거된 사시도이며, 광학계와 렌즈 구동부를 나타내고 있다.
실시 예에서 렌즈 구동장치는 무버(mover)와 고정부를 포함할 수 있다. 상기 무버는 고정부에 대응되는 개념으로 이동부로 칭해질 수 있다. 예를 들어, 상기 무버는 바퀴의 구름 운동에 의해 이동되는 렌즈 어셈블리를 의미할 수 있다. 반면, 고정부는 이동되지 않는 마운트, 로드 등을 의미할 수 있다.
실시 예에 따른 카메라 모듈은 마운트(20) 상에 프리즘(140), 제1 렌즈 어셈블리(110), 제2 렌즈 어셈블리(120), 제3 렌즈군(130), 이미지 센서부(210) 등의 광학계를 포함할 수 있다. 또한, 실시 예의 카메라 모듈은 제1 구동부(310), 제2 구동부(320), 로드(50) 등의 렌즈 구동부를 포함할 수 있다. 상기 제1 렌즈 어셈블리(110), 제2 렌즈 어셈블리(120)도 렌즈 구동기능을 수행할 수 있다.
상기 로드(50)는 제1 로드 내지 제4 로드(51, 52, 53, 54)를 포함할 수 있으며, 상기 제1 로드 내지 제4 로드(51, 52, 53, 54)는 각각 제1 결합 홀 내지 제4 결합 홀(25a, 25b, 25c, 25d)(도 3a 참조)에 결합되어 제1 렌즈 어셈블리(110)와 제2 렌즈 어셈블리(120)의 이동 가이드 기능을 할 수 있다. 상기 로드(50)는 플라스틱, 유리계열의 에폭시, 폴리카보네이트, 금속 또는 복합재료 중 어느 하나 이상으로 형성될 수 있다.
상기 제1 구동부(310)는 코일 구동부일 수 있으며, 철심 등의 제1 코어(312)에 제1 코일(314)이 감긴 형태일 수 있다. 또한, 상기 제2 구동부(320)도 철심 등의 제2 코어(322)에 제2 코일(324)이 감긴 코일 구동부 일 수 있다.
우선, 상기 프리즘(140)은 입사광의 광 경로를 렌즈군의 중심축(Z)에 평행한 광축으로 변경시켜 입사광을 평행광으로 변경시킨다. 이후 평행 광은 제3 렌즈군(130), 제1 렌즈 어셈블리(110) 및 제2 렌즈 어셈블리(120)를 통과하여 이미지 센서부(210)에 촬상될 수 있다.
상기 프리즘(140)은 삼각기둥 형상을 갖는 광학 부재일 수 있다. 또한, 실시 예는 프리즘(140) 대신 반사판 또는 반사경을 채용할 수 있다.
또한, 실시 예는 이미지 센서부(210)가 광축에 수직한 방향에 배치되지 않는 경우, 렌즈 군을 통과한 광이 이미지 센서부(210)로 촬상되기 위해 추가 프리즘(미도시)을 더 구비할 수도 있다.
실시 예에서 이미지 센서부(210)는 평행광의 광축 방향에 수직하게 배치될 수 있다. 상기 이미지 센서부(210)는 제2 회로기판(212) 상에 배치된 고체 촬상소자(214)를 포함할 수 있다. 예를 들어, 이미지 센서부(210)는 CCD(Charge Coupled Device) 이미지센서나 CMOS(Complementary Metal-Oxide-Semiconductor) 이미지 센서를 포함할 수 있다.
도 4a와 도 4b를 참조하여, 실시 예에서 제1 렌즈 어셈블리(110)와 제2 렌즈 어셈블리(120)에 대해 좀 더 상술하기로 한다.
도 4a는 도 2에 도시된 실시 예에 따른 카메라 모듈에서 제1 렌즈 어셈블리(110)의 사시도이며, 도 4b는 도 2에 도시된 실시 예에 따른 카메라 모듈에서 제2 렌즈 어셈블리(120)의 사시도이다.
도 4a를 참조하면, 실시 예의 제1 렌즈 어셈블리(110)는 제1 하우징(112), 제1 렌즈군(114), 제1 바퀴(117), 제3 구동부(116), 제1 위치 센서(118) 중 어느 하나 이상을 포함할 수 있다.
또한, 도 4b를 참조하면, 실시예의 제2 렌즈 어셈블리(120)는 제2 하우징(122), 제2 렌즈군(124), 제2 바퀴(127), 제4 구동부(126), 제2 위치 센서(128) 중 어느 하나 이상을 포함할 수 있다.
이하 제1 렌즈 어셈블리(110)를 중심으로 설명하기로 한다.
상기 제1 렌즈 어셈블리(110)의 제1 하우징(112)은 제1 렌즈 하우징(112a)과 제1 구동부 하우징(112b)을 포함할 수 있다. 상기 제1 렌즈 하우징(112a)은 경통 기능을 하며, 제1 렌즈군(114)이 장착될 수 있다. 상기 제1 렌즈군(114)은 이동 렌즈군(moving lens group)일 수 있으며, 단일 또는 복수의 렌즈를 포함할 수 있다. 상기 제2 렌즈 어셈블리(120)의 제2 하우징(122)도 제2 렌즈 하우징(122a)과 제2 구동부 하우징(122b)을 포함할 수 있다.
이때, 상기 제1 렌즈 어셈블리(110)의 제1 렌즈 하우징(112a)의 일단 하측에 제1 가이드 홈(112G)이 형성될 수 있다. 상기 제1 렌즈 어셈블리(110)는 상기 제1 가이드 홈(112G)에 의해 안내되어 제2 로드(52)와 슬라이딩 접촉하면서 광축 방향으로 직선으로 이동할 수 있다. 또한, 상기 제2 렌즈 어셈블리(120)의 제2 렌즈 하우징(122a)의 일단 하측도 제2 가이드 홈(122G)이 형성될 수 있다.
실시 예에서는 제2 로드(52)와 제1 가이드 홈(112G) 간의 슬라이딩접촉에 의해 제1 하우징(112)이 광축 방향으로 이동하도록 구비되므로 효율적인 오토 포커싱 및 줌 기능을 수행하는 카메라 모듈을 구현할 수 있다.
또한, 실시 예에서는 제1 로드(51)와 제2 가이드 홈(122G) 간의 슬라이딩접촉에 의해 제2 하우징(122)이 광축 방향으로 이동하도록 구비되므로 효율적인 오토포커싱 및 줌 기능을 수행하는 카메라 모듈을 구현할 수 있다.
다음으로, 상기 제1 렌즈 어셈블리(110)의 제1 구동부 하우징(112b)에는 제3 구동부(116), 제1 바퀴(117), 제1 위치 센서(118)가 배치될 수 있다. 상기 제1 바퀴(117)는 복수의 바퀴를 포함할 수 있으며, 제1-1 바퀴(117a), 제1-2 바퀴(117b)를 포함할 수 있다.
또한, 상기 제2 렌즈 어셈블리(120)의 제2 구동부 하우징(122b)에는도 제4 구동부(126), 제2 바퀴(127), 제2 위치 센서(128)가 배치될 수 있다. 상기 제2 바퀴(127)는 복수의 바퀴를 포함할 수 있으며, 제2-1 바퀴(127a), 제2-2 바퀴(127b)를 포함할 수 있다.
상기 제1 렌즈 어셈블리(110)의 제3 구동부(116)는 마그넷 구동부일 수 있으나 이에 한정되는 것은 아니다. 예를 들어, 상기 제3 구동부(116)는 영구자석인 제1 마그넷(magnet)을 포함할 수 있다. 또한, 상기 제2 렌즈 어셈블리(120)의 제4 구동부(126)도 마그넷 구동부일 수 있으나 이에 한정되는 것은 아니다.
예를 들어, 도 5a는 상기 제1 렌즈 어셈블리(110)의 제3 구동부(116)에서 제1 마그넷의 제1 착자 방식 개념도로, 영구자석의 N극이 제1 구동부(310)와 마주보도록 배치되고, S극은 제1 구동부(310)의 반대편에 위치할 수 있다.
이 경우 플레밍의 왼손의 법칙에 따라 전자기력의 방향이 광축 방향과 수평하게 되어 제1 렌즈 어셈블리(110)가 구동될 수 있다.
특히 실시 예에서는 도 4a에서와 같이, 제1 렌즈 어셈블리(110)에 구름(rolling) 구동부인 제1 바퀴(117)를 구비하여 로드(50) 상에서 이동함으로써 마찰 토크 발생을 최소화할 수 있는 기술적 효과가 있다.
이를 통해, 실시 예에 따른 렌즈 어셈블리, 렌즈 구동장치 및 이를 포함하는 카메라 모듈은, 주밍(zooming) 시 이동되는 렌즈 어셈블리와 가이드 로드 간에 마찰 토크 발생을 최소화하여 구동력을 향상시킬 수 있다. 이에 따라 실시 예에 의하면 카메라 모듈의 주밍(zooming) 시 소비전력을 감소할 수 있으며 제어특성을 향상시킬 수 있는 기술적 효과가 있다.
한편, 도 5b는 실예에 따른 카메라 모듈에서 제1 구동부(116B)인 마그넷의 제2 착자 방식 개념도이다.
도 5a에서 제1 구동부(310)는 바 형태의 제1 코어(312)에 제1 코일(314)이 감긴형태이다(도 3b 참조). 반면, 도 5b에 도시된 제1-2 구동부(310B)는 도넛 형태의 코어에 코일이 감긴 형태이다.
이에 따라, 도 5a의 제1 구동부(310)에서 제3 구동부(116)와 마주보는 영역에서의 전류의 방향은 하나의 방향이다.
반면, 도 5b의 제1-2 구동부(310B)에서의 제3 구동부(116)와 마주보는 영역에서의 전류의 방향은 같지 않으며, 이에 따라 제3-2 구동부(116B)인 영구자석의 N극과 S극이 모두 제1-2 구동부(310B)와 마주보도록 배치될 수 있다.
다시, 도 4a를 참조하면, 상기 제1 렌즈 어셈블리의 제1 구동부 하우징(112b)에는 제1 위치 센서(118)가 배치되어 제1 렌즈 어셈블리(110)의 위치감지와 위치제어를 할 수 있다. 예를 들어, 상기 제1 구동부 하우징(112b)에 배치된 제1 위치 센서(118)는 마운트(20) 저면에 배치된 제1 센싱 마그네트(미도시)에 대향하도록 배치될 수 있다.
또한, 도 4b와 같이, 상기 제2 렌즈 어셈블리의 제2 구동부 하우징(122b)에도 제2 위치 센서(128)가 배치되어 제2 렌즈 어셈블리(120)의 위치감지와 위치제어를 할 수 있다.
다음으로, 도 6은 도 2에 도시된 실시예에 따른 카메라 모듈의 평면도이다. 또한, 도 7a는 도 6에 도시된 실시예에 따른 카메라 모듈의 A1-A1'선을 따른 절단면을 Y축 방향으로 바로 본 도면이다. 또한, 도 7b는 도 6에 도시된 실시예에 따른 카메라 모듈의 A2-A2'선을 따른 절단면을 Z축 방향으로 바로 본 도면이다. 또한, 도 7c는 도 6에 도시된 실시 예에 따른 카메라 모듈의 A3-A3'선을 따른 절단면을 Z축 방향으로 바로 본 도면이다.
우선, 도 7a에서, 제2 렌즈 어셈블리(120)의 제2 구동부 하우징(122)과 제4 구동부(126)는 절단되지 않는 상태이다.
도 7a를 참조하면, 상기 제1 렌즈 어셈블리(110)의 제1 렌즈 하우징(112a)에 제1 렌즈군(114)이 장착될 수 있다. 상기 제1 렌즈군(114)은 제1 경통(114b)에 장착될 수 있다.
또한, 제2 렌즈 어셈블리(120)의 제2 렌즈 하우징(122a)에 제2 렌즈군(124)이 장착될 수 있다. 상기 제2 렌즈군(124)은 제2 경통(124b)에 장착될 수 있다.
또한, 제3 렌즈군(130)은 제3 경통(1132)에 장착된 제3 렌즈(134)를 포함할 수 있다.
상기 제1 렌즈군 내지 제3 렌즈군(114, 124, 134)는 각각 하나 또는 복수의 렌즈를 포함할 수 있다.
실시 예에 따른 카메라 모듈에서 프리즘(140), 제3 렌즈군(130), 제1 렌즈군(114), 제2 렌즈군(124)의 중심은 광축(Z) 방향으로 배열될 수 있다.
상기 제3 렌즈군(130)은 프리즘(140)과 대향하여 배치될 수 있고, 프리즘(140)으로부터 출사되는 광이 입사할 수 있다.
제1 렌즈군 내지 제3 렌즈군(114, 124, 134) 중 적어도 어느 하나는 고정 렌즈일 수 있다. 예를 들어, 제3 렌즈군(130)은 카메라 모듈에 고정적으로 배치되어 광축 방향으로 이동하지 않을 수 있으나 한정되는 것은 아니다.
예를 들어, 상기 마운트(20)는 상기 제3 렌즈군(130)이 고정적으로 결합하는 장착부(미도시)를 구비할 수 있다. 제3 렌즈군(130)은 장착부에 안착되고, 접착제에 의해 상기 장착부에 고정될 수 있다.
상기 제2 렌즈군(124)은 상기 제3 렌즈군(130)과 광축 방향으로 이격되어 배치되고, 광축방향으로 이동할 수 있다. 상기 제3 렌즈군(130)은 상기 제2 렌즈군(124)과 광축 방향으로 이격되어 배치되고 광축 방향으로 이동할 수 있다.
상기 제3 렌즈군(130)으로부터 출사하는 광은 제3 렌즈군(130)의 후방에 배치되는 이미지 센서부(210)에 입사할 수 있다.
제1 렌즈군(114) 및 제2 렌즈군(124)이 광축 방향으로 이동함으로써, 제1 렌즈군(114)과 제3 렌즈군(130) 사이의 간격 및 제1 렌즈군(114)과 제2 렌즈군(124) 사이의 간격이 조절될 수 있고, 이로 인해 카메라 모듈은 줌밍 기능이 가능하다.
다음으로, 도 7b는 도 6에 도시된 실시 예에 따른 카메라 모듈의 A2-A2'선을 따른 절단면을 Z축 방향으로 바로 본 도면으로서, 상기 제1 렌즈 어셈블리(110)에서 제1-1 바퀴(117a), 제1-3 바퀴(117c)가 절단된 상태이며, 상기 제2 렌즈 어셈블리(120)에서 제2-1 바퀴(127a), 제2-3 바퀴(127c)가 절단된 상태가 도시되었다.
실시예에서 제1 렌즈 어셈블리(110)는 구름(rolling) 구동부인 제1-1 바퀴(117a), 제1-3 바퀴(117c)를 구비하고, 상기 제2 렌즈 어셈블리(120)도 구름 구동부인 제2-1 바퀴(127a), 제2-3 바퀴(127c)를 구비하여, 각각 제1 로드(51), 제3 로드(53), 제2 로드(52) 및 제4 로드(54) 상에서 전자기력에 의한 구름 이동함으로써 마찰 토크 발생을 최소화할 수 있는 기술적 효과가 있다.
이를 통해, 실시 예에 따른 렌즈 어셈블리, 렌즈 구동장치 및 이를 포함하는 카메라 모듈은, 주밍(zooming) 시 광축(Z) 방향으로 이동되는 렌즈 어셈블리의 구름 구동부인 바퀴와 가이드 로드(50) 간에 마찰 토크 발생을 최소화하여 구동력을 향상시킬 수 있다. 또한, 실시 예에 의하면 렌즈 어셈블리의 바퀴와 로드(50) 간에 마찰 저항 발생을 최소화하여 카메라 모듈의 주밍(zooming) 시 소비전력을 감소할 수 있으며 제어특성을 향상시킬 수 있는 기술적 효과가 있다.
다음으로, 7c는 도 6에 도시된 실시 예에 따른 카메라 모듈의 A3-A3'선을 따른 절단면을 Z축 방향으로 바로 본 도면으로서, 상기 제1 렌즈 어셈블리(110)에서 제1-2 바퀴(117b), 제1-4 바퀴(117d)가 절단된 상태이며, 상기 제2 렌즈 어셈블리(120)에서 제2-2 바퀴(127b), 제2-4 바퀴(127d), 제2 렌즈 하우징(122a) 및 제2 렌즈군(124)이 절단된 상태가 도시되었다.
실시 예에서 제1 렌즈 어셈블리(110)는 구름(rolling) 구동부인 제1-2 바퀴(117b), 제1-4 바퀴(117d)를 구비하고, 상기 제2 렌즈 어셈블리(120)도 구름 구동부인 제2-2 바퀴(127b), 제2-4 바퀴(127d)를 구비하여 각 제1 로드(51), 제3 로드(53), 제2 로드(52) 및 제4 로드(54) 상에서 구름 이동함으로써 마찰 토크 발생을 최소화할 수 있는 기술적 효과가 있다.
이를 통해, 실시 예에 의하면, 주밍(zooming) 시 렌즈 어셈블리의 바퀴와 로드(50) 간에 마찰 토크 발생을 최소화하여 구동력을 향상시킬 수 있으며, 소비전력을 감소할 수 있고 제어특성을 향상시킬 수 있는 복합적 기술적 효과가 있다.
도 8은 본 발명의 실시 예에 따른 카메라 모듈의 내부 구성을 나타낸 블록도이다.
도 8을 참조하면, 카메라 모듈은, 이미지 센서(210), 이미지 신호 처리부(220), 디스플레이부(230), 제 1 렌즈 구동부(240), 제 2 렌즈 구동부(250), 저장부(260) 및 제어부(270)를 포함할 수 있다.
이미지 센서(210)는 상기 설명한 바와 같이, 렌즈에 통해 맺힌 피사체의 광학 상을 처리한다. 이를 위해, 이미지 센서(210)는 상기 렌즈를 통해 획득된 이미지를 선처리할 수 있다. 또한, 이미지 센서(210)는 상기 선처리된 이미지를 전기적 데이터로 변환시켜 출력할 수 있다.
이미지 센서(210)는 다수의 광 검출기들이 각각의 화소로서 집적된 형태이며, 피사체의 이미지 정보를 전기적 데이터로 변환시켜 출력한다. 이미지 센서(210)는 입력되는 광량을 축적하고, 그 축적된 광량에 따라 상기 렌즈에서 촬영된 이미지를 수직 동기신호에 맞추어 출력한다. 이때, 이미지 획득은 피사체로부터 반사되어 나오는 빛을 전기적인 신호로 변환시켜주는 상기 이미지 센서(210)에 의해 이루어진다. 한편, 이미지 센서(210)를 이용하여 컬러 영상을 얻기 위해서는 컬러 필터가 필요하며, 예를 들어, CFA(Color Filter Array) 필터가 채용될 수 있다. CFA는 한 픽셀마다 한 가지 컬러를 나타내는 빛만을 통과시키며, 규칙적으로 배열된 구조를 가지며, 배열 구조에 따라 여러 가지 형태를 가진다.
이미지 신호 처리부(220)는 상기 이미지 센서(210)를 통해 출력되는 이미지를 프레임 단위로 처리한다. 이때, 이미지 신호 처리부(220)는 ISP(Image Signal Processor)라고도 칭할 수 있다.
이때, 이미지 신호 처리부(220)는 렌즈 쉐이딩 보상부(도시하지 않음)를 포함할 수 있다. 렌즈 쉐이딩 보상부는, 이미지의 중심과 가장자리 영역의 광량에 다르게 나타나는 렌즈 쉐이딩 현상을 보상하기 위한 블록으로써, 후술할 제어부(270)로부터 렌즈 쉐이딩 설정 값을 입력받아, 이미지의 중심과 가장자리 영역의 색상을 보상한다.
나아가, 렌즈 쉐이딩 보상부는 조명의 종류에 따라 다르게 설정된 쉐이딩 변수를 수신하고, 상기 수신된 변수에 맞게 상기 이미지의 렌즈 쉐이딩을 처리할 수도 있다. 이에 따라, 렌즈 쉐이딩 보상부는 조명 종류에 따라 쉐이딩 정도를 다르게 적용하여 렌즈 쉐이딩 처리를 수행할 수 있다. 한편, 렌즈 쉐이딩 보상부는 상기 이미지에 발생하는 포화 현상을 방지하기 위해 상기 이미지의 특정 영역에 적용되는 자동 노출 가중치에 따라 다르게 설정된 쉐이딩 변수를 수신하고, 상기 수신된 변수에 맞게 상기 이미지의 렌즈 쉐이딩을 처리할 수도 있다. 더욱 명확하게는, 상기 렌즈 쉐이딩 보상부는, 상기 영상신호의 중심 영역에 대해 자동 노출 가중치가 적용됨에 따라 상기 영상신호의 가장자리 영역에 발생하는 밝기 변화를 보상한다. 즉, 조명에 의해 상기 영상신호의 포화가 발생하는 경우, 동심원 형태로 빛의 세기가 중앙에서 외곽으로 갈수록 감소함으로, 상기 렌즈 쉐이딩 보상부는 상기 영상 신호의 가장자리 신호를 증폭하여 중심 대비 밝기를 보상하도록 한다.
한편, 이미지 신호 처리부(220)는 상기 이미지 센서(210)를 통해 획득되는 이미지의 선명도를 측정할 수 있다. 즉, 이미지 신호 처리부(220)는 상기 이미지 센서(210)를 통해 획득되는 이미지의 초점 정확도를 체크하기 위하여, 상기 이미지의 선명도를 측정할 수 있다. 상기 선명도는, 포커스 렌즈의 위치에 따라 획득되는 이미지에 대해 각각 측정될 수 있다.
디스플레이부(230)는 후술할 제어부(270)의 제어에 따라 촬영된 이미지를 표시하며, 사진 촬영 시 필요한 설정 화면이나, 사용자의 동작 선택을 위한 화면을 표시한다.
제 1 렌즈 구동부(240)는 제 1 렌즈를 이동시킨다. 이때, 상기 제 1 렌즈는 상기 설명한 바와 같은 제 1 렌즈 어셈블리에 포함되는 제 1 렌즈군을 포함할 수 있고, 바람직하게 줌 렌즈일 수 있다. 그리고, 상기 제 1 렌즈 구동부(240)는 상기 줌 렌즈의 줌 위치(또는, 줌 배율)을 조정하기 위해, 상기 줌 렌즈를 광축 방향으로 이동시킬 수 있다.
제 2 렌즈 구동부(250)는 제 2 렌즈를 이동시킨다. 이때, 상기 제 2 렌즈는 상기 설명한 바와 같은 제 2 렌즈 어셈블리에 포함되는 제 2 렌즈군을 포함할 수 있고, 바람직하게 포커스 렌즈일 수 있다. 그리고, 상기 제 2 렌즈 구동부(250)는 상기 포커스 렌즈의 포커스 위치를 조정하기 위해, 상기 포커스 렌즈를 광축 방향으로 이동시킬 수 있다.
저장부(260)는 상기 카메라 모듈(100)이 동작하는데 필요한 데이터를 저장한다. 특히, 저장부(260)에는 피사체와의 거리별로 줌 위치 및 포커스 위치에 대한 정보가 저장될 수 있다. 즉, 포커스 위치는, 상기 피사체의 초점을 정확히 맞추기 위한 상기 포커스 렌즈의 위치일 수 있다. 그리고, 상기 포커스 위치는 상기 줌 렌즈에 대한 줌 위치 및 상기 피사체와의 거리에 따라 변화할 수 있다. 따라서, 저장부(260)는 거리에 따라 줌 위치 및 상기 줌 위치에 대응하는 포커스 위치에 대한 데이터를 저장한다.
이때, 상기 저장되는 데이터는, 모든 줌 위치 및 상기 모든 줌 위치에 각각 대응하는 포커스 위치에 대한 데이터가 아니라, 샘플링 데이터일 수 있다. 상기 샘플링 데이터는, 상기 모든 줌 위치 중 특정 샘플링 포인트에 대응하는 줌 위치 및 상기 샘플림 포인트의 줌 위치에 대응하는 포커스 위치에 대한 적어도 2개의 위치 값일 수 있다.
다시 말해서, 본 실시 예에서는 거리별로 모든 줌 위치/포커스 위치에 대한 데이터를 저장하지 않고, 거리별로 설정된 특정 위치 포인트(이는, 샘플링 포인트라고도 할 수 있음)에 대한 줌 위치/포커스 위치에 대한 데이터만을 저장할 수 있다. 이에 따라, 본 발명에서는 메모리의 사이즈를 최소화할 수 있으며, 이에 따른 제조 비용을 감소시킬 수 있다.
그리고, 본 발명에서는 상기 샘플링 데이터를 이용하여 보간 데이터를 획득하고, 상기 보간 데이터를 적용하여 상기 거리에 따른 줌 위치 및 포커스 위치가 조정될 수 있도록 한다.
즉, 피사체와의 거리 정보가 획득되고, 이에 따른 줌 위치가 변경되면, 상기 거리 정보 및 줌 위치에 대응하는 포커스 위치로 상기 포커스 렌즈를 이동시켜야 한다. 이때, 본 발명에서의 상기 저장부(260)에는 모든 포인트에 대한 줌 위치 및 포커스 위치에 대한 데이터가 저장되어 있지 않고, 특정 샘플링 포인트에 대한 줌 위치 및 포커스 위치에 대한 샘플링 데이터만이 저장되어 있다. 따라서, 본 발명에서는 보간법(interpolation)을 이용하여 상기 샘플링 포인트의 사이에 위치한 다른 포인트에 대한 줌 위치 및 포커스 위치에 대한 보간 데이터를 획득한다. 그리고, 상기 보간 데이터가 획득되면, 상기 획득된 보간 데이터를 이용하여 상기 포커스 렌즈의 포커스 위치 및 상기 줌 렌즈의 줌 위치를 조정한다.
제어부(270)는 상기 카메라 모듈의 전반적인 동작을 제어한다. 특히, 제어부(270)는 상기 저장부(260)에 샘플링 데이터를 저장한다. 이를 위해, 상기 제어부(270)는 실제 데이터와 오차가 가장 적은 샘플링 포인트를 결정하고, 상기 결정된 샘플링 포인트에 대응하는 샘플링 데이터를 획득한다.
또한, 제어부(270)는 상기 샘플링 데이터가 획득되면, 상기 샘플링 데이터를 이용하여 상기 보간 데이터를 획득하고, 상기 획득한 보간 데이터를 적용하여 상기 피사체와의 거리에 따른 줌 위치 및 포커스 위치가 조정될 수 있도록 한다.
이때, 상기 보간 데이터는 실제 데이터와 차이가 없어야 한다. 여기에서, 상기 실제 데이터는 피사체와의 거리에 따른 정확한 줌 렌즈의 위치 값 및 포커스 렌즈의 위치 값에 대한 데이터일 수 있다. 즉, 상기 실제 데이터는 실험을 통해 획득한 거리별 줌 위치 또는 포커스 위치에 따른 정확한 포커스 위치 또는 줌 위치에 대한 데이터이다. 이때, 상기 실제 데이터가 획득되었다면, 상기 실제 데이터를 모두 상기 저장부(260) 내에 저장하는 것이 렌즈 이동 정확도를 높이는 데 가장 이상적일 수 있다. 그러나, 상기와 같이 모든 범위 내에서의 실제 데이터를 저장부(260)에 저장하는 경우, 이에 따른 메모리 사이즈가 커지게 되어 제조 단가가 상승하는 문제가 있다.
따라서, 본 발명에서는 상기 실제 데이터와 차이가 거의 없는 보간 데이터를 획득하기 위한 샘플링 포인트를 결정하고, 상기 결정된 샘플링 포인트에 대응하는 샘플링 데이터만을 상기 저장부(260)에 저장하도록 한다.
이때, 상기 보간 데이터와 상기 실제 데이터의 오차 범위를 최소화하기 위해서는, 최적의 샘플링 포인트의 간격을 결정해야 한다. 즉, 상기 보간 데이터와 상기 실제 데이터의 오차 범위를 최소화하기 위해서는, 최적의 샘플링 포인트의 위치 및 샘플링 포인트의 수를 결정해야 한다.
따라서, 상기 제어부(270)는 상기 실제 데이터를 이용하여, 상기 보간 데이터와 차이를 최소화할 수 있는 샘플링 포인트를 결정하고, 상기 결정한 샘플링 포인트에 대응하는 샘플링 데이터를 획득하여 상기 저장부(260)에 저장하도록 한다. 상기 샘플링 포인트의 결정 및 이에 따른 샘플링 데이터의 획득에 대해서는 하기에서 상세히 설명하기로 한다.
또한, 상기 제 1 렌즈 구동부(240) 및 제 2 렌즈 구동부(250)는 스프링 기반 또는 볼 기반으로 구동되며, 이에 따라 사용 횟수에 따라 특성이 변화할 수 있다. 다시 말해서, 상기 사용 횟수에 따라 상기 제 1 렌즈 구동부(240) 및 제 2 렌즈 구동부(250)에서 발생하는 힘이나 탄성이 변화할 수 있으며, 이에 따라 동일 조건 내에서 상기 줌 렌즈 또는 포커스 렌즈의 위치가 사용 횟수에 따라 변화할 수 있다.
따라서, 상기 제어부(270)는 오토 포커싱 기능을 통해 상기 포커스 렌즈에 대한 정확한 포커스 위치가 획득되면, 상기 획득된 포커스 위치와 상기 샘플링 데이터 또는 보간 데이터에 포함된 포커스 위치를 비교한다.
그리고, 상기 제어부(270)는 상기 비교한 포커스 위치들의 차이가 기설정된 허용 범위 내에 있으면 이를 무시하고, 상기 허용 범위를 벗어난 경우 상기 획득한 새로운 줌 위치 및 포커스 위치에 대응하는 데이터를 가지고 상기 저장부(260)에 저장된 데이터를 업데이트한다.
이때, 상기 저장부(260)에는 샘플링 데이터만이 저장된다. 그리고, 상기 업데이트되는 데이터는 상기 샘플링 데이터에 대응하는 샘플링 포인트가 아닌 다른 포인트의 데이터일 수 있다. 따라서, 상기 데이터의 업데이트 시, 상기 업데이트 데이터는 상기 샘플링 데이터와 함께 추가로 상기 저장부(260)에 저장될 수 있다.
이하에서는 첨부된 도면을 참조하여, 상기 샘플링 데이터, 보간 데이터 및 업데이트 데이터의 획득 과정에 대해 더욱 상세히 설명하기로 한다.
도 9는 본 발명의 실시 예에 따른 실제 데이터의 획득 방법을 단계별로 설명하기 위한 흐름도이고, 도 10a는 본 발명의 실시 예에 따른 설계 데이터를 나타낸 그래프이고, 도 10b은 본 발명의 실시 예에 따른 실제 데이터를 나타낸 그래프이며, 도 10c는 본 발명의 실시 예에 따른 설계 데이터와 실제 데이터의 비교 그래프이다.
먼저, 제어부(270)는 실제 데이터를 획득하기 위한 초기 단계로, 설계 데이터를 획득한다(101단계). 상기 설계 데이터는 카메라 모듈에 포함된 줌 렌즈 및 포커스 렌즈의 설계 시에 획득되는 기준 데이터이다.
즉, 설계 데이터는 이론적으로 거리에 따른 줌 렌즈의 줌 위치 및 상기 포커스 렌즈의 포커스 위치에 대한 정보를 포함하고 있다. 이에 따라, 상기 설계 데이터는 기준 데이터라고도 할 수 있으며, 또한 이론 데이터라고도 칭할 수 있다.
상기 설계 데이터는 카메라 모듈의 설계 과정에서, 기준이 되는 기준 줌 렌즈와 기준 포커스 렌즈를 가지고서, 거리에 따라 상기 기준 줌 렌즈의 줌 위치가 'A'일 경우, 기준 포커스 렌즈의 포커스 위치가 'B'에 있어야 정확한 초점이 맞을 것이라는 이론적인 데이터이다.
따라서, 상기 카메라 모듈의 실제 사용 환경에서는 상기 설계 데이터와 동일한 조건으로 상기 줌 위치 및 포커스 위치가 이동하는 경우, 정확한 초점이 맞지 않는 경우가 발생하게 된다. 따라서, 본 발명에서는 상기 설계 데이터를 이용하여, 상기 카메라 모듈의 실제 사용 환경에서 정확한 초점을 맞추기 위한 실제 데이터를 획득한다.
한편, 종래에는 상기 실제 데이터가 획득되면, 모든 거리에 따른 모든 줌 위치 및 포커스 위치에 대한 정보를 저장부에 그대로 저장하고, 이를 캘리브레이션 데이터로 사용하여 오토 포커싱 기능을 제공하였다. 그러나, 이와 같은 경우 메모리의 사이즈가 증가할 뿐 아니라, 상기 설계 데이터만으로는 카메라 모듈의 다양한 사용 환경에서 정확한 렌즈 위치 제어가 불가능하였다. 또한, 종래에는 줌 렌즈를 제외한 포커스 렌즈만을 포함하였다. 이에 따라, 종래에는 피사체와의 거리 및 이에 따른 줌 렌즈의 위치에 대응 데이터만 있으면 오토 포커싱 기능을 구현할 수 있었다.
그러나, 본 발명의 카메라 모듈은 상기 포커스 렌즈뿐 아니라, 줌 렌즈를 포함하고 있다. 이에 따라 정확한 렌즈의 위치를 이동을 위해서는, 피사체와의 거리, 줌 렌즈의 줌 위치 및 포커스 렌즈의 포커스 위치와 같은 3개의 정보를 알아야 한다. 이때, 상기 피사체와의 거리는 카메라 모듈에 구비된 거리 측정기(예를 들어, 레이저 다이오드)를 이용하여 획득이 가능하다. 그러나, 상기 피사체와의 거리만을 이용해서는 정확한 줌 렌즈의 줌 위치 및 포커스 렌즈의 포커스 위치를 알 수 없다. 따라서, 본 발명에서는 상기 설계 데이터를 이용하여 상기 카메라 모듈의 실제 사용 환경에 맞는 정확한 실제 데이터를 획득하도록 한다.
한편, 도 10a를 참조하면, 상기 설계 데이터는 복수의 설계 데이터를 포함한다. 다시 말해서, 상기 설계 데이터는 제 1 거리에 적용되는 줌 위치 및 포커스 위치에 대응하는 제 1 데이터와, 제 2 거리에 적용되는 줌 위치 및 포커스 위치에 대응하는 제 2 데이터를 포함한다. 이때, 상기 제 1 거리는 무한대(infinity)일 수 있고, 상기 제 2 거리는 매크로(macro)일 수 있다. 한편, 도면상에는 상기 설계 데이터가 2개의 거리에 대응하는 줌 위치 및 포커스 위치에 대한 데이터만을 포함하는 것으로 도시하였으나, 상기 거리는 더 증가할 수 있을 것이다. 즉, 카메라 모듈은 상기와 같은 2개의 거리에 대한 데이터만을 필요로 하는 모델도 있고, 이와 다르게 3개 이상의 거리에 대한 데이터를 필요로 하는 모델도 있다. 따라서, 상기 거리 수는 모델에 따라 다르게 설정될 수 있다.
다시, 도 9를 참조하면, 상기 제어부(270)는 상기 설계 데이터가 획득되면, 상기 줌 렌즈가 초기화 상태인지 여부를 판단한다(102단계). 즉, 상기 제어부(270)는 상기 줌 렌즈의 배율을 확인하기 위한 과정을 진행할 수 있다. 이를 위해, 제어부(270)는 상기 줌 렌즈가 센터 위치에 위치하는지 여부를 판단한다.
그리고, 제어부(270)는 상기 줌 렌즈가 센터 위치가 아닌 다른 위치에 위치한 경우, 상기 줌 렌즈를 센터로 이동시킨다(103단계).
이후, 제어부(270)는 상기 줌 렌즈를 와이드(Wide) 단으로 이동시키고(104단계), 상기 와이드 단으로 이동한 줌 렌즈에 대한 위치 정보(와이드 위치 정보라 할 수 있음)를 저장부(260)에 저장한다(105단계).
상기 와이드 위치에 대한 확인 과정이 완료되면, 상기 제어부(270)는 상기 줌 렌즈를 텔리(TELE) 단으로 이동시키고(106단계), 상기 텔리 단으로 이동한 줌 렌즈에 대한 위치 정보(텔리 위치 정보라 할 수 있음)를 저장부(260)에 저장한다(106단계).
이후, 제어부(270)는 객체와의 거리 수(M)를 설정한다(108단계). 이때, 상기 설정한 바와 같이, 상기 거리 수(M)는 무한대 및 매크로와 같은 2개로 설정될 수 있으며, 이와 다르게 무한대 및 매크로 사이의 거리를 포함한 3개 이상으로 설정될 수 있다.
그리고, 상기 제어부(270)는 상기 설정된 거리 수(M)를 기준으로, 피사체의 거리를 설정한다(109단계). 즉, 상기 제어부(270)는 최초로 거리가 설정되는 경우, 가장 가까운 거리(m=0)로 피사체의 거리를 설정할 수 있다.
이후, 제어부(270)는 상기 설정된 피사체의 거리에 대응하는 설계 데이터를 이용하여 줌 렌즈 또는 포커스 렌즈의 위치를 이동시킨다. 이때, 상기 설계 데이터는 상기 설정된 거리에 대응하는 포커스 위치 및 줌 위치에 대한 정보를 포함한다. 이때, 제어부(270)는 상기 설계 데이터에 포함된 상기 포커스 위치 및 줌 위치 중 어느 하나의 위치를 적용하고, 이에 따라 다른 하나의 위치를 조절하여, 정확한 포커스 렌즈 및 렌즈 위치를 확인하는 과정을 진행할 수 있다.
이때, 정확한 렌즈 위치 제어를 위해서는 상기 피사체의 거리에 따라 줌 위치가 더 큰 영향을 미치는지, 아니면 포커스 위치가 더 큰 영향을 미치는지가 다르다. 예를 들어, 근거리에서는 포커스 위치가 정확한 렌즈 위치 제어에 더 큰 영향을 미칠 수 있고, 원거리에서는 줌 위치가 정확한 렌즈 위치 제어에 더 큰 영향을 미칠 수 있다. 따라서, 본 발명에서는 상기 근거리에 대한 실제 데이터를 획득할 시에는, 상기 설계 데이터의 줌 렌즈의 줌 위치를 적용하고, 이에 따라 포커스 렌즈의 포커스 위치를 조절하여, 정확한 포커스 위치를 추적할 수 있다. 본 발명에서는 상기 원거리에 대한 실제 데이터를 획득할 시에는, 상기 설계 데이터의 포커스 렌즈의 포커스 위치를 적용하고, 이에 따라 줌 렌즈의 줌 위치를 조절하여, 정확한 줌 위치를 추적할 수 있다.
이하에서는, 상기 설정된 피사체의 거리가 근거리일 경우에 대해 설명한다.
상기 제어부(270)는 상기 피사체의 거리가 설정되면, 상기 설계 데이터로부터 상기 설정된 거리에 대응하는 데이터를 추출한다. 그리고, 제어부(270)는 상기 추출한 데이터 중에서 줌 렌즈의 줌 위치 정보를 획득하고, 이를 토대로 줌 렌즈의 줌 위치를 이동시킨다(110단계). 이때, 제어부(270)는 상기 줌 렌즈의 줌 위치가 이동하면, 상기 이동한 줌 위치에 대한 정보를 저장부(260)에 저장한다(111단계).
이후, 상기 제어부(270)는 상기 이동한 줌 위치에 상기 줌 렌즈를 고정시킨 상태에서, 포커스 렌즈의 포커스 위치를 조절하여, 정확한 포커스 위치를 추적한다(112단계). 이를 위해, 상기 제어부(270)는 상기 설계 데이터에서 획득한 데이터로부터 상기 줌 위치에 대응하는 포커스 위치를 이용하여 상기 포커스 렌즈를 이동시킬 수 있다. 그리고, 상기 제어부(270)는 상기 설계 데이터를 토대로 포커스 렌즈가 이동한 상태에서, 정확한 초점이 맞지 않는 경우, 상기 포커스 위치를 조절하여 정확한 포커스 위치를 추적한다(112단계). 그리고, 제어부(270)는 상기 포커스 위치가 추적되면, 상기 추적한 포커스 위치를 저장한다(113단계).
이때, 상기 제어부(270)는 상기 설정된 피사체 거리에 대해, 모든 줌 위치 및 이에 대응하는 포커스 위치를 각각 추적하고, 이를 해당 피사체 거리에 대응하는 실제 데이터로 저장부(260)에 저장한다.
이후, 상기 제어부(270)는 모든 피사체 거리에 대하여 실제 데이터가 획득되었은지 여부를 판단한다(114단계). 그리고, 상기 제어부(270)는 상기 모든 피사체 거리에 대한 실제 데이터가 획득되지 않았다면, 다음 피사체 거리에 대응하는 실제 획득 데이터 획득 과정을 진행한다.
즉, 상기 제어부(270)는 상기 피사체의 다음 거리가 설정되면(예를 들어, 원거리로 설정되면), 상기 설계 데이터로부터 상기 설정된 거리에 대응하는 데이터를 추출한다. 그리고, 제어부(270)는 상기 추출한 데이터 중에서 포커스 렌즈의 포커스 위치 정보를 획득하고, 이를 토대로 포커스 렌즈의 포커스 위치를 이동시킨다. 이때, 제어부(270)는 상기 포커스 렌즈의 포커스 위치가 이동하면, 상기 이동한 포커스 위치에 대한 정보를 저장부(260)에 저장한다. 이후, 상기 제어부(270)는 상기 이동한 포커스 위치에 상기 포커스 렌즈를 고정시킨 상태에서, 줌 렌즈의 줌 위치를 조절하여, 해당 포커스 위치에서 정확한 초점이 맞는 줌 위치를 추적한다. 이를 위해, 상기 제어부(270)는 상기 설계 데이터에서 획득한 데이터로부터 상기 포커스 위치에 대응하는 줌 위치를 이용하여 상기 줌 렌즈를 이동시킬 수 있다. 그리고, 상기 제어부(270)는 상기 설계 데이터를 토대로 상기 줌 렌즈가 이동한 상태에서, 정확한 초점이 맞지 않는 경우, 상기 줌 위치를 조절하여 정확한 줌 위치를 추적한다. 그리고, 제어부(270)는 상기 줌 위치가 추적되면, 상기 추적한 줌 위치를 저장한다.
상기와 같이, 본 발명에서는 피사체와의 거리에 따라 설계 데이터 중에서 줌 위치를 고정 값으로 적용할 것인지, 아니면 포커스 위치를 고정 값으로 적용할 것인지를 결정할 수 있다. 그리고, 본 발명에서는 상기 결정된 고정 값을 토대로 포커스 위치 또는 줌 위치를 변경시키면서 정확한 렌즈 위치를 추적할 수 있다. 그리고, 상기 정확한 렌즈 위치가 추적되면, 이에 대응하는 포커스 위치 및 줌 위치에 대한 정보를 실제 데이터로 저장한다. 여기에서, 상기 실제 데이터는 줌 렌즈의 위치 값 및 상기 줌 렌즈의 위치 값에 대응하여 초점이 맞는 포커스 렌즈의 위치 값을 포함한 제1 데이터일 수 있다.
도 10b를 참조하면, 실제 데이터는 피사체와의 거리에 따라 줌 위치 및 이에 대응하여 초점이 맞는 포커스 위치에 대한 정보로 구성될 수 있다. 이때, 상기 실제 데이터 중 줌 위치 및 포커스 위치 중 어느 하나는 상기 실제 데이터와 동일한 값을 가질 수 있고, 다른 하나는 상기 실제 데이터와 동일할 수도 있고 다를 수도 있다. 이는 이론적으로 획득한 상기 설계 데이터와, 카메라 모듈의 실제 사용 환경에서의 정확한 렌즈 위치에 대한 실제 데이터가 다를 수 있기 때문이다.
도 10c를 참조하면, 거리에 따른 실제 데이터와 설계 데이터에는 일정한 차이가 있는 것을 확인할 수 있다. 즉, 무한대 거리에서의 줌 위치 및 포커스 위치에 대한 설계 데이터의 그래프와, 실제 데이터의 그래프가 모든 포인트에서 일치하지 않는 것을 확인할 수 있다. 또한, 매크로 거리에서의 줌 위치 및 포커스 위치에 대한 설계 데이터의 그래프와, 실제 데이터의 그래프가 모든 포인트에서 일치하지 않는 것을 확인할 수 있다.
이에 따라, 카메라 모듈의 실제 사용 환경에서, 상기 설계 데이터를 그대로 적용하여 렌즈 위치를 제어하는 경우, 정확한 렌즈 위치 정확도가 떨어지는 것을 확인할 수 있다.
따라서, 본 발명에서는 상기 설계 데이터를 이용하여 더욱 정확한 렌즈 위치 제어를 위한 실제 데이터를 획득한다.
이하에서는, 본 발명의 실시 예에 따른 저장부(260)에 저장될 샘플링 데이터의 획득 과정에 대해 설명하기로 한다.
도 11은 본 발명의 실시 예에 따른 카메라 모듈의 샘플링 데이터 획득 방법을 단계별로 설명하기 위한 흐름도이다. 도 12a는 본 발명의 실시 예에 따른 샘플링 포인트의 설명하기 위한 도면이고, 도 12b는 도 12a의 샘플링 포인트를 토대로 획득한 보간 데이터를 나타낸 그래프이며, 도 12c는 본 발명의 실시 예에 따른 실제 데이터와 보간 데이터의 차이를 나타낸 그래프이다.
도 11을 참조하면, 제어부(270)는 도 9에 도시된 바와 같은 과정을 통해 설정된 거리 수에 대응하는 실제 데이터를 획득한다(201단계). 상기 실제 데이터는 2개의 거리에 대응하는 2개의 실제 데이터를 포함할 수 있다. 즉, 상기 실제 데이터는 무한대 거리에 대응하는 제 1 실제 데이터와, 매크로 거리에 대응하는 제 2 실제 데이터를 포함할 수 있다.
이어서, 상기 제어부(270)는 상기 각각의 실제 데이터에 대해 위치 포인트를 설정한다(202단계). 여기에서, 상기 위치 포인트는 샘플링 포인트라고도 할 수 있다. 또한, 상기 샘플링 포인트는 줌 위치를 기준으로 설정될 수 있으며, 바람직하게 줌 위치 포인트에 대한 간격으로 설정될 수 있다.
즉, 도 12a를 참조하면, 줌 위치는 0~8까지 존재하는 것을 알 수 있다. 그리고, 상기 샘플링 간격은 2로 설정될 수 있으며, 이에 따라 샘플링 포인트는 줌 위치를 기준으로 '0', '2', '4', '6' 및 '8'로 설정될 수 있다. 다시 말해서, 상기 샘플링 간격은 디폴트 값으로 '2'로 설정될 수 있다. 이에 따라, 상기 줌 위치가 0에서 8까지 존재하기 때문에, 상기 샘플링 포인트는 5개로 설정될 수 있다.
이때, 도 12a에는 무한대 거리 및 매크로 거리에 대해 각각 동일한 샘플링 간격이 설정되는 것으로 도시하였으나, 각각의 거리에 맞게 상기 샘플링 간격은 다르게 설정될 수도 있을 것이다. 이는, 추후 보간법(interpolation)을 통해 획득된 보간 데이터와 실제 데이터 사이의 차이를 토대로 변경될 수 있을 것이다.
다시, 도 11을 참조하면, 제어부(270)는 상기 샘플링 포인트가 결정되면, 상기 이전에 획득한 실제 데이터를 이용하여 상기 샘플링 포인트 각각에 대한 샘플링 데이터를 획득한다(203단계). 즉, 제어부(270)는 상기 실제 데이터를 이용하여, 상기 각각의 샘플링 포인트에 대한 줌 위치 및 포커스 위치를 획득한다. 여기에서, 샘플링 데이터란, 상기 샘플링 포인트에 대응하는 줌 렌즈의 위치 포인트에 대한 위치 값 및 이에 대응하게 초점이 맞는 포커스 렌즈의 위치 값을 포함할 수 있다.
이후, 제어부(270)는 상기 샘플링 포인트에 대해 획득한 줌 위치 및 포커스 위치에 대한 샘플링 데이터를 이용하여 상기 샘플링 포인트를 제외한 나머지 다른 포인트에 제2 데이터를 획득한다(203단계). 즉, 제어부(270)는 복수의 보간법 중 어느 하나의 보간법을 적용하여 상기 샘플링 포인트를 제외한 나머지 다른 포인트의 줌 위치 및 포커스 위치에 대한 보간 데이터를 획득한다. 즉, 상기 제2 데이터는 상기 보간 데이터라 할 수 있다.
이때, 상기 복수의 보간법은 선형 보간법 (Linear Interpolation), 다항식 보간법 (Polynomial interpolation), 스플라인 보간법 (Spline Interpolation), 지수 보간법 (Exponential Interpolation), 로그_선형보간법 (Log_linear Interpolation), 라그랑지 보간법 (Lagrange Interpolation), 뉴튼 보간법 (Newton Interpolation) 및 2차원 보간법 (Bilinear Interpolation)를 포함할 수 있다.
상기 선형 보간법은, 다양한 보간법 중에서 가장 간단한 방법으로 알고자 하는 함수가 직선의 함수라고 가정하고 함수값을 추정한다. 또한, 다항식 보간법은 2차 이상의 다항식을 가지며, 데이터 점이 많을수록 다항식의 차수가 높아지므로 계산의 복잡성이 커진다. 스플라인 보간법은 각 구간에서 낮은 차원의 다항식을 사용한다. 상기 스플라인 보간법에서 사용되는 다항식은 앞-뒤 구간의 다항식들과 자연스럽게 연결될 수 있는 것으로 선택할 수 있으며, 이때 각 점에서 앞-뒤 스플라인 함수가 미분이 가능해야 하고 곡률도 같아야 한다.
이에 따라, 본 발명에서는 상기와 같은 다양한 보간법 중 어느 하나의 특정 보간법을 선택하고, 이 선택된 보간법을 이용하여 상기 샘플링 포인트 이외의 포인트에 대한 보간 데이터를 획득한다.
즉, 도 11b를 참조하면, 제어부(270)는 상기 결정된 특정 보간법을 적용하여, 상기 샘플링 포인트 이외의 다른 포인트의 줌 위치 및 포커스 위치에 대한 보간 데이터를 획득한다. 이때, 상기 보간 데이터는 상기 실제 데이터와 모든 포인트에서 동일한 값을 가지지 않고, 특정 포인트에서는 서로 다른 값을 가질 수 있다.
다시, 도 10을 참조하면, 상기 제어부(270)는 평균 제곱 오차(Mean square error) 기법을 적용하여, 상기 획득한 보간 데이터와, 상기 실제 데이터 사이의 차이를 비교한다(204단계). 즉, 제어부(270)는 각각의 포인트에 대하여, 상기 보간 데이터의 줌 위치에 따른 포커스 위치와, 상기 실제 데이터의 줌 위치에 따른 포커스 위치의 차이 정도를 비교한다.
이어서, 제어부(270)는 상기 보간 데이터와 실제 데이터의 각각의 포인트에 대한 차이가 임계 범위 이내에 있는지 여부를 판단한다(205단계). 다시 말해서, 제어부(270)는 상기 각각의 포인트에 대해, 보간 데이터와 실제 데이터 사이의 차이 값이 임계 값 이내인지 여부를 판단한다.
이후, 제어부(270)는 상기 보간 데이터의 실제 데이터 사이의 차이가 임계 범위를 벗어난 경우, 상기 결정된 샘플링 포인트를 조정하고(206단계), 그에 따라 상기 단계(203단계)로 복귀하여, 상기 조정된 샘플링 포인트에 대한 샘플링 데이터 획득 및 이에 따른 보간 데이터 획득 과정을 다시 진행한다.
이때, 상기 제어부(270)는 상기 샘플링 포인트를 조정하기 위해, 상기 샘플링 간격을 조정할 수 있다. 다시 말해서, 상기 제어부(270)는 이전에 설정된 샘플링 간격보다 작은 간격으로 상기 샘플링 간격을 재설정하고, 상기 재설정된 샘플링 간격에 따른 샘플링 포인트를 재설정할 수 있다. 예를 들어, 상기 조정된 샘플링 간격은 '1.5'일 수 있고, 이에 따른 샘플링 포인트는 줌 위치를 기준으로, '0', '1.5', '3.0', '4.5', '6.0', '7.5'로 재설정될 수 있다.
한편, 본 발명의 다른 실시 예에서, 상기 제어부(270)는 상기 샘플링 포인트를 조정하기 이전에, 상기 적용한 보간법을 변경하는 과정을 먼저 진행할 수 있다. 다시 말해서, 상기 이전에 적용된 보간법이 다항식 보간법 (Polynomial interpolation)인 경우, 스플라인 보간법 (Spline Interpolation)을 다시 진행하여, 상기 이전에 획득한 샘플링 데이터를 토대로 보간 데이터를 다시 획득할 수 있다. 그리고, 상기 새롭게 적용된 보간법을 토대로 획득한 보간 데이터와 상기 실제 데이터의 차이가 이전과 같이 임계 범위를 벗어나면, 상기 단계(206단계)로 진입하여, 상기 샘플링 포인트를 조정하는 과정을 진행할 수 있다.
한편, 상기 제어부(270)는 상기 보간 데이터와 상기 실제 데이터 사이의 차이가 임계 범위 이내인 경우, 상기 보간 데이터 획득에 사용된 샘플링 데이터 및 보간법 정보를 저장부(260)에 저장한다.
즉, 도 12c를 참조하면, 제어부(270)는 각각의 거리에 대하여 보간 데이터를 획득한다. 이때, 상기 보간 데이터는 실제 데이터와 거의 차이가 없는 것을 확인할 수 있다.
본 발명에 따른 실시 예에서는, 특정 샘플링 포인트에 대응하는 줌 위치 및 포커스 위치에 대응하는 샘플링 데이터만을 메모리에 저장한다. 이에 따라, 본 발명에서는 메모리의 사이즈를 최소화할 수 있으며, 이에 따른 제조 비용을 감소시킬 수 있다.
또한, 본 발명에 따른 실시 예에서는 보간법을 이용하여 샘플링 포인트 이외의 포인트에 대한 보간 데이터를 획득한다. 그리고 상기 보간 데이터와 실제 데이터를 차이를 토대로 샘플링 포인트를 조정한다. 이때, 상기 샘플링 포인트의 조정은 샘플링 간격을 조정하여 이에 따른 샘플링 포인트의 개수를 조정할 수 있다. 그리고, 카메라 모듈의 사용 환경에서는 상기 실제 데이터와 차이가 최소화된 상기 보간 데이터를 적용하여 자동 초점 기능을 제공한다. 따라서, 본 발명에서는 상기 실제 데이터와 차이가 없는 보간 데이터를 이용하여 자동 초점 기능을 실행함으로써, 최소의 샘플링 데이터를 가지고도 정확한 위치로 렌즈를 이동시킬 수 있으며, 이에 따른 제품 신뢰성을 향상시킬 수 있다.
도 13은 본 발명의 실시 예에 따른 카메라 모듈의 데이터 업데이트 방법을 단계별로 설명하기 위한 흐름도이고, 도 14a는 본 발명의 실시 예에 따른 데이터 업데이트 기준을 설명하기 위한 도면이며, 도 14b는 본 발명의 실시 예에 따른 업데이트된 데이터를 설명하기 위한 도면이다.
도 13을 참조하면, 카메라 모듈의 사용 환경에서, 상기 제어부(270)는 상기 저장부(260)에 저장된 샘플링 데이터 및 이를 토대로 보간 데이터를 획득한다. 그리고, 상기 제어부(270)는 상기 획득한 보간 데이터를 이용하여 상기 포커스 렌즈 및 줌 렌즈의 포커스 위치 및 줌 위치가 변경되도록 한다. 이에 따라, 이미지 센서(210)는 상기 포커스 렌즈 및 줌 렌즈의 위치 변경에 따라 결상되는 이미지를 획득한다(301단계).
이때, 상기 결상되는 이미지는 초점이 맞은 이미지일 수 있고, 이와 다르게 초점이 맞지 않은 이미지일 수 있다.
이에 따라, 상기 제어부(270)는 오토 포커싱 기능을 동작하여, 상기 포커스 렌즈의 위치를 이동시킨다(302단계). 이때, 제어부(270)는 상기 오토 포커싱 기능의 동작에 따라 상기 포커스 렌즈를 이동되면서, 이에 따른 이미지의 선명도 값을 획득되도록 한다. 이때, 상기 선명도 값이 가장 높은 포인트에서의 포커스 위치가 최적의 포커스 위치일 수 있다. 이때, 상기 최적의 포커스 위치는 상기 보간 데이터를 통해 적용된 포커스 위치와는 다를 수 있다. 이는, 상기와 같은 스프링이나 볼 기반에서, 상기 최적의 위치로 상기 포커스 렌즈의 포커스 위치를 결정하기 힘들 수 있으며, 이에 따라 일정 오차 범위 내에서 상기 포커스 위치를 결정하기 때문이다.
따라서, 상기 제어부(270)는 상기 오토 포커싱 기능이 수행되기 이전에 적용된 상기 보간 데이터에 대응하는 줌 위치 및 포커스 위치를 추출한다(304단계).
그리고, 제어부(270)는 상기 오토 포커싱 기능 동작에 따라 적용된 최적의 줌 위치 및 포커스 위치와, 상기 보간 데이터에서 추출한 상기 줌 위치 및 포커스 위치의 차이 값을 비교한다(305단계).
이후, 상기 제어부(270)는 상기 차이 값이 기설정된 기준 값보다 큰지 여부를 판단한다(306단계).
그리고, 상기 제어부(270)는 상기 차이 값이 상기 기준 값보다 크면, 상기 오토 포커싱에 따라 새롭게 획득한 줌 위치 및 포커스 위치에 대한 데이터를 이용하여 상기 보간 데이터를 업데이트한다(307단계).
이때, 상기 보간 데이터의 업데이트 기준은 다음과 같을 수 있다.
도 13a를 참조하면, 오토 포커싱 동작이 실행됨에 따라 줌 렌즈가 고정된 상태에서 포커스 렌즈의 포커스 위치가 이동하며, 이에 따른 이미지의 선명도(contrast) 값이 획득될 수 있다. 그리고, 도 13a에서의 2개의 점선 내에 상기 보간 데이터를 통해 적용된 줌 위치 및 포커스 위치에 따라 획득된 이미지의 선명도 값이 포함되는 경우, 상기 보간 데이터는 그대로 유지될 수 있다. 이와 다르게, 상기 보간 데이터를 통해 적용된 줌 위치 및 포커스 위치에 따른 이미지의 선명도 값이 상기 2개의 점선 범위를 벗어나는 경우, 해당 포인트에 대한 데이터를 업데이트될 수 있다.
즉, 도 13b에서와 같이, 줌 포지션 '1' 위치에서, 상기 보간 데이터의 포커스 위치가 적용되어 획득된 이미지의 선명도 값이 도 13a에서의 2개의 점선 내의 허용 범위를 벗어난 경우, 상기 제어부(270)는 상기 오토 포커싱 기능을 통해 획득한 새로운 값으로 해당 포인트에 대한 데이터를 업데이트할 수 있다. 이에 따라, 상기 업데이트 포인트는 '1' 위치의 줌 위치일 수 있으며, 상기 포커스 위치의 이동에 따라 추적한 최적의 포커스 위치에 대한 데이터를 토대로 상기 포인트에 대한 데이터가 업데이트된다. 이때, 상기 저장부(260)에 저장된 데이터는 샘플링 데이터이다. 그리고, 제어부(270)는 상기 샘플링 데이터를 토대로 보간 데이터를 획득하여 상기 줌 위치 및 포커스 위치를 제어한다. 이에 따라, 상기 저장부(260)에는 상기 업데이트 포인트에 대한 데이터가 저장되어 있지 않을 수 있다. 따라서, 상기 제어부(270)는 업데이트 포인트에 대한 줌 위치 및 포커스 위치에 대한 정보를 상기 저장부(260)에 저장할 수 있다.
본 발명에 따른 실시 예에서는, 특정 샘플링 포인트에 대응하는 줌 위치 및 포커스 위치에 대응하는 샘플링 데이터만을 메모리에 저장한다. 이에 따라, 본 발명에서는 메모리의 사이즈를 최소화할 수 있으며, 이에 따른 제조 비용을 감소시킬 수 있다.
또한, 본 발명에 따른 실시 예에서는 보간법을 이용하여 샘플링 포인트 이외의 포인트에 대한 보간 데이터를 획득한다. 그리고 상기 보간 데이터와 실제 데이터를 차이를 토대로 샘플링 포인트를 조정한다. 이때, 상기 샘플링 포인트의 조정은 샘플링 간격을 조정하여 이에 따른 샘플링 포인트의 수를 조정할 수 있다. 그리고, 카메라 모듈의 사용 환경에서는 상기 실제 데이터와 차이가 최소화된 상기 보간 데이터를 적용하여 자동 초점 기능을 제공한다. 따라서, 본 발명에서는 상기 실제 데이터와 차이가 없는 보간 데이터를 이용하여 자동 초점 기능을 실행함으로써, 최소의 샘플링 데이터를 가지고도 정확한 위치로 렌즈를 이동시킬 수 있으며, 이에 따른 제품 신뢰성을 향상시킬 수 있다.
또한, 본 발명에 따른 실시 예에서는 자동 초점 기능 실행 시에, 이미지의 선명도를 기준으로 기저장된 포커스 위치의 이상 여부를 판단한다. 그리고, 상기 저장된 포커스 위치에 대응하는 선명도가 기설정된 허용 범위를 벗어나는 경우, 새로운 줌 위치 및 포커스 위치에 대응하는 데이터로 기저장된 데이터를 업데이트한다. 따라서, 본 발명에서는 카메라 모듈의 사용 횟수에 따라 변경되는 동작 특성에 영향을 받지 않으면서, 포커스 위치 정확도를 향상시킬 수 있다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 실시예의 범위에 포함되는 것으로 해석되어야 할 것이다.
이상에서 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 실시 예를 한정하는 것이 아니며, 실시 예가 속하는 분야의 통상의 지식을 가진 자라면 본 실시 예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 설정하는 실시예의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 제1 줌 렌즈의 위치 값들 및 상기 제1 줌 렌즈의 위치 값들에 대응하는 제1 포커스 렌즈의 위치 값들을 포함하는 제1 데이터를 획득하는 단계;
    상기 제1 줌 렌즈의 적어도 2개의 위치 포인트를 설정하는 단계;
    상기 제1 줌 렌즈의 적어도 2개의 위치 포인트에 대응하는 상기 제1 포커스 렌즈의 위치 값에 해당하는 적어도 2개의 위치 값을 획득하는 단계;
    상기 제1 줌 렌즈의 적어도 2개의 위치 값의 사이 값에 대응되는 제2 데이터를 획득하는 단계; 및
    상기 제1 데이터와 상기 제2 데이터를 비교한 차이 값이 기설정된 임계 범위 이내이면, 상기 제1 줌 렌즈와 상기 제1 포커스 렌즈의 상기 적어도 2개의 위치 값을 상기 제1 줌 렌즈와 상기 제1 포커스 렌즈를 포함하는 카메라에 설정하는 단계;를 포함하는
    카메라 장치의 캘리브레이션 방법.
  2. 제 1항에 있어서,
    기준 줌 렌즈 및 기준 포커스 렌즈의 설계 시에 결정된 상기 기준 줌 렌즈 및 상기 기준 포커스 렌즈의 위치 관계에 대한 기준 데이터를 획득하는 단계를 더 포함하고,
    상기 기준 데이터는,
    상기 기준 줌 렌즈의 위치 값들 및 상기 기준 줌 렌즈의 위치 값들에 대응하는 상기 기준 포커스 렌즈의 위치 값들을 포함한 이론 데이터인
    카메라 장치의 캘리브레이션 방법.
  3. 제 2항에 있어서,
    상기 제1 데이터를 획득하는 단계는,
    상기 기준 데이터에 포함된 상기 기준 줌 렌즈의 위치 값 및 상기 기준 포커스 렌즈의 위치 값 중 어느 하나의 위치 값을 적용하여 상기 제1 줌 렌즈 또는 상기 제1 포커스 렌즈를 이동시키는 단계와,
    상기 제1 줌 렌즈 또는 상기 제1 포커스 렌즈의 이동에 따라 최적의 포커싱 위치로 다른 하나의 상기 제1 포커스 렌즈 또는 제1 줌 렌즈의 위치를 조절하는 단계와,
    상기 위치가 조절된 제1 포커스 렌즈의 위치 값 또는 제1 줌 렌즈의 위치 값을 획득하는 단계를 포함하는
    카메라 장치의 캘리브레이션 방법.
  4. 제 3항에 있어서,
    상기 제1 데이터, 상기 제2 데이터 및 상기 적어도 2개의 위치 값들은
    피사체와의 거리에 따라 복수 개의 데이터로 각각 구분되어 구성되는
    카메라 장치의 캘리브레이션 방법.
  5. 제 1항에 있어서,
    상기 제1 줌 렌즈의 위치 포인트의 간격을 설정하는 단계를 더 포함하고,
    상기 설정된 위치 포인트는,
    상기 설정된 간격에 따라 위치 및 개수가 변경되는
    카메라 장치의 캘리브레이션 방법.
  6. 제 5항에 있어서,
    상기 차이 값이 상기 임계 범위 이내를 벗어나면, 상기 위치 포인트의 간격을 재설정하여, 상기 위치 포인트의 위치 및 개수를 변경하는 단계를 더 포함하는
    카메라 장치의 캘리브레이션 방법.
  7. 제 6항에 있어서,
    상기 적어도 2개의 위치 값을 이용하여 이미지를 획득하는 단계를 더 포함하고,
    상기 이미지를 획득하는 단계는,
    상기 적어도 2개의 위치 값 중 촬영될 피사체와의 거리에 대응하는 위치 값을 추출하는 단계와,
    상기 추출한 위치 값을 보간하여 보간 데이터를 획득하는 단계와,
    상기 획득한 보간 데이터를 토대로 상기 제1 줌 렌즈 및 상기 제1 포커스 렌즈를 이동시켜 제 1 이미지를 획득하는 단계를 포함하는
    카메라 장치의 캘리브레이션 방법.
  8. 제 7항에 있어서,
    상기 보간 데이터를 기준으로 이동한 상기 제1 포커스 렌즈의 위치를 최적의 포커싱 위치로 재이동시켜 제 2 이미지를 획득하는 단계;
    상기 제 1 이미지의 선명도와 상기 제 2 이미지의 선명도의 차이 값을 비교하는 단계; 및
    상기 선명도의 차이 값이 기설정된 임계 범위를 벗어나면, 해당 줌 위치 포인트에 대한 상기 제1 포커스 렌즈의 위치 값을 상기 재이동된 위치 값으로 업데이트하는 단계를 더 포함하는
    카메라 장치의 캘리브레이션 방법.
  9. 카메라에 저장된 데이터에 기반하여, 줌 렌즈의 제1 위치와 포커스 렌즈의 제1 위치에서 제1 이미지를 획득하는 단계;
    상기 줌 렌즈의 상기 제1 위치에서 상기 포커스 렌즈를 상기 제1 위치에서 제2 위치로 변경하여 제2 이미지를 획득하는 단계;
    상기 제 1 이미지의 선명도와 상기 제 2 이미지의 선명도의 차이 값을 비교하는 단계; 및
    상기 선명도의 차이 값이 기설정된 임계 범위를 벗어나면, 상기 포커스 렌즈의 위치 값을 상기 제2 위치 값으로 업데이트하는 단계를 포함하는 카메라의 캘리브레이션 방법.
  10. 제9 항에 있어서,
    상기 제2 이미지는 상기 제1 이미지보다 선명도가 높은 카메라의 캘리브레이션 방법.
PCT/KR2019/004038 2018-04-05 2019-04-05 카메라 장치의 캘리브레이션 방법 WO2019194621A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201980038567.9A CN112272944B (zh) 2018-04-05 2019-04-05 相机装置校准方法
US17/044,770 US12022195B2 (en) 2018-04-05 2019-04-05 Camera device calibration method using samplingpoints and camera module
EP19781050.0A EP3764636B1 (en) 2018-04-05 2019-04-05 Camera device calibration method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0039977 2018-04-05
KR1020180039977A KR102493434B1 (ko) 2018-04-05 2018-04-05 카메라 모듈 및 이의 동작 방법

Publications (1)

Publication Number Publication Date
WO2019194621A1 true WO2019194621A1 (ko) 2019-10-10

Family

ID=68100940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/004038 WO2019194621A1 (ko) 2018-04-05 2019-04-05 카메라 장치의 캘리브레이션 방법

Country Status (5)

Country Link
US (1) US12022195B2 (ko)
EP (1) EP3764636B1 (ko)
KR (1) KR102493434B1 (ko)
CN (1) CN112272944B (ko)
WO (1) WO2019194621A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113595435B (zh) * 2021-08-19 2023-01-31 吉林大学 一种压电驱动微小型设备用连续变焦镜头及驱动方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040039913A (ko) * 2002-11-05 2004-05-12 삼성전자주식회사 렌즈의 위치보정이 가능한 촬영장치 및 그 제어방법
KR100780202B1 (ko) * 2006-10-11 2007-11-27 삼성전기주식회사 오토포커싱 방법
KR100858393B1 (ko) * 2005-09-07 2008-09-11 가시오게산키 가부시키가이샤 촬상소자 및 이것을 구동하는 프로그램을 기억한 기록매체
KR20160104236A (ko) * 2015-02-26 2016-09-05 엘지이노텍 주식회사 자동 초점 조절 촬상 장치 및 이를 포함하는 단말기와 그 장치를 이용한 자동 초점 조절 방법
JP2017203916A (ja) * 2016-05-13 2017-11-16 キヤノン株式会社 ズームレンズ及びそれを有する撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4016488B2 (ja) 1998-07-14 2007-12-05 ソニー株式会社 ズームトラッキング制御方法
JP2000258680A (ja) 1999-03-05 2000-09-22 Matsushita Electric Ind Co Ltd 高速ズームトラッキング装置
JP5839786B2 (ja) * 2010-07-12 2016-01-06 キヤノン株式会社 撮像装置およびトラッキングデータの調整方法
JP2013034167A (ja) * 2011-06-28 2013-02-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101293245B1 (ko) 2012-02-21 2013-08-09 (주)비에이치비씨 광학 줌 카메라의 줌 트래킹 자동 초점 제어기 및 그 제어 방법
JP5901423B2 (ja) 2012-05-18 2016-04-13 キヤノン株式会社 レンズ装置、撮像システム、および、レンズ装置の制御方法
KR20140007529A (ko) 2012-07-09 2014-01-20 삼성전자주식회사 카메라의 이미지 촬영장치 및 방법
GB2506411B (en) * 2012-09-28 2020-03-11 2D3 Ltd Determination of position from images and associated camera positions
JP6071669B2 (ja) * 2013-03-15 2017-02-01 キヤノン株式会社 レンズ装置およびカメラシステム
US9420187B2 (en) * 2013-11-29 2016-08-16 Avigilon Corporation Camera system control for correcting bore-sight offset
WO2016137273A1 (ko) 2015-02-26 2016-09-01 엘지이노텍(주) 카메라 모듈 및 이를 이용한 자동 초점 조절 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040039913A (ko) * 2002-11-05 2004-05-12 삼성전자주식회사 렌즈의 위치보정이 가능한 촬영장치 및 그 제어방법
KR100858393B1 (ko) * 2005-09-07 2008-09-11 가시오게산키 가부시키가이샤 촬상소자 및 이것을 구동하는 프로그램을 기억한 기록매체
KR100780202B1 (ko) * 2006-10-11 2007-11-27 삼성전기주식회사 오토포커싱 방법
KR20160104236A (ko) * 2015-02-26 2016-09-05 엘지이노텍 주식회사 자동 초점 조절 촬상 장치 및 이를 포함하는 단말기와 그 장치를 이용한 자동 초점 조절 방법
JP2017203916A (ja) * 2016-05-13 2017-11-16 キヤノン株式会社 ズームレンズ及びそれを有する撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3764636A4 *

Also Published As

Publication number Publication date
KR20190116856A (ko) 2019-10-15
US20210377451A1 (en) 2021-12-02
EP3764636A1 (en) 2021-01-13
EP3764636B1 (en) 2024-05-29
CN112272944A (zh) 2021-01-26
US12022195B2 (en) 2024-06-25
CN112272944B (zh) 2022-07-19
KR102493434B1 (ko) 2023-01-31
EP3764636A4 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
WO2019216676A1 (ko) 카메라 모듈 및 이의 동작 방법
WO2017191927A1 (en) Dual camera module and method for controlling the same
WO2019168342A1 (ko) 렌즈 구동장치
WO2018052228A1 (ko) 듀얼 카메라 모듈, 광학 장치, 카메라 모듈 및 카메라 모듈의 동작 방법
WO2020060235A1 (ko) 카메라 장치
WO2020076112A1 (ko) 카메라 액추에이터, 및 이를 포함하는 카메라 모듈
WO2019199129A1 (ko) 렌즈 어셈블리
WO2021107524A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 모듈
WO2021015482A1 (ko) 카메라 액추에이터, 이를 포함하는 카메라 모듈 및 카메라 장치
WO2020218884A1 (en) Camera module and camera apparatus including same
WO2020209598A1 (ko) 카메라 모듈 및 이를 포함하는 카메라 장치
WO2020071852A1 (ko) 카메라 액추에이터 및 이를 포함하는 카메라 모듈
WO2020231143A1 (en) Camera module and camera apparatus including same
WO2018151388A1 (ko) 다축 구조의 반사계 구동장치
WO2020101232A1 (ko) 카메라 모듈
WO2020096257A1 (ko) 카메라 액츄에이터 및 이를 포함하는 카메라 모듈
WO2021242079A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2022035192A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2020076111A1 (ko) 카메라 액추에이터 및 이를 포함하는 카메라 모듈
WO2017196023A1 (en) Camera module and auto focusing method thereof
WO2021187773A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치
WO2021020738A2 (ko) 카메라 모듈
WO2021025518A1 (ko) 카메라 액추에이터, 및 이를 포함하는 카메라 모듈 및 카메라 장치
WO2019194621A1 (ko) 카메라 장치의 캘리브레이션 방법
WO2022235109A1 (ko) 카메라 엑추에이터 및 이를 포함하는 카메라 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19781050

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019781050

Country of ref document: EP

Effective date: 20201006