WO2012008630A1 - 오토포커스 장치 및 그 방법 - Google Patents

오토포커스 장치 및 그 방법 Download PDF

Info

Publication number
WO2012008630A1
WO2012008630A1 PCT/KR2010/004583 KR2010004583W WO2012008630A1 WO 2012008630 A1 WO2012008630 A1 WO 2012008630A1 KR 2010004583 W KR2010004583 W KR 2010004583W WO 2012008630 A1 WO2012008630 A1 WO 2012008630A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
area
autofocus
focal
value
Prior art date
Application number
PCT/KR2010/004583
Other languages
English (en)
French (fr)
Inventor
이일용
안정호
홍윤표
김성현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2010/004583 priority Critical patent/WO2012008630A1/ko
Priority to US13/809,955 priority patent/US9395512B2/en
Priority to CN2010800680486A priority patent/CN103098454A/zh
Priority to EP10854752.2A priority patent/EP2582126A4/en
Publication of WO2012008630A1 publication Critical patent/WO2012008630A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Definitions

  • the present invention relates to an autofocus apparatus and a method thereof, and more particularly, to a device for automatically adjusting a focus to obtain a sharp image of a subject and an autofocus method in such an apparatus.
  • a camera includes a lens unit for imaging an image of a subject on an image sensor and an image sensor for detecting an image formed by the lens unit as an electric signal.
  • the focus of the lens unit changes according to the distance between the lens and the subject. Only when the amount of change in the position of the image plane according to the position of the subject is within the range of the depth of focus of the camera, high quality image shooting is possible. Therefore, a conventional camera requires a function of automatically adjusting the focus according to a change in distance from a subject, that is, an auto focus (AF) function in order to shoot a high quality image.
  • AF auto focus
  • the autofocus function includes a lens step which is set in accordance with the distance between the lens and the subject and which is a unit by which the position of the lens can be moved, and a lens step in which, for example, (Focal value) obtained by converting high frequency image signal information into a numerical value based on the sharpness information (for example, sharpness information) of the lens.
  • a typical autofocus algorithm is hill climbing.
  • the hill climbing autofocus algorithm is a method of moving the lens back and forth in units of lens steps from its current position, then moving the focus lens in the correct direction to find the optimal focus position.
  • the time to perform the autofocus as many times as the number of steps by moving the focus lens step by step to detect the focal values and positioning the focus lens at the lens step where the focal value is maximum It takes.
  • a delay corresponding to the autofocus execution time occurs in capturing an image, and a clear image of the subject can not be obtained in a timely and appropriate place.
  • an autofocus method comprising: inputting a photographing mode of a subject; Determining an autofocus setting corresponding to the input shooting mode; Determining a lens step having a maximum focal length among lens steps set according to the distance between the lens and the subject based on the determined autofocus setting; And moving the lens with the determined lens step.
  • the step of determining a lens step having a largest focal length among the lens steps comprises: dividing the lens steps into a number of regions corresponding to the determined autofocus setting; Determining a first area including a lens step having a largest focal value among the divided areas; And determining a lens step having a maximum focal value in the first area.
  • the step of determining the first region further comprises: comparing focal values corresponding to at least one lens step included in each of the divided regions; And determining the first area based on the comparison result.
  • the step of determining a lens step having a maximum focal length in the first area includes: determining a threshold value corresponding to the determined autofocus setting; Determining a second area including a lens step having a maximum focal value in the first area based on the threshold value; And determining a lens step having a maximum focal value in the second area.
  • the step of determining a lens step having a maximum focal length in the second area may include a global search, a trend predication approach, , Rule Based AF, Training-Based Method, Focal Value Training-Based AF, and Blur Training Based Method. And determining a lens step having a maximum focal value by using the lens step.
  • the threshold value is set such that the focal values corresponding to the lens steps included in the second area and the lens steps included in the second area satisfy a quadratic function Value.
  • the threshold value is a constant.
  • the threshold value is a predetermined angle or slope.
  • the autofocus method further includes a step of receiving a trigger signal of autofocus before the step of determining the autofocus setting.
  • an autofocus apparatus comprising: an input unit for inputting a photographing mode of a subject; A setting control unit for determining an autofocus setting corresponding to the input shooting mode; An autofocus controller for determining a lens step having a maximum focal length among lens steps set according to the distance between the lens and the subject based on the determined autofocus setting; And a lens control unit for moving the lens to the determined lens step.
  • the autofocus controller divides the lens steps into a number of regions corresponding to the determined autofocus setting, and includes a lens step having a largest focal value among the divided regions The first area is determined, and the lens step having the largest focal value in the first area is determined.
  • the autofocus control unit compares focal values corresponding to at least one lens step included in each of the divided areas, and determines the first area based on the comparison result .
  • the autofocus control unit includes a lens step of confirming a threshold value corresponding to the determined autofocus setting, and having a maximum focal value in the first area based on the threshold value And determines a lens step having a maximum focal value in the second area.
  • the autofocus controller is configured to perform a global search based on the determined autofocus setting, a trend predication approach, a rule based autofocus, a training based
  • a lens step having a maximum focal value is determined using one of a training-based method, a focal value training-based AF method, and a blur training based method.
  • the threshold value is set such that the focal values corresponding to the lens steps included in the second area and the lens steps included in the second area satisfy a quadratic function Value.
  • the threshold value is a constant.
  • the threshold value is a predetermined angle or slope.
  • the input section receives an autofocus trigger signal.
  • the camera since the camera has a function of appropriately adjusting the accuracy and speed of autofocus according to the photographing mode, when a user photographs a subject, a stable image is obtained with respect to a static subject according to the situation Dynamic images can be obtained quickly.
  • the utilization of the autofocus function is maximized, and there is an advantage in terms of temporal cost consumed in photographing due to duplicate photographing of the same subject.
  • FIG. 1 is a block diagram of a mobile terminal to which an autofocus device according to an embodiment of the present invention is applied.
  • FIG. 2 is a detailed block diagram of the photographing unit 121 shown in FIG.
  • FIG. 3 is a detailed block diagram of the autofocus controller 240 shown in FIG.
  • 4 to 6 are graphs showing focal values corresponding to the lens step according to an embodiment of the present invention.
  • FIG. 7 is a view for explaining the operation of the first search unit 244 according to an embodiment of the present invention.
  • FIG. 8 is a view for explaining the operation of the second search unit 246 according to an embodiment of the present invention.
  • 9 is a diagram for explaining the operation of the precision search unit 248 according to an embodiment of the present invention.
  • FIG. 16 is a flowchart of an autofocus process according to an embodiment of the present invention.
  • the mobile terminal 100 includes a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, and a power supply 190.
  • the wireless communication unit 110 performs modulation / demodulation and encoding / decoding of a signal transmitted / received with the base station of the wireless communication system so that the mobile terminal 100 can communicate with other terminals through the wireless communication system.
  • the radio signal exchanged between the mobile terminal 100 and the base station of the wireless communication system may be a voice call signal, a video call signal or a text message.
  • the wireless communication unit 110 includes a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, and a location information module 115.
  • the broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving previously generated broadcast signals and / or broadcast-related information and transmitting the broadcast signals and / or broadcast- related information to the mobile communication terminal 100 .
  • the broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider.
  • the broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast related information may be provided through a mobile communication network, and in this case, it may be received by the mobile communication module 112.
  • the broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).
  • EPG Electronic Program Guide
  • DMB Digital Multimedia Broadcasting
  • ESG Electronic Service Guide
  • DVD-H Digital Video Broadcast-Handheld
  • the broadcast receiving module 111 receives broadcasting signals using various broadcasting systems.
  • the broadcasting receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S) Only Digital Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like.
  • the broadcast receiving module 111 is configured to be suitable for all broadcasting systems that provide broadcasting signals as well as the digital broadcasting system described above.
  • the broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.
  • the mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data related to transmission and reception of a voice call signal, a video call signal, and / or a text / multimedia message.
  • the wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 can be embedded in the mobile communication terminal 100 or externally.
  • the wireless Internet technology includes a wireless LAN (WLAN), a Wi-Fi, a wireless broadband (Wibro), a WiMAX, a high speed downlink packet access (HSDPA) Can be used.
  • the short-range communication module 114 means a module for short-range communication.
  • Bluetooth radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), ZigBee, etc. may be used as the short distance communication technology.
  • RFID radio frequency identification
  • IrDA infrared data association
  • UWB ultra wideband
  • ZigBee ZigBee
  • the position information module 115 is a module for confirming or obtaining the position of the mobile terminal (capable of checking the position of the vehicle when the mobile terminal is mounted on the vehicle).
  • the GPS module receives position information from a plurality of satellites.
  • the location information may include coordinate information indicated by latitude and longitude.
  • the GPS module can accurately calculate the current position according to the triangle method by measuring the precise time and distance from three or more satellites and measuring three different distances.
  • a method of obtaining distance and time information from three satellites and correcting the error by one satellite may be used.
  • the GPS module can acquire latitude, longitude and altitude as well as three-dimensional velocity information and accurate time from the position information received from the satellite.
  • a Wi-Fi Positioning System and / or a Hybrid Positioning System may be applied as the location information module 115.
  • the A / V input unit 120 is for inputting an audio signal or a video signal.
  • the A / V input unit 120 includes a photographing unit 121 and a microphone 122.
  • the photographing unit 121 processes an image frame such as a still image or a moving image obtained by the image sensor in the video communication mode or the photographing mode.
  • the processed image frame can be displayed on the display unit 151 and stored in the memory 160 or transmitted to the outside through the wireless communication unit 110.
  • the photographing unit 121 may include a lens (not shown) for photographing a subject.
  • the photographing unit 121 may include a plurality of lenses (not shown) for acquiring a left image at a left viewpoint and a right viewpoint at a right viewpoint of an image of a subject in order to acquire a three-dimensional image of a subject.
  • the photographing unit 121 may further include a lens (not shown) for acquiring an image of an intermediate point between the left and right views of the same subject.
  • the photographing unit 121 may further include an image synthesizer (not shown) for acquiring an intermediate view image synthesized from a stereo image including the left image and the right image.
  • the microphone 122 receives an external sound signal by a microphone in a communication mode, a recording mode, a voice recognition mode, and the like, and processes it as electrical voice data.
  • the processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 and output.
  • the microphone 122 may be implemented with various noise reduction algorithms for eliminating noise generated in the process of receiving an external sound signal.
  • the user input unit 130 accepts an input command that the user inputs for controlling the operation of the terminal, and transmits the received command to the controller 180 so that the controller 180 operates according to the command.
  • the user input unit 130 may include a key pad, a dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like. Particularly, when the touch pad has a mutual layer structure with the display unit 151, it can be called a touch screen.
  • the user input unit 130 includes a first shutter release input (not shown) and a second shutter release input (not shown).
  • a first shutter release input (not shown) receives a trigger signal for performing autofocus.
  • a second shutter release input section (not shown) receives a trigger signal for photographing the subject.
  • the first shutter release input (not shown) and the second shutter release input (not shown) may be a keypad or a touchpad.
  • the first shutter release input unit (not shown) and the second shutter release input unit (not shown) may be multi-touch type touch pads.
  • the user input unit 130 receives a photographing mode of a subject.
  • the shooting mode of the subject may include a preset mode, which is distinguished according to the characteristics (e.g., speed) of the motion of the subject, such as scenery, portrait, and sports mode.
  • the photographing mode may further include a general mode, an indoor mode, a night mode, a character mode, and a backlight mode.
  • the photographing mode may further include a manual mode in which the user can set the characteristics of the motion of the subject.
  • the sensing unit 140 may sense the position of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence of the user, the orientation of the mobile terminal 100, 100, and generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed.
  • the sensing unit 140 senses whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.
  • the output unit 150 is for outputting an audio signal, a video signal, or an alarm signal.
  • the output unit 150 includes a display unit 151, an audio output module 152, an alarm unit 153, A haptic module 154, and the like.
  • the display unit 151 displays information to be processed by the mobile terminal 100 and outputs the information. For example, when the mobile terminal 100 is in the call mode, a UI (User Interface) or GUI (Graphic User Interface) associated with a call is displayed. If the mobile terminal 100 is in the video communication mode or the photographing mode, the captured image and / or the received image or UI and GUI are displayed.
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display (3D display).
  • the mobile terminal 100 may be provided with an external display unit (not shown) and an internal display unit (not shown) at the same time.
  • a 'touch screen' has a mutual layer structure with the display unit 151 and a sensor (hereinafter, referred to as 'touch sensor' It can also be used as an input device in addition to the device.
  • the touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.
  • the touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal.
  • the touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch. If there is a touch input to the touch sensor, the corresponding signal (s) is sent to a touch controller (not shown). The touch controller processes the signal (s) and transmits the corresponding data to the control unit 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.
  • Proximity Touch refers to an operation of recognizing that the pointer is positioned on the touch screen without touching the pointer on the touch screen, and the pointer is actually contacted on the touch screen The action is referred to as " Contact Touch ".
  • a position where the pointer is proximally touched on the touch screen means a position where the pointer corresponds to the touch screen vertically when the pointer is touched.
  • the proximity sensor 141 detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, do.
  • Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.
  • the sound output module 152 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, and a broadcast reception mode.
  • the sound output module 152 outputs an acoustic signal related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100.
  • the sound output module 152 may include a speaker, a buzzer, and the like.
  • the alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100.
  • Examples of events that occur in the mobile terminal include receiving a call signal, receiving a message, and inputting a key signal.
  • the alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, it is possible to output a signal in a vibration mode.
  • the alarm unit 153 can vibrate the mobile terminal through the vibration means to inform it.
  • the key signal is input, the alarm unit 153 may vibrate the mobile terminal 100 through the vibration means with the feedback of the key signal input. Through the above-described vibration, the user can recognize the occurrence of the event.
  • a signal for notifying the occurrence of an event may also be output through the display unit 151 or the audio output module 152.
  • the haptic module 154 generates various tactile effects that the user can feel.
  • a typical example of the haptic effect generated by the haptic module 154 is vibration.
  • the intensity and pattern of the vibration generated by the hit module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.
  • the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of air through the injection port or the suction port, a spit on the skin surface, contact with an electrode, And various effects of tactile effect such as effect of reproducing the cold sensation using the heat absorbing or heatable element can be generated.
  • the haptic module 154 can transmit a tactile effect through direct contact, and the tactile effect can be felt by a user through a muscular sense such as a finger or an arm.
  • the memory 160 includes a ROM (Read Only Memory) 161 for storing a program for the operation of the controller 180, for example, a flash memory, and a random access memory (RAM) for storing temporary output data processed for transmission / Access Memory, 162).
  • ROM Read Only Memory
  • RAM random access memory
  • the interface unit 170 serves as an interface with all external devices connected to the mobile terminal 100.
  • the interface unit 170 may include a headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, An audio input / output (I / O) port, a video I / O (input / output) port, and an earphone port.
  • the identification module is a chip that stores various information for authenticating the use right of the mobile terminal 100, and includes a user identification module (UIM), a subscriber identity module (SIM) A Universal Subscriber Identity Module (USIM), and the like.
  • the device having the identification module (hereinafter, referred to as 'identification device') can be manufactured in a smart card format. Accordingly, the identification module can be connected to the mobile terminal 100 through the port.
  • the interface unit 170 receives data from an external device or receives power from the external device and transmits the received data to each component in the mobile terminal 100 or transmits data in the mobile terminal 100 to an external device.
  • the interface unit 170 may be a path through which power from the cradle is supplied to the mobile terminal 100, or various commands A signal may be transmitted to the mobile terminal 100.
  • the various command signals or the power source inputted from the cradle may be operated as a signal for recognizing that the mobile terminal 100 is correctly mounted on the cradle.
  • the controller 180 typically controls the overall operation of the mobile terminal.
  • the control unit 180 performs related control and processing for voice call, data communication, video call, and the like.
  • the controller 180 may include a multimedia module 181 for multimedia playback.
  • the multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the controller 180 and supplies power required for operation of the respective components.
  • the photographing unit 121 includes a lens unit 210, an image sensor 220, an image processor 230, an autofocus control unit 240, and a lens driving unit 250.
  • the lens unit 210 includes a lens 212 for focusing an optical image of a subject on an image sensor 220 and a lens 212 for driving the lens 212 to a focus position corresponding to the motor drive signal in response to an input motor drive signal (Not shown).
  • the image sensor 220 photoelectrically converts an optical image formed through the lens 212 using a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) to output an electrical signal.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the image processor 230 processes the electric signal output from the image sensor 220 to generate image data corresponding to the image of the photographed subject, and analyzes the image characteristic information from the generated image data.
  • the image processor 230 includes a lens step which is set in accordance with the distance between the lens and the subject and which is a unit by which the position of the lens can be moved and a lens step where the characteristic information of the image formed on the image sensor 220 in each lens step (Focal value) obtained by converting the high-frequency image signal information into a numerical value on the basis of the sharpness information (for example, sharpness information).
  • the autofocus control unit 240 calculates the position of the lens 212 based on the focal value graph corresponding to the analysis result of the image characteristic information output by the image processor 230, ) To the corresponding position, and outputs the generated driving signal to the lens driving unit 250.
  • the position of the lens can be a position corresponding to an algorithm for shrinking the lens step area or a position for obtaining the sharpest image (or a focused image).
  • the lens driving unit 250 moves the lens 212 through the focus motor 214 according to the driving signal outputted from the autofocus control unit 240 so that the distance between the lens 212 and the image sensor 220 So as to control the focus of the optical image focused on the image sensor 220.
  • the auto focus control unit 240 includes a main control unit 242, a first search unit 244, a second search unit 246, and an accuracy search unit 248.
  • the main control unit 242 controls operations of the first search unit 244, the second search unit 246, and the precision search unit 248.
  • the main control unit 242 receives the photographing mode of the subject through the user input unit 130 and determines the autofocus setting corresponding to the input photographing mode.
  • the autofocus setting differs depending on the shooting mode, and includes settings for increasing the speed of the autofocus or increasing the accuracy of the autofocus.
  • the autofocus setting includes values for quickly performing autofocus so as to increase the speed of execution, and in the case of a landscape mode for photographing a static subject
  • the autofocus setting includes values for precisely performing autofocus so as to increase the precision of the performance.
  • the first search section 244 determines a region of a predetermined range including the lens step having the largest focal value among the regions of the lens step set according to the distance between the lens 212 and the subject. To this end, the first searcher 244 calculates focal values for each of at least two lens steps of the entire lens step area. The entire lens step area is divided into at least three areas by the at least two lens steps. In addition, the first search unit 244 determines a region (referred to as a first region) including a lens step having a focal value that is the largest among the focal values of the lens steps corresponding to the boundaries of three or more divided regions .
  • the first search section 244 divides the lens steps into a number of regions corresponding to the autofocus setting.
  • the number of regions to be divided in the sports mode may be three, and the number of regions to be divided in the landscape mode may be ten.
  • the first search unit 244 determines a first area including a lens step having the largest focal value among the divided areas. In this case, the first search section 244 compares the focal values corresponding to at least one lens step included in each of the divided regions, and determines the first region based on the comparison result.
  • the first search unit 244 searches the second search unit 246 for information about the determined first area, for example, lens step corresponding to the start and end points of the first area and the calculated focal value corresponding thereto, .
  • the second search unit 246 receives the information about the first area from the first search unit 244, and includes the lens step having the largest focal value among the areas included in the first area as it is, (Referred to as a second region) which is reduced by a threshold determined by the experiment so as to minimize the threshold value.
  • the threshold value determines the first area based on the simulation data photographed according to various distances of the lens 212 and the subject, and reduces the determined first area at a predetermined ratio, But can be determined by experiments that determine the largest proportion that it contains.
  • the threshold may be a predetermined angle or slope.
  • the second search unit 246 confirms the threshold value corresponding to the autofocus setting.
  • the threshold value corresponding to the autofocus setting is determined by the simulation data.
  • the threshold value corresponding to the threshold value according to the probability that the second area has the maximum focal value Value is determined.
  • the threshold value may be a value such that the second area has the maximum focal value with a probability of 70%
  • the shooting mode is the landscape mode
  • the area may be a value that gives the maximum focal value with a probability of 90%.
  • the second search unit 246 outputs information on the determined second area, for example, information on the lens step corresponding to the boundary of the second area and the calculated focal value corresponding thereto, to the precision search unit 248 .
  • the fine search section 248 determines a lens step having the largest focal length among the lens steps included in the second area. For this, the precision search unit 248 outputs a driving signal to the lens driving unit 250 to move the lens 212 by a lens step in a sequential or nonsequential manner, and analyzes the image generated from the image processor 230 Based on the information, a lens step having a maximum focal value is determined.
  • the threshold value may vary depending on how the precision search unit 248 determines the lens step having the largest focal value from the second area. For example, in the vicinity of the lens step having the largest focal value, the lens step and the corresponding focal value can satisfy the quadratic function.
  • the threshold value may be an experimentally determined value such that the second region is a region satisfying the quadratic function.
  • the precision search unit 248 calculates the maximum focal length from the second area based on the lens steps corresponding to the boundary of the second area and the lens step corresponding to the center of the second area and the corresponding focal values Can be determined.
  • the image of the subject is photographed through the lens 212 and the image generated by the photographing is stored in the memory 160 have.
  • FIGS. 4 to 6 are graphs showing focal values corresponding to the lens step according to an embodiment of the present invention.
  • the graph has three forms as shown in Figs.
  • FIG. 4 shows a case where the subject is located at a short distance from the photographing unit 121.
  • the focal value gradually increases as the lens step increases as shown in Fig. 4, and the lens step is close to the largest position to form the maximum focal value. Accordingly, the lens step and the corresponding focal value have a gradually increasing shape as in the graph 310.
  • FIG. 5 shows a case in which the subject is located at a medium distance from the photographing unit 121.
  • the focal value increases sharply as the lens step increases as shown in Fig. 5 to form the maximum focal value near the center of the lens step. Further, after the lens step corresponding to the maximum focal value, the focal value gradually decreases. Accordingly, the lens step and the corresponding focal value are rapidly increased to the vicinity of the lens step where the maximum focal value is obtained as shown in the graph 320, and then gradually decrease.
  • FIG. 6 shows a case where the subject is located a long distance from the photographing unit 121.
  • the focal value decreases sharply as the lens step increases, after forming the maximum focal value near the initial lens step as shown in Fig. Therefore, the lens step and the corresponding focal value have a gradually decreasing shape as in the graph 330.
  • a series of regularities can be confirmed with respect to a lens step having a maximum focal value.
  • the focal value is firstly decreased or continuously increased in the lens step having the maximum focal value, and the focal value is maximized in the last lens step.
  • the lens step and the corresponding focal value satisfy a quadratic function.
  • the area of the lens step is divided to determine a first area corresponding to the lens step estimated to have the largest focal value among the divided areas according to the photographing mode, and the maximum focal value included in the first area (The threshold value can be set so as to satisfy a predetermined condition such as the condition of the quadratic function) for the first region while including the lens step having the lens step as it is.
  • the lens step area to be finally subjected to the autofocusing operation is reduced and the lens step having the maximum focal value can be determined quickly or precisely.
  • FIG. 7 is a view for explaining the operation of the first search unit 244 according to an embodiment of the present invention. 7, it is assumed that the initial lens step area is divided into four areas, but an embodiment of the present invention may be applied to any case where the number area of three or more natural numbers is divided.
  • the first search section 244 reads out the number of divisions (N, N is a natural number of 3 or more) of the lens step area preset in advance in accordance with the autofocus setting corresponding to the photographing mode from the memory 160.
  • the number of divisions of the lens step area can be received through the user input unit 130 or the wireless communication unit 110.
  • the first search unit 244 searches the lens step size of the lens step included in each area according to the number of divisions of the lens step area read out from the memory 160 or received through the user input unit 130 or the wireless communication unit 110 N-1 lens steps corresponding to the boundary (hereinafter referred to as pivot) are set. For example, when dividing into four areas A, B, C and D for a total of 100 lens steps, three pivots corresponding to 25, 50 and 75 lens steps (q, r and s) do.
  • a lens step corresponding to a boundary of each divided area is described as an example of a pivot.
  • any lens step included in each divided area can be set as a pivot, and for example, The lens step corresponding to the center of the area may be set as a pivot.
  • the first search unit 244 selects two adjacent pivots among the set pivots and calculates and compares the focal values corresponding to the pivots. For example, in graph 410, focal values corresponding to pivot (q) and pivot (r) are compared. However, it goes without saying that the focal values corresponding to the pivot (r) and the pivot (s) can be compared first.
  • the first search unit 244 selects a pivot corresponding to a higher focal value out of the compared two focal values and another pivot adjacent thereto as a next comparison object. For example, in graph 410, a pivot (r) corresponding to a higher focal value out of the focal values (q and r) and a pivot (s) adjacent thereto is selected as the next comparison object. However, when the focal values corresponding to the pivot (r) and the pivot (s) are compared first, the pivot (r) corresponding to the higher focal value among the focal values (r and s) The next comparison target is selected. That is, the first search unit 244 can select the next comparison object in the ascending direction or in the descending direction of the lens step size.
  • the first search unit 244 searches the lens step area including the first lens step in which the focal value begins to decrease (that is, the change amount of the focal value becomes negative) in this manner. For example, in graph 410, a pivot (r) corresponding to a higher focal value among the focal values has been examined for the focal value of another pivot (q) that is already adjacent, so no other adjacent pivot is present. Therefore, when the focal value in the lens step area (or the lens step area adjacent to the pivot q immediately before the last calculated pivot r) (B and C) between the pivot q and the pivot s is the maximum Lens step, i.e., a lens step that can produce the sharpest image is presumed to exist.
  • the focal value corresponding to the pivot q is lower than the focal value corresponding to the pivot r, there is no other pivot adjacent to the pivot q.
  • the lens step p corresponding to the left boundary which is one of the both boundaries of the lens step region, is adjacent, and the focal value corresponding to the pivot q and the lens step p corresponding to the left boundary
  • the focal values are compared. This can be similarly applied to the case of the pivot t adjacent to the lens step t corresponding to the right boundary.
  • the first area estimated to have a lens step with the maximum value may be a single area (A or D) including the boundary.
  • the first search section 244 can divide the lens step region into N regions according to the photographing mode, and determine the region including the lens step that is supposed to have the largest focal value among the divided regions have. 7, the first search unit 244 calculates a focal value for only three pivots (q, r, and s) by calculating the area B including the lens step estimated to have the maximum focal value And C, the first area), and outputs information on the determined first areas B and C to the second search unit 246.
  • FIG. 8 is a view for explaining the operation of the second search unit 246 according to an embodiment of the present invention.
  • the second search unit 246 receives the information on the first area from the first search unit 244 and, based on the autofocus setting corresponding to the photographing mode, searches the focal values corresponding to the lens steps included in the first area It is possible to determine a second area including a lens step having a maximum focal value.
  • the second region may be a region in which the lens steps included in the second region and the corresponding focal values satisfy the quadratic function.
  • the second search unit 246 reads from the memory 160 information about the threshold determined experimentally to determine the second area from the first area.
  • the second search unit 246 determines the second area based on the information about the first area received from the first search unit 244 and the information about the predetermined angle or slope read from the memory 160.
  • the first search unit 244 determines a region between the pivot (q) corresponding to the starting point of the first region and the pivot (s) corresponding to the end point, Section 246 receives information about the focal values corresponding to pivots q and s and pivots q and s from first search section 244.
  • the second search unit 246 confirms the lens step corresponding to the middle point of the first area and the corresponding focal value. 7, since the lens step r and the corresponding focal value corresponding to the midpoints of the first areas B and C have already been calculated by the first search part 244, The search unit 246 can use the calculation result of the first search unit 244 as it is.
  • the second search unit 246 searches for information about the coordinates of the focal value corresponding to any one (q) of the pivots q and s included in the first region, information corresponding to the center of the pivots q and s A pivot q N corresponding to the first boundary of the second area is determined based on the information on the coordinates of the focal value corresponding to the lens step M and the information on the threshold read out from the memory 160.
  • the second search unit 246 may determine the coordinates of the focal value corresponding to any one (q) of the pivots q and s included in the first region and the coordinates of the pivots q and s The slope of the straight line passing through the coordinates of the focal value corresponding to the lens step M is found and the angle of the slope is increased by the threshold value a.
  • the second search unit 246 passes through the coordinates of the focal value corresponding to any one (q) of the pivots q and s included in the first region, and the angle of the tilt is increased by the threshold value (a) In the straight line, the lens step q N of the coordinates at which the focal value becomes the focal value corresponding to the lens step M corresponding to the center point of the pivots is determined as the left boundary of the second area.
  • the second search unit 246 searches for information about the coordinates of the focal values corresponding to the other one (s) of the pivots q and s included in the first region, Based on the information about the coordinates of the focal value corresponding to the lens step M corresponding to the middle point and the information about the threshold read out from the memory 160, the pivot (s N ) corresponding to the right boundary of the second area .
  • the determined first region is only one region (for example, A or D in Fig. 7)
  • only one of the two boundaries included in the second region may be calculated.
  • the first area is determined to be the area between the pivot q and the pivot M, only the straight line passing through the coordinates corresponding to the focal values corresponding to the pivot q and pivot M a), and only the pivot q N corresponding to the left boundary of the second area is calculated.
  • the second boundary of the second area becomes a pivot (M).
  • the threshold value may be a fixed value such as a constant.
  • the threshold value can be applied equally to the start and end points of the first area.
  • the same threshold value (a) can be applied to the start and end points of the first area.
  • the threshold value may be applied differently for the start and end points of the first region.
  • the threshold value (a) may be applied to the viewpoint of the first region, and the threshold value (b) may be applied to the endpoint of the first region.
  • the threshold value may be applied differently depending on the focal value corresponding to the start and end points of the first area.
  • the threshold value may be applied to the start and end points of the first area by referring to a table including focal values corresponding to the start and end points of the first area and information on the corresponding threshold values. Also, the threshold value may be applied differently according to the ratio of the focal values corresponding to the start and end points of the first area.
  • the second search unit 246 outputs information on the determined second area to the precision search unit 248.
  • 9 is a diagram for explaining the operation of the precision search unit 248 according to an embodiment of the present invention.
  • the fine search unit 248 receives information on the second area from the second search unit 246, and performs autofocus on the second area in various ways. That is, the fine search section 248 calculates a lens step having a maximum focal value in the second area.
  • the precision searcher 248 is configured to perform a global search, a trend predication approach, a rule based autofocus, a training based method, or the like based on the autofocus setting corresponding to the shooting mode Based method, a focal-value training-based AF method, and a blur training-based method.
  • HCS Hill-Climbing Search
  • the trend prediction approach is to determine the lens step with the maximum focal value by obtaining four focal values and applying it to the Discrete Differential Equation Prediction Model (DDEPM) to predict the trend.
  • DDEPM Discrete Differential Equation Prediction Model
  • the rule-based autofocus determines whether there is a lens step having a maximum focal length in the initial section, and determines a lens step having a maximum focal value in such a manner that a different search mode is assigned to each section according to the increase rate of the focal value Method.
  • the training-based method measures a focal value based on an image photographed at various lens steps, and determines a lens step having a maximum focal value based on the training data.
  • Focal Value Training-based autofocus is a method of selecting a feature vector based on a focal value corresponding to several lens steps and determining a lens step having a maximum focal value based on the selected feature vector.
  • the blur training based method is a method of determining a lens step having a maximum focal value based on a blur characteristic trained with a predetermined camera parameter.
  • the fine search section 248 can perform autofocusing on the second area in a variety of ways as described above. Since the second area is significantly reduced compared to the initial lens step area, autofocus can be performed at an improved speed It is effective.
  • the precision search unit 248 may perform autofocus using a quadratic function.
  • the fine search section 248 can determine the lens step having the maximum focal value based on the coordinate information on the focal points corresponding to the pivot corresponding to the pivot corresponding to the start point and the end point of the second area and the pivot corresponding to the center point .
  • the graph 430 of FIG. 9, the second region is determined to a region between the pivot (q N and s N), detailed search section 248 are each pivoted from the second search unit (246) (q N And s N and the corresponding focal values. Further, the precision search section 248 calculates a pivot M N corresponding to the midpoint of the pivots q N and s N and the corresponding focal value. Since the information on the three coordinates is given in the quadratic function, the equation for the graph can be obtained, and the equation found is as shown in the following equation (1).
  • the main control unit 242 drives the lens driving unit 250 to move the lens 212 to the lens step F And the lens driving unit 250 moves the lens 212 to the lens step F through the focus motor 214 and shoots the object through the lens 212.
  • the number of divided areas of the first search unit 244, the number of divided areas of the second search unit 246, Information regarding the value and the precise search method of the precision search section 248 can be set in advance. For example, when the landscape 524 item is selected, a method with a larger number of divided regions and a higher precision among the precision search methods is selected as compared with when the general 522 item is selected, and the threshold value is automatically determined do. On the other hand, when the sports 526 item is selected, a method having a smaller number of divided regions and a higher speed among the precise search methods is selected as compared with when the general 522 item is selected, and the threshold value is automatically determined accordingly .
  • a screen 540 on which the number of area divisions can be set is displayed as shown in the setting screen of Fig.
  • the screen on which the number of region divisions can be set includes a user interface for inputting the number of region divisions, for example, a bar 542 capable of adjusting the number, and a graph relating to determination of the first region according to the adjusted number of divided regions Information area 544 may be included.
  • a screen 550 for setting a threshold value as shown in the setting screen of Fig. 14 is displayed.
  • the screen on which the threshold value can be set includes a user interface for inputting a threshold value, for example, a bar 552 for adjusting the number, and a graph relating to determination of the second region according to the adjusted threshold value. Area 554 may be included.
  • a screen 560 for setting the fine search method as shown in the setting screen of Fig. 15 is displayed.
  • the screen 560 on which the precise search method can be set includes various items related to the execution of autofocus such as HCS and detailed information 564 about the selected item 562 can be displayed.
  • the main control unit 242 receives the photographing mode through the user input unit 130 and confirms the autofocus setting corresponding to the input photographing mode (S50). Also, the main control unit 242 monitors whether or not the autofocus trigger signal is received through the first shutter release input unit (S100).
  • the first search unit 244 divides the lens step area into a plurality of areas in accordance with the autofocus setting, and selects the lens step corresponding to the largest focal value among the divided areas Is determined (S200).
  • the second search unit 246 receives the information on the area (first area) including the lens step estimated to have the maximum focal value from the first search unit 244, In step S300, a second area that satisfies a predetermined condition is selected from the lens step areas included in the first area according to the setting, so as to be suitable for performing the autofocus by the precision search unit 248.
  • the precision search unit 248 receives information on the second area from the second search unit 246, and performs autofocus according to the autofocus setting corresponding to the photographing mode (S400). Finally, the lens driving unit 250 controls the focus motor 214 according to the driving signal of the auto focus control unit 240 to move the lens 212 to the lens step having the maximum focal value.
  • the main control unit 242 monitors whether the subject photographing trigger signal is received through the second shutter release input unit (S500).
  • the lens 212 images the optical image of the subject on the image sensor 220, and the image sensor 220 photoelectrically changes the formed optical image to output an electrical signal .
  • the image processor 230 processes the electrical signal output from the image sensor 220 to generate image data corresponding to the photographed image of the photographed subject (S600).
  • the memory 160 stores the generated image data (S700).
  • the mobile terminal described in this specification can transmit and receive a text message such as a smart phone, a laptop computer, a digital broadcast terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) It can be any terminal that can do it.
  • a text message such as a smart phone, a laptop computer, a digital broadcast terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player) It can be any terminal that can do it.
  • the present invention is not limited to the configuration and method of the embodiments described above, but the embodiments may be configured by selectively combining all or some of the embodiments so that various modifications may be made.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 카메라에서 오토포커스를 수행할 때, 촬영 모드에 따라 오토포커스의 설정을 상이하게 적용하여 오토포커스의 정밀도와 속도를 적절하게 조절함으로써 상황에 따라 오토포커스에 소요되는 딜레이를 줄이고 적시에 피사체의 선명한 영상을 획득할 수 있게 해주는 오토포커스 장치 및 그 방법에 관한 것이다. 이를 위하여 본 발명의 실시예에 따른 오토포커스 방법은, 피사체의 촬영 모드를 입력받는 단계; 상기 입력된 촬영 모드에 대응하는 오토포커스 설정을 판단하는 단계; 상기 판단된 오토포커스 설정에 근거하여 렌즈와 상기 피사체의 거리에 따라 설정된 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계; 및 상기 결정된 렌즈 스텝으로 상기 렌즈를 이동시키는 단계를 포함하는 것을 특징으로 한다.

Description

오토포커스 장치 및 그 방법
본 발명은 오토포커스 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 피사체에 대한 선명한 이미지를 얻기 위해 초점을 자동으로 조절하는 장치와 이와 같은 장치에서의 오토포커스 방법에 관한 것이다.
일반적으로 카메라는 피사체의 영상을 이미지 센서에 결상하기 위한 렌즈부와 렌즈부에 의해 형성된 이미지를 전기 신호로 검출하기 위한 이미지 센서를 포함한다. 렌즈와 피사체간의 거리에 따라 렌즈부의 초점이 변화하는데, 피사체의 위치에 따른 이미지면의 위치 변화량이 그 카메라의 초점 심도 범위 내에 있을 경우에 한하여 우수한 품질의 영상 촬영이 가능하다. 따라서 통상적인 카메라는 우수한 품질의 영상 촬영을 위하여, 피사체와의 거리 변화에 따라 초점을 자동으로 조절할 수 있는 기능, 즉 오토포커스(Auto Focus: AF) 기능이 요구된다.
대부분의 디지털 카메라는 TTL(Through-the-lens) 대비(contrast) 검출 방식을 사용한다. 대비 검출 방식은 렌즈를 움직이면서 영상 일부(주로 중앙부분)의 대비를 계속적으로 계산하고, 대비가 최대가 되었을 때 초점이 맞았다고 판단한다. 따라서, 오토포커스 기능은 렌즈와 피사체의 거리에 따라 설정되고 렌즈의 위치를 이동시킬 수 있는 단위가 되는 렌즈 스텝과, 예를 들어, 각 렌즈 스텝에서 이미지 센서에 결상된 이미지의 특성 정보(예를 들면, 샤프니스 정보)에 근거하여 고주파 이미지 신호 정보를 수치로 변환한 초점 값(포컬 값, focal value)을 분석하여 최대의 포컬 값을 갖는 렌즈 스텝에서 가장 선명한 이미지를 얻는 것을 목적으로 한다.
대표적인 오토포커스 알고리즘에는 힐 클라이밍(hill climbing) 방식이 있다. 힐 클라이밍 방식의 오토포커스 알고리즘은, 현재 위치에서 렌즈를 렌즈 스텝단위로 앞뒤로 움직여 본 후 포커스가 맞는 방향으로 초점 렌즈를 움직여 최적의 초점 위치를 찾는 방법이다.
이와 같은 힐 클라이밍 방식은 피사체에 초점을 맞추기 위해 초점 렌즈를 스텝 별로 움직여 포컬 값들을 검출하고, 포컬 값이 최대가 되는 렌즈 스텝에 초점 렌즈를 위치하게 함으로써 스텝의 개수만큼 오토포커스를 수행하는 시간이 걸린다. 이에 따라, 영상을 촬영하는 데 오토포커스 수행 시간만큼의 딜레이가 발생하여, 적시 적소에 피사체에 대한 선명한 이미지를 얻을 수 없는 문제점이 발생한다.
상기 기술적 과제를 해결하기 위한 오토포커스 방법은, 피사체의 촬영 모드를 입력받는 단계; 상기 입력된 촬영 모드에 대응하는 오토포커스 설정을 판단하는 단계; 상기 판단된 오토포커스 설정에 근거하여 렌즈와 상기 피사체의 거리에 따라 설정된 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계; 및 상기 결정된 렌즈 스텝으로 상기 렌즈를 이동시키는 단계를 포함하는 것을 특징으로 한다.
바람직한 실시예에 있어서, 상기 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계는, 상기 렌즈 스텝들을 상기 판단된 오토포커스 설정에 대응하는 수의 영역들로 분할하는 단계; 상기 분할된 영역들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 1 영역을 결정하는 단계; 및 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계를 포함하는 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 제 1 영역을 결정하는 단계는, 상기 분할된 영역들 각각에 포함된 적어도 하나의 렌즈 스텝에 대응하는 포컬 값들을 비교하는 단계; 및 상기 비교 결과에 근거하여 상기 제 1 영역을 결정하는 단계를 포함하는 것을 특징으로 한다.
바람직한 실시예에 있어서, 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계는, 상기 판단된 오토포커스 설정에 대응하는 임계값을 확인하는 단계; 상기 임계값에 근거하여 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 2 영역을 결정하는 단계; 및 상기 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계를 포함하는 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계는, 상기 판단된 오토포커스 설정에 근거하여 글로벌 서치(Global Search), 트렌드 예측 접근법(Trend Predicition Approach), 규칙 기반 오토포커스(Rule Based AF), 트레이닝 기반 방법(Training-Based Method), 포컬 값 트레이닝 기반 오토포커스(Focal Value Training-Based AF) 및 블러 트레이닝 기반 방법(Blur Training Based Method) 중 어느 하나를 이용하여 최대의 포컬값을 갖는 렌즈 스텝을 결정하는 단계인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 임계값은, 상기 제 2 영역에 포함된 렌즈 스텝들 및 상기 제 2 영역에 포함된 렌즈 스텝들에 대응하는 포컬 값들이 이차 함수(Quadratic Function)를 만족하도록 미리 설정된 값인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 임계값은, 상수(constant)인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 임계값은, 소정 각도 또는 기울기인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 오토포커스 방법은, 상기 오토포커스 설정을 판단하는 단계 이전에, 오토포커스의 트리거 신호를 수신하는 단계를 더 포함하는 것을 특징으로 한다.
한편, 상기 기술적 과제를 해결하기 위한 오토포커스 장치는, 피사체의 촬영 모드를 입력받는 입력부; 상기 입력된 촬영 모드에 대응하는 오토포커스 설정을 판단하는 설정 제어부; 상기 판단된 오토포커스 설정에 근거하여 렌즈와 피사체의 거리에 따라 설정된 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 오토포커스 제어부; 및 상기 결정된 렌즈 스텝으로 렌즈를 이동시키는 렌즈 제어부를 포함하는 것을 특징으로 한다.
바람직한 실시예에 있어서, 상기 오토포커스 제어부는, 상기 렌즈 스텝들을 상기 판단된 오토포커스 설정에 대응하는 수의 영역들로 분할하며, 상기 분할된 영역들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 1 영역을 결정하고, 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 오토포커스 제어부는, 상기 분할된 영역들 각각에 포함된 적어도 하나의 렌즈 스텝에 대응하는 포컬 값들을 비교하고, 상기 비교 결과에 근거하여 상기 제 1 영역을 결정하는 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 오토포커스 제어부는, 상기 판단된 오토포커스 설정에 대응하는 임계값을 확인하며, 상기 임계값에 근거하여 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 2 영역을 결정하고, 상기 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 오토포커스 제어부는, 상기 판단된 오토포커스 설정에 근거하여 글로벌 서치(Global Search), 트렌드 예측 접근법(Trend Predicition Approach), 규칙 기반 오토포커스(Rule Based AF), 트레이닝 기반 방법(Training-Based Method), 포컬 값 트레이닝 기반 오토포커스(Focal Value Training-Based AF) 및 블러 트레이닝 기반 방법(Blur Training Based Method) 중 어느 하나를 이용하여 최대의 포컬값을 갖는 렌즈 스텝을 결정하는 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 임계값은, 상기 제 2 영역에 포함된 렌즈 스텝들 및 상기 제 2 영역에 포함된 렌즈 스텝들에 대응하는 포컬 값들이 이차 함수(Quadratic Function)를 만족하도록 미리 설정된 값인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 임계값은, 상수(constant)인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 임계값은, 소정 각도 또는 기울기인 것을 특징으로 한다.
또한 바람직한 실시예에 있어서, 상기 입력부는, 오토포커스의 트리거 신호를 수신하는 것을 특징으로 한다.
본 발명의 일실시예에 따르면, 카메라가 촬영 모드에 따라 오토포커스의 정밀도 및 속도를 적절하게 조절하는 기능을 구비함으로써, 사용자가 피사체를 촬영할 때 상황에 따라 정적인 피사체에 대해 안정적인 이미지를 획득하거나 역동적인 이미지를 신속하게 획득할 수 있다. 이에 따라, 오토포커스 기능의 활용성이 극대화되고, 동일 피사체에 대한 중복 촬영으로 인해 촬영에 소모되는 시간적 비용에 대한 이점을 갖는다.
도 1은 본 발명의 일 실시예에 따른 오토포커스 장치가 적용된 이동 단말기의 블록도이다.
도 2는 도 1에 도시된 촬영부(121)의 상세 블록도이다.
도 3은 도 2에 도시된 오토포커스 제어부(240)의 상세 블록도이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 렌즈 스텝에 대응하는 포컬 값을 나타내는 그래프이다.
도 7은 본 발명의 일 실시예에 따른 제 1 탐색부(244)의 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 제 2 탐색부(246)의 동작을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 정밀 탐색부(248)의 동작을 설명하기 위한 도면이다.
도 10 내지 도 15는 본 발명의 일 실시예에 따른 오토포커스 수행을 위한 설정 화면을 나타낸다.
도 16는 본 발명의 일 실시예에 따른 오토포커스 수행 과정의 흐름도를 나타낸다.
이하에서는, 본 발명의 일실시예에 따른 오토포커스 장치 및 그 방법의 바람직한 실시예들을 도 1 내지 도 16을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 오토포커스 장치가 적용된 이동 단말기의 블록도이다. 본 실시예에 있어서 상기 이동 단말기(100)는 무선 통신부(110), A/V 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190)를 포함한다.
무선 통신부(110)는 이동 단말기(100)가 무선 통신 시스템을 통하여 다른 단말기와 통신을 할 수 있도록, 무선 통신 시스템의 기지국과 송수신하는 신호의 변/복조 및 부호화/복호화 작업을 수행한다. 이동 단말기(100)가 무선 통신 시스템의 기지국과 주고 받는 무선 신호는 음성 호 신호, 화상 통화 호 신호 또는 문자 메시지가 될 수 있다. 무선 통신부(110)는 방송 수신 모듈(111), 이동 통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치 정보 모듈(115)을 포함한다.
상기 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 미리 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 이동 통신 단말기(100)에 송신하는 서버를 의미할 수 있다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
한편, 상기 방송 관련 정보는, 이동 통신망을 통하여도 제공될 수 있으며, 이러한 경우에는 상기 이동 통신 모듈(112)에 의해 수신될 수 있다. 상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들면, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템 뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성된다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
상기 이동 통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 및/또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
상기 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 의미하는 것으로, 상기 무선 인터넷 모듈(113)은 이동 통신 단말기(100)에 내장되거나 외장될 수 있다. 여기서, 무선 인터넷 기술로는 WLAN(Wireless LAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband : Wibro), 와이맥스(World Interoperability for Microwave Access : Wimax), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
상기 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 의미한다. 근거리 통신 기술로서 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
상기 위치 정보 모듈(115)은 이동 단말기의 위치(이동 단말기가 차량에 장착되었을 때 차량의 위치 확인 가능)를 확인하거나 얻기 위한 모듈이다. 일례로 GPS(Global Position System) 모듈이 있다. GPS 모듈은 복수 개의 인공위성으로부터 위치 정보를 수신한다. 여기서, 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다. 예를 들면, GPS 모듈은, 3개 이상의 위성으로부터 정확한 시간과 거리를 측정하여 3개의 각각 다른 거리를 삼각 방법에 따라서 현 위치를 정확히 계산할 수 있다. 3개의 위성으로부터 거리와 시간 정보를 얻고 1개 위성으로 오차를 수정하는 방법이 사용될 수 있다. 특히, GPS 모듈은 위성으로부터 수신한 위치 정보로부터, 위도, 경도, 고도의 위치뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다. 상기 위치 정보 모듈(115)로서 와이파이 위치추적 시스템(Wi-Fi Positioning System) 및/또는 하이브리드 위치추적 시스템(Hybrid Positioning System)이 적용될 수도 있다.
상기 A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호를 입력하기 위한 것으로서, 상기 A/V 입력부(120)에는 촬영부(121) 및 마이크(122)가 포함된다. 상기 촬영부(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 상기 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있고, 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다.
본 발명의 일 실시예에 따르면, 촬영부(121)는 피사체를 촬영하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 촬영부(121)는 피사체에 대한 입체 영상을 획득하기 위해 피사체에 대한 영상 중 좌측 시점의 좌영상 및 우측 시점의 우영상을 획득하기 위한 복수의 렌즈(미도시)를 포함할 수도 있다. 또한, 촬영부(121)는 동일한 피사체에 대하여 좌측 시점과 우측 시점 사이의 중간 시점의 영상을 획득하기 위한 렌즈(미도시)를 더 포함할 수도 있다. 또는, 촬영부(121)는 상기 좌영상 및 우영상을 포함하는 스테레오 영상으로부터 합성된 중간 시점(intermediate view) 영상을 획득하기 위한 영상 합성부(미도시)를 더 포함할 수 있다.
상기 마이크(122)는 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 수신하여 전기적인 음성 데이터로 처리한다. 상기 통화 모드일 때, 상기 처리된 음성 데이터는 이동 통신 모듈(112)을 통하여 이동 통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 상기 마이크(122)는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
상기 사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위해 인가하는 입력 명령을 받아들이고, 받아들인 명령을 제어부(180)에 전달하여 제어부(180)가 이 명령에 따라 동작하도록 한다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 특히, 터치 패드가 상기 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치 스크린이라 부를 수 있다.
본 발명의 일 실시예에 따르면, 사용자 입력부(130)는 제 1 셔터 릴리즈 입력부(미도시) 및 제 2 셔터 릴리즈 입력부(미도시)를 포함한다. 제 1 셔터 릴리즈 입력부(미도시)는 오토포커스를 수행하기 위한 트리거 신호를 수신한다. 제 2 셔터 릴리즈 입력부(미도시)는 피사체를 촬영하기 위한 트리거 신호를 수신한다. 바람직하게는, 제 1 셔터 릴리즈 입력부(미도시) 및 제 2 셔터 릴리즈 입력부(미도시)는 키 패드 또는 터치 패드가 될 수 있다. 또한 바람직하게는, 제 1 셔터 릴리즈 입력부(미도시) 및 제 2 셔터 릴리즈 입력부(미도시)는 멀티 터치 방식의 터치 패드가 될 수 있다.
또한, 본 발명의 일실시예에 따르면, 사용자 입력부(130)는 피사체의 촬영 모드를 입력받는다. 피사체의 촬영 모드는 예를 들어, 풍경, 인물 및 스포츠 모드와 같이 피사체의 움직임의 특성(예를 들어, 속도)에 따라 구분되는 미리 설정된 모드를 포함할 수 있다. 한편, 촬영 모드는, 일반, 실내, 야간, 글자 및 역광 모드 등을 더 포함할 수 있다. 또한, 촬영 모드는, 피사체의 움직임의 특성을 사용자가 설정할 수 있는 수동 모드를 더 포함할 수 있다.
상기 센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기(100)의 방위, 이동 단말기(100)의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들면, 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 상기 센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당한다.
상기 출력부(150)는 오디오 신호, 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로서, 상기 출력부(150)에는 디스플레이부(151)와 음향 출력 모듈(152), 알람부(153) 및 햅틱모듈(154) 등이 포함될 수 있다.
상기 디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시하여 출력한다. 예를 들면, 이동 단말기(100)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
상기 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 그리고 이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수도 있다. 예를 들면, 이동 단말기(100)에 외부 디스플레이부(도시하지 않음)와 내부 디스플레이부(도시하지 않음)가 동시에 구비될 수 있다.
상기 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 상기 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
또한, 상기 터치 센서는, 상기 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 상기 터치 센서는, 터치되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 상기 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(도시하지 않음)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)에 전송한다. 이로써, 상기 제어부(180)는, 상기 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 터치 스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(Proximity Touch)"라고 칭하고, 상기 터치 스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(Contact Touch)"라고 칭한다. 상기 터치 스크린 상에서 포인터로 근접 터치가 되는 위치는, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.
또한, 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 상기 터치 스크린 상에 출력될 수 있다.
상기 음향 출력 모듈(152)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성 인식 모드, 방송 수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들면, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력 모듈(152)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
상기 알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 상기 알람부(153)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 호 신호가 수신되거나 메시지가 수신될 때, 이를 알리기 위해 알람부(153)는 진동 수단을 통해 이동 단말기를 진동시킬 수 있다. 또는, 상기 알람부(153)는, 키 신호가 입력된 경우, 그 키 신호 입력에 대한 피드백으로 진동 수단을 통해 이동 단말기(100)를 진동시킬 수 있다. 상기와 같은 진동을 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생 알림을 위한 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
상기 햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
상기 햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다.
메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장하기 위한 ROM(Read Only Memory, 161), 예컨대 플래시 메모리와, 송수신 또는 디스플레이를 위해 처리하는 임시 출력되는 데이터들을 저장하기 위한 RAM(Random Access Memory, 162)을 포함한다.
상기 인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 인터페이스 역할을 한다. 예를 들면, 상기 인터페이스부(170)는 유/무선 헤드셋 포트(Headset Port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(Memory Card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등으로 구성될 수 있다. 여기서, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module : UIM), 가입자 인증 모듈(Subscriber Identify Module : SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module : USIM) 등을 포함할 수 있다. 또한, 상기 식별 모듈이 구비된 장치(이하 '식별 장치'라 한다)는, 스마트 카드(Smart Card) 형식으로 제작될 수 있다. 따라서, 상기 식별 모듈은 포트를 통하여 이동 단말기(100)와 연결될 수 있다. 이와 같은 인터페이스부(170)는 외부 기기로부터 데이터를 수신하거나 전원을 수신하여 이동 단말기(100) 내부의 각 구성 요소에 전달하거나 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다.
상기 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(Cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
상기 제어부(180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들면, 상기 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 상기 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 상기 멀티미디어 모듈(181)은 상기 제어부(180) 내에 구현될 수도 있고, 상기 제어부(180)와 별도로 구현될 수도 있다.
상기 전원 공급부(190)는 상기 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 수신하여 각 구성요소들의 동작에 필요한 전원을 공급한다.
도 2는 도 1에 도시된 촬영부(121)의 상세 블록도이다. 본 실시예에 있어서, 촬영부(121)는 렌즈부(210), 이미지 센서(220), 영상처리기(230), 오토포커스 제어부(240) 및 렌즈 구동부(250)를 포함한다.
렌즈부(210)는 피사체의 광학상을 이미지 센서(220)에 결상시키기 위한 렌즈(212) 및 입력되는 모터 구동신호에 응답하여 상기 렌즈(212)를 상기 모터 구동 신호에 따른 초점 위치로 구동할 수 있는 초점 모터(214)를 포함한다.
이미지 센서(220)는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor) 등을 사용하여, 상기 렌즈(212)를 통하여 결상된 광학상을 광전변화하여 전기신호를 출력한다.
영상처리기(230)는 이미지 센서(220)로부터 출력되는 전기신호를 신호처리하여, 촬영한 피사체의 영상에 대응하는 영상데이터를 생성하고, 생성된 영상데이터로부터 이미지 특성 정보를 분석한다. 영상처리기(230)는 렌즈와 피사체의 거리에 따라 설정되고 렌즈의 위치를 이동시킬 수 있는 단위가 되는 렌즈 스텝과, 예를 들어, 각 렌즈 스텝에서 이미지 센서(220)에 결상된 이미지의 특성 정보(예를 들면, 샤프니스 정보)에 근거하여 고주파 이미지 신호 정보를 수치로 변환한 초점 값(포컬 값, focal value)을 분석한다.
오토포커스 제어부(240)는 영상처리기(230)에 의해 출력된 이미지 특성 정보의 분석 결과에 상응하는 포컬 값 그래프에 기초하여 렌즈(212)의 위치를 계산하며, 렌즈부(210)의 렌즈(212)를 해당 위치로 구동하기 위한 구동신호를 생성하고, 생성된 구동신호를 렌즈 구동부(250)에 출력한다. 렌즈의 위치는, 렌즈 스텝 영역을 축소시키기 위한 알고리즘에 상응하는 위치 또는 가장 선명한 이미지(또는, 초점이 맞은 이미지)를 얻기 위한 위치가 될 수 있다.
렌즈 구동부(250)는 오토포커스 제어부(240)로부터 출력되는 구동 신호에 따라 초점 모터(214)를 통해 렌즈(212)를 이동시키고, 이에 따라 렌즈(212)와 이미지 센서(220)와의 이격 거리가 변화되어, 이미지 센서(220)에 결상하는 광학상의 초점을 조절하도록 제어한다.
도 3은 도 2에 도시된 오토포커스 제어부(240)의 상세 블록도이다. 본 실시예에 있어서, 오토포커스 제어부(240)는 주 제어부(242), 제 1 탐색부(244), 제 2 탐색부(246) 및 정밀 탐색부(248)를 포함한다.
주 제어부(242)는 제 1 탐색부(244), 제 2 탐색부(246) 및 정밀 탐색부(248)의 동작을 제어한다. 주 제어부(242)는 사용자 입력부(130)를 통해 피사체의 촬영 모드를 입력받고, 입력된 촬영 모드에 대응하는 오토포커스 설정을 판단한다. 오토포커스 설정은 촬영 모드에 따라 상이하며, 오토포커스 수행의 속도를 높이거나 오토포커스 수행의 정밀도를 높이는 설정을 포함한다. 동적인 피사체를 촬영하기 위한 스포츠 모드와 같은 경우에 오토포커스 설정은 수행의 속도를 높일 수 있도록 오토포커스를 신속하게 수행하기 위한 값들을 포함하고, 정적인 피사체를 촬영하기 위한 풍경 모드와 같은 경우에 오토포커스 설정은 수행의 정밀도를 높일 수 있도록 오토포커스를 정밀하게 수행하기 위한 값들을 포함한다.
제 1 탐색부(244)는 렌즈(212)와 피사체의 거리에 따라 설정된 렌즈 스텝의 영역 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 소정 범위의 영역을 결정한다. 이를 위해, 제 1 탐색부(244)는 전체 렌즈 스텝 영역 중 적어도 두 개의 렌즈 스텝들 각각에 대한 포컬 값들을 계산한다. 상기 적어도 두 개의 렌즈 스텝들에 의해 전체 렌즈 스텝 영역은 적어도 세 개 이상의 영역으로 분할된다. 또한, 제 1 탐색부(244)는 분할된 세 개 이상의 영역의 경계에 해당하는 렌즈 스텝들의 포컬 값들 중 최대가 되는 포컬 값을 갖는 렌즈 스텝이 포함된 영역(제 1 영역이라 칭함)을 결정한다.
바람직하게는, 제 1 탐색부(244)는 렌즈 스텝들을 오토포커스 설정에 대응하는 수의 영역들로 분할한다. 예를 들어, 스포츠 모드에서 분할되는 영역의 수는 3이 될 수 있고, 풍경 모드에서 분할되는 영역의 수는 10이 될 수 있다. 또한, 제 1 탐색부(244)는 분할된 영역들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 1 영역을 결정한다. 이 경우에, 제 1 탐색부(244)는 분할된 영역들 각각에 포함된 적어도 하나의 렌즈 스텝에 대응하는 포컬 값들을 비교하고, 비교 결과에 근거하여 제 1 영역을 결정한다.
제 1 탐색부(244)의 동작 결과로, 최대의 포컬 값을 갖는 렌즈 스텝을 탐색하기 위한 범위가 축소된다. 제 1 탐색부(244)는 결정된 제 1 영역에 관한 정보, 예를 들어 제 1 영역의 시점 및 종점에 해당하는 렌즈 스텝과 이에 대응하는 계산된 포컬 값에 관한 정보를 제 2 탐색부(246)에 출력한다.
제 2 탐색부(246)는 제 1 탐색부(244)로부터 제 1 영역에 관한 정보를 수신하고, 제 1 영역에 포함되는 영역 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 그대로 포함하면서 영역의 크기를 최소화할 수 있도록 실험에 의해 정해진 임계값만큼 축소된 영역(제 2 영역이라 칭함)을 결정한다. 임계값은 렌즈(212)와 피사체의 다양한 거리에 따라 촬영된 시뮬레이션 데이터를 토대로 제 1 영역을 결정하고, 결정된 제 1 영역을 소정 비율로 축소시켜 나가면서 축소된 영역이 결과적으로 최대의 포컬 값을 그대로 포함하는 가장 큰 비율을 결정하는 실험에 의해 결정될 수 있다. 일예로, 임계값은 소정 각도 또는 기울기가 될 수 있다.
바람직하게는, 제 2 탐색부(246)는 오토포커스 설정에 대응하는 임계값을 확인한다. 여기에서, 오토포커스 설정에 대응하는 임계값은 시뮬레이션 데이터에 의해 결정되는데, 실험적으로 임계값에 따라 제 1 영역으로부터 제 2 영역을 결정했을 때 제 2 영역이 최대의 포컬 값을 갖는 확률에 따라 임계값이 결정된다. 예를 들어, 촬영 모드가 스포츠 모드인 경우에, 임계값은 제 2 영역이 70%의 확률로 최대의 포컬 값을 갖게 하는 값일 수 있고, 촬영 모드가 풍경 모드인 경우에, 임계값은 제 2 영역이 90%의 확률로 최대의 포컬 값을 갖게 하는 값일 수 있다.
제 2 탐색부(246)의 동작 결과로, 최대의 포컬 값을 갖는 렌즈 스텝을 탐색하기 위한 범위가 더욱 축소된다. 제 2 탐색부(246)는 결정된 제 2 영역에 관한 정보, 예를 들어 제 2 영역의 경계에 해당하는 렌즈 스텝과 이에 대응하는 계산된 포컬 값에 관한 정보를 정밀 탐색부(248)에 출력한다.
정밀 탐색부(248)는 제 2 영역에 포함되는 렌즈 스텝들 중 최대의 포컬 값을 갖는 렌즈 스텝을 결정한다. 이를 위해, 정밀 탐색부(248)는 렌즈 구동부(250)에 구동신호를 출력하여 순차 또는 비순차 방식으로 렌즈 스텝만큼 렌즈(212)를 이동시키고, 영상처리기(230)로부터 생성된 이미지에 대한 분석 정보를 바탕으로 최대의 포컬 값을 갖는 렌즈 스텝을 결정한다.
정밀 탐색부(248)의 동작과 제 2 탐색부(246)의 동작은 연관되어 있을 수 있다. 즉, 상기 임계값은 정밀 탐색부(248)가 제 2 영역으로부터 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식에 따라 달라질 수 있다. 일 예로, 최대의 포컬 값을 갖는 렌즈 스텝의 부근에서는 렌즈 스텝과 이에 대응하는 포컬 값이 이차 함수(Quadratic Funcition)를 만족할 수 있다. 이 경우에 상기 임계값은 상기 제 2 영역이 이차 함수를 만족하는 영역이 되도록 실험에 의해 정해진 값이 될 수 있다. 이 경우에, 정밀 탐색부(248)는 제 2 영역의 경계에 해당하는 렌즈 스텝들 및 제 2 영역의 중앙에 해당하는 렌즈 스텝과 이에 대응하는 포컬 값들에 근거하여 제 2 영역으로부터 최대의 포컬 값을 갖는 렌즈 스텝을 결정할 수 있다.
정밀 탐색부(248)가 최대의 포컬 값을 갖는 렌즈 스텝을 결정한 후에는, 사용자의 입력에 따라 렌즈(212)를 통해 피사체가 촬영되고 촬영에 의해 생성된 이미지가 메모리(160)에 저장될 수 있다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 렌즈 스텝에 대응하는 포컬 값을 나타내는 그래프이다. 일반적으로 렌즈 스텝에 대응하는 포컬 값을 그래프로 나타내면, 그래프는 도 4 내지 도 6의 3가지의 형태를 갖는다.
먼저, 도 4는 피사체가 촬영부(121)로부터 가까운 거리에 위치한 경우를 나타낸다. 이 경우에, 포컬 값은 도 4와 같이 렌즈 스텝이 증가함에 따라 천천히 증가하여 렌즈 스텝이 가장 큰 위치에 근접하여 최대의 포컬 값을 형성한다. 따라서, 렌즈 스텝과 이에 대응하는 포컬 값은 그래프(310)와 같이 점차 증가하는 형태를 갖는다.
도 5는 피사체가 촬영부(121)로부터 중간 거리에 위치한 경우를 나타낸다. 이 경우에, 포컬 값은 도 5와 같이 렌즈 스텝이 증가함에 따라 급격히 증가하여 렌즈 스텝의 중앙 부근에서 최대의 포컬 값을 형성한다. 또한, 최대의 포컬 값에 대응하는 렌즈 스텝 이후에는 포컬 값이 점차 감소한다. 따라서, 렌즈 스텝과 이에 대응하는 포컬 값은 그래프(320)와 같이 최대의 포컬 값을 갖게 되는 렌즈 스텝 부근까지 급격히 증가한 후에 점차 감소하는 형태를 갖는다.
도 6은 피사체가 촬영부(121)로부터 먼 거리에 위치한 경우를 나타낸다. 이 경우에, 포컬 값은 도 6과 같이 초기 렌즈 스텝 부근에서 최대의 포컬 값을 형성한 이후에, 렌즈 스텝이 증가함에 따라 급격히 감소한다. 따라서, 렌즈 스텝과 이에 대응하는 포컬 값은 그래프(330)와 같이 점차 감소하는 형태를 갖는다.
도 4 내지 도 6을 참조하면, 최대의 포컬 값을 갖는 렌즈 스텝과 관련하여 일련의 규칙성을 확인할 수 있다. 일예로, 렌즈 스텝의 오름차순 방향으로 포컬 값들을 계산하면, 최대의 포컬 값을 갖는 렌즈 스텝에서 처음으로 포컬 값이 감소하거나, 지속적으로 증가하여 마지막 렌즈 스텝에서 포컬 값이 최대가 된다. 또한, 최대 포컬 값을 갖는 렌즈 스텝에 가까운 영역에서는 렌즈 스텝과 이에 대응하는 포컬 값이 이차 함수(Quadratic Function)를 만족한다.
따라서, 렌즈 스텝의 영역을 분할하여, 촬영 모드에 따라 분할된 영역 중 최대의 포컬 값을 가질 것으로 추정되는 렌즈 스텝에 대응하는 제 1 영역을 결정하고, 제 1 영역에 포함되고 최대의 포컬 값을 갖는 렌즈 스텝을 그대로 포함하면서 제 1 영역에 대해 실험에 의해 정해진 임계값(또한, 임계값은 상기 이차 함수의 조건과 같은 소정 조건을 만족시키도록 설정될 수 있다)만큼 축소시킨 제 2 영역을 결정함으로써, 최종적으로 오토포커스 수행의 대상이 되는 렌즈 스텝 영역이 축소되어 신속하게 또는 정밀하게 최대의 포컬 값을 갖는 렌즈 스텝을 결정할 수 있다.
도 7은 본 발명의 일 실시예에 따른 제 1 탐색부(244)의 동작을 설명하기 위한 도면이다. 도 7에서는, 초기 렌즈 스텝 영역을 4개의 영역으로 분할하는 경우를 가정하지만, 3 이상의 자연수의 개수로 영역을 분할하는 어떠한 경우에도 본 발명의 일 실시예가 적용될 수 있을 것이다.
제 1 탐색부(244)는 렌즈 스텝 영역을 복수 개의 영역으로 분할하고, 상기 분할된 영역 중에서 최대의 포컬 값에 대응하는 렌즈 스텝을 가질 것이라고 추정되는 제 1 영역을 결정한다. 렌즈 스텝과 이에 대응하는 포컬 값을 나타내는 그래프는 일반적으로 도 4 내지 도 6의 그래프 형태를 갖기 때문에 포컬 값이 처음으로 감소하는 렌즈 스텝을 포함하는 영역 또는 양 경계에 해당하는 렌즈 스텝을 포함하는 영역 중 어느 하나가 최대의 포컬 값을 가질 것이라고 추정되는 렌즈 스텝을 포함하게 된다.
먼저, 제 1 탐색부(244)는 촬영 모드에 대응하는 오토포커스 설정에 따라 미리 설정된 렌즈 스텝 영역의 분할 수(N, N은 3 이상의 자연수)를 메모리(160)로부터 독출한다. 또한, 바람직하게는, 상기 렌즈 스텝 영역의 분할 수는 사용자 입력부(130) 또는 무선 통신부(110)를 통해 수신할 수 있다.
제 1 탐색부(244)는 메모리(160)로부터 독출하거나 사용자 입력부(130) 또는 무선 통신부(110)를 통해 수신한 렌즈 스텝 영역의 분할 수에 따라 각 영역에 포함된 예를 들어, 렌즈 스텝의 경계에 해당하는 N-1개의 렌즈 스텝(이하에서는 피봇이라 칭함)을 설정한다. 예를 들어, 총 100개의 렌즈 스텝에 대해서 4개의 영역(A, B, C 및 D)으로 분할하는 경우에 25, 50 및 75 렌즈 스텝(q, r 및 s)에 해당하는 3개의 피봇이 설정된다.
도 7에서는, 각 분할된 영역의 경계에 해당하는 렌즈 스텝을 피봇의 예로써 설명하고 있으나, 상기 각 분할된 영역에 포함되는 어떠한 렌즈 스텝도 피봇으로 설정될 수 있으며, 예를 들어 상기 각 분할된 영역의 중앙에 해당하는 렌즈 스텝이 피봇으로 설정될 수도 있다.
제 1 탐색부(244)는 설정된 피봇 중 인접하는 2개의 피봇을 선택하여 피봇에 대응하는 포컬 값을 계산하여 비교한다. 예를 들어, 그래프(410)에서 피봇(q)과 피봇(r)에 해당하는 포컬 값들이 비교된다. 그러나, 피봇(r)과 피봇(s)에 해당하는 포컬 값들이 먼저 비교될 수 있음은 물론이다.
제 1 탐색부(244)는 비교된 2개의 포컬 값들 중 높은 포컬 값에 대응하는 피봇과 그에 인접하는 다른 피봇을 다음 비교 대상으로 선정한다. 예를 들어, 그래프(410)에서 포컬 값들(q 및 r) 중에서 더 높은 포컬 값에 해당하는 피봇(r)과 그에 인접하는 피봇(s)이 다음 비교 대상으로 선정된다. 그러나, 피봇(r)과 피봇(s)에 해당하는 포컬 값들이 먼저 비교된 경우에는 포컬 값들(r 및 s) 중에서 더 높은 포컬 값에 해당하는 피봇(r)과 그에 인접하는 피봇(q)이 다음 비교 대상으로 선정된다. 즉, 제 1 탐색부(244)는 렌즈 스텝의 크기가 오름차순 방향이거나 내림차순 방향으로 다음 비교 대상을 선정할 수 있다.
제 1 탐색부(244)는 이와 같은 방식으로 포컬 값이 낮아지기 시작하는(즉, 포컬 값의 변화량이 음이 되는) 첫 번째 렌즈 스텝이 포함된 렌즈 스텝 영역을 탐색한다. 예를 들어, 그래프(410)에서 포컬 값들 중에서 더 높은 포컬 값에 대응하는 피봇(r)은 이미 인접하는 다른 피봇(q)의 포컬 값이 조사되었으므로, 더 이상 인접하는 다른 피봇이 존재하지 않는다. 따라서, 피봇(q) 및 피봇(s) 사이의 렌즈 스텝 영역(또는, 마지막으로 계산된 피봇(r) 직전의 피봇(q)에 인접하는 렌즈 스텝 영역)(B 및 C) 중에 포컬 값이 최대인 렌즈 스텝, 즉 가장 선명한 이미지를 생성할 수 있는 렌즈 스텝이 존재할 것으로 추정된다.
한편, 도 7의 실시예와는 다르게 피봇(q)에 해당하는 포컬 값이 피봇(r)에 해당하는 포컬 값보다 낮다면, 피봇(q)에 인접하는 다른 피봇이 존재하지 않는다. 이 경우에는, 렌즈 스텝 영역의 양 경계들 중 하나인 좌측 경계에 해당하는 렌즈 스텝(p)이 인접하는 바, 피봇(q)에 대응하는 포컬 값과 좌측 경계에 해당하는 렌즈 스텝(p)의 포컬 값이 비교된다. 이는 우측 경계에 해당하는 렌즈 스텝(t)에 인접하는 피봇(t)의 경우에도 마찬가지로 적용될 수 있다.
또한, 양 경계들 중 어느 하나의 렌즈 스텝(p 또는 t)에 대응하는 포컬 값이 인접하는 피봇(q 또는 s)에 대응하는 포컬 값보다 높은 것으로 판명된다면, 도 7의 실시예와는 다르게 포컬 값이 최대인 렌즈 스텝, 즉 가장 선명한 이미지를 생성할 수 있는 렌즈 스텝이 존재할 것으로 추정되는 제 1 영역은 해당 경계를 포함하는 단 하나의 영역(A 또는 D)이 될 수 있다.
이와 같은 방식으로, 제 1 탐색부(244)는 렌즈 스텝 영역을 촬영 모드에 따라 N개의 영역으로 분할하고, 분할된 영역 중에서 최대의 포컬 값을 가질 것으로 추정되는 렌즈 스텝이 포함된 영역을 결정할 수 있다. 도 7의 경우에, 제 1 탐색부(244)는 단 3개의 피봇들(q, r 및 s)에 대한 포컬 값을 계산함으로써 최대의 포컬 값을 가질 것으로 추정되는 렌즈 스텝이 포함된 영역(B 및 C, 제1 영역)을 결정하고, 결정된 제 1 영역(B 및 C)에 관한 정보를 제 2 탐색부(246)에 출력한다.
도 8은 본 발명의 일 실시예에 따른 제 2 탐색부(246)의 동작을 설명하기 위한 도면이다.
제 2 탐색부(246)는 제 1 탐색부(244)로부터 제 1 영역에 관한 정보를 수신하고, 촬영 모드에 대응하는 오토포커스 설정에 따라 제 1 영역에 포함된 렌즈 스텝들에 대응하는 포컬 값들 중 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 2 영역을 결정할 수 있다. 바람직하게는, 제 2 영역은 제 2 영역에 포함된 렌즈 스텝들과 이에 대응하는 포컬 값들이 이차 함수를 만족하는 영역이 될 수 있다.
먼저, 제 2 탐색부(246)는 제 1 영역으로부터 제 2 영역을 결정하기 위해 실험에 의해 정해진 임계값에 관한 정보를 메모리(160)로부터 독출한다. 제 2 탐색부(246)는 제 1 탐색부(244)로부터 수신한 제 1 영역에 관한 정보와 메모리(160)로부터 독출한 소정 각도 또는 기울기에 관한 정보에 근거하여, 제 2 영역을 결정한다.
예를 들어, 그래프(420)에서 제 1 탐색부(244)에 의해 제 1 영역의 시점에 해당하는 피봇(q)과 종점에 해당하는 피봇(s) 사이의 영역으로 결정된 상태에서, 제 2 탐색부(246)는 제 1 탐색부(244)로부터 피봇들(q 및 s)과 피봇들(q 및 s)에 대응하는 포컬 값에 대한 정보를 수신한다.
또한, 제 2 탐색부(246)는 제 1 영역의 중점에 해당하는 렌즈 스텝과 그에 대응하는 포컬 값을 확인한다. 한편, 도 7을 다시 참조하면, 제 1 영역(B 및 C)의 중점에 해당하는 렌즈 스텝(r) 및 그에 대응하는 포컬 값은 이미 제 1 탐색부(244)에 의해 계산되었기 때문에, 제 2 탐색부(246)는 제 1 탐색부(244)의 계산 결과를 그대로 이용할 수 있다.
제 2 탐색부(246)는 제 1 영역에 포함된 피봇들(q 및 s) 중 어느 하나(q)에 대응하는 포컬 값의 좌표에 대한 정보, 피봇들(q 및 s)의 중점에 해당하는 렌즈 스텝(M)에 대응하는 포컬 값의 좌표에 대한 정보 및 메모리(160)로부터 독출된 임계값에 관한 정보에 근거하여 제 2 영역의 첫 번째 경계에 해당하는 피봇(qN)을 결정한다.
예를 들어, 제 2 탐색부(246)는 제 1 영역에 포함된 피봇들(q 및 s) 중 어느 하나(q)에 대응하는 포컬 값의 좌표와 피봇들(q 및 s)의 중점에 해당하는 렌즈 스텝(M)에 대응하는 포컬 값의 좌표를 지나는 직선의 기울기를 구하고, 기울기의 각도를 임계값(a)만큼 증가시킨다. 그리고, 제 2 탐색부(246)는 제 1 영역에 포함된 피봇들(q 및 s) 중 어느 하나(q)에 대응하는 포컬 값의 좌표를 지나고 기울기의 각도가 임계값(a)만큼 증가된 직선에서, 포컬 값이 피봇들의 중점에 해당하는 렌즈 스텝(M)에 대응하는 포컬 값이 되는 좌표의 렌즈 스텝(qN)을 제 2 영역의 좌측 경계로 결정한다.
같은 방식으로, 제 2 탐색부(246)는 제 1 영역에 포함된 피봇들(q 및 s) 중 다른 하나(s)에 대응하는 포컬 값의 좌표에 대한 정보, 피봇들(q 및 s)의 중점에 해당하는 렌즈 스텝(M)에 대응하는 포컬 값의 좌표에 대한 정보 및 메모리(160)로부터 독출된 임계값에 관한 정보에 근거하여 제 2 영역의 우측 경계에 해당하는 피봇(sN)을 결정한다.
한편, 이와는 달리 결정된 제 1 영역이 단 하나의 영역(예를 들어, 도 7에서 A 또는 D)인 경우에는, 제 2 영역에 포함된 2개의 경계 중 어느 하나만을 계산하면 된다. 예를 들어, 제 1 영역이 피봇(q)과 피봇(M) 사이의 영역으로 결정되었다면, 피봇(q) 및 피봇(M)에 대응하는 포컬 값들에 해당하는 좌표를 지나는 직선에 대해서만 임계값(a)만큼 증가시키고, 제 2 영역의 좌측 경계에 해당하는 피봇(qN)만을 계산하면 된다. 이때, 제 2 영역의 두번째 경계는 피봇(M)이 된다.
여기에서 임계값은 상수(constant)와 같이 고정된 값이 될 수 있다. 또한, 임계값은 제 1 영역의 시점 및 종점에 대하여 동일하게 적용될 수 있다. 예를 들어 제 1 영역의 시점 및 종점에 대하여 동일한 임계값(a)을 적용할 수 있다. 또한, 임계값은 제 1 영역의 시점 및 종점에 대하여 상이하게 적용될 수 있다. 예를 들어, 제 1 영역의 시점에 대하여 임계값(a)을 적용하고, 제 1 영역의 종점에 대하여 임계값(b)을 적용할 수 있다. 또한, 임계값은 제 1 영역의 시점 및 종점에 해당하는 포컬 값에 따라 상이하게 적용될 수 있다. 예를 들어, 제 1 영역의 시점 및 종점에 해당하는 포컬 값과 이에 대응하는 임계값에 대한 정보가 포함된 테이블을 참조하여 임계값을 제 1 영역의 시점 및 종점에 적용할 수 있다. 또한, 임계값은 제 1 영역의 시점 및 종점에 해당하는 포컬 값의 비율에 따라 상이하게 적용될 수 있다.
제 2 탐색부(246)는 결정된 제 2 영역에 대한 정보를 정밀 탐색부(248)에 출력한다.
도 9는 본 발명의 일 실시예에 따른 정밀 탐색부(248)의 동작을 설명하기 위한 도면이다.
정밀 탐색부(248)는 제 2 탐색부(246)로부터 제 2 영역에 대한 정보를 수신하고, 제 2 영역에 대해 다양한 방식으로 오토포커스를 수행한다. 즉, 정밀 탐색부(248)는 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 계산한다. 바람직하게는 정밀 탐색부(248)는 촬영 모드에 대응하는 오토포커스 설정에 근거하여 글로벌 서치(Global Search), 트렌드 예측 접근법(Trend Predicition Approach), 규칙 기반 오토포커스(Rule Based AF), 트레이닝 기반 방법(Training-Based Method), 포컬 값 트레이닝 기반 오토포커스(Focal Value Training-Based AF) 및 블러 트레이닝 기반 방법(Blur Training Based Method) 중 어느 하나에 의하여 오토포커스를 수행할 수 있다.
글로벌 서치는 힐-클라이밍 서치(Hill-Climbing Search, HCS)라고도 하며, 렌즈 스텝을 1씩 증가시키며 모든 렌즈 스텝에 대한 포컬 값을 획득하여 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식이다.
트렌드 예측 접근법은 4개의 포컬 값을 획득하여 이산 미분 방정식 예측 모델(Discrete Differential Equation Prediction Model, DDEPM)에 적용하여 트렌드를 예측하는 방식으로 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식이다.
규칙 기반 오토포커스는 초기 구간에 최대의 포컬 값을 갖는 렌즈 스텝이 존재하는지를 먼저 판단하고, 포컬 값의 증가율에 따라 구간마다 상이한 서치 모드를 할당하는 방식으로 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식이다.
트레이닝 기반 방법은 다양한 렌즈 스텝에서 촬영된 이미지에 기반하여 포컬 값을 측정하고, 트레이닝 데이터에 기반하여 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식이다.
포컬 값 트레이닝 기반 오토포커스는 몇몇 렌즈 스텝에 해당하는 포컬 값에 근거하여 특징 벡터를 선택하고 선택된 특징 벡터에 기반하여 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식이다.
블러 트레이닝 기반 방법은 소정 카메라 파라미터로 트레이닝된 블러 특징에 기반하여 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 방식이다.
정밀 탐색부(248)는 상기와 같이 다양한 방식으로 제 2 영역에 대해 오토포커스를 수행할 수 있는데, 제 2 영역은 초기 렌즈 스텝 영역에 비해 상당히 축소되었기 때문에 향상된 속도로 오토포커스를 수행할 수 있는 효과가 있다.
일예로, 정밀 탐색부(248)는 이차함수를 이용해서 오토포커스를 수행할 수 있다. 정밀 탐색부(248)는 제 2 영역의 시점 및 종점에 해당하는 피봇들과 그 중점에 해당하는 피봇에 대응하는 포컬 값들에 대한 좌표 정보에 근거하여 최대의 포컬 값을 갖는 렌즈 스텝을 결정할 수 있다.
도 9의 그래프(430)에서, 제 2 영역이 피봇들(qN 및 sN) 사이의 영역으로 결정되면, 정밀 탐색부(248)는 제 2 탐색부(246)로부터 각 피봇들(qN 및 sN) 및 그에 대응하는 포컬 값들에 관한 정보를 수신한다. 또한, 정밀 탐색부(248)는 피봇들(qN 및 sN)의 중점에 해당하는 피봇(MN) 및 그에 대응하는 포컬 값을 계산한다. 이차 함수에서 3개의 좌표에 관한 정보가 주어졌으므로, 그래프에 대한 방정식을 구할 수 있고, 구한 방정식은 다음 수학식 1과 같다.
수학식 1
Figure PCTKR2010004583-appb-M000001
한편, 이차 함수에서 곡선의 방정식이 주어진 경우에 y값이 최대값을 갖는 x좌표는 다음 수학식 2와 같이 결정된다.
수학식 2
Figure PCTKR2010004583-appb-M000002
정밀 탐색부(248)에 의해 최대의 포컬 값을 갖는 렌즈 스텝(F)이 결정되면, 주 제어부(242)는 렌즈 구동부(250)에 렌즈(212)를 렌즈 스텝(F)으로 이동시키기 위한 구동 신호를 송신하고, 렌즈 구동부(250)는 초점 모터(214)를 통해 상기 렌즈(212)를 렌즈 스텝(F)으로 이동시켜 렌즈(212)를 통해 피사체를 촬영한다.
도 10 내지 도 15는 본 발명의 일 실시예에 따른 오토포커스 수행을 위한 설정 화면을 나타낸다.
도 10의 설정 화면에서, 오토포커스 항목(510)이 선택되면 오토포커스를 자동으로 설정하기 위한 자동 항목(512) 및 수동으로 설정하기 위한 수동 항목(514)의 설정 화면이 나타난다.
도 11의 설정 화면에서, 촬영 모드 항목(520)이 선택되면 다양한 촬영 모드 항목이 표시되는데, 각 항목에 따라 제 1 탐색부(244)의 분할 영역의 수, 제 2 탐색부(246)의 임계값에 관한 정보 및 정밀 탐색부(248)의 정밀 탐색 방법에 관한 정보가 미리 설정될 수 있다. 예를 들어, 풍경(524) 항목이 선택되면, 일반(522) 항목이 선택되었을 때와 비교하여 분할 영역의 수가 크고 정밀 탐색 방법 중 정밀도가 높은 방법이 선택되며, 그에 따라 임계값이 자동으로 결정된다. 반면에, 스포츠(526) 항목이 선택되면, 일반(522) 항목이 선택되었을 때와 비교하여 분할 영역의 수가 작고 정밀 탐색 방법 중 속도가 높은 방법이 선택되며, 그에 따라 임계값이 자동으로 결정된다.
도 11의 설정 화면에서, 수동(528) 항목이 선택되면 피사체 촬영에 관한 상세 설정이 가능한데, 도 12의 상세 설정 화면에서 AF 탭 항목(532)이 선택되면 영역 분할 수 항목(534), 임계값 항목(536) 및 정밀 탐색 방법 항목(538)이 표시된다.
도 12의 상세 설정 화면에서, 영역 분할 수 항목(534)이 선택되면 도 13의 설정 화면에서와 같이 영역 분할 수를 설정할 수 있는 화면(540)이 표시된다. 영역 분할 수를 설정할 수 있는 화면에는 영역 분할 수를 입력할 수 있는 사용자 인터페이스, 예를 들어 수를 조정할 수 있는 바(542)와 조정된 영역 분할 수에 따라 제 1 영역의 결정에 관한 그래프 등 간략한 정보를 나타내는 영역(544)이 포함될 수 있다.
도 12의 상세 설정화면에서, 임계값 항목(536)이 선택되면 도 14의 설정화면에서와 같이 임계값을 설정할 수 있는 화면(550)이 표시된다. 임계값을 설정할 수 있는 화면에는 임계값을 입력할 수 있는 사용자 인터페이스, 예를 들어 수를 조정할 수 있는 바(552)와 조정된 임계값에 따라 제 2 영역의 결정에 관한 그래프 등 간략한 정보를 나타내는 영역(554)이 포함될 수 있다.
도 12의 상세 설정 화면에서, 정밀 탐색 방법 항목(538)이 선택되면 도 15의 설정화면에서와 같이 정밀탐색방법을 설정할 수 있는 화면(560)이 표시된다. 정밀탐색방법을 설정할 수 있는 화면(560)에는 HCS 등 오토포커스의 수행에 관한 다양한 방법에 관한 항목이 포함되어, 선택된 항목(562)에 관한 상세 정보(564)가 표시될 수 있다.
도 16은 본 발명의 일 실시예에 따른 오토포커스 수행 과정의 흐름도를 나타낸다. 주 제어부(242)는 사용자 입력부(130)를 통해 촬영 모드를 입력받고, 입력된 촬영 모드에 대응하는 오토포커스 설정을 확인한다(S50). 또한 주 제어부(242)는 제 1 셔터 릴리즈 입력부를 통해 오토포커스 트리거 신호의 수신 여부를 모니터링한다(S100).
제 100단계에서 오토포커스 트리거 신호가 수신되면, 제 1 탐색부(244)는 렌즈 스텝 영역을 오토포커스 설정에 따라 복수 개의 영역으로 분할하고, 상기 분할된 영역 중에서 최대의 포컬 값에 대응하는 렌즈 스텝이 존재할 것으로 추정되는 영역을 결정한다(S200).
제 2 탐색부(246)는 제 1 탐색부(244)로부터 최대의 포컬 값을 가질 것으로 추정되는 렌즈 스텝이 포함된 영역(제 1 영역)에 관한 정보를 수신하고, 촬영 모드에 대응하는 오토포커스 설정에 따라 상기 제 1 영역에 포함된 렌즈 스텝 영역 중 정밀 탐색부(248)에 의해 오토포커스를 수행하는데 적합하도록 소정 조건을 만족하는 제 2 영역을 선택한다(S300).
정밀 탐색부(248)는 제 2 탐색부(246)로부터 제 2 영역에 대한 정보를 수신하고, 촬영 모드에 대응하는 오토포커스 설정에 따라 오토포커스를 수행한다(S400). 최종적으로 오토포커스 제어부(240)의 구동 신호에 따라 렌즈 구동부(250)가 초점 모터(214)를 제어하여 최대의 포컬 값을 갖는 렌즈 스텝으로 렌즈(212)를 이동시킨다.
주 제어부(242)는 제 2 셔터 릴리즈 입력부를 통해 피사체 촬영 트리거 신호의 수신 여부를 모니터링한다(S500).
제 500 단계에서 피사체 촬영 트리거 신호가 수신되면, 렌즈(212)는 피사체의 광학상을 이미지 센서(220)에 결상시키고, 이미지 센서(220)는 결상된 광학상을 광전 변화하여 전기신호를 출력한다. 이 때, 영상처리기(230)는 이미지 센서(220)로부터 출력되는 전기신호를 신호처리하여, 촬영한 피사체의 영상에 대응하는 영상데이터를 생성한다(S600).
메모리(160)는 생성된 영상 데이터를 저장한다(S700).
본 명세서에서 설명되는 이동 단말기는 휴대폰 뿐만 아니라 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 항법 장치 등 문자 메시지를 송수신할 수 있는 모든 단말기가 될 수 있다.
본 발명은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.

Claims (18)

  1. 피사체의 촬영 모드를 입력받는 단계;
    상기 입력된 촬영 모드에 대응하는 오토포커스 설정을 판단하는 단계;
    상기 판단된 오토포커스 설정에 근거하여 렌즈와 상기 피사체의 거리에 따라 설정된 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계; 및
    상기 결정된 렌즈 스텝으로 상기 렌즈를 이동시키는 단계를 포함하는 것을 특징으로 하는 오토포커스 방법.
  2. 제 1항에 있어서, 상기 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계는,
    상기 렌즈 스텝들을 상기 판단된 오토포커스 설정에 대응하는 수의 영역들로 분할하는 단계;
    상기 분할된 영역들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 1 영역을 결정하는 단계; 및
    상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계를 포함하는 것을 특징으로 하는 오토포커스 방법.
  3. 제 2항에 있어서, 상기 제 1 영역을 결정하는 단계는,
    상기 분할된 영역들 각각에 포함된 적어도 하나의 렌즈 스텝에 대응하는 포컬 값들을 비교하는 단계; 및
    상기 비교 결과에 근거하여 상기 제 1 영역을 결정하는 단계를 포함하는 것을 특징으로 하는 오토포커스 방법.
  4. 제 2항에 있어서, 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계는,
    상기 판단된 오토포커스 설정에 대응하는 임계값을 확인하는 단계;
    상기 임계값에 근거하여 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 2 영역을 결정하는 단계; 및
    상기 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계를 포함하는 것을 특징으로 하는 오토포커스 방법.
  5. 제 4항에 있어서, 상기 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 단계는,
    상기 판단된 오토포커스 설정에 근거하여 글로벌 서치(Global Search), 트렌드 예측 접근법(Trend Predicition Approach), 규칙 기반 오토포커스(Rule Based AF), 트레이닝 기반 방법(Training-Based Method), 포컬 값 트레이닝 기반 오토포커스(Focal Value Training-Based AF) 및 블러 트레이닝 기반 방법(Blur Training Based Method) 중 어느 하나를 이용하여 최대의 포컬값을 갖는 렌즈 스텝을 결정하는 단계인 것을 특징으로 하는 오토포커스 방법.
  6. 제 4항에 있어서, 상기 임계값은,
    상기 제 2 영역에 포함된 렌즈 스텝들 및 상기 제 2 영역에 포함된 렌즈 스텝들에 대응하는 포컬 값들이 이차 함수(Quadratic Function)를 만족하도록 미리 설정된 값인 것을 특징으로 하는 오토포커스 방법.
  7. 제 4항에 있어서, 상기 임계값은,
    상수(constant)인 것을 특징으로 하는 오토포커스 방법.
  8. 제 4항에 있어서, 상기 임계값은,
    소정 각도 또는 기울기인 것을 특징으로 하는 오토포커스 방법.
  9. 제 1항에 있어서, 상기 오토포커스 설정을 판단하는 단계 이전에,
    오토포커스의 트리거 신호를 수신하는 단계를 더 포함하는 것을 특징으로 하는 오토포커스 방법.
  10. 피사체의 촬영 모드를 입력받는 입력부;
    상기 입력된 촬영 모드에 대응하는 오토포커스 설정을 판단하는 설정 제어부;
    상기 판단된 오토포커스 설정에 근거하여 렌즈와 피사체의 거리에 따라 설정된 렌즈 스텝들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 오토포커스 제어부; 및
    상기 결정된 렌즈 스텝으로 렌즈를 이동시키는 렌즈 제어부를 포함하는 것을 특징으로 하는 오토포커스 장치.
  11. 제 10항에 있어서, 상기 오토포커스 제어부는,
    상기 렌즈 스텝들을 상기 판단된 오토포커스 설정에 대응하는 수의 영역들로 분할하며, 상기 분할된 영역들 중에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 1 영역을 결정하고, 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 것을 특징으로 하는 오토 포커스 장치.
  12. 제 11항에 있어서, 상기 오토포커스 제어부는,
    상기 분할된 영역들 각각에 포함된 적어도 하나의 렌즈 스텝에 대응하는 포컬 값들을 비교하고, 상기 비교 결과에 근거하여 상기 제 1 영역을 결정하는 것을 특징으로 하는 오토포커스 장치.
  13. 제 11항에 있어서, 상기 오토포커스 제어부는,
    상기 판단된 오토포커스 설정에 대응하는 임계값을 확인하며, 상기 임계값에 근거하여 상기 제 1 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 포함하는 제 2 영역을 결정하고, 상기 제 2 영역에서 최대의 포컬 값을 갖는 렌즈 스텝을 결정하는 것을 특징으로 하는 오토포커스 장치.
  14. 제 13항에 있어서, 상기 오토포커스 제어부는,
    상기 판단된 오토포커스 설정에 근거하여 글로벌 서치(Global Search), 트렌드 예측 접근법(Trend Predicition Approach), 규칙 기반 오토포커스(Rule Based AF), 트레이닝 기반 방법(Training-Based Method), 포컬 값 트레이닝 기반 오토포커스(Focal Value Training-Based AF) 및 블러 트레이닝 기반 방법(Blur Training Based Method) 중 어느 하나를 이용하여 최대의 포컬값을 갖는 렌즈 스텝을 결정하는 것을 특징으로 하는 오토포커스 장치.
  15. 제 13항에 있어서, 상기 임계값은,
    상기 제 2 영역에 포함된 렌즈 스텝들 및 상기 제 2 영역에 포함된 렌즈 스텝들에 대응하는 포컬 값들이 이차 함수(Quadratic Function)를 만족하도록 미리 설정된 값인 것을 특징으로 하는 오토포커스 장치.
  16. 제 13항에 있어서, 상기 임계값은,
    상수(constant)인 것을 특징으로 하는 오토포커스 장치.
  17. 제 13항에 있어서, 상기 임계값은,
    소정 각도 또는 기울기인 것을 특징으로 하는 오토포커스 장치.
  18. 제 10항에 있어서, 상기 입력부는,
    오토포커스의 트리거 신호를 수신하는 것을 특징으로 하는 오토포커스 장치.
PCT/KR2010/004583 2010-07-14 2010-07-14 오토포커스 장치 및 그 방법 WO2012008630A1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2010/004583 WO2012008630A1 (ko) 2010-07-14 2010-07-14 오토포커스 장치 및 그 방법
US13/809,955 US9395512B2 (en) 2010-07-14 2010-07-14 Auto focus device and a method therefor
CN2010800680486A CN103098454A (zh) 2010-07-14 2010-07-14 自动聚焦设备及其方法
EP10854752.2A EP2582126A4 (en) 2010-07-14 2010-07-14 FOCUSING DEVICE AND METHOD THEREFOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2010/004583 WO2012008630A1 (ko) 2010-07-14 2010-07-14 오토포커스 장치 및 그 방법

Publications (1)

Publication Number Publication Date
WO2012008630A1 true WO2012008630A1 (ko) 2012-01-19

Family

ID=45469608

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/004583 WO2012008630A1 (ko) 2010-07-14 2010-07-14 오토포커스 장치 및 그 방법

Country Status (4)

Country Link
US (1) US9395512B2 (ko)
EP (1) EP2582126A4 (ko)
CN (1) CN103098454A (ko)
WO (1) WO2012008630A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2582126A4 (en) * 2010-07-14 2014-08-13 Lg Electronics Inc FOCUSING DEVICE AND METHOD THEREFOR
WO2013094784A1 (ko) * 2011-12-20 2013-06-27 (주)태극기전 디지털 광학장치용 자동 초점 제어방법
CN105262952A (zh) * 2015-10-23 2016-01-20 努比亚技术有限公司 一种移动终端及其处理图像的方法
CN106385534A (zh) * 2016-09-06 2017-02-08 努比亚技术有限公司 一种对焦方法及终端

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148249A (ja) * 2005-11-30 2007-06-14 Canon Inc 自動焦点調整装置
JP2009031702A (ja) * 2007-07-05 2009-02-12 Ricoh Co Ltd 撮像装置及び撮像方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337928B1 (en) 1996-08-26 2002-01-08 Canon Kabushiki Kaisha Image transmission apparatus and method therefor
US7110599B1 (en) 1999-03-05 2006-09-19 Seiko Epson Corporation Image data retouching apparatus, image data retouching method, and medium on which image data retouching program is recorded
JP3851027B2 (ja) * 1999-08-27 2006-11-29 株式会社リコー オートフォーカス装置およびカメラ
JP2004085964A (ja) * 2002-08-28 2004-03-18 Ricoh Co Ltd 自動合焦装置及びデジタルカメラ及び携帯情報入力装置
JP3944039B2 (ja) * 2002-09-13 2007-07-11 キヤノン株式会社 焦点調節装置及びプログラム
JP4125104B2 (ja) 2002-12-10 2008-07-30 キヤノン株式会社 自動合焦装置、プログラム、及びコンピュータ読み取り可能な記憶媒体
JP4360851B2 (ja) 2003-07-02 2009-11-11 株式会社リコー 画像入力装置
CN100385282C (zh) * 2005-01-21 2008-04-30 佳能株式会社 焦点位置检测装置和方法
JP4591325B2 (ja) 2005-01-28 2010-12-01 カシオ計算機株式会社 撮像装置及びプログラム
JP4816336B2 (ja) * 2006-02-07 2011-11-16 日本ビクター株式会社 撮像方法及び撮像装置
TWI309329B (en) * 2006-10-03 2009-05-01 Novatek Microelectronics Corp Focus system and method for camera
JP4974912B2 (ja) * 2008-01-22 2012-07-11 キヤノン株式会社 撮像装置
JP5564996B2 (ja) * 2009-07-23 2014-08-06 株式会社リコー 撮像装置及び撮像方法
JP2011248159A (ja) * 2010-05-28 2011-12-08 Sony Corp 撮像装置、撮像システム、撮像装置の制御方法およびプログラム
JP5621325B2 (ja) * 2010-05-28 2014-11-12 ソニー株式会社 焦点制御装置、焦点制御方法、レンズ装置、フォーカスレンズ駆動方法、および、プログラム
JP2012002951A (ja) * 2010-06-15 2012-01-05 Ricoh Co Ltd 撮像装置、合焦位置検出方法および合焦位置検出プログラム
EP2582126A4 (en) * 2010-07-14 2014-08-13 Lg Electronics Inc FOCUSING DEVICE AND METHOD THEREFOR

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007148249A (ja) * 2005-11-30 2007-06-14 Canon Inc 自動焦点調整装置
JP2009031702A (ja) * 2007-07-05 2009-02-12 Ricoh Co Ltd 撮像装置及び撮像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2582126A4 *

Also Published As

Publication number Publication date
CN103098454A (zh) 2013-05-08
EP2582126A1 (en) 2013-04-17
US20130114154A1 (en) 2013-05-09
US9395512B2 (en) 2016-07-19
EP2582126A4 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
US10659675B2 (en) Terminal, shooting method thereof and computer storage medium
WO2018159864A1 (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
WO2014107068A1 (en) Method for controlling camera operation based on haptic function and terminal supporting the same
WO2016032292A1 (en) Photographing method and electronic device
CN110557547B (zh) 镜头位置调整方法及装置
WO2013073766A1 (en) Zoom control method and apparatus, and digital photographing apparatus
WO2019143095A1 (ko) 복수의 카메라를 이용하여 영상 데이터를 생성하는 방법 및 서버
US20150346585A1 (en) Imaging apparatus and focusing control method
WO2017095034A2 (en) Watch-type mobile terminal and controlling method thereof
CN110266957B (zh) 影像拍摄方法及移动终端
CN111885307B (zh) 一种景深拍摄方法、设备及计算机可读存储介质
CN110213484B (zh) 一种拍照方法、终端设备及计算机可读存储介质
WO2018093002A1 (ko) 이동 단말기 및 그 제어 방법
CN111031248A (zh) 一种拍摄方法及电子设备
CN111756989A (zh) 控制镜头对焦的方法及装置
WO2012008630A1 (ko) 오토포커스 장치 및 그 방법
CN111294511B (zh) 相机模组的对焦方法及装置、存储介质
CN110881105B (zh) 一种拍摄方法及电子设备
WO2018030622A1 (en) Mobile terminal and operating method thereof
CN110620871B (zh) 视频拍摄方法及电子设备
WO2014017733A1 (en) Digital photographing apparatus and method of controlling same
CN113689362B (zh) 图像处理方法及装置、电子设备和存储介质
WO2021235747A1 (ko) 카메라 및 마이크를 포함하는 전자 장치 및 그 운용 방법
WO2021096219A1 (ko) 카메라를 포함하는 전자 장치 및 그의 방법
US11792518B2 (en) Method and apparatus for processing image

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080068048.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10854752

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2010854752

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010854752

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13809955

Country of ref document: US