WO2010131433A1 - カメラ、携帯端末装置及びレンズの位置制御方法 - Google Patents

カメラ、携帯端末装置及びレンズの位置制御方法 Download PDF

Info

Publication number
WO2010131433A1
WO2010131433A1 PCT/JP2010/003096 JP2010003096W WO2010131433A1 WO 2010131433 A1 WO2010131433 A1 WO 2010131433A1 JP 2010003096 W JP2010003096 W JP 2010003096W WO 2010131433 A1 WO2010131433 A1 WO 2010131433A1
Authority
WO
WIPO (PCT)
Prior art keywords
lens
camera
unit
control unit
reference position
Prior art date
Application number
PCT/JP2010/003096
Other languages
English (en)
French (fr)
Inventor
桂島研
村上敏裕
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/319,284 priority Critical patent/US20120105709A1/en
Priority to EP10774693A priority patent/EP2431780A1/en
Publication of WO2010131433A1 publication Critical patent/WO2010131433A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals

Definitions

  • the present invention relates to a camera such as a camera-equipped mobile phone, a mobile terminal device, and a lens position control method.
  • AF auto-focus
  • AF methods are roughly divided into active methods and passive methods.
  • the active method is a method in which an object is irradiated with infrared rays, ultrasonic waves or the like, and the distance is detected based on the time until the reflected wave returns and the irradiation angle.
  • the passive method is a method in which the lens is moved by evaluating the focus state from the image, and mainly the component indicating the contrast state (sharpness) of the object is used as the evaluation value (AF evaluation value) to maximize the contrast. Control the lens position to be
  • a passive method having a simple configuration is used for a camera mounted on a mobile phone with a camera.
  • Patent Document 1 discloses a technique of confirming image information after moving a lens, and moving the lens again if focusing is incomplete.
  • distance information of the subject is used, and this distance information can be obtained based on the lens position (focus position).
  • a detection unit for example, a Hall element or the like
  • a Hall element for example, a Hall element or the like
  • the position (focus position) of the lens is estimated based on information (control amount, control result) indicating how much the lens is moved by AF control, and distance information of the subject is determined based on the estimation result.
  • the lens 10 is movable between an infinite ( ⁇ ) mechanical end point and a macro side mechanical end point.
  • an infinite ( ⁇ ) side optical end point and a macro side optical end point which are adjustment points of the lens 10 are set.
  • These optical end points are not physical ends such as mechanical end points, but are infinite end points and macro end points of AF that are preset based on the focus position of the AF.
  • the lens 10 is movable between the infinite mechanical end point and the macro mechanical end point, but in the vicinity of the infinite mechanical end point and in the vicinity of the macro mechanical end point.
  • the focus is often out of focus. Therefore, at the time of AF control, generally, the lens 10 is moved between the infinite side optical end point and the macro side optical end point, which is a range in which the subject is in focus.
  • an error may occur between the actual lens position and the lens estimated position estimated based on the control amount in the AF control unit (which may be reworded as control information or control result) There is sex.
  • the focus position is adjusted as needed (hereinafter referred to as continuous AF) by continuously performing the AF operation, an error is accumulated as the number of AF operations increases, so as shown in FIG. 1B, as shown in FIG.
  • An error between the lens position and the lens estimated position estimated based on the control amount in the AF control unit is increased, and as a result, there is a problem that the estimation accuracy of the lens position is reduced.
  • An object of the present invention is to improve the accuracy of lens position estimation and to improve the accuracy of automatic scene determination, in the case of estimating the lens position based on the control result in AF control, and the position control of the camera, portable terminal and lens It is to provide a method.
  • an autofocus control unit and a lens position estimation unit that estimates the position of the lens based on the control result of the autofocus control unit; And a lens drive unit configured to move the position of the lens to a reference position when the threshold value is exceeded.
  • the present invention it is possible to improve the scene determination accuracy in the scene determination of the camera and the camera-equipped mobile terminal device.
  • FIG. 1A is a diagram showing both the lens movable range and the error of the lens estimated position
  • FIG. 1B is a diagram showing that the error increases after the number of continuous AF operations increases.
  • Block diagram showing the configuration of the camera of Embodiment 1 Flow chart for explaining the operation of the first embodiment
  • Block diagram showing configuration of camera of Embodiment 2 A diagram showing the camera and posture detection unit mounted on a mobile phone
  • FIG. 7A shows the standard posture
  • FIG. 7B shows the downward posture
  • FIG. 7C shows the upward posture.
  • FIG. 2 shows the main configuration of a camera according to an embodiment of the present invention.
  • the camera 100 is provided, for example, in a portable terminal device such as a portable telephone, a personal handy-phone system (PHS), a personal digital assistant (PDA), a portable game machine or the like.
  • a portable terminal device such as a portable telephone, a personal handy-phone system (PHS), a personal digital assistant (PDA), a portable game machine or the like.
  • PHS personal handy-phone system
  • PDA personal digital assistant
  • the camera 100 has an AF function and an automatic scene determination function.
  • the camera 100 is also configured to perform AF using a passive method.
  • the camera 100 includes a lens 101, an imaging device 102, an ADC (Analogue Digital Converter) 103, an image signal processing unit 104, a buffer memory 105, a control unit 110, a display unit 106, an operation unit 107, and an LED 108. And an AF driver 109.
  • ADC Analogue Digital Converter
  • the lens 101 condenses imaging light on an imaging device 102 such as a CCD.
  • the lens 101 is moved by the AF driver 109 in the direction of the optical axis of the lens 101 indicated by a dashed dotted line in the drawing. Thereby, the focus of the imaging light is adjusted to the imaging surface of the imaging element 102.
  • the AF driver 109 is composed of a device such as a piezo, voice coil, stepping motor, etc., and according to an instruction from the control unit 110, as shown in FIG. 1A, the lens 101 has an infinite mechanical end point and a macro mechanical end point.
  • the imaging light is brought into focus on the imaging surface of the imaging element 102 by moving between (at the time of AF control and between the infinity side optical end point and the macro side optical end point).
  • the image signal output from the imaging element 102 is input to the image signal processing unit 104 and the buffer memory 105 via the ADC 103.
  • the image signal processing unit 104 performs image processing such as white balance control on the output signal of the ADC 103 or the image signal stored in the buffer memory 105, and outputs a signal after image processing to the control unit 110.
  • the control unit 110 is configured by a microcomputer or the like, and controls the entire camera 100 and performs position control of the lens 101. Further, the control unit 110 is connected to the display unit 106 including an LCD or the like and the operation unit 107.
  • the control unit 110 includes a scene determination unit 111, a person determination unit 112, an AE (Auto Exposure) control unit 113, an AF control unit 114, an LED control unit 115, and a counter 116.
  • AE Auto Exposure
  • the person determination unit 112 determines the presence or absence of a person.
  • the AE control unit 113 detects subject brightness information, and performs AE control according to the subject brightness.
  • the person determination and the AE control are known techniques, so detailed description will be omitted.
  • the AF control unit 114 realizes AF control by transmitting a control signal to the AF driver 109. Specifically, the AF control unit 114 moves the lens 101 using the AF driver 109 so that the contrast of the image signal from the image signal processing unit 104 is maximized. Further, the AF control unit 114 estimates the position (focus position) of the lens 101 based on the control amount (which may be restated as a control result). It is possible to obtain subject distance information indicating the distance to the subject based on the estimated position of the lens 101.
  • the lens 101 is accurately moved by the AF driver 109 by an amount according to the control amount from the AF control unit 114, the actual position of the lens 101 matches the position of the lens 101 estimated. It should. However, if an error occurs between the control amount from the AF control unit 114 and the actual movement amount due to an error such as the movement accuracy of the lens 101, the position of the lens 101 estimated based on the control amount Is shifted from the actual position of the lens 101. In this embodiment, since the AF control using the continuous AF method is performed, as shown in FIG. 1B, the position of the lens 101 estimated based on the control amount as the number of AF operations increases, An error with the actual position of the lens 101 is accumulated, and the error becomes large.
  • the estimation of the lens position based on the control amount in the AF control unit 114 is not limited to the case performed by the AF control unit 114, and may be performed by, for example, the scene determination unit 111.
  • the LED control unit 115 forms LED flash control information based on the subject brightness information from the AE control unit 113, and controls the LED 108 based on the LED flash control information.
  • the scene determination unit 111 includes the person information obtained from the person determination unit 112, the subject brightness information obtained from the AE control unit 113, the subject distance information obtained from the AF control unit 114 or the like, and the LED control unit 115. Based on the obtained LED flash control information, it is determined which of the “person scene mode”, the “macro scene mode”, and the “landscape scene mode” the current shooting scene is.
  • the scene determination unit 111 outputs scene information, which is the determination result, to the display unit 106 together with the image information, and causes the display unit 106 to display them.
  • the counter 116 counts the number of times of AF operation, which is the number of times of performing the AF control, the number of captured image frames, or the time since the start of the continuous AF operation.
  • the counter 116 notifies the AF driver 109 of this when the number of AF operations, the number of captured image frames, or the time exceeds a predetermined threshold. Then, upon receiving this notification, the AF driver 109 moves the position of the lens 101 to the reference position. Thereby, the position of the lens 101 is reset to the reference position.
  • This reference position is the mechanical end point shown in FIG.
  • the reference position may be the optical end point shown in FIG.
  • the counter 116 estimates the position of the lens 101 when the number of AF operations, the number of captured image frames, or the time exceeds a predetermined threshold (the AF control unit 114 of the present embodiment). Notify on). Then, after the circuit that estimates the position of the lens 101 once resets the estimated position of the lens 101, it estimates the position of the lens 101 by sequentially using the new control amount output from the AF control unit 114 again. .
  • the lens estimation is performed while resetting the position of the lens 101 to the reference position. Since the position is reset and then the new control amount output from the AF control unit 114 is sequentially used to estimate the position of the lens 101, the accumulated error of the lens estimation position can be reduced. As a result, since the estimation accuracy of the lens position is improved, the accuracy of the automatic scene determination is improved.
  • FIG. 3 mainly shows an operation of moving the lens 101 to the reference position when a predetermined condition is satisfied during the continuous AF operation, which is a feature of the present embodiment.
  • step ST10 When the process is started in step ST10 (ie, when the camera 100 is activated), the camera 100 starts the continuous AF operation in the subsequent step ST11.
  • step ST11 automatic scene determination and object position estimation (lens position estimation) operations are started.
  • step ST12 the counter 116 starts counting the number of captured image frames.
  • step ST13 it is determined whether the number of captured image frames counted by the counter 116 is equal to or more than a predetermined value.
  • the process moves to step ST14, and the AF driver 109 moves the lens 101 to the reference position.
  • the movement operation to this reference position may be the same as the operation performed at the time of general one-shot AF operation, or the AF may be operated by the maximum amount that the lens can be physically driven.
  • the camera 100 resets the lens estimation position calculated up to that point. Thereby, the accumulated error of the lens estimated position is cleared.
  • step ST15 the number of captured image frames in the counter 116 is initialized (reset), and in the subsequent step ST16, the process ends.
  • the camera 100 resets the position of the lens 101 and the estimated position of the lens 101 when the number of captured image frames after the start of the continuous AF operation becomes equal to or more than a predetermined value.
  • FIG. 4 shows an image of the error of the lens estimated position.
  • the example of FIG. 4 shows an example in which the position of the lens 101 is moved to the reference position when the number of captured image frames after the continuous AF operation exceeds 100. From the figure, as the number of captured image frames after the continuous AF operation increases, the error which is the difference between the estimated position and the actual position increases, but the accumulated error is increased by returning the lens 101 to the reference position. It is understood that it is cleared to 0.
  • the camera 100 When the camera 100 starts the continuous AF operation again, it sequentially moves the lens 101 from the reference position to perform the continuous AF operation, and accordingly, the reference position based on the control amount of the AF control unit 114.
  • the estimated position of the lens 101 is sequentially calculated.
  • the captured image frames after the start of the continuous AF operation are counted, and the position of the lens 101 and the estimated position of the lens 101 when the counted number of captured image frames becomes a predetermined value or more.
  • the estimated position of the lens 101 may be reset.
  • the position of the lens 101 is set to the reference position.
  • the accumulated error of the lens estimated position estimated based on the control amount of the AF control unit 114 is reset, so that the lens position estimation accuracy can be improved.
  • the accuracy of automatic scene determination can be improved.
  • the present embodiment has described the case where the number of AF operations, the number of captured image frames, or the time after the start of the continuous AF operation exceeds the threshold, the present invention is not limited thereto.
  • the position of the lens 101 may be reset to the reference position when the number of AF operations, the number of captured image frames, or the time from the time when estimation of the separation position is started becomes equal to or more than a threshold.
  • FIG. 5 shows the main configuration of the camera 200 of the present embodiment.
  • the camera 200 according to the present embodiment has a counter 116 based on the posture detection unit 201 that detects the posture of the camera 200 and the posture information obtained by the posture detection unit 201 in addition to the configuration of the camera 100 (FIG. 1). And a correction calculation unit 211 that corrects the count value of
  • the camera 200 of the present embodiment corrects the number of AF operations, the number of captured image frames, or the count value of time based on the posture information.
  • the posture detection unit 201 may also be mounted on the mobile telephone.
  • the posture detection unit 201 is, for example, an acceleration sensor, detects a gravity difference that changes according to a change in the posture of the camera 200 (mobile phone), and detects the posture of the camera 200 based on the gravity difference.
  • the posture detection unit 201 detects a plurality of postures such as a standard posture (FIG. 7A), a downward posture (FIG. 7B) or an upward posture (FIG. 7C). Then, the correction calculation unit 211 corrects the count value using a correction coefficient set in advance for each posture.
  • a standard posture FIG. 7A
  • a downward posture FIG. 7B
  • an upward posture FIG. 7C
  • the correction coefficient in the standard posture is set to 1.0
  • the correction coefficient in the downward posture is set to 1.05
  • the correction coefficient in the upward posture is set to 1.10.
  • the corrected count value when the count value of the counter 116 is 10 is 10 in the standard posture, 10.5 in the downward posture, and 11 in the upward posture.
  • the lens 101 is reset to the reference position earlier as the posture is more affected. Can be controlled.
  • step ST20 When the process is started in step ST20 (ie, when the camera 200 is activated), the camera 200 starts the continuous AF operation in the subsequent step ST21. In the subsequent step ST22, the counter 116 starts counting the number of captured image frames.
  • step ST23 the attitude of the camera 200 (mobile phone) is detected by the attitude detection unit 201. Then, if the detected posture is the standard posture, the correction calculation unit 211 reads the correction coefficient A in step ST24-1, and the number of captured image frames counted by the counter 116 in step ST25 is the correction coefficient A. Use to correct. If the detected posture is the downward posture, the correction calculation unit 211 reads the correction coefficient B in step ST24-2, and the number of captured image frames counted by the counter 116 in step ST25 is the correction coefficient B. Use to correct. If the detected posture is the upward posture, the correction calculation unit 211 reads the correction coefficient C in step ST24-3, and the number of captured image frames counted by the counter 116 in step ST25 is the correction coefficient C. Use to correct.
  • steps ST23-ST24-ST25 may be performed while switching the correction coefficient as needed when the posture change is detected during counting of the number of captured image frames.
  • step ST26 it is determined whether the number of captured image frames after correction is a predetermined number or more. Then, when the number of captured image frames becomes a predetermined number or more, the process moves to step ST27, and the AF driver 109 moves the lens 101 to the reference position. In addition, the camera 200 resets the lens estimation position calculated up to that time. Thereby, the accumulated error of the lens estimated position is cleared.
  • step ST28 the number of captured image frames in the counter 116 is initialized (reset), and in the subsequent step ST29, the process ends.
  • the camera 200 corrects the count value of the number of captured image frames after the start of the continuous AF operation according to the posture, and when the count value after the correction becomes a predetermined value or more, the lens 101 And the estimated position of the lens 101.
  • the count value of the captured image frame after the start of the continuous AF operation is corrected according to the posture, but of course, instead of the number of captured image frames, the continuous AF is performed.
  • the number of AF operations or time after the start of the operation may be corrected according to the posture.
  • the number of AF operations, the number of captured image frames, or the time after the start of the continuous AF operation depends on the posture of the camera 200. Since the correction is performed, in addition to the effects of the first embodiment, the lens 101 can be reset to the reference position as soon as the posture in which the lens estimation position is likely to cause an error can be suppressed.
  • FIG. 9 shows the main configuration of the camera 300 according to the present embodiment.
  • the camera 300 of the present embodiment includes a camera shake detection unit 301 and a motion detection unit 311.
  • the camera shake detection unit 301 is formed of, for example, an acceleration sensor, and detects camera shake of the mobile terminal device in which the camera 300 is mounted.
  • the motion detection unit 311 detects subject shake based on the captured image.
  • the movement of the lens 101 to the reference position is awaited until the object shake due to the camera 311 is detected, and the lens 101 is moved to the reference position using camera shake or object shake as a trigger.
  • the captured image becomes unsightly due to the movement of the lens 101 to the reference position. That is, when the lens 101 is immediately moved to the reference position when the number of AF operations, the number of captured image frames, or the time reaches a certain value or more, the AF operation can be seen in the captured image every predetermined period. May be unsightly.
  • the lens 101 when the captured image is blurred, the lens 101 is moved to the reference position by taking advantage of the fact that the AF operation hardly appears in the captured image. As a result, it is possible to prevent the unsightliness of the captured image when moving the lens 101 to the reference position.
  • step ST30 When the process is started in step ST30 (ie, when the camera 300 is activated), the camera 300 starts the continuous AF operation in the subsequent step ST31.
  • the counter 116 starts counting the number of captured image frames.
  • step ST33 it is determined whether the number of captured image frames counted by the counter 116 is equal to or greater than a predetermined value. When the number of captured image frames becomes equal to or more than a predetermined value, the process proceeds to step ST34.
  • step ST34 the process waits until camera shake detected by the camera shake detection unit 301 or camera shake detected by the motion detection unit 311. If camera shake or camera shake is detected, the process proceeds to step ST35.
  • step ST35 the AF driver 109 moves the lens 101 to the reference position. Also, in response to this, the camera 300 resets the lens estimated position calculated so far. Thereby, the accumulated error of the lens estimated position is cleared.
  • step ST36 the number of captured image frames in the counter 116 is initialized (reset), and in the subsequent step ST37, the process ends.
  • the camera 300 waits for the movement of the lens 101 to the reference position until camera shake or subject shake is detected, and when camera shake or subject shake is detected, the position of the lens 101 and the lens 101 are estimated. Reset the position.
  • the movement of the lens 101 to the reference position is on standby until camera shake or subject shake is detected, and camera shake or subject shake is detected.
  • the unsightliness of the captured image caused by moving the lens 101 to the reference position is prevented by resetting the position of the lens 101 and the estimated position of the lens 101 when being corrected. Can.
  • the case where the camera shake detection unit 301 and the motion detection unit 311 are provided has been described. However, only one of the camera shake detection unit 301 or the motion detection unit 311 is provided, and either camera shake or subject blurring is provided.
  • the lens 101 may be moved to the reference position using only one as a trigger.
  • the camera, the portable terminal device, and the lens position control method according to the present invention are useful for a camera such as a camera-equipped mobile phone. Moreover, it is also possible to incorporate in various electronic devices other than a portable terminal as a position control method of a lens.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

 AF制御での制御結果に基づいてレンズ位置を推測する場合において、レンズ位置の推測精度を向上させる。本発明のカメラは、コンティニュアスAF動作開始後の、AF動作回数、撮像画像フレーム数、または時間が閾値以上になった場合に、レンズの位置を基準位置にリセットする(ステップST14)。これにより、AF制御部の制御量に基づいて推測されるレンズ推測位置の累積誤差がリセットされるので、レンズ位置の推測精度を向上させることができる。

Description

カメラ、携帯端末装置及びレンズの位置制御方法
 本発明は、カメラ付き携帯電話機などのカメラ、携帯端末装置及びレンズの位置制御方法に関する。
 携帯電話には多彩なマルチメディア機能が搭載されるようになり、通話のみに留まらず静止画撮影、動画撮影等を行ったり、TV電話として用いられるカメラ付き携帯電話機が知られている。携帯電話機に搭載されるカメラに搭載されるオートフォーカス(以下、AFという)には、カメラ自体の小型化に伴い、小型化及び低コストが求められる。
 一般的にAFの方式は、大きく、アクティブ方式とパッシブ方式とに分けられる。アクティブ方式は、被写体に赤外線・超音波などを照射し、その反射波が戻るまでの時間や照射角度により距離を検出する方式である。パッシブ方式は、画像からフォーカス状態を評価してレンズを移動させる方式であり、主に、被写体におけるコントラスト状態(鮮鋭度)を示す成分を評価値(AF評価値)として用いて、コントラストが最大になるようにレンズ位置を制御する。
 ここで、アクティブ方式においては、一般に構成が複雑になるため、カメラ付き携帯電話機に搭載されるカメラには、構成が簡易な構成のパッシブ方式が用いられることが殆どである。
 ところで、この種のカメラでは、レンズの位置を移動させることにより、AFを実現している。従って、レンズを正確に位置決めすることが、AFの性能を向上させる点で重要である。従来、レンズの位置ずれを補正する技術として、例えば特許文献1に記載されたものがある。特許文献1では、レンズを移動させた後に、画像情報を確認し、合焦が不完全であればレンズを再度移動させる技術が開示されている。
 また、近年、自動シーン判定機能を搭載したカメラが提案されている。自動シーン判定機能とは、被写体にレンズを向けるだけで、「人物シーンモード」、「マクロシーンモード」、「風景シーンモード」等のシーンモードの中から、カメラが最適なシーンモード選択して、シーンモードを自動で設定する機能である。これにより、ユーザが撮影環境に合わせて細かくシーンモードを設定する必要がなくなるので、撮影が簡単になる。
 ここで、自動シーン判定機能を実現するためには、一般に、被写体の距離情報が使われ、この距離情報は、レンズ位置(フォーカス位置)に基づいて求めることができる。
 しかしながら、カメラ付き携帯電話機のカメラのように小型化が求められるカメラの場合には、小型化を実現するために、レンズ位置を直接検出する検出部(例えばホール素子等)は搭載することができない場合がある。
 この場合、AF制御によりどれだけレンズを移動させたかを示す情報(制御量、制御結果)に基づいて、レンズの位置(フォーカス位置)を推測し、この推測結果に基づいて被写体の距離情報を求める必要がある。
特開2007-271983号公報
 しかしながら、上述したようにレンズ位置を推測した場合、推測誤差が蓄積し、その結果、自動シーン判定の精度が低下するという課題がある。
 図1を用いて、レンズ推測位置の誤差について簡単に説明する。図1Aにおいて、レンズ10は、無限(∞)側機械的端点とマクロ側機械的端点との間で移動可能とされている。なお、この無限(∞)側機械的端点とマクロ側機械的端点とは別に、レンズ10の調整ポイントである無限(∞)側光学端点とマクロ側光学端点が設定されている。これら光学端点は、機械的端点のような物理的な端ではなく、AFのピント位置を元にあらかじめ設定されるAFの無限側端点及びマクロ側端点である。
 上述したように、レンズ10は、無限側機械的端点とマクロ側機械的端点との間で移動可能とされているが、無限側機械的端点の近傍、及び、マクロ側機械的端点の近傍では、ピントが合わないデフォーカスになることが多い。そのため、AF制御時には、ピントが合う範囲である、無限側光学端点とマクロ側光学端点との間で、レンズ10を移動させることが一般に行われる。
 図1Aに示すように、実際のレンズ位置と、AF制御部での制御量(制御情報又は制御結果と言い換えてもよい)に基づいて推測されるレンズ推測位置との間に、誤差が生じる可能性がある。特に、連続的にAF動作を行うことで、フォーカス位置を随時合わせる場合(以下、コンティニュアスAFとする)、AF動作回数が増加すると誤差が蓄積するので、図1Bに示すように、実際のレンズ位置と、AF制御部での制御量に基づいて推測されるレンズ推測位置との間の誤差は増大し、この結果、レンズ位置の推測精度が低下するという問題があった。
 本発明の目的は、AF制御での制御結果に基づいてレンズ位置を推測する場合において、レンズ位置の推測精度を向上し、自動シーン判定の精度を向上したカメラ、携帯端末装置及びレンズの位置制御方法を提供することである。
 本発明のカメラの一つの態様は、オートフォーカス制御部と、前記オートフォーカス制御部の制御結果に基づいて、レンズの位置を推測するレンズ位置推測部と、オートフォーカス回数、時間又は撮影フレーム数が閾値以上となった場合、前記レンズの位置を基準位置に移動するレンズ駆動部と、を具備する構成を採る。
 本発明によれば、カメラ及びカメラ付携帯端末装置のシーン判定におけるシーン判定精度を向上させることができる。
図1Aはレンズ移動可能範囲とレンズ推測位置の誤差との両方を示す図、図1BはコンティニュアスAF動作回数増加後に誤差が増加した様子を示す図 実施の形態1のカメラの構成を示すブロック図 実施の形態1の動作の説明に供するフローチャート レンズ推測位置の誤差のイメージを示す図 実施の形態2のカメラの構成を示すブロック図 携帯電話機に搭載された、カメラと姿勢検出部の様子を示す図 図7Aは標準姿勢を示す図、図7Bは下向き姿勢を示す図、図7Cは上向き姿勢を示す図 実施の形態2の動作の説明に供するフローチャート 実施の形態3のカメラの構成を示すブロック図 実施の形態3の動作の説明に供するフローチャート
 以下、本発明の実施の形態について、図面を参照して詳細に説明する。
 [実施の形態1]
 図2に、本発明の一実施の形態に係るカメラの要部構成を示す。カメラ100は、例えば、携帯電話機、PHS(Personal Handy-Phone System)、PDA(Personal Digital Assistants:携帯情報端末)、携帯ゲーム機等の携帯端末装置に設けられる。
 カメラ100は、AF機能と、自動シーン判定機能とを有する。また、カメラ100は、パッシブ方式を用いて、AFを行うようになっている。
 カメラ100は、レンズ101と、撮像素子102と、ADC(Analogue Digital Converter)103と、画像信号処理部104と、バッファメモリ105と、制御部110と、表示部106と、操作部107と、LED108と、AFドライバ109とを有する。
 レンズ101は、撮像光をCCDなどの撮像素子102に集光する。ここで、レンズ101は、AFドライバ109によって、図中の一点鎖線で示すレンズ101の光軸方向に移動される。これにより、撮像光の焦点が撮像素子102の撮像面に合わせられる。
 AFドライバ109は、ピエゾ、ボイスコイル、ステッピングモータなどのデバイスからなり、制御部110からの指示によって、図1Aに示したように、レンズ101を無限側機械的端点とマクロ側機械的端点との間(AF制御時には無限側光学端点とマクロ側光学端点との間)で移動させることにより、撮像光を撮像素子102の撮像面に合焦させる。
 撮像素子102から出力された画像信号は、ADC103を介して画像信号処理部104及びバッファメモリ105に入力される。
 画像信号処理部104は、ADC103の出力信号又はバッファメモリ105に蓄積された画像信号に対してホワイトバランス制御などの画像処理を施し、画像処理後の信号を制御部110に出力する。
 制御部110は、マイクロコンピュータ等から構成され、カメラ100全体の制御を行うとともに、レンズ101の位置制御を行う。また、制御部110は、LCD等からなる表示部106及び操作部107に接続されている。
 制御部110は、シーン判定部111と、人物判定部112と、AE(Auto Exposure)制御部113と、AF制御部114と、LED制御部115と、カウンタ116とを有する。
 人物判定部112は、人物の有無等を判定する。AE制御部113は、被写体輝度情報を検出し、被写体輝度に応じてAE制御を行う。なお、人物判定及びAE制御は、既知の技術なので詳しい説明は省略する。
 AF制御部114は、AFドライバ109に制御信号を送出することで、AF制御を実現する。具体的には、AF制御部114は、画像信号処理部104からの画像信号のコントラストが最大となるように、AFドライバ109を使ってレンズ101を移動させる。また、AF制御部114は、制御量(制御結果と言い換えてもよい)に基づいてレンズ101の位置(フォーカス位置)を推測する。なお、この推測されるレンズ101の位置に基づき、被写体までの距離を示す被写体距離情報を得ることができる。
 ここで、レンズ101が、AF制御部114からの制御量に応じた量だけ、AFドライバ109によって正確に移動されれば、実際のレンズ101の位置と、推測されたレンズ101との位置は一致するはずである。しかし、レンズ101の移動精度等の誤差が原因となって、AF制御部114からの制御量と実際の移動量との間に誤差が生じると、制御量に基づいて推測されるレンズ101の位置は、実際のレンズ101の位置とずれてしまう。本実施の形態では、コンティニュアスAF方式を用いたAF制御を行うので、図1Bに示したように、AF動作回数が増加するに従って、制御量に基づいて推測されるレンズ101の位置と、実際のレンズ101の位置との誤差が蓄積されて、誤差が大きくなる。
 なお、AF制御部114での制御量に基づくレンズ位置の推測は、AF制御部114で行う場合に限らず、例えばシーン判定部111で行ってもよい。
 LED制御部115は、AE制御部113からの被写体輝度情報に基づいてLEDフラッシュ制御情報を形成し、このLEDフラッシュ制御情報によってLED108を制御する。
 シーン判定部111は、人物判定部112より得られた人物情報と、AE制御部113より得られた被写体輝度情報と、AF制御部114等より得られた被写体距離情報と、LED制御部115により得られたLEDフラッシュ制御情報と、に基づいて、現在の撮影シーンが、例えば「人物シーンモード」、「マクロシーンモード」又は「風景シーンモード」のうちのどれであるかを判定する。シーン判定部111は、判定結果であるシーン情報を画像情報と共に表示部106に出力し、これらを表示させる。
 カウンタ116は、コンティニュアスAF動作を開始してからの、AF制御を行った回数であるAF動作回数、撮像画像フレーム数、または時間をカウントする。
 カウンタ116は、AF動作回数、撮像画像フレーム数、または時間が所定の閾値以上になった場合に、このことをAFドライバ109に通知する。そして、AFドライバ109は、この通知を受けると、レンズ101の位置を基準位置に移動させる。これにより、レンズ101の位置が基準位置にリセットされる。
 この基準位置とは、図1に示した機械的端点である。また基準位置は、図1に示した光学端点であってもよい。但し、基準位置は、物理的な基準となる位置なので、機械的接点を基準位置にすることが好ましい。
 また、カウンタ116は、上記AF動作回数、撮像画像フレーム数、または時間が所定の閾値以上になった場合に、このことをレンズ101の位置を推測する回路(本実施の形態のAF制御部114)に通知する。すると、レンズ101の位置を推測する回路は、一旦、レンズ101の推測位置をリセットした後に、再びAF制御部114から出力される新たな制御量を順次用いてレンズ101の位置を推測していく。
 このように、コンティニュアスAF動作開始後の、AF動作回数、撮像画像フレーム数、または時間が所定の閾値以上になった場合に、レンズ101の位置を基準位置にリセットすると共に算出したレンズ推測位置をリセットし、その後に、新たにAF制御部114から出力される新たな制御量を順次用いてレンズ101の位置を推測したことにより、レンズ推測位置の累積誤差を低減できる。この結果、レンズ位置の推測精度が向上するので、自動シーン判定の精度が向上する。
 次に、図3を用いて、本実施の形態の動作を説明する。なお、図3は、本実施の形態の特徴である、コンティニュアスAF動作中、所定の条件になったときに、レンズ101を基準位置に移動させる動作を中心に示したものである。
 カメラ100は、ステップST10で処理を開始すると(すなわちカメラ100が起動されると)、続くステップST11でコンティニュアスAF動作を開始する。このコンティニュアスAF動作の開始に伴って、自動シーン判定及び被写体位置推測(レンズ位置推測)動作が開始される。
 続くステップST12では、カウンタ116によって撮像画像フレーム数のカウントが開始される。ステップST13では、カウンタ116によってカウントされた撮像画像フレーム数が一定以上か否か判断する。
 そして、撮像画像フレーム数が一定以上となると、ステップST14に移って、AFドライバ109がレンズ101を基準位置に移動させる。この基準位置への移動動作は、一般的なワンショットAF動作時に行われる動作と同様でもいいし、レンズが物理的に駆動できる最大量分AFを動作させることでもよい。また、カメラ100は、これに伴って、それまで計算されたレンズ推測位置をリセットする。これにより、レンズ推測位置の累積誤差がクリアされる。
 次に、ステップST15において、カウンタ116の撮像画像フレーム数が初期化(リセット)され、続くステップST16で処理を終了する。このように、カメラ100は、コンティニュアスAF動作開始後の撮像画像フレーム数が一定値以上となった場合に、レンズ101の位置及びレンズ101の推測位置をリセットする。
 図4に、レンズ推測位置の誤差のイメージを示す。図4の例は、コンティニュアスAF動作後の撮像画像フレーム数が100を超えた場合に、レンズ101の位置を基準位置に移動させた例を示すものである。図から、コンティニュアスAF動作後の撮像画像フレーム数が増えるに従って、推測位置と実際の位置との差である誤差が増加していくが、レンズ101を基準位置に戻すことにより、累積誤差が0にクリアされることが分かる。
 カメラ100は、再びコンティニュアスAF動作を開始すると、基準位置からレンズ101を順次移動させてコンティニュアスAF動作を行うと共に、これに伴って、AF制御部114の制御量に基づいて基準位置からのレンズ101の推測位置を順次算出する。
 なお、図3の例では、コンティニュアスAF動作を開始後の撮像画像フレームをカウントし、カウントした撮像画像フレーム数が一定値以上となった場合に、レンズ101の位置及びレンズ101の推測位置をリセットした例について説明したが、上述したように、撮像画像フレーム数に換えて、コンティニュアス動作開始後の、AF動作回数または時間が一定値以上となった場合に、レンズ101の位置及びレンズ101の推測位置をリセットしてもよい。
 以上説明したように、本実施の形態によれば、コンティニュアスAF動作開始後の、AF動作回数、撮像画像フレーム数、または時間が閾値以上になった場合に、レンズ101の位置を基準位置にリセットしたことにより、AF制御部114の制御量に基づいて推測されるレンズ推測位置の累積誤差がリセットされるので、レンズ位置の推測精度を向上させることができる。この結果、自動シーン判定の精度を向上させることができる。
 なお、本実施の形態では、コンティニュアスAF動作開始後の、AF動作回数、撮像画像フレーム数、または時間が閾値以上になった場合について説明したが、これに限らず、たとえば、基準点から離れ位置の推測を開始した時点からの、AF動作回数、撮像画像フレーム数、または時間が閾値以上になった場合にレンズ101の位置を基準位置にリセットしてもよい。
 [実施の形態2]
 図2との対応部分に同一符号を付して示す図5に、本実施の形態のカメラ200の要部構成を示す。本実施の形態のカメラ200は、カメラ100(図1)の構成に加えて、カメラ200の姿勢を検出する姿勢検出部201と、姿勢検出部201により得られた姿勢情報に基づいて、カウンタ116のカウント値を補正する補正計算部211とを有する。
 本実施の形態のカメラ200は、AF動作回数、撮像画像フレーム数、または時間のカウント値を、姿勢情報を基に補正する。
 図6に示すように、カメラ200を携帯電話機に搭載する場合には、姿勢検出部201も携帯電話機に搭載すればよい。姿勢検出部201は、例えば加速度センサであり、カメラ200(携帯電話機)の姿勢の変化に応じて変化する重力差を検出し、この重力差に基づいてカメラ200の姿勢を検出する。
 姿勢検出部201は、例えば図7に示すように、標準姿勢(図7A)か下向き姿勢(図7B)か上向き姿勢(図7C)かなどの複数の姿勢を検出する。そして、補正計算部211が、予め各姿勢毎に設定された補正係数を使ってカウント値を補正する。
 例えば、標準姿勢での補正係数を1.0、下向き姿勢での補正係数を1.05、上向き姿勢での補正係数を1.10に設定しておく。この場合、カウンタ116のカウント値が10のときの補正後のカウント値は、標準姿勢の場合に10、下向き姿勢の場合に10.5、上向き姿勢の場合に11となる。
 重力による影響が多い姿勢(すなわち推測位置に誤差が生じ易い姿勢)ほど、予め補正係数を高めに設定することで、影響の多い姿勢の場合ほど早めにレンズ101を基準位置にリセットして累積誤差の増加を抑制できるようになる。
 次に、図8を用いて、本実施の形態の動作を説明する。
 カメラ200は、ステップST20で処理を開始すると(すなわちカメラ200が起動されると)、続くステップST21でコンティニュアスAF動作を開始する。続くステップST22では、カウンタ116によって撮像画像フレーム数のカウントが開始される。
 ステップST23では、姿勢検出部201によってカメラ200(携帯電話機)の姿勢が検出される。そして、検出された姿勢が標準姿勢であった場合には、補正計算部211が、ステップST24-1において補正係数Aを読み出し、ステップST25においてカウンタ116によってカウントされた撮像画像フレーム数を補正係数Aを用いて補正する。また、検出された姿勢が下向き姿勢であった場合には、補正計算部211が、ステップST24-2において補正係数Bを読み出し、ステップST25においてカウンタ116によってカウントされた撮像画像フレーム数を補正係数Bを用いて補正する。また、検出された姿勢が上向き姿勢であった場合には、補正計算部211が、ステップST24-3において補正係数Cを読み出し、ステップST25においてカウンタ116によってカウントされた撮像画像フレーム数を補正係数Cを用いて補正する。
 なお、ステップST23-ST24-ST25の処理は、撮像画像フレーム数のカウント中に、姿勢変化を検出した際に、随時、補正係数を切替えながら行うとよい。
 ステップST26では、補正後の撮像画像フレーム数が一定以上か否か判断する。そして、撮像画像フレーム数が一定以上となると、ステップST27に移って、AFドライバ109がレンズ101を基準位置に移動させる。また、カメラ200は、これに伴って、それまで計算されたレンズ推測位置をリセットする。これにより、レンズ推測位置の累積誤差がクリアされる。
 次に、ステップST28において、カウンタ116の撮像画像フレーム数が初期化(リセット)され、続くステップST29で処理を終了する。このように、カメラ200は、コンティニュアスAF動作開始後の撮像画像フレーム数のカウント値を、姿勢に応じて補正し、この補正後のカウント値が一定値以上となった場合に、レンズ101の位置及びレンズ101の推測位置をリセットする。
 なお、図8の例では、コンティニュアスAF動作を開始後の撮像画像フレームのカウント値を姿勢に応じて補正した例について説明したが、勿論、撮像画像フレーム数に換えて、コンティニュアスAF動作開始後の、AF動作回数または時間を姿勢に応じて補正してもよい。
 以上説明したように、本実施の形態によれば、実施の形態1に加えて、コンティニュアスAF動作開始後の、AF動作回数、撮像画像フレーム数、または時間を、カメラ200の姿勢に応じて補正したことにより、実施の形態1の効果に加えて、レンズ推測位置に誤差が生じ易い姿勢ほど早めにレンズ101を基準位置にリセットできるので、累積誤差の増加を一段と抑制できるようになる。
 なお、本実施の形態では、姿勢に応じてカウント値を補正する場合について述べたが、姿勢に応じてステップST26での一定値(閾値)を変えるようにしても、同様の効果を得ることができる。
 [実施の形態3]
 図2との対応部分に同一符号を付して示す図9に、本実施の形態のカメラ300の要部構成を示す。本実施の形態のカメラ300は、カメラ100(図1)の構成に加えて、手ぶれ検出部301と、動き検出部311とを有する。手ぶれ検出部301は、例えば加速度センサによって構成されており、カメラ300が搭載された携帯端末装置の手ぶれを検出する。動き検出部311は、撮像画像に基づいて被写体ぶれを検出する。
 本実施の形態のカメラ300は、コンティニュアスAF動作開始後の、AF動作回数、撮像画像フレーム数、または時間が一定以上になった場合でも、手ぶれ検出部301による手ぶれ、または、動き検出部311による被写体ぶれが検出されるまでは、レンズ101の基準位置への移動を待機し、手ぶれまたは被写体ぶれをトリガとして、レンズ101を基準位置へ移動させる。
 これにより、レンズ101を基準位置へ移動させることが原因となって撮像画像が見苦しくなることを回避できる。つまり、AF動作回数、撮像画像フレーム数、または時間が一定以上になった時点で、すぐにレンズ101を基準位置へ移動させると、一定期間毎に撮像画像にAFの動作が見えて、撮像画像が見苦しくなるおそれがある。本実施の形態では、撮像画像にぶれがあったときに便乗して、レンズ101を基準位置へ移動させるので、撮像画像にAF動作が現れにくくなる。この結果、レンズ101を基準位置へ移動させる際の撮像画像の見苦しさを防ぐことができる。
 次に、図10を用いて、本実施の形態の動作を説明する。
 カメラ300は、ステップST30で処理を開始すると(すなわちカメラ300が起動されると)、続くステップST31でコンティニュアスAF動作を開始する。続くステップST32では、カウンタ116によって撮像画像フレーム数のカウントが開始される。ステップST33では、カウンタ116によってカウントされた撮像画像フレーム数が一定以上か否か判断する。撮像画像フレーム数が一定以上となると、ステップST34に移る。
 ステップST34では、手ぶれ検出部301による手ぶれ、または、動き検出部311による被写体ぶれが検出されるまで待機し、手ぶれまたは被写体ぶれが検出されると、ステップST35に移る。
 ステップST35では、AFドライバ109がレンズ101を基準位置に移動させる。また、カメラ300は、これに伴って、それまで計算されたレンズ推測位置をリセットする。これにより、レンズ推測位置の累積誤差がクリアされる。
 次に、ステップST36において、カウンタ116の撮像画像フレーム数が初期化(リセット)され、続くステップST37で処理を終了する。このように、カメラ300は、手ぶれまたは被写体ぶれが検出されるまで、レンズ101の基準位置への移動を待機し、手ぶれまたは被写体ぶれが検出されたときに、レンズ101の位置及びレンズ101の推測位置をリセットする。
 なお、図10の例では、コンティニュアスAF動作を開始後の撮像画像フレームをカウントする例について説明したが、勿論、コンティニュアスAF動作開始後の、AF動作回数または時間をカウントしてもよい。
 以上説明したように、本実施の形態によれば、実施の形態1に加えて、手ぶれまたは被写体ぶれが検出されるまで、レンズ101の基準位置への移動を待機し、手ぶれまたは被写体ぶれが検出されたときに、レンズ101の位置及びレンズ101の推測位置をリセットしたことにより、実施の形態1の効果に加えて、レンズ101を基準位置へ移動させることにより生じる撮像画像の見苦しさを防ぐことができる。
 なお、本実施の形態では、手ぶれ検出部301及び動き検出部311を設けた場合について述べたが、手ぶれ検出部301または動き検出部311のいずれか一方のみを設け、手ぶれまたは被写体ぶれのいずれか一方のみをトリガとしてレンズ101を基準位置へ移動させてもよい。
 2009年5月11日出願の特願2009-114791の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明に係るカメラ、携帯端末装置及びレンズの位置制御方法は、カメラ付き携帯電話機などのカメラに有用である。また、レンズの位置制御方法として携帯端末以外の各種電子機器に組み込むことも可能である。
 100、200、300 カメラ
 101 レンズ
 109 AFドライバ
 110、210、310 制御部
 111 シーン判定部
 112 人物判定部
 113 AE制御部
 114 AF制御部
 115 LED制御部
 116 カウンタ
 201 姿勢検出部
 211 補正計算部
 301 手ぶれ検出部
 311 動き検出部
 

Claims (8)

  1.  オートフォーカス制御部と、
     前記オートフォーカス制御部の制御結果に基づいて、レンズの位置を推測するレンズ位置推測部と、
     オートフォーカス回数、時間又は撮影フレーム数が閾値以上となった場合、前記レンズの位置を基準位置に移動するレンズ駆動部と、
     を具備するカメラ。
  2.  前記オートフォーカス回数、前記時間又は前記撮影フレーム数、或いは前記閾値を、カメラの姿勢に応じて補正する補正部を、さらに具備する、
     請求項1に記載のカメラ。
  3.  前記レンズ駆動部は、前記オートフォーカス回数、前記時間又は前記撮影フレーム数が閾値以上であり、かつ、手ぶれ又は被写体ぶれが検出された場合に、前記レンズの位置を基準位置に移動する、
     請求項1に記載のカメラ。
  4.  前記レンズを移動する前記基準位置は、機械的端点である、
     請求項1に記載のカメラ。
  5.  前記オートフォーカス制御部は、継続的にオートフォーカスを行うコンティニュアスオートフォーカスを行い、
     前記レンズ駆動部は、前記コンティニュアスオートフォーカス中に前記オートフォーカス回数、前記時間又は前記撮影フレーム数が閾値以上となった場合、前記レンズの位置を基準位置に移動する、
     請求項1に記載のカメラ。
  6.  シーン判定部をさらに具備し、
     前記レンズ位置推測部により得られたレンズ位置推定結果は、前記シーン判定部で用いられる、
     請求項1に記載のカメラ。
  7.  請求項1に記載のカメラを具備する携帯端末装置。
  8.  前記オートフォーカス制御部の制御結果に基づいて、レンズの位置を推測するレンズ位置推測ステップと、
     オートフォーカス回数、時間又は撮影フレーム数が閾値以上となった場合、前記レンズの位置を基準位置に移動するレンズ駆動ステップと、
     を含むレンズの位置制御方法。
     
PCT/JP2010/003096 2009-05-11 2010-04-30 カメラ、携帯端末装置及びレンズの位置制御方法 WO2010131433A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/319,284 US20120105709A1 (en) 2009-05-11 2010-04-30 Camera, portable terminal device, and lens position control method
EP10774693A EP2431780A1 (en) 2009-05-11 2010-04-30 Camera, portable terminal device, and lens position control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-114791 2009-05-11
JP2009114791A JP5524509B2 (ja) 2009-05-11 2009-05-11 カメラ、携帯端末装置及びレンズの位置制御方法

Publications (1)

Publication Number Publication Date
WO2010131433A1 true WO2010131433A1 (ja) 2010-11-18

Family

ID=43084820

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/003096 WO2010131433A1 (ja) 2009-05-11 2010-04-30 カメラ、携帯端末装置及びレンズの位置制御方法

Country Status (4)

Country Link
US (1) US20120105709A1 (ja)
EP (1) EP2431780A1 (ja)
JP (1) JP5524509B2 (ja)
WO (1) WO2010131433A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5803090B2 (ja) * 2010-11-02 2015-11-04 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム。
KR101314652B1 (ko) * 2012-03-30 2013-10-07 자화전자(주) 카메라 모듈 구동 제어 장치 및 방법
US20140118731A1 (en) * 2012-10-30 2014-05-01 Mustard Tree Instruments, Llc Adaptive Front Lens for Raman Spectroscopy Free Space Optics
FR3016703A1 (fr) * 2014-01-21 2015-07-24 Move N See Procede et dispositif de commande de zoom d’un appareil de prise de vues
US9509891B2 (en) * 2014-10-21 2016-11-29 Microsoft Technology Licensing, Llc Controlling focus lens assembly
WO2016119122A1 (zh) * 2015-01-27 2016-08-04 神画科技(深圳)有限公司 基于传感器的投影仪自动调焦方法
JP6942503B2 (ja) 2017-03-28 2021-09-29 キヤノン株式会社 レンズ制御装置及びその制御方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0315030A (ja) * 1989-06-13 1991-01-23 West Electric Co Ltd 電動ズームカメラ
JPH08327877A (ja) * 1995-06-01 1996-12-13 Ricoh Co Ltd レンズ待機位置を設けたカメラのパルスモータ制御方法
JPH11142715A (ja) * 1997-11-07 1999-05-28 Nikon Corp ズームカメラ
JP2000241698A (ja) * 1999-02-18 2000-09-08 Asahi Optical Co Ltd 撮影光学系駆動装置
JP2001228500A (ja) * 2000-02-14 2001-08-24 Canon Inc 光学装置
JP2002023046A (ja) * 2000-07-12 2002-01-23 Canon Inc 自動焦点調節装置、光学機器及びカメラシステム
JP2005227373A (ja) * 2004-02-10 2005-08-25 Matsushita Electric Ind Co Ltd レンズ駆動装置
JP2007271983A (ja) 2006-03-31 2007-10-18 Casio Hitachi Mobile Communications Co Ltd 撮像装置、及び、プログラム
JP2009114791A (ja) 2007-11-08 2009-05-28 Taisei Corp 耐火セグメントおよびトンネル

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3414522B2 (ja) * 1994-09-29 2003-06-09 オリンパス光学工業株式会社 カメラのぶれ補正装置
US7184090B2 (en) * 2001-09-28 2007-02-27 Nikon Corporation Camera
JP4006213B2 (ja) * 2001-10-18 2007-11-14 キヤノン株式会社 撮像装置及びその合焦制御方法、並びにプログラム
JP4118079B2 (ja) * 2002-04-25 2008-07-16 シャープ株式会社 カメラのオートフォーカス装置
US7355634B2 (en) * 2003-06-23 2008-04-08 Canon Kabushiki Kaisha Moving image pickup apparatus carrying out automatic focus adjustment and still image recording method therefor
JP2006010568A (ja) * 2004-06-28 2006-01-12 Canon Inc 位置検出装置
JP2006058819A (ja) * 2004-08-24 2006-03-02 Matsushita Electric Ind Co Ltd 撮像装置
JP2006208818A (ja) * 2005-01-28 2006-08-10 Sony Corp フォーカス制御装置、フォーカス制御方法
JP2007003940A (ja) * 2005-06-24 2007-01-11 Sony Corp レンズ駆動装置及び撮像装置
JP4665718B2 (ja) * 2005-10-28 2011-04-06 株式会社ニコン 撮影装置
JP2008042616A (ja) * 2006-08-08 2008-02-21 Eastman Kodak Co 撮像装置
JP4859625B2 (ja) * 2006-10-27 2012-01-25 Hoya株式会社 手ぶれ補正装置を備えたカメラ
WO2009013850A1 (ja) * 2007-07-23 2009-01-29 Panasonic Corporation 撮像装置
JP2009069739A (ja) * 2007-09-18 2009-04-02 Canon Inc 撮像装置
US8786761B2 (en) * 2009-06-05 2014-07-22 Apple Inc. Continuous autofocus mechanisms for image capturing devices
JP5613443B2 (ja) * 2010-04-26 2014-10-22 京セラ株式会社 携帯端末、カメラモジュール制御プログラムおよびカメラモジュール制御方法
JP5775679B2 (ja) * 2010-09-08 2015-09-09 オリンパス株式会社 デジタルカメラ
JP5935233B2 (ja) * 2010-11-02 2016-06-15 ソニー株式会社 撮像装置、撮像方法およびプログラム。

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0315030A (ja) * 1989-06-13 1991-01-23 West Electric Co Ltd 電動ズームカメラ
JPH08327877A (ja) * 1995-06-01 1996-12-13 Ricoh Co Ltd レンズ待機位置を設けたカメラのパルスモータ制御方法
JPH11142715A (ja) * 1997-11-07 1999-05-28 Nikon Corp ズームカメラ
JP2000241698A (ja) * 1999-02-18 2000-09-08 Asahi Optical Co Ltd 撮影光学系駆動装置
JP2001228500A (ja) * 2000-02-14 2001-08-24 Canon Inc 光学装置
JP2002023046A (ja) * 2000-07-12 2002-01-23 Canon Inc 自動焦点調節装置、光学機器及びカメラシステム
JP2005227373A (ja) * 2004-02-10 2005-08-25 Matsushita Electric Ind Co Ltd レンズ駆動装置
JP2007271983A (ja) 2006-03-31 2007-10-18 Casio Hitachi Mobile Communications Co Ltd 撮像装置、及び、プログラム
JP2009114791A (ja) 2007-11-08 2009-05-28 Taisei Corp 耐火セグメントおよびトンネル

Also Published As

Publication number Publication date
JP2010262233A (ja) 2010-11-18
EP2431780A1 (en) 2012-03-21
JP5524509B2 (ja) 2014-06-18
US20120105709A1 (en) 2012-05-03

Similar Documents

Publication Publication Date Title
KR100691245B1 (ko) 휴대단말의 렌즈 위치오차 보정방법
US9739973B2 (en) Focusing system, interchangeable lens, and image-capturing device
US7688353B2 (en) Image-taking apparatus and image-taking method
WO2010131433A1 (ja) カメラ、携帯端末装置及びレンズの位置制御方法
US9055224B2 (en) Optical apparatus, image capturing apparatus, and method for controlling optical apparatus
US7801432B2 (en) Imaging apparatus and method for controlling the same
US7830415B2 (en) Camera having an image stabilizer
US7907205B2 (en) Optical apparatus with unit for correcting blur of captured image caused by displacement of optical apparatus in optical-axis direction
KR20080101778A (ko) 화상흔들림의 검출기능을 구비한 촬상장치, 촬상장치의제어방법 및 촬상장치의 제어프로그램을 기록한 기록매체
JP2008083338A (ja) Af検波の光学ズーム補正撮像装置
JP2004264827A (ja) 焦点距離検出方法及び合焦装置
KR20120106307A (ko) 자동 초점 조절 장치
CN107360360B (zh) 具有图像稳定功能的摄像设备及其控制方法和存储介质
US20130162850A1 (en) Image capture apparatus and control method for same
US20150168739A1 (en) Image stabilizer, camera system, and imaging method
KR20100085728A (ko) 촬영장치 및 이를 이용한 초점 검출 방법
JP2010262223A (ja) カメラ、携帯端末装置及びレンズの位置制御方法
JP2007094023A (ja) フォーカスレンズの焦点調整方法、及び撮像装置
JP2012042589A (ja) 像振れ補正機構、レンズ鏡筒、および撮像装置
JP2012203345A (ja) 焦点調節装置および焦点調節方法
JP5299747B2 (ja) カメラ付き携帯端末、撮影方法、及び撮影プログラム
JP5863887B2 (ja) カメラ付き携帯端末、撮影方法、及び撮影プログラム
JP2010262242A (ja) カメラ及び携帯端末装置
JP2007011021A (ja) 電子カメラおよびカメラシステム
JP2005338514A (ja) レンズ制御装置及び撮像機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10774693

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010774693

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13319284

Country of ref document: US