JP2003270521A - Camera - Google Patents

Camera

Info

Publication number
JP2003270521A
JP2003270521A JP2002072011A JP2002072011A JP2003270521A JP 2003270521 A JP2003270521 A JP 2003270521A JP 2002072011 A JP2002072011 A JP 2002072011A JP 2002072011 A JP2002072011 A JP 2002072011A JP 2003270521 A JP2003270521 A JP 2003270521A
Authority
JP
Japan
Prior art keywords
lens
lens position
camera
focusing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002072011A
Other languages
Japanese (ja)
Inventor
Akihiko Ito
彰彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2002072011A priority Critical patent/JP2003270521A/en
Publication of JP2003270521A publication Critical patent/JP2003270521A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera which can more rapidly perform focusing operation in spite of simple constitution. <P>SOLUTION: A histogram is formed in accordance with the information relating to the lens position stored in an EEPROM20 and if a proximity range R estimated to be close to the lens position in next photographing is estimated, the possibility that focusing can be achieved is enhanced simply by moving a focusing lens of a lens unit 1 thereto. If a digital still camera 100 has a function to search the interior of the proximity range R, the more rapid focusing operation than that in searching the same from a predetermined initial position is made possible by, for example, searching the interior of the proximity range R. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、カメラに関し、特
にオートフォーカス動作を迅速に行えるカメラに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera, and more particularly to a camera that can perform an autofocus operation quickly.

【0002】[0002]

【従来の技術】被写体に対してレンズの合焦動作を行え
るオートフォーカス機能を備えたカメラが知られてい
る。ここで、オートフォーカスには、被写体に対して赤
外光等を照射して、被写体から反射した赤外光等を受光
し、その入射角度を距離に換算してあるいは位相差を検
出して距離を測定する、いわゆるアクティブAF方式
(銀塩カメラに用いられることが多い)と、CCD等の
撮像素子によりレンズを介した光学像を取り込んで、そ
れに対応する画像データを画像処理することでレンズの
合焦位置を決定する、いわゆる像面AF方式(電子カメ
ラに用いられることが多い)等が知られている。
2. Description of the Related Art There is known a camera having an autofocus function capable of focusing a lens on a subject. Here, in the auto focus, the infrared light or the like is emitted to the subject, the infrared light or the like reflected from the subject is received, and the incident angle is converted into a distance or the phase difference is detected to detect the distance. The so-called active AF method (often used in silver-salt cameras) that measures the image and the optical image that has passed through the lens by an image sensor such as CCD, and image processing the corresponding image data A so-called image plane AF method (often used in electronic cameras) for determining the focus position is known.

【0003】[0003]

【課題を解決するための手段】アクティブAF方式は、
赤外光等を用いて被写体距離を直接測距できるために、
迅速に合焦動作を行えるという利点がある反面、赤外光
等が主要被写体とは異なる被写体(例えば背景)に照射
されたような場合、撮影者の意図とは異なる合焦位置が
決定されてしまうという恐れがある。これに対し、像面
AF方式は、初期位置よりレンズを光軸方向に微小距離
移動させながら、その都度実際に画像を取り込んで、最
もピントがあった位置を探索するものであるために、合
焦精度は高いが、合焦開始から終了までに時間がかかる
という問題がある。
[Means for Solving the Problems] The active AF method is
In order to be able to directly measure the subject distance using infrared light,
On the other hand, it has the advantage that the focusing operation can be performed quickly, but when infrared light or the like is radiated on a subject (for example, the background) different from the main subject, a focus position different from the photographer's intention is determined. There is a fear that it will end up. On the other hand, the image-plane AF method actually captures an image each time while moving the lens a small distance in the optical axis direction from the initial position and searches for the most focused position. Although the focusing accuracy is high, there is a problem that it takes time from the start to the end of focusing.

【0004】このような問題に対し、例えばカメラにア
クティブAF方式と像面AF方式との双方を備え、まず
アクティブAF方式でおおまかな合焦位置を決定し、そ
の後像面AF方式で精度良く合焦位置を求めることで、
合焦の迅速性と精度とを両立させることも考えられる。
しかしながら、本来的には一つ備えれば足りるはずのオ
ートフォーカス機構を複数設けることは、コストの増大
を招き、またカメラの構成の複雑化・大型化を招く。
To solve such a problem, for example, a camera is provided with both an active AF method and an image plane AF method. First, a rough focus position is determined by the active AF method, and then the image plane AF method is used for accurate focusing. By finding the focal position,
It may be possible to achieve both quickness and accuracy of focusing.
However, the provision of a plurality of autofocus mechanisms, which should be sufficient if one is originally provided, causes an increase in cost, and also complicates and enlarges the configuration of the camera.

【0005】本発明は、かかる従来技術の問題点に鑑み
てなされたものであり、簡素な構成でありながら、より
迅速に合焦動作を行うことができるカメラを提供するこ
とを目的とする。
The present invention has been made in view of the above problems of the prior art, and an object of the present invention is to provide a camera capable of performing a focusing operation more quickly while having a simple structure.

【0006】[0006]

【課題を解決するための手段】第1の本発明のカメラ
は、撮影毎に得られたレンズ位置に関する情報を記憶す
る記憶手段と、前記記憶手段に記憶された前記レンズ位
置に関する情報に基づいて、次の撮影におけるレンズ位
置に近接する近接範囲を推定する推定手段と、前記推定
手段によって推定された前記近接範囲に、レンズを移動
させる駆動手段と、を有するので、例えば記憶された前
記レンズ位置に関する情報を統計処理するなどして、次
の撮影におけるレンズ位置に近いと推定される前記近接
範囲を推定できれば、そこに前記レンズを移動させるだ
けで合焦を達成できる可能性が高まる。又、前記カメラ
が、レンズを移動させながら取り込んだ画像に基づい
て、合焦位置を探索する機能を備えていれば、たとえば
前記近接範囲内を探索すれば、予め定められた初期位置
から探索するよりも、より迅速に合焦動作を行える可能
性が高まる。但し、前記近接範囲を狭い範囲(一点を含
む)で精度良く推定できれば、実際の合焦位置に対し
て、かかる近接範囲が多少ずれたとしても、被写界深度
内に収まる可能性も高く、かかる場合には、測距動作を
行うことなく撮影できる。
A camera according to a first aspect of the present invention is based on storage means for storing information on a lens position obtained for each photographing, and information on the lens position stored in the storage means. , And the driving means for moving the lens to the proximity range estimated by the estimation means, and therefore, for example, the stored lens position. If the proximity range that is estimated to be close to the lens position in the next shooting can be estimated by statistically processing the information regarding, the possibility that focus can be achieved only by moving the lens there is increased. Further, if the camera has a function of searching a focus position based on an image captured while moving the lens, for example, if searching in the proximity range, the camera searches from a predetermined initial position. The possibility that the focusing operation can be performed more quickly is increased. However, if the proximity range can be accurately estimated in a narrow range (including one point), even if the proximity range is slightly deviated from the actual in-focus position, there is a high possibility that the proximity range will fall within the depth of field. In such a case, shooting can be performed without performing the distance measuring operation.

【0007】第2の本発明のカメラは、レンズを移動さ
せながら取り込んだ画像に基づいて、合焦位置を探索す
る機能を備えたカメラにおいて、撮影毎に得られたレン
ズ位置に関する情報を記憶する記憶手段と、前記記憶手
段に記憶された前記レンズ位置に関する情報に基づい
て、次の撮影におけるレンズ位置(一点でなく範囲でも
良い)を推定する推定手段と、前記推定手段によって推
定された前記レンズ位置に対して所定の距離(距離=0
も含む)離れた所定位置に、前記レンズを移動させる駆
動手段と、前記所定位置からレンズ位置がある方向に合
焦位置を探索する探索手段と、を有するものである。こ
こで、例えば記憶された前記レンズ位置に関する情報を
統計処理するなどして、次の撮影におけるレンズ位置を
推定できれば、そこに前記レンズを移動させるだけで合
焦を達成できる可能性が高まるが、かかる推定が正しく
ない恐れもある。そこで、推定された前記レンズ位置に
対して所定の距離離れた前記所定位置を求め、ここを起
点としてレンズ位置がある方向に合焦位置を探索すれ
ば、合焦動作を迅速に達成できる可能性が極めて高ま
る。
The camera of the second aspect of the present invention is a camera having a function of searching a focus position based on an image captured while moving the lens, and stores information on the lens position obtained at each photographing. A storage unit, an estimation unit that estimates a lens position (which may be a range instead of a single point) in the next shooting based on information about the lens position stored in the storage unit, and the lens estimated by the estimation unit. Predetermined distance to the position (distance = 0
Drive means for moving the lens, and a search means for searching a focusing position in a direction in which the lens position is located from the predetermined position. Here, for example, if the lens position in the next shooting can be estimated by statistically processing the stored information on the lens position, the possibility of achieving focus only by moving the lens there is increased, There is a possibility that such estimation is incorrect. Therefore, if the predetermined position that is apart from the estimated lens position by a predetermined distance is obtained and the focus position is searched in the direction in which the lens position is in the starting point, the focus operation may be quickly achieved. Is extremely high.

【0008】更に、前記推定手段は、前記記憶手段に記
憶された複数の前記レンズ位置に関する情報に基づい
て、出現頻度の高いレンズ位置の範囲を求め、前記探索
手段は、求められた前記出現頻度の高いレンズ位置の範
囲の端を前記所定位置として、そこから前記範囲内に向
かって、合焦位置を探索すれば、前記範囲内には高い確
率で合焦位置が含まれているので、迅速に合焦動作を行
える可能性が高まる。
Further, the estimating means obtains a range of lens positions having a high appearance frequency based on the information on the plurality of lens positions stored in the storage means, and the searching means makes the obtained appearance frequency. If the end of the high lens position range is set to the predetermined position and the focusing position is searched from there, the focusing position is included in the range with a high probability. The possibility that the focusing operation can be performed increases.

【0009】又、前記記憶手段は、撮影毎に、記憶され
た前記レンズ位置を更新すると、最新の情報に基づい
て、より精度良い推定が可能となる、
Further, when the storage unit updates the stored lens position for each photographing, more accurate estimation can be performed based on the latest information.

【0010】更に、前記記憶手段は、前記レンズ位置と
対応づけて撮影モードを記憶し、前記推定手段は、更に
前記モードに基づいて、次の撮影における前記レンズ位
置を推定すると、モードに応じて被写体の焦点距離が変
わることを利用して、より精度の良い推定が可能とな
る。
Further, the storage means stores the photographing mode in association with the lens position, and the estimating means further estimates the lens position in the next photographing based on the mode, and according to the mode. It is possible to perform more accurate estimation by utilizing the fact that the focal length of the subject changes.

【0011】尚、前記レンズはフォーカシングレンズで
あると好ましく、又、電子カメラであれば、その構造
上、本来的に像面AF方式を採用できるため好ましい
が、銀塩カメラであってもよい。
The lens is preferably a focusing lens, and an electronic camera is preferable because the image plane AF method can be originally adopted due to its structure, but a silver salt camera may be used.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態にかかるカメラを詳細に説明する。図1は、本
発明を適用したデジタルスチルカメラl00の一実施の
形態を示す外観図であり、図1(a)はデジタルスチル
カメラ100の前面斜視図、図1(b)は背面斜視図で
ある。
DETAILED DESCRIPTION OF THE INVENTION A camera according to an embodiment of the present invention will be described in detail below with reference to the drawings. 1A and 1B are external views showing an embodiment of a digital still camera 100 to which the present invention is applied. FIG. 1A is a front perspective view of the digital still camera 100, and FIG. 1B is a rear perspective view. is there.

【0013】図1において、デジタルスチルカメラ10
0の前面に、被写体を撮像するための撮像部24、被写
体に補助光としての閃光を発光する閃光発光部(閃光装
置)22、撮影者が覗くことで被写体を含む構図を確認
できるファインダー25を備え、その背面に、撮影画像
等を表示する画像表示部8、撮影設定状況等を表示する
情報表示部26、各種機能の設定、切換を操作するため
の操作SW(スイッチ)21を備え、更にデジタルスチ
ルカメラ100の上面に、シャッターレリーズを行うた
めのレリーズSW21aを備えて構成される。なお、各
構成部における詳細な説明は、後述する機能的構成の説
明と併せて記載する。
In FIG. 1, a digital still camera 10 is shown.
On the front side of 0, an image pickup unit 24 for picking up an image of a subject, a flash light emitting unit (flash device) 22 for emitting a flash light as auxiliary light to the subject, and a viewfinder 25 for confirming a composition including the subject when the photographer looks in. An image display unit 8 for displaying photographed images and the like, an information display unit 26 for displaying photographing setting status and the like, and an operation SW (switch) 21 for operating setting and switching of various functions are provided on the rear surface thereof. A release SW 21a for performing shutter release is provided on the upper surface of the digital still camera 100. The detailed description of each component will be given together with the description of the functional configuration described later.

【0014】図2は、デジタルスチルカメラ100の機
能的構成を示すブロック図である。図2において、デジ
タルスチルカメラ100は、レンズユニット1、絞り
2、CCD3からなる撮像部24、撮像回路4、A/D
変換回路5、メモリ6、D/A変換回路7、画像表示部
8、記録用メモリ9、圧縮伸長回路10、CPU11、
TG12、AE・AF処理回路13、CCDドライバ1
4、第1モータ15、第1モータ駆動回路16、第2モ
ータ17、第2モータ駆動回路18、電池19、EEP
ROM20、操作SW21、閃光発光部22、スイッチ
ング回路23とから構成される。
FIG. 2 is a block diagram showing the functional configuration of the digital still camera 100. In FIG. 2, the digital still camera 100 includes a lens unit 1, a diaphragm 2, an image pickup unit 24 including a CCD 3, an image pickup circuit 4, and an A / D.
Conversion circuit 5, memory 6, D / A conversion circuit 7, image display unit 8, recording memory 9, compression / expansion circuit 10, CPU 11,
TG 12, AE / AF processing circuit 13, CCD driver 1
4, first motor 15, first motor drive circuit 16, second motor 17, second motor drive circuit 18, battery 19, EEP
It is composed of a ROM 20, an operation SW 21, a flash light emitting section 22, and a switching circuit 23.

【0015】撮像部24は、後述する被写体の光学像を
取り込むフォーカシングレンズ群からなるレンズユニッ
ト1、レンズユニット1を透過した光束の光量を調節す
ると共に露光の調節を行う絞り2、レンズユニット1の
光路上において結像された被写体の光学像を光電変換す
るCCD(Charge Coupled Devic
e)3により構成され、光電変換された画像信号(アナ
ログ信号)を撮像回路4ヘ出力する。すなわち、撮像部
24は、撮像手段としての機能を有する。
The image pickup section 24 includes a lens unit 1 composed of a focusing lens group for taking in an optical image of a subject, which will be described later, a diaphragm 2 for adjusting the light amount of a light flux transmitted through the lens unit 1 and an exposure, and a lens unit 1 for the lens unit 1. A CCD (Charge Coupled Device) that photoelectrically converts an optical image of a subject formed on the optical path.
e) An image signal (analog signal) composed of 3 and photoelectrically converted is output to the image pickup circuit 4. That is, the imaging unit 24 has a function as an imaging unit.

【0016】撮像回路4は、TG12から入力されるタ
イミング信号に同期させて、CCD3から入力された画
像信号の感度補正等の各種画像処理を行って所定の画像
信号を生成し、A/D変換回路5に出力する。A/D変
換回路5は、入力された画像信号をアナログ信号からデ
ジタル信号へ変換し、CPU11の指示によりメモリ
6、又はAE・AF処理回路13に画像データを出力す
る。
The image pickup circuit 4 performs various kinds of image processing such as sensitivity correction of the image signal input from the CCD 3 in synchronization with the timing signal input from the TG 12 to generate a predetermined image signal and A / D-convert it. Output to the circuit 5. The A / D conversion circuit 5 converts the input image signal from an analog signal into a digital signal, and outputs the image data to the memory 6 or the AE / AF processing circuit 13 according to an instruction from the CPU 11.

【0017】メモリ6は、バッファメモリ等から構成さ
れ、入カされた画像信号を一時的に記憶する。また、メ
モリ6は、CPU11より画像表示指示を受けると、D
/A変換回路7に画像表示指示された画像データを出力
し、D/A変換回路7は、入力された画像データをアナ
ログ変換するとともに、出力表示に適応するよう処理を
施して画像表示部8に出力表示する。一方、メモリ6
は、CPU11より画像記録指示を受けると、圧縮伸長
回路10に画像記録指示きれた画像データを出力し、圧
縮伸長回路10は、入力された画像データに対して記録
用メモリ9に出力する。
The memory 6 is composed of a buffer memory or the like, and temporarily stores the input image signal. Further, when the memory 6 receives an image display instruction from the CPU 11,
The image display commanded image data is output to the A / A conversion circuit 7, and the D / A conversion circuit 7 performs analog conversion of the input image data and performs processing to adapt to output display, and the image display unit 8 The output is displayed. On the other hand, the memory 6
When the CPU 11 receives an image recording instruction, the image data is output to the compression / expansion circuit 10 and the compression / expansion circuit 10 outputs the input image data to the recording memory 9.

【0018】画像表示部8は、TFT(Thin Fi
lm Transistor)等から構成され、D/A
変換回路5から入力された画像信号を出力表示する。な
お、表示は画像に限らず、例えば、機能選択するメニュ
ー画面などのテキスト画面であってもよい。
The image display unit 8 includes a TFT (Thin Fi).
lm Transistor), D / A
The image signal input from the conversion circuit 5 is output and displayed. The display is not limited to an image, and may be a text screen such as a menu screen for selecting a function.

【0019】記録用メモリ9は、半導体メモリ等からな
る記録用のメモリであり、圧縮伸長回路10から入力さ
れた画像データを記録する画像データ記録領域を有する
記録用メモリである。記録用メモリ9は、例えば、フラ
ッシュメモリ等の内蔵型メモリであってもよいし、着脱
可確なメモリカードやメモリスティックであってもよい
し、ハードディスク、又はフロッピー(登録商標)ディ
スク等の磁気記録用メモリ等であってもよい。すなわ
ち、記録メモリ9は、記録手段としての機能を有する。
The recording memory 9 is a recording memory composed of a semiconductor memory or the like, and is a recording memory having an image data recording area for recording the image data input from the compression / expansion circuit 10. The recording memory 9 may be, for example, a built-in memory such as a flash memory, a removable memory card or a memory stick, or a magnetic disk such as a hard disk or a floppy (registered trademark) disk. It may be a recording memory or the like. That is, the recording memory 9 has a function as a recording unit.

【0020】また、記録用メモリ9は、CPU11より
画像読み出し指示を受けると、圧縮伸長回路10に読み
出し指示された画像データを出力し、圧縮伸長回路10
は、入力された画像データの伸長処理を行ってメモリ6
に出力する。
Upon receiving an image read instruction from the CPU 11, the recording memory 9 outputs the read image data to the compression / expansion circuit 10, and the compression / expansion circuit 10 outputs the image data.
Performs the decompression process of the input image data to execute the memory 6
Output to.

【0021】圧縮伸長回路10は、メモリ6から入力さ
れた画像データを所定の符号化方式で圧縮する圧縮回路
と、読み出し指示された画像データを画面表示するため
に記録用メモリ9から入力された画像データを復号化し
て伸長する伸長回路と、からなる。すなわち、圧縮伸長
回路10は、圧縮手段としての機能を有する。
The compression / expansion circuit 10 compresses the image data input from the memory 6 by a predetermined encoding method, and the recording memory 9 for displaying the read-instructed image data on the screen. A decompression circuit for decoding and decompressing image data. That is, the compression / expansion circuit 10 has a function as a compression unit.

【0022】CPU(Central Process
ing Unit)11は、EEPROM9に記憶され
ている撮影に関わる各種アプリケーションプログラムを
図示しないワークエリアに読み出し、当該プログラムに
従って撮影処理等の各種処理を実行し、処理結果を画像
表示部8、或いは情報表示部26に表示させる。
CPU (Central Process)
ing Unit) 11 reads out various application programs related to shooting stored in the EEPROM 9 to a work area (not shown), executes various processing such as shooting processing according to the programs, and displays the processing result in the image display unit 8 or information display. It is displayed on the section 26.

【0023】CPU11は、レリーズSW21aの半押
しに応じて、AE・AF処理回路13を駆動制御し、得
られた測光値より露光条件を決定すると共に、レンズユ
ニット1をAF処理により検出された合焦位置に駆動
し、レリーズSW21aの全押しに応じて露光処理を実
行し、生成された画像信号に画像処理、及びデジタル変
換を行ってメモリ6に一時記憶後、圧縮伸長回路10に
より画像データの圧縮化を行い、記録用メモリ9に出力
する。
The CPU 11 drives and controls the AE / AF processing circuit 13 in response to the half-pressing of the release SW 21a to determine the exposure condition from the obtained photometric value, and when the lens unit 1 is detected by the AF processing. After being driven to the focal position, the exposure process is executed in response to the full depression of the release SW 21a, the generated image signal is subjected to image processing and digital conversion and temporarily stored in the memory 6, and then the compression / expansion circuit 10 converts the image data. It is compressed and output to the recording memory 9.

【0024】TG(Timing Generato
r)12は、所定のタイミング信号を発生して撮像回路
4、CPU11、CCDドライバ14に出力する。
TG (Timing Generato)
r) 12 generates a predetermined timing signal and outputs it to the image pickup circuit 4, the CPU 11, and the CCD driver 14.

【0025】AE(Auto Exposure:自動
露光制御)・AF(Auto Focus:自動焦点制
御)処理回路13は、適正な露光条件を検出するAE処
理を実行するAE処理回路と、合焦位置を検出するAF
処理を実行するAF処理回路と、を備えて構成される。
各処理は、CPU11からの指示によりA/D変換回路
5から入力された画像データに対して実行される。
An AE (Auto Exposure: automatic exposure control) / AF (Auto Focus: automatic focus control) processing circuit 13 detects an appropriate AE processing circuit for executing an AE processing for detecting an appropriate exposure condition. AF
And an AF processing circuit that executes processing.
Each process is executed on the image data input from the A / D conversion circuit 5 according to an instruction from the CPU 11.

【0026】AE処理回路は、AE処理において、入力
された1画面分、若しくは画面内の所定領域の輝度値に
対して累積加算等の演算処理を行い、この処理結果から
実露光時の適正な露光条件を算出して、CPU11に出
力する。一方、AF処理回路は、AF処理において、入
力された1画面分、若しくは画面内の所定領域を対象と
してAF評価値の算出を行い、その算出結果をCPU1
1に出力する。
In the AE processing, the AE processing circuit performs arithmetic processing such as cumulative addition with respect to the brightness value of the input one screen or a predetermined area in the screen, and from this processing result, an appropriate value at the time of actual exposure is obtained. The exposure condition is calculated and output to the CPU 11. On the other hand, the AF processing circuit calculates the AF evaluation value for the input one screen or a predetermined area in the screen in the AF processing, and the calculated result is calculated by the CPU 1
Output to 1.

【0027】このAF評価値は、焦点が合うほど大きい
値になる特性を有しており、レンズユニット1のフォー
カシングレンズ位置を横軸に、AF評価値を縦軸にとり
グラフを作成すると、合焦点を頂点とした山が形成され
る。すなわち、フォーカシングレンズを移動させながら
求めたAF評価値を互いに比較することにより、山の頂
点、つまり合焦点を求めることができる。このようにし
てAF評価値を求める動作を探索動作という。なお、A
F評価値は、入力された1画面分、若しくは画面内の所
定領域に対して画像データの周波数を分析することによ
り算出される。周波数分析では、ソフト的に帯域通過フ
ィルタを構成し、この帯域通過フィルタを通過した画像
信号強度の積分値を算出して、その算出結果をAF評価
値とする。すなわち、AF評価値は、コントラスト(明
暗の差)情報であり、その画像に含まれる特定周波数の
強度を求める演算を行うことにより算出される。
This AF evaluation value has such a characteristic that it becomes larger as the focus is improved. When a graph is created with the focusing lens position of the lens unit 1 on the horizontal axis and the AF evaluation value on the vertical axis, the in-focus point is obtained. A mountain with the top as the peak is formed. That is, by comparing the AF evaluation values obtained while moving the focusing lens with each other, the peak of the mountain, that is, the in-focus point can be obtained. The operation of obtaining the AF evaluation value in this way is called a search operation. In addition, A
The F evaluation value is calculated by analyzing the frequency of the image data for the input one screen or a predetermined area in the screen. In the frequency analysis, a band-pass filter is constructed by software, the integral value of the image signal intensity passed through this band-pass filter is calculated, and the calculation result is used as the AF evaluation value. That is, the AF evaluation value is contrast (brightness / darkness) information, and is calculated by performing an operation for obtaining the intensity of a specific frequency included in the image.

【0028】ここで、CPU11、AF処理回路による
AF処理について説明する。CPU11は、駆動手段で
ある第2モータ駆動回路18を駆動制御してレンズユニ
ット1のフォーカシングレンズを移動させながら各レン
ズ位置で漸次CCD3により画像信号を生成させる。A
E・AF処理回路13は、A/D変換回路5から入力さ
れた画像データ毎にAF評価値を算出し、その比較を行
って最大AF評価値であるレンズ位置を合焦点として検
出し、CPU11に出力する。すなわち、AE・AF処
理回路13は、探索手段としての機能を有する。
Now, the AF processing by the CPU 11 and the AF processing circuit will be described. The CPU 11 drives and controls the second motor drive circuit 18, which is a drive unit, to move the focusing lens of the lens unit 1 and gradually generate an image signal by the CCD 3 at each lens position. A
The E / AF processing circuit 13 calculates an AF evaluation value for each image data input from the A / D conversion circuit 5, compares the AF evaluation values, detects the lens position which is the maximum AF evaluation value as the in-focus point, and the CPU 11 Output to. That is, the AE / AF processing circuit 13 has a function as a search means.

【0029】CCDドライバ14は、CPU11からの
指示を受けると、TG12から入力されるタイミング信
号に同期させてCCD3の駆動及び制御を行う。具体的
には、露光調節制御に応じたCCD3の電荷蓄積時間の
制御を実行する。
Upon receiving an instruction from the CPU 11, the CCD driver 14 drives and controls the CCD 3 in synchronization with the timing signal input from the TG 12. Specifically, the charge storage time of the CCD 3 is controlled according to the exposure adjustment control.

【0030】第1モータ駆動回路16は、CPU11か
らの指示により第1モータ15の駆動を制御し、第1モ
ータ15は絞り2を駆動する。また、第2モータ駆動回
路18は、CPU11からの指示により第2モータ17
の駆動を制御し、第2モータ17はレンズユニット1の
フォーカシングレンズを駆動する。
The first motor drive circuit 16 controls the drive of the first motor 15 according to an instruction from the CPU 11, and the first motor 15 drives the diaphragm 2. In addition, the second motor drive circuit 18 receives the second motor 17 according to an instruction from the CPU 11.
And the second motor 17 drives the focusing lens of the lens unit 1.

【0031】電池19は、デジタルスチルカメラ100
の各構成部に電力を供給する電力源であり、例えば、リ
チウム電池やアルカリ乾電池等が適用される。
The battery 19 is used in the digital still camera 100.
Is a power source that supplies power to each component, and, for example, a lithium battery or an alkaline dry battery is applied.

【0032】EEPROM(Electrically
Erasable Programmable Re
ad−Only Memory)20は、デジタルスチ
ルカメラ100の撮像に関る各種アプリケーションプロ
グラム、処理プログラム等を記憶する。
EEPROM (Electrically)
Erasable Programmable Re
The ad-only memory) 20 stores various application programs, processing programs, and the like related to image pickup of the digital still camera 100.

【0033】操作SW(スイッチ)21は、レリーズS
W21aや、機能を切り替えるモードSW、設定を選択
するメニューSW等、各種操作スイッチを備えて構成さ
れる。また、各スイッチを操作すると、信号を生成して
CPU11に出力する。なお、レリーズSW21aは、
撮影動作に先立ってAE、AF処理を開始させる半押し
レリーズSWと、実際の露光処理を開始させる全押しレ
リーズSWと、からなる2段のスイッチから構成されて
いる。
The operation SW (switch) 21 is a release S
W21a, a mode SW for switching functions, a menu SW for selecting settings, and the like are provided with various operation switches. When each switch is operated, a signal is generated and output to the CPU 11. The release SW 21a is
It is composed of a two-stage switch consisting of a half-press release SW for starting the AE and AF processing prior to the photographing operation and a full-press release SW for starting the actual exposure processing.

【0034】閃光発光部22は、撮影時に検出された周
囲環境の輝度が不足する場合に、被写体にストロボ光を
発光する発光部であり、スイッチング回路23によりそ
の発光タイミングや発光量等が制御される。
The flash light emitting section 22 is a light emitting section for emitting strobe light to the subject when the brightness of the surrounding environment detected at the time of photographing is insufficient, and the light emitting timing, the light emitting amount, etc. are controlled by the switching circuit 23. It

【0035】次に、図面を参照して本実施の形態の動作
を説明する。図3は、本発明を適用したデジタルスチル
カメラ100で実行される撮影処理を説明するフローチ
ャートである。
Next, the operation of this embodiment will be described with reference to the drawings. FIG. 3 is a flowchart illustrating a shooting process executed by the digital still camera 100 to which the present invention is applied.

【0036】図3のステップS101において、電源ス
イッチ(不図示)がオンで、なおかつ撮影モードとなっ
ていれば、CPU11は、ステップS102で、レリー
ズSW21aが半押しされるのを待つ。
In step S101 of FIG. 3, if the power switch (not shown) is on and the shooting mode is set, the CPU 11 waits for the release SW 21a to be half-pressed in step S102.

【0037】ステップS102で、CPU11は、レリ
ーズSW21aが半押しされ、第1段のレリーズSW2
1aの押下信号(S1信号)が入力されたと判断すれ
ば、ステップS103で、記憶手段であるEEPROM
20に記憶されたレンズ位置情報(及びモード)を読み
出す。続いて推定手段であるCPU11は、読み出した
レンズ位置情報(及びモード)に基づいて、次の撮影に
おけるレンズ位置(ここでは近接範囲)を推定する。こ
れを、以下に説明する。
In step S102, the CPU 11 half-presses the release SW 21a to release the release SW2 of the first stage.
If it is determined that the push-down signal (S1 signal) of 1a is input, in step S103, the EEPROM that is the storage means.
The lens position information (and mode) stored in 20 is read. Subsequently, the CPU 11, which is an estimation unit, estimates the lens position (here, the proximity range) in the next shooting based on the read lens position information (and mode). This will be described below.

【0038】まず、レンズ位置と被写体距離との関係を
図4に示す。レンズ位置は、無限遠方(∞)から至近
(306mm)まで22ステップに分かれている。ま
ず、CPU11は、EEPR0M20に記憶されたレン
ズ位置情報(レンズ位置に関する情報ともいう)に基づ
いて、過去に行われた撮影のレンズ位置をヒストグラム
で表す。その例を図5(a)〜(e)に示す。
First, the relationship between the lens position and the subject distance is shown in FIG. The lens position is divided into 22 steps from infinity (∞) to very close (306 mm). First, the CPU 11 displays a lens position of a past shooting operation in a histogram based on the lens position information (also referred to as lens position information) stored in the EEPR0M20. An example thereof is shown in FIGS.

【0039】ここで、図5(a)に示すヒストグラムが
得られたものとする。図5(a)のヒストグラムは、正
規分布におおよそ従っているので、CPU11が、平均
値(又は最大値)の±2σの範囲を近接範囲Rと推定す
る(ステップS104)ことで、高い確率で、近接範囲
Rに、次の撮影時のレンズ位置を含めることができる。
そこで、ステップS105で、CPU11は、その端で
ある−2σの位置(ここではレンズ位置5)に第2モー
タ駆動回路18を駆動制御してフォーカシングレンズを
移動させ、AE・AF処理回路13を駆動制御すること
でCCD3から得られた画像を処理し、そこを起点とし
て高ステップ(至近)側にフォーカシングレンズを移動
させつつ、得られたAF評価値を比較することで、最適
な合焦位置を求める(ステップS106)。尚、近接範
囲Rの別な端である+2σの位置(ここではレンズ位置
9)にフォーカシングレンズを移動させ、そこを起点と
して低ステップ(無限遠方)側にフォーカシングレンズ
を移動させても良い。
Here, it is assumed that the histogram shown in FIG. 5A is obtained. Since the histogram in FIG. 5A approximately follows the normal distribution, the CPU 11 estimates the range of ± 2σ of the average value (or maximum value) as the proximity range R (step S104), and thus with a high probability, The proximity range R can include the lens position at the time of the next shooting.
Therefore, in step S105, the CPU 11 drives and controls the second motor drive circuit 18 to the position of −2σ (lens position 5 here) which is the end thereof, moves the focusing lens, and drives the AE / AF processing circuit 13. By controlling the image obtained from the CCD 3 and moving the focusing lens to the high step (closest) side starting from that, the obtained AF evaluation values are compared to determine the optimum focus position. Obtained (step S106). Alternatively, the focusing lens may be moved to a position of + 2σ (lens position 9 in this case), which is another end of the proximity range R, and the focusing lens may be moved to the low step (infinity) side starting from that position.

【0040】更に、図5(b)に示すヒストグラムが得
られた場合、図5(b)のヒストグラムも、正規分布に
おおよそ従っているので、CPU11が、平均値(又は
最大値)の±2σの範囲(これに限らず、±σあるいは
±3σ等であっても良し、山のすそ野を含む範囲でもよ
い)を近接範囲Rと推定することができる(ステップS
104)。そこで、ステップS105で、CPU11
は、その端である−2σの位置(ここではレンズ位置1
7)に第2モータ駆動回路18を駆動制御してフォーカ
シングレンズを移動させ、AE・AF処理回路13を駆
動制御することでCCD3から得られた画像を処理し、
そこを起点として高ステップ(至近)側にフォーカシン
グレンズを移動させつつ、得られたAF評価値を比較す
ることで、最適な合焦位置を求める(ステップS10
6)。尚、近接範囲Rの別な端である+2σの位置(こ
こではレンズ位置21)にフォーカシングレンズを移動
させ、そこを起点として低ステップ(無限遠方)側にフ
ォーカシングレンズを移動させても良い。
Further, when the histogram shown in FIG. 5 (b) is obtained, the histogram of FIG. 5 (b) also substantially follows the normal distribution, so that the CPU 11 has a mean value (or maximum value) of ± 2σ. A range (not limited to this, ± σ or ± 3σ may be used, or a range including a mountain ridge) may be estimated as the proximity range R (step S).
104). Therefore, in step S105, the CPU 11
Is the position of -2σ (here, lens position 1
In 7), the second motor drive circuit 18 is drive-controlled to move the focusing lens, and the AE / AF processing circuit 13 is drive-controlled to process the image obtained from the CCD 3.
The optimum focusing position is obtained by comparing the obtained AF evaluation values while moving the focusing lens to the high step (closest) side with that point as the starting point (step S10).
6). It is also possible to move the focusing lens to a position of + 2σ (lens position 21 in this case), which is another end of the proximity range R, and move the focusing lens to the low step (infinity) side starting from that position.

【0041】更に、図5(c)に示すヒストグラムが得
られた場合、図5(c)のヒストグラムは、正規分布に
従ってはいないが、かかるカメラでは、撮影時のレンズ
位置はゼロ、すなわち風景等を撮影するために合焦位置
を無限遠方とする頻度が極めて高いことを示しており、
CPU11は、レンズ位置0を端とする近接範囲Rを推
定することができる(ステップS104)。そこで、ス
テップS105で、CPU11は、その端であるレンズ
位置0にフォーカシングレンズを移動させ、CCD3か
ら得られた画像を処理し、そこを起点として高ステップ
(至近)側にフォーカシングレンズを移動させつつ、得
られたAF評価値を比較することで、最適な合焦位置を
求めることができる(ステップS106)。尚、以上の
3例で、万が一近接範囲R内に、合焦位置が存在しなか
った場合、CPU11は、フォーカシングレンズを近接
距離R以外に移動させることで、正しい合焦位置を求め
ることができる。又、近接範囲Rを推定することなく、
例えば出現頻度の平均値や最大値から、機械的に所定の
ステップ(たとえば5ステップ)だけ離れた位置から、
かかる平均値や最大値に向かって探索動作を行うように
しても良い。
Further, when the histogram shown in FIG. 5 (c) is obtained, the histogram in FIG. 5 (c) does not follow a normal distribution, but in such a camera, the lens position at the time of photographing is zero, that is, the scenery or the like. It shows that the in-focus position is infinite at a high frequency for shooting
The CPU 11 can estimate the proximity range R with the lens position 0 as the end (step S104). Therefore, in step S105, the CPU 11 moves the focusing lens to the lens position 0 which is the end thereof, processes the image obtained from the CCD 3, and moves the focusing lens to the high step (nearest) side starting from that point. By comparing the obtained AF evaluation values, the optimum focus position can be obtained (step S106). In the above three examples, if the focusing position does not exist within the proximity range R, the CPU 11 can obtain the correct focusing position by moving the focusing lens to a position other than the proximity distance R. . Also, without estimating the proximity range R,
For example, from a position mechanically separated by a predetermined step (for example, 5 steps) from the average value or the maximum value of the appearance frequency,
The search operation may be performed toward the average value or the maximum value.

【0042】しかしながら、図5(d)に示すようなヒ
ストグラムが得られる場合もある。かかる場合、図5
(d)のヒストグラムは正規分布に従わず、従って±2
σの位置を決めても、その範囲内に合焦位置が存在する
とは限らない。そこで、かかる場合にCPU11は、ス
テップS104で、全範囲を近接範囲Rと推定し、ステ
ップS105でフォーカシングレンズをレンズ位置0又
は21に移動させ、ステップS106で、そこを起点と
して、高ステップ(至近)側又は低ステップ(無限遠
方)側にフォーカシングレンズを移動させつつ、得られ
たAF評価値を比較することで、合焦位置を求めること
ができる。
However, a histogram as shown in FIG. 5 (d) may be obtained. In such a case, FIG.
The histogram in (d) does not follow a normal distribution, so ± 2
Even if the position of σ is determined, the in-focus position does not always exist within the range. Therefore, in such a case, the CPU 11 estimates the entire range to be the proximity range R in step S104, moves the focusing lens to the lens position 0 or 21 in step S105, and in step S106, uses that point as a starting point to move to a high step (close range). ) Side or low step (infinity) side, the focusing position can be obtained by comparing the obtained AF evaluation values while moving the focusing lens.

【0043】更に、図5(e)に示すようなヒストグラ
ムが得られる場合もある。かかる場合、図5(e)のヒ
ストグラムでは、出現頻度の山A,Bが2つ現れ、単純
に近接範囲を決めることができない。この場合、CPU
11は、ステップS104で、山A、Bを含む範囲を近
接範囲Rと推定し、ステップS105でフォーカシング
レンズを山Aの−2σであるレンズ位置3に移動させ、
ステップS106で、そこを起点として、高ステップ
(至近)側又は低ステップ(無限遠方)側にフォーカシ
ングレンズを移動させつつ、得られたAF評価値を比較
することで、合焦位置を求めることができる。尚、近接
範囲Rの別な端である+2σの位置(ここではレンズ位
置19)にフォーカシングレンズを移動させ、そこを起
点として低ステップ(無限遠方)側にフォーカシングレ
ンズを移動させても良い。
Further, a histogram as shown in FIG. 5 (e) may be obtained. In such a case, in the histogram of FIG. 5E, two peaks A and B having the appearance frequencies appear, and the proximity range cannot be simply determined. In this case, the CPU
11, in step S104, the range including the mountains A and B is estimated as the proximity range R, and in step S105, the focusing lens is moved to the lens position 3 which is −2σ of the mountain A,
In step S106, the focusing position can be obtained by comparing the obtained AF evaluation values while moving the focusing lens to the high step (closest) side or the low step (infinity) side with that as the starting point. it can. Note that the focusing lens may be moved to a position of + 2σ (lens position 19 in this case), which is another end of the proximity range R, and the focusing lens may be moved to the low step (infinity) side starting from that position.

【0044】但し、図5(d)又は(e)のヒストグラ
ムが得られた場合でも、設定されている撮影モードに応
じて、ある程度精度良く近接範囲Rを推定できる。例え
ば撮影者の操作により赤目防止モードが設定されている
場合、CPU11は、閃光発光部22からの照射光が届
く範囲(例えばカメラの3m先)に主要被写体がいると
判断して、レンズ位置0にフォーカシングレンズを移動
させ、そこを起点として高ステップ(至近)側にフォー
カシングレンズを移動させつつ、最適な合焦位置を求め
ることができる。又、バルブモードが設定されている場
合も、CPU11は、夜景撮影などが行われると判断し
て、レンズ位置0にフォーカシングレンズを移動させ、
そこを起点として高ステップ(至近)側にフォーカシン
グレンズを移動させつつ、最適な合焦位置を求めること
ができる。一方、閃光発光禁止モードが設定された場
合、CPU11は、マクロ撮影などが行われると判断し
て、レンズ位置22にフォーカシングレンズを移動さ
せ、そこを起点として低ステップ(無限遠方)側にフォ
ーカシングレンズを移動させつつ、最適な合焦位置を求
めることができる。
However, even when the histogram shown in FIG. 5D or 5E is obtained, the proximity range R can be estimated with a certain degree of accuracy according to the set photographing mode. For example, when the red-eye prevention mode is set by the operation of the photographer, the CPU 11 determines that the main subject is within the range (for example, 3 m ahead of the camera) where the irradiation light from the flash light emitting unit 22 reaches, and the lens position 0 The optimum focusing position can be obtained while moving the focusing lens to the high step (closest) side with the focusing lens as the starting point. Also, when the bulb mode is set, the CPU 11 determines that night view photography or the like is performed, and moves the focusing lens to the lens position 0,
The optimum focusing position can be obtained while moving the focusing lens from that point to the high step (closest) side. On the other hand, when the flash light emission prohibition mode is set, the CPU 11 determines that macro photography or the like will be performed, moves the focusing lens to the lens position 22, and the focusing lens moves to the low step (infinity) side from that point. The optimum focus position can be obtained while moving the.

【0045】以上の撮影モードの例は、一般的な経験則
によるものであるが、EEPROM20に、レンズ位置
情報に対応づけて撮影モード情報を記憶することによっ
て、いずれかの撮影モードの時は、この被写体距離で撮
影を行う頻度が高いというデータが得られれば、これを
利用して近接範囲の推定を行っても良い。
The above-mentioned examples of the photographing modes are based on a general empirical rule. However, by storing the photographing mode information in the EEPROM 20 in association with the lens position information, when any one of the photographing modes, If data is obtained that the frequency of shooting is high at this subject distance, the proximity range may be estimated using this data.

【0046】以上のようにして合焦位置を求めた後、図
3において、ステップS107で、レリーズSW21a
が全押しされるのを待つ。尚、図示していないが、この
時点で測光処理も終了しているものとする。
After the in-focus position is obtained as described above, in step S107 in FIG. 3, the release SW 21a is released.
Wait for is pressed. Although not shown in the figure, it is assumed that the photometric processing is completed at this point.

【0047】ステップS107で、CPU11は、レリ
ーズSW21aが全押しされ、第2段のレリーズSW2
1aの押下信号(S2信号)が入力されたと判断すれ
ば、ステップS108で、画像データの取り込みを行
う。CPU11は、取り込んだ画像データに基づき、ス
テップS109で、たとえば階調補正、ホワイトバラン
スなどの画像処理に必要な画像処理パラメータを算出
し、得られた画像パラメータにより画像データに画像処
理を行った後、ステップS110で、処理された画像デ
ータを記録用メモリ9に記録する。更に、CPU11
は、ステップS111で、撮影時のレンズ位置と撮影モ
ードとを情報としてEEPROM20に書き込むことが
できる。AF評価値の山の頂点が検出できないとき(す
なわち合焦位置が検出できないとき)は、過焦点位置に
レンズを移動して撮影するように制御されるカメラがあ
る。このようなカメラの場合、撮影結果は必ずしもレン
ズが合焦位置にはないため、撮影毎にレンズの位置情報
を記録すると推定の精度が低くなる。したがって、合焦
位置が検出できずに撮影が行われた場合には、レンズ位
置情報を記録しない等、必ずしも毎回の撮影について書
き込みを行わなくてもよい。尚、古くなった情報は、近
接範囲Rの推定の精度を落とす可能性があるので、例え
ばEEPROM20に書き込むレンズ位置情報等は、最
新の撮影からさかのぼって50件までとし、古い情報は
自動的に消去するなどの更新を行うことが望ましい。そ
の後フローは、ステップS101へ戻る。
In step S107, the CPU 11 fully presses the release SW 21a to release the second release SW2a.
If it is determined that the push-down signal (S2 signal) of 1a is input, the image data is taken in at step S108. In step S109, the CPU 11 calculates image processing parameters necessary for image processing such as gradation correction and white balance based on the captured image data, and after performing image processing on the image data using the obtained image parameters. In step S110, the processed image data is recorded in the recording memory 9. Furthermore, the CPU 11
In step S111, the lens position and the shooting mode at the time of shooting can be written in the EEPROM 20 as information. Some cameras are controlled to move a lens to a hyperfocal position and take an image when the peak of the AF evaluation value cannot be detected (that is, when the in-focus position cannot be detected). In the case of such a camera, since the lens is not always in the in-focus position in the shooting result, the accuracy of estimation becomes low if the lens position information is recorded for each shooting. Therefore, when shooting is performed without being able to detect the in-focus position, the lens position information is not recorded, and it is not always necessary to write for each shooting. Since the old information may reduce the accuracy of the estimation of the proximity range R, the lens position information to be written in the EEPROM 20, for example, may be up to 50 items from the latest shooting, and the old information may be automatically updated. It is desirable to update it by deleting it. After that, the flow returns to step S101.

【0048】以上、本発明を実施の形態を参照して説明
してきたが、本発明は上記実施の形態に限定して解釈さ
れるべきではなく、適宜変更・改良が可能であることは
もちろんである。例えば、本発明はデジタルスチルカメ
ラ等の電子カメラのみではなく、銀塩カメラにも適用可
能である。
Although the present invention has been described with reference to the embodiments, the present invention should not be construed as being limited to the above embodiments, and it goes without saying that appropriate modifications and improvements are possible. is there. For example, the present invention is applicable not only to electronic cameras such as digital still cameras, but also to silver halide cameras.

【0049】[0049]

【発明の効果】本発明によれば、簡素な構成でありなが
ら、より迅速に合焦動作を行うことができるカメラを提
供することができる。
According to the present invention, it is possible to provide a camera having a simple structure and capable of performing a focusing operation more quickly.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用したデジタルスチルカメラl00
の一実施の形態を示す外観図である。
FIG. 1 is a digital still camera 100 to which the present invention is applied.
It is an external view which shows one Embodiment.

【図2】デジタルスチルカメラ100の機能的構成を示
すブロック図である。
FIG. 2 is a block diagram showing a functional configuration of a digital still camera 100.

【図3】本実施の形態のデジタルスチルカメラの動作を
示すフローチャート図である。
FIG. 3 is a flowchart showing the operation of the digital still camera according to the present embodiment.

【図4】レンズ位置と被写体距離との関係を示す図であ
る。
FIG. 4 is a diagram showing a relationship between a lens position and a subject distance.

【図5】記憶されたレンズ位置の出現頻度を表すヒスト
グラムである。
FIG. 5 is a histogram showing the appearance frequency of stored lens positions.

【符号の説明】 1 レンズ 11 CPU 13 AE/AF処理回路 18 第2モータ駆動回路 20 EEPROM[Explanation of symbols] 1 lens 11 CPU 13 AE / AF processing circuit 18 Second motor drive circuit 20 EEPROM

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H04N 101:00 G03B 3/00 A ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) // H04N 101: 00 G03B 3/00 A

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 撮影毎に得られたレンズ位置に関する情
報を記憶する記憶手段と、 前記記憶手段に記憶された前記レンズ位置に関する情報
に基づいて、次の撮影におけるレンズ位置に近接する近
接範囲を推定する推定手段と、 前記推定手段によって推定された前記近接範囲に、レン
ズを移動させる駆動手段と、を有することを特徴とする
カメラ。
1. A storage unit that stores information about a lens position obtained for each shooting, and a proximity range that is close to a lens position in the next shooting based on the information about the lens position stored in the storage unit. A camera, comprising: an estimating unit for estimating; and a driving unit for moving a lens within the proximity range estimated by the estimating unit.
【請求項2】 レンズを移動させながら取り込んだ画像
に基づいて、合焦位置を探索する機能を備えたカメラに
おいて、 撮影毎に得られたレンズ位置に関する情報を記憶する記
憶手段と、 前記記憶手段に記憶された前記レンズ位置に関する情報
に基づいて、次の撮影におけるレンズ位置を推定する推
定手段と、 前記推定手段によって推定された前記レンズ位置に対し
て所定の距離離れた所定位置に、前記レンズを移動させ
る駆動手段と、 前記所定位置からレンズ位置がある方向に合焦位置を探
索する探索手段と、を有することを特徴とするカメラ。
2. A camera having a function of searching a focus position based on an image captured while moving the lens, a storage unit for storing information on the lens position obtained for each photographing, and the storage unit. Estimating means for estimating the lens position in the next photographing based on the information relating to the lens position stored in, and the lens at a predetermined position separated by a predetermined distance from the lens position estimated by the estimating means. A camera comprising: a drive unit that moves the lens and a search unit that searches for a focus position in the direction in which the lens position is located from the predetermined position.
【請求項3】 前記推定手段は、前記記憶手段に記憶さ
れた複数の前記レンズ位置に関する情報に基づいて、出
現頻度の高いレンズ位置の範囲を求め、 前記探索手段は、求められた前記出現頻度の高いレンズ
位置の範囲の端を前記所定位置として、そこから前記範
囲内に向かって、合焦位置を探索することを特徴とする
請求項2に記載のカメラ。
3. The estimating means obtains a range of lens positions having a high appearance frequency based on the information on the plurality of lens positions stored in the storage means, and the searching means has the obtained appearance frequency. The camera according to claim 2, wherein an end of a range of a high lens position is set as the predetermined position, and a focusing position is searched from there toward the range.
【請求項4】 前記記憶手段は、撮影毎に、記憶された
前記レンズ位置を更新することを特徴とする請求項1乃
至3のいずれかに記載のカメラ。
4. The camera according to claim 1, wherein the storage unit updates the stored lens position every time photographing is performed.
【請求項5】 前記記憶手段は、前記レンズ位置と対応
づけて撮影モードを記憶し、前記推定手段は、更に前記
モードに基づいて、次の撮影における前記レンズ位置を
推定することを特徴とする請求項1乃至4のいずれかに
記載のカメラ。
5. The storage means stores a shooting mode in association with the lens position, and the estimating means further estimates the lens position in the next shooting based on the mode. The camera according to claim 1.
【請求項6】 前記レンズはフォーカシングレンズであ
ることを特徴とする請求項1乃至5のいずれかに記載の
カメラ。
6. The camera according to claim 1, wherein the lens is a focusing lens.
【請求項7】 電子カメラであることを特徴とする請求
項1乃至5のいずれかに記載のカメラ。
7. The camera according to claim 1, which is an electronic camera.
JP2002072011A 2002-03-15 2002-03-15 Camera Pending JP2003270521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002072011A JP2003270521A (en) 2002-03-15 2002-03-15 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002072011A JP2003270521A (en) 2002-03-15 2002-03-15 Camera

Publications (1)

Publication Number Publication Date
JP2003270521A true JP2003270521A (en) 2003-09-25

Family

ID=29202125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002072011A Pending JP2003270521A (en) 2002-03-15 2002-03-15 Camera

Country Status (1)

Country Link
JP (1) JP2003270521A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266784A (en) * 2004-02-18 2005-09-29 Canon Inc Imaging apparatus, its control method, its control program, and storage medium
JP2006023653A (en) * 2004-07-09 2006-01-26 Canon Inc Optical equipment
JP2012098509A (en) * 2010-11-02 2012-05-24 Sony Corp Imaging device, control method of imaging device, and program
JP2012098510A (en) * 2010-11-02 2012-05-24 Sony Corp Imaging apparatus, imaging method, and program
JP2012226247A (en) * 2011-04-22 2012-11-15 Nikon Corp Focus detector and imaging apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266784A (en) * 2004-02-18 2005-09-29 Canon Inc Imaging apparatus, its control method, its control program, and storage medium
JP2006023653A (en) * 2004-07-09 2006-01-26 Canon Inc Optical equipment
JP2012098509A (en) * 2010-11-02 2012-05-24 Sony Corp Imaging device, control method of imaging device, and program
JP2012098510A (en) * 2010-11-02 2012-05-24 Sony Corp Imaging apparatus, imaging method, and program
JP2012226247A (en) * 2011-04-22 2012-11-15 Nikon Corp Focus detector and imaging apparatus

Similar Documents

Publication Publication Date Title
US7791668B2 (en) Digital camera
JP4390286B2 (en) Camera, control method thereof, program, and storage medium
US8634016B2 (en) Imaging device and main photographic subject recognition method
US20100253831A1 (en) Electronic camera and focus control method
US8411159B2 (en) Method of detecting specific object region and digital camera
JP2007086596A (en) Camera
JP2003018433A (en) Imaging apparatus and imaging method
JP2009015117A (en) Focusing device and image pickup apparatus
JP5115210B2 (en) Imaging device
JP2009017155A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP4893334B2 (en) Image tracking device and imaging device
JP2003307669A (en) Camera
JP2007248521A (en) Image recording apparatus, image recording method, program and recording medium
JP2006033440A (en) Digital camera
JP2006195037A (en) Camera
JP5217451B2 (en) Imaging device
JP4565370B2 (en) Electronic camera and autofocus control method
JP5836761B2 (en) Focus adjustment apparatus and control method thereof
JP4859194B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2003270521A (en) Camera
JP2003084192A (en) Camera
JP2009017093A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP2008187332A (en) Image tracking device and image pickup device
JP2003222787A (en) Digital camera
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device