JP2006039254A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2006039254A
JP2006039254A JP2004219850A JP2004219850A JP2006039254A JP 2006039254 A JP2006039254 A JP 2006039254A JP 2004219850 A JP2004219850 A JP 2004219850A JP 2004219850 A JP2004219850 A JP 2004219850A JP 2006039254 A JP2006039254 A JP 2006039254A
Authority
JP
Japan
Prior art keywords
evaluation
object scene
focus
areas
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004219850A
Other languages
Japanese (ja)
Inventor
Kanichi Furuyama
貫一 古山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2004219850A priority Critical patent/JP2006039254A/en
Publication of JP2006039254A publication Critical patent/JP2006039254A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera for obtaining a field-of-view image visually in focus on a desired object. <P>SOLUTION: A CPU 34 specifies a plurality of proper intervals on a plurality of the objects in a field of view by a contrast detection method respectively when a shutter button is half-pressed, displays a plurality of object images caught at the plurality of the specified proper intervals on an LCD monitor 30 respectively, receives selection operation selecting any one of a plurality of the field-of-view images from a cursor/OK key 38, and notifies a driver 16 of the proper interval corresponding the field-of-view image selected by the selection operation. The driver 16 adjusts the position of a focus lens 12 on the basis of the notified proper interval. The CPU 34 executes the photographing when the shutter button is fully pressed after focus adjustment is completed. Thereby the field-of-view image visually in focus on the desired object can be obtained. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、カメラに関し、特にたとえば、コントラスト検出方式でオートフォーカス(AF)調整を行うカメラに関する。   The present invention relates to a camera, and more particularly to a camera that performs autofocus (AF) adjustment by a contrast detection method, for example.

従来この種のカメラでは一般に、シャッタボタンが半押しされたとき、フォーカスレンズを遠端点から近端点まで段階的に移動させつつ被写界を撮像し、移動の度に撮像された被写界像のコントラストを評価する。評価は、被写界の中央に割り当てられたAF評価エリアについて行われる。そして、評価値が最大となる被写界像に対応するフォーカス位置を合焦点として特定し、特定された合焦点に従う位置へとフォーカスレンズを移動させる。この後、シャッタボタンが全押しされたとき本撮影を実行する。   Conventionally, in this type of camera, generally, when the shutter button is pressed halfway, the focus lens is moved stepwise from the far end point to the near end point, and the object scene is imaged. Evaluate the contrast of the field image. The evaluation is performed for the AF evaluation area assigned to the center of the object scene. Then, the focus position corresponding to the object scene image having the maximum evaluation value is identified as the focal point, and the focus lens is moved to a position according to the identified focal point. Thereafter, the main photographing is executed when the shutter button is fully pressed.

従来技術では、AF評価エリア内に所望の被写体を導入した状態でシャッタ操作を行うことによって、多くの場合、所望の被写体にピントが合った適切な被写界画像が得られる。   In the related art, by performing a shutter operation in a state where a desired subject is introduced into the AF evaluation area, an appropriate scene image in which the desired subject is in focus can be obtained in many cases.

しかし、所望の被写体をAF評価エリアに導入する際には通常、所望の被写体とは別の被写体も一緒にAF評価エリア内に入り込む。もし別の被写体のコントラストが所望の被写体のそれよりも高ければ、所望の被写体がぼやけた不適切な画像しか得られない。例えば、屋外で人物を撮影するとき、人物の背後に樹木のようなコントラストの高い物体があると、後方の樹木にピントが合って人物像がぼやけることがある。また、窓ガラス越しに風景を撮影しようとすると、近くの窓ガラスにピントが合って風景全体がぼやけることもある。   However, when a desired subject is introduced into the AF evaluation area, a subject other than the desired subject usually enters the AF evaluation area together. If the contrast of another subject is higher than that of the desired subject, only an inappropriate image in which the desired subject is blurred can be obtained. For example, when a person is photographed outdoors, if there is a high contrast object such as a tree behind the person, the tree behind may be in focus and the person image may be blurred. Also, if you try to take a picture of a landscape through a window glass, the entire window may be blurred because the near window glass is in focus.

それゆえに、この発明の主たる目的は、所望の被写体にピントが合った被写界画像が得られる、カメラを提供することである。   Therefore, a main object of the present invention is to provide a camera capable of obtaining an object scene image in which a desired subject is in focus.

請求項1の発明に従うカメラは、光学レンズと撮像面との間隔を段階的に変位させる変位手段、変位手段によって間隔が変位される毎に撮像面によって捉えられた被写界像のコントラストを評価する評価手段、評価手段によって求められた評価値に基づいて被写界に属する複数の被写体にそれぞれ適正な複数の適正間隔を特定する特定手段、複数の適正間隔でそれぞれ捉えられた複数の被写界像を表示する表示手段、複数の被写界像のいずれか1つを選択する選択操作を受け付ける受付手段、および複数の適正間隔のうち選択操作によって選択された被写界像に対応する適正間隔を有効化する有効化手段を備える。   The camera according to the first aspect of the invention evaluates the contrast of the object scene image captured by the imaging surface each time the interval is displaced by the displacing means for stepwise displacing the distance between the optical lens and the imaging surface. Evaluation means, identification means for identifying a plurality of appropriate intervals appropriate for a plurality of subjects belonging to the object scene based on the evaluation values obtained by the evaluation means, and a plurality of subjects captured at the plurality of appropriate intervals, respectively Display means for displaying a field image, accepting means for receiving a selection operation for selecting any one of a plurality of object scene images, and appropriateness corresponding to an object scene image selected by a selection operation among a plurality of appropriate intervals An enabling means for enabling the interval is provided.

光学レンズと撮像面との間隔が変位手段により段階的に変位され、評価手段は、間隔が変位される毎に撮像面によって捉えられた被写界像のコントラストを評価する。特定手段は、評価手段によって求められた評価値に基づいて被写界に属する複数の被写体にそれぞれ適正な複数の適正間隔を特定する。つまり、被写界に属する複数の被写体にそれぞれ適正な複数の適正間隔をコントラスト検出方式で特定する。こうして特定された複数の適正間隔でそれぞれ捉えられた複数の被写界像が表示手段によって表示され、受付手段は、複数の被写界像のいずれか1つを選択する選択操作を受け付ける。そして有効化手段は、複数の適正間隔のうち選択操作によって選択された被写界像に対応する適正間隔を有効化する。   The distance between the optical lens and the imaging surface is displaced stepwise by the displacement means, and the evaluation means evaluates the contrast of the object scene image captured by the imaging surface every time the distance is displaced. The specifying unit specifies a plurality of appropriate intervals that are appropriate for a plurality of subjects belonging to the object scene based on the evaluation value obtained by the evaluation unit. That is, a plurality of appropriate intervals that are appropriate for a plurality of subjects belonging to the scene are specified by the contrast detection method. A plurality of scene images captured at a plurality of appropriate intervals thus identified are displayed on the display means, and the accepting means accepts a selection operation for selecting any one of the plurality of scene images. The validating means validates the appropriate interval corresponding to the object scene image selected by the selection operation among the plurality of appropriate intervals.

請求項2の発明に従うカメラは、請求項1に従属し、評価手段の評価動作と並行して複数の適正間隔にそれぞれ対応する複数の被写界像を抽出する抽出手段をさらに備え、表示手段は抽出手段によって抽出された複数の被写界像を表示する。   The camera according to the invention of claim 2 is dependent on claim 1, and further comprises an extraction means for extracting a plurality of object scene images respectively corresponding to a plurality of appropriate intervals in parallel with the evaluation operation of the evaluation means, and a display means Displays a plurality of scene images extracted by the extracting means.

評価手段の評価動作と並行して複数の適正間隔にそれぞれ対応する複数の被写界像が抽出手段によって抽出され、表示手段は、抽出された複数の被写界像を表示する。評価動作と並行して複数の被写界像が抽出されるので、評価完了後、直ちに複数の被写界像を表示することができる。   In parallel with the evaluation operation of the evaluation means, a plurality of object scene images respectively corresponding to a plurality of appropriate intervals are extracted by the extraction means, and the display means displays the extracted plurality of object scene images. Since a plurality of object scene images are extracted in parallel with the evaluation operation, a plurality of object scene images can be displayed immediately after the evaluation is completed.

請求項3の発明に従うカメラは、請求項1または2に従属し、複数の適正間隔をそれぞれ保持するための複数のエリアが形成されたメモリ、評価手段によって連続して求められた2つの評価値を互いに比較する比較手段、および比較手段の比較結果が所定条件を満たすとき複数のエリアの1つを指定する変数を変更する変更手段をさらに備える。   The camera according to the invention of claim 3 is dependent on claim 1 or 2, and is provided with a memory in which a plurality of areas for holding a plurality of appropriate intervals are formed, and two evaluation values obtained successively by the evaluation means. Comparing means for comparing each other, and changing means for changing a variable for designating one of the plurality of areas when a comparison result of the comparing means satisfies a predetermined condition.

メモリには、複数の適正間隔をそれぞれ保持するための複数のエリアが形成される。比較手段は、評価手段によって連続して求められた2つの評価値を互いに比較し、変更手段は、比較結果が所定条件を満たすとき、メモリに形成された複数のエリアの1つを指定する変数を変更する。比較結果が所定条件を満たす度にエリアを順次切り換えていくので、複数の適正間隔を複数のエリアにそれぞれ保持することができる。   A plurality of areas for holding a plurality of appropriate intervals are formed in the memory. The comparison means compares the two evaluation values successively obtained by the evaluation means with each other, and the changing means designates one of a plurality of areas formed in the memory when the comparison result satisfies a predetermined condition. To change. Since the areas are sequentially switched each time the comparison result satisfies the predetermined condition, a plurality of appropriate intervals can be held in the plurality of areas, respectively.

請求項4の発明に従うカメラは、請求項3に従属し、今回求められた評価値が前回求められた評価値を下回るという比較結果が連続する回数を検出する検出手段をさらに備え、評価値はコントラストが高いほど大きい値を示し、所定条件は検出手段によって検出された回数が閾値を上回るという閾値条件を含む。   The camera according to the invention of claim 4 is dependent on claim 3 and further comprises detection means for detecting the number of consecutive comparison results that the evaluation value obtained this time is lower than the evaluation value obtained last time, The higher the contrast, the larger the value, and the predetermined condition includes a threshold condition that the number of times detected by the detection means exceeds the threshold value.

検出手段は、今回求められた評価値が前回求められた評価値を下回るという比較結果が連続する回数を検出する。評価値はコントラストが高いほど大きい値を示し、所定条件は検出手段によって検出された回数が閾値を上回るという閾値条件を含む。   The detection means detects the number of consecutive comparison results that the evaluation value obtained this time is lower than the evaluation value obtained last time. The evaluation value indicates a larger value as the contrast is higher, and the predetermined condition includes a threshold condition that the number of times detected by the detection unit exceeds the threshold value.

請求項5の発明に従うカメラは、請求項4に従属し、所定条件は今回求められた評価値が前回求められた評価値を下回らないという数値条件をさらに含む。   The camera according to the invention of claim 5 is dependent on claim 4, and the predetermined condition further includes a numerical condition that the evaluation value obtained this time does not fall below the evaluation value obtained last time.

請求項4および5に従えば、コントラストが低下していく状態が閾値に対応する期間を超えて持続したとき、エリアの切り換えが行われる。   According to the fourth and fifth aspects, the area is switched when the state in which the contrast decreases continues beyond the period corresponding to the threshold value.

請求項6の発明に従うカメラは、請求項1に従属し、撮像面に複数の評価エリアを割り当てる割り当て手段、適正間隔で捉えられた被写界像について複数の評価エリアにそれぞれ対応する複数の局所的コントラスト評価値を算出する算出手段、および算出手段によって算出された複数の局所的コントラスト評価値のうち最大のものと対応する評価エリアを複数の評価エリアの中から選出する選出手段をさらに備え、表示手段は選出手段によって選出された評価エリアの位置を示すマーカを被写界像に重ねて表示する。   The camera according to the invention of claim 6 is dependent on claim 1, and is an assigning means for assigning a plurality of evaluation areas to the imaging surface, and a plurality of local areas respectively corresponding to the plurality of evaluation areas for the object scene image captured at an appropriate interval. A calculation means for calculating a local contrast evaluation value, and a selection means for selecting an evaluation area corresponding to the largest one of the plurality of local contrast evaluation values calculated by the calculation means from the plurality of evaluation areas, The display means displays a marker indicating the position of the evaluation area selected by the selection means on the object scene image.

撮像面には複数の評価エリアが割り当てられる。算出手段は、適正間隔で捉えられた被写界像について、複数の評価エリアにそれぞれ対応する複数の局所的コントラスト評価値を算出する。選出手段は、算出された複数の局所的コントラスト評価値のうち最大のものに対応する評価エリアを複数の評価エリアの中から選出する。表示手段は、こうして選出された評価エリアの位置を示すマーカを被写界像に重ねて表示する。これにより、表示された被写界像においてどの位置に最もピントが合っているかがわかるので、選択操作を的確に行うことができる。   A plurality of evaluation areas are assigned to the imaging surface. The calculating means calculates a plurality of local contrast evaluation values respectively corresponding to a plurality of evaluation areas for the scene image captured at an appropriate interval. The selection means selects an evaluation area corresponding to the maximum one of the plurality of calculated local contrast evaluation values from the plurality of evaluation areas. The display means displays a marker indicating the position of the evaluation area selected in this manner so as to overlap the object scene image. As a result, it is possible to know which position is most focused in the displayed object scene image, so that the selection operation can be performed accurately.

請求項7の発明に従うプログラムは、カメラのプロセサによって実行されるかつ光学レンズと撮像面との間隔を調整する間隔調整プログラムであって、間隔を段階的に変位させる変位ステップ、変位ステップによって間隔が変位される毎に撮像面によって捉えられた被写界像のコントラストを評価する評価ステップ、評価ステップによって求められた評価値に基づいて被写界に属する複数の被写体にそれぞれ適正な複数の適正間隔を特定する特定ステップ、複数の適正間隔でそれぞれ捉えられた複数の被写界像を表示する表示ステップ、複数の被写界像のいずれか1つを選択する選択操作を受け付ける受付ステップ、および複数の適正間隔のうち選択操作によって選択された被写界像に対応する適正間隔を有効化する有効化ステップを備える。   A program according to a seventh aspect of the present invention is a distance adjusting program that is executed by a camera processor and adjusts the distance between the optical lens and the imaging surface. An evaluation step that evaluates the contrast of the object scene image captured by the imaging surface each time it is displaced, and a plurality of appropriate intervals that are appropriate for a plurality of subjects belonging to the object scene based on the evaluation value obtained by the evaluation step A specifying step for specifying the image, a display step for displaying a plurality of scene images captured at a plurality of appropriate intervals, a reception step for receiving a selection operation for selecting any one of the plurality of scene images, and a plurality of steps A validating step for validating the proper interval corresponding to the object scene image selected by the selection operation among the proper intervals

この発明によれば、被写界内の複数の被写体にそれぞれ適正な複数の適正間隔をコントラスト検出方式で特定し、特定された複数の適正間隔でそれぞれ捉えられた複数の被写界像を表示し、複数の被写界像のいずれか1つを選択する選択操作を受け付け、そして選択操作によって選択された被写界像に対応する適正間隔を有効化するので、所望の被写体にピントが合った被写界画像が得られる。   According to the present invention, a plurality of appropriate intervals that are appropriate for a plurality of subjects in the scene are specified by the contrast detection method, and a plurality of scene images captured at the plurality of specified appropriate intervals are displayed. And accepting a selection operation for selecting any one of a plurality of object scene images, and enabling an appropriate interval corresponding to the object scene image selected by the selection operation, so that a desired subject is in focus. A field image is obtained.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のディジタルカメラ10は、フォーカスレンズ12を含む。被写界の光学像は、このフォーカスレンズ12を通してイメージセンサ14の受光面つまり撮像面に照射される。撮像面では、光電変換によって被写体の光学像に対応する電荷つまり生画像信号が生成される。   Referring to FIG. 1, a digital camera 10 of this embodiment includes a focus lens 12. The optical image of the object scene is irradiated to the light receiving surface of the image sensor 14, that is, the imaging surface through the focus lens 12. On the imaging surface, a charge corresponding to the optical image of the subject, that is, a raw image signal is generated by photoelectric conversion.

被写体のリアルタイム動画像つまりスルー画像をLCDモニタ30に表示するとき、CPU34は、プリ露光および間引き読み出しの繰り返しをタイミングジェネレータ/シグナルジェネレータ(TG/SG)18に命令する。TG/SG18は、イメージセンサ14のプリ露光と、これによって生成された生画像信号の間引き読み出しとを繰り返し実行する。イメージセンサ14からは、被写体の光学像に対応する低解像度の生画像信号が出力される。   When displaying a real-time moving image of a subject, that is, a through image, on the LCD monitor 30, the CPU 34 instructs the timing generator / signal generator (TG / SG) 18 to repeat pre-exposure and thinning-out reading. The TG / SG 18 repeatedly executes pre-exposure of the image sensor 14 and thinning-out reading of the raw image signal generated thereby. The image sensor 14 outputs a low-resolution raw image signal corresponding to the optical image of the subject.

出力された生画像信号は、CDS/AGC/AD回路20によってノイズ除去,レベル調整およびA/D変換の一連の処理を施され、これによってディジタル信号である生画像データが得られる。信号処理回路22は、CDS/AGC/AD回路20から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施し、YUV形式の画像データを生成する。生成された画像データはメモリ制御回路24によってSDRAM26に書き込まれ、その後同じメモリ制御回路24によって読み出される。ビデオエンコーダ28は、メモリ制御回路24によって読み出された画像データをNTSCフォーマットに従うコンポジットビデオ信号に変換し、変換されたコンポジットビデオ信号をLCDモニタ30に与える。この結果、被写体のスルー画像がモニタ画面に表示される。   The output raw image signal is subjected to a series of processes of noise removal, level adjustment and A / D conversion by the CDS / AGC / AD circuit 20, and thereby, raw image data which is a digital signal is obtained. The signal processing circuit 22 performs processing such as white balance adjustment, color separation, and YUV conversion on the raw image data output from the CDS / AGC / AD circuit 20 to generate YUV format image data. The generated image data is written into the SDRAM 26 by the memory control circuit 24 and then read out by the same memory control circuit 24. The video encoder 28 converts the image data read by the memory control circuit 24 into a composite video signal conforming to the NTSC format, and provides the converted composite video signal to the LCD monitor 30. As a result, a through image of the subject is displayed on the monitor screen.

信号処理回路22によって生成された画像データのうちYデータはまた、フォーカス調整のために、AF評価回路32に与えられる。図2を参照して、AF評価回路32は、被写界を水平方向および垂直方向の各々において16分割し、これら256個の分割エリアのうち被写界の中央に割り当てられた評価エリアE0についてYデータの高域周波数成分を積算する。これによって、高域AF評価値(以下「AF評価値」)が求められる。   Of the image data generated by the signal processing circuit 22, Y data is also provided to the AF evaluation circuit 32 for focus adjustment. Referring to FIG. 2, the AF evaluation circuit 32 divides the object scene into 16 parts in each of the horizontal direction and the vertical direction, and the evaluation area E0 assigned to the center of the object field among these 256 divided areas. Accumulate high frequency components of Y data. Thereby, a high-frequency AF evaluation value (hereinafter referred to as “AF evaluation value”) is obtained.

再び図1を参照して、シャッタボタン36が半押しされると、CPU34は、まず次のようなAF極大点検出を行う。AF極大点検出では、まずフォーカスレンズ12を遠端点に移動させる。その後、遠端点から近端点までフォーカスレンズ12を1ステップずつ移動させつつスルー撮影を行い、ステップ毎にAF評価回路32からAF評価値を取得する。こうして周期的に取得されるAF評価値の変化に基づいて、AF評価値の極大値,およびAF評価値が極大となるときのフォーカスレンズ12の位置を特定する。   Referring again to FIG. 1, when the shutter button 36 is half-pressed, the CPU 34 first performs the following AF maximum point detection. In AF maximum point detection, the focus lens 12 is first moved to the far end point. Thereafter, through imaging is performed while moving the focus lens 12 step by step from the far end point to the near end point, and an AF evaluation value is acquired from the AF evaluation circuit 32 for each step. Based on the change of the AF evaluation value periodically acquired in this way, the local maximum value of the AF evaluation value and the position of the focus lens 12 when the AF evaluation value becomes the local maximum are specified.

フォーカス位置とAF評価値との関係が図3に示されている。図3を参照して、フォーカスレンズ12を遠端点から近端点まで移動させながらスルー撮影を行えば、一般に複数のフォーカス位置でAF評価値が極大となる。ここでは、これらの極大値をAmax[0]〜Amax[i]のように記述する。また、極大値Amax[0]〜Amax[i]にそれぞれ対応するフォーカス位置つまり合焦位置をAfpos[0]〜Afpos[i]のように記述する。   The relationship between the focus position and the AF evaluation value is shown in FIG. Referring to FIG. 3, if through-shooting is performed while moving the focus lens 12 from the far end point to the near end point, the AF evaluation value generally becomes maximum at a plurality of focus positions. Here, these maximum values are described as Amax [0] to Amax [i]. Further, focus positions corresponding to the maximum values Amax [0] to Amax [i], that is, in-focus positions, are described as Afpos [0] to Afpos [i].

再び図1を参照して、CPU34には、極大値レジスタ34rおよび合焦位置レジスタ34sが設けられる。極大値レジスタ34rは、図4に示されるように、複数の領域[0],[1],[2],…で構成される。合焦位置レジスタ34sは、図5に示されるように、複数の領域[0],[1],[2],…で構成される。CPU34は、検出された極大値Amax[0]〜Amax[i]を極大値レジスタ34r内の領域[0]〜[i]にそれぞれ保持する。CPU34はまた、特定された合焦位置Afpos[0]〜Afpos[i]を合焦位置レジスタ34s内の領域[0]〜[i]にそれぞれ登録する。   Referring to FIG. 1 again, the CPU 34 is provided with a maximum value register 34r and a focus position register 34s. As shown in FIG. 4, the maximum value register 34 r includes a plurality of areas [0], [1], [2],. As shown in FIG. 5, the in-focus position register 34s is composed of a plurality of areas [0], [1], [2],. The CPU 34 holds the detected maximum values Amax [0] to Amax [i] in the areas [0] to [i] in the maximum value register 34r, respectively. The CPU 34 also registers the specified in-focus positions Afpos [0] to Afpos [i] in the areas [0] to [i] in the in-focus position register 34s, respectively.

一方、SDRAM26には、合焦フレームメモリ26mが設けられる。合焦フレームメモリ26mは、図6に示されるように、複数の領域[0],[1],[2],…で構成される。CPU34はさらに、合焦位置Afpos[0]〜Afpos[i]で撮影されたフレームつまり合焦フレーム[0]〜[i]の低解像度画像を、合焦フレームメモリ26m内の領域[0]〜[i]にそれぞれ格納する。   On the other hand, the SDRAM 26 is provided with a focusing frame memory 26m. As shown in FIG. 6, the focusing frame memory 26m is composed of a plurality of areas [0], [1], [2],. The CPU 34 further converts the frames taken at the in-focus positions Afpos [0] to Afpos [i], that is, the low-resolution images of the in-focus frames [0] to [i], into the regions [0] to [0] to the in-focus frame memory 26m. Store each in [i].

次に、CPU34は、合焦フレームメモリ26m内の画像情報に基づいて合焦フレーム[0]〜[i]のサムネイル一覧を生成し、生成されたサムネイル一覧を含む合焦フレーム選択画面(図16参照;後述)をLCDモニタ30に表示する。オペレータは、表示されたサムネイル一覧を参照して、合焦フレーム[0]〜[i]のうちいずれか1つ、より具体的には被写界内の複数の被写体のうち所望に被写体にピントが合った合焦フレームを選択する。   Next, the CPU 34 generates a thumbnail list of the focused frames [0] to [i] based on the image information in the focused frame memory 26m, and a focused frame selection screen including the generated thumbnail list (FIG. 16). Reference (described later) is displayed on the LCD monitor 30. The operator refers to the displayed thumbnail list and focuses on any one of the in-focus frames [0] to [i], more specifically, a desired subject among a plurality of subjects in the object scene. Select the in-focus frame that matches.

CPU34は、カーソル/OKキー38を介してオペレータの選択操作を受け付け、選択された合焦フレームに対応する合焦位置を合焦位置レジスタ34sから読み出す。そして、読み出された合焦位置をドライバ16に通知する。応じてドライバ16は、通知された位置までフォーカスレンズ12を移動させる。   The CPU 34 accepts the operator's selection operation via the cursor / OK key 38, and reads the focus position corresponding to the selected focus frame from the focus position register 34s. Then, the driver 16 is notified of the read focus position. In response, the driver 16 moves the focus lens 12 to the notified position.

こうしてフォーカス調整が完了した後にシャッタボタン36が全押しされると、次のような本撮影処理が実行される。本撮影処理では、CPU34は、本露光とこの本露光によって生成された全ての電荷の読み出しとをTG/SG18に命令する。イメージセンサ14は本露光を施され、これによって生成された全ての電荷つまり高解像度の生画像信号がイメージセンサ14から出力される。出力された生画像信号はCDS/AGC/AD回路20によって生画像データに変換され、生画像データは信号処理回路22によってYUV形式の画像データに変換される。変換された生画像データは、メモリ制御回路24を通してSDRAM26に書き込まれる。   When the shutter button 36 is fully pressed after the focus adjustment is completed in this way, the following main photographing process is executed. In the main photographing process, the CPU 34 instructs the TG / SG 18 to perform the main exposure and the reading of all charges generated by the main exposure. The image sensor 14 is subjected to the main exposure, and all charges generated by this, that is, a high-resolution raw image signal is output from the image sensor 14. The output raw image signal is converted into raw image data by the CDS / AGC / AD circuit 20, and the raw image data is converted into YUV format image data by the signal processing circuit 22. The converted raw image data is written into the SDRAM 26 through the memory control circuit 24.

CPU34はまた、SDRAM26に格納された画像データの圧縮処理をJPEGコーデック40に命令する。JPEGコーデック40は、メモリ制御回路24を通してSDRAM26から画像データを読み出し、読み出された画像データにJPEG圧縮を施す。これによって生成された圧縮画像データは、メモリ制御回路24を通してSDRAM26に書き込まれる。JPEG圧縮が完了すると、CPU34は、メモリ制御回路24を通してSDRAM26から圧縮画像データを読み出し、読み出された圧縮画像データを含む画像ファイルをI/F42を通して記録媒体44に記録する。   The CPU 34 also instructs the JPEG codec 40 to compress the image data stored in the SDRAM 26. The JPEG codec 40 reads image data from the SDRAM 26 through the memory control circuit 24, and performs JPEG compression on the read image data. The compressed image data generated thereby is written into the SDRAM 26 through the memory control circuit 24. When JPEG compression is completed, the CPU 34 reads the compressed image data from the SDRAM 26 through the memory control circuit 24, and records the image file including the read compressed image data on the recording medium 44 through the I / F 42.

CPU34は、具体的には図7〜図10に示すフロー図に従う処理を行う。なお、これらのフロー図に対応するプログラムは、フラッシュメモリ46に格納されている。まず図7を参照して、ステップS1では、スルー撮影命令を発行する。応じてイメージセンサ14から低解像度の生画像信号が出力され、生画像信号は、CDS/AGC/AD回路20によって生画像データに変換される。生画像データは、信号処理回路22によってYUV形式の画像データに変換され、YUV形式の画像データは、ビデオエンコーダ28によってNTSCフォーマットに従うコンポジットビデオ信号に変換される。コンポジットビデオ信号は、LCDモニタ30に与えられ、この結果、被写体のスルー画像がモニタ画面に表示される。   Specifically, the CPU 34 performs processing according to the flowcharts shown in FIGS. Note that programs corresponding to these flowcharts are stored in the flash memory 46. First, referring to FIG. 7, in step S1, a through photographing command is issued. In response, a low-resolution raw image signal is output from the image sensor 14, and the raw image signal is converted into raw image data by the CDS / AGC / AD circuit 20. The raw image data is converted to YUV format image data by the signal processing circuit 22, and the YUV format image data is converted by the video encoder 28 to a composite video signal in accordance with the NTSC format. The composite video signal is given to the LCD monitor 30. As a result, a through image of the subject is displayed on the monitor screen.

信号処理回路22によって生成された画像データのうちYデータはまた、フォーカス制御のためにAF評価回路32に与えられる。AF評価回路32は、被写界内の評価エリアE0についてYデータの高域周波数成分の積算を行い、これによって、AF評価値がAF評価回路26から出力される。   Of the image data generated by the signal processing circuit 22, Y data is also provided to the AF evaluation circuit 32 for focus control. The AF evaluation circuit 32 integrates the high frequency components of the Y data for the evaluation area E0 in the object scene, and thereby the AF evaluation value is output from the AF evaluation circuit 26.

ステップS3では、シャッタボタン36が半押しされたか否かを判別し、判別結果が肯定的であれば、ステップS5に移ってAF極大点検出(後述)を行う。次のステップS7では、AF極大点検出で得られた複数の合焦フレームの中からいずれか1つを選択する合焦フレーム選択、および選択された合焦フレームに対応する合焦位置へとフォーカスレンズ12を移動させるフォーカス調整(後述)が行われる。   In step S3, it is determined whether or not the shutter button 36 is half-pressed. If the determination result is affirmative, the process proceeds to step S5 to perform AF maximum point detection (described later). In the next step S7, focus frame selection for selecting any one of a plurality of focus frames obtained by AF maximum point detection, and focus to the focus position corresponding to the selected focus frame are performed. Focus adjustment (to be described later) for moving the lens 12 is performed.

その後、ステップS9およびS11のループに入って、半押し状態のシャッタボタン36が全押しされるか、あるいは半押し解除されるのを待つ。シャッタボタン36が全押しされるとステップS9でYESと判別され、ステップS13に移って本撮影を行う。本撮影が完了すると、ステップS1に戻る。シャッタボタン36の半押しが解除されると、ステップS11でYESと判別され、ステップS3に戻る。   Thereafter, the process enters a loop of steps S9 and S11, and waits for the half-pressed shutter button 36 to be fully pressed or half-pressed to be released. If the shutter button 36 is fully pressed, YES is determined in the step S9, and the process proceeds to a step S13 to perform the main photographing. When the main photographing is completed, the process returns to step S1. When the half-press of the shutter button 36 is released, YES is determined in the step S11, and the process returns to the step S3.

上記ステップS5のAF極大点検出は、図8および図9のサブルーチンに従って実行される。図8を参照して、まずステップS21で初期化処理を行う。初期化処理では、変数i,x,yおよびdcountに“0”がそれぞれセットされる。また、Amax[0],Amax[1],…およびAfpos[0],Afpos[1],…にも“0”がそれぞれセットされる。   The AF maximum point detection in step S5 is executed according to the subroutines shown in FIGS. Referring to FIG. 8, first, initialization processing is performed in step S21. In the initialization process, “0” is set in each of the variables i, x, y, and dcount. Also, “0” is set in Amax [0], Amax [1],... And Afpos [0], Afpos [1],.

なお、Amax[0],Amax[1],…は、極大値レジスタ34r内の領域[0],[1],…にそれぞれ保持される。Afpos[0],Afpos[1],…は、合焦位置レジスタ34s内の領域[0],[1],…にそれぞれ保持される。変数i,x,yおよびdcountは、CPU34内の別のレジスタ(図示せず)にそれぞれ保持される。   Amax [0], Amax [1],... Are held in areas [0], [1],. Afpos [0], Afpos [1],... Are held in areas [0], [1],. The variables i, x, y, and dcount are held in separate registers (not shown) in the CPU 34, respectively.

次のステップS23では、フォーカスレンズ12の位置を遠端点に移動し、その後ステップS25に移る。ステップS25では、TG/SG18からのVsyncを待つ。Vsyncが検出されると、ステップS25でYESと判別し、ステップS27〜S49の一連の処理を実行する。ステップS27では、AF評価回路32からAF評価値を取得し、取得されたAF評価値を変数xにセットする。   In the next step S23, the position of the focus lens 12 is moved to the far end point, and then the process proceeds to step S25. In step S25, it waits for Vsync from TG / SG18. When Vsync is detected, YES is determined in the step S25, and a series of processes of the steps S27 to S49 are executed. In step S27, an AF evaluation value is acquired from the AF evaluation circuit 32, and the acquired AF evaluation value is set in a variable x.

図9を参照して、ステップS29では、変数xの値が変数yの値よりも大きいか否かを判別する。この判別結果が肯定的であればステップS47に進む。ステップS47では、変数yに変数xの値をセットし、かつ変数dcountをインクリメントする。そして、ステップS49に進む。   Referring to FIG. 9, in step S29, it is determined whether or not the value of variable x is larger than the value of variable y. If this determination result is affirmative, the process proceeds to step S47. In step S47, the variable x is set to the variable y, and the variable dcount is incremented. Then, the process proceeds to step S49.

ステップS29の判別結果が否定的であれば、ステップS31に移って、変数yに変数xの値をセットする。ステップS33では、変数dcountの値が閾値ここでは“2”よりも大きいかどうかを判別する。ステップS33の判別結果が肯定的であれば、ステップS35で変数iをインクリメントし、その後ステップS37に進む。ステップS33の判別結果が否定的であれば、直ちにステップS37に進む。   If the determination result of step S29 is negative, it will move to step S31 and the value of the variable x will be set to the variable y. In step S33, it is determined whether or not the value of the variable dcount is greater than a threshold value, here “2”. If the determination result in step S33 is affirmative, the variable i is incremented in step S35, and then the process proceeds to step S37. If the determination result of step S33 is negative, the process immediately proceeds to step S37.

ステップS37では、変数dcountを初期化する。ステップS39では、変数xの値がAmax[i]の値よりも大きいか否かを判別し、判別結果が否定的であれば、ステップS49に進む。ステップS39の判別結果が肯定的であれば、まずステップS41でAmax[i]に変数xの値をセットし、次にステップS43でAfpos[i]に現在のフォーカス位置をセットし、そしてステップS45で現在の低解像度画像を合焦フレームメモリ26m内の領域[i]に格納する。その後、ステップ49に進む。   In step S37, the variable dcount is initialized. In step S39, it is determined whether or not the value of the variable x is larger than the value of Amax [i]. If the determination result is negative, the process proceeds to step S49. If the determination result in step S39 is affirmative, first, in step S41, the value of variable x is set in Amax [i], then in step S43, the current focus position is set in Afpos [i], and step S45. The current low-resolution image is stored in the area [i] in the focused frame memory 26m. Thereafter, the process proceeds to step 49.

ステップS49では、現在のフォーカス位置が近端点にあるか否かを判別する。フォーカス位置がまだ近端点に達していなければ、ステップS51でフォーカス位置を近端側に1ステップ移動させ、その後、ステップS25に戻る。フォーカス位置が近端点に達すると、上位層のルーチンに復帰する。   In step S49, it is determined whether or not the current focus position is at the near end point. If the focus position has not yet reached the near end point, the focus position is moved one step toward the near end in step S51, and then the process returns to step S25. When the focus position reaches the near end point, the routine returns to the upper layer routine.

要するに、ステップS29で現在のAF評価値(x)と1V期間前のAF評価値(y)とを比較することにより、AF評価値が減少しつつあるのか増加しつつあるのかを判別し、増加局面にあるときのみ、ステップS41,S43およびS45で変数x,現在のフォーカス位置および現在の低解像度画像を極大値レジスタ34r,合焦位置レジスタ34sおよび合焦フレームメモリ26mにそれぞれ書込んでいる。減少しつつあると判別されたときには、変数dcountがインクリメントされる。つまり変数dcountの値は、減少局面の継続期間を示す。   In short, it is determined whether the AF evaluation value is decreasing or increasing by comparing the current AF evaluation value (x) with the AF evaluation value (y) before 1V period in step S29. Only when in the phase, the variable x, the current focus position, and the current low-resolution image are written in the maximum value register 34r, the focus position register 34s, and the focus frame memory 26m, respectively, in steps S41, S43, and S45. When it is determined that the variable is decreasing, the variable dcount is incremented. That is, the value of the variable dcount indicates the duration of the decreasing phase.

ステップS33では、1つの増加局面が継続しているのか、新たな増加局面に入ったかを変数dcountの値に基づいて判別し、新たな増加局面に入ったと判別されたとき、S35で変数iをインクリメントしている。これによって、AF評価値,フォーカス位置および低解像度画像の書き込まれる領域がそれぞれ変更される。   In step S33, it is determined based on the value of the variable dcount whether one increasing phase is continuing or a new increasing phase is entered. When it is determined that a new increasing phase is entered, the variable i is set in S35. It is incrementing. Accordingly, the AF evaluation value, the focus position, and the area where the low resolution image is written are changed.

増加しつつあるAF評価値が減少に転じても、変数dcountの値が閾値“2”を超えていなければ、つまり減少局面の継続期間が2V期間を超えていなければ、まだ1つの増加局面が継続しているとみなされる。なお、閾値は、極大点の検出感度を左右する。具体的には、閾値を小さくすれば、検出される極大点の個数が増加し、閾値を大きくすれば、検出される極大点の個数が減少する。このため、必要十分な個数の極大点が検出されるように、適切な閾値が選ばれる。   Even if the AF evaluation value that is increasing starts to decrease, if the value of the variable dcount does not exceed the threshold “2”, that is, if the duration of the decreasing phase does not exceed the 2V period, there is still one increasing phase. Considered to be ongoing. The threshold affects the detection sensitivity of the maximum point. Specifically, if the threshold value is reduced, the number of detected maximum points increases, and if the threshold value is increased, the number of detected maximum points decreases. For this reason, an appropriate threshold value is selected so that a necessary and sufficient number of local maximum points is detected.

変数iは、最初の増加局面では“0”、次の増加局面では“1”というように、新たな増加局面に入る度にインクリメントされる。つまり、複数の増加局面の1つ1つは、変数iによって識別される。   The variable i is incremented each time a new increase phase is entered, such as “0” in the first increase phase and “1” in the next increase phase. That is, each of the plurality of increasing phases is identified by the variable i.

最初の増加局面[0]では、AF評価値は極大値レジスタ34r内の領域[0]に繰り返し書き込まれ、フォーカス位置は合焦位置レジスタ34s内の領域[0]に繰り返し書き込まれ、低解像度画像は合焦フレームメモリ26m内の領域[0]に繰り返し書き込まれる。次の増加局面[1]では、AF評価値は極大値レジスタ34r内の領域[1]に繰り返し書き込まれ、フォーカス位置は合焦位置レジスタ34s内の領域[1]に繰り返し書き込まれ、低解像度画像は合焦フレームメモリ26m内の領域[1]に繰り返し書き込まれる。   In the first increase phase [0], the AF evaluation value is repeatedly written in the area [0] in the maximum value register 34r, and the focus position is repeatedly written in the area [0] in the in-focus position register 34s. Is repeatedly written in the area [0] in the focused frame memory 26m. In the next increasing phase [1], the AF evaluation value is repeatedly written in the area [1] in the maximum value register 34r, and the focus position is repeatedly written in the area [1] in the in-focus position register 34s. Is repeatedly written in the area [1] in the in-focus frame memory 26m.

従って、フォーカス位置が近端点に到達した時点で、極大値レジスタ34r内の領域[0],[1],…には、増加局面[0],[1],…における最後のAF評価値つまり極大値[0],[1],…がそれぞれ残され、合焦位置レジスタ34s内の領域[0],[1],…には、増加局面[0],[1],…における最後のフォーカス位置つまり合焦位置[0],[1],…がそれぞれ残され、また、合焦フレームメモリ26m内の領域[0],[1],…には、増加局面[0],[1],…における最後の低解像度画像つまり合焦フレーム[0],[1],…の低解像度画像がそれぞれ残されることとなる。   Therefore, when the focus position reaches the near end point, the region [0], [1],... In the maximum value register 34r has a final AF evaluation value in the increase phase [0], [1],. In other words, the local maximum values [0], [1],... Remain, and the regions [0], [1],. .., And in-focus positions [0], [1],... Are left in the areas [0], [1],. 1],..., That is, low-resolution images of in-focus frames [0], [1],.

上記ステップS7の合焦フレーム選択およびフォーカス調整は、図10のサブルーチンに従って実行される。図10を参照して、まずステップS61で合焦フレームメモリ26m内の領域[0],[1],…から低解像度画像をそれぞれ読み出し、読み出された複数の低解像度画像にそれぞれ対応する複数のサムネイルをLCDモニタ30に一覧表示する。ステップS63では、カーソル/OKキー38を介し、複数のサムネイルのいずれかを選択する選択操作を受け付ける。ステップS65では、選択されたサムネイルに対応する低解像度画像の番号つまり合焦フレーム番号を変数kにセットする。   The in-focus frame selection and the focus adjustment in step S7 are executed according to the subroutine of FIG. Referring to FIG. 10, first, in step S61, low resolution images are read from areas [0], [1],... In focusing frame memory 26m, and a plurality of low resolution images respectively corresponding to the read low resolution images are read. Are displayed as a list on the LCD monitor 30. In step S63, a selection operation for selecting one of a plurality of thumbnails is accepted via the cursor / OK key 38. In step S65, the number of the low resolution image corresponding to the selected thumbnail, that is, the focused frame number is set in the variable k.

ステップS67では、合焦位置レジスタ34sの領域[k]から合焦位置つまりAfpos[k]を読み出し、フォーカスレンズ12の位置をAfpos[k]に移動する。その後、上位層のルーチンに復帰する。   In step S67, the focus position, that is, Afpos [k] is read from the area [k] of the focus position register 34s, and the position of the focus lens 12 is moved to Afpos [k]. Thereafter, the process returns to the upper layer routine.

以下、図11〜図16により具体例を説明する。まず図11を参照して、評価エリアE0内には、2つの被写体、すなわち家屋と自動車とが存在している。自動車は、家屋の後方にある。このような遠近差のある2つの被写体を含む被写界についてAF極大点検出を行うと、図12に示されるような結果が得られる。   Hereinafter, specific examples will be described with reference to FIGS. First, referring to FIG. 11, there are two subjects, that is, a house and a car, in the evaluation area E0. The car is behind the house. When AF maximum point detection is performed on the object field including two subjects having such a perspective difference, a result as shown in FIG. 12 is obtained.

図12を参照して、フォーカス位置は、遠端点側から近端点側へpos1→pos2→…→pos10のように1ステップずつ10ステップに渡って移動され、各ステップで低解像度画像の撮像とAF評価とが行われる。これにより、フォーカス位置pos1〜pos10にそれぞれ対応するAF評価値x1〜x10が得られる。   Referring to FIG. 12, the focus position is moved from the far end point side to the near end point side by 10 steps step by step from pos1 → pos2 →... → pos10, and a low-resolution image is captured at each step. And AF evaluation are performed. Thereby, AF evaluation values x1 to x10 respectively corresponding to the focus positions pos1 to pos10 are obtained.

第1〜第3ステップでは、AF評価値が増加しつつあると判別される(図9:ステップS29参照)ため、AF評価値はAmax[0]つまり極大値レジスタ34rの領域[0]に繰り返し書き込まれ、フォーカス位置はAfpos[0]つまり合焦位置レジスタ34sの領域[0]に繰り返し書き込まれ、低解像度画像は合焦フレームメモリ26mの領域[0]に繰り返し記録される。   In the first to third steps, since it is determined that the AF evaluation value is increasing (see FIG. 9: Step S29), the AF evaluation value is repeated in Amax [0], that is, the region [0] of the local maximum register 34r. The focus position is written and written repeatedly in Afpos [0], that is, the area [0] of the in-focus position register 34s, and the low-resolution image is repeatedly recorded in the area [0] of the in-focus frame memory 26m.

すなわち、第1ステップでAmax[0]に記録されたAF評価値x1は、第2ステップでAF評価値x2によって上書きされ、さらにこのAF評価値x2は、第3ステップでAF評価値x3によって上書きされる。第1ステップでAfpos[0]に記録されたフォーカス位置pos1は、第2ステップでフォーカス位置pos2によって上書きされ、さらにこのフォーカス位置pos2は、第3ステップでフォーカス位置pos3によって上書きされる。第1ステップで合焦フレームメモリ26mの領域[0]に記録された第1フレームの低解像度画像は、第2ステップで第2フレームの低解像度画像によって上書きされ、さらにこの第2フレームの低解像度画像は、第3ステップで第3フレームの低解像度画像によって上書きされる。   That is, the AF evaluation value x1 recorded in Amax [0] in the first step is overwritten by the AF evaluation value x2 in the second step, and this AF evaluation value x2 is overwritten by the AF evaluation value x3 in the third step. Is done. The focus position pos1 recorded in Afpos [0] in the first step is overwritten by the focus position pos2 in the second step, and this focus position pos2 is overwritten by the focus position pos3 in the third step. The low-resolution image of the first frame recorded in the area [0] of the focused frame memory 26m in the first step is overwritten by the low-resolution image of the second frame in the second step, and further, the low-resolution image of the second frame is overwritten. The image is overwritten with a third frame low resolution image in a third step.

第4〜第6ステップでは、AF評価値が減少しつつあると判別されるため、AF評価値,フォーカス位置および低解像度画像の記録はいずれも行われない。代わりに、減少局面の継続期間を示す変数dcount(ステップS47参照)がインクリメントされていく。   In the fourth to sixth steps, since it is determined that the AF evaluation value is decreasing, none of the AF evaluation value, the focus position, and the low resolution image is recorded. Instead, the variable dcount (see step S47) indicating the duration of the decreasing phase is incremented.

第7ステップでは、AF評価値が前回より増加し、かつ変数dcountが“3” つまり閾値“2”を越えているので、AF評価値が減少から増加に転じたと判別される。これに伴い、AF評価値の書込み先がAmax[1]つまりレジスタ34rの領域[1]に変更され、フォーカス位置の書き込み先がAFpos[1]つまりレジスタ34sの領域[1]に変更され、低解像度画像の記録先が合焦フレームメモリ26mの領域[1]に変更される(ステップS29〜S35参照)。   In the seventh step, since the AF evaluation value increases from the previous time and the variable dcount exceeds “3”, that is, exceeds the threshold value “2”, it is determined that the AF evaluation value has changed from decreasing to increasing. Accordingly, the writing destination of the AF evaluation value is changed to Amax [1], that is, the area [1] of the register 34r, and the writing destination of the focus position is changed to AFpos [1], that is, the area [1] of the register 34s. The recording destination of the resolution image is changed to the area [1] of the focused frame memory 26m (see Steps S29 to S35).

第8および第9ステップでは、第7ステップに引き続いてAF評価値が増加しつつあると判別されるため、AF評価値はAmax[1]に繰り返し書き込まれ、フォーカス位置はAfpos[1]に繰り返し書き込まれ、低解像度画像は合焦フレームメモリ26mの領域[1]に繰り返し記録される。AF評価値が減少する第10ステップ以降では、AF評価値,フォーカス位置および低解像度画像の記録は行われない。   In the eighth and ninth steps, since it is determined that the AF evaluation value is increasing following the seventh step, the AF evaluation value is repeatedly written in Amax [1], and the focus position is repeatedly written in Afpos [1]. The written low resolution image is repeatedly recorded in the area [1] of the focused frame memory 26m. After the tenth step when the AF evaluation value decreases, the AF evaluation value, the focus position, and the low resolution image are not recorded.

かくして、フォーカス位置が近端点に達した時点で、極大値レジスタ34rの領域[0]および[1]には、図13に示すようにx3およびx9がそれぞれ保持されている。また、合焦位置レジスタ34sの領域[0]および[1]には、図14に示すようにpos3およびpos9がそれぞれ保持されている。一方、合焦フレームメモリ26mの領域[0]および[1]には、図15に示すように第3フレームの低解像度画像および第9フレームの低解像度画像がそれぞれ格納されている。   Thus, when the focus position reaches the near end point, the areas [0] and [1] of the maximum value register 34r hold x3 and x9 as shown in FIG. Further, pos3 and pos9 are held in the areas [0] and [1] of the in-focus position register 34s as shown in FIG. On the other hand, in the areas [0] and [1] of the focused frame memory 26m, as shown in FIG. 15, the low resolution image of the third frame and the low resolution image of the ninth frame are stored.

この後、図16に示すように、合焦フレームメモリ26m内の2つの低解像度画像に基づく2つのサムネイル画像がLCDモニタ30に表示される。一方のサムネイル画像は家屋にピントが合っており、他方は自動車にピントが合っている。カーソル/OKキー38の操作によって、例えば自動車にピントが合ったサムネイル画像、つまり合焦フレーム[1]が選択されると、極大値レジスタ34rの領域[1]からフォーカス位置pos9が読み出される。そして、フォーカスレンズ12がこの位置に移動され、その後、シャッタ全押しに応じて本撮影が行われる。これにより、自動車にピントが合った高解像度画像が得られる。   Thereafter, as shown in FIG. 16, two thumbnail images based on the two low-resolution images in the focused frame memory 26m are displayed on the LCD monitor 30. One thumbnail image is in focus on the house, and the other is in focus on the car. When, for example, a thumbnail image focused on the automobile, that is, a focused frame [1] is selected by operating the cursor / OK key 38, the focus position pos9 is read from the area [1] of the maximum value register 34r. Then, the focus lens 12 is moved to this position, and then actual photographing is performed in response to the shutter being fully pressed. As a result, a high-resolution image focused on the automobile can be obtained.

以上から明らかなように、この実施例では、CPU34は、シャッタボタン36が半押しされたとき、被写界内の複数の被写体にそれぞれピントが合う複数の合焦位置をコントラスト検出方式で特定し、特定された複数の合焦位置でそれぞれ捉えられた複数の低解像度画像をLCDモニタ30に表示し、表示された複数の低解像度画像のいずれか1つを選択する選択操作をカーソル/OKキー38により受け付け、そして選択操作によって選択された低解像度画像に対応する合焦位置をドライバ16に通知する。応じてドライバ16は、通知された合焦位置までフォーカスレンズ12を移動させる。移動完了後、CPU34は、シャッタボタン36が全押しされたとき本撮影を実行する。これにより、所望の被写体にピントが合った適切な高解像度画像が得られる。   As is apparent from the above, in this embodiment, when the shutter button 36 is half-pressed, the CPU 34 specifies a plurality of in-focus positions that respectively focus on a plurality of subjects in the object field by the contrast detection method. The cursor / OK key is used to display a plurality of low-resolution images captured at a plurality of specified in-focus positions on the LCD monitor 30 and to select one of the displayed low-resolution images. The in-focus position corresponding to the low resolution image selected by the selection operation and selected by the selection operation is notified to the driver 16. In response, the driver 16 moves the focus lens 12 to the notified in-focus position. After the movement is completed, the CPU 34 executes the main photographing when the shutter button 36 is fully pressed. As a result, an appropriate high resolution image in which a desired subject is in focus can be obtained.

なお、この実施例では、ピント合わせのためにフォーカスレンズ12を光軸方向に移動させるようにしたが、フォーカスレンズ12に代えてあるいはフォーカスレンズ12とともに、イメージセンサ14を光軸方向に移動させるようにしてもよい。要するに、フォーカスレンズ12とイメージセンサ14の撮像面との間隔を変えればピント合わせが行える。   In this embodiment, the focus lens 12 is moved in the optical axis direction for focusing. However, the image sensor 14 is moved in the optical axis direction instead of the focus lens 12 or together with the focus lens 12. It may be. In short, focusing can be performed by changing the distance between the focus lens 12 and the imaging surface of the image sensor 14.

なお、この実施例では、複数枚の合焦フレームの低解像度画像(図16参照)をLCDモニタ30に表示し、その中から所望の被写体にピントが合った1枚を選択する選択操作を受け付けているが、例えばLCDモニタ30のサイズが小さい場合や、遠近差の小さい被写界を撮影する場合などには、どのフレームが所望の被写体にピントが合ったフレームかを見分けるのが困難である可能性もある。そこで、以下には、このような場合にも的確に選択操作を行うことができる、他の実施例について説明する。   In this embodiment, a low-resolution image (see FIG. 16) of a plurality of focused frames is displayed on the LCD monitor 30, and a selection operation for selecting one image focused on a desired subject is accepted. However, for example, when the size of the LCD monitor 30 is small or when shooting an object scene with a small perspective, it is difficult to distinguish which frame is in focus on the desired subject. There is a possibility. Therefore, in the following, another embodiment in which the selection operation can be performed accurately even in such a case will be described.

図17を参照して、この発明の他の実施例であるディジタルカメラ10aは、図1のディジタルカメラ10において、AF評価回路32に代えてAF評価回路32aを備え、かつCPU34に代えてCPU34aを備える。AF評価回路32aおよびCPU34a以外の構成要素は図1のものと同じであり、図17では省略されている。CPU34aには、CPU34のものと同様の極大値レジスタ34rおよび合焦位置レジスタ34sに加え、AF最大エリアレジスタ34tがさらに設けられる。   Referring to FIG. 17, a digital camera 10a according to another embodiment of the present invention includes an AF evaluation circuit 32a instead of the AF evaluation circuit 32 in the digital camera 10 of FIG. 1, and a CPU 34a instead of the CPU 34. Prepare. The components other than the AF evaluation circuit 32a and the CPU 34a are the same as those in FIG. 1, and are omitted in FIG. The CPU 34a is further provided with an AF maximum area register 34t in addition to the maximum value register 34r and the focus position register 34s similar to those of the CPU 34.

図18を参照して、AF評価回路32aは、評価エリアE0についてYデータの高域周波数成分を積算するのに加え、評価エリアE0内に割り当てられた5つの評価エリアE1〜E5についてもYデータの高域周波数成分を積算する。これによって、評価エリアE0〜E5の計6つのエリアについてAF評価値がそれぞれ求められる。   Referring to FIG. 18, in addition to accumulating high frequency components of Y data for evaluation area E0, AF evaluation circuit 32a also adds Y data for five evaluation areas E1 to E5 allocated in evaluation area E0. The high frequency components of are integrated. Thus, AF evaluation values are obtained for a total of six areas, evaluation areas E0 to E5.

図19を参照して、AF最大エリアレジスタ34tは、複数の領域[0],[1],[2],…で構成される。CPU34aは、AF最大エリア選出処理(後述)によって選出されたAF最大エリアASmaxArea[0]〜ASmaxArea[i]をAF最大エリアレジスタ34t内の領域[0]〜[i]にそれぞれ保持する。   Referring to FIG. 19, the AF maximum area register 34 t includes a plurality of areas [0], [1], [2],. The CPU 34a holds the AF maximum areas ASmaxArea [0] to ASmaxArea [i] selected by the AF maximum area selection process (described later) in the areas [0] to [i] in the AF maximum area register 34t, respectively.

AF最大エリアレジスタ34t内の領域[0]〜[i]に保持されたAF最大エリアASmaxArea[0]〜ASmaxArea[i]は、合焦フレーム[0]〜[i]の低解像度画像をLCDモニタ30に一覧表示するとき読み出される。そして、読み出されたAF最大エリアASmaxArea[0]〜ASmaxArea[i]に対応するスポット枠(図25参照)が、合焦フレーム[0]〜[i]の低解像度画像に重ねて表示される。   The AF maximum areas ASmaxArea [0] to ASmaxArea [i] held in the areas [0] to [i] in the AF maximum area register 34t are used to display low-resolution images of the focused frames [0] to [i] on the LCD monitor. This is read when a list is displayed in 30. Then, spot frames (see FIG. 25) corresponding to the read AF maximum areas ASmaxArea [0] to ASmaxArea [i] are displayed so as to overlap the low-resolution images of the focused frames [0] to [i]. .

上記のようなAF最大エリア選出処理およびスポット枠表示処理を行う点を除けば、CPU34aの動作はCPU34のそれ(図7〜図10参照)と同様である。   Except for performing the AF maximum area selection process and the spot frame display process as described above, the operation of the CPU 34a is the same as that of the CPU 34 (see FIGS. 7 to 10).

図20を参照して、AF最大エリア選出処理は、ステップS43とステップS45との間で行われる。CPU34aは、このステップS44のAF最大エリア選出処理を図21のサブルーチンに従って実行する。   Referring to FIG. 20, the AF maximum area selection process is performed between step S43 and step S45. The CPU 34a executes the AF maximum area selection process in step S44 according to the subroutine of FIG.

図21を参照して、まずステップS81で初期化処理を行う。具体的には、変数jおよび変数ASmaxの各々に“0”をセットする。その後、ステップS83で変数jをインクリメントし、次のステップS85では、変数jの値が“5”を超えたか否かを判別する。この判別結果が肯定的であれば上位層のルーチンに復帰し、否定的であればステップS87に移る。   Referring to FIG. 21, an initialization process is first performed in step S81. Specifically, “0” is set to each of the variable j and the variable ASmax. Thereafter, the variable j is incremented in step S83, and in the next step S85, it is determined whether or not the value of the variable j exceeds “5”. If this determination result is affirmative, the process returns to the upper layer routine, and if negative, the process proceeds to step S87.

ステップS87では、現低解像度画像について評価エリアE[j]のAF評価値AS_E[j]をAF評価回路32aから取得する。ステップS89では、取得されたAF評価値AS_E[j]が変数ASmaxの値よりも大きいか否かを判別し、判別結果が否定的であればステップS83に戻る。   In step S87, the AF evaluation value AS_E [j] of the evaluation area E [j] for the current low resolution image is acquired from the AF evaluation circuit 32a. In step S89, it is determined whether or not the acquired AF evaluation value AS_E [j] is larger than the value of the variable ASmax. If the determination result is negative, the process returns to step S83.

ステップS89の判別結果が肯定的であれば、ステップS91に移って、ステップS87で取得されたAF評価値AS_E[j]を変数ASmaxにセットする。そしてステップS93で、変数ASmaxArea[i]つまりAF最大エリアレジスタ34t内の領域[i]にE[j]をセットし、その後ステップS83に戻る。   If the determination result of step S89 is affirmative, the process proceeds to step S91, and the AF evaluation value AS_E [j] acquired in step S87 is set to the variable ASmax. In step S93, the variable ASmaxArea [i], that is, E [j] is set in the area [i] in the AF maximum area register 34t, and then the process returns to step S83.

こうしてステップS83〜S93のループが5回に渡って反復されると、結果としてAF最大エリアレジスタ34t内の領域[i]には、合焦フレーム[i]におけるAF最大エリアが登録される。   When the loop of steps S83 to S93 is repeated five times in this way, as a result, the AF maximum area in the focused frame [i] is registered in the area [i] in the AF maximum area register 34t.

図22を参照して、スポット枠表示処理は、ステップS61とステップS63との間で行われる。すなわち、ステップS61で複数の低解像度画像にそれぞれ対応する複数のサムネイルをLCDモニタ30に一覧表示した後、ステップS62に移って、AF最大エリアレジスタ34t内の領域[0]〜[i]に保持されたAF最大エリアASmaxArea[0]〜ASmaxArea[i]を読み出し、読み出されたAF最大エリアASmaxArea[0]〜ASmaxArea[i]に対応するスポット枠をオンスクリーン表示する、つまりモニタ画面上の複数のサムネイルに重ねて表示する。そして、ステップS63で、複数のサムネイルのいずれかを選択する選択操作を受け付ける。   Referring to FIG. 22, the spot frame display process is performed between step S61 and step S63. That is, after a plurality of thumbnails respectively corresponding to a plurality of low resolution images are displayed in a list on the LCD monitor 30 in step S61, the process proceeds to step S62 and held in the areas [0] to [i] in the AF maximum area register 34t. The read AF maximum areas ASmaxArea [0] to ASmaxArea [i] are read, and spot frames corresponding to the read AF maximum areas ASmaxArea [0] to ASmaxArea [i] are displayed on-screen, that is, a plurality of areas on the monitor screen are displayed. To be displayed over the thumbnail. In step S63, a selection operation for selecting one of the plurality of thumbnails is accepted.

このように、ステップS44で合焦フレームについてAF最大エリアを選出し、ステップS62でAF最大エリアを示すスポット枠をオンスクリーン表示することによって、ステップS61で表示された合焦フレームにおいてどの位置に最もピントが合っているかがわかる。このため、一覧表示された複数のサムネイルつまり複数の合焦フレームのうちどれが所望の被写体にピントが合った合焦フレームであるかを容易に見分けることができ、その結果、ステップS63での選択操作を的確に行うことができる。   As described above, the AF maximum area is selected for the in-focus frame in step S44, and the spot frame indicating the AF maximum area is displayed on-screen in step S62, so that the position of the in-focus frame displayed in step S61 is the highest. You can see if the subject is in focus. For this reason, it is possible to easily distinguish which of the plurality of thumbnails displayed in a list, that is, the plurality of in-focus frames, is the in-focus frame in focus on the desired subject. As a result, the selection in step S63 is performed. The operation can be performed accurately.

以下、具体例を説明する。ディジタルカメラ10aで図11に示されるような被写界を撮影すれば、ディジタルカメラ10で撮影したときと同様、図16のような2枚の合焦フレーム[0]および[1]が得られる。これら2枚の合焦フレーム[0]および[1]の各々について、図23(A)および図23(B)に示されように、5つの評価エリアE1〜E5の中でAF評価値が最大となるエリアを選出する。   Specific examples will be described below. When the object scene as shown in FIG. 11 is photographed with the digital camera 10a, two in-focus frames [0] and [1] as shown in FIG. . For each of these two in-focus frames [0] and [1], as shown in FIGS. 23 (A) and 23 (B), the AF evaluation value is maximum in the five evaluation areas E1 to E5. Select an area to become.

図23(A)を参照して、合焦フレーム[0]については、手前の家屋にピントが合っているため、3つの評価エリアE1,E3およびE4のいずれか、例えば評価エリアE1が選出される。図23(B)を参照して、合焦フレーム[1]については、奥の自動車にピントが合っているため、評価エリアE2が選出される。   Referring to FIG. 23 (A), for focusing frame [0], since the front house is in focus, one of three evaluation areas E1, E3 and E4, for example, evaluation area E1 is selected. The Referring to FIG. 23B, for focusing frame [1], evaluation area E2 is selected because the automobile in the back is in focus.

図24を参照して、こうして選出された評価エリアE1およびE2が、AF最大エリアレジスタ34tの領域[0]および[1](図19参照)にそれぞれ格納される。   Referring to FIG. 24, evaluation areas E1 and E2 thus selected are stored in areas [0] and [1] (see FIG. 19) of AF maximum area register 34t, respectively.

図25を参照して、2つのサムネイル画像つまり2つの合焦フレーム[0]および[1]がLCDモニタ30に表示されるとき、左側のサムネイル画像つまり合焦フレーム[0]にはエリアE1のスポット枠がオンスクリーン表示され、右側のサムネイル画像つまり合焦フレーム[1]にはエリアE2のスポット枠がオンスクリーン表示される。これらのスポット枠によって、オペレータは、左側のサムネイル画像では家屋にピントが合っており、右側のサムネイル画像では自動車にピントが合っていることを容易に知ることができる。   Referring to FIG. 25, when two thumbnail images, that is, two in-focus frames [0] and [1] are displayed on the LCD monitor 30, the left thumbnail image, that is, the in-focus frame [0], has an area E1. The spot frame is displayed on the screen, and the spot frame of the area E2 is displayed on the screen on the right thumbnail image, that is, the focused frame [1]. With these spot frames, the operator can easily know that the house is in focus in the left thumbnail image and that the car is in focus in the right thumbnail image.

なお、求めた合焦位置から合焦被写体までの距離を計算し、計算結果をさらにオンスクリーン表示することもできる。   It is also possible to calculate the distance from the obtained in-focus position to the in-focus subject and further display the calculation result on-screen.

以上では、ディジタルカメラを用いて説明したが、この発明は、銀塩フィルムカメラにも適用できる。この場合、撮像面は、フィルムの表面となる。   Although the digital camera has been described above, the present invention can also be applied to a silver salt film camera. In this case, the imaging surface is the surface of the film.

この発明の一実施例であるディジタルカメラの構成を示すブロック図である。1 is a block diagram showing a configuration of a digital camera which is an embodiment of the present invention. FIG. 被写界に割り当てられたAF評価エリアを示す図解図である。It is an illustration figure which shows AF evaluation area allocated to the object scene. フォーカス位置とAF評価値との関係を示すグラフである。It is a graph which shows the relationship between a focus position and AF evaluation value. 極大値レジスタ34rの内容を示す図解図である。It is an illustration figure which shows the content of the maximum value register | resistor 34r. 合焦位置レジスタ34sの内容を示す図解図である。It is an illustration figure which shows the content of the focusing position register | resistor 34s. 合焦フレームメモリ26mの内容を示す図解図である。It is an illustration figure which shows the content of the focusing frame memory 26m. CPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. CPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement. CPU動作のさらにその他の一部を示すフロー図である。It is a flowchart which shows a part of others of CPU operation | movement. 被写界の一例を示す図解図である。It is an illustration figure which shows an example of an object scene. 図11被写界に対するAF極大点検出の手順を説明するための図解図である。11 is an illustrative view for explaining the procedure of AF maximum point detection for the object scene. AF極大点検出後の合焦位置レジスタ34sの内容を示す図解図である。It is an illustration figure which shows the content of the focusing position register | resistor 34s after AF maximum point detection. AF極大点検出後の極大値レジスタ34rの内容を示す図解図である。It is an illustration figure which shows the content of the maximum value register | resistor 34r after AF maximum point detection. AF極大点検出後の合焦フレームメモリ26mの内容を示す図解図である。It is an illustration figure which shows the content of the focusing frame memory 26m after AF maximum point detection. 合焦フレーム選択画面を示す図解図である。It is an illustration figure which shows a focusing frame selection screen. この発明の他の実施例において図1実施例に追加される構成要素を示すブロック図である。It is a block diagram which shows the component added to FIG. 1 Example in other Example of this invention. 図17実施例において被写界に割り当てられたAF評価エリアを示す図解図である。FIG. 18 is an illustrative view showing an AF evaluation area assigned to a scene in the embodiment in FIG. 17; AF最大エリアレジスタ34tの内容を示す図解図である。It is an illustration figure which shows the content of AF maximum area register 34t. 図17実施例において追加されるCPU動作の一部(S44)を示すフロー図である。FIG. 18 is a flowchart showing a part (S44) of the CPU operation added in the embodiment in FIG. 17; 図17実施例において追加されるCPU動作の他の一部(S81〜S93)を示すフロー図である。FIG. 18 is a flowchart showing another portion (S81 to S93) of the CPU operation added in the embodiment in FIG. 17; 図17実施例において追加されるCPU動作のその他の一部(S62)を示すフロー図である。FIG. 18 is a flowchart showing another portion (S62) of the CPU operation added in the embodiment in FIG. 17; (A)は図16の合焦フレーム[0]について行われるAF最大エリア選出処理を説明するための図解図であり、(B)は図16の合焦フレーム[1]について行われるAF最大エリア選出処理を説明するための図解図である。FIG. 17A is an illustrative view for explaining AF maximum area selection processing performed for the focused frame [0] in FIG. 16, and FIG. 17B is an AF maximum area performed for the focused frame [1] in FIG. It is an illustration figure for demonstrating selection processing. AF最大エリア選出後のAF最大エリアレジスタ34tの内容を示す図解図である。It is an illustration figure which shows the content of AF maximum area register 34t after AF maximum area selection. 図16画面にオンスクリーン表示されるスポット枠を示す図解図である。FIG. 17 is an illustrative view showing a spot frame displayed on the screen on the screen.

符号の説明Explanation of symbols

10,10a…ディジタルカメラ
12…フォーカスレンズ
14…イメージセンサ
26m…合焦フレームメモリ
32,32a…AF評価回路
34,34a…CPU
34r…極大値レジスタ
34s…合焦位置レジスタ
34t…AF最大エリアレジスタ
DESCRIPTION OF SYMBOLS 10, 10a ... Digital camera 12 ... Focus lens 14 ... Image sensor 26m ... Focusing frame memory 32, 32a ... AF evaluation circuit 34, 34a ... CPU
34r: Maximum value register 34s: Focus position register 34t: AF maximum area register

Claims (7)

光学レンズと撮像面との間隔を段階的に変位させる変位手段、
前記変位手段によって前記間隔が変位される毎に前記撮像面によって捉えられた被写界像のコントラストを評価する評価手段、
前記評価手段によって求められた評価値に基づいて被写界に属する複数の被写体にそれぞれ適正な複数の適正間隔を特定する特定手段、
前記複数の適正間隔でそれぞれ捉えられた複数の被写界像を表示する表示手段、
前記複数の被写界像のいずれか1つを選択する選択操作を受け付ける受付手段、および
前記複数の適正間隔のうち前記選択操作によって選択された被写界像に対応する適正間隔を有効化する有効化手段を備える、カメラ。
A displacement means for stepwise displacing the distance between the optical lens and the imaging surface;
Evaluation means for evaluating the contrast of the object scene image captured by the imaging surface each time the interval is displaced by the displacement means;
A specifying means for specifying a plurality of appropriate intervals that are appropriate for a plurality of subjects belonging to the object scene based on the evaluation value obtained by the evaluation means;
Display means for displaying a plurality of object scene images respectively captured at the plurality of appropriate intervals;
Receiving means for accepting a selection operation for selecting any one of the plurality of object scene images; and validating an appropriate interval corresponding to the object scene image selected by the selection operation among the plurality of appropriate intervals. A camera comprising an enabling means.
前記評価手段の評価動作と並行して前記複数の適正間隔にそれぞれ対応する複数の被写界像を抽出する抽出手段をさらに備え、
前記表示手段は前記抽出手段によって抽出された複数の被写界像を表示する、請求項1記載のカメラ。
An extraction means for extracting a plurality of object scene images respectively corresponding to the plurality of appropriate intervals in parallel with the evaluation operation of the evaluation means;
The camera according to claim 1, wherein the display unit displays a plurality of object scene images extracted by the extraction unit.
前記複数の適正間隔をそれぞれ保持するための複数のエリアが形成されたメモリ、
前記評価手段によって連続して求められた2つの評価値を互いに比較する比較手段、および
前記比較手段の比較結果が所定条件を満たすとき前記複数のエリアの1つを指定する変数を変更する変更手段をさらに備える、請求項1または2記載のカメラ。
A memory in which a plurality of areas for holding the plurality of appropriate intervals are formed;
Comparison means for comparing two evaluation values successively obtained by the evaluation means, and changing means for changing a variable that designates one of the plurality of areas when the comparison result of the comparison means satisfies a predetermined condition The camera according to claim 1, further comprising:
今回求められた評価値が前回求められた評価値を下回るという比較結果が連続する回数を検出する検出手段をさらに備え、
前記評価値は前記コントラストが高いほど大きい値を示し、前記所定条件は前記検出手段によって検出された回数が閾値を上回るという閾値条件を含む、請求項3記載のカメラ。
It further comprises a detecting means for detecting the number of consecutive comparison results that the evaluation value obtained this time is lower than the evaluation value obtained last time,
The camera according to claim 3, wherein the evaluation value indicates a larger value as the contrast is higher, and the predetermined condition includes a threshold condition that a number of times detected by the detection unit exceeds a threshold value.
前記所定条件は今回求められた評価値が前回求められた評価値を下回らないという数値条件をさらに含む、請求項4記載のカメラ。   The camera according to claim 4, wherein the predetermined condition further includes a numerical condition that an evaluation value obtained this time does not fall below an evaluation value obtained last time. 前記撮像面に複数の評価エリアを割り当てる割り当て手段、
前記適正間隔で捉えられた被写界像について前記複数の評価エリアにそれぞれ対応する複数の局所的コントラスト評価値を算出する算出手段、および
前記算出手段によって算出された複数の局所的コントラスト評価値のうち最大のものと対応する評価エリアを前記複数の評価エリアの中から選出する選出手段をさらに備え、
前記表示手段は前記選出手段によって選出された評価エリアの位置を示すマーカを被写界像に重ねて表示する、請求項1記載のカメラ。
Assigning means for assigning a plurality of evaluation areas to the imaging surface;
Calculation means for calculating a plurality of local contrast evaluation values respectively corresponding to the plurality of evaluation areas for the object scene image captured at the appropriate interval; and a plurality of local contrast evaluation values calculated by the calculation means A selection means for selecting an evaluation area corresponding to the largest one from the plurality of evaluation areas;
The camera according to claim 1, wherein the display unit displays a marker indicating the position of the evaluation area selected by the selection unit so as to overlap the object scene image.
カメラのプロセサによって実行されるかつ光学レンズと撮像面との間隔を調整する間隔調整プログラムであって、
前記間隔を段階的に変位させる変位ステップ、
前記変位ステップによって前記間隔が変位される毎に前記撮像面によって捉えられた被写界像のコントラストを評価する評価ステップ、
前記評価ステップによって求められた評価値に基づいて被写界に属する複数の被写体にそれぞれ適正な複数の適正間隔を特定する特定ステップ、
前記複数の適正間隔でそれぞれ捉えられた複数の被写界像を表示する表示ステップ、
前記複数の被写界像のいずれか1つを選択する選択操作を受け付ける受付ステップ、および
前記複数の適正間隔のうち前記選択操作によって選択された被写界像に対応する適正間隔を有効化する有効化ステップを備える、間隔調整プログラム。
An interval adjustment program that is executed by a camera processor and adjusts the interval between the optical lens and the imaging surface,
A displacement step for displacing the interval stepwise;
An evaluation step for evaluating the contrast of the object scene image captured by the imaging surface each time the interval is displaced by the displacement step;
A specifying step for specifying a plurality of appropriate intervals, each of which is appropriate for a plurality of subjects belonging to the scene, based on the evaluation value obtained by the evaluation step;
A display step of displaying a plurality of object scene images respectively captured at the plurality of appropriate intervals;
An accepting step of accepting a selection operation for selecting any one of the plurality of object scene images; and validating an appropriate interval corresponding to the object scene image selected by the selection operation among the plurality of appropriate intervals. An interval adjustment program comprising an enabling step.
JP2004219850A 2004-07-28 2004-07-28 Camera Withdrawn JP2006039254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004219850A JP2006039254A (en) 2004-07-28 2004-07-28 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004219850A JP2006039254A (en) 2004-07-28 2004-07-28 Camera

Publications (1)

Publication Number Publication Date
JP2006039254A true JP2006039254A (en) 2006-02-09

Family

ID=35904308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004219850A Withdrawn JP2006039254A (en) 2004-07-28 2004-07-28 Camera

Country Status (1)

Country Link
JP (1) JP2006039254A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008089811A (en) * 2006-09-29 2008-04-17 Canon Inc Imaging apparatus and control method therefor
JP2010049148A (en) * 2008-08-25 2010-03-04 Nikon Corp Image recognition device and imaging apparatus
US7679653B2 (en) * 2007-06-21 2010-03-16 Sony Ericsson Mobile Communications Ab Digital image acquisition arranged to acquire image data related to different light configurations
JP2011114769A (en) * 2009-11-30 2011-06-09 Nikon Corp Imaging device
JP2013109271A (en) * 2011-11-24 2013-06-06 Keyence Corp Image processor, focus adjustment method, and computer program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008089811A (en) * 2006-09-29 2008-04-17 Canon Inc Imaging apparatus and control method therefor
US7679653B2 (en) * 2007-06-21 2010-03-16 Sony Ericsson Mobile Communications Ab Digital image acquisition arranged to acquire image data related to different light configurations
JP2010049148A (en) * 2008-08-25 2010-03-04 Nikon Corp Image recognition device and imaging apparatus
JP2011114769A (en) * 2009-11-30 2011-06-09 Nikon Corp Imaging device
JP2013109271A (en) * 2011-11-24 2013-06-06 Keyence Corp Image processor, focus adjustment method, and computer program

Similar Documents

Publication Publication Date Title
JP4819001B2 (en) Imaging apparatus and method, program, image processing apparatus and method, and program
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
JP4974812B2 (en) Electronic camera
US8284300B2 (en) Electronic camera
JP4923005B2 (en) Digital still camera and control method thereof
JP5195660B2 (en) Imaging apparatus, focusing method, and program
JP2008187412A (en) Electronic camera
KR101004914B1 (en) Imaging apparatus and imaging method
JP4645413B2 (en) Imaging device
CN104243804B (en) Picture pick-up device, image processing equipment and its control method
JP2006067452A (en) Video recording apparatus, and electronic camera
JP5665512B2 (en) Imaging apparatus and main subject detection method
JP2007025559A (en) Focusing position detecting method and device
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2010136058A (en) Electronic camera and image processing program
JP4948014B2 (en) Electronic camera
JP2006039254A (en) Camera
JP5397426B2 (en) Imaging apparatus, focusing method, and program
JP6660236B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5157528B2 (en) Imaging device
JP5030883B2 (en) Digital still camera and control method thereof
JP2008028956A (en) Imaging apparatus and method for generating image signal for detecting target therein
WO2013065642A1 (en) Image processing device
JP2009077175A (en) Electronic camera
JP2013016924A (en) Image evaluation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070629

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090602