JP5273220B2 - Imaging apparatus and program thereof - Google Patents
Imaging apparatus and program thereof Download PDFInfo
- Publication number
- JP5273220B2 JP5273220B2 JP2011156543A JP2011156543A JP5273220B2 JP 5273220 B2 JP5273220 B2 JP 5273220B2 JP 2011156543 A JP2011156543 A JP 2011156543A JP 2011156543 A JP2011156543 A JP 2011156543A JP 5273220 B2 JP5273220 B2 JP 5273220B2
- Authority
- JP
- Japan
- Prior art keywords
- focus
- ccd
- evaluation value
- image
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
Description
本発明は、撮像装置及びそのプログラムに係り、詳しくは、複数の撮像素子を用いて被写体にフォーカス処理を行う撮像装置及びそのプログラムに関する。 The present invention relates to an imaging apparatus and a program thereof, and more particularly, to an imaging apparatus that performs focus processing on a subject using a plurality of imaging elements and a program thereof.
近年、撮像装置、例えば、デジタルカメラにおいては、複数の撮像素子を備えたデジタルカメラが普及してきている。
それに伴い、被写体に対してピントを合わせる場合、ユーザが各撮像素子に投影される被写体の光の光路長を個別に変更させることにより、複数の被写体にピントの合った画像データを得ることができ、該得られた画像データを合成することにより被写体位置の異なる複数の被写体にピントの合った1枚の画像データを得ることができるという技術が登場してきた(特許文献1)。
In recent years, in an imaging apparatus, for example, a digital camera, a digital camera including a plurality of imaging elements has become widespread.
Along with that, when focusing on a subject, the user can individually change the optical path length of the light of the subject projected on each image sensor to obtain image data focused on a plurality of subjects. As a result, a technique has been developed in which one piece of image data focused on a plurality of subjects having different subject positions can be obtained by synthesizing the obtained image data (Patent Document 1).
しかしながら、スルー画像を見ながら各撮像素子に投影される被写体の光の光路長をユーザが手動で変更することにより、撮像素子毎に異なる被写体にピントを合わしていかなければならないため、手間がかかり面倒であるという問題点があった。
また、撮像素子毎に被写体にピントを合わせていくので、撮像素子の数に比例して、被写体に対してピントを合わす時間が長くなるという問題点があった。
また、スルー画像を見ながら手動でピントを合わせていくため、撮影したい被写体に正確にピントが合わないという問題点があった。
However, since the user must manually change the optical path length of the light of the subject projected on each image sensor while viewing the through image, it is necessary to focus on a different subject for each image sensor. There was a problem that it was troublesome.
In addition, since the subject is focused on each image sensor, there is a problem that the time for focusing on the subject becomes longer in proportion to the number of image sensors.
In addition, since manual focusing is performed while viewing a through image, there is a problem that the subject to be photographed cannot be accurately focused.
そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の撮像素子を用いて、簡易、迅速に複数の被写体にピントを合わすことができる撮像装置及びそのプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of such conventional problems, and provides an imaging apparatus and a program thereof that can easily and quickly focus on a plurality of subjects using a plurality of imaging elements. With the goal.
上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する複数の撮像素子と、前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention is configured to change the focus positions of a plurality of image pickup devices for picking up a subject and the plurality of image pickup devices, and output from the plurality of image pickup devices. An AF evaluation value is detected for each image sensor based on the image data to be detected, and a specifying means for specifying for each image sensor a focus position where the AF evaluation value is locally highest among the detected AF evaluation values; An imaging unit that performs imaging by setting the focus positions of a plurality of image pickup devices to the respective focus positions specified by the specifying unit, and a focus position where the AF evaluation value is locally highest specified by the specifying unit as but a different position in each of said plurality of image pickup elements, a range of a plurality of focus position for detection of AF evaluation values by the specifying means, before And control means for differently controlled at each of a plurality of image pickup elements, further comprising a characterized.
また、請求項2記載の発明は、更に、前記制御手段は、2つの異なる距離に存在する2つの異なる被写体の各々に対応して前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で特定されるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御することを特徴とする。 According to a second aspect of the present invention, the control unit further includes the plurality of focus positions where the AF evaluation value is locally highest corresponding to each of two different subjects existing at two different distances. The range of a plurality of focus positions where the AF evaluation value is detected by the specifying unit is controlled so as to be different for each of the plurality of image sensors, as specified by each of the image sensors .
また、請求項3記載の発明は、更に、前記撮影手段は、前記特定手段により特定した複数のフォーカス位置の中で、最も遠いフォーカス位置に少なくとも1つの撮像素子のフォーカス位置を設定し、最も近いフォーカス位置にその他の撮像素子のフォーカス位置を設定して撮影を行うことを特徴とする。
Further, in the invention according to
また、請求項4記載の発明によるプログラムは、被写体を撮像する複数の撮像素子を備えた撮像装置のコンピュータを、前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、して機能させることを特徴とする。 According to a fourth aspect of the present invention, there is provided a program according to a fourth aspect of the present invention, in which a computer of an image pickup apparatus including a plurality of image pickup devices for picking up an object changes the focus positions of the plurality of image pickup devices, and A specifying unit that detects an AF evaluation value for each image sensor based on the output image data, and specifies, for each image sensor, a focus position where the AF evaluation value is locally highest among the detected AF evaluation values; An imaging unit that performs imaging by setting the focus positions of the plurality of imaging elements to the respective focus positions specified by the specifying unit, and the AF evaluation value that is locally specified by the specifying unit is highest. A plurality of focusers for detecting an AF evaluation value by the specifying means so that a focus position becomes a different position in each of the plurality of image sensors. The range of positions, and control means for different control as in each of the plurality of image pickup elements, characterized in that to function with.
本発明によれば、複数の撮像素子を用いて、簡単、且つ、迅速に複数の被写体にピントを合わせることができる。 According to the present invention, it is possible to focus on a plurality of subjects easily and quickly using a plurality of image sensors .
以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り兼用シャッタ4、光路分離手段5、CCD6、CCD7、駆動ブロック8、TG(timing generator)9、ユニット回路10、CPU11、DRAM12、メモリ13、フラッシュメモリ14、画像表示部15、キー入力部16、ストロボ部17を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[First Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a
The
撮影レンズ2は、図示しないズームレンズを含み、レンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、図示しないズームレンズを光軸方向に駆動させるモータと、CPU11からの制御信号にしたがってモータを駆動させるモータドライバから構成されている。
The taking
絞り兼用シャッタ4は、図示しない駆動回路を含み、駆動回路はCPU11から送られてくる制御信号にしたがって絞り兼用シャッタを動作させる。この絞り兼用シャッタは、絞りとシャッタとして機能する。
絞りとは、撮影レンズ2から入ってくる光の量を制御する機構のことをいい、シャッタとは、CCD6及びCCD7に光を当てる時間を制御する機構のことをいう。CCD6及びCCD7に光を当てる時間は、シャッタの開閉速度(シャッタ速度)によって変わってくる。露出量は、この絞りとシャッタ速度によって定めることができる。
The diaphragm / shutter 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm / shutter in accordance with a control signal sent from the
The diaphragm refers to a mechanism that controls the amount of light that enters from the photographing
光路分離手段5は、プリズム、ハーフミラー等の撮影光束を2つに分離させる光学部材からなり、分離された撮影光束はそれぞれCCD6及びCCD7に投影される。
CCD6、CCD7(撮像素子)は、撮影レンズ2、光路分離手段5を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路10にそれぞれ出力する。また、CCD6及びCCD7は、TG9によって生成された所定周波数のタイミング信号にしたがって駆動する。
The optical path separating means 5 is composed of an optical member that separates the photographing light flux such as a prism and a half mirror into two, and the separated photographing light flux is projected onto the
The
駆動ブロック8は、CCD6、CCD7をそれぞれ光軸方向に移動させるモータ、モータドライバを含み、駆動ブロック8は、CPU11から送られてくる制御信号にしたがってCCD6、CCD7を別々に光軸方向に移動させる。つまり、CCD6に入射される被写体の光の光路長と、CCD7に入射される被写体の光の光路長とをそれぞれ個別に変える。これにより、CCD6及びCCD7をそれぞれ光軸方向に動かすことにより、異なった被写体にピントの合った画像データを得ることができる。
The
ユニット回路10にはTG9が接続されており、CCD6、CCD7からそれぞれ出力される撮像信号をそれぞれ相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後のそれぞれの撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のそれぞれのアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD6、CCD7の撮像信号は、ユニット回路10を経てデジタル信号としてそれぞれCPU11に送られる。
A
CPU11は、ユニット回路10から送られてきた画像データの画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理等)、画像データの圧縮・伸張(例えば、JPEG形式やMPEG形式の圧縮・伸張)の処理、フォーカス処理などを行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU11は、クロック回路を含み、このクロック回路は日付、時刻を計時するとともにタイマーとしての機能も有する。
The
メモリ13には、CPU11の各部に制御に必要な制御プログラム(例えば、フォーカス処理に必要な制御プログラム)、及び必要なデータが記録されており、CPU11は、該プログラムに従い動作する。
また、メモリ13には、それぞれの撮影シーンに対応するCCD6及びCCD7のフォーカス位置を記録したパンフォーカス位置テーブルが格納されている。
図2は、パンフォーカス位置テーブルの様子を示すものであり、それぞれの撮影シーンに対応するCCD6及びCCD7のフォーカス位置が格納されている。
In the
The
FIG. 2 shows a state of the pan focus position table, in which the focus positions of the
図2を見るとわかるように、ズームレンズのレンズ位置は、ズーム1、ズーム2、・・・、ズーム7と分かれており、ズーム1はズームが行なわれていない状態及びズームが殆ど行なわれていない状態(ズーム倍率が約1倍)の段階であることを示し、ズーム7はズームが一杯に行なわれている状態(ズーム倍率がマックスに近い状態)の段階であることを示している。
この撮影シーンの種類及びズームレンズのレンズ位置により、パンフォーカスのフォーカス位置、つまり、CCD6及びCCD7の位置が必然的に定まることとなる。
As can be seen from FIG. 2, the lens position of the zoom lens is divided into
The focus position of the pan focus, that is, the positions of the
例えば、撮影シーンが「風景と人物」であって、ズームレンズのレンズ位置がズーム1の場合には、一方のCCDのフォーカス位置は、被写界深度が2.8m〜5.0mとなるようなフォーカス位置(人物にピントが合うようなフォーカス位置)であり、他方のCCDのフォーカス位置は、被写界深度が6.0m〜∞mとなるようなフォーカス位置(風景にピントが合うようなフォーカス位置)となる。
For example, when the shooting scene is “landscape and a person” and the lens position of the zoom lens is
DRAM12は、CCD6、CCD7によってそれぞれ撮像された後、CPU11に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU11のワーキングメモリとして使用される。
フラッシュメモリ14は、CCD6及びCCD7によって撮像され、合成された画像データなどを保存しておく記録媒体である。
The
The flash memory 14 is a recording medium that stores image data and the like that are captured and synthesized by the
画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD6、CCD7によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、保存用フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。
キー入力部16は、シャッタボタン、モード切替キー、十字キー、SETキーズームキー(「W」キー、「T」キー)等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU11に出力する。
The
The
ストロボ部17は、CPU11の制御信号にしたがって、ストロボを閃光させる。CPU11は、CCD6、CCD7の出力信号の輝度成分又は図示しない測光回路によって撮影状況が暗いと判断すると、ストロボ部17に制御信号を送る。
The
B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図3のフローチャートにしたがって説明する。
ユーザのキー入力部16のモード切替キーの操作によりパンフォーカスモードに設定されると、予め記録されている撮影シーンの種類を画像表示部15に一覧表示させる(ステップS1)。表示される撮影シーンの種類としては、「風景」、「風景と人物」、「花と風景」などの撮影シーンがある。
B. Operation of
When the pan focus mode is set by the user operating the mode switching key of the
次いで、CPU11は、ユーザによって、撮影シーンの指定操作が行なわれたか否かを判断する(ステップS2)。
ユーザによって撮影シーンの指定操作が行なわれたと判断するとステップS3に進み、ユーザによって撮影シーンの指定操作が行なわれていないと判断すると、指定操作が行われたと判断するまでステップS2に留まる。
Next, the
If it is determined that an operation for specifying a shooting scene has been performed by the user, the process proceeds to step S3. If it is determined that an operation for specifying a shooting scene has not been performed by the user, the process remains in step S2 until it is determined that an operation for specifying a shooting scene has been performed.
このとき、ユーザはキー入力部16の十字キー及びSETキーの操作により、撮影したい条件に合った撮影シーンを選択して指定することができる。
具体的に説明すると、画像表示部15に一覧表示された複数の撮影シーンの中から、十字キーの操作によりカーソルを撮影したい条件に合った撮影シーン上に移動させることにより所望の撮影シーンを選択し、SETキーの操作を行なうことにより、撮影シーンの指定を行なうことができる。
At this time, the user can select and specify a shooting scene that meets the conditions to be shot by operating the cross key and the SET key of the
More specifically, a desired shooting scene is selected by moving the cursor to a shooting scene that matches the condition to be shot by operating the cross key from among a plurality of shooting scenes displayed in a list on the
ユーザによって撮影シーンの指定操作が行なわれたと判断すると、ステップS3に進み、CPU11は、該指定された撮影シーンに対応する、異なる2つのパンフォーカス位置をメモリ13のパンフォーカス位置テーブルから取得し、該取得した2つのパンフォーカス位置にCCD6及びCCD7をそれぞれ駆動させる。なお、ここでは、未だズーム操作が行なわれていないので、ズーム1と該指定された撮影シーンに対応するフォーカス位置(CCD位置)を取得することとなる。なお、言うまでもないが、ズームが行なわれている場合には、ズームレンズのレンズ位置を考慮したフォーカス位置を取得することとなる。
If it is determined that an operation for specifying a shooting scene has been performed by the user, the process proceeds to step S3, where the
例えば、ユーザが撮影シーンとして「風景と人物」を指定した場合には、メモリ13のパンフォーカス位置テーブルから取得するフォーカス位置は、被写界深度2.8m〜5.0mとなるようなフォーカス位置と、被写界深度6.0m〜∞mとなるようなフォーカス位置との2つのフォーカス位置を取得することになり(ここでは、ズーム1なので)、CCD6を該取得した一方のフォーカス位置に移動させ、CCD7を該取得した他方のフォーカス位置に移動させることとなる。
これにより、CCD6に入射する被写体の光の光路長とCCD7に入射する被写体の光の光路長を異ならせるので、それぞれ異なった被写体にピントが合った2枚の画像データを得ることが可能となる。ここでは、人物と風景にそれぞれピントの合った2枚の画像データを得ることが可能となる。
For example, when the user designates “landscape and person” as the shooting scene, the focus position acquired from the pan focus position table in the
As a result, the optical path length of the light of the subject incident on the
次いで、CPU11は、CCD6及びCCD7による被写体の撮像を開始させ、CCD6及びCCD7によって撮像された2枚の画像データ(スルー画像データ)を合成して1枚の画像データ(スルー画像データ)を生成し、該生成した画像データの画像を画像表示部15に表示させるという、いわゆるスルー画像表示を行う(ステップS4)。これにより、CCD6により得られた画像データと、CCD7により得られた画像データとを合成するので、複数の被写体(ここでは、人物と被写体)にピントの合ったスルー画像を表示させることができる。
Next, the
次いで、CPU11は、ユーザによってズームキーの操作が行なわれたか否かの判断を行う(ステップS5)。この判断は、ズームキーの操作に対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
ステップS5で、ズームキーの操作が行われたと判断すると、CPU11は、ユーザの操作にしたがって(送られてくる操作信号にしたがって)、ズームレンズを光軸方向に移動させる(ステップS6)。例えば、ユーザによってズームキーの「T」キーの操作が行なわれると、ズームレンズを光軸方向にしたがって被写体側の方へ移動させ、ユーザによってズームキーの「W」キーの操作が行なわれると、ズームレンズを光軸方向にしたがって撮影者側の方へ移動させる。
Next, the
If it is determined in step S5 that the zoom key has been operated, the
そして、ズームレンズを移動させると、CPU11は、現在のズームレンズのレンズ位置に基づいてズーム段階を判定する(ステップS7)。このズームレンズのレンズ位置は、ズーム1〜ズーム7までの7段階に分類される。
次いで、CPU11は、該判定したズーム段階及びステップS2で指定された撮影シーンに対応する、異なる2つのフォーカス位置を取得し、該取得した2つのフォーカス位置にCCD6及びCCD7をそれぞれ移動させて(ステップS8)、ステップS9に進む。ズームレンズのレンズ位置(焦点距離)が異なれば、フォーカス位置も変わってくるからである。
一方、ステップS5で、ズーム操作が行われていないと判断すると、そのままステップS9に進む。
When the zoom lens is moved, the
Next, the
On the other hand, if it is determined in step S5 that the zoom operation has not been performed, the process proceeds directly to step S9.
ステップS9に進むと、ユーザによってシャッタボタンが押下されたか否かの判断を行う。この判断は、ユーザのシャッタボタン押下に対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
ステップS9で、シャッタボタンが押下されていないと判断するとステップS4に戻り、ステップS9で、シャッタボタンが押下されたと判断するとCCD6及びCCD7を用いて静止画撮影処理を行う(ステップS10)。
In step S9, it is determined whether or not the shutter button has been pressed by the user. This determination is made based on whether or not an operation signal corresponding to the user pressing the shutter button is sent from the
If it is determined in step S9 that the shutter button has not been pressed, the process returns to step S4. If it is determined in step S9 that the shutter button has been pressed, still image shooting processing is performed using the
そして、CPU11は、CCD6から得られた静止画像データと、CCD7から得られた静止画像データとを合成し、該合成した画像データを圧縮してフラッシュメモリ14に記録する(ステップS11)。これにより、複数の被写体にピントの合った画像データを記録することができる。
Then, the
C.以上のように、第1の実施の形態においては、ユーザによって選択された撮影シーン及びズームレンズのレンズ位置に対応した異なる2つのフォーカス位置を取得し、該取得した異なる2つのフォーカス位置にCCD6、CCD7をそれぞれ移動させるようにしたので、簡単且つ迅速に複数の被写体にピントを合わせることができる。
また、撮影シーンに対応する異なる2つのフォーカス位置を取得するので、撮影状況にあったフォーカス位置を取得することができ、確実に撮影したい複数の被写体にピントを合わせることができる。
C. As described above, in the first embodiment, two different focus positions corresponding to the photographing scene selected by the user and the lens position of the zoom lens are acquired, and the
In addition, since two different focus positions corresponding to the shooting scene are acquired, it is possible to acquire a focus position suitable for the shooting situation, and it is possible to focus on a plurality of subjects to be surely shot.
[第2の実施の形態]
次に第2の実施の形態について説明する。
第1の実施の形態においては、ユーザが撮影シーンを選択し、該選択した撮影シーンに対応するフォーカス位置にCCD6及びCCD7を移動させるというものであるが、第2の実施の形態においては、ユーザが迅速な撮影を要求している場合は、撮影シーンを自動判定してパンフォーカスにより複数の被写体にピントを合わせ、ユーザが迅速な撮影を要求していない場合には、コントラストAF処理により複数の被写体にピントを合わせるというものである。
[Second Embodiment]
Next, a second embodiment will be described.
In the first embodiment, the user selects a shooting scene and moves the
D.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
但し、キー入力部16のシャッタボタンは、半押し操作と全押し操作が可能なシャッタボタンである。
また、メモリ9のパンフォーカス位置テーブルは、図2のパンフォーカス位置テーブルに換えて、図4に示すようなパンフォーカス位置テーブルが格納されている。
D. Operation of
However, the shutter button of the
The pan focus position table in the
図4のパンフォーカス位置テーブルには、優先フォーカスの種類及びズームレンズのレンズ位置に対応するパンフォーカスのフォーカス位置がそれぞれ記録されている。
優先フォーカスの種類としては、近景優先フォーカス、絞り開放の遠景フォーカス、絞り開放でない遠景フォーカスの3種類からなる。この優先フォーカスの種類及びズームレンズのレンズ位置によりパンフォーカスのフォーカス位置が必然的に定まることとなる。
以下、第2の実施の形態のデジタルカメラ1の動作を図5及び図6のフローチャートにしたがって説明する。
The pan focus position table of FIG. 4 records the focus position of the pan focus corresponding to the type of priority focus and the lens position of the zoom lens.
There are three types of priority focus: foreground priority focus, distant focus with full aperture, and distant focus with no aperture open. The focus position of the pan focus is inevitably determined by the type of priority focus and the lens position of the zoom lens.
Hereinafter, the operation of the
ユーザのキー入力部16のモード切替キーの操作により撮影モードに設定されると、CPU11は、CCD6、CCD7のうちどちらか一方のCCDを駆動させることにより撮像を開始させ、該撮像された被写体の画像データに対して画像処理を施してバッファメモリに記憶させ、該記憶させた画像データを画像表示部15に表示させるという、いわゆるスルー画像表示を開始させる(ステップS51)。なお、他方のCCDも駆動させることにより、両方のCCD(CCD6、CCD7)で被写体の撮像を開始させ、一方のCCDにより得られた画像データと、他方のCCDで得られた画像データとを合成して1枚の画像データを生成し、該生成した画像データをスルー画像として表示させるようにしてもよい。
そして、スルー画像表示を開始させると、CPU11は、現在のズームレンズのレンズ位置に対応した焦点距離でAE処理(自動露出)を実行し、撮像された画像データに対してホワイトバランス処理などの画像処理を施す(ステップS52)。
When the photographing mode is set by the user operating the mode switching key of the
When the through image display is started, the
次いで、CPU11は、ユーザによってキー入力部16のズームキーの操作が行なわれたか否かの判断を行う(ステップS53)。
ステップS53で、ズームキーの操作が行われたと判断すると、CPU11は、ユーザのズームキーの操作にしたがって、ズームレンズを移動させて(ステップS54)、ステップS55に進み、ステップS53で、ズームキーの操作が行われていないと判断するとそのままステップS55に進む。
ステップS55に進むと、CPU11は、ユーザによってシャッタボタンが半押しされたか否かの判断を行う。この判断は、シャッタボタン半押しに対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
Next, the
If it is determined in step S53 that the zoom key has been operated, the
In step S55, the
ステップS55で、シャッタボタンが半押しされていないと判断すると、ステップS52に戻り、ステップS55で、シャッタボタンが半押しされたと判断すると、CPU11は、半押し直前に取得したスルー画像に基づき、本撮影用の露出値(絞り値、シャッタ速度、増幅率)、ホワイトバランス値等の撮影条件をロックするとともに、ストロボモードが強制発光モード、オートストロボモード、発光禁止モードのうちどのモードであるか否かを判断し、オートストロボモードの場合には、駆動させているCCDからの画像データの輝度成分(半押し直前に取得したスルー画像)又は図示しない測光回路によって撮像された画像が暗いか否かの判断を行い、ストロボを閃光させるか否かの判断も行ってストロボ発光On/Offの撮影条件もロックして(ステップS56)、タイマーをスタートさせる(ステップS57)。
If it is determined in step S55 that the shutter button is not half-pressed, the process returns to step S52. If it is determined in step S55 that the shutter button is half-pressed, the
そして、CPU11は、タイムアップしたか否かの判断を行う(ステップS58)。このタイムアップしたか否かの判断は、タイマーが所定時間(ここでは、0.05秒)を経過したか否かにより判断する。
ステップS58で、タイムアップしていないと判断すると、CPU11は、シャッタボタンが全押しされたか否かの判断を行う(ステップS59)。この判断は、シャッタボタン全押しに対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
ステップS59で、シャッタボタンが全押しされていないと判断するとステップS58に戻る。
Then, the
If it is determined in step S58 that the time is not up, the
If it is determined in step S59 that the shutter button has not been fully pressed, the process returns to step S58.
タイムアップしたと判断する前に、ここでは、シャッタボタンが半押しされてから0.05秒経過する前に、シャッタボタンが全押しされたと判断すると(ステップS59でYに分岐)、迅速な撮影が要求されているものと判断して、本発明のパンフォーカス処理を行うべく、CPU11は、撮影シーンに基づく優先フォーカスの種類の判定処理を行う(ステップS60)。つまり、現在の撮影シーンを自動判断し、該判断した撮影シーンに対応する優先フォーカスの種類の判定処理を行う。この判定処理については後で詳細に説明する。判定される優先フォーカスの種類としては、近景優先フォーカス、絞り開放の遠景優先フォーカス、絞り開放でない遠景優先フォーカスがある。
Before determining that the time has expired, here, if it is determined that the shutter button has been fully pressed before 0.05 seconds have elapsed since the shutter button was pressed halfway (branch to Y in step S59), rapid shooting is performed. In order to perform the pan focus process of the present invention, the
次いで、CPU11は、現在のズームレンズのレンズ位置に基づいてズーム段階を判定する(ステップS61)。このズームレンズのレンズ位置は、ズーム1〜ズーム7までの7段階に分類される。
次いで、CPU11は、ステップS60の判定処理により判定された優先フォーカスの種類及び該判定したズーム段階に対応する、異なる2つのパンフォーカスのフォーカス位置をメモリ13に格納されているパンフォーカス位置テーブルから取得する(ステップS62)。
次いで、CPU11は、該取得した2つのフォーカス位置にCCD6及びCCD7をそれぞれ駆動させて(ステップS63)、図6のステップS67に進む。
Next, the
Next, the
Next, the
一方、シャッタボタンが全押しされたと判断される前に、タイムアップしたと判断すると(ステップS58でYに分岐)、CPU11は、コントラスト検出方式によるAF処理を用いて、複数のフォーカスポイントのうち、最も被写体が近いフォーカスポイントと、最も被写体が遠いフォーカスポイントとにピントを合わせるAF処理を実行する(図6のステップS64)。
On the other hand, if it is determined that the time has expired before it is determined that the shutter button has been fully pressed (branch to Y in step S58), the
このAF処理の実行を具体的に説明すると、現在被写体を撮像しているCCDの光路長をサーチ範囲内で変えていき、つまり、該CCDを光軸方向にサーチ範囲内で動かしていき、各光路長(各CCDの位置)におけるCCDから出力された撮像信号に基づいて、各フォーカスポイントのAF評価値を検出していくことにより、各フォーカスポイントにおけるAF評価値がピークとなる光路長、つまり、CCDの位置に基づいて最も被写体が近いフォーカスポイントと、最も被写体が遠いフォーカスポイントを検出する。そして、該検出した最も被写体が遠いフォーカスポイントにピントが合うような位置(最も被写体が遠いフォーカスポイントのAF評価値がピークとなる位置)に一方のCCD(CCD6又はCCD7)を移動させ、最も被写体が近いフォーカスポイントにピントが合うような位置(最も被写体が近いフォーカスポイントのAF評価値がピークとなる位置)に他方のCCD(CCD7又はCCD6)を移動させる。なお、AF処理の実行中、他方のCCDを駆動させ、この他方のCCDにより得られた画像データをスルー画像として画像表示部15に表示させるようにしてもよい。
The execution of this AF process will be described in detail. The optical path length of the CCD that is currently imaging the subject is changed within the search range, that is, the CCD is moved in the optical axis direction within the search range. By detecting the AF evaluation value at each focus point based on the imaging signal output from the CCD at the optical path length (position of each CCD), the optical path length at which the AF evaluation value at each focus point reaches a peak, that is, Based on the position of the CCD, the focus point closest to the subject and the focus point farthest from the subject are detected. Then, one CCD (CCD6 or CCD7) is moved to a position where the detected focus point is farthest (the position where the AF evaluation value of the focus point where the subject is farthest reaches a peak), and the most subject The other CCD (CCD7 or CCD6) is moved to a position where the focus point is close to (the position where the AF evaluation value of the focus point closest to the subject is at the peak). During execution of the AF process, the other CCD may be driven, and the image data obtained by the other CCD may be displayed on the
例えば、図7はステップS64のAF処理を説明するための図である。
図7を見るとわかるように、人と家と2つの山(奥の山と、手前の山)がCCDにより撮像されており、フォーカスフレーム21は奥の山に位置し、フォーカスフレーム22は手前の山に位置し、フォーカスフレーム23は家に位置し、フォーカスフレーム24は人に位置していることがわかる。ここで、フォーカスフレームは、フォーカスポイントを示すものである。
この場合には、一番遠い被写体は奥の山であり、一番近い被写体は人となるので、奥の山に位置しているフォーカスフレーム21にピントが合うような位置に一方のCCDを移動させ、人に位置しているフォーカスフレーム24にピントが合うような位置に他方のCCDを移動させることとなる。
For example, FIG. 7 is a diagram for explaining the AF process in step S64.
As can be seen from FIG. 7, a person, a house, and two mountains (back mountain and front mountain) are imaged by the CCD, the
In this case, the farthest subject is the back mountain, and the closest subject is a person, so one CCD is moved to a position where the
なお、ステップS64のAF処理は、現在撮像している一方のCCDを用いてAF処理を行うようにしたが、両方のCCDを駆動させることにより、AF処理を分担させて行うようにしてもよい。
具体的に説明すると、AFサーチ範囲内におけるAF評価値を検出する各光路長(各CCDの位置)を、CCD6とCCD7とに分けて検出するようにし、サーチ範囲を分担させるようにする。
例えば、CCDの駆動範囲の端から端までで、AF評価値を検出するCCD位置が8つある場合には、一方のCCDで、1番目、2番目、3番目、4番目の位置の各フォーカスポイントのAF評価値を検出し、他方のCCDで、5番目、6番目、7番目、8番目の位置の各フォーカスポイントのAF評価値を検出する。
そして、各フォーカスポイントにおけるAF評価値がピークとなる光路長、つまり、CCDの位置に基づいて最も被写体が近いフォーカスポイントと、最も被写体が遠いフォーカスポイントを検出する。そして、該検出した最も被写体が遠いフォーカスポイントにピントが合うような位置(AF評価値がピークとなる位置)に一方のCCD(CCD6又はCCD7)を移動させ、最も被写体が近いフォーカスポイントにピントが合うような位置(AF評価値がピークとなる位置)に他方のCCD(CCD7又はCCD6)を移動させる。
The AF process in step S64 is performed by using one CCD that is currently imaged. However, the AF process may be shared by driving both CCDs. .
More specifically, each optical path length (position of each CCD) for detecting an AF evaluation value within the AF search range is detected separately for the
For example, when there are eight CCD positions from the end of the CCD drive range to detect the AF evaluation value, each focus at the first, second, third, and fourth positions is detected with one CCD. The AF evaluation value of the point is detected, and the AF evaluation value of each focus point at the fifth, sixth, seventh, and eighth positions is detected by the other CCD.
Then, the focus point closest to the subject and the focus point farthest from the subject are detected based on the optical path length at which the AF evaluation value at each focus point reaches a peak, that is, the position of the CCD. Then, one CCD (CCD6 or CCD7) is moved to a position where the detected farthest subject is in focus (the position where the AF evaluation value reaches a peak), and the focus point closest to the subject is focused. The other CCD (CCD7 or CCD6) is moved to a position that matches (the position where the AF evaluation value reaches a peak).
図6のフローチャートに戻り、ステップS64のAF処理を実行させると、CPU11は、該AF処理が完了したか否かの判断を行なう(ステップS65)。
ステップS65で、AF処理が完了していないと判断すると完了したと判断するまでステップS65に留まり、ステップS65で、AF処理が完了したと判断すると、ユーザによってシャッタボタンが全押しされたか否かの判断を行う(ステップS66)。
ステップS66で、シャッタボタンが全押しされていないと判断すると、シャッタボタンが全押しされるまでステップS66に留まり、ステップS66で、シャッタボタンが全押しされたと判断するとステップS67に進む。
Returning to the flowchart of FIG. 6, when the AF process of step S64 is executed, the
If it is determined in step S65 that the AF process has not been completed, the process remains in step S65 until it is determined that the AF process has been completed. If it is determined in step S65 that the AF process has been completed, whether or not the shutter button has been fully pressed by the user is determined. A determination is made (step S66).
If it is determined in step S66 that the shutter button is not fully pressed, the process stays in step S66 until the shutter button is fully pressed. If it is determined in step S66 that the shutter button is fully pressed, the process proceeds to step S67.
なお、ステップS64の処理が完了したと判断した後(ステップS65でyに分岐)、シャッタボタンが全押しされたと判断するまでの間は(ステップS66でnに分岐)、他方のCCDも駆動させることにより、両方のCCD(CCD6、CCD7)で被写体の撮像を行なわせ、一方のCCDにより得られた画像データと、他方のCCDで得られた画像データとを合成して1枚の画像データを生成し、該生成した画像データをスルー画像として表示させるようにしてもよい。これにより、複数の被写体にピントの合ったスルー画像を画像表示部15に表示させることが可能となる。 After determining that the process of step S64 is completed (branch to y in step S65), the other CCD is also driven until it is determined that the shutter button is fully pressed (branch to n in step S66). As a result, both the CCDs (CCD6 and CCD7) pick up an image of a subject, and the image data obtained by one CCD and the image data obtained by the other CCD are combined to form one piece of image data. The generated image data may be displayed as a through image. As a result, it is possible to display on the image display unit 15 a through image in which a plurality of subjects are in focus.
ステップS63でパンフォーカス位置テーブルから取得したフォーカス位置にCCD6及びCCD7を移動させると、又は、ステップS66でシャッタボタンが全押しされたと判断すると、ステップS67に進み、ステップS56でロックした撮影条件下でCCD6及びCCD7を用いて静止画撮影処理を行う(ステップS67)。
そして、CPU11は、CCD6から得られた静止画像データと、CCD7から得られた静止画像データとを合成し、該合成した画像データを圧縮してフラッシュメモリ14に記録する(ステップS68)。これにより、複数の被写体にピントの合った画像データを記録することができる。
If the
Then, the
次に、撮影シーンに基づく優先フォーカスの種類の判定処理を図8のフローチャートにしたがって説明する。
ここでは、ストロボ発光による撮影か否か、超高照度又は超低照度か否か、フリッカーを検出したか否か、屋外か否か、絞り開放か否かの判断により撮影シーンの自動判断を行い、該判断された撮影シーンに基づいて、近景優先フォーカスか、絞り開放の遠景優先フォーカスか、絞り開放でない遠景優先フォーカスか否かの判定を行う。
Next, priority focus type determination processing based on the shooting scene will be described with reference to the flowchart of FIG.
Here, the shooting scene is automatically judged based on whether it is shooting with strobe light, whether it is ultra-high illuminance or ultra-low illuminance, whether flicker is detected, whether it is outdoors, or whether the aperture is open. Then, based on the determined shooting scene, it is determined whether the focus is a foreground priority focus, a distant view priority focus with the aperture wide open, or a distant view priority focus with the aperture not open.
図5のステップS60に進むと、図8のステップ101に進み、CPU11は、ストロボ発光による撮影か否かを判断する。この判断は、図5のステップS56でロックされた撮影条件によって判断する。
ステップS101で、ストロボ発光による撮影であると判断するとステップS105に進み、ストロボ発光による撮影でないと判断するとステップS102に進む。
When the process proceeds to step S60 in FIG. 5, the process proceeds to step 101 in FIG. 8, and the
If it is determined in step S101 that the shooting is based on flash emission, the process proceeds to step S105. If it is determined that the shooting is not based on flash emission, the process proceeds to step S102.
ストロボ発光による撮影でないと判断し、ステップS102に進むと、CPU11は、シャッタボタン全押し時又は半押し時に取得したスルー画像に基づき、超高照度又は超低照度であるか否かを判断する。超高照度又は超低照度であると判断した場合はステップS106に進み、超高照度でもなければ超低照度でもないと判断するとステップS103に進む。この超高照度、超低照度の判断は、CCDに射光された光が変換された電荷量により判断する。
If it is determined that the image is not shot with flash, and the process proceeds to step S102, the
超高照度でも超低照度でもないと判断し、ステップS103に進むと、CPU11は、シャッタボタンの全押し時に取得したスルー画像中からフリッカーを検出したか否かを判断する。フリッカーを検出した場合にはステップS105に進み、フリッカーを検出していない場合はステップS104に進む。
If it is determined that the illuminance is neither ultra-high illuminance nor ultra-low illuminance and the process proceeds to step S103, the
フリッカーを検出していないと判断し、ステップS104に進むと、撮影場所が屋外か屋内かを判断する。この判断は、図5のステップS56でロックされた撮影条件のホワイトバランス、つまり、自動ホワイトバランス処理により得た光の光源の色温度が太陽光の色温度であると判断すると屋外と判断し、自動ホワイトバランス処理により得た光の光源が太陽光の色温度でないと判断すると屋内と判断する。ステップS104で、屋外でないと判断するとステップS105に進み、屋外であると判断するとステップS106に進む。 If it is determined that no flicker has been detected and the process proceeds to step S104, it is determined whether the shooting location is outdoor or indoor. This determination is made when the white balance of the shooting conditions locked in step S56 of FIG. 5, that is, when the color temperature of the light source obtained by the automatic white balance processing is the color temperature of sunlight, is determined to be outdoors. If it is determined that the light source of light obtained by the automatic white balance processing is not the color temperature of sunlight, it is determined indoors. If it is determined in step S104 that it is not outdoors, the process proceeds to step S105, and if it is determined that the object is outdoors, the process proceeds to step S106.
ステップS101でストロボ発光による撮影と判断した場合、ステップS103でフリッカーを検出したと判断した場合、ステップS104で屋外でないと判断した場合は、近景優先フォーカスと判定する(ステップS105)。
一方、ステップS102で、超高照度又は超低照度と判断した場合、ステップS104で屋外と判断した場合には、ステップS106に進み、絞り開放であるか否かの判断を行う。この判断は、図5のステップS56でロックされた撮影条件に基づいて判断する。
If it is determined in step S101 that shooting is performed with flash emission, if it is determined in step S103 that flicker has been detected, or if it is determined in step S104 that it is not outdoors, the focus is determined to be a foreground priority focus (step S105).
On the other hand, if it is determined in step S102 that it is ultra-high illuminance or ultra-low illuminance, or if it is determined in step S104 that it is outdoors, the process proceeds to step S106, where it is determined whether or not the aperture is full. This determination is made based on the shooting conditions locked in step S56 in FIG.
ステップS106で、絞り開放であると判断すると、絞り開放の遠景優先フォーカスと判定し(ステップS107)、絞り開放でないと判断すると、絞り開放でない遠景優先フォーカスと判定する(ステップS108)。
そして、優先フォーカスの種類の判定を行なうと、図5のステップS61に進む。
このようにして、撮影シーンに基づいて、優先フォーカスの種類の判定を行なう。
If it is determined in step S106 that the aperture is wide open, it is determined that the distant view priority focus is wide open (step S107), and if it is determined that the aperture is not full open, it is determined that the distant view priority focus is not wide open (step S108).
When the priority focus type is determined, the process proceeds to step S61 in FIG.
In this way, the priority focus type is determined based on the shooting scene.
E.以上のように、第2の実施の形態においては、シャッタボタンが一気に全押しされると、迅速な撮影が要求されているものと判断して、撮影シーンを自動判断し、該判断した撮影シーンに基づいて優先フォーカスを判断し、該判断した優先フォーカスの種類及びズームレンズのレンズ位置に対応する、異なる2つのフォーカス位置を取得するようにしたので、簡単、且つ、迅速に複数の被写体にピントを合わせることができる。
また、撮影シーンを自動判断し、撮影シーンに応じて異なる2つのフォーカス位置を取得するので、撮影状況にあったフォーカス位置を取得することができ、確実に撮影したい複数の被写体にピントを合わせることができる。
また、シャッタボタンが半押しされると、迅速な撮影が要求されていないものと判断し、各フォーカスポイントにおけるAF評価値がピークとなるCCDの位置に基づいて、最も被写体位置が遠いフォーカスポイントと、最も被写体位置が近いフォーカスポイントとを検出することにより、最も遠い被写体と、最も近い被写体に対してフォーカスを行なうようにしたので、確実に複数の被写体にピントを合わすことができ、また、広範囲に複数の被写体にピントを合わすことができる。
E. As described above, in the second embodiment, when the shutter button is fully pressed all at once, it is determined that quick shooting is required, the shooting scene is automatically determined, and the determined shooting scene is determined. The priority focus is determined based on the two, and two different focus positions corresponding to the determined priority focus type and the lens position of the zoom lens are acquired, so that it is easy and quick to focus on multiple subjects. Can be combined.
In addition, the camera automatically determines the shooting scene and acquires two different focus positions depending on the shooting scene, so you can acquire the focus position that suits the shooting situation and focus on multiple subjects you want to shoot reliably. Can do.
Further, when the shutter button is half-pressed, it is determined that quick shooting is not requested, and the focus point with the farthest subject position is determined based on the CCD position where the AF evaluation value at each focus point peaks. By detecting the focus point that is closest to the subject position, focusing is performed on the farthest subject and the closest subject, so that multiple subjects can be in focus reliably, You can focus on multiple subjects.
[変形例]
上記各実施の形態は、以下のような変形例も可能である。
(1)上記第1の実施の形態においては、複数の撮影シーンを設けるようにしたが、1つの撮影シーンしか設けないようにしてもよい。この場合には、撮影シーンをユーザが選択することなく、パンフォーカスモードに設定すると自動的に、決められた、各フォーカス位置に各CCDを移動させることとなる。
また、第1の実施の形態においては、複数の撮影シーンの中から任意の撮影シーンをユーザが手動操作で選択するようにしたが、第2の実施の形態と同様に、撮影シーンを自動判断し、この自動判断された撮影シーンに対応する各フォーカス位置に各CCDを移動させるようにしてもよい。
また、第1の実施の形態においては、パンフォーカスモードの設定に応答して撮影シーンの一覧表示が行なわれるようにしたが、スルー画像表示中の任意のタイミングでユーザがメニューキー等のキー操作を行なうことにより撮影シーンの一覧表示が行なわれるようにしてもよい。
また、第2の実施の形態においては、撮影シーンを自動判断し、この自動判断された撮影シーンに対応する各フォーカス位置に各CCDを移動させるようにしたが、シャッタボタンが一気に全押しされると、予め決められた各フォーカス位置に各CCDを移動させるようにしたり、予めユーザにより手動設定されている各フォーカス位置に各CCDを移動させるようにしてもよい。
[Modification]
Each of the above embodiments can be modified as follows.
(1) Although a plurality of shooting scenes are provided in the first embodiment, only one shooting scene may be provided. In this case, the CCD is automatically moved to each determined focus position when the pan focus mode is set without the user selecting a shooting scene.
In the first embodiment, the user manually selects an arbitrary shooting scene from a plurality of shooting scenes. However, as in the second embodiment, the shooting scene is automatically determined. Then, each CCD may be moved to each focus position corresponding to the automatically determined shooting scene.
In the first embodiment, the list of shooting scenes is displayed in response to the setting of the pan focus mode. However, the user can operate a key operation such as a menu key at an arbitrary timing during the through image display. By performing the above, a list of shooting scenes may be displayed.
In the second embodiment, the shooting scene is automatically determined, and each CCD is moved to each focus position corresponding to the automatically determined shooting scene. However, the shutter button is fully pressed all at once. Alternatively, each CCD may be moved to each predetermined focus position, or each CCD may be moved to each focus position manually set by the user.
(2)また、上記各実施の形態においては、パンフォーカス位置テーブルに、ズームレンズのレンズ位置及び撮影シーン(第2の実施の形態においては優先フォーカスの種類も含む)に対応したフォーカス位置を記録させておくようにしたが、撮影シーンに対応するフォーカス位置のみを記録させておくようにしてもよい。この場合、光学ズームが行なわれた場合には、該ズーム倍率(ズームレンズのレンズ位置)等を勘案して、フォーカス位置を計算により求めるようにしてもよい。 (2) In each of the above embodiments, the focus position corresponding to the lens position of the zoom lens and the shooting scene (including the type of priority focus in the second embodiment) is recorded in the pan focus position table. However, only the focus position corresponding to the shooting scene may be recorded. In this case, when the optical zoom is performed, the focus position may be obtained by calculation in consideration of the zoom magnification (lens position of the zoom lens) and the like.
(3)また、上記各実施の形態においては、パンフォーカス位置テーブルに、フォーカス位置を記録しておくようにしたが、フォーカス位置を算出するための何らかの情報(例えば、被写界深度に関する情報)を記録しておき、該情報にしたがってフォーカス位置を計算により求めるようにしてもよい。 (3) In the above embodiments, the focus position is recorded in the pan focus position table. However, some information for calculating the focus position (for example, information on the depth of field). May be recorded, and the focus position may be obtained by calculation according to the information.
(4)また、上記各実施の形態においては、パンフォーカス位置テーブルには、撮像素子毎のパンフォーカスのフォーカス位置を記録させておくようにしたが、パンフォーカスに替えて簡易なコントラスト検出方式によるAF処理(簡易AF)を行うべく、撮影シーンごとに撮像素子毎のAF評価値を検出するサンプリングポイントとなる複数のフォーカス位置を記録したテーブルを有するようにしてもよい。
図9は、優先フォーカスの種類及びズーム段階に対応するサンプリングポイントとなる複数のフォーカス位置(CCDの位置)が記録されているテーブルの様子を示すものである。
例えば、絞り開放の遠景優先フォーカスであって、ズームレンズ2bのレンズ位置がズーム3である場合には、撮像素子1(一方の撮像素子)のサンプリングポイントとなるフォーカス位置は、被写界深度が1.2m〜2.2mとなるようなフォーカス位置と、被写界深度が1.6m〜4.6mとなるようなフォーカス位置と、被写界深度が2.5m〜∞mとなるようなフォーカス位置との3点となる。
(4) In the above embodiments, the focus position of the pan focus for each image sensor is recorded in the pan focus position table. However, instead of pan focus, a simple contrast detection method is used. In order to perform AF processing (simple AF), a table may be provided in which a plurality of focus positions serving as sampling points for detecting AF evaluation values for each image sensor for each photographing scene are recorded.
FIG. 9 shows a table in which a plurality of focus positions (CCD positions) serving as sampling points corresponding to the type of priority focus and the zoom stage are recorded.
For example, in the case of distant view priority focus with the aperture wide open and the lens position of the zoom lens 2b is
この場合は、図5のステップS60で撮影シーンに基づく優先フォーカスの種類の判定処理を行い、ステップS61で、現在のズームレンズのレンズ位置に基づくズーム段階の判定を行うと、CPU11は、該判定処理により判定された優先フォーカスの種類及び該判定されたズーム段階に基づいて、各撮像素子のサンプリングポイントとなる複数のフォーカス位置を図9のテーブルから取得する。
例えば、ここでは、判定処理により判定された優先フォーカスの種類が絞り開放の遠景優先フォーカスであって、判断されたズーム段階がズーム3である場合には、一方の撮像素子によって検出されるAF評価値のサンプリングポイントは、被写界深度が1.2m〜2.2mとなるようなフォーカス位置と、被写界深度が1.6m〜4.6mとなるようなフォーカス位置と、被写界深度が2.5m〜∞mとなるようなフォーカス位置との3点ということになる。
In this case, when the priority focus type determination process based on the shooting scene is performed in step S60 of FIG. 5 and the zoom stage determination is performed based on the lens position of the current zoom lens in step S61, the
For example, here, when the priority focus type determined by the determination process is a distant view priority focus with the aperture fully open and the determined zoom level is
そして、各撮像素子のサンプリングポイントとなるフォーカス位置を取得すると、CPU11は、該取得した撮像素子毎のサンプリングポイントに基づいて簡易AFを行なう。つまり、各撮像素子毎にAF評価値を検出するサンプリングポイントを、該取得したフォーカス位置に限定し、その中でAF評価値がピークとなるフォーカス位置にCCDを駆動させるというものである。
具体的に説明すると、図9のテーブルから取得した一方の撮像素子のサンプリングポイント(3点のフォーカス位置)に、CCD6を移動させることにより、この3点のフォーカス位置における各フォーカスポイントのAF評価値を検出し、AF評価値がピークとなるフォーカス位置にCCD6を移動させる。
同様に、図9のテーブルから取得した他方の撮像素子のサンプリングポイント(3点のフォーカス位置)に、CCD7を移動させることにより、この3点のフォーカス位置における各フォーカスポイントのAF評価値を検出し、AF評価値がピークとなるフォーカス位置にCCD7を移動させることとなる。
このとき、CCD6とCCD7とでは、検出サンプリングポイントが異なるので、異なった被写体にフォーカスを行なうことができる。
When the focus position that is the sampling point of each image sensor is acquired, the
More specifically, the AF evaluation value of each focus point at the three focus positions by moving the
Similarly, the AF evaluation value of each focus point at the three focus positions is detected by moving the
At this time, the
なお、ここでは、スキャン代表位置となるフォーカス位置を3点としたが、複数であれば、2点でもよいし4点であってもよい。つまり、通常のコントラスト検出方式によるAF処理より、AF評価値を検出するサンプリングポイントを少なくすればよい。
また、図9のテーブルには、撮影シーンごとに撮像素子毎のAF評価値を検出するサンプリングポイントとなるフォーカス位置を記録するようにしたが、撮影シーンごとに撮像素子毎のAF評価値を検出するサーチ範囲を示す撮像素子の位置範囲や、AF評価値を検出するサンプリング間隔を記録するようにしてもよい。この場合は、通常のコントラスト検出方式によるAF処理より、サーチ範囲を小さくしたり、サンプリング間隔を大きくするようにする。
また、第1の実施の形態も同様に、図2のテーブルに替えて、撮影シーンごとに撮像素子毎のAF評価値を検出するサンプリングポイントとなる複数のフォーカス位置や、AF評価値を検出するサーチ範囲を示す撮像素子の位置範囲や、AF評価値を検出するサンプリング間隔を記録したテーブルを有するようにしてもよい。
In this example, the focus position serving as the scan representative position is three points. However, as long as there are a plurality of focus positions, two or four points may be used. That is, the sampling points for detecting the AF evaluation value may be reduced as compared with the AF processing by the normal contrast detection method.
The table in FIG. 9 records the focus position as a sampling point for detecting the AF evaluation value for each image pickup device for each shooting scene, but detects the AF evaluation value for each image pickup device for each shooting scene. The position range of the image sensor indicating the search range to be performed and the sampling interval for detecting the AF evaluation value may be recorded. In this case, the search range is made smaller and the sampling interval is made larger than the AF processing by the normal contrast detection method.
Similarly, in the first embodiment, instead of the table in FIG. 2, a plurality of focus positions serving as sampling points for detecting an AF evaluation value for each image sensor for each shooting scene and AF evaluation values are detected. You may make it have the table which recorded the position range of the image pick-up element which shows a search range, and the sampling interval which detects AF evaluation value.
(5)また、上記各実施の形態においては、CCD6及び7を光軸方向に移動させることにより、光路長を変更させるようにしたが、各CCD毎にフォーカスレンズを設け、各フォーカスレンズを個別に移動させるようにして、各CCD毎に光路長を変更することができるようにしてもよい。つまり、各CCD毎に光路長を別個に変更することができるものであればなんでもよい。
(5) In the above embodiments, the optical path length is changed by moving the
(6)また、上記各実施の形態においては、1つの撮像レンズ2から入射された光を光路分離手段により分離させてCCD6及びCCD7に被写体の光を投影させるようにしたが、CCD毎に撮影レンズを個別に設けてCCDに被写体の光投影させるようにしてもよい。
(6) In each of the above embodiments, the light incident from one
(7)また、上記各実施の形態においては、2つのCCD(CCD6及びCCD7)を用いて本発明を実現したが、2つに限らず、3つ、4つのCCDを設けるようにしてもよい。つまり、CCDが複数であればいくつでもよい。CCDの数を増やすことにより、多くの被写体にピントを合わせることができる。
この場合には、撮影シーンごとに各CCD毎のフォーカス位置を記録させたフォーカス位置テーブルなどを設けるようにする。
(7) In the above embodiments, the present invention is realized by using two CCDs (CCD6 and CCD7). However, the present invention is not limited to two, and three or four CCDs may be provided. . That is, any number of CCDs may be used. By increasing the number of CCDs, it is possible to focus on many subjects.
In this case, a focus position table in which the focus position for each CCD is recorded for each shooting scene is provided.
(8)また、上記各実施の形態においては、単に複数のCCDから出力された画像データを合成して一枚の画像データを生成するようにしたが、各CCDから出力された各画像データの画像のうち、一番ピントが合っている部分の画像データを切り出して合成することにより一枚の画像データを生成するようにしてもよい。 (8) In each of the above embodiments, image data output from a plurality of CCDs is simply combined to generate a single piece of image data. One piece of image data may be generated by cutting out and synthesizing the image data of the most focused portion of the image.
(9)また、上記第2の実施の形態においては、シャッタボタンは、半押し操作、全押し操作可能な2段階のストロークを有するボタンであるが、1段階しか操作できないボタンであってもよい(2段階ストロークを有さないボタン、つまり、押すことしかできないボタン)。この場合には、シャッタボタンの上部に指が触れたか否かを検出するタッチセンサを設けておき、タッチセンサに指が触れたことを検出することにより、シャッタボタンが半押しされたと判断し、シャッタボタンが押下されることにより、シャッタボタンが全押しされたと判断する。 (9) In the second embodiment, the shutter button is a button having a two-stage stroke that can be operated halfway and fully, but may be a button that can be operated only in one stage. (A button that does not have a two-stage stroke, that is, a button that can only be pressed). In this case, a touch sensor that detects whether or not a finger has touched the top of the shutter button is provided, and it is determined that the shutter button has been half-pressed by detecting that the finger has touched the touch sensor. When the shutter button is pressed, it is determined that the shutter button is fully pressed.
(10)また、上記第2の実施の形態においては、シャッタボタンが半押しされてから所定時間経過前にシャッタボタンが全押しされた場合には(ステップS59でYに分岐)、ユーザが一気にシャッタボタンを全押ししたと判断するようにしたが、シャッタボタンの半押し状態が一定時間以上維持されないとCPU11によってシャッタボタン半押しに対応する操作信号が検出されないものとした場合には、シャッタボタン半押しに対応する操作信号が検出されることなく、シャッタボタン全押しに対応する操作信号のみが検出された場合には、ユーザが一気にシャッタボタンを全押ししたと判断するようにしてもよい。
具体的に説明すると、ステップS55で、シャッタボタンが半押しされていないと判断すると、シャッタボタンが全押しされたか否かの判断を行い、全押しもされていないと判断するとステップS52に戻る。一方、半押しに対応する操作信号が検出された場合には、AE、AWB等の撮影条件をロックしてステップS64に進み、また、半押しに対応する操作信号が検出されずに、シャッタボタン全押しに対応する操作信号が検出された場合はAE、AWB等の撮影条件をロックしてステップS60に進むようにする。
(10) In the second embodiment, if the shutter button is fully pressed before the predetermined time has elapsed since the shutter button was pressed halfway (branch to Y in step S59), the user can If it is determined that the shutter button has been fully pressed, but the
More specifically, if it is determined in step S55 that the shutter button is not half-pressed, it is determined whether or not the shutter button is fully pressed. If it is determined that the shutter button is not fully pressed, the process returns to step S52. On the other hand, if an operation signal corresponding to half-press is detected, the shooting conditions such as AE and AWB are locked, and the process proceeds to step S64. Also, an operation signal corresponding to half-press is not detected, and the shutter button is pressed. If an operation signal corresponding to full press is detected, the shooting conditions such as AE and AWB are locked, and the process proceeds to step S60.
(11)また、上記第2の実施の形態においては、半押しされたと判断してからシャッタボタンが全押しされることなく所定時間経過した場合に(ステップS58でY)、ステップS64のAF処理を実行するようにしたが、シャッタボタンが半押しされると、直ぐにステップS64に進み、AF処理を行うようにしてもよい。そして、AF処理が完了したと判断する前(ステップS65でYに分岐する前に)に、シャッタボタンが全押しされたと判断すると、ステップS64のAF処理を中止して、ステップS60に進むようにしてもよい。 (11) Also, in the second embodiment, when it is determined that the shutter button is half-pressed and a predetermined time has elapsed without being fully pressed (Y in step S58), the AF process in step S64 However, as soon as the shutter button is half-pressed, the process may proceed to step S64 to perform AF processing. If it is determined that the shutter button is fully pressed before it is determined that the AF process is completed (before branching to Y in step S65), the AF process in step S64 is stopped and the process proceeds to step S60. Good.
(12)また、第2の実施の形態においては、シャッタボタンが一気に全押しされたと判断すると、現在の撮影シーンを自動判断し、該判断した撮影シーンに対応する優先フォーカスの種類の判定処理を行い、該判定処理にしたがってフォーカス位置を取得するようにしたが、ユーザが予め複数の撮影シーンの中から任意に選択した撮影シーンをシャッタボタン一気全押し用の撮影シーンとして設定しておき、シャッタボタンが一気に全押しされたと判断すると、該設定された撮影シーンに対応する、異なる複数のフォーカス位置を取得して、被写体に対してフォーカスを行なうようにしてもよい。 (12) In the second embodiment, when it is determined that the shutter button is fully pressed at once, the current shooting scene is automatically determined, and the priority focus type determination process corresponding to the determined shooting scene is performed. The focus position is acquired according to the determination process, but a shooting scene arbitrarily selected by the user from a plurality of shooting scenes is set as a shooting scene for pressing the shutter button all at once, and the shutter is When it is determined that the button is fully pressed at once, a plurality of different focus positions corresponding to the set shooting scene may be acquired to focus on the subject.
(13)さらに、上記実施の形態におけるデジタルカメラ1は、上記の実施の形態に限定されるものではなく、カメラ付き携帯電話、カメラ付きPDA、カメラ付きパソコン、カメラ付きICレコーダ、又はデジタルビデオカメラ等でもよく、要は被写体に対してフォーカスができる機器であれば何でもよい。
(13) Furthermore, the
1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り兼用シャッタ
5 光路分離手段
6 CCD
7 CCD
8 駆動ブロック
9 TG
10 ユニット回路
11 CPU
12 DRAM
13 メモリ
14 フラッシュメモリ
15 画像表示部
16 キー入力部
17 ストロボ部
DESCRIPTION OF
7 CCD
8 Drive
10
12 DRAM
13 Memory 14
Claims (4)
前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、
前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、
前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、
を備えたことを特徴とする撮像装置。 A plurality of image sensors for imaging a subject;
Together will change respectively the focus position of the plurality of imaging devices, the AF evaluation value is detected for each image pickup element based on the image data output from the plurality of imaging elements, topical in the AF evaluation value the detected Specifying means for specifying, for each image sensor, a focus position at which the AF evaluation value is highest,
Photographing means for performing photographing by setting the focus positions of the plurality of image sensors to the respective focus positions identified by the identifying means;
A plurality of focus points for detecting the AF evaluation value by the specifying unit such that the focus position where the AF evaluation value is locally highest specified by the specifying unit is a different position in each of the plurality of imaging elements. Control means for controlling the range of the position to be different for each of the plurality of image sensors;
An imaging apparatus comprising:
前記特定手段により特定した複数のフォーカス位置の中で、最も遠いフォーカス位置に少なくとも1つの撮像素子のフォーカス位置を設定し、最も近いフォーカス位置にその他の撮像素子のフォーカス位置を設定して撮影を行うことを特徴とする請求項1または2に記載の撮像装置。 The photographing means includes
Shooting is performed by setting the focus position of at least one image sensor at the farthest focus position and setting the focus positions of other image sensors at the closest focus position among the plurality of focus positions specified by the specifying means. The imaging apparatus according to claim 1 or 2 , wherein
前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、
前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、
前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、
して機能させることを特徴とするプログラム。 A computer of an image pickup apparatus having a plurality of image pickup devices for picking up an image of a subject,
Together will change respectively the focus position of the plurality of imaging devices, the AF evaluation value is detected for each image pickup element based on the image data output from the plurality of imaging elements, topical in the AF evaluation value the detected Specifying means for specifying, for each image sensor, a focus position at which the AF evaluation value is highest,
Photographing means for performing photographing by setting the focus positions of the plurality of image sensors to the respective focus positions identified by the identifying means;
A plurality of focus points for detecting the AF evaluation value by the specifying unit such that the focus position where the AF evaluation value is locally highest specified by the specifying unit is a different position in each of the plurality of imaging elements. Control means for controlling the range of the position to be different for each of the plurality of image sensors;
A program characterized by making it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011156543A JP5273220B2 (en) | 2011-07-15 | 2011-07-15 | Imaging apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011156543A JP5273220B2 (en) | 2011-07-15 | 2011-07-15 | Imaging apparatus and program thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005259429A Division JP4957943B2 (en) | 2005-09-07 | 2005-09-07 | Imaging apparatus and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011242790A JP2011242790A (en) | 2011-12-01 |
JP5273220B2 true JP5273220B2 (en) | 2013-08-28 |
Family
ID=45409422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011156543A Expired - Fee Related JP5273220B2 (en) | 2011-07-15 | 2011-07-15 | Imaging apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5273220B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06334912A (en) * | 1993-05-21 | 1994-12-02 | Sharp Corp | Picture input device |
JPH10257369A (en) * | 1997-03-13 | 1998-09-25 | Sony Corp | Image signal recorder, recording and reproducing device and recording method |
JP4226235B2 (en) * | 2001-09-04 | 2009-02-18 | 日本放送協会 | Imaging device |
JP2004109708A (en) * | 2002-09-19 | 2004-04-08 | Ricoh Co Ltd | Imaging apparatus |
JP2004120015A (en) * | 2002-09-20 | 2004-04-15 | Ricoh Co Ltd | Imaging apparatus |
-
2011
- 2011-07-15 JP JP2011156543A patent/JP5273220B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011242790A (en) | 2011-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4957943B2 (en) | Imaging apparatus and program thereof | |
US7783190B2 (en) | Image pick-up apparatus with a multi-area AF function | |
JP4466400B2 (en) | Imaging apparatus and program thereof | |
JP4644883B2 (en) | Imaging device | |
US7668451B2 (en) | System for and method of taking image | |
JP4727534B2 (en) | Imaging device | |
TWI514847B (en) | Image processing device, image processing method, and recording medium | |
JP2013013050A (en) | Imaging apparatus and display method using imaging apparatus | |
JP2007215091A (en) | Imaging apparatus and program therefor | |
JP2009251557A (en) | Imaging apparatus | |
JP5267609B2 (en) | Imaging apparatus and program thereof | |
JP5064926B2 (en) | Imaging apparatus and control method thereof | |
JP2007101907A (en) | Autofocus controller, image forming apparatus using same and autofocus control method | |
JP2007225897A (en) | Focusing position determination device and method | |
JP4949717B2 (en) | In-focus position determining apparatus and method | |
JP2007028486A (en) | Digital camera | |
JP2007094023A (en) | Focus adjustment method of focus lens and imaging apparatus | |
JP4534250B2 (en) | Movie imaging apparatus and program thereof | |
JP2005283637A (en) | Photographing device and program therefor | |
JP5273220B2 (en) | Imaging apparatus and program thereof | |
JP4771524B2 (en) | Imaging apparatus and program thereof | |
JP2008209760A (en) | Photographing method and photographing device | |
JP2004117775A (en) | Camera | |
JP2006215471A (en) | Photographing apparatus | |
JP2006093956A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130429 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5273220 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |