JP5273220B2 - Imaging apparatus and program thereof - Google Patents

Imaging apparatus and program thereof Download PDF

Info

Publication number
JP5273220B2
JP5273220B2 JP2011156543A JP2011156543A JP5273220B2 JP 5273220 B2 JP5273220 B2 JP 5273220B2 JP 2011156543 A JP2011156543 A JP 2011156543A JP 2011156543 A JP2011156543 A JP 2011156543A JP 5273220 B2 JP5273220 B2 JP 5273220B2
Authority
JP
Japan
Prior art keywords
focus
ccd
evaluation value
image
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011156543A
Other languages
Japanese (ja)
Other versions
JP2011242790A (en
Inventor
将 小野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011156543A priority Critical patent/JP5273220B2/en
Publication of JP2011242790A publication Critical patent/JP2011242790A/en
Application granted granted Critical
Publication of JP5273220B2 publication Critical patent/JP5273220B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device that can make focusing on a plurality of subjects easily and quickly by using a plurality of imaging elements, and a program of the same. <P>SOLUTION: When a pan-focus mode is set, kinds of imaging scenes are list-displayed on an image display unit 15 (S1), and whether or not an imaging scene is designated by a user is determined (S2). When it is determined that the imaging scene is designated, two focusing positions corresponding to the designated imaging scene are obtained, and a CCD 6 and a CCD 7 are moved respectively to the obtained two focusing positions (S3). The image data imaged by the CCD 6 and CCD 7 are combined, and the combined image data is displayed as a through image (S4). Every time a zooming operation is performed, two focusing positions corresponding to the lens position of a zoom lens are obtained, and the CCD 6 and CCD 7 are moved (S5-S8) . <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、複数の撮像素子を用いて被写体にフォーカス処理を行う撮像装置及びそのプログラムに関する。   The present invention relates to an imaging apparatus and a program thereof, and more particularly, to an imaging apparatus that performs focus processing on a subject using a plurality of imaging elements and a program thereof.

近年、撮像装置、例えば、デジタルカメラにおいては、複数の撮像素子を備えたデジタルカメラが普及してきている。
それに伴い、被写体に対してピントを合わせる場合、ユーザが各撮像素子に投影される被写体の光の光路長を個別に変更させることにより、複数の被写体にピントの合った画像データを得ることができ、該得られた画像データを合成することにより被写体位置の異なる複数の被写体にピントの合った1枚の画像データを得ることができるという技術が登場してきた(特許文献1)。
In recent years, in an imaging apparatus, for example, a digital camera, a digital camera including a plurality of imaging elements has become widespread.
Along with that, when focusing on a subject, the user can individually change the optical path length of the light of the subject projected on each image sensor to obtain image data focused on a plurality of subjects. As a result, a technique has been developed in which one piece of image data focused on a plurality of subjects having different subject positions can be obtained by synthesizing the obtained image data (Patent Document 1).

公開特許公報 特開2003−259186JP Patent Publication No. 2003-259186

しかしながら、スルー画像を見ながら各撮像素子に投影される被写体の光の光路長をユーザが手動で変更することにより、撮像素子毎に異なる被写体にピントを合わしていかなければならないため、手間がかかり面倒であるという問題点があった。
また、撮像素子毎に被写体にピントを合わせていくので、撮像素子の数に比例して、被写体に対してピントを合わす時間が長くなるという問題点があった。
また、スルー画像を見ながら手動でピントを合わせていくため、撮影したい被写体に正確にピントが合わないという問題点があった。
However, since the user must manually change the optical path length of the light of the subject projected on each image sensor while viewing the through image, it is necessary to focus on a different subject for each image sensor. There was a problem that it was troublesome.
In addition, since the subject is focused on each image sensor, there is a problem that the time for focusing on the subject becomes longer in proportion to the number of image sensors.
In addition, since manual focusing is performed while viewing a through image, there is a problem that the subject to be photographed cannot be accurately focused.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の撮像素子を用いて、簡易、迅速に複数の被写体にピントを合わすことができる撮像装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such conventional problems, and provides an imaging apparatus and a program thereof that can easily and quickly focus on a plurality of subjects using a plurality of imaging elements. With the goal.

上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する複数の撮像素子と、前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention is configured to change the focus positions of a plurality of image pickup devices for picking up a subject and the plurality of image pickup devices, and output from the plurality of image pickup devices. An AF evaluation value is detected for each image sensor based on the image data to be detected, and a specifying means for specifying for each image sensor a focus position where the AF evaluation value is locally highest among the detected AF evaluation values; An imaging unit that performs imaging by setting the focus positions of a plurality of image pickup devices to the respective focus positions specified by the specifying unit, and a focus position where the AF evaluation value is locally highest specified by the specifying unit as but a different position in each of said plurality of image pickup elements, a range of a plurality of focus position for detection of AF evaluation values by the specifying means, before And control means for differently controlled at each of a plurality of image pickup elements, further comprising a characterized.

また、請求項2記載の発明は、更に、前記制御手段は、2つの異なる距離に存在する2つの異なる被写体の各々に対応して前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で特定されるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御することを特徴とする。 According to a second aspect of the present invention, the control unit further includes the plurality of focus positions where the AF evaluation value is locally highest corresponding to each of two different subjects existing at two different distances. The range of a plurality of focus positions where the AF evaluation value is detected by the specifying unit is controlled so as to be different for each of the plurality of image sensors, as specified by each of the image sensors .

また、請求項3記載の発明は、更に、前記撮影手段は、前記特定手段により特定した複数のフォーカス位置の中で、最も遠いフォーカス位置に少なくとも1つの撮像素子のフォーカス位置を設定し、最も近いフォーカス位置にその他の撮像素子のフォーカス位置を設定して撮影を行うことを特徴とする。 Further, in the invention according to claim 3, the photographing unit further sets the focus position of at least one image sensor to the farthest focus position among the plurality of focus positions specified by the specifying unit, and is closest. Shooting is performed by setting the focus position of another image sensor to the focus position .

また、請求項4記載の発明によるプログラムは、被写体を撮像する複数の撮像素子を備えた撮像装置のコンピュータを、前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、して機能させることを特徴とする。 According to a fourth aspect of the present invention, there is provided a program according to a fourth aspect of the present invention, in which a computer of an image pickup apparatus including a plurality of image pickup devices for picking up an object changes the focus positions of the plurality of image pickup devices, and A specifying unit that detects an AF evaluation value for each image sensor based on the output image data, and specifies, for each image sensor, a focus position where the AF evaluation value is locally highest among the detected AF evaluation values; An imaging unit that performs imaging by setting the focus positions of the plurality of imaging elements to the respective focus positions specified by the specifying unit, and the AF evaluation value that is locally specified by the specifying unit is highest. A plurality of focusers for detecting an AF evaluation value by the specifying means so that a focus position becomes a different position in each of the plurality of image sensors. The range of positions, and control means for different control as in each of the plurality of image pickup elements, characterized in that to function with.

本発明によれば、複数の撮像素子を用いて、簡単、且つ、迅速に複数の被写体にピントを合わせることができる。 According to the present invention, it is possible to focus on a plurality of subjects easily and quickly using a plurality of image sensors .

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. メモリ13に格納されたパンフォーカス位置テーブルの様子を示すものである。6 shows a state of a pan focus position table stored in the memory 13. 第1の実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 1st Embodiment. 第2の実施の形態におけるパンフォーカス位置テーブルの様子を示すものである。8 shows a state of a pan focus position table in the second embodiment. 第2の実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 2nd Embodiment. 第2の実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 2nd Embodiment. ステップS64のAF処理を説明するための図である。It is a figure for demonstrating AF process of step S64. 撮影シーンに基づく優先フォーカスの種類の判定処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the determination process of the priority focus type based on an imaging scene. 変形例におけるテーブルの様子を示す図である。It is a figure which shows the mode of the table in a modification.

以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り兼用シャッタ4、光路分離手段5、CCD6、CCD7、駆動ブロック8、TG(timing generator)9、ユニット回路10、CPU11、DRAM12、メモリ13、フラッシュメモリ14、画像表示部15、キー入力部16、ストロボ部17を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[First Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes a photographing lens 2, a lens driving block 3, a diaphragm shutter 4, an optical path separating means 5, a CCD 6, a CCD 7, a driving block 8, a TG (timing generator) 9, a unit circuit 10, a CPU 11, a DRAM 12, a memory 13, A flash memory 14, an image display unit 15, a key input unit 16, and a flash unit 17 are provided.

撮影レンズ2は、図示しないズームレンズを含み、レンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、図示しないズームレンズを光軸方向に駆動させるモータと、CPU11からの制御信号にしたがってモータを駆動させるモータドライバから構成されている。   The taking lens 2 includes a zoom lens (not shown), and a lens driving block 3 is connected thereto. The lens driving block 3 includes a motor that drives a zoom lens (not shown) in the optical axis direction and a motor driver that drives the motor in accordance with a control signal from the CPU 11.

絞り兼用シャッタ4は、図示しない駆動回路を含み、駆動回路はCPU11から送られてくる制御信号にしたがって絞り兼用シャッタを動作させる。この絞り兼用シャッタは、絞りとシャッタとして機能する。
絞りとは、撮影レンズ2から入ってくる光の量を制御する機構のことをいい、シャッタとは、CCD6及びCCD7に光を当てる時間を制御する機構のことをいう。CCD6及びCCD7に光を当てる時間は、シャッタの開閉速度(シャッタ速度)によって変わってくる。露出量は、この絞りとシャッタ速度によって定めることができる。
The diaphragm / shutter 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm / shutter in accordance with a control signal sent from the CPU 11. The aperture / shutter functions as an aperture and a shutter.
The diaphragm refers to a mechanism that controls the amount of light that enters from the photographing lens 2, and the shutter refers to a mechanism that controls the time during which light is applied to the CCD 6 and the CCD 7. The time for which light is applied to the CCD 6 and the CCD 7 varies depending on the shutter opening / closing speed (shutter speed). The amount of exposure can be determined by this aperture and shutter speed.

光路分離手段5は、プリズム、ハーフミラー等の撮影光束を2つに分離させる光学部材からなり、分離された撮影光束はそれぞれCCD6及びCCD7に投影される。
CCD6、CCD7(撮像素子)は、撮影レンズ2、光路分離手段5を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路10にそれぞれ出力する。また、CCD6及びCCD7は、TG9によって生成された所定周波数のタイミング信号にしたがって駆動する。
The optical path separating means 5 is composed of an optical member that separates the photographing light flux such as a prism and a half mirror into two, and the separated photographing light flux is projected onto the CCD 6 and the CCD 7, respectively.
The CCD 6 and the CCD 7 (imaging device) convert the light of the subject projected through the photographing lens 2 and the optical path separating means 5 into an electrical signal and output it as an imaging signal to the unit circuit 10 respectively. The CCD 6 and the CCD 7 are driven according to a timing signal having a predetermined frequency generated by the TG 9.

駆動ブロック8は、CCD6、CCD7をそれぞれ光軸方向に移動させるモータ、モータドライバを含み、駆動ブロック8は、CPU11から送られてくる制御信号にしたがってCCD6、CCD7を別々に光軸方向に移動させる。つまり、CCD6に入射される被写体の光の光路長と、CCD7に入射される被写体の光の光路長とをそれぞれ個別に変える。これにより、CCD6及びCCD7をそれぞれ光軸方向に動かすことにより、異なった被写体にピントの合った画像データを得ることができる。   The drive block 8 includes a motor and a motor driver that move the CCD 6 and the CCD 7 in the optical axis direction, respectively, and the drive block 8 moves the CCD 6 and the CCD 7 separately in the optical axis direction in accordance with a control signal sent from the CPU 11. . That is, the optical path length of the subject light incident on the CCD 6 and the optical path length of the subject light incident on the CCD 7 are individually changed. Accordingly, by moving the CCD 6 and the CCD 7 in the optical axis direction, it is possible to obtain image data focused on different subjects.

ユニット回路10にはTG9が接続されており、CCD6、CCD7からそれぞれ出力される撮像信号をそれぞれ相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後のそれぞれの撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のそれぞれのアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD6、CCD7の撮像信号は、ユニット回路10を経てデジタル信号としてそれぞれCPU11に送られる。   A TG 9 is connected to the unit circuit 10, and a CDS (Correlated Double Sampling) circuit that holds correlated imaging signals output from the CCD 6 and the CCD 7, respectively, and automatic imaging signals after the sampling. An AGC (Automatic Gain Control) circuit that performs gain adjustment and an A / D converter that converts each analog image pickup signal after the automatic gain adjustment into a digital signal. The image pickup signals of the CCD 6 and the CCD 7 are units. The digital signals are sent to the CPU 11 via the circuit 10.

CPU11は、ユニット回路10から送られてきた画像データの画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理等)、画像データの圧縮・伸張(例えば、JPEG形式やMPEG形式の圧縮・伸張)の処理、フォーカス処理などを行う機能を有するとともに、デジタルカメラ1の各部を制御するワンチップマイコンである。また、CPU11は、クロック回路を含み、このクロック回路は日付、時刻を計時するとともにタイマーとしての機能も有する。   The CPU 11 performs image processing (pixel interpolation processing, γ correction, luminance color difference signal generation, white balance processing, exposure correction processing, etc.) of image data sent from the unit circuit 10, and compression / decompression of image data (for example, JPEG This is a one-chip microcomputer that has functions for performing processing such as compression / decompression of formats and MPEG formats, focus processing, and the like, and controls each part of the digital camera 1. The CPU 11 includes a clock circuit. The clock circuit measures the date and time and also has a function as a timer.

メモリ13には、CPU11の各部に制御に必要な制御プログラム(例えば、フォーカス処理に必要な制御プログラム)、及び必要なデータが記録されており、CPU11は、該プログラムに従い動作する。
また、メモリ13には、それぞれの撮影シーンに対応するCCD6及びCCD7のフォーカス位置を記録したパンフォーカス位置テーブルが格納されている。
図2は、パンフォーカス位置テーブルの様子を示すものであり、それぞれの撮影シーンに対応するCCD6及びCCD7のフォーカス位置が格納されている。
In the memory 13, a control program (for example, a control program necessary for focus processing) necessary for control and necessary data are recorded in each part of the CPU 11, and the CPU 11 operates according to the program.
The memory 13 stores a pan focus position table in which the focus positions of the CCD 6 and the CCD 7 corresponding to each shooting scene are recorded.
FIG. 2 shows a state of the pan focus position table, in which the focus positions of the CCD 6 and the CCD 7 corresponding to each photographing scene are stored.

図2を見るとわかるように、ズームレンズのレンズ位置は、ズーム1、ズーム2、・・・、ズーム7と分かれており、ズーム1はズームが行なわれていない状態及びズームが殆ど行なわれていない状態(ズーム倍率が約1倍)の段階であることを示し、ズーム7はズームが一杯に行なわれている状態(ズーム倍率がマックスに近い状態)の段階であることを示している。
この撮影シーンの種類及びズームレンズのレンズ位置により、パンフォーカスのフォーカス位置、つまり、CCD6及びCCD7の位置が必然的に定まることとなる。
As can be seen from FIG. 2, the lens position of the zoom lens is divided into zoom 1, zoom 2,..., Zoom 7, and zoom 1 is not zoomed and is mostly zoomed. This indicates that there is no state (zoom magnification is about 1 time), and zoom 7 indicates that the zoom is fully performed (zoom magnification is close to Max).
The focus position of the pan focus, that is, the positions of the CCD 6 and the CCD 7 are inevitably determined by the type of the photographing scene and the lens position of the zoom lens.

例えば、撮影シーンが「風景と人物」であって、ズームレンズのレンズ位置がズーム1の場合には、一方のCCDのフォーカス位置は、被写界深度が2.8m〜5.0mとなるようなフォーカス位置(人物にピントが合うようなフォーカス位置)であり、他方のCCDのフォーカス位置は、被写界深度が6.0m〜∞mとなるようなフォーカス位置(風景にピントが合うようなフォーカス位置)となる。   For example, when the shooting scene is “landscape and a person” and the lens position of the zoom lens is zoom 1, the focus position of one CCD is such that the depth of field is 2.8 m to 5.0 m. The focus position of the other CCD is the focus position (focusing on the landscape) with a depth of field of 6.0 m to ∞ m. Focus position).

DRAM12は、CCD6、CCD7によってそれぞれ撮像された後、CPU11に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU11のワーキングメモリとして使用される。
フラッシュメモリ14は、CCD6及びCCD7によって撮像され、合成された画像データなどを保存しておく記録媒体である。
The DRAM 12 is used as a buffer memory for temporarily storing image data sent to the CPU 11 after being imaged by the CCD 6 and the CCD 7, and also as a working memory for the CPU 11.
The flash memory 14 is a recording medium that stores image data and the like that are captured and synthesized by the CCD 6 and the CCD 7.

画像表示部15は、カラーLCDとその駆動回路を含み、撮影待機状態にあるときには、CCD6、CCD7によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、保存用フラッシュメモリ14から読み出され、伸張された記録画像を表示させる。
キー入力部16は、シャッタボタン、モード切替キー、十字キー、SETキーズームキー(「W」キー、「T」キー)等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU11に出力する。
The image display unit 15 includes a color LCD and its driving circuit, and displays the subject imaged by the CCD 6 and the CCD 7 as a through image when in the shooting standby state, and reads it from the storage flash memory 14 when reproducing the recorded image. The extracted and expanded recorded image is displayed.
The key input unit 16 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, a SET key zoom key (“W” key, “T” key), and an operation signal corresponding to a user's key operation. It outputs to CPU11.

ストロボ部17は、CPU11の制御信号にしたがって、ストロボを閃光させる。CPU11は、CCD6、CCD7の出力信号の輝度成分又は図示しない測光回路によって撮影状況が暗いと判断すると、ストロボ部17に制御信号を送る。   The strobe unit 17 flashes the strobe in accordance with a control signal from the CPU 11. The CPU 11 sends a control signal to the flash unit 17 when it is determined that the photographing condition is dark by the luminance component of the output signals of the CCD 6 and the CCD 7 or a photometric circuit (not shown).

B.デジタルカメラ1の動作
実施の形態におけるデジタルカメラ1の動作を図3のフローチャートにしたがって説明する。
ユーザのキー入力部16のモード切替キーの操作によりパンフォーカスモードに設定されると、予め記録されている撮影シーンの種類を画像表示部15に一覧表示させる(ステップS1)。表示される撮影シーンの種類としては、「風景」、「風景と人物」、「花と風景」などの撮影シーンがある。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the embodiment will be described with reference to the flowchart of FIG.
When the pan focus mode is set by the user operating the mode switching key of the key input unit 16, a list of pre-recorded shooting scene types is displayed on the image display unit 15 (step S1). As the types of shooting scenes to be displayed, there are shooting scenes such as “landscape”, “landscape and person”, and “flower and landscape”.

次いで、CPU11は、ユーザによって、撮影シーンの指定操作が行なわれたか否かを判断する(ステップS2)。
ユーザによって撮影シーンの指定操作が行なわれたと判断するとステップS3に進み、ユーザによって撮影シーンの指定操作が行なわれていないと判断すると、指定操作が行われたと判断するまでステップS2に留まる。
Next, the CPU 11 determines whether or not an operation for specifying a shooting scene has been performed by the user (step S2).
If it is determined that an operation for specifying a shooting scene has been performed by the user, the process proceeds to step S3. If it is determined that an operation for specifying a shooting scene has not been performed by the user, the process remains in step S2 until it is determined that an operation for specifying a shooting scene has been performed.

このとき、ユーザはキー入力部16の十字キー及びSETキーの操作により、撮影したい条件に合った撮影シーンを選択して指定することができる。
具体的に説明すると、画像表示部15に一覧表示された複数の撮影シーンの中から、十字キーの操作によりカーソルを撮影したい条件に合った撮影シーン上に移動させることにより所望の撮影シーンを選択し、SETキーの操作を行なうことにより、撮影シーンの指定を行なうことができる。
At this time, the user can select and specify a shooting scene that meets the conditions to be shot by operating the cross key and the SET key of the key input unit 16.
More specifically, a desired shooting scene is selected by moving the cursor to a shooting scene that matches the condition to be shot by operating the cross key from among a plurality of shooting scenes displayed in a list on the image display unit 15. The shooting scene can be designated by operating the SET key.

ユーザによって撮影シーンの指定操作が行なわれたと判断すると、ステップS3に進み、CPU11は、該指定された撮影シーンに対応する、異なる2つのパンフォーカス位置をメモリ13のパンフォーカス位置テーブルから取得し、該取得した2つのパンフォーカス位置にCCD6及びCCD7をそれぞれ駆動させる。なお、ここでは、未だズーム操作が行なわれていないので、ズーム1と該指定された撮影シーンに対応するフォーカス位置(CCD位置)を取得することとなる。なお、言うまでもないが、ズームが行なわれている場合には、ズームレンズのレンズ位置を考慮したフォーカス位置を取得することとなる。   If it is determined that an operation for specifying a shooting scene has been performed by the user, the process proceeds to step S3, where the CPU 11 acquires two different pan focus positions corresponding to the specified shooting scene from the pan focus position table in the memory 13, The CCD 6 and the CCD 7 are driven to the two acquired pan focus positions, respectively. Here, since the zoom operation has not been performed yet, the zoom position 1 and the focus position (CCD position) corresponding to the designated shooting scene are acquired. Needless to say, when zooming is performed, a focus position in consideration of the lens position of the zoom lens is acquired.

例えば、ユーザが撮影シーンとして「風景と人物」を指定した場合には、メモリ13のパンフォーカス位置テーブルから取得するフォーカス位置は、被写界深度2.8m〜5.0mとなるようなフォーカス位置と、被写界深度6.0m〜∞mとなるようなフォーカス位置との2つのフォーカス位置を取得することになり(ここでは、ズーム1なので)、CCD6を該取得した一方のフォーカス位置に移動させ、CCD7を該取得した他方のフォーカス位置に移動させることとなる。
これにより、CCD6に入射する被写体の光の光路長とCCD7に入射する被写体の光の光路長を異ならせるので、それぞれ異なった被写体にピントが合った2枚の画像データを得ることが可能となる。ここでは、人物と風景にそれぞれピントの合った2枚の画像データを得ることが可能となる。
For example, when the user designates “landscape and person” as the shooting scene, the focus position acquired from the pan focus position table in the memory 13 is the focus position at which the depth of field is 2.8 m to 5.0 m. And two focus positions, ie, a focus position that gives a depth of field of 6.0 m to ∞ m (here, zoom 1), and the CCD 6 is moved to one of the acquired focus positions. Then, the CCD 7 is moved to the other acquired focus position.
As a result, the optical path length of the light of the subject incident on the CCD 6 and the optical path length of the light of the subject incident on the CCD 7 are made different, so that it is possible to obtain two pieces of image data focused on different subjects. . Here, it is possible to obtain two pieces of image data in which a person and a landscape are in focus.

次いで、CPU11は、CCD6及びCCD7による被写体の撮像を開始させ、CCD6及びCCD7によって撮像された2枚の画像データ(スルー画像データ)を合成して1枚の画像データ(スルー画像データ)を生成し、該生成した画像データの画像を画像表示部15に表示させるという、いわゆるスルー画像表示を行う(ステップS4)。これにより、CCD6により得られた画像データと、CCD7により得られた画像データとを合成するので、複数の被写体(ここでは、人物と被写体)にピントの合ったスルー画像を表示させることができる。   Next, the CPU 11 starts imaging of the subject by the CCD 6 and the CCD 7, and generates two pieces of image data (through image data) by combining the two pieces of image data (through image data) captured by the CCD 6 and the CCD 7. Then, a so-called through image display is performed in which an image of the generated image data is displayed on the image display unit 15 (step S4). As a result, the image data obtained by the CCD 6 and the image data obtained by the CCD 7 are combined, so that a through image in focus can be displayed on a plurality of subjects (here, a person and a subject).

次いで、CPU11は、ユーザによってズームキーの操作が行なわれたか否かの判断を行う(ステップS5)。この判断は、ズームキーの操作に対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
ステップS5で、ズームキーの操作が行われたと判断すると、CPU11は、ユーザの操作にしたがって(送られてくる操作信号にしたがって)、ズームレンズを光軸方向に移動させる(ステップS6)。例えば、ユーザによってズームキーの「T」キーの操作が行なわれると、ズームレンズを光軸方向にしたがって被写体側の方へ移動させ、ユーザによってズームキーの「W」キーの操作が行なわれると、ズームレンズを光軸方向にしたがって撮影者側の方へ移動させる。
Next, the CPU 11 determines whether or not the zoom key has been operated by the user (step S5). This determination is made based on whether or not an operation signal corresponding to the operation of the zoom key has been sent from the key input unit 16.
If it is determined in step S5 that the zoom key has been operated, the CPU 11 moves the zoom lens in the optical axis direction according to the user's operation (in accordance with the operation signal sent) (step S6). For example, when the “T” key of the zoom key is operated by the user, the zoom lens is moved toward the subject side according to the optical axis direction, and when the “W” key of the zoom key is operated by the user, the zoom lens is operated. Is moved toward the photographer according to the optical axis direction.

そして、ズームレンズを移動させると、CPU11は、現在のズームレンズのレンズ位置に基づいてズーム段階を判定する(ステップS7)。このズームレンズのレンズ位置は、ズーム1〜ズーム7までの7段階に分類される。
次いで、CPU11は、該判定したズーム段階及びステップS2で指定された撮影シーンに対応する、異なる2つのフォーカス位置を取得し、該取得した2つのフォーカス位置にCCD6及びCCD7をそれぞれ移動させて(ステップS8)、ステップS9に進む。ズームレンズのレンズ位置(焦点距離)が異なれば、フォーカス位置も変わってくるからである。
一方、ステップS5で、ズーム操作が行われていないと判断すると、そのままステップS9に進む。
When the zoom lens is moved, the CPU 11 determines the zoom stage based on the current lens position of the zoom lens (step S7). The lens position of this zoom lens is classified into seven stages from zoom 1 to zoom 7.
Next, the CPU 11 acquires two different focus positions corresponding to the determined zoom stage and the photographic scene specified in step S2, and moves the CCD 6 and the CCD 7 to the acquired two focus positions, respectively (step S11). S8), the process proceeds to step S9. This is because if the lens position (focal length) of the zoom lens is different, the focus position also changes.
On the other hand, if it is determined in step S5 that the zoom operation has not been performed, the process proceeds directly to step S9.

ステップS9に進むと、ユーザによってシャッタボタンが押下されたか否かの判断を行う。この判断は、ユーザのシャッタボタン押下に対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
ステップS9で、シャッタボタンが押下されていないと判断するとステップS4に戻り、ステップS9で、シャッタボタンが押下されたと判断するとCCD6及びCCD7を用いて静止画撮影処理を行う(ステップS10)。
In step S9, it is determined whether or not the shutter button has been pressed by the user. This determination is made based on whether or not an operation signal corresponding to the user pressing the shutter button is sent from the key input unit 16.
If it is determined in step S9 that the shutter button has not been pressed, the process returns to step S4. If it is determined in step S9 that the shutter button has been pressed, still image shooting processing is performed using the CCD 6 and the CCD 7 (step S10).

そして、CPU11は、CCD6から得られた静止画像データと、CCD7から得られた静止画像データとを合成し、該合成した画像データを圧縮してフラッシュメモリ14に記録する(ステップS11)。これにより、複数の被写体にピントの合った画像データを記録することができる。   Then, the CPU 11 combines the still image data obtained from the CCD 6 and the still image data obtained from the CCD 7, compresses the combined image data, and records it in the flash memory 14 (step S11). Thereby, focused image data can be recorded on a plurality of subjects.

C.以上のように、第1の実施の形態においては、ユーザによって選択された撮影シーン及びズームレンズのレンズ位置に対応した異なる2つのフォーカス位置を取得し、該取得した異なる2つのフォーカス位置にCCD6、CCD7をそれぞれ移動させるようにしたので、簡単且つ迅速に複数の被写体にピントを合わせることができる。
また、撮影シーンに対応する異なる2つのフォーカス位置を取得するので、撮影状況にあったフォーカス位置を取得することができ、確実に撮影したい複数の被写体にピントを合わせることができる。
C. As described above, in the first embodiment, two different focus positions corresponding to the photographing scene selected by the user and the lens position of the zoom lens are acquired, and the CCD 6, Since each CCD 7 is moved, it is possible to focus on a plurality of subjects easily and quickly.
In addition, since two different focus positions corresponding to the shooting scene are acquired, it is possible to acquire a focus position suitable for the shooting situation, and it is possible to focus on a plurality of subjects to be surely shot.

[第2の実施の形態]
次に第2の実施の形態について説明する。
第1の実施の形態においては、ユーザが撮影シーンを選択し、該選択した撮影シーンに対応するフォーカス位置にCCD6及びCCD7を移動させるというものであるが、第2の実施の形態においては、ユーザが迅速な撮影を要求している場合は、撮影シーンを自動判定してパンフォーカスにより複数の被写体にピントを合わせ、ユーザが迅速な撮影を要求していない場合には、コントラストAF処理により複数の被写体にピントを合わせるというものである。
[Second Embodiment]
Next, a second embodiment will be described.
In the first embodiment, the user selects a shooting scene and moves the CCD 6 and the CCD 7 to a focus position corresponding to the selected shooting scene. In the second embodiment, the user moves the CCD 6 and the CCD 7 to the focus position. If the user requests quick shooting, the camera automatically determines the shooting scene and focuses on a plurality of subjects by pan focus. If the user does not request quick shooting, Focusing on the subject.

D.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
但し、キー入力部16のシャッタボタンは、半押し操作と全押し操作が可能なシャッタボタンである。
また、メモリ9のパンフォーカス位置テーブルは、図2のパンフォーカス位置テーブルに換えて、図4に示すようなパンフォーカス位置テーブルが格納されている。
D. Operation of Digital Camera 1 The second embodiment also implements the imaging device of the present invention by using the digital camera 1 having the same configuration as that shown in FIG.
However, the shutter button of the key input unit 16 is a shutter button that can be pressed halfway and fully.
The pan focus position table in the memory 9 stores a pan focus position table as shown in FIG. 4 in place of the pan focus position table in FIG.

図4のパンフォーカス位置テーブルには、優先フォーカスの種類及びズームレンズのレンズ位置に対応するパンフォーカスのフォーカス位置がそれぞれ記録されている。
優先フォーカスの種類としては、近景優先フォーカス、絞り開放の遠景フォーカス、絞り開放でない遠景フォーカスの3種類からなる。この優先フォーカスの種類及びズームレンズのレンズ位置によりパンフォーカスのフォーカス位置が必然的に定まることとなる。
以下、第2の実施の形態のデジタルカメラ1の動作を図5及び図6のフローチャートにしたがって説明する。
The pan focus position table of FIG. 4 records the focus position of the pan focus corresponding to the type of priority focus and the lens position of the zoom lens.
There are three types of priority focus: foreground priority focus, distant focus with full aperture, and distant focus with no aperture open. The focus position of the pan focus is inevitably determined by the type of priority focus and the lens position of the zoom lens.
Hereinafter, the operation of the digital camera 1 according to the second embodiment will be described with reference to the flowcharts of FIGS. 5 and 6.

ユーザのキー入力部16のモード切替キーの操作により撮影モードに設定されると、CPU11は、CCD6、CCD7のうちどちらか一方のCCDを駆動させることにより撮像を開始させ、該撮像された被写体の画像データに対して画像処理を施してバッファメモリに記憶させ、該記憶させた画像データを画像表示部15に表示させるという、いわゆるスルー画像表示を開始させる(ステップS51)。なお、他方のCCDも駆動させることにより、両方のCCD(CCD6、CCD7)で被写体の撮像を開始させ、一方のCCDにより得られた画像データと、他方のCCDで得られた画像データとを合成して1枚の画像データを生成し、該生成した画像データをスルー画像として表示させるようにしてもよい。
そして、スルー画像表示を開始させると、CPU11は、現在のズームレンズのレンズ位置に対応した焦点距離でAE処理(自動露出)を実行し、撮像された画像データに対してホワイトバランス処理などの画像処理を施す(ステップS52)。
When the photographing mode is set by the user operating the mode switching key of the key input unit 16, the CPU 11 starts imaging by driving one of the CCD 6 and the CCD 7, and the imaged subject is captured. Image processing is performed on the image data and stored in the buffer memory, so-called through image display is started in which the stored image data is displayed on the image display unit 15 (step S51). By driving the other CCD, both CCDs (CCD6 and CCD7) start imaging the subject, and the image data obtained by one CCD and the image data obtained by the other CCD are combined. Then, one piece of image data may be generated, and the generated image data may be displayed as a through image.
When the through image display is started, the CPU 11 executes AE processing (automatic exposure) at a focal length corresponding to the lens position of the current zoom lens, and performs image processing such as white balance processing on the captured image data. Processing is performed (step S52).

次いで、CPU11は、ユーザによってキー入力部16のズームキーの操作が行なわれたか否かの判断を行う(ステップS53)。
ステップS53で、ズームキーの操作が行われたと判断すると、CPU11は、ユーザのズームキーの操作にしたがって、ズームレンズを移動させて(ステップS54)、ステップS55に進み、ステップS53で、ズームキーの操作が行われていないと判断するとそのままステップS55に進む。
ステップS55に進むと、CPU11は、ユーザによってシャッタボタンが半押しされたか否かの判断を行う。この判断は、シャッタボタン半押しに対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
Next, the CPU 11 determines whether or not the user has operated the zoom key of the key input unit 16 (step S53).
If it is determined in step S53 that the zoom key has been operated, the CPU 11 moves the zoom lens in accordance with the user's zoom key operation (step S54), and proceeds to step S55. In step S53, the zoom key is operated. If it is determined that it is not, the process proceeds to step S55 as it is.
In step S55, the CPU 11 determines whether or not the shutter button is half-pressed by the user. This determination is made based on whether or not an operation signal corresponding to half-pressing of the shutter button has been sent from the key input unit 16.

ステップS55で、シャッタボタンが半押しされていないと判断すると、ステップS52に戻り、ステップS55で、シャッタボタンが半押しされたと判断すると、CPU11は、半押し直前に取得したスルー画像に基づき、本撮影用の露出値(絞り値、シャッタ速度、増幅率)、ホワイトバランス値等の撮影条件をロックするとともに、ストロボモードが強制発光モード、オートストロボモード、発光禁止モードのうちどのモードであるか否かを判断し、オートストロボモードの場合には、駆動させているCCDからの画像データの輝度成分(半押し直前に取得したスルー画像)又は図示しない測光回路によって撮像された画像が暗いか否かの判断を行い、ストロボを閃光させるか否かの判断も行ってストロボ発光On/Offの撮影条件もロックして(ステップS56)、タイマーをスタートさせる(ステップS57)。   If it is determined in step S55 that the shutter button is not half-pressed, the process returns to step S52. If it is determined in step S55 that the shutter button is half-pressed, the CPU 11 performs the main image based on the through image acquired immediately before half-press. Locks shooting conditions such as exposure value (aperture value, shutter speed, amplification factor), white balance value, etc., and whether the flash mode is a forced flash mode, auto flash mode, or flash prohibited mode. In the auto strobe mode, whether or not the luminance component of the image data from the CCD being driven (through image acquired immediately before half-pressing) or an image captured by a photometric circuit (not shown) is dark Shooting conditions for strobe flashing On / Off by determining whether or not to flash the strobe. Locked (step S56), a timer is started (step S57).

そして、CPU11は、タイムアップしたか否かの判断を行う(ステップS58)。このタイムアップしたか否かの判断は、タイマーが所定時間(ここでは、0.05秒)を経過したか否かにより判断する。
ステップS58で、タイムアップしていないと判断すると、CPU11は、シャッタボタンが全押しされたか否かの判断を行う(ステップS59)。この判断は、シャッタボタン全押しに対応する操作信号がキー入力部16から送られてきたか否かにより判断する。
ステップS59で、シャッタボタンが全押しされていないと判断するとステップS58に戻る。
Then, the CPU 11 determines whether the time is up (step S58). The determination as to whether or not the time is up is made based on whether or not the timer has passed a predetermined time (here, 0.05 seconds).
If it is determined in step S58 that the time is not up, the CPU 11 determines whether or not the shutter button has been fully pressed (step S59). This determination is made based on whether or not an operation signal corresponding to full depression of the shutter button has been sent from the key input unit 16.
If it is determined in step S59 that the shutter button has not been fully pressed, the process returns to step S58.

タイムアップしたと判断する前に、ここでは、シャッタボタンが半押しされてから0.05秒経過する前に、シャッタボタンが全押しされたと判断すると(ステップS59でYに分岐)、迅速な撮影が要求されているものと判断して、本発明のパンフォーカス処理を行うべく、CPU11は、撮影シーンに基づく優先フォーカスの種類の判定処理を行う(ステップS60)。つまり、現在の撮影シーンを自動判断し、該判断した撮影シーンに対応する優先フォーカスの種類の判定処理を行う。この判定処理については後で詳細に説明する。判定される優先フォーカスの種類としては、近景優先フォーカス、絞り開放の遠景優先フォーカス、絞り開放でない遠景優先フォーカスがある。   Before determining that the time has expired, here, if it is determined that the shutter button has been fully pressed before 0.05 seconds have elapsed since the shutter button was pressed halfway (branch to Y in step S59), rapid shooting is performed. In order to perform the pan focus process of the present invention, the CPU 11 performs a priority focus type determination process based on the shooting scene (step S60). That is, the current shooting scene is automatically determined, and the priority focus type determination process corresponding to the determined shooting scene is performed. This determination process will be described in detail later. The types of priority focus to be determined include a foreground priority focus, a distant view priority focus with the aperture wide open, and a distant view priority focus with no aperture open.

次いで、CPU11は、現在のズームレンズのレンズ位置に基づいてズーム段階を判定する(ステップS61)。このズームレンズのレンズ位置は、ズーム1〜ズーム7までの7段階に分類される。
次いで、CPU11は、ステップS60の判定処理により判定された優先フォーカスの種類及び該判定したズーム段階に対応する、異なる2つのパンフォーカスのフォーカス位置をメモリ13に格納されているパンフォーカス位置テーブルから取得する(ステップS62)。
次いで、CPU11は、該取得した2つのフォーカス位置にCCD6及びCCD7をそれぞれ駆動させて(ステップS63)、図6のステップS67に進む。
Next, the CPU 11 determines the zoom stage based on the current lens position of the zoom lens (step S61). The lens position of this zoom lens is classified into seven stages from zoom 1 to zoom 7.
Next, the CPU 11 acquires from the pan focus position table stored in the memory 13 the two different focus positions corresponding to the type of priority focus determined by the determination process in step S60 and the determined zoom level. (Step S62).
Next, the CPU 11 drives the CCD 6 and the CCD 7 to the two acquired focus positions (step S63), and proceeds to step S67 in FIG.

一方、シャッタボタンが全押しされたと判断される前に、タイムアップしたと判断すると(ステップS58でYに分岐)、CPU11は、コントラスト検出方式によるAF処理を用いて、複数のフォーカスポイントのうち、最も被写体が近いフォーカスポイントと、最も被写体が遠いフォーカスポイントとにピントを合わせるAF処理を実行する(図6のステップS64)。   On the other hand, if it is determined that the time has expired before it is determined that the shutter button has been fully pressed (branch to Y in step S58), the CPU 11 uses the AF processing based on the contrast detection method to select among the plurality of focus points. AF processing is performed to focus on the focus point closest to the subject and the focus point farthest from the subject (step S64 in FIG. 6).

このAF処理の実行を具体的に説明すると、現在被写体を撮像しているCCDの光路長をサーチ範囲内で変えていき、つまり、該CCDを光軸方向にサーチ範囲内で動かしていき、各光路長(各CCDの位置)におけるCCDから出力された撮像信号に基づいて、各フォーカスポイントのAF評価値を検出していくことにより、各フォーカスポイントにおけるAF評価値がピークとなる光路長、つまり、CCDの位置に基づいて最も被写体が近いフォーカスポイントと、最も被写体が遠いフォーカスポイントを検出する。そして、該検出した最も被写体が遠いフォーカスポイントにピントが合うような位置(最も被写体が遠いフォーカスポイントのAF評価値がピークとなる位置)に一方のCCD(CCD6又はCCD7)を移動させ、最も被写体が近いフォーカスポイントにピントが合うような位置(最も被写体が近いフォーカスポイントのAF評価値がピークとなる位置)に他方のCCD(CCD7又はCCD6)を移動させる。なお、AF処理の実行中、他方のCCDを駆動させ、この他方のCCDにより得られた画像データをスルー画像として画像表示部15に表示させるようにしてもよい。   The execution of this AF process will be described in detail. The optical path length of the CCD that is currently imaging the subject is changed within the search range, that is, the CCD is moved in the optical axis direction within the search range. By detecting the AF evaluation value at each focus point based on the imaging signal output from the CCD at the optical path length (position of each CCD), the optical path length at which the AF evaluation value at each focus point reaches a peak, that is, Based on the position of the CCD, the focus point closest to the subject and the focus point farthest from the subject are detected. Then, one CCD (CCD6 or CCD7) is moved to a position where the detected focus point is farthest (the position where the AF evaluation value of the focus point where the subject is farthest reaches a peak), and the most subject The other CCD (CCD7 or CCD6) is moved to a position where the focus point is close to (the position where the AF evaluation value of the focus point closest to the subject is at the peak). During execution of the AF process, the other CCD may be driven, and the image data obtained by the other CCD may be displayed on the image display unit 15 as a through image.

例えば、図7はステップS64のAF処理を説明するための図である。
図7を見るとわかるように、人と家と2つの山(奥の山と、手前の山)がCCDにより撮像されており、フォーカスフレーム21は奥の山に位置し、フォーカスフレーム22は手前の山に位置し、フォーカスフレーム23は家に位置し、フォーカスフレーム24は人に位置していることがわかる。ここで、フォーカスフレームは、フォーカスポイントを示すものである。
この場合には、一番遠い被写体は奥の山であり、一番近い被写体は人となるので、奥の山に位置しているフォーカスフレーム21にピントが合うような位置に一方のCCDを移動させ、人に位置しているフォーカスフレーム24にピントが合うような位置に他方のCCDを移動させることとなる。
For example, FIG. 7 is a diagram for explaining the AF process in step S64.
As can be seen from FIG. 7, a person, a house, and two mountains (back mountain and front mountain) are imaged by the CCD, the focus frame 21 is located in the back mountain, and the focus frame 22 is in front. It can be seen that the focus frame 23 is located at the house and the focus frame 24 is located at the person. Here, the focus frame indicates a focus point.
In this case, the farthest subject is the back mountain, and the closest subject is a person, so one CCD is moved to a position where the focus frame 21 located on the back mountain is in focus. Thus, the other CCD is moved to a position where the focus frame 24 positioned on the person is in focus.

なお、ステップS64のAF処理は、現在撮像している一方のCCDを用いてAF処理を行うようにしたが、両方のCCDを駆動させることにより、AF処理を分担させて行うようにしてもよい。
具体的に説明すると、AFサーチ範囲内におけるAF評価値を検出する各光路長(各CCDの位置)を、CCD6とCCD7とに分けて検出するようにし、サーチ範囲を分担させるようにする。
例えば、CCDの駆動範囲の端から端までで、AF評価値を検出するCCD位置が8つある場合には、一方のCCDで、1番目、2番目、3番目、4番目の位置の各フォーカスポイントのAF評価値を検出し、他方のCCDで、5番目、6番目、7番目、8番目の位置の各フォーカスポイントのAF評価値を検出する。
そして、各フォーカスポイントにおけるAF評価値がピークとなる光路長、つまり、CCDの位置に基づいて最も被写体が近いフォーカスポイントと、最も被写体が遠いフォーカスポイントを検出する。そして、該検出した最も被写体が遠いフォーカスポイントにピントが合うような位置(AF評価値がピークとなる位置)に一方のCCD(CCD6又はCCD7)を移動させ、最も被写体が近いフォーカスポイントにピントが合うような位置(AF評価値がピークとなる位置)に他方のCCD(CCD7又はCCD6)を移動させる。
The AF process in step S64 is performed by using one CCD that is currently imaged. However, the AF process may be shared by driving both CCDs. .
More specifically, each optical path length (position of each CCD) for detecting an AF evaluation value within the AF search range is detected separately for the CCD 6 and the CCD 7, and the search range is shared.
For example, when there are eight CCD positions from the end of the CCD drive range to detect the AF evaluation value, each focus at the first, second, third, and fourth positions is detected with one CCD. The AF evaluation value of the point is detected, and the AF evaluation value of each focus point at the fifth, sixth, seventh, and eighth positions is detected by the other CCD.
Then, the focus point closest to the subject and the focus point farthest from the subject are detected based on the optical path length at which the AF evaluation value at each focus point reaches a peak, that is, the position of the CCD. Then, one CCD (CCD6 or CCD7) is moved to a position where the detected farthest subject is in focus (the position where the AF evaluation value reaches a peak), and the focus point closest to the subject is focused. The other CCD (CCD7 or CCD6) is moved to a position that matches (the position where the AF evaluation value reaches a peak).

図6のフローチャートに戻り、ステップS64のAF処理を実行させると、CPU11は、該AF処理が完了したか否かの判断を行なう(ステップS65)。
ステップS65で、AF処理が完了していないと判断すると完了したと判断するまでステップS65に留まり、ステップS65で、AF処理が完了したと判断すると、ユーザによってシャッタボタンが全押しされたか否かの判断を行う(ステップS66)。
ステップS66で、シャッタボタンが全押しされていないと判断すると、シャッタボタンが全押しされるまでステップS66に留まり、ステップS66で、シャッタボタンが全押しされたと判断するとステップS67に進む。
Returning to the flowchart of FIG. 6, when the AF process of step S64 is executed, the CPU 11 determines whether or not the AF process is completed (step S65).
If it is determined in step S65 that the AF process has not been completed, the process remains in step S65 until it is determined that the AF process has been completed. If it is determined in step S65 that the AF process has been completed, whether or not the shutter button has been fully pressed by the user is determined. A determination is made (step S66).
If it is determined in step S66 that the shutter button is not fully pressed, the process stays in step S66 until the shutter button is fully pressed. If it is determined in step S66 that the shutter button is fully pressed, the process proceeds to step S67.

なお、ステップS64の処理が完了したと判断した後(ステップS65でyに分岐)、シャッタボタンが全押しされたと判断するまでの間は(ステップS66でnに分岐)、他方のCCDも駆動させることにより、両方のCCD(CCD6、CCD7)で被写体の撮像を行なわせ、一方のCCDにより得られた画像データと、他方のCCDで得られた画像データとを合成して1枚の画像データを生成し、該生成した画像データをスルー画像として表示させるようにしてもよい。これにより、複数の被写体にピントの合ったスルー画像を画像表示部15に表示させることが可能となる。   After determining that the process of step S64 is completed (branch to y in step S65), the other CCD is also driven until it is determined that the shutter button is fully pressed (branch to n in step S66). As a result, both the CCDs (CCD6 and CCD7) pick up an image of a subject, and the image data obtained by one CCD and the image data obtained by the other CCD are combined to form one piece of image data. The generated image data may be displayed as a through image. As a result, it is possible to display on the image display unit 15 a through image in which a plurality of subjects are in focus.

ステップS63でパンフォーカス位置テーブルから取得したフォーカス位置にCCD6及びCCD7を移動させると、又は、ステップS66でシャッタボタンが全押しされたと判断すると、ステップS67に進み、ステップS56でロックした撮影条件下でCCD6及びCCD7を用いて静止画撮影処理を行う(ステップS67)。
そして、CPU11は、CCD6から得られた静止画像データと、CCD7から得られた静止画像データとを合成し、該合成した画像データを圧縮してフラッシュメモリ14に記録する(ステップS68)。これにより、複数の被写体にピントの合った画像データを記録することができる。
If the CCD 6 and the CCD 7 are moved to the focus position acquired from the pan focus position table in step S63, or if it is determined that the shutter button is fully pressed in step S66, the process proceeds to step S67, and under the shooting conditions locked in step S56. Still image shooting processing is performed using the CCD 6 and the CCD 7 (step S67).
Then, the CPU 11 combines the still image data obtained from the CCD 6 and the still image data obtained from the CCD 7, compresses the combined image data, and records it in the flash memory 14 (step S68). Thereby, focused image data can be recorded on a plurality of subjects.

次に、撮影シーンに基づく優先フォーカスの種類の判定処理を図8のフローチャートにしたがって説明する。
ここでは、ストロボ発光による撮影か否か、超高照度又は超低照度か否か、フリッカーを検出したか否か、屋外か否か、絞り開放か否かの判断により撮影シーンの自動判断を行い、該判断された撮影シーンに基づいて、近景優先フォーカスか、絞り開放の遠景優先フォーカスか、絞り開放でない遠景優先フォーカスか否かの判定を行う。
Next, priority focus type determination processing based on the shooting scene will be described with reference to the flowchart of FIG.
Here, the shooting scene is automatically judged based on whether it is shooting with strobe light, whether it is ultra-high illuminance or ultra-low illuminance, whether flicker is detected, whether it is outdoors, or whether the aperture is open. Then, based on the determined shooting scene, it is determined whether the focus is a foreground priority focus, a distant view priority focus with the aperture wide open, or a distant view priority focus with the aperture not open.

図5のステップS60に進むと、図8のステップ101に進み、CPU11は、ストロボ発光による撮影か否かを判断する。この判断は、図5のステップS56でロックされた撮影条件によって判断する。
ステップS101で、ストロボ発光による撮影であると判断するとステップS105に進み、ストロボ発光による撮影でないと判断するとステップS102に進む。
When the process proceeds to step S60 in FIG. 5, the process proceeds to step 101 in FIG. 8, and the CPU 11 determines whether or not the photographing is performed with the flash emission. This determination is made based on the shooting conditions locked in step S56 in FIG.
If it is determined in step S101 that the shooting is based on flash emission, the process proceeds to step S105. If it is determined that the shooting is not based on flash emission, the process proceeds to step S102.

ストロボ発光による撮影でないと判断し、ステップS102に進むと、CPU11は、シャッタボタン全押し時又は半押し時に取得したスルー画像に基づき、超高照度又は超低照度であるか否かを判断する。超高照度又は超低照度であると判断した場合はステップS106に進み、超高照度でもなければ超低照度でもないと判断するとステップS103に進む。この超高照度、超低照度の判断は、CCDに射光された光が変換された電荷量により判断する。   If it is determined that the image is not shot with flash, and the process proceeds to step S102, the CPU 11 determines whether the illumination is ultra-high illumination or ultra-low illumination based on the through image acquired when the shutter button is fully pressed or half pressed. If it is determined that the illuminance is ultra-high illuminance or ultra-low illuminance, the process proceeds to step S106. The determination of the ultra-high illuminance and the ultra-low illuminance is made based on the amount of charge converted from the light incident on the CCD.

超高照度でも超低照度でもないと判断し、ステップS103に進むと、CPU11は、シャッタボタンの全押し時に取得したスルー画像中からフリッカーを検出したか否かを判断する。フリッカーを検出した場合にはステップS105に進み、フリッカーを検出していない場合はステップS104に進む。   If it is determined that the illuminance is neither ultra-high illuminance nor ultra-low illuminance and the process proceeds to step S103, the CPU 11 determines whether or not flicker is detected from the through image acquired when the shutter button is fully pressed. If flicker is detected, the process proceeds to step S105. If flicker is not detected, the process proceeds to step S104.

フリッカーを検出していないと判断し、ステップS104に進むと、撮影場所が屋外か屋内かを判断する。この判断は、図5のステップS56でロックされた撮影条件のホワイトバランス、つまり、自動ホワイトバランス処理により得た光の光源の色温度が太陽光の色温度であると判断すると屋外と判断し、自動ホワイトバランス処理により得た光の光源が太陽光の色温度でないと判断すると屋内と判断する。ステップS104で、屋外でないと判断するとステップS105に進み、屋外であると判断するとステップS106に進む。   If it is determined that no flicker has been detected and the process proceeds to step S104, it is determined whether the shooting location is outdoor or indoor. This determination is made when the white balance of the shooting conditions locked in step S56 of FIG. 5, that is, when the color temperature of the light source obtained by the automatic white balance processing is the color temperature of sunlight, is determined to be outdoors. If it is determined that the light source of light obtained by the automatic white balance processing is not the color temperature of sunlight, it is determined indoors. If it is determined in step S104 that it is not outdoors, the process proceeds to step S105, and if it is determined that the object is outdoors, the process proceeds to step S106.

ステップS101でストロボ発光による撮影と判断した場合、ステップS103でフリッカーを検出したと判断した場合、ステップS104で屋外でないと判断した場合は、近景優先フォーカスと判定する(ステップS105)。
一方、ステップS102で、超高照度又は超低照度と判断した場合、ステップS104で屋外と判断した場合には、ステップS106に進み、絞り開放であるか否かの判断を行う。この判断は、図5のステップS56でロックされた撮影条件に基づいて判断する。
If it is determined in step S101 that shooting is performed with flash emission, if it is determined in step S103 that flicker has been detected, or if it is determined in step S104 that it is not outdoors, the focus is determined to be a foreground priority focus (step S105).
On the other hand, if it is determined in step S102 that it is ultra-high illuminance or ultra-low illuminance, or if it is determined in step S104 that it is outdoors, the process proceeds to step S106, where it is determined whether or not the aperture is full. This determination is made based on the shooting conditions locked in step S56 in FIG.

ステップS106で、絞り開放であると判断すると、絞り開放の遠景優先フォーカスと判定し(ステップS107)、絞り開放でないと判断すると、絞り開放でない遠景優先フォーカスと判定する(ステップS108)。
そして、優先フォーカスの種類の判定を行なうと、図5のステップS61に進む。
このようにして、撮影シーンに基づいて、優先フォーカスの種類の判定を行なう。
If it is determined in step S106 that the aperture is wide open, it is determined that the distant view priority focus is wide open (step S107), and if it is determined that the aperture is not full open, it is determined that the distant view priority focus is not wide open (step S108).
When the priority focus type is determined, the process proceeds to step S61 in FIG.
In this way, the priority focus type is determined based on the shooting scene.

E.以上のように、第2の実施の形態においては、シャッタボタンが一気に全押しされると、迅速な撮影が要求されているものと判断して、撮影シーンを自動判断し、該判断した撮影シーンに基づいて優先フォーカスを判断し、該判断した優先フォーカスの種類及びズームレンズのレンズ位置に対応する、異なる2つのフォーカス位置を取得するようにしたので、簡単、且つ、迅速に複数の被写体にピントを合わせることができる。
また、撮影シーンを自動判断し、撮影シーンに応じて異なる2つのフォーカス位置を取得するので、撮影状況にあったフォーカス位置を取得することができ、確実に撮影したい複数の被写体にピントを合わせることができる。
また、シャッタボタンが半押しされると、迅速な撮影が要求されていないものと判断し、各フォーカスポイントにおけるAF評価値がピークとなるCCDの位置に基づいて、最も被写体位置が遠いフォーカスポイントと、最も被写体位置が近いフォーカスポイントとを検出することにより、最も遠い被写体と、最も近い被写体に対してフォーカスを行なうようにしたので、確実に複数の被写体にピントを合わすことができ、また、広範囲に複数の被写体にピントを合わすことができる。
E. As described above, in the second embodiment, when the shutter button is fully pressed all at once, it is determined that quick shooting is required, the shooting scene is automatically determined, and the determined shooting scene is determined. The priority focus is determined based on the two, and two different focus positions corresponding to the determined priority focus type and the lens position of the zoom lens are acquired, so that it is easy and quick to focus on multiple subjects. Can be combined.
In addition, the camera automatically determines the shooting scene and acquires two different focus positions depending on the shooting scene, so you can acquire the focus position that suits the shooting situation and focus on multiple subjects you want to shoot reliably. Can do.
Further, when the shutter button is half-pressed, it is determined that quick shooting is not requested, and the focus point with the farthest subject position is determined based on the CCD position where the AF evaluation value at each focus point peaks. By detecting the focus point that is closest to the subject position, focusing is performed on the farthest subject and the closest subject, so that multiple subjects can be in focus reliably, You can focus on multiple subjects.

[変形例]
上記各実施の形態は、以下のような変形例も可能である。
(1)上記第1の実施の形態においては、複数の撮影シーンを設けるようにしたが、1つの撮影シーンしか設けないようにしてもよい。この場合には、撮影シーンをユーザが選択することなく、パンフォーカスモードに設定すると自動的に、決められた、各フォーカス位置に各CCDを移動させることとなる。
また、第1の実施の形態においては、複数の撮影シーンの中から任意の撮影シーンをユーザが手動操作で選択するようにしたが、第2の実施の形態と同様に、撮影シーンを自動判断し、この自動判断された撮影シーンに対応する各フォーカス位置に各CCDを移動させるようにしてもよい。
また、第1の実施の形態においては、パンフォーカスモードの設定に応答して撮影シーンの一覧表示が行なわれるようにしたが、スルー画像表示中の任意のタイミングでユーザがメニューキー等のキー操作を行なうことにより撮影シーンの一覧表示が行なわれるようにしてもよい。
また、第2の実施の形態においては、撮影シーンを自動判断し、この自動判断された撮影シーンに対応する各フォーカス位置に各CCDを移動させるようにしたが、シャッタボタンが一気に全押しされると、予め決められた各フォーカス位置に各CCDを移動させるようにしたり、予めユーザにより手動設定されている各フォーカス位置に各CCDを移動させるようにしてもよい。
[Modification]
Each of the above embodiments can be modified as follows.
(1) Although a plurality of shooting scenes are provided in the first embodiment, only one shooting scene may be provided. In this case, the CCD is automatically moved to each determined focus position when the pan focus mode is set without the user selecting a shooting scene.
In the first embodiment, the user manually selects an arbitrary shooting scene from a plurality of shooting scenes. However, as in the second embodiment, the shooting scene is automatically determined. Then, each CCD may be moved to each focus position corresponding to the automatically determined shooting scene.
In the first embodiment, the list of shooting scenes is displayed in response to the setting of the pan focus mode. However, the user can operate a key operation such as a menu key at an arbitrary timing during the through image display. By performing the above, a list of shooting scenes may be displayed.
In the second embodiment, the shooting scene is automatically determined, and each CCD is moved to each focus position corresponding to the automatically determined shooting scene. However, the shutter button is fully pressed all at once. Alternatively, each CCD may be moved to each predetermined focus position, or each CCD may be moved to each focus position manually set by the user.

(2)また、上記各実施の形態においては、パンフォーカス位置テーブルに、ズームレンズのレンズ位置及び撮影シーン(第2の実施の形態においては優先フォーカスの種類も含む)に対応したフォーカス位置を記録させておくようにしたが、撮影シーンに対応するフォーカス位置のみを記録させておくようにしてもよい。この場合、光学ズームが行なわれた場合には、該ズーム倍率(ズームレンズのレンズ位置)等を勘案して、フォーカス位置を計算により求めるようにしてもよい。   (2) In each of the above embodiments, the focus position corresponding to the lens position of the zoom lens and the shooting scene (including the type of priority focus in the second embodiment) is recorded in the pan focus position table. However, only the focus position corresponding to the shooting scene may be recorded. In this case, when the optical zoom is performed, the focus position may be obtained by calculation in consideration of the zoom magnification (lens position of the zoom lens) and the like.

(3)また、上記各実施の形態においては、パンフォーカス位置テーブルに、フォーカス位置を記録しておくようにしたが、フォーカス位置を算出するための何らかの情報(例えば、被写界深度に関する情報)を記録しておき、該情報にしたがってフォーカス位置を計算により求めるようにしてもよい。   (3) In the above embodiments, the focus position is recorded in the pan focus position table. However, some information for calculating the focus position (for example, information on the depth of field). May be recorded, and the focus position may be obtained by calculation according to the information.

(4)また、上記各実施の形態においては、パンフォーカス位置テーブルには、撮像素子毎のパンフォーカスのフォーカス位置を記録させておくようにしたが、パンフォーカスに替えて簡易なコントラスト検出方式によるAF処理(簡易AF)を行うべく、撮影シーンごとに撮像素子毎のAF評価値を検出するサンプリングポイントとなる複数のフォーカス位置を記録したテーブルを有するようにしてもよい。
図9は、優先フォーカスの種類及びズーム段階に対応するサンプリングポイントとなる複数のフォーカス位置(CCDの位置)が記録されているテーブルの様子を示すものである。
例えば、絞り開放の遠景優先フォーカスであって、ズームレンズ2bのレンズ位置がズーム3である場合には、撮像素子1(一方の撮像素子)のサンプリングポイントとなるフォーカス位置は、被写界深度が1.2m〜2.2mとなるようなフォーカス位置と、被写界深度が1.6m〜4.6mとなるようなフォーカス位置と、被写界深度が2.5m〜∞mとなるようなフォーカス位置との3点となる。
(4) In the above embodiments, the focus position of the pan focus for each image sensor is recorded in the pan focus position table. However, instead of pan focus, a simple contrast detection method is used. In order to perform AF processing (simple AF), a table may be provided in which a plurality of focus positions serving as sampling points for detecting AF evaluation values for each image sensor for each photographing scene are recorded.
FIG. 9 shows a table in which a plurality of focus positions (CCD positions) serving as sampling points corresponding to the type of priority focus and the zoom stage are recorded.
For example, in the case of distant view priority focus with the aperture wide open and the lens position of the zoom lens 2b is zoom 3, the focus position serving as the sampling point of the image sensor 1 (one image sensor) has a depth of field. A focus position such that the depth of field is 1.2 m to 2.2 m, a focus position such that the depth of field is 1.6 m to 4.6 m, and a depth of field that is 2.5 m to ∞ m. There are 3 points with the focus position.

この場合は、図5のステップS60で撮影シーンに基づく優先フォーカスの種類の判定処理を行い、ステップS61で、現在のズームレンズのレンズ位置に基づくズーム段階の判定を行うと、CPU11は、該判定処理により判定された優先フォーカスの種類及び該判定されたズーム段階に基づいて、各撮像素子のサンプリングポイントとなる複数のフォーカス位置を図9のテーブルから取得する。
例えば、ここでは、判定処理により判定された優先フォーカスの種類が絞り開放の遠景優先フォーカスであって、判断されたズーム段階がズーム3である場合には、一方の撮像素子によって検出されるAF評価値のサンプリングポイントは、被写界深度が1.2m〜2.2mとなるようなフォーカス位置と、被写界深度が1.6m〜4.6mとなるようなフォーカス位置と、被写界深度が2.5m〜∞mとなるようなフォーカス位置との3点ということになる。
In this case, when the priority focus type determination process based on the shooting scene is performed in step S60 of FIG. 5 and the zoom stage determination is performed based on the lens position of the current zoom lens in step S61, the CPU 11 performs the determination. Based on the type of priority focus determined by the processing and the determined zoom level, a plurality of focus positions serving as sampling points for each image sensor are acquired from the table of FIG.
For example, here, when the priority focus type determined by the determination process is a distant view priority focus with the aperture fully open and the determined zoom level is zoom 3, the AF evaluation detected by one of the image sensors The sampling points of the values are the focus position where the depth of field is 1.2 m to 2.2 m, the focus position where the depth of field is 1.6 m to 4.6 m, and the depth of field. That is, three points with a focus position such that is 2.5 m to ∞ m.

そして、各撮像素子のサンプリングポイントとなるフォーカス位置を取得すると、CPU11は、該取得した撮像素子毎のサンプリングポイントに基づいて簡易AFを行なう。つまり、各撮像素子毎にAF評価値を検出するサンプリングポイントを、該取得したフォーカス位置に限定し、その中でAF評価値がピークとなるフォーカス位置にCCDを駆動させるというものである。
具体的に説明すると、図9のテーブルから取得した一方の撮像素子のサンプリングポイント(3点のフォーカス位置)に、CCD6を移動させることにより、この3点のフォーカス位置における各フォーカスポイントのAF評価値を検出し、AF評価値がピークとなるフォーカス位置にCCD6を移動させる。
同様に、図9のテーブルから取得した他方の撮像素子のサンプリングポイント(3点のフォーカス位置)に、CCD7を移動させることにより、この3点のフォーカス位置における各フォーカスポイントのAF評価値を検出し、AF評価値がピークとなるフォーカス位置にCCD7を移動させることとなる。
このとき、CCD6とCCD7とでは、検出サンプリングポイントが異なるので、異なった被写体にフォーカスを行なうことができる。
When the focus position that is the sampling point of each image sensor is acquired, the CPU 11 performs simple AF based on the acquired sampling point for each image sensor. That is, the sampling point for detecting the AF evaluation value for each image sensor is limited to the acquired focus position, and the CCD is driven to the focus position at which the AF evaluation value reaches its peak.
More specifically, the AF evaluation value of each focus point at the three focus positions by moving the CCD 6 to the sampling points (three focus positions) of one image sensor acquired from the table of FIG. And the CCD 6 is moved to a focus position where the AF evaluation value reaches a peak.
Similarly, the AF evaluation value of each focus point at the three focus positions is detected by moving the CCD 7 to the sampling points (three focus positions) of the other image sensor acquired from the table of FIG. Then, the CCD 7 is moved to the focus position where the AF evaluation value reaches its peak.
At this time, the CCD 6 and the CCD 7 have different detection sampling points, so that different subjects can be focused.

なお、ここでは、スキャン代表位置となるフォーカス位置を3点としたが、複数であれば、2点でもよいし4点であってもよい。つまり、通常のコントラスト検出方式によるAF処理より、AF評価値を検出するサンプリングポイントを少なくすればよい。
また、図9のテーブルには、撮影シーンごとに撮像素子毎のAF評価値を検出するサンプリングポイントとなるフォーカス位置を記録するようにしたが、撮影シーンごとに撮像素子毎のAF評価値を検出するサーチ範囲を示す撮像素子の位置範囲や、AF評価値を検出するサンプリング間隔を記録するようにしてもよい。この場合は、通常のコントラスト検出方式によるAF処理より、サーチ範囲を小さくしたり、サンプリング間隔を大きくするようにする。
また、第1の実施の形態も同様に、図2のテーブルに替えて、撮影シーンごとに撮像素子毎のAF評価値を検出するサンプリングポイントとなる複数のフォーカス位置や、AF評価値を検出するサーチ範囲を示す撮像素子の位置範囲や、AF評価値を検出するサンプリング間隔を記録したテーブルを有するようにしてもよい。
In this example, the focus position serving as the scan representative position is three points. However, as long as there are a plurality of focus positions, two or four points may be used. That is, the sampling points for detecting the AF evaluation value may be reduced as compared with the AF processing by the normal contrast detection method.
The table in FIG. 9 records the focus position as a sampling point for detecting the AF evaluation value for each image pickup device for each shooting scene, but detects the AF evaluation value for each image pickup device for each shooting scene. The position range of the image sensor indicating the search range to be performed and the sampling interval for detecting the AF evaluation value may be recorded. In this case, the search range is made smaller and the sampling interval is made larger than the AF processing by the normal contrast detection method.
Similarly, in the first embodiment, instead of the table in FIG. 2, a plurality of focus positions serving as sampling points for detecting an AF evaluation value for each image sensor for each shooting scene and AF evaluation values are detected. You may make it have the table which recorded the position range of the image pick-up element which shows a search range, and the sampling interval which detects AF evaluation value.

(5)また、上記各実施の形態においては、CCD6及び7を光軸方向に移動させることにより、光路長を変更させるようにしたが、各CCD毎にフォーカスレンズを設け、各フォーカスレンズを個別に移動させるようにして、各CCD毎に光路長を変更することができるようにしてもよい。つまり、各CCD毎に光路長を別個に変更することができるものであればなんでもよい。   (5) In the above embodiments, the optical path length is changed by moving the CCDs 6 and 7 in the optical axis direction. However, a focus lens is provided for each CCD, and each focus lens is individually provided. The optical path length may be changed for each CCD. In other words, any device can be used as long as the optical path length can be changed separately for each CCD.

(6)また、上記各実施の形態においては、1つの撮像レンズ2から入射された光を光路分離手段により分離させてCCD6及びCCD7に被写体の光を投影させるようにしたが、CCD毎に撮影レンズを個別に設けてCCDに被写体の光投影させるようにしてもよい。   (6) In each of the above embodiments, the light incident from one imaging lens 2 is separated by the optical path separating means and the light of the subject is projected onto the CCD 6 and the CCD 7. A lens may be provided separately to project the light of the subject on the CCD.

(7)また、上記各実施の形態においては、2つのCCD(CCD6及びCCD7)を用いて本発明を実現したが、2つに限らず、3つ、4つのCCDを設けるようにしてもよい。つまり、CCDが複数であればいくつでもよい。CCDの数を増やすことにより、多くの被写体にピントを合わせることができる。
この場合には、撮影シーンごとに各CCD毎のフォーカス位置を記録させたフォーカス位置テーブルなどを設けるようにする。
(7) In the above embodiments, the present invention is realized by using two CCDs (CCD6 and CCD7). However, the present invention is not limited to two, and three or four CCDs may be provided. . That is, any number of CCDs may be used. By increasing the number of CCDs, it is possible to focus on many subjects.
In this case, a focus position table in which the focus position for each CCD is recorded for each shooting scene is provided.

(8)また、上記各実施の形態においては、単に複数のCCDから出力された画像データを合成して一枚の画像データを生成するようにしたが、各CCDから出力された各画像データの画像のうち、一番ピントが合っている部分の画像データを切り出して合成することにより一枚の画像データを生成するようにしてもよい。   (8) In each of the above embodiments, image data output from a plurality of CCDs is simply combined to generate a single piece of image data. One piece of image data may be generated by cutting out and synthesizing the image data of the most focused portion of the image.

(9)また、上記第2の実施の形態においては、シャッタボタンは、半押し操作、全押し操作可能な2段階のストロークを有するボタンであるが、1段階しか操作できないボタンであってもよい(2段階ストロークを有さないボタン、つまり、押すことしかできないボタン)。この場合には、シャッタボタンの上部に指が触れたか否かを検出するタッチセンサを設けておき、タッチセンサに指が触れたことを検出することにより、シャッタボタンが半押しされたと判断し、シャッタボタンが押下されることにより、シャッタボタンが全押しされたと判断する。   (9) In the second embodiment, the shutter button is a button having a two-stage stroke that can be operated halfway and fully, but may be a button that can be operated only in one stage. (A button that does not have a two-stage stroke, that is, a button that can only be pressed). In this case, a touch sensor that detects whether or not a finger has touched the top of the shutter button is provided, and it is determined that the shutter button has been half-pressed by detecting that the finger has touched the touch sensor. When the shutter button is pressed, it is determined that the shutter button is fully pressed.

(10)また、上記第2の実施の形態においては、シャッタボタンが半押しされてから所定時間経過前にシャッタボタンが全押しされた場合には(ステップS59でYに分岐)、ユーザが一気にシャッタボタンを全押ししたと判断するようにしたが、シャッタボタンの半押し状態が一定時間以上維持されないとCPU11によってシャッタボタン半押しに対応する操作信号が検出されないものとした場合には、シャッタボタン半押しに対応する操作信号が検出されることなく、シャッタボタン全押しに対応する操作信号のみが検出された場合には、ユーザが一気にシャッタボタンを全押ししたと判断するようにしてもよい。
具体的に説明すると、ステップS55で、シャッタボタンが半押しされていないと判断すると、シャッタボタンが全押しされたか否かの判断を行い、全押しもされていないと判断するとステップS52に戻る。一方、半押しに対応する操作信号が検出された場合には、AE、AWB等の撮影条件をロックしてステップS64に進み、また、半押しに対応する操作信号が検出されずに、シャッタボタン全押しに対応する操作信号が検出された場合はAE、AWB等の撮影条件をロックしてステップS60に進むようにする。
(10) In the second embodiment, if the shutter button is fully pressed before the predetermined time has elapsed since the shutter button was pressed halfway (branch to Y in step S59), the user can If it is determined that the shutter button has been fully pressed, but the CPU 11 does not detect an operation signal corresponding to the half-press of the shutter button unless the shutter button is pressed halfway for a certain period of time, the shutter button If only the operation signal corresponding to the shutter button full press is detected without detecting the operation signal corresponding to the half press, it may be determined that the user has pressed the shutter button all at once.
More specifically, if it is determined in step S55 that the shutter button is not half-pressed, it is determined whether or not the shutter button is fully pressed. If it is determined that the shutter button is not fully pressed, the process returns to step S52. On the other hand, if an operation signal corresponding to half-press is detected, the shooting conditions such as AE and AWB are locked, and the process proceeds to step S64. Also, an operation signal corresponding to half-press is not detected, and the shutter button is pressed. If an operation signal corresponding to full press is detected, the shooting conditions such as AE and AWB are locked, and the process proceeds to step S60.

(11)また、上記第2の実施の形態においては、半押しされたと判断してからシャッタボタンが全押しされることなく所定時間経過した場合に(ステップS58でY)、ステップS64のAF処理を実行するようにしたが、シャッタボタンが半押しされると、直ぐにステップS64に進み、AF処理を行うようにしてもよい。そして、AF処理が完了したと判断する前(ステップS65でYに分岐する前に)に、シャッタボタンが全押しされたと判断すると、ステップS64のAF処理を中止して、ステップS60に進むようにしてもよい。   (11) Also, in the second embodiment, when it is determined that the shutter button is half-pressed and a predetermined time has elapsed without being fully pressed (Y in step S58), the AF process in step S64 However, as soon as the shutter button is half-pressed, the process may proceed to step S64 to perform AF processing. If it is determined that the shutter button is fully pressed before it is determined that the AF process is completed (before branching to Y in step S65), the AF process in step S64 is stopped and the process proceeds to step S60. Good.

(12)また、第2の実施の形態においては、シャッタボタンが一気に全押しされたと判断すると、現在の撮影シーンを自動判断し、該判断した撮影シーンに対応する優先フォーカスの種類の判定処理を行い、該判定処理にしたがってフォーカス位置を取得するようにしたが、ユーザが予め複数の撮影シーンの中から任意に選択した撮影シーンをシャッタボタン一気全押し用の撮影シーンとして設定しておき、シャッタボタンが一気に全押しされたと判断すると、該設定された撮影シーンに対応する、異なる複数のフォーカス位置を取得して、被写体に対してフォーカスを行なうようにしてもよい。   (12) In the second embodiment, when it is determined that the shutter button is fully pressed at once, the current shooting scene is automatically determined, and the priority focus type determination process corresponding to the determined shooting scene is performed. The focus position is acquired according to the determination process, but a shooting scene arbitrarily selected by the user from a plurality of shooting scenes is set as a shooting scene for pressing the shutter button all at once, and the shutter is When it is determined that the button is fully pressed at once, a plurality of different focus positions corresponding to the set shooting scene may be acquired to focus on the subject.

(13)さらに、上記実施の形態におけるデジタルカメラ1は、上記の実施の形態に限定されるものではなく、カメラ付き携帯電話、カメラ付きPDA、カメラ付きパソコン、カメラ付きICレコーダ、又はデジタルビデオカメラ等でもよく、要は被写体に対してフォーカスができる機器であれば何でもよい。   (13) Furthermore, the digital camera 1 in the above embodiment is not limited to the above embodiment, but is a mobile phone with a camera, a PDA with a camera, a personal computer with a camera, an IC recorder with a camera, or a digital video camera. In short, any device that can focus on the subject may be used.

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り兼用シャッタ
5 光路分離手段
6 CCD
7 CCD
8 駆動ブロック
9 TG
10 ユニット回路
11 CPU
12 DRAM
13 メモリ
14 フラッシュメモリ
15 画像表示部
16 キー入力部
17 ストロボ部
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Shooting lens 3 Lens drive block 4 Shutter / shutter 5 Optical path separation means 6 CCD
7 CCD
8 Drive block 9 TG
10 Unit circuit 11 CPU
12 DRAM
13 Memory 14 Flash memory 15 Image display section 16 Key input section 17 Strobe section

Claims (4)

被写体を撮像する複数の撮像素子と、
前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、
前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、
前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、
を備えたことを特徴とする撮像装置。
A plurality of image sensors for imaging a subject;
Together will change respectively the focus position of the plurality of imaging devices, the AF evaluation value is detected for each image pickup element based on the image data output from the plurality of imaging elements, topical in the AF evaluation value the detected Specifying means for specifying, for each image sensor, a focus position at which the AF evaluation value is highest,
Photographing means for performing photographing by setting the focus positions of the plurality of image sensors to the respective focus positions identified by the identifying means;
A plurality of focus points for detecting the AF evaluation value by the specifying unit such that the focus position where the AF evaluation value is locally highest specified by the specifying unit is a different position in each of the plurality of imaging elements. Control means for controlling the range of the position to be different for each of the plurality of image sensors;
An imaging apparatus comprising:
前記制御手段は、2つの異なる距離に存在する2つの異なる被写体の各々に対応して前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で特定されるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御することを特徴とする請求項1に記載の撮像装置。The control means is configured such that the focus position at which the AF evaluation value is locally highest corresponding to each of two different subjects existing at two different distances is specified by each of the plurality of imaging elements. The imaging apparatus according to claim 1, wherein a range of a plurality of focus positions where the AF evaluation value is detected by the specifying unit is controlled to be different in each of the plurality of imaging elements. 前記撮影手段は、
前記特定手段により特定した複数のフォーカス位置の中で、最も遠いフォーカス位置に少なくとも1つの撮像素子のフォーカス位置を設定し、最も近いフォーカス位置にその他の撮像素子のフォーカス位置を設定して撮影を行うことを特徴とする請求項1または2に記載の撮像装置。
The photographing means includes
Shooting is performed by setting the focus position of at least one image sensor at the farthest focus position and setting the focus positions of other image sensors at the closest focus position among the plurality of focus positions specified by the specifying means. The imaging apparatus according to claim 1 or 2 , wherein
被写体を撮像する複数の撮像素子を備えた撮像装置のコンピュータを、
前記複数の撮像素子のフォーカス位置をそれぞれ変えていくとともに、前記複数の撮像素子から出力される画像データに基づいてAF評価値を撮像素子毎に検出し、該検出したAF評価値の中で局所的に最もAF評価値が高くなるフォーカス位置を撮像素子毎に特定する特定手段と、
前記複数の撮像素子のフォーカス位置を、前記特定手段により特定したそれぞれのフォーカス位置に設定して撮影を行う撮影手段と、
前記特定手段により特定される前記局所的に最もAF評価値が高くなるフォーカス位置が前記複数の撮像素子の各々で異なる位置となるように、前記特定手段によりAF評価値の検出を行う複数のフォーカス位置の範囲を、前記複数の撮像素子の各々で異なるように制御する制御手段と、
して機能させることを特徴とするプログラム。
A computer of an image pickup apparatus having a plurality of image pickup devices for picking up an image of a subject,
Together will change respectively the focus position of the plurality of imaging devices, the AF evaluation value is detected for each image pickup element based on the image data output from the plurality of imaging elements, topical in the AF evaluation value the detected Specifying means for specifying, for each image sensor, a focus position at which the AF evaluation value is highest,
Photographing means for performing photographing by setting the focus positions of the plurality of image sensors to the respective focus positions identified by the identifying means;
A plurality of focus points for detecting the AF evaluation value by the specifying unit such that the focus position where the AF evaluation value is locally highest specified by the specifying unit is a different position in each of the plurality of imaging elements. Control means for controlling the range of the position to be different for each of the plurality of image sensors;
A program characterized by making it function.
JP2011156543A 2011-07-15 2011-07-15 Imaging apparatus and program thereof Expired - Fee Related JP5273220B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011156543A JP5273220B2 (en) 2011-07-15 2011-07-15 Imaging apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011156543A JP5273220B2 (en) 2011-07-15 2011-07-15 Imaging apparatus and program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005259429A Division JP4957943B2 (en) 2005-09-07 2005-09-07 Imaging apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2011242790A JP2011242790A (en) 2011-12-01
JP5273220B2 true JP5273220B2 (en) 2013-08-28

Family

ID=45409422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011156543A Expired - Fee Related JP5273220B2 (en) 2011-07-15 2011-07-15 Imaging apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP5273220B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06334912A (en) * 1993-05-21 1994-12-02 Sharp Corp Picture input device
JPH10257369A (en) * 1997-03-13 1998-09-25 Sony Corp Image signal recorder, recording and reproducing device and recording method
JP4226235B2 (en) * 2001-09-04 2009-02-18 日本放送協会 Imaging device
JP2004109708A (en) * 2002-09-19 2004-04-08 Ricoh Co Ltd Imaging apparatus
JP2004120015A (en) * 2002-09-20 2004-04-15 Ricoh Co Ltd Imaging apparatus

Also Published As

Publication number Publication date
JP2011242790A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
JP4957943B2 (en) Imaging apparatus and program thereof
US7783190B2 (en) Image pick-up apparatus with a multi-area AF function
JP4466400B2 (en) Imaging apparatus and program thereof
JP4644883B2 (en) Imaging device
US7668451B2 (en) System for and method of taking image
JP4727534B2 (en) Imaging device
TWI514847B (en) Image processing device, image processing method, and recording medium
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2007215091A (en) Imaging apparatus and program therefor
JP2009251557A (en) Imaging apparatus
JP5267609B2 (en) Imaging apparatus and program thereof
JP5064926B2 (en) Imaging apparatus and control method thereof
JP2007101907A (en) Autofocus controller, image forming apparatus using same and autofocus control method
JP2007225897A (en) Focusing position determination device and method
JP4949717B2 (en) In-focus position determining apparatus and method
JP2007028486A (en) Digital camera
JP2007094023A (en) Focus adjustment method of focus lens and imaging apparatus
JP4534250B2 (en) Movie imaging apparatus and program thereof
JP2005283637A (en) Photographing device and program therefor
JP5273220B2 (en) Imaging apparatus and program thereof
JP4771524B2 (en) Imaging apparatus and program thereof
JP2008209760A (en) Photographing method and photographing device
JP2004117775A (en) Camera
JP2006215471A (en) Photographing apparatus
JP2006093956A (en) Imaging apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5273220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees