JP2005338614A - Photographing apparatus and is program - Google Patents

Photographing apparatus and is program Download PDF

Info

Publication number
JP2005338614A
JP2005338614A JP2004159653A JP2004159653A JP2005338614A JP 2005338614 A JP2005338614 A JP 2005338614A JP 2004159653 A JP2004159653 A JP 2004159653A JP 2004159653 A JP2004159653 A JP 2004159653A JP 2005338614 A JP2005338614 A JP 2005338614A
Authority
JP
Japan
Prior art keywords
depth
field
distance
photographing
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004159653A
Other languages
Japanese (ja)
Other versions
JP4582295B2 (en
Inventor
Kazunori Kita
一記 喜多
Keiichi Imamura
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004159653A priority Critical patent/JP4582295B2/en
Publication of JP2005338614A publication Critical patent/JP2005338614A/en
Application granted granted Critical
Publication of JP4582295B2 publication Critical patent/JP4582295B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing apparatus provided with a zooming function, an automatic exposure function, a bracketing photographing function, etc. and a program for the photographing apparatus. <P>SOLUTION: A focused subject distance and a focusing distance are detected by zooming processing and automatic focusing processing. Whether a field depth condition entered by a user is an over-focusing distance, a field depth (forward or backward), a field depth limit (near point or far point), or not is determined, a stop value satisfying the discriminated field depth condition is calculated and a suitable shutter speed is set by the calculated stop value and an exposure value to perform still image photographing processing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮影装置及びそのプログラムに係り、詳しくは、ズーム機能、自動露出機能、ブラケティング撮影機能等を備えた撮影装置及びそのプログラムに関する。   The present invention relates to a photographing apparatus and a program thereof, and more particularly to a photographing apparatus having a zoom function, an automatic exposure function, a bracketing photographing function, and the like, and a program thereof.

従来、一眼レフ・カメラでは被写界深度を判断するには、撮影する絞り値までレンズを絞り込み、ファインダ画面でボケ具合を確認するか、シャッタを押す前に、レンズ鏡筒に記された被写界深度目盛を読み取ることにより被写界深度を判断していた。
また、ブラケティング撮影機能を備えたカメラも普及しており、これにより、撮影条件等を少しずつ変えて複数回連続して撮影することによりユーザが後から気に入った画像を選択してより適切な画像を得ることができていた。
Conventionally, with a single-lens reflex camera, to determine the depth of field, the lens is stopped down to the aperture value to be photographed, the blur is confirmed on the viewfinder screen, or the object marked on the lens barrel is pressed before pressing the shutter. The depth of field was determined by reading the depth of field scale.
In addition, cameras equipped with a bracketing shooting function are also widely used. This allows a user to select a desired image later by changing the shooting conditions, etc. little by little, and shooting more than once. An image could be obtained.

また、下記特許文献1には、1つの被写体の距離、絞り値及び焦点距離から被写界深度を演算し、他の被写体がその被写界深度内にあるか否かを表示体の点灯や点滅でファインダに表示することができる被写界深度表示装置なるものが記載されている。   In Patent Document 1 below, the depth of field is calculated from the distance, aperture value, and focal length of one subject, and whether or not the other subject is within the depth of field, There is a description of a depth-of-field display device that can be displayed in a finder by blinking.

また、下記特許文献2には、任意に2つのフォーカスエリアを指定し、対応する被写体まで距離を検知し、指定フォーカスエリアの何れかに焦点が合うように撮像レンズを移動させ、2点の距離差と光学像の輝度に基づいて絞り値と露光時間を設定することができる自動露出制御装置なるものが記載されている。   In Patent Document 2 below, two focus areas are arbitrarily designated, the distance to the corresponding subject is detected, the imaging lens is moved so that one of the designated focus areas is in focus, and the distance between the two points An automatic exposure control device that can set an aperture value and an exposure time based on the difference and the brightness of the optical image is described.

また、下記特許文献3には、ユーザが所定の操作を行うと、シャッター操作時に、撮影条件を変えた複数枚の撮影を行い、順次画像メモリーに記録し、モニタ表示してから選択された画像を記録媒体に記録することができる電子スチルカメラなるものが記載されている。   Further, in Patent Document 3 below, when a user performs a predetermined operation, when a shutter operation is performed, a plurality of images with different imaging conditions are captured, sequentially recorded in an image memory, displayed on a monitor, and then selected. Is described as an electronic still camera capable of recording the image on a recording medium.

公開特許公報 特開平5−232371号(第(2)項右欄第4項第38行目から第(5)項右欄第10項第8行目参照)参照)Japanese Patent Laid-Open No. 5-232371 (refer to paragraph (2), right column, paragraph 4, line 38 to line (5), right column, paragraph 10, paragraph 8))

公開特許公報 特開平3−287142号(第(350)項右下欄第14項第4行目から第(352)項左下欄第21項第3行目まで)Japanese Patent Laid-Open No. 3-287142 (Item (350), lower right column, item 14, line 4 to item (352), lower left column, item 21, line 3)

公開特許公報 特開平2−1722368号(第(477)項左下欄第9項第1行目から第(479)項左下欄第15項第2行目まで)JP-A-2-1722368 (No. (477), lower left column, item 9, line 1 to (479), lower left column, item 15, line 2)

しかしながら、従来のカメラ等にあっては、以下のような問題点があった。
(1)従来の一眼レフ・カメラにあっては、レンズの絞りを絞ると入射光量が減少して視野が暗くなるため、被写界深度や背景のボケ程度を視認するのは熟練者であっても難しいという問題点があった。また、レンズの目盛を読む方法では、ズームや絞りを変更するたびにファインダから鏡筒に視線を移し、絞り値毎の被写界深度を読み取る必要があり不便であり、面倒であるという問題点があった。
(2)上記特許文献1記載の技術によれば、被写体が被写界深度内にあるか否かの表示により確認することができるが、被写体像や前後景のピントやボケ程度との関係が分かりにくいという問題点があった。
(3)上記特許文献2記載の技術では、複数の被写体を選択する操作が必要なため、面倒で、シャッタを押すまでに時間がかかり、シャッタチャンスを逃しやすいという問題点があった。また、ピントを合わせたい被写体は選択することができても、前後景に適当な被写体がない場合や、ピントを外したい被写体は選択することができず、前後景のボケを設定して撮影することは出来なかった。
However, conventional cameras have the following problems.
(1) In a conventional single-lens reflex camera, since the amount of incident light decreases and the field of view becomes darker when the lens aperture is reduced, it is an expert to visually recognize the depth of field and the degree of background blur. But there was a problem that it was difficult. Also, the method of reading the scale of the lens is inconvenient and cumbersome because it is necessary to move the line of sight from the viewfinder to the lens barrel and read the depth of field for each aperture value whenever the zoom or aperture is changed. was there.
(2) According to the technique described in Patent Document 1, it can be confirmed by displaying whether or not the subject is within the depth of field, but there is a relationship between the subject image and the focus and blur of the foreground and background. There was a problem that it was difficult to understand.
(3) The technique described in Patent Document 2 requires an operation of selecting a plurality of subjects, which is troublesome and takes time until the shutter is pressed, and has a problem that it is easy to miss a photo opportunity. Also, even if you can select the subject you want to focus on, if there is no suitable subject in the foreground or background, or you cannot select the subject you want to focus on, set the blur on the foreground and background and shoot I couldn't.

(4)また、上記特許文献3に記載の技術のように、露出、ホワイトバランス、フォーカス位置などの撮影条件を少しずつ変えて複数の写真を一度に連続撮影するブラケティング撮影機能などを備えたカメラや発案はあるが、ユーザのそのブラケティングする被写界深度などを任意に設定することができるズーム機能やブラケティング撮影機能を備えたデジタルカメラはなかった。
そのため、ブラケティングされていく間隔がユーザの所望する間隔より大きかったり、小さかったりすることがあるため、ブラケティング撮影を行ってもユーザが本当に所望する画像を得ることができないという問題点もあった。
(5)更に、上記した各特許文献に記載した技術でも、ユーザが所望する被写界深度で被写体を撮影することができず、ユーザが所望する画像を撮影することができないという問題点があった。
(4) Also, as in the technique described in Patent Document 3, a bracketing shooting function for continuously shooting a plurality of photos at once by changing shooting conditions such as exposure, white balance, and focus position little by little. Although there were cameras and ideas, there was no digital camera equipped with a zoom function and a bracketing shooting function that can arbitrarily set the depth of field of the user's bracketing.
As a result, the bracketing interval may be larger or smaller than the user's desired interval, and there is a problem that the user cannot actually obtain the desired image even when bracketing shooting is performed. .
(5) Furthermore, even with the techniques described in the above-mentioned patent documents, there is a problem that the subject cannot be photographed at the depth of field desired by the user and the image desired by the user cannot be photographed. It was.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、設定された被写界深度となるように自動ズーム、自動露出、及び被写界深度等の表示を行うことでユーザの利便性を向上することができる撮影装置及びそのプログラムを提供すること目的とする。   Therefore, the present invention has been made in view of such conventional problems, and by displaying the automatic zoom, automatic exposure, depth of field, and the like so as to achieve the set depth of field, It is an object of the present invention to provide a photographing apparatus and a program thereof that can improve convenience.

上記目的達成のため、請求項1記載の発明による撮影装置は、被写体を撮影する撮影手段と、
被写界深度条件を設定する設定手段と、
前記設定手段により設定された被写界深度条件となるような撮影条件を取得する取得手段と、
前記取得手段により取得された撮影条件で前記撮影手段による撮影を制御する撮影制御手段と、
を備えたことを特徴とする。
In order to achieve the above object, a photographing apparatus according to the first aspect of the present invention comprises photographing means for photographing a subject,
A setting means for setting a depth of field condition;
An acquisition means for acquiring a shooting condition that is a depth-of-field condition set by the setting means;
Photographing control means for controlling photographing by the photographing means under the photographing conditions obtained by the obtaining means;
It is provided with.

また、例えば、請求項2に記載されているように、絞り値及び被写体距離を検出する第1の検出手段を備え、
前記取得手段は、
前記設定手段により設定された被写界深度条件及び前記第1の検出手段により検出された絞り値、被写体距離から焦点距離を算出し、該算出された焦点距離を撮影条件として取得するようにしてもよい。
Further, for example, as described in claim 2, the first detection means for detecting the aperture value and the subject distance is provided,
The acquisition means includes
The focal length is calculated from the depth-of-field condition set by the setting means, the aperture value detected by the first detection means, and the subject distance, and the calculated focal distance is acquired as the shooting condition. Also good.

また、例えば、請求項3に記載されているように、前記第1の検出手段は、
ユーザによって入力された値を絞り値として検出するようにしてもよい。
また、例えば、請求項4に記載されているように、前記第1の検出手段は、
自動露出制御によって設定された絞り値を検出するようにしてもよい。
For example, as described in claim 3, the first detection unit includes:
A value input by the user may be detected as an aperture value.
For example, as described in claim 4, the first detection unit includes:
You may make it detect the aperture value set by automatic exposure control.

また、例えば、請求項5に記載されているように、焦点距離及び被写体距離を検出する第2の検出手段を備え、
前記取得手段は、
前記設定手段により設定された被写界深度条件及び前記第2の検出手段により検出された焦点距離、被写体距離から絞り値を算出し、該算出された絞り値を撮影条件として取得するようにしてもよい。
Further, for example, as described in claim 5, a second detection unit that detects the focal length and the subject distance is provided,
The acquisition means includes
An aperture value is calculated from the depth-of-field condition set by the setting means and the focal length and subject distance detected by the second detection means, and the calculated aperture value is acquired as a shooting condition. Also good.

また、例えば、請求項6に記載されているように、前記被写界深度条件は、
前方被写界深度、後方被写界深度、被写界深度限界近点、被写界深度限界遠点及び過焦点距離からなり、
前記設定手段は、
前記被写界深度条件のうち1つを設定するようにしてもよい。
For example, as described in claim 6, the depth of field condition is:
It consists of forward depth of field, backward depth of field, depth of field limit near point, depth of field limit far point and hyperfocal distance,
The setting means includes
One of the depth-of-field conditions may be set.

また、例えば、請求項7に記載されているように、ユーザが被写界深度条件のうち1つを選択し、該選択された要素を数値データの形態で入力するための数値入力手段を備え、
前記設定手段は、
前記数値入力手段により入力された数値データを被写界深度条件として設定するようにしてもよい。
Further, for example, as described in claim 7, there is provided numerical value input means for the user to select one of the depth-of-field conditions and input the selected element in the form of numerical data. ,
The setting means includes
The numerical data input by the numerical input means may be set as the depth of field condition.

また、例えば、請求項8に記載されているように、前記撮影制御手段は、
連続して前記撮影手段による被写体の撮影を制御する連続撮影制御手段を備えるようにしてもよい。
For example, as described in claim 8, the photographing control unit includes:
You may make it provide the continuous imaging | photography control means which controls imaging | photography of the to-be-photographed object by the said imaging | photography means continuously.

また、例えば、請求項9に記載されているように、前記設定手段は、
異なる被写界深度条件を設定していき、
前記取得手段は、
前記設定手段により設定されていく被写界深度条件となるような撮影条件を順次取得し、
前記連続撮影制御手段は、
前記取得手段により順次取得された撮影条件にしたがって、連続して前記撮影手段による撮影を制御するようにしてもよい。
For example, as set forth in claim 9, the setting means includes
Set different depth of field conditions,
The acquisition means includes
Sequentially acquiring shooting conditions that will be the depth of field conditions set by the setting means,
The continuous shooting control means includes
You may make it control imaging | photography by the said imaging | photography means continuously according to the imaging conditions acquired sequentially by the said acquisition means.

また、例えば、請求項10に記載されているように、少なくともユーザがブラケティングさせる被写界深度条件の補正間隔を入力するための補正間隔入力手段を備え、
前記設定手段は、
前記補正間隔入力手段により入力された被写界深度条件の補正間隔にしたがって、被写界深度条件をブラケティングさせて異なる被写界深度条件を設定していくようにしてもよい。
Further, for example, as described in claim 10, at least a correction interval input means for inputting a correction interval of a depth-of-field condition that the user brackets is provided.
The setting means includes
Different depth-of-field conditions may be set by bracketing the depth-of-field condition according to the depth-of-field condition correction interval input by the correction interval input means.

また、例えば、請求項11に記載されているように、前記補正間隔入力手段は、
更に、補正順序、撮影枚数を入力するための手段を備え、
前記設定手段は、
前記補正間隔入力手段により入力された補正間隔、補正順序、撮影枚数にしたがって、被写界深度条件をブラケティングさせて異なる被写界深度条件を設定していくようにしてもよい。
Further, for example, as described in claim 11, the correction interval input means includes:
Furthermore, a means for inputting the correction order and the number of shots is provided.
The setting means includes
Different depth-of-field conditions may be set by bracketing depth-of-field conditions according to the correction interval, correction order, and number of shots input by the correction interval input means.

また、例えば、請求項12に記載されているように、前記連続撮影制御手段は、
前記撮影手段による撮影を制御するごとに、露出ブラケティング撮影、WBブラケティング撮影、シャープネスブラケティング撮影、コントラストブラケティング撮影、フィルタブラケティング撮影、カラー補正ブラケティング撮影のうち少なくとも1つ以上のブラケティング撮影の制御を行うようにしてもよい。
For example, as described in claim 12, the continuous shooting control means includes
Each time the photographing by the photographing means is controlled, at least one of bracketing photography, exposure bracketing photography, sharpness bracketing photography, contrast bracketing photography, filter bracketing photography, and color correction bracketing photography is performed. You may make it control imaging | photography.

また、例えば、請求項13に記載されているように、前記撮影手段により撮影された撮影画像を表示手段に表示させる表示制御手段を備えるようにしてもよい。   Further, for example, as described in claim 13, display control means may be provided for causing the display means to display a photographed image photographed by the photographing means.

また、例えば、請求項14に記載されているように、前記表示制御手段は、
前記撮影手段により撮影された画像を表示手段に表示させるとともに、前記表示手段に表示された画像の撮影者から見た見かけ上の距離目盛を表した距離換算スケールを重ねて表示手段に表示させるようにしてもよい。
For example, as described in claim 14, the display control unit includes:
An image photographed by the photographing means is displayed on the display means, and a distance conversion scale representing an apparent distance scale viewed from the photographer of the image displayed on the display means is displayed on the display means in an overlapping manner. It may be.

また、例えば、請求項15に記載されているように、前記撮影手段により撮影された撮影画像の撮影者から見た見かけ上の距離目盛に対応する撮像素子上の位置を算出する距離位置算出手段を備え、
前記表示制御手段は、
前記距離位置算出手段により算出された距離目盛が対応する該撮像素子上の位置に該距離目盛情報を表示させることにより距離換算スケールを前記表示手段に表示させるようにしてもよい。
Further, for example, as described in claim 15, a distance position calculation unit that calculates a position on an image sensor corresponding to an apparent distance scale viewed from a photographer of a captured image captured by the imaging unit. With
The display control means includes
The distance conversion scale may be displayed on the display unit by displaying the distance scale information at a position on the image sensor corresponding to the distance scale calculated by the distance position calculation unit.

また、例えば、請求項16に記載されているように、撮像素子上の位置に対応する前記撮影手段により撮影された撮影画像の撮影者から見た見かけ上の距離を算出する距離算出手段を備え、
前記表示制御手段は、
前記距離算出手段により算出された距離目盛が対応する前記撮像素子上の位置に該算出された距離目盛情報を表示させることにより距離換算スケールを前記表示手段に表示させるようにしてもよい。
In addition, for example, as described in claim 16, distance calculation means for calculating an apparent distance seen by a photographer of a photographed image photographed by the photographing means corresponding to a position on the image sensor is provided. ,
The display control means includes
The distance conversion scale may be displayed on the display unit by displaying the calculated distance scale information at a position on the image sensor corresponding to the distance scale calculated by the distance calculation unit.

また、例えば、請求項17に記載されているように、絞り値、焦点距離及び被写体距離を検出する検出手段と、
前記検出手段によって検出された絞り値、焦点距離及び被写体距離から前記撮影手段により撮影された画像の被写界深度条件及び被写界深度を算出する算出手段を備え、
前記表示制御手段は、
前記算出手段により算出された被写界深度条件及び被写界深度の情報を前記表示手段に表示させるようにしてもよい。
In addition, for example, as described in claim 17, detection means for detecting an aperture value, a focal length, and a subject distance;
A calculation means for calculating a depth-of-field condition and a depth of field of an image photographed by the photographing means from an aperture value, a focal length and a subject distance detected by the detection means;
The display control means includes
You may make it display the information on depth-of-field conditions and depth of field calculated by the said calculation means on the said display means.

また、例えば、請求項18に記載されているように、前記表示制御手段は、
前記算出手段により算出された被写界深度の深浅を前記距離換算スケール上に重ねて前記表示手段に表示させるようにしてもよい。
For example, as described in claim 18, the display control means includes
The depth of field calculated by the calculating unit may be displayed on the display unit by superimposing the depth of field on the distance conversion scale.

また、例えば、請求項19に記載されているように、前記表示制御手段は、
前記撮影手段により撮影された撮影画像を前記表示手段に表示させるとともに、少なくとも絞り値と被写界深度の関係グラフ、焦点距離と被写界深度の関係グラフ、被写体距離と被写界深度の関係グラフのうち1つの関係グラフを表示させるようにしてもよい。
For example, as described in claim 19, the display control unit includes:
A photographed image taken by the photographing means is displayed on the display means, and at least a relationship graph between an aperture value and a depth of field, a relationship graph between a focal length and a depth of field, a relationship between a subject distance and a depth of field You may make it display one relationship graph among graphs.

また、例えば、請求項20に記載されているように、前記表示制御手段は、
更に、絞り、シャッタ速度、露出量、ホワイトバランス、焦点距離、被写体距離、ズーム倍率のうち少なくとも1つ以上の情報を表示させるようにしてもよい。
For example, as described in claim 20, the display control means includes:
Furthermore, at least one piece of information among the aperture, shutter speed, exposure amount, white balance, focal length, subject distance, and zoom magnification may be displayed.

また、例えば、請求項21に記載されているように、前記撮影制御手段により撮影された画像を記録手段に記録する記録制御手段を備えるようにしてもよい。   Further, for example, as described in claim 21, recording control means for recording an image photographed by the photographing control means in a recording means may be provided.

また、例えば、請求項22に記載されているように、前記記録制御手段は、
前記撮影制御手段により得られた画像データとともに、少なくとも該画像データが得られたときの被写界深度条件を該画像データと関連付けて前記記録手段に記録するようにしてもよい。
Further, for example, as described in claim 22, the recording control means includes:
Along with the image data obtained by the photographing control means, at least the depth-of-field condition when the image data is obtained may be recorded in the recording means in association with the image data.

また、例えば、請求項23に記載されているように、ユーザが撮影モードを選択するための第1の選択手段と、
前記第1の選択手段により選択された撮影モードに対応する被写界深度条件を取得する第1の条件取得手段を備え、
前記設定手段は、
前記第1の条件取得手段により取得された被写界深度条件を設定するようにしてもよい。
Further, for example, as described in claim 23, a first selection unit for the user to select a shooting mode;
First condition acquisition means for acquiring a depth-of-field condition corresponding to the shooting mode selected by the first selection means;
The setting means includes
You may make it set the depth-of-field condition acquired by the said 1st condition acquisition means.

また、例えば、請求項24に記載されているように、前記撮影制御手段は、
前記第1の選択手段により選択された撮影モードの種類を判別し、該判別結果に基づいて適切なブラケティング撮影の制御を行うようにしてもよい。
Further, for example, as described in claim 24, the photographing control unit includes:
The type of shooting mode selected by the first selection unit may be determined, and appropriate bracketing shooting control may be performed based on the determination result.

また、例えば、請求項25に記載されているように、前記記録手段に記録された画像データを選択する第2の選択手段と、
前記第2の選択手段により選択された画像データに関連付けられて記録されている被写界深度条件を取得する第2の条件取得手段と、
を備え、
前記設定手段は、
前記第2の条件取得手段により取得された被写界深度条件を設定するようにしてもよい。
Further, for example, as described in claim 25, a second selection unit that selects image data recorded in the recording unit;
Second condition acquisition means for acquiring a depth-of-field condition recorded in association with the image data selected by the second selection means;
With
The setting means includes
You may make it set the depth-of-field condition acquired by the said 2nd condition acquisition means.

上記目的達成のため、請求項26記載の発明による撮影装置は、被写体を撮影する撮影手段と、
撮影手段により撮影された撮影画像の単位目盛毎の画角がそれぞれ対応する撮像素子上の位置を算出する画角位置算出手段と、
前記単位目盛毎の画角がそれぞれ写し込むことができる最短距離を算出する距離算出手段と、
前記撮影手段により撮影された撮影画像とともに、前記画角位置算出手段により算出された単位目盛毎の画角が対応する撮像素子上の位置に前記距離算出手段により算出された最短距離の情報を前記表示手段に表示させる表示制御手段と、
を備えたことを特徴とする。
In order to achieve the above object, a photographing apparatus according to a twenty-sixth aspect comprises photographing means for photographing a subject,
Angle-of-view position calculating means for calculating the position on the image sensor corresponding to the angle of view for each unit scale of the captured image captured by the imaging means;
Distance calculating means for calculating the shortest distance at which the angle of view for each unit scale can be imprinted;
The shortest distance information calculated by the distance calculation means is calculated at the position on the image sensor corresponding to the angle of view for each unit scale calculated by the angle-of-view position calculation means together with the captured image taken by the imaging means. Display control means for displaying on the display means;
It is provided with.

上記目的達成のため、請求項27記載の発明による撮影装置は、被写体を撮影する撮影手段と、
撮像素子上の位置に対応する前記撮影手段により撮影された撮影画像の単位目盛毎の画角を算出する画角算出手段と、
前記算出手段により算出された単位目盛毎の画角がそれぞれ写し込むことができる最短距離を算出する距離算出手段と、
前記撮影手段により撮影された撮影画像とともに、前記画角算出手段により算出された単位目盛毎の画角に対応する前記撮像素子上の位置に前記距離算出手段により算出された最短距離の情報を表示させることを特徴とする。
In order to achieve the above object, a photographing apparatus according to a twenty-seventh aspect comprises photographing means for photographing a subject,
An angle-of-view calculating means for calculating an angle of view for each unit scale of the photographed image taken by the photographing means corresponding to the position on the image sensor;
Distance calculating means for calculating the shortest distance at which the angle of view for each unit scale calculated by the calculating means can be imprinted;
The shortest distance information calculated by the distance calculation unit is displayed at a position on the image sensor corresponding to the field angle of each unit scale calculated by the field angle calculation unit together with the captured image captured by the imaging unit. It is characterized by making it.

上記目的達成のため、請求項28記載の発明による撮影装置は、被写体を撮影する撮影手段と、
絞り値、焦点距離、及び被写体距離を検出する検出手段と、
前記検出手段により検出された絞り値、焦点距離及び被写体距離から前記撮影手段により撮影された画像の被写界深度を算出する算出手段と、
前記撮影手段により撮影された画像と前記算出手段により算出された被写界深度の情報を表示手段に表示させる表示制御手段と、
を備えたことを特徴とする。
In order to achieve the above object, an imaging apparatus according to the invention of claim 28 comprises imaging means for imaging a subject,
Detecting means for detecting an aperture value, a focal length, and a subject distance;
Calculating means for calculating a depth of field of an image photographed by the photographing means from an aperture value, a focal length and a subject distance detected by the detecting means;
Display control means for displaying on the display means information taken by the photographing means and information on the depth of field calculated by the calculating means;
It is provided with.

また、例えば、請求項29に記載されているように、前記表示制御手段は、
前記撮影手段により撮影された撮影画像を前記表示手段に表示させるとともに、少なくとも被写界深度と絞り値の関係グラフ、焦点距離と被写界深度の関係グラフ、被写体距離と被写界深度の関係グラフのうち1つの関係グラフを表示させるようにしてもよい。
Further, for example, as described in claim 29, the display control means includes:
A photographed image taken by the photographing means is displayed on the display means, and at least a relationship graph between depth of field and aperture value, a relationship graph between focal length and depth of field, and a relationship between subject distance and depth of field. You may make it display one relationship graph among graphs.

上記目的達成のため、請求項30記載の発明によるプログラムは、被写体を撮影する撮影処理と、
被写界深度条件を設定する処理と、
この処理により設定された被写界深度条件となるような撮影条件を取得する処理と、
この処理により取得された撮影条件で前記撮影処理による撮影を制御する撮影制御処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とする。
In order to achieve the above object, a program according to a thirty-third aspect of the present invention provides a photographing process for photographing a subject,
Processing to set the depth of field condition;
A process of acquiring a shooting condition that is a depth-of-field condition set by this process;
A shooting control process for controlling shooting by the shooting process under the shooting conditions acquired by this process;
And each of the above processes is executed by a computer.

請求項1記載の発明によれば、設定された被写界深度条件となるような撮影条件を取得し、該取得した撮影条件で被写体を撮影するので、同じ被写界深度を有する画像を何度でも得ることができる。
請求項2記載の発明によれば、検出された絞り値、被写体距離に応じて、設定された被写界深度条件となるような焦点距離で被写体を撮影するので、設定した被写界深度条件を有する画像となるような自動ズームを行うことができる。
また、絞り値や、被写体距離が変わっても、設定した被写界深度条件となるような画像を得ることができる。
According to the first aspect of the present invention, the shooting conditions that satisfy the set depth of field conditions are acquired, and the subject is shot under the acquired shooting conditions. Can also be obtained.
According to the second aspect of the present invention, the subject is photographed at a focal length that satisfies the set depth-of-field condition according to the detected aperture value and subject distance. Automatic zooming can be performed so that an image having
Moreover, even if the aperture value or the subject distance changes, an image that satisfies the set depth-of-field condition can be obtained.

請求項3記載の発明によれば、ユーザによって入力された絞り値を検出するので、ユーザによって入力された絞り値となるような画像を得ることができる。
請求項4記載の発明によれば、自動露出制御によって設定された絞り値を検出するので、絞り値を入力する等の手間を省くことができ、簡単に設定された被写界深度となるような画像を得ることができる。
According to the third aspect of the present invention, since the aperture value input by the user is detected, an image having the aperture value input by the user can be obtained.
According to the fourth aspect of the present invention, since the aperture value set by the automatic exposure control is detected, it is possible to save time and effort such as inputting the aperture value, so that the depth of field can be set easily. Can be obtained.

請求項5記載の発明によれば、検出された焦点距離、被写体距離に応じて、設定された被写界深度条件となるような絞り値で被写体を撮影するので、設定した被写界深度条件を有する画像となるような自動露出を行うことができる。
また、焦点距離や被写体距離が変わっても、設定した被写界深度条件となるような画像を得ることができる。
According to the fifth aspect of the present invention, since the subject is photographed with an aperture value that satisfies the set depth of field condition according to the detected focal length and subject distance, the set depth of field condition It is possible to perform automatic exposure so that an image having
Further, an image that satisfies the set depth-of-field condition can be obtained even if the focal length or subject distance changes.

請求項7記載の発明によれば、ユーザにより入力された数値データを被写界深度条件として設定するので、ユーザが所望する被写界深度条件を有する画像を簡単に得ることができる。
また、ユーザが所望の被写界深度の深浅や、前景や後景のピントの合う範囲や、ボケ具合などを加減した作画表現の撮影が初心者でも簡単に行うことができる。
According to the seventh aspect of the present invention, the numerical data input by the user is set as the depth of field condition, so that an image having the depth of field condition desired by the user can be easily obtained.
In addition, even a beginner can easily shoot a drawing expression with the depth of field desired by the user, the range in which the foreground and the background are in focus, and the degree of blurring.

請求項8記載の発明によれば、連続して被写体を撮影するので、一度に複数の画像を得ることができる。
請求項9記載の発明によれば、設定手段によって設定されていく異なる被写界深度条件となるような撮影条件で連続して撮影していくので、一度に複数の被写界深度条件の異なる画像を得ることができる。
According to the eighth aspect of the present invention, since a subject is continuously photographed, a plurality of images can be obtained at a time.
According to the ninth aspect of the invention, since continuous shooting is performed under shooting conditions that are different depth-of-field conditions set by the setting means, a plurality of depth-of-field conditions are different at one time. An image can be obtained.

請求項10記載の発明によれば、少なくともユーザがブラケティングさせる被写界深度条件の補正間隔を入力する補正間隔入力手段を備え、前記設定手段は、補正間隔入力手段により入力された補正間隔にしたがって、異なる被写界深度条件を順次設定していくので、1回の撮影だけで、被写界深度条件の異なる複数の画像を得ることができる。
また、ユーザがブラケティングさせる被写界深度条件の補正間隔を入力することができるので、ブラケティングさせる被写界深度条件の幅を自由に設定することができる。
また、ユーザが所望する被写界深度条件となるような画像で撮影したものの、撮影した画像がユーザの好みに合わない場合でも、連続(ブラケティング)撮影により撮影した複数の画像の中から、所望の被写界深度の深浅やピントが合う範囲やボケ範囲となる画像を得ることができ、満足のいく画像を得ることができる。
According to the tenth aspect of the present invention, it is provided with a correction interval input means for inputting at least a correction interval of a depth-of-field condition to be bracketed by the user, and the setting means has a correction interval input by the correction interval input means. Accordingly, since different depth-of-field conditions are sequentially set, a plurality of images having different depth-of-field conditions can be obtained by only one shooting.
In addition, since the correction interval of the depth of field condition to be bracketed by the user can be input, the width of the depth of field condition to be bracketed can be freely set.
In addition, even though the image was shot with an image that satisfies the depth of field condition desired by the user, even if the shot image does not meet the user's preference, among a plurality of images shot by continuous (bracketing) shooting, An image having a desired depth of field, a focus range, or a blurred range can be obtained, and a satisfactory image can be obtained.

また、ブラケティングする被写界深度条件の幅を自由に設定することができるので、連続(ブラケティング)撮影により撮影される画像の被写界深度の深浅や、ピントの合う範囲、ボケ範囲を調節することができ、所望の被写界深度条件を有する画像を得ることができる。
また、ある程度所望の被写界深度条件を入力しておき、補正間隔を調整することで、より適切、所望の画像を連続(ブラケティング)撮影により得ることができる。
In addition, the range of depth of field conditions for bracketing can be set freely, so that the depth of field of images captured by continuous (bracketing) shooting, the range of focus, and the range of blur can be adjusted. The image can be adjusted and an image having a desired depth of field condition can be obtained.
Further, by inputting a desired depth of field condition to some extent and adjusting the correction interval, a more appropriate desired image can be obtained by continuous (bracketing) imaging.

請求項11記載の発明によれば、撮影枚数を入力することができるので、その場の状況に応じて撮影枚数を入力することにより所望の画像を得ることができる。
例えば、ユーザが入力した画角により所望の画像をほぼ得ることができる場合には撮影枚数は少なくてすみ、ユーザが設定した画像の画角では所望の画像を得ることができない場合には撮影枚数は多くすることにより、所望の画像を得ることができる。
According to the eleventh aspect of the present invention, since the number of shots can be input, a desired image can be obtained by inputting the number of shots according to the situation at that time.
For example, the number of shots can be reduced when a desired image can be obtained almost according to the angle of view input by the user, and the number of shots can be taken when a desired image cannot be obtained with the angle of view of the image set by the user. By increasing the number, a desired image can be obtained.

請求項12記載の発明によれば、連続撮影制御手段は撮影の制御を行うごとに、被写界深度条件を変えるごとに、露出ブラケティング撮影等の撮影の制御を行うので、迅速にマルチブラケティング撮影を行うことができる。
例えば、焦点距離を変えることにより被写界深度条件をブラケティングさせて撮影する場合には、ズームレンズを無駄に移動させる必要がない。
According to the twelfth aspect of the present invention, the continuous shooting control means controls the shooting such as exposure bracketing shooting whenever the depth of field condition is changed every time the shooting control is performed. Ketting photography can be performed.
For example, when shooting with the depth of field condition bracketed by changing the focal length, there is no need to move the zoom lens wastefully.

請求項13記載の発明によれば、撮影手段により撮影された画像を表示手段に表示させるので、ユーザは撮影しようとする被写体を容易に捉えることができる。
請求項14、15、16記載の発明によれば、撮影手段により撮影された画像とともに、前記撮影手段により撮影された画像の撮影者から見た見かけ上の距離目盛を表した距離換算スケール表示を表示手段に表示させるので、撮影された被写体がユーザからどのくらいの距離にあるのかを容易に認識することができる。
According to the thirteenth aspect of the present invention, since the image photographed by the photographing means is displayed on the display means, the user can easily grasp the subject to be photographed.
According to the invention described in claims 14, 15 and 16, the distance conversion scale display showing the apparent distance scale as viewed from the photographer of the image photographed by the photographing means together with the image photographed by the photographing means. Since it is displayed on the display means, it is possible to easily recognize how far the photographed subject is from the user.

請求項17記載の発明によれば、絞り値、焦点距離及び被写体距離を検出し、該検出された絞り値、焦点距離及び被写体距離から撮影された画像の被写界深度条件及び被写界深度を算出して、表示手段に表示させるのでユーザが容易に撮影した画像の被写界深度条件及び被写界深度を認識することができる。   According to the seventeenth aspect of the present invention, the aperture value, the focal length, and the subject distance are detected, and the depth-of-field condition and the depth of field of the image photographed from the detected aperture value, focal length, and subject distance. Is calculated and displayed on the display means, so that the user can easily recognize the depth-of-field condition and the depth of field of the image captured by the user.

請求項18記載の発明によれば、算出された被写界深度の深浅を距離換算スケール上に表示させるので、レンズの深度目盛を確認したり、ボケリングを調整する面倒もなく、表示手段に表示された画像の被写体を見ることにより、どの被写体が被写界深度内にいるのか、どの被写体が被写界深度外にいるのかを容易に認識することができ、被写界深度の深浅や、前後景でピントが合う範囲やボケる範囲を容易に確認することができる。   According to the invention described in claim 18, since the depth of the calculated depth of field is displayed on the distance conversion scale, it is displayed on the display means without checking the depth scale of the lens and adjusting the bokeh. By looking at the subject of the captured image, it is possible to easily recognize which subject is within the depth of field and which subject is outside the depth of field. It is possible to easily check the focus range and blur range in the front and back scenes.

請求項19記載の発明によれば、表示手段に撮影された画像を表示させるとともに、少なくとも絞り値と被写界深度の関係グラフ、焦点距離と被写体距離の関係グラフ、被写体距離と被写界深度の関係グラフのうち1を表示させるので、ユーザは、容易に絞り値や、焦点距離、被写体距離をどのくらいにすれば、どのくらいの被写界深度となるのか容易にわかる。   According to the nineteenth aspect of the present invention, the photographed image is displayed on the display unit, and at least the relationship graph between the aperture value and the depth of field, the relationship graph between the focal length and the subject distance, the subject distance and the depth of field. 1 is displayed, so that the user can easily know how much the aperture value, focal length, and subject distance should be set, and how much depth of field can be obtained.

請求項20記載の発明によれば、更に、絞り値、シャッタ速度、露出値、ホワイトバランス、焦点距離、ズーム倍率、被写体距離のうち少なくとも1つの情報を表示手段に表示させるので、ユーザは撮影する画像の撮影条件を容易に認識することができる。   According to the twentieth aspect of the invention, at least one information among the aperture value, the shutter speed, the exposure value, the white balance, the focal length, the zoom magnification, and the subject distance is displayed on the display unit. Image capturing conditions can be easily recognized.

請求項21記載の発明によれば、撮影された画像を記録手段に記録するので、撮影した画像データを保存することができる。
請求項22記載の発明によれば、撮影された画像データとともに該画像データが撮影されたときの被写界深度条件などを関連付けて記録するので、該画像データが撮影されときの詳細を知ることができる。
According to the twenty-first aspect, since the photographed image is recorded in the recording means, the photographed image data can be stored.
According to the invention of claim 22, since the depth of field condition when the image data is photographed is recorded in association with the photographed image data, the details when the image data is photographed are known. Can do.

請求項23記載の発明によれば、ユーザにより選択された撮影モードに対応する被写界深度条件で被写体を撮影するので、簡単にユーザは所望する被写界深度条件で被写体を撮影することができる。
請求項24記載の発明によれば、ユーザが選択した撮影モードを判別して、外判別結果に基づいて適切なブラケティング撮影(例えば、撮影モードが人物の場合には、肌色ブラケティング撮影)を行うので、ユーザが所望する画像を得ることができる。
また、撮影モードを選ぶだけで、ブラケッティングの条件などを個々に設定する必要なしに、最もふさわしいブラケティング撮影を簡単に行うことができる。
According to the invention of claim 23, since the subject is photographed under the depth of field condition corresponding to the photographing mode selected by the user, the user can easily photograph the subject under the desired depth of field condition. it can.
According to the twenty-fourth aspect of the present invention, the photographing mode selected by the user is discriminated, and appropriate bracketing photographing (for example, skin color bracketing photographing when the photographing mode is a person) is performed based on the external discrimination result. As a result, an image desired by the user can be obtained.
Also, by selecting the shooting mode, it is possible to easily perform the most appropriate bracketing shooting without having to individually set the bracketing conditions.

請求項25記載の発明によれば、記録手段に記録されている画像データを選択すると、該選択された画像データに関連付けられて記録されている被写界深度条件を被写界深度条件として設定するので、ユーザが選択した画像と同様の構図の画像を得ることができる。また、被写界深度条件を入力等の手間を省くことができ、簡単に所望の画像を撮影することができる。   According to the invention of claim 25, when image data recorded in the recording means is selected, the depth-of-field condition recorded in association with the selected image data is set as the depth-of-field condition. Therefore, an image having the same composition as the image selected by the user can be obtained. Further, it is possible to save time and effort for inputting the depth-of-field condition, and it is possible to easily capture a desired image.

請求項26、27記載の発明によれば、撮影手段により撮影された画像とともに、前記撮影手段により撮影された画像の撮影者から見た見かけ上の距離目盛を表した距離換算スケール表示を表示手段に表示させるので、撮影された被写体がユーザからどのくらいの距離にあるのかを容易に認識することができる。   According to the twenty-sixth and twenty-seventh aspects of the present invention, together with the image taken by the photographing means, the distance conversion scale display showing the apparent distance scale seen from the photographer of the image taken by the photographing means is displayed. Therefore, it is possible to easily recognize how far the photographed subject is from the user.

請求項28記載の発明によれば、絞り値、焦点距離、被写体距離を検出し、該検出された絞り値、焦点距離、被写体距離から撮影された画像の被写界深度限界近点等の被写界深度条件を算出して、表示手段に表示させるので、ユーザは容易に現在の被写界深度条件を認識することができる。
請求項29記載の発明によれば、表示手段に撮影された画像を表示させるとともに、少なくとも絞り値と被写界深度の関係グラフ、焦点距離と被写体距離の関係グラフ、被写体距離と被写界深度の関係グラフのうち1を表示させるので、ユーザは、容易に絞り値や、焦点距離、被写体距離をどのくらいにすれば、どのくらいの被写界深度となるのか容易にわかる。
According to the invention of claim 28, an aperture value, a focal length, and a subject distance are detected, and an object such as a near-field depth limit near point of an image photographed from the detected aperture value, focal length, and subject distance is detected. Since the depth-of-field condition is calculated and displayed on the display means, the user can easily recognize the current depth-of-field condition.
According to the twenty-ninth aspect, the photographed image is displayed on the display unit, and at least the relationship graph between the aperture value and the depth of field, the relationship graph between the focal length and the subject distance, the subject distance and the depth of field. 1 is displayed, so that the user can easily know how much the aperture value, focal length, and subject distance should be set, and how much depth of field can be obtained.

請求項30記載の発明によれば、既存のデジタルカメラ、パソコン等に読み込ませることにより、本発明の撮影装置を実現することができる。   According to the invention of claim 30, the photographing apparatus of the present invention can be realized by being read by an existing digital camera, personal computer or the like.

以下、本実施の形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮影装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、CCD2、DSP/CPU3、TG(timing generator)4、ユニット回路5、DRAM6、フラッシュメモリ7、ROM8、キー入力部9、画像表示部10、カードI/F11、モータ駆動回路13、撮影レンズ14、絞り兼用シャッタ15を備えており、カードI/F11には、図示しないデジタルカメラ1本体のカードスロットに着脱自在に装着されたメモリ・カード12が接続されている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings.
[First embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the photographing apparatus of the present invention.
The digital camera 1 includes a CCD 2, a DSP / CPU 3, a TG (timing generator) 4, a unit circuit 5, a DRAM 6, a flash memory 7, a ROM 8, a key input unit 9, an image display unit 10, a card I / F 11, a motor drive circuit 13, A photographing lens 14 and a diaphragm shutter 15 are provided, and a memory card 12 detachably attached to a card slot of the digital camera 1 (not shown) is connected to the card I / F 11.

撮影レンズ14は、複数のレンズ群から構成されるフォーカスレンズ14a、ズームレンズ14b等を含む。そして、撮影レンズ14にはモータ駆動回路13が接続されており、モータ駆動回路13はDSP/CPU3から送られてくる制御信号にしたがって、フォーカスレンズ14a、ズームレンズ14bを光軸方向に駆動させる。
絞り兼用シャッタ15は図示しない駆動回路を含み、駆動回路はDSP/CPU3から送られる制御信号に従って絞り兼用シャッタ15を動作させる。
絞りとは、レンズから入ってくる光の量を制限する機構のことをいい、シャッタ速度とは、時間によってCCD3に当たる光の量を制限する機構のことをいう。この絞りとシャッタ速度によって露出量(Ev)が定められる。
The photographing lens 14 includes a focus lens 14a, a zoom lens 14b, and the like that are composed of a plurality of lens groups. A motor drive circuit 13 is connected to the photographic lens 14, and the motor drive circuit 13 drives the focus lens 14 a and the zoom lens 14 b in the optical axis direction according to a control signal sent from the DSP / CPU 3.
The diaphragm / shutter 15 includes a drive circuit (not shown), and the drive circuit operates the diaphragm / shutter 15 in accordance with a control signal sent from the DSP / CPU 3.
The diaphragm refers to a mechanism that limits the amount of light that enters from the lens, and the shutter speed refers to a mechanism that limits the amount of light that strikes the CCD 3 over time. The amount of exposure (Ev) is determined by the aperture and the shutter speed.

CCD2(撮像素子)は、投影された被写体を光電変換し、撮像信号としてユニット回路5に出力する。また、CCD2はTG4によって生成された所定周波数のタイミング信号に従って駆動される。TG4にはユニット回路5が接続されている。ユニット回路5は、CCD2から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double sampling)回路、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅後の撮像信号をデジタル信号に変換するA/D変換器から構成されており、CCD2の出力信号はユニット回路5を経てデジタル信号としてDSP/CPU3に送られる。   The CCD 2 (imaging device) photoelectrically converts the projected subject and outputs it to the unit circuit 5 as an imaging signal. The CCD 2 is driven in accordance with a predetermined frequency timing signal generated by the TG 4. A unit circuit 5 is connected to TG4. The unit circuit 5 includes a CDS (Correlated Double Sampling) circuit that holds the image pickup signal output from the CCD 2 by correlated double sampling, a gain adjustment amplifier (AGC) that amplifies the image pickup signal, and a digital signal of the amplified image pickup signal. The output signal of the CCD 2 is sent to the DSP / CPU 3 as a digital signal through the unit circuit 5.

画像表示部10はカラーLCDとその駆動回路を含み、撮影待機状態にあるときにはCCD2によって撮像された被写体をとしてスルー画像として表示し、記録画像の再生時には、保存用メモリ・カード12から読み出され伸張された記録画像を表示する。その他、後述する距離換算スケール、関係グラフ等を表示させる。この画像表示部10は、本発明の表示手段に相当する。
キー入力部9は、半押し及び全押し操作が可能なシャッタボタン、実行キー、キャンセルキー、SETキー、カーソルキー、自動ズームボタン、手動ズームボタン、モード設定キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をDSP/CPU3に出力する。このキー入力部9は、本発明の数値入力手段、補正間隔入力手段、第1の選択手段、第2の選択手段として機能する。
DRAM6は、CCD2によって撮像された後、デジタル化された被写体の画像データを一時記憶するバッファメモリとして使用されるとともに、DSP/CPU3にワーキングメモリとしても使用される。
The image display unit 10 includes a color LCD and its driving circuit, and displays a subject imaged by the CCD 2 as a through image when in a shooting standby state, and is read out from the storage memory card 12 when reproducing a recorded image. Display the expanded recorded image. In addition, a distance conversion scale, a relationship graph, etc., which will be described later, are displayed. This image display unit 10 corresponds to the display means of the present invention.
The key input unit 9 includes a plurality of operation keys such as a shutter button that can be half-pressed and fully pressed, an execution key, a cancel key, a SET key, a cursor key, an automatic zoom button, a manual zoom button, and a mode setting key. An operation signal corresponding to the user's key operation is output to the DSP / CPU 3. The key input unit 9 functions as numerical value input means, correction interval input means, first selection means, and second selection means of the present invention.
The DRAM 6 is used as a buffer memory that temporarily stores digitized subject image data after being imaged by the CCD 2, and is also used as a working memory for the DSP / CPU 3.

DSP/CPU3は、画像ファイルの圧縮・伸張の処理を含む各種のデジタル信号処理機能を有するとともに電子カメラ21の各部を制御するワンチップマイコンである。また、フラッシュメモリ7、ROM8には、DSP/CPU3の各部に必要な制御プログラム、つまり、AEやAF等を含む各種の制御に必要なプログラム、及び必要なデータが記録されており、DSP/CPU3は、前記プログラムに従い動作することにより本発明の撮影装置として機能する。   The DSP / CPU 3 is a one-chip microcomputer that has various digital signal processing functions including image file compression / decompression processing and controls each part of the electronic camera 21. The flash memory 7 and the ROM 8 store control programs necessary for each part of the DSP / CPU 3, that is, programs necessary for various controls including AE and AF, and necessary data. Operates in accordance with the program to function as the photographing apparatus of the present invention.

AF処理においては、ユーザがキー入力部9のシャッタボタンを押下すると、それに応じたキー入力信号をDSP/CPU3に出力する。そして、DSP/CPU3はその信号を受け取ると、モータ駆動回路13に制御信号を送り、モータ駆動回路13はその制御信号に従って、フォーカスレンズ14aを可動範囲内でレンズ端からレンズ端まで動かす。
CCD2はフォーカスレンズ14a、ズームレンズ14bを介して投影された被写体を光電変換し撮像信号としてユニット回路5に出力し、ユニット回路5はDSP/CPU3にデジタル信号を送る。そして、DSP/CPU3はユニット回路4から送られてくるデジタル信号に含まれる高周波成分を抽出し、その高周波成分を解釈して、モータ駆動回路13に制御信号を送る。そして、モータ駆動回路13はその制御信号に従い、フォーカスレンズ14aを動かす。
In the AF process, when the user presses the shutter button of the key input unit 9, a key input signal corresponding thereto is output to the DSP / CPU 3. When the DSP / CPU 3 receives the signal, the DSP / CPU 3 sends a control signal to the motor drive circuit 13, and the motor drive circuit 13 moves the focus lens 14a from the lens end to the lens end within the movable range in accordance with the control signal.
The CCD 2 photoelectrically converts the subject projected through the focus lens 14a and the zoom lens 14b and outputs it to the unit circuit 5 as an imaging signal. The unit circuit 5 sends a digital signal to the DSP / CPU 3. The DSP / CPU 3 extracts a high frequency component included in the digital signal sent from the unit circuit 4, interprets the high frequency component, and sends a control signal to the motor drive circuit 13. Then, the motor drive circuit 13 moves the focus lens 14a according to the control signal.

B.以下、本実施の形態におけるデジタルカメラ1の特徴となるそれぞれの構成の機能について説明する。
DSP/CPU3は、AE処理、AF処理を行うとCCD2による撮像を開始し被写体のスルー画像を画像表示部10に表示させるとともに(撮影手段)、AE処理によって設定された絞り値F、被写体距離L及び焦点距離fを検出し(検出手段)、該検出された絞り値F、被写体距離L及び焦点距離及びROM8に予め記録されている許容錯乱円直径δから前方被写界深度Tf、後方被写界深度Tr、被写界深度限界近点Lmin、被写界深度限界遠点Lmax、過焦点距離L∞をそれぞれ算出する。この機能は、本発明の算出手段に相当する。
B. Hereinafter, the functions of the respective configurations that are the characteristics of the digital camera 1 in the present embodiment will be described.
When the AE process and the AF process are performed, the DSP / CPU 3 starts imaging by the CCD 2 and displays a through image of the subject on the image display unit 10 (photographing means), and the aperture value F and the subject distance L set by the AE process. And the focal length f (detection means), and the detected depth value F, the subject distance L, the focal length, and the allowable confusion circle diameter δ recorded in advance in the ROM 8, the front depth of field Tf, the rear field depth The depth of field Tr, the depth of field limit near point Lmin, the depth of field limit far point Lmax, and the hyperfocal distance L∞ are calculated. This function corresponds to the calculation means of the present invention.

焦点距離fはAF処理が行われたときのズームレンズ14bの位置から求められ、被写体距離LはAF処理により設定されたフォーカスレンズ14aの位置によって求めることができる。なお、赤外線方式、位相差方式により被写体までの距離Lを求めるようにしてもよいし、ユーザが目測で入力した距離でもよい。
また、許容錯乱円直径δは予めROM8に記録されている。
ここで、前方被写界深度Tfは数式1の関係式によって算出することができ、後方被写界深度Trは数式2の関係式によって算出することができる。
また、被写界深度限界近点Lminは数式3の関係式によって算出することができ、被写界深度限界遠点Lmaxは数式4によって算出することができる。
過焦点距離L∞は数式5によって算出することができる。
The focal distance f can be obtained from the position of the zoom lens 14b when the AF process is performed, and the subject distance L can be obtained from the position of the focus lens 14a set by the AF process. Note that the distance L to the subject may be obtained by an infrared method or a phase difference method, or may be a distance input by a user by eye measurement.
The allowable confusion circle diameter δ is recorded in the ROM 8 in advance.
Here, the front depth of field Tf can be calculated by the relational expression of Expression 1, and the rear depth of field Tr can be calculated by the relational expression of Expression 2.
Further, the depth of field limit near point Lmin can be calculated by the relational expression of Formula 3, and the depth of field limit far point Lmax can be calculated by Formula 4.
The hyperfocal distance L∞ can be calculated by Equation 5.

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

DSP/CPU3は、被写界深度限界近点Lmin等の算出を行うと、距離換算スケールを被写体のスルー画像と重ねて画像表示部10に表示させる(表示制御手段)。
距離換算スケールとは、画像表示部10に表示される画像の撮影者からの見かけ上の距離を目盛で表示させることをいう。この距離換算スケールの表示方法については後述する。
DSP/CPU3は、距離換算スケールを画像表示部10に表示させると、算出した被写界深度限界近点Lmin、被写界深度限界遠点Lmax、前方被写界深度Tf、後方被写界深度Tr、被写界深度Zのそれぞれの数値及び現在設定されている絞り値F、焦点距離f等を画像表示部10に表示させ、被写界深度Zの深浅を距離換算スケール上に表示させる(表示制御手段)。この被写界深度Zはユーザが見てわかるように色などをつけて区別表示させる。なお、被写界深度Zは、被写界深度限界近点Lmax−被写界深度限界近点Lmin、又は、前方被写界深度Tf+後方被写界深度Trによって求められる。
When the DSP / CPU 3 calculates the depth of field limit near point Lmin and the like, the DSP / CPU 3 displays the distance conversion scale on the image display unit 10 so as to overlap the through image of the subject (display control means).
The distance conversion scale means that the apparent distance from the photographer of the image displayed on the image display unit 10 is displayed on a scale. The display method of this distance conversion scale will be described later.
When the DSP / CPU 3 displays the distance conversion scale on the image display unit 10, the calculated depth-of-field limit near point Lmin, depth-of-field limit far point Lmax, forward depth of field Tf, and backward depth of field. The numerical values of Tr, depth of field Z, the currently set aperture value F, focal length f, etc. are displayed on the image display unit 10, and the depth of the depth of field Z is displayed on the distance conversion scale ( Display control means). The depth of field Z is displayed with a color or the like so that the user can see it. The depth of field Z is obtained by the depth-of-field limit near point Lmax−the depth-of-field limit near point Lmin, or the forward depth of field Tf + the rear depth of field Tr.

そして、AF処理により設定された絞り値(現設定値)を増減したときの被写界深度限界近点Lmin、被写界深度限界遠点Lmax、を数式3及び数式4に従って複数算出し、該算出した被写界深度限界近点Lmin、被写界深度限界遠点Lmaxと絞り値Fとの関係のグラフを画像表示部10に表示させる(表示制御手段)。また、このグラフ上に、現設定値の絞り値F、被写体距離L、過焦点距離L∞等を指針として、色などをつけるなどにより区別表示させる。   Then, a plurality of depth-of-field limit near points Lmin and depth-of-field limit far points Lmax when the aperture value (current set value) set by AF processing is increased or decreased are calculated according to Equation 3 and Equation 4, A graph of the relationship between the calculated depth-of-field limit near point Lmin, depth-of-field limit far point Lmax, and aperture value F is displayed on the image display unit 10 (display control means). Further, on this graph, the current set value of the aperture value F, the subject distance L, the hyperfocal distance L∞, and the like are used as a guide for distinction and display.

B−1.距離換算スケールの表示方法について
次に、距離換算スケールの表示方法について説明する。
まず、DSP/CPU3は、AF処理を行うと、焦点距離f、撮像範囲X´から現在の撮像画像の画角θの算出を行い、DRAM6に記憶する。ここで、焦点距離fと画角θとの関係を図2を用いて説明する。
CCD2からズームレンズ14bまでの距離が焦点距離fであり、ズームレンズ14bの位置により焦点距離f、画角θが変わる。また、X´はCCD2の横の撮像範囲であり、Y´はCCD2の縦の撮像範囲である。撮像する画像の画角θは、数式6に従って求めることができる。ここでは、算出された画角を46°とする。
B-1. About the display method of a distance conversion scale Next, the display method of a distance conversion scale is demonstrated.
First, when performing the AF process, the DSP / CPU 3 calculates the angle of view θ of the current captured image from the focal length f and the imaging range X ′ and stores it in the DRAM 6. Here, the relationship between the focal length f and the angle of view θ will be described with reference to FIG.
The distance from the CCD 2 to the zoom lens 14b is the focal length f, and the focal length f and the angle of view θ change depending on the position of the zoom lens 14b. X ′ is the horizontal imaging range of the CCD 2, and Y ′ is the vertical imaging range of the CCD 2. The angle of view θ of the image to be captured can be obtained according to Equation 6. Here, the calculated angle of view is 46 °.

Figure 2005338614
Figure 2005338614

そして、DSP/CPU3は、算出された画角θが写し込むことができる水平地面上の最短距離L´を求める。
ここで、図3(a)は、画角θと画角θが写し込むことができる水平地面上の最短距離L´の関係を示したものである。
この図を見て明らかなように、h/L´=tan(θ/2)となることから、算出された画角θが写し込むことができる距離L´は、L´=h/tan(θ/2)となることがわかる。これにより、水平地面上の最短距離L´を求めることができる。ここでは、算出された最短距離L´を3.5mとする。なお、hは、撮影者の視線、撮影レンズの高さを意味し、ユーザが予めこの撮影レンズの高さhを入力しておく。ここでは、撮影レンズの高さhを1.5mと入力したものとする。
Then, the DSP / CPU 3 obtains the shortest distance L ′ on the horizontal ground where the calculated angle of view θ can be captured.
Here, FIG. 3A shows the relationship between the angle of view θ and the shortest distance L ′ on the horizontal ground where the angle of view θ can be captured.
As is apparent from this figure, since h / L ′ = tan (θ / 2), the distance L ′ at which the calculated angle of view θ can be captured is L ′ = h / tan ( It can be seen that θ / 2). Thereby, the shortest distance L ′ on the horizontal ground can be obtained. Here, the calculated shortest distance L ′ is 3.5 m. Note that h means the line of sight of the photographer and the height of the photographing lens, and the user inputs the height h of the photographing lens in advance. Here, it is assumed that the height h of the photographing lens is input as 1.5 m.

画角θに対応する水平面地上の最短距離L´の算出を行うと、単位目盛毎の距離L´iに相当する単位目盛毎の画角θiを算出する。単位目盛毎の距離L´iとは、算出された水平地面上の最短距離L´が3.5mとすると、例えば、L´i=4m、5.6m、8.5m、17m等の目盛となる水平地面上の最短距離をいう(撮影者から見た見かけ上の距離目盛)。
図3(b)は、距離L´iに相当する画角θiの関係を示したものである。
距離L´iが4mのときに対応する画角θは画角θi(4m)となり、距離L´iが17mのときに対応する画角θは画角θi(17m)となることがわかる。
この単位目盛毎の距離L´iに対応する画角θiは数式7によって求めることができる。よって、距離L´i=4mのときに対応する画角θiは約40°となり、距離L´i=5.6mのときは画角θi≒30°となり、距離L´i=8.5mのときは画角θi≒20°となり、距離L´i=17mのときは画角θi≒10°となる。
When the shortest distance L ′ on the horizontal plane corresponding to the view angle θ is calculated, the view angle θi for each unit scale corresponding to the distance L′ i for each unit scale is calculated. The distance L′ i for each unit scale is, for example, a scale such as L′ i = 4 m, 5.6 m, 8.5 m, 17 m, etc., where the calculated shortest distance L ′ on the horizontal ground is 3.5 m. Is the shortest distance on the horizontal ground (apparent distance scale seen by the photographer).
FIG. 3B shows the relationship of the angle of view θi corresponding to the distance L′ i.
It can be seen that the field angle θ corresponding to the distance L′ i is 4 m is the field angle θi (4 m), and the field angle θ corresponding to the distance L′ i is 17 m is the field angle θi (17 m).
The angle of view θi corresponding to the distance L′ i for each unit scale can be obtained by Expression 7. Therefore, when the distance L′ i = 4 m, the corresponding angle of view θi is about 40 °, and when the distance L′ i = 5.6 m, the angle of view θi≈30 °, and the distance L′ i = 8.5 m. When the distance L′ i = 17 m, the angle of view θi≈10 °.

Figure 2005338614
Figure 2005338614

そして、単位目盛毎の距離L´iに対応する単位目盛毎の画角θiの算出を行うと、算出した単位目盛毎の画角θiに対応する撮像位置(撮像素子上の位置、撮像素子の画素の位置など)X´iの算出、つまり、算出された単位目盛毎の画角θi(ここでは、10°、20°、30°、40°)に対応するCCD2上の位置の算出を行いDRAM6に記憶する。なお、単位目盛毎の画角θiから、該単位目盛毎の画角が写し込むことができる水平地面上の最短距離L´i及び該単位目毎の画角に対応するCCD2上の位置の算出を行うようにしてもよい。
図4は、画角θiと撮像位置(撮像素子の画素)X´iの関係を簡略に示した図である。
画角θi(4m)の場合、その画角に対応するCCD2上の位置X´iはX´i(4m)の位置であることがわかる。また、画角θi(17m)の場合、その画角に対応するCCD2上の位置X´iはX´i(17m)であることがわかる。
この画角θiに対応する撮像位置X´iの算出は数式8に従って求めることができる。
When the angle of view θi for each unit scale corresponding to the distance L′ i for each unit scale is calculated, the imaging position corresponding to the calculated angle of view θi for each unit scale (the position on the image sensor, the position of the image sensor) X′i is calculated, that is, the position on the CCD 2 corresponding to the calculated angle of view θi (here, 10 °, 20 °, 30 °, 40 °) for each unit scale is calculated. Store in the DRAM 6. Note that the shortest distance L′ i on the horizontal ground where the angle of view for each unit scale can be captured and the position on the CCD 2 corresponding to the angle of view for each unit scale are calculated from the angle of view θi for each unit scale. May be performed.
FIG. 4 is a diagram simply showing the relationship between the angle of view θi and the imaging position (pixel of the imaging device) X′i.
In the case of the angle of view θi (4 m), it can be seen that the position X′i on the CCD 2 corresponding to the angle of view is the position of X′i (4 m). Further, in the case of the angle of view θi (17 m), it can be seen that the position X′i on the CCD 2 corresponding to the angle of view is X′i (17 m).
The imaging position X′i corresponding to this angle of view θi can be calculated according to Equation 8.

Figure 2005338614
Figure 2005338614

ここでは、単位目盛毎の距離(距離目盛)L´iからその距離L´iに対応する画角θiを求め、更に、画角θiが対応する撮像位置X´iを算出するようにしたが、直接単位目盛毎の距離L´iからその距離L´iに対応する撮像位置(撮像素子の画素)X´iを求めるようにしてもよい。この場合には、X´i=2fh/L´iの関係式によって単位目盛毎の距離L´iから撮像位置X´iを算出することができる。この距離目盛から撮像位置X´iを算出する機能は、本発明の距離位置算出手段に相当する。
また、これとは逆にそれぞれの撮像位置(撮像素子の画素)X´iの位置から単位目盛毎の距離L´iを算出するようにしてもよい。この機能は、本発明の距離算出手段に相当する。この場合には、L´i=2fh/X´iの関係式によって、撮像位置X´iから距離L´iを算出することができる。
Here, the angle of view θi corresponding to the distance L′ i is obtained from the distance (distance scale) L′ i for each unit scale, and further, the imaging position X′i corresponding to the angle of view θi is calculated. Alternatively, the imaging position (pixel of the imaging element) X′i corresponding to the distance L′ i may be obtained directly from the distance L′ i for each unit scale. In this case, the imaging position X′i can be calculated from the distance L′ i for each unit scale by the relational expression of X′i = 2fh / L′ i. The function of calculating the imaging position X′i from this distance scale corresponds to the distance position calculating means of the present invention.
On the contrary, the distance L′ i for each unit scale may be calculated from the position of each imaging position (pixel of the imaging device) X′i. This function corresponds to the distance calculation means of the present invention. In this case, the distance L′ i can be calculated from the imaging position X′i by the relational expression of L′ i = 2fh / X′i.

次に、DSP/CPU3は、距離換算スケールを画像表示部10に表示させる(表示制御手段)。
図5(c)は距離換算スケールを画像表示部10に表示させたときの様子を示すものである。ここでは、距離換算スケールと同時に距離換算スケールに相当する画角も表示させている。
画像表示部10内には、右上から左下の対角線上に画角目盛及び距離の目盛が表示されている。画像表示部10の中央から左下に向かって、17m、8.5m、5.6m、4mの見かけ上の距離目盛(単位目盛毎の距離)が表示されている。また、画像表示部10の中央から右上に向かって、10°、20°、30°、40°等の角度が表字されている。
Next, the DSP / CPU 3 displays a distance conversion scale on the image display unit 10 (display control means).
FIG. 5C shows a state when the distance conversion scale is displayed on the image display unit 10. Here, the angle of view corresponding to the distance conversion scale is displayed simultaneously with the distance conversion scale.
In the image display unit 10, an angle of view scale and a scale of distance are displayed on a diagonal line from the upper right to the lower left. From the center of the image display unit 10 toward the lower left, an apparent distance scale (distance per unit scale) of 17 m, 8.5 m, 5.6 m, and 4 m is displayed. In addition, angles such as 10 °, 20 °, 30 °, and 40 ° are represented from the center of the image display unit 10 toward the upper right.

この17m、8.5m等の距離表示の直上にはそれぞれ横長の長方形が表示されており、この距離表示は、撮影者からこの横長の長方形の所在する位置までの見かけ上の距離を表わしている。つまり、4mとは、その直上の横長の長方形20が、撮影者から見かけ上4m離れた位置のあることを表わしている。同様にして、5.6m、8.5m、17mとは、それぞれの直上の横長の長方形21、22、23が、撮影者からそれぞれ見かけ上5.6m、8.5m、17m離れた位置であることを表わしている。なお、この距離目盛は横長の長方形の直下に表示させる必要はなく、ユーザから見てわかりやすい箇所に表示させるようにしてもよい。   A horizontally long rectangle is displayed immediately above the distance display of 17 m, 8.5 m, etc., and this distance display represents the apparent distance from the photographer to the position where the horizontally long rectangle is located. . That is, 4 m indicates that the horizontally long rectangle 20 immediately above is apparently 4 m away from the photographer. Similarly, 5.6 m, 8.5 m, and 17 m are the positions of the oblong rectangles 21, 22, and 23 just above the apparent 5.6 m, 8.5 m, and 17 m from the photographer, respectively. It represents that. This distance scale does not need to be displayed directly under the horizontally long rectangle, and may be displayed at a location that is easy for the user to understand.

また、10°、20°等の角度表示は、その角度表示の直下の横長の長方形内の画像の画角を表示している。つまり、40°とは、その直下の横長の長方形20内の画像の画角が20°であることを表わしている。同様にして、30°、20°、10°とは、それぞれの直下の横長の長方形21、22、23内の画像の画角が、それぞれ、30°、20°、10°であることを表わしている。なお、この画角目盛は、横長の長方形の直上に表示させる必要はなく、ユーザから見てわかりやすい箇所に表示させるようにしてもよい。
つまり、この横長の長方形20〜23は、撮影者からの見かけ上の距離及び画像の画角を表わしていることになる。
The angle display such as 10 ° or 20 ° displays the angle of view of the image in the horizontally long rectangle just below the angle display. That is, 40 ° represents that the angle of view of the image in the horizontally long rectangle 20 immediately below is 20 °. Similarly, 30 °, 20 °, and 10 ° indicate that the angles of view of the images in the horizontally long rectangles 21, 22, and 23 immediately below are 30 °, 20 °, and 10 °, respectively. ing. The angle of view scale does not need to be displayed directly above the horizontally long rectangle, and may be displayed at a location that is easy for the user to understand.
That is, the horizontally long rectangles 20 to 23 represent the apparent distance from the photographer and the angle of view of the image.

この横長の長方形の画像内の位置は、上記算出した単位目盛毎の距離L´i(に対応する画角θi)に対応する撮像位置X´iによって定められる。
また、距離換算スケールを横長の長方形を用いて表わしたが、図5(d)に示してあるように、横長の長方形の底辺だけを表示させるようにしてもよい。これにより、ユーザにとって見やすい距離換算スケール表示を行うことができる。
ここで、被写界深度限界近点Lminが4mであり、被写界深度限界近点が8.5mの場合に、距離換算スケール上に被写界深度Zの深浅を重ねて表示させると、図5(c)に示すような距離換算スケール表示の場合は、図6(e)のようになり、図5(d)に示すような距離換算スケール表示の場合は、図6(f)のようになる。なお、この距離換算スケール表示及び被写界深度表示は1例であり、他の表示態様で表示させるようにしてもよい。つまり、画像の見かけ上の撮影者からの距離、被写界深度Zがわかる方法であればどんな表示態様でもよい。
The position in the horizontally long rectangular image is determined by the imaging position X′i corresponding to the calculated distance L′ i (corresponding to the angle of view θi) for each unit scale.
Further, although the distance conversion scale is represented by using a horizontally long rectangle, only the bottom of the horizontally long rectangle may be displayed as shown in FIG. Thereby, the distance conversion scale display which is easy to see for the user can be performed.
Here, when the depth-of-field limit near point Lmin is 4 m and the depth-of-field limit near point is 8.5 m, the depth of the depth of field Z is displayed superimposed on the distance conversion scale. In the case of the distance conversion scale display as shown in FIG. 5C, it becomes as shown in FIG. 6E, and in the case of the distance conversion scale display as shown in FIG. It becomes like this. The distance conversion scale display and the depth of field display are examples, and may be displayed in other display modes. That is, any display mode may be used as long as it is a method for determining the apparent distance from the photographer and the depth of field Z.

C.デジタルカメラ1の動作
第1の実施の形態におけるデジタルカメラ1の動作を図7のフローチャートに従って説明する。
AE・AF処理を行うと(ステップS1)、撮影レンズ14を介してCCD2により撮像された被写体のスルー画像を画像表示部10に表示させる(ステップS2)。
C. Operation of Digital Camera 1 The operation of the digital camera 1 in the first embodiment will be described with reference to the flowchart of FIG.
When the AE / AF processing is performed (step S1), a through image of the subject imaged by the CCD 2 through the photographing lens 14 is displayed on the image display unit 10 (step S2).

そして、前方被写界深度Tf、後方被写界深度Tr、被写界深度限界近点Lmin、被写界深度限界遠点Lmax、被写界深度Z、過焦点距離L∞を、絞り値F、被写体距離L、許容錯乱円直径δ及び焦点距離fから算出する(ステップS3)。この前方被写界深度Tfは数式1に従って、後方被写界深度Trは数式2に従って、被写界深度限界近点Lminは数式3に従って、被写界深度限界遠点Lmaxは数式4に従って算出する。また、被写界深度ZはLmax−Lmin、若しくは、Tf+Trによって算出することができる。過焦点距離L∞は数式5に従って算出する。なお、絞り値FはステップS1のAE処理によって設定された値を使用し、焦点距離fは、ステップS1のAF処理が行われたときのズームレンズ14bの位置によって、被写体距離LはそのときのAF処理によって設定されたフォーカスレンズ14aの位置によって求めることができる。なお、絞りFはユーザによって入力された値を使用してもよい。また、被写体距離Lは、赤外線方式、位相差方式により求めるようにしてもよいし、ユーザが目測で入力した距離でもよい。許容錯乱円直径δは、予めROM8に記録されている。   Then, the front depth of field Tf, the rear depth of field Tr, the depth of field limit near point Lmin, the depth of field limit far point Lmax, the depth of field Z, and the hyperfocal distance L∞ are set to the aperture value F. The object distance L, the allowable circle of confusion circle δ, and the focal length f are calculated (step S3). The forward depth of field Tf is calculated according to Formula 1, the rear depth of field Tr is calculated according to Formula 2, the depth of field limit near point Lmin is calculated according to Formula 3, and the depth of field limit far point Lmax is calculated according to Formula 4. . The depth of field Z can be calculated by Lmax−Lmin or Tf + Tr. The hyperfocal distance L∞ is calculated according to Equation 5. Note that the aperture value F uses the value set by the AE process in step S1, the focal distance f is the position of the zoom lens 14b when the AF process in step S1 is performed, and the subject distance L is that at that time. It can be obtained from the position of the focus lens 14a set by the AF process. The aperture F may use a value input by the user. Further, the subject distance L may be obtained by an infrared method or a phase difference method, or may be a distance input by a user by eye measurement. The permissible circle of confusion diameter δ is recorded in the ROM 8 in advance.

そして、被写界深度限界近点Lmin等を算出すると画像表示部10に距離換算スケールをスルー画像と重ねて表示させ(ステップS4)、算出した被写界深度限界近点Lmin、被写界深度限界遠点Lmax、前方被写界深度Tf、後方被写界深度Tf、被写界深度Zのそれぞれの数値及び絞り値F、焦点距離fなどを画像表示10に表示させるとともに、被写界深度Zの深浅を距離換算スケール上に表示させる(ステップS5)。   When the depth-of-field limit near point Lmin and the like are calculated, a distance conversion scale is displayed on the image display unit 10 so as to overlap the through image (step S4), and the calculated depth-of-field limit near point Lmin, depth of field are calculated. Each of the limit far point Lmax, the forward depth of field Tf, the backward depth of field Tf, the depth of field Z, the aperture value F, the focal length f, and the like are displayed on the image display 10 and the depth of field. The depth of Z is displayed on the distance conversion scale (step S5).

図8はそのときの様子を示したものである。画像表示部10の右上には、「Tr=11.8m」、「Tf=0.9m」と表示されているのがわかる。つまり、後方被写界深度Trと前方被写界深度Tfの値が表示されている。その右隣には、「Z=12.8m」と表示されており、これは被写界深度Zの値を表わしている。更にその隣には、被写界深度限界遠点Lmaxと被写界深度限界近点Lminとの値が表示されている。Lmaxは13.8mであり、Lminは1.1mである。これらはステップS3で算出された値である。
また、左上には、「F2.8」と表示されており、この値は絞り値Fを示している。その左隣には、「f=6mm」と表示されており、これは焦点距離fを表示している。この絞り値Fの値は言うまでもなく、ステップS1のAE処理によって設定された値であり、焦点距離fもステップS1のAF処理時のズームレンズ14bの位置によって求められたものである。
FIG. 8 shows the situation at that time. It can be seen that “Tr = 11.8 m” and “Tf = 0.9 m” are displayed in the upper right of the image display unit 10. That is, the values of the rear depth of field Tr and the front depth of field Tf are displayed. On the right side, “Z = 12.8 m” is displayed, which indicates the value of the depth of field Z. Next to that, the values of the depth-of-field limit far point Lmax and the depth-of-field limit near point Lmin are displayed. Lmax is 13.8 m and Lmin is 1.1 m. These are the values calculated in step S3.
In the upper left, “F2.8” is displayed, and this value indicates the aperture value F. On the left side, “f = 6 mm” is displayed, which indicates the focal length f. Needless to say, the value of the aperture value F is a value set by the AE process in step S1, and the focal length f is also determined by the position of the zoom lens 14b during the AF process in step S1.

また、被写体のスルー画像及び距離換算スケール表示は枠30(以下、画像表示枠30)内に表示されている。
画像表示枠30内には、被写体のスルー画像とともに距離換算スケールが表示されている。そして、この距離換算スケール上の網がかかっている部分が被写界深度Zを示している。つまり、この網がかかっている部分にいる被写体はピントの合った画像になり、この網がかかっていない部分にいる被写体はボケた(ピントの合っていない)画像になるということである。画像表示枠30の中の線70は、被写界深度内と被写界深度外の境界線であり、この線70の位置が被写界深度限界遠点Lmaxである。つまり、被写界深度限界遠点Lmaxの値表示を見なくても、この距離換算スケール上に重ねて表示された被写界深度Zを見ることにより、ピントが合う限界の位置(被写界深度限界遠点Lmax)は、約13〜14mの間であることが即座にわかる。なお、この被写界深度Zはユーザから見てわかりやすいように、色などを付けて区別表示する。
The through image of the subject and the distance conversion scale display are displayed in a frame 30 (hereinafter, image display frame 30).
In the image display frame 30, a distance conversion scale is displayed together with a through image of the subject. The portion of the distance conversion scale that is shaded indicates the depth of field Z. In other words, the subject in the shaded area becomes an in-focus image, and the subject in the shaded area becomes an out-of-focus (unfocused) image. A line 70 in the image display frame 30 is a boundary line between the depth of field and the outside of the depth of field, and the position of the line 70 is the depth of field limit far point Lmax. In other words, without looking at the value display of the depth-of-field limit far point Lmax, by looking at the depth of field Z displayed superimposed on this distance conversion scale, the position of the focus limit (field of view) It can be readily seen that the depth limit far point Lmax) is between about 13-14 m. The depth of field Z is displayed with a color or the like so that the user can easily see it.

そして、絞り値Fを現在設定した値(ステップS1のAE処理で設定した値)より増減した場合の被写界深度限界近点Lmin、被写界深度限界遠点Lmax、を複数点算出する(ステップS6)。
そして、絞り値FとLmax、Lmin(被写界深度)との関係グラフを画像表示部10に表示させ(ステップS7)、この関係グラフ上に現在設定されている絞り値F(AE処理によって設定された絞り値F)、被写体距離L及び過焦点距離L∞を指針として区別表示する(ステップS8)。
Then, a plurality of depth-of-field limit near points Lmin and depth-of-field limit far points Lmax when the aperture value F is increased or decreased from the currently set value (value set in the AE process in step S1) are calculated (a plurality of points). Step S6).
Then, a relationship graph between the aperture value F and Lmax and Lmin (depth of field) is displayed on the image display unit 10 (step S7), and the aperture value F currently set on the relationship graph (set by AE processing). The aperture value F), the subject distance L, and the hyperfocal distance L∞ are distinguished and displayed (step S8).

この画像表示部10に表示された関係グラフの様子を図8を用いて説明する。
図8の点線枠40は、絞り値FとLmax、Lmin(被写界深度)との関係グラフを示した図である。
このグラフの横軸は、絞り値を示しており、縦軸は撮影者からの距離を示している。線50は絞り値Fを増減したときの被写界深度限界近点Lminの値を示しており、線60は、絞り値Fを増減したときの被写界深度限界遠点Lmaxの値を示している。
この線50と線60との間の範囲(網がかかっている部分)が被写界深度Zであり、絞り値Fの値によって被写界深度Zの距離が異なることがわかる。また、このグラフ上の縦の太い線は現在設定されている絞り値F(F2.8)を示しており、横の太い線は現在の被写体距離L(ここでは、2m)を表わしている。また、横の太い点線は過焦点距離L∞を示している。この縦の太い線、横の太い線及び横の太い点線は、指針として区別表示するため、色をつけたりしてユーザから見てわかりやすいように表示させる。
The state of the relationship graph displayed on the image display unit 10 will be described with reference to FIG.
A dotted line frame 40 in FIG. 8 is a diagram showing a relationship graph between the aperture value F and Lmax and Lmin (depth of field).
The horizontal axis of this graph represents the aperture value, and the vertical axis represents the distance from the photographer. A line 50 indicates the value of the depth of field limit near point Lmin when the aperture value F is increased or decreased, and a line 60 indicates the value of the depth of field limit far point Lmax when the aperture value F is increased or decreased. ing.
It can be seen that the range between the line 50 and the line 60 (the shaded portion) is the depth of field Z, and the distance of the depth of field Z varies depending on the aperture value F. In addition, a vertical thick line on the graph indicates the currently set aperture value F (F2.8), and a horizontal thick line indicates the current subject distance L (here, 2 m). The thick horizontal dotted line indicates the hyperfocal distance L∞. The vertical thick line, the horizontal thick line, and the horizontal thick dotted line are displayed in a distinguishable manner as pointers, so that they are displayed in a manner that is easy for the user to understand by adding colors.

この関係グラフを拡大したものを図9に示す。この被写体距離Lから被写界深度限界遠点Lmaxまでの距離が前方被写界深度Trであり、被写体距離Lから被写界深度限界近点Lminまでの距離が後方被写界深度Tfである。
つまり、現在設定されている絞り値F(縦の太い線)を見ることにより、現在設定されている被写界深度限界近点Lmax及び限界被写界深度限界近点Lminの距離がわかり、更に、被写体距離を見ることにより後方被写界深度Tr及び前方被写界深度Tfの距離がわかる。
An enlarged view of this relationship graph is shown in FIG. The distance from the subject distance L to the depth of field limit far point Lmax is the forward depth of field Tr, and the distance from the subject distance L to the depth of field limit near point Lmin is the rear depth of field Tf. .
That is, by looking at the currently set aperture value F (vertical thick line), the distances between the currently set depth-of-field limit near point Lmax and the limit of depth-of-field limit near point Lmin can be found. The distance between the rear depth of field Tr and the front depth of field Tf can be found by looking at the subject distance.

なお、画像表示部10の80部は、ズーム量を表わすものであり、80部の上部には、「5×」と表示され、下部には、「1×」と表示されているのがわかる。この「5×」、「1×」はそれぞれ、「5倍ズーム」、「1倍ズーム」であることを表わしている。80部の黒くなっている部分が「5×」の位置までくれば、5倍ズームで被写体を撮像し、80部の黒くなっている部分がまったく表示されていない時は、ズームされていない状態で被写体を撮像していることになる。
現在は、ほとんどズームが行われていない状態で被写体を撮像していることがわかる。
It should be noted that 80 part of the image display unit 10 represents the zoom amount, and it can be seen that “5 ×” is displayed at the top of the 80 part and “1 ×” is displayed at the bottom. . “5 ×” and “1 ×” represent “5 × zoom” and “1 × zoom”, respectively. When the black part of 80 parts reaches the position of “5 ×”, the subject is imaged at 5 × zoom, and when the black part of 80 parts is not displayed at all, it is not zoomed. This means that the subject is imaged.
It can now be seen that the subject is imaged with little zoom.

次に、距離換算スケールの表示動作を図10のフローチャートにしたがって説明する。
まず、ユーザのキー入力部9の操作により、入力された地上から視線までの高さ、カメラレンズの高さhの設定を行う(ステップS11)。そして、AF処理を行うと(ステップS12)、単位目盛毎の距離(距離目盛)L´iに対応する撮像位置X´i、又は、撮像位置X´iに対応する単位目盛毎の距離L´iの算出を行う(ステップS13)。
Next, the display operation of the distance conversion scale will be described with reference to the flowchart of FIG.
First, the input height from the ground to the line of sight and the camera lens height h are set by the user's operation of the key input unit 9 (step S11). When AF processing is performed (step S12), the imaging position X′i corresponding to the distance (distance scale) L′ i for each unit scale or the distance L ′ for each unit scale corresponding to the imaging position X′i. i is calculated (step S13).

この目盛単位毎の距離L´iとは、撮像された画像の見かけ上の撮影者からの距離を表わす目盛、つまり、5m、10m、15m等の距離目盛のことをいい、この単位目盛毎の距離L´iに対応する撮像位置X´の算出とは、単位目盛毎の距離L´iに対応するCCD2上の位置をそれぞれ算出することをいう。
また、撮像位置X´iに対応する単位目盛毎の距離L´iの算出とは、CCD2上のそれぞれの位置に対応する撮像された画像の見かけ上の撮影者からの距離をそれぞれ算出することをいう。
そして、この距離目盛(距離換算スケール)を画像表示枠30に表示させる(ステップS14)。
図8を見てわかるように、5m、10m、15m等の距離目盛(単位目盛毎の距離L´i)が表示され、この距離目盛は、それぞれ、線90、線91、線92の位置の距離を表示し、この線90、線91、線92の位置は算出した、単位目盛毎の距離L´iに対応する撮像位置X´iによってそれぞれ定められる。
The distance L′ i for each scale unit refers to a scale representing the apparent distance from the photographer of the captured image, that is, a distance scale such as 5 m, 10 m, or 15 m. Calculation of the imaging position X ′ corresponding to the distance L′ i means calculating the position on the CCD 2 corresponding to the distance L′ i for each unit scale.
The calculation of the distance L′ i for each unit scale corresponding to the imaging position X′i is to calculate the distance from the apparent photographer of the captured image corresponding to each position on the CCD 2. Say.
Then, this distance scale (distance conversion scale) is displayed on the image display frame 30 (step S14).
As can be seen from FIG. 8, distance scales (distance L′ i for each unit scale) such as 5 m, 10 m, and 15 m are displayed, and the distance scales indicate the positions of the lines 90, 91, and 92, respectively. The distance is displayed, and the positions of the line 90, the line 91, and the line 92 are respectively determined by the imaging position X′i corresponding to the calculated distance L′ i for each unit scale.

以上のように、第1の実施の形態においては、被写界深度などを距離換算スケール上にスルー画像と重ねて表示させるので、レンズの深度目盛を確認したり、ボケリングを調整する面倒もなく、画像表示部10を見ることにより被写界深度の深さ、前後景でピントが合う範囲やボケる範囲を容易に確認することができる。
また、距離換算スケールをスルー画像とともに重ねて表示させるので、ユーザは撮影されている被写体が撮影者からどのくらい離れた位置にいるのかを容易に認識することができる。
また、現在の被写界深度限界近点等の数値を画像表示部10に表示させるので、ユーザは容易に現在の被写界深度限界近点等を認識することができる。また、絞り値と被写界深度限界(近点、遠点)の関係グラフを画像表示部10に表示させるので、ユーザが絞り値をどのくらいにすれば、どのくらいの被写界深度限界近点等になるのかが容易にわかる。
As described above, in the first embodiment, since the depth of field and the like are displayed on the distance conversion scale so as to overlap with the through image, there is no trouble of checking the depth scale of the lens or adjusting the bokeh. By looking at the image display unit 10, it is possible to easily confirm the depth of field, the in-focus range and the out-of-focus range in the foreground and background.
In addition, since the distance conversion scale is displayed together with the through image, the user can easily recognize how far the photographed subject is from the photographer.
Further, since the numerical value such as the current depth of field limit near point is displayed on the image display unit 10, the user can easily recognize the current depth of field limit near point and the like. In addition, since the relationship graph between the aperture value and the depth of field limit (near point, far point) is displayed on the image display unit 10, how much the aperture value is set by the user, how much the depth of field limit near point, etc. It ’s easy to see.

なお、第1の実施の形態においては、AF・AE処理後に被写界深度等を距離スケール換算上にスルー画像と重ねて表示させたが、AF・AE処理前のスルー画像表示のときにも、スルー画像とともに距離換算スケールを表示させ、該スケール上に被写界深度を表示させるようにしてもよい。
また、絞り値、シャッタースピード、露出値、ホワイトバランス、焦点距離、被写体距離、ズーム倍率等の値を画像表示部10に表示させるようにしてもよい。
In the first embodiment, after AF / AE processing, the depth of field or the like is displayed superimposed on the through image on the distance scale, but also when displaying the through image before AF / AE processing. The distance conversion scale may be displayed together with the through image, and the depth of field may be displayed on the scale.
In addition, values such as an aperture value, shutter speed, exposure value, white balance, focal length, subject distance, zoom magnification, and the like may be displayed on the image display unit 10.

また、画像表示部10には絞り値Fと被写界深度限界(近点Lmin、遠点Lmax)の関係グラフを表示させたが、焦点距離fと被写界深度限界(近点Lmin、遠点Lmax)の関係グラフや被写体距離Lと被写界深度限界(近点Lmin、遠点Lmax)の関係グラフを画像表示部10に表示させるようにしてもよい。
また、この関係グラフはユーザのキー入力部9の操作により、絞り値Fと被写界深度限界の関係グラフから、焦点距離fと被写界深度限界の関係グラフ、被写体距離Lと被写界深度限界の関係グラフというように切り換わるようにしてもよい。
図11(g)は、焦点距離fと被写界深度限界(近点Lmin、遠点Lmax)の関係グラフを現したものであり、図11(h)は、被写体距離Lと被写界深度限界(近点Lmin、遠点Lmax)の関係グラフを表わしたものである。
この図11(g)の関係グラフの縦軸は撮影者からの距離を示しており、横軸は焦点距離fを示している。また、図11(h)の関係グラフの縦軸は撮影者からの距離を示しており、横軸は被写体距離Lを示している。
この図を見ると焦点距離f、被写体距離Lが大きく(長く)なればなるほど被写界深度は深くなることがわかる。
In addition, a relationship graph between the aperture value F and the depth of field limit (near point Lmin, far point Lmax) is displayed on the image display unit 10, but the focal length f and the depth of field limit (near point Lmin, far point) are displayed. A relationship graph of the point Lmax) or a relationship graph of the subject distance L and the depth of field limit (near point Lmin, far point Lmax) may be displayed on the image display unit 10.
Further, this relationship graph is obtained from the relationship graph between the aperture value F and the depth of field limit by the user's operation of the key input unit 9, the relationship graph between the focal length f and the depth of field limit, the subject distance L and the field of view. You may make it switch like the relationship graph of a depth limit.
FIG. 11G shows a relationship graph between the focal length f and the depth of field limit (near point Lmin, far point Lmax). FIG. 11H shows the subject distance L and the depth of field. It shows a relationship graph of limits (near point Lmin, far point Lmax).
The vertical axis of the relationship graph in FIG. 11G indicates the distance from the photographer, and the horizontal axis indicates the focal length f. In addition, the vertical axis of the relationship graph in FIG. 11H indicates the distance from the photographer, and the horizontal axis indicates the subject distance L.
It can be seen from this figure that the depth of field becomes deeper as the focal length f and subject distance L become larger (longer).

[第2の実施の形態]
第2の実施の形態においては、ユーザが前方被写界深度Tf、後方被写界深度Tr、被写界深度限界近点Lmin、被写界深度限界遠点Lmax等の被写界深度の撮影条件のうちどれか1つを入力することにより、入力された被写界深度の条件となるようにズームレンズ14bを駆動させることにより被写体に対してズームを行うというものである。
[Second Embodiment]
In the second embodiment, the user shoots the depth of field such as the forward depth of field Tf, the backward depth of field Tr, the depth of field limit near point Lmin, and the depth of field limit far point Lmax. By inputting any one of the conditions, the subject is zoomed by driving the zoom lens 14b so as to satisfy the input depth of field condition.

D.デジタルカメラ1の構成
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮影装置を実現する。
第2の実施の形態におけるデジタルカメラ1における、特徴となる構成の機能について説明する。
DSP/CPU3は、ユーザのキー入力部9の操作により入力された絞り値Fの設定を行う。そして、測光処理、WB処理などを行ってから、設定された絞り値F及び被写体距離Lを検出する(第1の検出手段)。この被写体距離Lの検出方法として、スルー画像表示の時には、一定のタイミング(時間変化、信号成分の変化等)でAF動作を行い、又、撮影時においては、フォーカスレンズ14aを固定するので、そのフォーカスレンズの位置により被写体までの距離Lを求めるようにする。また、赤外線方式、位相差方式により被写体までの距離Lを求めるようにしてもよいし、ユーザが目測で入力した距離でもよい。
D. Configuration of Digital Camera 1 The second embodiment also implements the photographing apparatus of the present invention by using a digital camera 1 having a configuration similar to that shown in FIG.
The function of the characteristic configuration of the digital camera 1 according to the second embodiment will be described.
The DSP / CPU 3 sets the aperture value F input by the user's operation of the key input unit 9. Then, after performing photometric processing, WB processing, etc., the set aperture value F and subject distance L are detected (first detection means). As a method for detecting the subject distance L, the AF operation is performed at a constant timing (time change, signal component change, etc.) when displaying a through image, and the focus lens 14a is fixed at the time of shooting. The distance L to the subject is obtained from the position of the focus lens. Further, the distance L to the subject may be obtained by an infrared method or a phase difference method, or may be a distance input by a user by eye measurement.

そして、DSP/CPUは、パンフォーカス自動ズームであるか否かを判断する。つまり、過焦点距離L∞が被写体距離Lとなるように自動ズームするか否かを判断する。この判断は、ユーザのキー入力部9の操作によりパンフォーカス自動ズームを選択する操作信号が送られて来たか否かにより判断する。パンフォーカス自動ズームであると判断すると、過焦点距離L∞を被写体距離Lとして設定する。
DSP/CPU3は、パンフォーカス自動ズームでないと判断すると、過焦点距離L∞設定による自動ズームであるか否かを判断する。この判断は、ユーザのキー入力部9の操作により過焦点距離L∞を入力する旨の操作信号が送られて来たか否かにより判断する。過焦点距離L∞設定による自動ズームであると判断すると、ユーザによって入力された値を過焦点距離L∞として設定する。
Then, the DSP / CPU determines whether pan-focus automatic zooming is performed. That is, it is determined whether or not automatic zooming is performed so that the hyperfocal distance L∞ becomes the subject distance L. This determination is made based on whether or not an operation signal for selecting pan focus automatic zoom has been sent by the user's operation of the key input unit 9. If it is determined that the pan focus automatic zoom is selected, the hyperfocal distance L∞ is set as the subject distance L.
When the DSP / CPU 3 determines that the pan focus automatic zoom is not performed, the DSP / CPU 3 determines whether or not the auto zoom is performed by setting the hyperfocal distance L∞. This determination is made based on whether or not an operation signal for inputting the hyperfocal distance L∞ is sent by the user's operation of the key input unit 9. If it is determined that the automatic zoom is performed by setting the hyperfocal distance L∞, the value input by the user is set as the hyperfocal distance L∞.

DSP/CPU3、過焦点距離L∞設定による自動ズームでないと判断すると、被写界深度設定による自動ズームであるか否かを判断する。この判断は、ユーザのキー入力部9の操作により前方被写界深度Tf又は後方被写界深度Trを入力する旨の操作信号が送られて来たか否かにより判断する。被写界深度設定による自動ズームであると判断すると、ユーザによって入力された値を前方被写界深度Tf又は後方被写界深度Trとして設定する。
DSP/CPU3は、被写界深度設定による自動ズームでないと判断すると、被写界深度限界設定による自動ズームであるか否かを判断する。この判断は、ユーザのキー入力部9の操作により被写界深度限界近点Lmin又は被写界深度限界遠点Lmaxを入力する旨の操作信号が送られて来たか否かにより判断する。被写界深度限界設定による自動ズームであると判断すると、ユーザによって入力された値を被写界深度限界近点Lmin又は被写界深度限界遠点Lmaxとして設定する。
If the DSP / CPU 3 determines that the automatic zoom is not based on the hyperfocal distance L∞ setting, it determines whether or not the automatic zoom is based on the depth of field setting. This determination is made based on whether or not an operation signal for inputting the front depth of field Tf or the rear depth of field Tr is sent by the user's operation of the key input unit 9. If it is determined that the automatic zooming is performed by setting the depth of field, the value input by the user is set as the front depth of field Tf or the rear depth of field Tr.
If the DSP / CPU 3 determines that the automatic zoom is not based on the depth of field setting, the DSP / CPU 3 determines whether the automatic zoom is based on the depth of field limit setting. This determination is made based on whether or not an operation signal for inputting the depth-of-field limit near point Lmin or the depth-of-field limit far point Lmax is sent by the user's operation of the key input unit 9. If it is determined that the automatic zooming is performed by setting the depth of field limit, the value input by the user is set as the depth of field limit near point Lmin or the depth of field limit far point Lmax.

DSP/CPU3は、被写界深度限界設定による自動ズームでないと判断すると、通常のズームであるか否かを判断する。この判断は、キー入力部9の手動ズームボタンによる操作信号が送られてきたか否かにより判断する。手動ズームボタンとは、ズームレンズ14bを動かすためのボタンである。ユーザがこのTを操作すると、Tele方向にズームレンズ14bが駆動し、Wを操作するとWide方向にズームレンズ14bが駆動する。
通常のズームであると判断すると、手動ズームボタンの操作信号に従ってズームレンズ14bを駆動させ、通常のズームでもないと判断すると、ズーム処理を行わない。
If the DSP / CPU 3 determines that the zoom is not an automatic zoom based on a depth-of-field limit setting, the DSP / CPU 3 determines whether the zoom is a normal zoom. This determination is made based on whether or not an operation signal from the manual zoom button of the key input unit 9 has been sent. The manual zoom button is a button for moving the zoom lens 14b. When the user operates T, the zoom lens 14b is driven in the Tele direction, and when W is operated, the zoom lens 14b is driven in the Wide direction.
If it is determined that the zoom is normal zoom, the zoom lens 14b is driven according to the operation signal of the manual zoom button. If it is determined that the zoom is not normal zoom, the zoom process is not performed.

なお、このパンフォーカス自動ズームや過焦点距離設定等による自動ズームであるか否かの判断は、予めユーザが設定モード等により過焦点距離f、前方又は被写界深度(Tf又はTr)等を設定しているか否かにより判断するようにしてもよい。例えば、ユーザが予め設定モードにより被写界深度限界遠点Lmaxを設定している場合には、被写界深度限界設定による自動ズームであると判断する。この場合には、既に設定を行っているので、再度設定を行う必要はない。   It should be noted that the determination as to whether or not the pan-focus automatic zooming or the automatic zooming is performed by setting the hyperfocal distance or the like is performed by the user in advance by setting the hyperfocal distance f, the front or depth of field (Tf or Tr), etc. You may make it judge by whether it has set. For example, when the user has previously set the depth-of-field limit far point Lmax in the setting mode, it is determined that automatic zooming is performed by setting the depth-of-field limit. In this case, since the setting has already been performed, it is not necessary to perform the setting again.

一方、過焦点距離L∞、被写界深度(Tf又はTr)、被写界深度限界(Lmin、Lmax)の設定を行うと、ユーザによって自動ズームボタンの操作が行われたか否かを判断する。この自動ズームボタンとは、上記設定した過焦点距離L∞、被写界深度限界(Lmin、Lmax)等の被写界深度条件となるようにズームを行うためのボタンである。
自動ズームボタンに相当する操作信号がキー入力部9から送られてきた場合には、該設定した被写界深度条件となるような焦点距離fを算出してDRAM6に記憶する。この機能は、本発明の取得手段に相当する。
On the other hand, when the hyperfocal distance L∞, the depth of field (Tf or Tr), and the depth of field limit (Lmin, Lmax) are set, it is determined whether or not the user has operated the automatic zoom button. . The automatic zoom button is a button for zooming so as to satisfy the depth-of-field conditions such as the set hyperfocal distance L∞ and depth-of-field limits (Lmin, Lmax).
When an operation signal corresponding to the automatic zoom button is sent from the key input unit 9, the focal length f that satisfies the set depth of field condition is calculated and stored in the DRAM 6. This function corresponds to the acquisition means of the present invention.

この算出方法としては、過焦点距離L∞が設定された場合は数式9の関係式に従って、過焦点距離L∞が被写体距離Lと設定された場合は数式9の過焦点距離L∞を被写体距離Lに置き換えて焦点距離fを求めることができる。また、前方被写界深度Tfが設定された場合には数式10の関係式に従って、後方被写界深度Trが設定された場合は数式11の関係式に従ってそれぞれ焦点距離fを算出する。また、被写界深度限界近点Lminが設定された場合は数式12に示す関係式によって、被写界深度限界遠点Lmaxが設定された場合には数式13に示す関係式によって、焦点距離fを算出する。   As the calculation method, when the hyperfocal distance L∞ is set, the hyperfocal distance L∞ of the formula 9 is set as the subject distance when the hyperfocal distance L∞ is set as the subject distance L. The focal length f can be obtained by replacing L. Further, the focal distance f is calculated according to the relational expression of Expression 10 when the front depth of field Tf is set, and according to the relational expression of Expression 11 when the rear depth of field Tr is set. Further, when the depth-of-field limit near point Lmin is set, the focal length f is obtained by the relational expression shown in Expression 12, and when the depth-of-field limit far point Lmax is set, the relational expression shown in Expression 13 is used. Is calculated.

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

そして、該算出した焦点距離fが有効範囲内か否か、つまり、焦点距離fmin<焦点距離f<焦点距離fmaxであるか否かを判断する。この有効範囲内とは、ズームレンズ14bの可動範囲内か否かによって決まってくる。焦点距離fはズームレンズ14bの位置によって定まるからである。
該算出した焦点距離fが有効範囲内である場合には、該焦点距離fとなるような位置にズームレンズ14bを駆動させズームを行い、撮影を行う旨の指示があると静止画撮影処理を行う。この機能は、本発明の撮影制御手段に相当する。
一方、算出した焦点距離fが有効範囲内でないと判断するとエラー表示等の例外処理を行なう。
Then, it is determined whether or not the calculated focal length f is within the effective range, that is, whether or not the focal length fmin <focal length f <focal length fmax. This effective range is determined by whether or not the zoom lens 14b is within the movable range. This is because the focal length f is determined by the position of the zoom lens 14b.
If the calculated focal length f is within the effective range, the zoom lens 14b is driven to a position where the focal length f is reached, zooming is performed, and if there is an instruction to shoot, still image shooting processing is performed. Do. This function corresponds to the photographing control means of the present invention.
On the other hand, if it is determined that the calculated focal length f is not within the effective range, exception processing such as error display is performed.

E.デジタルカメラ1の動作
第2の実施の形態におけるデジタルカメラ1の動作を図12、図13のフローチャートに従って説明する。
ユーザのキー入力部9の操作により撮影モードに設定されると、静止画撮影モードであるか否かを判断する(ステップS21)。静止画撮影モードに設定された場合は、ユーザによって入力された絞り値の設定を行う(ステップS22)。ここでは、絞り値Fを「3.2」と設定したものとする。なお、AE処理などによって自動的に絞り値を設定するようにしてもよい。
一方、静止画撮影モードでないと判断すると、その他のモードに設定する。
E. Operation of Digital Camera 1 The operation of the digital camera 1 in the second embodiment will be described with reference to the flowcharts of FIGS.
When the photographing mode is set by the user's operation of the key input unit 9, it is determined whether or not the still image photographing mode is set (step S21). If the still image shooting mode is set, the aperture value input by the user is set (step S22). Here, it is assumed that the aperture value F is set to “3.2”. Note that the aperture value may be automatically set by AE processing or the like.
On the other hand, if it is determined that the mode is not the still image shooting mode, another mode is set.

絞り値Fの設定を行うと、測光処理、WB処理等を行う。具体的には、測光値に基づく適正露出量(Ev)と設定絞り値Fから最適なシャッタ速度を設定し、また測光した光源入射光又は被写体反射光から光源の色温度などを求め、適切なホワイトバランスに設定する(ステップS23)。なお、ステップS22の絞り値Fの設定は、測光処理によって設定された絞り値であってもよい。
そして、被写体の撮影距離(被写体距離L)を検出する(ステップS24)。ここでは、フォーカスレンズ14aの位置により、被写体距離Lを検出する。
When the aperture value F is set, photometric processing, WB processing, and the like are performed. Specifically, an optimum shutter speed is set from the appropriate exposure amount (Ev) based on the photometric value and the set aperture value F, and the color temperature of the light source is obtained from the measured light source incident light or subject reflected light. White balance is set (step S23). The aperture value F set in step S22 may be an aperture value set by photometric processing.
Then, the photographing distance of the subject (subject distance L) is detected (step S24). Here, the subject distance L is detected based on the position of the focus lens 14a.

次いで、パンフォーカス自動ズーム、つまり、パンフォーカスのための自動ズームであるか否かを判断する(ステップS25)。この判断は、ユーザのキー入力部9の操作により、過焦点距離L∞を被写体距離に設定する旨の操作信号があるか否かにより判断する。パンフォーカス自動ズームであると判断すると、ステップS24で検出した被写体距離Lを過焦点距離L∞として設定する(ステップS29)。
一方、パンフォーカス自動ズームでないと判断すると、過焦点距離L∞設定による自動ズームであるか否かを判断する(ステップS26)。この判断は、ユーザのキー入力部9の操作により、過焦点距離L∞を入力する旨の操作信号があるか否かにより判断する。過焦点距離L∞設定による自動ズームであると判断すると、ユーザによって入力された値を過焦点距離L∞として設定する(ステップS30)。
Next, it is determined whether or not pan focus automatic zoom, that is, automatic zoom for pan focus (step S25). This determination is made based on whether or not there is an operation signal for setting the hyperfocal distance L∞ as the subject distance by the user's operation of the key input unit 9. If it is determined that the pan focus automatic zoom is selected, the subject distance L detected in step S24 is set as the hyperfocal distance L∞ (step S29).
On the other hand, if it is determined that the pan focus automatic zoom is not set, it is determined whether or not the auto zoom is set based on the hyperfocal distance L∞ setting (step S26). This determination is made based on whether or not there is an operation signal for inputting the hyperfocal distance L∞ by the user's operation of the key input unit 9. If it is determined that the automatic zoom is performed by setting the hyperfocal distance L∞, the value input by the user is set as the hyperfocal distance L∞ (step S30).

一方、過焦点距離L∞設定による自動ズームでないと判断すると、被写界深度設定による自動ズームであるか否かを判断する(ステップS27)。この判断は、ユーザのキー入力部9の操作により前方又は後方被写界深度(Tf又はTr)を入力する旨の操作信号があるか否かにより判断する。被写界深度設定による自動ズームであると判断すると、ユーザによって入力された値を前方被写界深度Tf又は後方被写界深度Trとして設定する(ステップS31)。
一方、被写界深度設定による自動ズームでないと判断すると、被写界深度限界設定による自動ズームであるか否かを判断する(ステップS28)。この判断は、ユーザのキー入力部9の操作により、被写界深度限界近点Lmin又は被写界深度限界遠点Lmaxを入力する旨の操作信号があるか否かにより判断する。被写界深度限界設定による自動ズームであると判断すると、ユーザによって入力された値を被写界深度限界近点Lmin又は被写界深度限界遠点Lmaxとして設定する(ステップS32)。
On the other hand, if it is determined that the automatic zoom is not performed with the hyperfocal distance L∞ setting, it is determined whether or not the automatic zoom is performed with the depth of field setting (step S27). This determination is made based on whether or not there is an operation signal for inputting the front or rear depth of field (Tf or Tr) by the user's operation of the key input unit 9. If it is determined that the automatic zooming is based on the depth of field setting, the value input by the user is set as the front depth of field Tf or the rear depth of field Tr (step S31).
On the other hand, if it is determined that the automatic zoom is not based on the depth of field setting, it is determined whether or not the automatic zoom is based on the depth of field limit setting (step S28). This determination is made based on whether or not there is an operation signal for inputting the depth of field limit near point Lmin or the depth of field limit far point Lmax by the user's operation of the key input unit 9. If it is determined that automatic zooming is performed by setting the depth of field limit, the value input by the user is set as the depth of field limit near point Lmin or the depth of field limit far point Lmax (step S32).

一方、被写界深度限界設定による自動ズームでないと判断すると、通常のズームであるか否かを判断する(ステップS37)。この判断は、手動ズームボタンに対応する操作信号があるか否かにより判断する。手動ズームボタンとは、ズームレンズ14bを駆動させるためのボタンであり、T/Wボタンからなる。通常のズームであると判断すると、ズームボタンの操作に従いズームレンズ14aを駆動させて(ステップS38)、ステップS39に進み、通常のズームでないと判断するとそのままステップS39に進む。   On the other hand, if it is determined that the zoom is not an automatic zoom based on the depth-of-field limit setting, it is determined whether the zoom is a normal zoom (step S37). This determination is made based on whether or not there is an operation signal corresponding to the manual zoom button. The manual zoom button is a button for driving the zoom lens 14b, and includes a T / W button. If it is determined that the zoom is normal, the zoom lens 14a is driven according to the operation of the zoom button (step S38), and the process proceeds to step S39. If it is determined that the zoom is not normal, the process proceeds to step S39.

なお、パンフォーカス自動ズームや被写界深度設定等による自動ズームであるか否かの判断は、予めユーザが設定モード等により過焦点距離f、前方又は被写界深度(Tf又はTr)等を設定しているか否かにより判断するようにしてもよい。例えば、ユーザが予め設定モードにより被写界深度限界遠点Lmaxを設定している場合には、被写界深度限界設定による自動ズームであると判断する。この場合には、既に設定を行っているので、ステップS32で設定を行うことなくステップS33に進む。他の場合も同様であり、ステップS29、ステップS30、ステップS31の処理を経ることなくステップS33に進む。   It should be noted that the determination as to whether or not the automatic zoom is performed by pan focus automatic zoom, depth of field setting, or the like is performed by the user in advance by setting the hyperfocal distance f, the front or depth of field (Tf or Tr), etc. You may make it judge by whether it has set. For example, when the user has previously set the depth-of-field limit far point Lmax in the setting mode, it is determined that automatic zooming is performed by setting the depth-of-field limit. In this case, since the setting has already been performed, the process proceeds to step S33 without performing the setting in step S32. The same applies to other cases, and the process proceeds to step S33 without passing through the processes of step S29, step S30, and step S31.

ステップS29、ステップS30、ステップS31、ステップS32で過焦点距離L∞、前方又は後方被写界深度(Tf又はTr)、被写界深度限界(近点Lmin、遠点Lmax)の設定を行うと、自動ズームボタンの操作が行われたか否かを判断する(ステップS33)。自動ズームボタンとは、上記設定した過焦点距離L∞、被写界深度限界(Lmin、Lmax)等の被写界深度条件となるようにズームを行うためのボタンである。
自動ズームボタンの操作が行われていないと判断すると、ステップS37に進み、自動ズームボタンの操作が行われたと判断すると焦点距離fの算出を行う(ステップS34)。
In step S29, step S30, step S31, and step S32, the hyperfocal distance L∞, the front or rear depth of field (Tf or Tr), and the depth of field limit (near point Lmin, far point Lmax) are set. Then, it is determined whether or not the operation of the automatic zoom button has been performed (step S33). The automatic zoom button is a button for zooming so as to satisfy the depth-of-field conditions such as the set hyperfocal distance L∞ and depth-of-field limits (Lmin, Lmax).
If it is determined that the operation of the automatic zoom button has not been performed, the process proceeds to step S37. If it is determined that the operation of the automatic zoom button has been performed, the focal length f is calculated (step S34).

この焦点距離fの算出は、ステップS29で過焦点距離L∞を被写体距離Lに設定した場合は、数式9の過焦点距離L∞を被写体距離Lに代えて、焦点距離fを算出し、ステップS30でユーザが入力した値を過焦点距離L∞として設定した場合には、数式9の過焦点距離L∞に該入力した値を代入して焦点距離fを算出する。
また、ステップS31でユーザが入力した値を前方被写界深度Tfとして設定した場合には、数式10の前方被写界深度Tfに該入力した値を代入して焦点距離fを算出し、ユーザが入力した値を後方被写界深度Trとして設定した場合には、数式11の後方被写界深度Trに該入力した値を代入して焦点距離fを算出する。
This focal length f is calculated when the hyperfocal distance L∞ is set to the subject distance L in step S29, the focal length f is calculated by substituting the hyperfocal distance L∞ in Equation 9 with the subject distance L, and the step When the value input by the user in S30 is set as the hyperfocal distance L∞, the input distance is substituted for the hyperfocal distance L∞ in Equation 9 to calculate the focal length f.
Further, when the value input by the user in step S31 is set as the forward depth of field Tf, the focal length f is calculated by substituting the input value for the forward depth of field Tf of Formula 10, and the user Is set as the rear depth of field Tr, the focal length f is calculated by substituting the input value for the rear depth of field Tr of Equation 11.

また、ステップS32でユーザが入力した値を被写界深度限界近点Lminとして設定した場合には、数式12の被写界深度限界近点Lminに該入力した値を代入して焦点距離fを算出し、ユーザが入力した値を被写界深度限界遠点Lmaxとして設定した場合には、数式13の被写界深度限界遠点Lmaxに該入力した値を代入して焦点距離fを算出する。
なお、絞り値FはステップS22で設定した値、被写体距離LはステップS24で検出した距離であり、許容錯乱円直径δは予めROM8に記録されている。
When the value input by the user in step S32 is set as the depth-of-field limit near point Lmin, the input distance is substituted into the depth-of-field limit near point Lmin of Equation 12, and the focal length f is set. When the calculated value set by the user is set as the depth of field limit far point Lmax, the input distance is substituted into the depth of field limit far point Lmax of Equation 13 to calculate the focal length f. .
The aperture value F is the value set in step S22, the subject distance L is the distance detected in step S24, and the allowable confusion circle diameter δ is recorded in the ROM 8 in advance.

焦点距離fの算出を行うと、該算出した焦点距離fが有効範囲内であるか否か、つまり、焦点距離fmin<焦点距離f<焦点距離fmaxであるか否かを判断する(ステップS35)。この有効範囲内とは、ズームレンズ14bの可動範囲内か否かによって決まってくる。焦点距離fはズームレンズ14bの位置によって定まるからである。
有効範囲内でないと判断するとエラー表示等の例外処理を行い、有効範囲内であると判断すると、算出した焦点距離fに対応する位置にズームレンズ14bを駆動させる(ステップS36)。
When the focal length f is calculated, it is determined whether or not the calculated focal length f is within the effective range, that is, whether or not the focal length fmin <the focal length f <the focal length fmax (step S35). . This effective range is determined by whether or not the zoom lens 14b is within the movable range. This is because the focal length f is determined by the position of the zoom lens 14b.
If it is determined that it is not within the effective range, an exception process such as error display is performed. If it is determined that it is within the effective range, the zoom lens 14b is driven to a position corresponding to the calculated focal length f (step S36).

次いで、AF処理を行い(ステップS39)、スルー画像とともに被写界深度の距離換算スケール上の表示、前方又は後方被写界深度(Tf又はTr)、被写界深度限界(近点Lmin、遠点Lmax)の数値表示、関係グラフ等の表示を行う(ステップS40)。このときの様子を図14に示す。
図14を見ると、後方被写界深度Trは「∞m」であり、前方被写界深度Tfは「2.6m」である。また、被写界深度Zは「∞m」であり、被写界深度限界遠点Lmaxは「∞m」、被写界深度限界近点Lminは「1.4m」、算出された焦点距離fは「6mm」であることが容易にわかる。また、絞り値Fは、ユーザが設定した値、つまり、「3.2」である。
Next, AF processing is performed (step S39), and the depth of field is displayed on the distance conversion scale together with the through image, the front or rear depth of field (Tf or Tr), the depth of field limit (the near point Lmin, the far point). A numerical display of the point Lmax), a relational graph, etc. are displayed (step S40). The state at this time is shown in FIG.
Referring to FIG. 14, the rear depth of field Tr is “∞m”, and the front depth of field Tf is “2.6 m”. In addition, the depth of field Z is “∞m”, the depth-of-field limit far point Lmax is “∞m”, the depth-of-field limit near point Lmin is “1.4 m”, and the calculated focal length f Is easily found to be “6 mm”. The aperture value F is a value set by the user, that is, “3.2”.

また、画像表示枠30には、スルー画像とともに、距離換算スケールが表示され、この距離換算スケール上に被写界深度Zが表示されている。この画像表示枠30を見れば、被写界深度Z(網がかかっている部分)は∞まであることわかる。つまり、撮影者から1.4m以降の離れた被写体であればピントが合うことが容易にわかる。
また、関係グラフ40を見ると、絞り値Fを変えると、被写界深度限界近点Lmin(線50)は異なるが、被写界深度限界遠点Lmaxは、∞mであることわかる。
In the image display frame 30, a distance conversion scale is displayed together with the through image, and the depth of field Z is displayed on the distance conversion scale. Looking at the image display frame 30, it can be seen that the depth of field Z (the portion covered with the net) is up to ∞. That is, it can be easily understood that the subject is in focus if the subject is 1.4 m away from the photographer.
Further, when the relationship graph 40 is seen, when the aperture value F is changed, the depth-of-field limit near point Lmin (line 50) is different, but the depth-of-field limit far point Lmax is ∞m.

また、図15は、絞り値F「3.2」はそのままで、後方被写界深度Trを「5.0m」と設定して自動ズームしたときの画像表示部10に表示される様子を示したものである。
図15を見て明らかなように、後方被写界深度Trはユーザが設定した「5.0m」であり、前方被写界深度Tfは「1.4m」、被写界深度Zは「6.4m」であることが容易にわかる。
また、被写界深度限界近点Lmaxは、「9.0m」であり、被写界深度限界近点Lminは「2.6m」、算出された焦点距離fは「11.25mm」であることがわかる。つまり、図13に示す画像より望遠ズームされていることとなる。なお、絞り値F「3.2」はユーザが設定した値がそのまま表示されている。
FIG. 15 shows a state where the aperture value F “3.2” is displayed as it is on the image display unit 10 when the rear depth of field Tr is set to “5.0 m” and automatic zooming is performed. It is a thing.
As apparent from FIG. 15, the rear depth of field Tr is “5.0 m” set by the user, the front depth of field Tf is “1.4 m”, and the depth of field Z is “6”. .4m ".
Further, the depth-of-field limit near point Lmax is “9.0 m”, the depth-of-field limit near point Lmin is “2.6 m”, and the calculated focal length f is “11.25 mm”. I understand. That is, the telephoto zoom is performed from the image shown in FIG. The aperture value F “3.2” is displayed as it is as set by the user.

また、画像表示枠30を見ると、被写界深度Zは、撮影者から10m離れた位値の少し手前まで、つまり、線70(被写界深度限界遠点Lmaxの位置)までしかないことがわかる。この図を見ることにより、被写体のピントの合う位置、ボケる位置が容易にわかる。
また、関係グラフ40を見ると、絞り値Fを変えると、被写界深度限界近点Lmin(線50)、被写界深度限界遠点Lmax(線60)が変わることがわかる。
つまり、絞り値Fを変えた時の被写界深度Zが容易にわかり、絞り値Fを異ならせることにより、所望の被写界深度Zを得ることもできる。
Further, when viewing the image display frame 30, the depth of field Z is only a little before the position 10 m away from the photographer, that is, the line 70 (the position of the depth of field limit far point Lmax). I understand. By looking at this figure, the in-focus position and the out-of-focus position of the subject can be easily understood.
Also, from the relationship graph 40, it can be seen that when the aperture value F is changed, the depth-of-field limit near point Lmin (line 50) and the depth-of-field limit far point Lmax (line 60) change.
That is, the depth of field Z when the aperture value F is changed can be easily understood, and the desired depth of field Z can be obtained by varying the aperture value F.

この距離換算スケール等を画像表示部10に表示させると、被写体の撮影を行うか否かを判断し(ステップS41)、撮影を行う場合は、測光処理及びWB処理を行い(ステップS42)、測光値に基づく適正露出量(Ev)と設定絞り値Fから最適なシャッタ速度の再設定を行う(ステップS43)。
そして、静止画撮影処理を行い(ステップS44)、得られた画像データを被写界深度条件(絞り値F、前方又は後方被写界深度等)とともにメモリ・カード12(記録手段)に記録する(ステップS45)。なお、画像データと被写界深度条件は関連付けられて記録される。
そして、その他のキー処理、表示処理等を行う(ステップS46)。ステップS41で撮影を行わないと判断した場合にも、ステップS46に進み、その他のキー処理等の処理を行う。
When this distance conversion scale or the like is displayed on the image display unit 10, it is determined whether or not to shoot the subject (step S41), and in the case of shooting, photometric processing and WB processing are performed (step S42). The optimum shutter speed is reset from the appropriate exposure amount (Ev) based on the value and the set aperture value F (step S43).
Then, still image shooting processing is performed (step S44), and the obtained image data is recorded on the memory card 12 (recording means) together with the depth of field conditions (aperture value F, forward or backward depth of field, etc.). (Step S45). The image data and the depth of field condition are recorded in association with each other.
Then, other key processing, display processing, and the like are performed (step S46). Even when it is determined in step S41 that shooting is not performed, the process proceeds to step S46, and other processing such as key processing is performed.

以上のように、第2の実施の形態においては、前方又は後方被写界深度や被写界深度限度(遠点、近点)、過焦点距離などの被写界深度条件を入力又は選択すると、設定された絞り値と合焦する被写体の撮影距離に応じて、設定した前方又は後方被写界深度等が得られる焦点距離に自動的にズームを行うので、設定した絞り値と被写界深度条件の画像が簡単に撮影することができる。
また、設定した絞り値、被写界深度条件となるような画像を何度でも撮影することができる。
As described above, in the second embodiment, when the depth of field conditions such as the front or rear depth of field, the depth of field limit (far point, near point), and the hyperfocal distance are input or selected. Depending on the shooting distance of the subject that is in focus with the set aperture value, the camera automatically zooms to the focal length that provides the set front or back depth of field. Images with depth conditions can be easily taken.
In addition, an image that satisfies the set aperture value and depth of field condition can be taken any number of times.

また、絞り値と被写界深度限界(近点、遠点)の関係グラフや、焦点距離を表示させるので、自動設定された被写界深度を加減補正する場合には、現在の被写界深度や関係グラフ、焦点距離を確認しながら、所定の被写界深度条件を設定するか、絞り値、焦点距離を加減補正することができ、所望の画像を撮影することができる。
ズーム倍率や被写体距離が変わっても、被写界深度条件は設定値を保つので、ユーザが所望の被写界深度の深浅や、前景や後景のピントの合う範囲やボケ具合などを加減した作画表現の撮影が初心者でも簡単に撮影することができる。
なお、カーソル操作やタッチパネル等により、画像表示部10内の被写体像の位置や範囲、距離を直接指定して、所望の被写界深度条件を設定できるようにしてもよい。
Also, since the graph of the relationship between the aperture value and the depth of field limit (near point, far point) and the focal length are displayed, the current depth of field can be adjusted when adjusting the automatically adjusted depth of field. While confirming the depth, relationship graph, and focal length, a predetermined depth-of-field condition can be set, or the aperture value and focal length can be adjusted, and a desired image can be taken.
Even if the zoom magnification or subject distance changes, the depth-of-field conditions remain set, so the user can adjust the depth of the desired depth of field, the in-focus / out-of-focus range, and the degree of blurring. Even beginners can easily shoot drawing expressions.
Note that a desired depth-of-field condition may be set by directly specifying the position, range, and distance of the subject image in the image display unit 10 by a cursor operation, a touch panel, or the like.

[第3の実施の形態]
第3の実施の形態においては、焦点距離f、ズーム倍率を保持したまま、ユーザが設定した被写界深度条件となるように、露出条件を自動設定するというものである。
[Third Embodiment]
In the third embodiment, the exposure condition is automatically set so as to satisfy the depth-of-field condition set by the user while maintaining the focal length f and the zoom magnification.

F.デジタルカメラ1の構成
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮影装置を実現する。
第3の実施の形態におけるデジタルカメラ1における、特徴となる構成の機能について説明する。
F. Configuration of Digital Camera 1 The third embodiment also implements the photographing apparatus of the present invention by using the digital camera 1 having the same configuration as that shown in FIG.
The function of the characteristic configuration of the digital camera 1 according to the third embodiment will be described.

DSP/CPU3は、測光処理、ズーム処理、AF処理等を行うと、合焦した被写体距離L、焦点距離fを検出する(第2の検出手段)。被写体距離LはAF処理により設定されたフォーカスレンズ14aの位置により検出され、焦点距離fはAF処理のときズームレンズ14bの位置によって検出される。
そして、DSP/CPU3は、パンフォーカス自動露出であるか否かを判断する。つまり、過焦点距離L∞が被写体距離Lとなるように、絞り値Fを設定することをいう。この判断は、ユーザのキー入力部9の操作によりパンフォーカス自動露出を選択する操作信号が送られて来たか否かにより判断する。パンフォーカス自動露出であると判断すると、過焦点距離L∞を被写体距離Lとして設定する。
The DSP / CPU 3 detects the focused subject distance L and focal length f (second detection means) when performing photometric processing, zoom processing, AF processing, and the like. The subject distance L is detected by the position of the focus lens 14a set by AF processing, and the focal length f is detected by the position of the zoom lens 14b during AF processing.
Then, the DSP / CPU 3 determines whether pan-focus automatic exposure is set. That is, the aperture value F is set so that the hyperfocal distance L∞ becomes the subject distance L. This determination is made based on whether or not an operation signal for selecting pan-focus automatic exposure has been sent by the user's operation of the key input unit 9. If it is determined that the pan focus automatic exposure is set, the hyperfocal distance L∞ is set as the subject distance L.

DSP/CPU3は、パンフォーカス自動露出でないと判断すると、過焦点距離設定による自動露出であるか否かを判断する。この判断は、ユーザのキー入力部9の操作により過焦点距離L∞を入力する旨の操作信号が送られて来たか否かにより判断する。過焦点距離設定による自動露出であると判断すると、ユーザによって入力された値を過焦点距離L∞として設定する。
DSP/CPU3は、過焦点距離L∞設定による自動ズームでないと判断すると、被写界深度設定による自動露出であるか否かを判断する。この判断は、ユーザのキー入力部9の操作により前方被写界深度Tf又は後方被写界深度Trを入力する旨の操作信号が送られてきたか否かにより判断する。被写界深度設定による自動露出であると判断すると、ユーザによって入力された値を前方被写界深度Tf又は後方被写界深度Trとして設定する。
When the DSP / CPU 3 determines that the pan focus automatic exposure is not performed, the DSP / CPU 3 determines whether or not the automatic exposure is performed based on the hyperfocal distance setting. This determination is made based on whether or not an operation signal for inputting the hyperfocal distance L∞ is sent by the user's operation of the key input unit 9. If it is determined that the automatic exposure is set by the hyperfocal distance setting, the value input by the user is set as the hyperfocal distance L∞.
When the DSP / CPU 3 determines that the automatic zoom is not performed with the hyperfocal distance L∞ setting, the DSP / CPU 3 determines whether the automatic exposure is performed with the depth of field setting. This determination is made based on whether or not an operation signal for inputting the front depth of field Tf or the rear depth of field Tr is sent by the user's operation of the key input unit 9. If it is determined that the automatic exposure is based on the depth of field setting, the value input by the user is set as the front depth of field Tf or the rear depth of field Tr.

DSP/CPU3は、被写界深度設定による自動露出でないと判断すると、被写界深度限界設定による自動露出であるか否かを判断する。この判断は、ユーザのキー入力部9の操作により被写界深度限界近点Lmin、被写界深度限界遠点Lmaxを入力する旨の操作信号が送られて来たか否かにより判断する。被写界深度限界設定による自動露出であると判断すると、ユーザによって入力された値を被写界深度限界近点Lmin又は被写界深度限界遠点Lmaxとして設定する。
DSP/CPU3は、被写界深度限界による自動露出でないと判断すると、ユーザに絞り値Fを入力させ、該入力された値を絞り値Fとして設定する。
If the DSP / CPU 3 determines that the exposure is not automatic exposure based on the depth of field setting, the DSP / CPU 3 determines whether the exposure is automatic exposure based on the depth of field limit setting. This determination is made based on whether or not an operation signal for inputting the depth-of-field limit near point Lmin and the depth-of-field limit far point Lmax is sent by the user's operation of the key input unit 9. If it is determined that the exposure is automatic exposure based on the depth-of-field limit setting, a value input by the user is set as the depth-of-field limit near point Lmin or the depth-of-field limit far point Lmax.
When the DSP / CPU 3 determines that the exposure is not automatic exposure due to the depth of field limit, the DSP / CPU 3 causes the user to input an aperture value F and sets the input value as the aperture value F.

なお、このパンフォーカス自動露出や過焦点距離設定等による自動露出であるか否かの判断は、予めユーザが設定モード等により過焦点距離f、前方又は被写界深度(Tf又はTr)等を設定しているか否かにより判断するようにしてもよい。例えば、ユーザが予め設定モードにより被写界深度限界遠点Lmaxを設定している場合には、被写界深度限界設定による自動露出であると判断する。この場合には、被写界深度限界遠点Lmaxは既に設定されているので、被写界深度設定による自動露出であると判断しても、被写界深度限界近点Lmaxの設定を行う必要はない。 It should be noted that whether or not the pan-focus automatic exposure or the automatic exposure is set by the hyperfocal distance setting or the like is determined by the user in advance by setting the hyperfocal distance f, forward or depth of field (Tf or Tr), etc. You may make it judge by whether it has set. For example, when the user has previously set the depth of field limit far point Lmax in the setting mode, it is determined that the exposure is automatic exposure based on the setting of the depth of field limit. In this case, since the depth-of-field limit far point Lmax is already set, it is necessary to set the depth-of-field limit near point Lmax even if it is determined that the exposure is automatic exposure based on the depth of field setting. There is no.

そして、過焦点距離L∞、前方又は後方被写界深度(Tf又はTr)、被写界深度限界(近点Lmin又は遠点Lmax)を設定した場合には、該設定した値から絞り値Fの算出して、該算出した値を絞り値Fとして設定する(取得手段)。
この算出方法としては、パンフォーカス自動露出の場合、つまり、過焦点距離L∞=被写体距離Lとして設定した場合は、又は、ユーザによって過焦点距離L∞が入力された場合は、数式14の関係式に従って絞り値Fを算出する。
また、ユーザによって前方被写界深度Tfが入力された場合は、数式15の関係式に従って絞り値Fを算出し、後方被写界深度Trが入力された場合は、数式16の関係式に従って絞り値Fを算出する。
また、ユーザによって被写界深度限界近点Lminが入力された場合は、数式17の関係式に従って絞り値Fを算出し、後方被写界深度限界遠点Lmaxが入力された場合は、数式18の関係式に従って絞り値Fを算出する。
When the hyperfocal distance L∞, the front or rear depth of field (Tf or Tr), and the depth of field limit (near point Lmin or far point Lmax) are set, the aperture value F is set from the set value. And the calculated value is set as the aperture value F (acquiring means).
As the calculation method, in the case of pan focus automatic exposure, that is, when the hyperfocal distance L∞ = the subject distance L is set, or when the hyperfocal distance L∞ is input by the user, the relationship of Equation 14 is satisfied. The aperture value F is calculated according to the equation.
When the front depth of field Tf is input by the user, the aperture value F is calculated according to the relational expression 15 and when the rear depth of field Tr is input, the aperture is calculated according to the relational expression 16 The value F is calculated.
Further, when the depth of field limit near point Lmin is input by the user, the aperture value F is calculated according to the relational expression of Expression 17, and when the rear depth of field limit far point Lmax is input, Expression 18 The aperture value F is calculated according to the following relational expression.

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

Figure 2005338614
Figure 2005338614

そして、DSP/CPUは、算出した値を絞り値Fとして設定又は、ユーザによって入力された値を絞り値Fとして設定すると、測光値に基づく適切な露出量(EV)と設定した絞り値Fからシャッタ速度を算出して設定する。
そして、設定された絞り値Fとシャッタ速度が有効範囲内か否かを判断し、有効範囲内である場合には被写体の撮影を行う(撮影制御手段)。
有効範囲外である場合には、エラー表示などの例外処理を行う。
When the DSP / CPU sets the calculated value as the aperture value F or sets the value input by the user as the aperture value F, the DSP / CPU calculates the appropriate exposure amount (EV) based on the photometric value and the set aperture value F. Calculate and set the shutter speed.
Then, it is determined whether or not the set aperture value F and the shutter speed are within the effective range. If they are within the effective range, the subject is imaged (imaging control means).
If it is outside the valid range, exception processing such as error display is performed.

G.デジタルカメラ1の動作
第3の実施の形態におけるデジタルカメラ1の動作を図16、図17のフローチャートに従って説明する。
ユーザのキー入力部9の操作により撮影モードに設定されると、静止画撮影モードであるか否かを判断する(ステップS51)。静止画撮影モードでないと判断するとその他のモードの処理を行う。
静止画撮影モードである場合には、測光処理、WB処理等を行う(ステップS52)。
G. Operation of Digital Camera 1 The operation of the digital camera 1 in the third embodiment will be described with reference to the flowcharts of FIGS.
When the shooting mode is set by the user's operation of the key input unit 9, it is determined whether or not the still image shooting mode is set (step S51). If it is determined that the mode is not the still image shooting mode, the other mode processing is performed.
In the still image shooting mode, photometric processing, WB processing, etc. are performed (step S52).

そして、ズーム処理、AF処理等を行い(ステップS53)、合焦した被写体距離L、焦点距離fを検出する(ステップS54)。この被写体距離Lは、AF処理によって設定されたフォーカスレンズ14aの位置によって検出することができる。なお、位相差検出方式、赤外線検出方式により被写体までの距離を検出してもよいし、ユーザによって入力された距離でもよい。また、焦点距離fは、AF処理が行われたときのズームレンズ14bの位置によって検出することができる。
次いで、パンフォーカス自動露出であるかどうかを判断する(ステップS55)。つまり、過焦点距離L∞が被写体距離Lとなるように、絞り値Fを設定することをいう。この判断は、ユーザのキー入力部9の操作によりパンフォーカス自動露出を選択する操作信号が送られて来たか否かにより判断する。パンフォーカス自動露出であると判断すると、過焦点距離L∞を被写体距離Lとして設定する(ステップS59)。
Then, zoom processing, AF processing, and the like are performed (step S53), and the focused subject distance L and focal length f are detected (step S54). This subject distance L can be detected by the position of the focus lens 14a set by the AF process. The distance to the subject may be detected by a phase difference detection method or an infrared detection method, or may be a distance input by the user. The focal length f can be detected by the position of the zoom lens 14b when the AF process is performed.
Next, it is determined whether pan-focus automatic exposure is set (step S55). That is, the aperture value F is set so that the hyperfocal distance L∞ becomes the subject distance L. This determination is made based on whether or not an operation signal for selecting pan-focus automatic exposure has been sent by the user's operation of the key input unit 9. If it is determined that the pan focus automatic exposure is set, the hyperfocal distance L∞ is set as the subject distance L (step S59).

一方、パンフォーカス自動露出でないと判断すると、過焦点距離設定による自動露出であるかどうか判断する(ステップS56)。この判断は、ユーザのキー入力部9の操作により過焦点距離L∞を入力する旨の操作信号が送られて来たか否かにより判断する。過焦点距離設定による自動露出であると判断すると、ユーザによって入力された値を過焦点距離L∞として設定する(ステップS60)。
一方、過焦点距離設定による自動露出でないと判断すると、被写界深度設定による自動露出であるかどうかを判断する(ステップS57)。この判断は、ユーザのキー入力部9の操作により前方被写界深度Tf又は後方被写界深度Trを入力する旨の操作信号が送られてきたか否かにより判断する。被写界深度設定による自動露出であると判断すると、ユーザによって入力された値を前方被写界深度Tf、又は、後方被写界深度Trとして設定する(ステップS61)。
On the other hand, if it is determined that the pan focus automatic exposure is not performed, it is determined whether or not the automatic exposure is performed by setting the hyperfocal distance (step S56). This determination is made based on whether or not an operation signal for inputting the hyperfocal distance L∞ is sent by the user's operation of the key input unit 9. If it is determined that the automatic exposure is set by the hyperfocal distance setting, the value input by the user is set as the hyperfocal distance L∞ (step S60).
On the other hand, if it is determined that the automatic exposure is not set by the hyperfocal distance setting, it is determined whether or not the automatic exposure is set by the depth of field setting (step S57). This determination is made based on whether or not an operation signal for inputting the front depth of field Tf or the rear depth of field Tr is sent by the user's operation of the key input unit 9. If it is determined that the exposure is automatic exposure based on the depth of field setting, the value input by the user is set as the front depth of field Tf or the rear depth of field Tr (step S61).

一方、被写界深度設定による自動露出でないと判断すると、被写界深度限界設定による自動露出であるかどうかを判断する(ステップS58)。この判断は、ユーザのキー入力部9の操作により被写界深度限界近点Lmin、又は、被写界深度限界遠点Lmaxを入力する旨の操作信号が送られてきたか否かにより判断する。被写界深度限界設定による自動露出であると判断すると、ユーザによって入力された値を被写界深度限界近、又は、被写界深度限界遠点Lmaxとして設定する(ステップS62)。
一方、被写界深度限界設定による自動露出でないと判断すると、ユーザに絞り値Fを入力させ、該入力された値を絞り値Fとして設定し(ステップS64)、ステップS65に進む。
On the other hand, if it is determined that the automatic exposure is not performed by setting the depth of field, it is determined whether the automatic exposure is performed by setting the depth of field limit (step S58). This determination is made based on whether or not an operation signal for inputting the depth of field limit near point Lmin or the depth of field limit far point Lmax is sent by the user's operation of the key input unit 9. If it is determined that the exposure is automatic exposure based on the depth-of-field limit setting, the value input by the user is set as the near-field depth limit or the far-field depth limit far point Lmax (step S62).
On the other hand, if it is determined that the exposure is not automatic exposure based on the depth-of-field limit setting, the user inputs the aperture value F, sets the input value as the aperture value F (step S64), and proceeds to step S65.

なお、パンフォーカス自動露出や被写界深度設定等による自動露出であるか否かの判断は、予めユーザが設定モード等により過焦点距離f、前方又は被写界深度(Tf又はTr)等を設定しているか否かにより判断するようにしてもよい。例えば、ユーザが予め設定モードにより被写界深度限界遠点Lmaxを設定している場合には、被写界深度限界設定による自動露出であると判断する。この場合には、既に設定を行っているので、ステップS62で設定を行うことなくステップS63に進む。他の場合も同様であり、ステップS59、ステップS60、ステップS61の処理を経ることなくステップS63に進む。   Note that whether or not the auto-exposure by pan-focus automatic exposure or depth-of-field setting is determined by the user in advance by setting the hyperfocal distance f, the front or depth of field (Tf or Tr), etc. according to the setting mode or the like. You may make it judge by whether it has set. For example, when the user has previously set the depth of field limit far point Lmax in the setting mode, it is determined that the exposure is automatic exposure based on the setting of the depth of field limit. In this case, since the setting has already been performed, the process proceeds to step S63 without performing the setting in step S62. The same applies to other cases, and the process proceeds to step S63 without passing through the processes of steps S59, S60, and S61.

また、ステップS59、ステップS60、ステップS61、ステップS62で過焦点距離L∞、前方又は後方被写界深度(Tf又はTr)、被写界深度限界(近点Lmin又は遠点Lmax)の設定を行うと、該設定した過焦点距離L∞、又は前方又は後方被写界深度(Tf又はTr)、又は被写界深度限界(近点Lmin又は遠点Lmax)となるような絞り値Fを算出して、該算出した値を絞り値Fとして設定する(ステップS63)。
この算出方法としては、ステップS59で過焦点距離L∞を被写体距離Lとして設定した場合は、数式14の過焦点距離L∞を被写体距離Lに代えて絞り値Fを算出し、ステップS60でユーザが入力した値を過焦点距離L∞として設定した場合は、数式14の過焦点距離L∞該入力した値を代入して絞り値Fを算出する。
Further, in step S59, step S60, step S61, and step S62, the hyperfocal distance L∞, the front or rear depth of field (Tf or Tr), and the depth of field limit (near point Lmin or far point Lmax) are set. When this is done, the aperture value F is calculated such that the set hyperfocal distance L∞, the front or rear depth of field (Tf or Tr), or the depth of field limit (near point Lmin or far point Lmax). Then, the calculated value is set as the aperture value F (step S63).
As the calculation method, when the hyperfocal distance L∞ is set as the subject distance L in step S59, the aperture value F is calculated by replacing the hyperfocal distance L∞ in Equation 14 with the subject distance L, and in step S60, the user Is set as the hyperfocal distance L∞, the aperture value F is calculated by substituting the hyperfocal distance L∞ in equation (14).

また、ステップS61でユーザが入力した値を前方被写界深度Tfとして設定した場合には、数式15の前方被写界深度Tfに該入力した値を代入して絞り値Fを算出し、ユーザが入力した値を後方被写界深度Trとして設定した場合には、数式16の後方被写界深度Trに該入力した値を代入して絞り値Fを算出する。
また、ステップS62でユーザが入力した値を被写界深度限界近点Lminとして設定した場合には、数式17の被写界深度限界近点Lminに該入力した値を代入して絞り値Fを算出し、ユーザが入力した値を被写界深度限界遠点Lmaxとして設定した場合には、数式18の被写界深度限界遠点Lmaxに該入力した値を代入して絞り値Fを算出する。
If the value input by the user in step S61 is set as the forward depth of field Tf, the aperture value F is calculated by substituting the input value for the forward depth of field Tf of Formula 15. Is set as the rear depth of field Tr, the aperture value F is calculated by substituting the input value for the rear depth of field Tr in Equation (16).
When the value input by the user in step S62 is set as the depth of field limit near point Lmin, the aperture value F is set by substituting the input value for the depth of field limit near point Lmin of Expression 17. When the calculated value and the value input by the user are set as the depth of field limit far point Lmax, the aperture value F is calculated by substituting the input value for the depth of field limit far point Lmax of Expression 18. .

そして、ステップS63又はステップS64で絞り値Fの設定を行うと、測距処理に基づく適切な露出量(Ev)と設定した絞り値Fとからシャッタ速度を算出して設定する(ステップS65)。
次いで、設定した絞り値F及びシャッタ速度(露出条件)が有効範囲内かどうかを判断し(ステップS66)、有効範囲内でないと判断するとエラー表示等の例外処理を行い、有効範囲内であると判断すると、露出条件(絞り値F、シャッタ速度)設定後の状態での被写界深度、被写界深度限界(近点Lmin、遠点Lmax)、その他の撮影条件等を被写体のスルー画像とともに画像表示部10に表示させる(ステップS67)。
この表示は第1の実施の形態で説明したように、距離スケール上に被写界深度Zを表示させたり、被写界深度Z等の数値表示、関係グラフなどを表示させる。
When the aperture value F is set in step S63 or step S64, the shutter speed is calculated and set from the appropriate exposure amount (Ev) based on the distance measuring process and the set aperture value F (step S65).
Next, it is determined whether or not the set aperture value F and shutter speed (exposure condition) are within the effective range (step S66). If it is determined that they are not within the effective range, an exception process such as an error display is performed and the range is within the effective range. When determined, the depth of field, depth of field limit (near point Lmin, far point Lmax) in the state after setting the exposure conditions (aperture value F, shutter speed), other shooting conditions, etc., together with the through image of the subject The image is displayed on the image display unit 10 (step S67).
In this display, as described in the first embodiment, the depth of field Z is displayed on the distance scale, a numerical display such as the depth of field Z, a relation graph, and the like are displayed.

そして、被写体の撮影を行うか否かを判断し(ステップS68)、撮影を行う場合は、測光処理及びWB処理を行い(ステップS69)、測光値に基づく適正露出量(Ev)と設定絞り値Fからシャッタ速度の再設定を行う(ステップS70)。
そして、設定した撮影条件で静止画撮影処理を行い(ステップS71)、得られた画像データを被写界深度条件(絞り値F、前方又は後方被写界深度等)とともにメモリ・カード12に記録する(ステップS72)。なお、画像データと被写界深度条件は関連付けられて記録される。
そして、その他のキー処理、表示処理等を行う(ステップS73)。
一方、ステップS68で撮影を行わないと判断した場合も、ステップS73に進み、その他のキー処理等を行う。
Then, it is determined whether or not to shoot the subject (step S68), and in the case of shooting, a photometric process and a WB process are performed (step S69), and an appropriate exposure amount (Ev) based on the photometric value and a set aperture value. The shutter speed is reset from F (step S70).
Then, the still image shooting process is performed under the set shooting conditions (step S71), and the obtained image data is recorded in the memory card 12 together with the depth of field conditions (aperture value F, forward or backward depth of field, etc.). (Step S72). The image data and the depth of field condition are recorded in association with each other.
Then, other key processing, display processing, and the like are performed (step S73).
On the other hand, if it is determined in step S68 that no shooting is performed, the process proceeds to step S73 to perform other key processing and the like.

以上のように第3の実施の形態においては、前方又は後方被写界深度や被写界深度限度(遠点、近点)、過焦点距離などの被写界深度条件を入力又は選択すると、焦点距離fと合焦する被写体の撮影距離に応じて、設定した前方又は後方被写界深度等が得られる絞り値となるように自動露出を行うので、設定被写界深度条件の画像が簡単に撮影することができる。
また、同じ被写界深度条件となるような画像を何回でも撮影することができる。
As described above, in the third embodiment, when the depth of field conditions such as the front or rear depth of field, the depth of field limit (far point, near point), and the hyperfocal distance are input or selected, Depending on the shooting distance of the subject that is in focus with the focal length f, automatic exposure is performed so that a set front or rear depth of field is obtained, so that an image with a set depth of field condition can be easily obtained. Can be taken.
Also, an image that satisfies the same depth of field condition can be taken any number of times.

また、絞り値と被写界深度限界(近点、遠点)の関係グラフや、焦点距離を表示させるので、自動設定された被写界深度を加減補正する場合には、現在の被写界深度や関係グラフ、焦点距離を確認しながら、所定の被写界深度条件を設定するか、絞り値、焦点距離を加減補正することができ、所望の画像を撮影することができる。
ズーム倍率や被写体距離が変わっても、被写界深度条件は設定値を保つので、ユーザが所望の被写界深度の深浅や、前景や後景のピントの合う範囲やボケ具合などを加減した作画表現の撮影が初心者でも簡単に撮影することができる。
なお、カーソル操作やタッチパネル等により、画像表示部10内の被写体像の位置や範囲、距離を直接指定して、所望の被写界深度条件を設定できるようにしてもよい。
Also, since the graph of the relationship between the aperture value and the depth of field limit (near point, far point) and the focal length are displayed, the current depth of field can be adjusted when adjusting the automatically adjusted depth of field. While confirming the depth, relationship graph, and focal length, a predetermined depth-of-field condition can be set, or the aperture value and focal length can be adjusted, and a desired image can be taken.
Even if the zoom magnification or subject distance changes, the depth-of-field conditions remain set, so the user can adjust the depth of the desired depth of field, the in-focus / out-of-focus range, and the degree of blurring. Even beginners can easily shoot drawing expressions.
Note that a desired depth-of-field condition may be set by directly specifying the position, range, and distance of the subject image in the image display unit 10 by a cursor operation, a touch panel, or the like.

[第4の実施の形態]
第4の実施の形態においては、ユーザにより設定された被写界深度条件等によりブラケティング撮影を行うというものである。
[Fourth Embodiment]
In the fourth embodiment, bracketing shooting is performed according to a depth-of-field condition set by the user.

H.デジタルカメラ1の構成
第4の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮影装置を実現する。
第4の実施の形態におけるデジタルカメラ1における、特徴となる構成の機能について説明する。
H. Configuration of Digital Camera 1 In the fourth embodiment, the digital camera 1 having the same configuration as that shown in FIG. 1 is used to realize the photographing apparatus of the present invention.
The function of the characteristic configuration of the digital camera 1 according to the fourth embodiment will be described.

DSP/CPUは、ユーザのキー入力部9の操作により設定モードに設定され、被写界深度ブラケティング撮影用の撮影条件である補正間隔、補正順序、撮影枚数が入力されると、該入力されたブラケティング撮影の撮影条件の設定を行う。
ここで。補正間隔とは、被写界深度ブラケティング撮影でブラケティングされていく間隔のことをいう。ここで、前方又は後方被写界深度(Tf又はTr)をブラケティングさせていく場合は、補正間隔がΔTf又はΔTrとなり、被写界深度限界(近点Lmin又は遠点Lmax)をブラケティングさせていく場合は、補正間隔がΔLmin、ΔLmaxとなる。例えば、補正間隔ΔTrが10mの場合には、後方被写界深度Trを10mずつ変えて被写体を撮影することとなる。
When the DSP / CPU is set to the setting mode by the user's operation of the key input unit 9 and the correction interval, the correction order, and the number of shots, which are shooting conditions for depth-of-field bracketing shooting, are input, the input is performed. Set the shooting conditions for bracketing shooting.
here. The correction interval is an interval at which bracketing is performed in depth-of-field bracketing shooting. Here, when bracketing the front or rear depth of field (Tf or Tr), the correction interval becomes ΔTf or ΔTr, and the depth of field limit (near point Lmin or far point Lmax) is bracketed. In this case, the correction intervals are ΔLmin and ΔLmax. For example, when the correction interval ΔTr is 10 m, the subject is photographed by changing the rear depth of field Tr by 10 m.

また、補正順序には、上り方向(+方向)、下り方向(−方向)、0+−順、0−+順などがある。例えば、0を補正のない初期の被写界深度条件とすれば、上り方向(+方向)の場合は、・・→(−2補正間隔)→(−1補正間隔)→(0、補正なし)→(+1補正間隔)→(+2補正間隔)→・・の順となり、下り方向(−方向)の場合は、・・→(+2補正間隔)→(+1補正間隔)→(0、補正なし)→(−1補正間隔)→(−2補正間隔)→・・の順となる。
また、0+−順の場合は、(0、補正なし)→(+1補正間隔)→(+2補正間隔)→・・→(−1補正間隔)→(−2補正間隔)→・・・の順となり、0−+順の場合は、(0、補正なし)→(−1補正間隔)→(−2補正間隔)→・・→(+1補正間隔)→(+2補正間隔)→・・の順となる。
また、撮影枚数とは、ブラケティング撮影により一度に連続撮影する回数のことをいう。
The correction order includes an upward direction (+ direction), a downward direction (− direction), 0 + − order, 0− + order, and the like. For example, if 0 is the initial depth-of-field condition without correction, in the upward direction (+ direction), → (−2 correction interval) → (−1 correction interval) → (0, no correction) ) → (+1 correction interval) → (+2 correction interval) → ······· In the case of the down direction (− direction), → (+2 correction interval) → (+1 correction interval) → (0, no correction) ) → (−1 correction interval) → (−2 correction interval) →.
In the case of 0 + −order, (0, no correction) → (+1 correction interval) → (+2 correction interval) →... (−1 correction interval) → (−2 correction interval) →. In the case of 0- + order, (0, no correction)-> (-1 correction interval)-> (-2 correction interval)->-> (+1 correction interval)-> (+2 correction interval)->- It becomes.
The number of shots refers to the number of times of continuous shooting at one time by bracketing shooting.

そして、DSP/CPU3は、該設定したブブラケティング撮影用の撮影条件で被写体をブラケティング撮影すると判断すると、該設定した撮影条件に従って、ブラケティング撮影を行う(連続撮影制御手段)。
例えば、補正間隔をΔTr、補正順序を上り方向、撮影枚数を5と設定した場合は、1枚目(Tr−2ΔTr)→2枚目(Tr−ΔTr)→3枚目(Tr)→4枚目(Tr+ΔTr)→5枚目(Tr+2ΔTr)となるような画像を撮影するので、まず1枚目の画像の後方被写界深度(Tr−2ΔTr)を設定し(設定手段)、該設定した後方被写界深度となるような絞り値Fを算出し(取得手段)、該算出した絞り値Fで撮影を行う(連続撮影制御手段)。そして、2枚目の画像の後方被写界深度(Tr−ΔTr)を設定し(設定手段)、該設定した後方被写界深度となるような絞り値Fを算出し(取得手段)、該算出した絞り値Fで撮影を行う(連続撮影制御手段)、という動作を5枚目の画像の撮影まで行う。この絞り値Fの算出方法については第3の実施の形態で述べたとおりである。
When the DSP / CPU 3 determines to subject the subject to bracketing shooting under the set shooting conditions for bracketing shooting, the DSP / CPU 3 performs bracketing shooting according to the set shooting conditions (continuous shooting control means).
For example, when the correction interval is set to ΔTr, the correction order is set to the upward direction, and the number of shots is set to 5, the first image (Tr−2ΔTr) → the second image (Tr−ΔTr) → the third image (Tr) → 4 images Since an image of the first (Tr + ΔTr) → the fifth (Tr + 2ΔTr) is taken, first the rear depth of field (Tr-2ΔTr) of the first image is set (setting means), and the set rear An aperture value F that provides a depth of field is calculated (acquiring means), and shooting is performed with the calculated aperture value F (continuous imaging control unit). Then, the rear depth of field (Tr−ΔTr) of the second image is set (setting means), the aperture value F is calculated so as to be the set rear depth of field (acquiring means), The operation of shooting with the calculated aperture value F (continuous shooting control means) is performed until shooting of the fifth image. The calculation method of the aperture value F is as described in the third embodiment.

なお、ここではブラケティング撮影による撮影される画像ごとに絞り値Fを算出して撮影したが、焦点距離fを算出して撮影するようにしてもよい。
つまり、まず1枚目の画像の後方被写界深度(Tr−2ΔTr)となるような焦点距離fを算出し、該算出した焦点距離fとなるようにズームレンズ14bを駆動させてから撮影を行う。そして、2枚目の画像の後方被写界深度(Tr−ΔTr)となるような焦点距離fを算出し、該算出した焦点距離fとなるようにズームレンズ14bを駆動させて撮影を行う、という動作を5枚目の画像の撮影まで行うこととなる。
Here, the aperture value F is calculated for each image captured by bracketing imaging, but the focal length f may be calculated for imaging.
That is, first, the focal length f is calculated so as to be the rear depth of field (Tr−2ΔTr) of the first image, and the zoom lens 14b is driven so as to be the calculated focal length f, and then shooting is performed. Do. Then, the focal length f is calculated so as to be the rear depth of field (Tr−ΔTr) of the second image, and the zoom lens 14b is driven so as to achieve the calculated focal length f, and shooting is performed. This operation is performed until the fifth image is captured.

I.デジタルカメラ1の動作
第4の実施の形態におけるデジタルカメラ1の動作を図18、図19のフローチャートに従って説明するが、ここでは、補正間隔をΔTrと限定したとき、つまり、後方被写界深度Trをブラケティングして撮影するときのデジタルカメラの動作に限定して説明する。
なお、補正間隔をΔTf、ΔLmin、ΔLmaxとした場合でも基本的な処理はΔTrと変わらない。
I. Operation of Digital Camera 1 The operation of the digital camera 1 in the fourth embodiment will be described with reference to the flowcharts of FIGS. 18 and 19. Here, when the correction interval is limited to ΔTr, that is, the rear depth of field Tr. Only the operation of the digital camera when shooting with bracketing will be described.
Even when the correction intervals are ΔTf, ΔLmin, and ΔLmax, the basic processing is the same as ΔTr.

ユーザのキー入力部9の操作によりモードが設定されると、ステップ81で、静止画撮影モードであるか否かを判断し(ステップS81)、静止画撮影モードでないと判断すると、設定モードであるか否かを判断する(ステップS82)。
ステップS82で設定モードであると判断すると、被写界深度ブラケット設定であるか否かを判断する(ステップS83)。被写界深度ブラケット設定とは、被写界深度ブラケティング撮影により撮影するための補正間隔「ΔTr」、補正順序、撮影枚数「2k+1枚」などの撮影条件を設定することをいう。
When the mode is set by the user's operation of the key input unit 9, it is determined in step 81 whether or not the still image shooting mode is set (step S81). Whether or not (step S82).
If it is determined that the setting mode is set in step S82, it is determined whether or not the depth-of-field bracket setting is set (step S83). The depth-of-field bracket setting refers to setting shooting conditions such as a correction interval “ΔTr”, a correction order, and the number of shots “2k + 1” for shooting by depth-of-field bracketing shooting.

被写界深度ブラケット設定であると判断すると、ユーザによって入力された補正間隔「ΔTr」、撮影枚数「2k+1」、補正順序等の設定を行い(ステップS84)、ステップS81に戻る。この補正間隔、撮影順序等のユーザの入力方法については後述する。ここでは、後方被写界深度Trの補正間隔「ΔTr=10m」、補正順序「上り順」、撮影枚数「2k+1=3枚」と設定したとする。なお、撮影枚数を3枚と設定したので、k=1となる。
一方、ステップS82に設定モードでないと判断するとその他のモードの処理を行い、ステップS83で被写界深度ブラケット設定でないと判断するとその他の設定処理を行う。
If it is determined that the depth-of-field bracket setting is set, the correction interval “ΔTr”, the number of shots “2k + 1” input by the user, the correction order, and the like are set (step S84), and the process returns to step S81. User input methods such as the correction interval and shooting order will be described later. Here, it is assumed that the correction interval “ΔTr = 10 m” of the rear depth of field Tr, the correction order “upward order”, and the number of shots “2k + 1 = 3” are set. Since the number of shots is set to 3, k = 1.
On the other hand, if it is determined in step S82 that the setting mode is not set, processing in another mode is performed. If it is determined in step S83 that depth of field bracket setting is not set, other setting processing is performed.

ステップS81で静止画撮影モードであると判断すると、測光処理、WB処理等を行う(ステップS85)。そして、ズーム処理、af処理を行い(ステップs86)、現在設定されている絞り値f、被写体距離L、焦点距離fから過焦点距離l∞0、前方又は後方被写界深度(Tr0、Tf0)、被写界深度限界(近点Lmin0、遠点Lmax0)の算出を行う(ステップS87)。この算出は、上述したように、数式1から数式5に従って算出する。なお、このTr0、Tf0等の値は、ブラケティング撮影で撮影される画像の基準となる被写界深度条件の値を示している。
そして、被写体のスルー画像とともに距離換算スケール、ステップS87で算出した前方又は後方被写界深度(Tf0、Tr0)等の数値、関係グラフなどを画像表示部10に表示させ、被写界深度Zを距離換算スケール上に表示させる(ステップS88)。
If it is determined in step S81 that the still image shooting mode is set, photometric processing, WB processing, and the like are performed (step S85). Then, zoom processing and af processing are performed (step s86), and the currently set aperture value f, subject distance L, focal length f to hyperfocal distance l∞0, forward or rear depth of field (Tr0, Tf0). The depth of field limit (near point Lmin0, far point Lmax0) is calculated (step S87). This calculation is performed according to Equations 1 to 5 as described above. The values of Tr0, Tf0, etc. indicate the values of the depth-of-field conditions that serve as a reference for images shot by bracketing shooting.
Then, a distance conversion scale, a numerical value such as the front or rear depth of field (Tf0, Tr0) calculated in step S87, a relation graph, and the like are displayed on the image display unit 10 together with the through image of the subject, and the depth of field Z is calculated. It is displayed on the distance conversion scale (step S88).

図21は、そのときの画像表示部10の様子を示したものである。
後方被写界深度Tr(=Tr0)=20m、前方被写界深度Tf(=Tf0)=1.8m、被写界深度Z(=Z0)=21.8m、被写界深度限界遠点Lmax(=Lmax0)=24.0m、被写界深度限界近点Lmin(=Lmin0)=2.2mであることがわかる。また、焦点距離f=18mm、絞り値F=12.3である。
そして、被写体の撮影を行うか否かを判断する(ステップS89)。この判断は、シャッタボタンの操作、若しくはブラケティング撮影ボタンの操作に対応する操作信号がキー入力部9から送られてきたか否かにより判断する。撮影を行わないと判断するとステップS99に進み、撮影を行うと判断すると、被写界深度ブラケティング撮影であるか否かを判断する(ステップS90)。この判断は、ブラケティング撮影ボタンの操作に対応する操作信号がキー入力部9から送られてきたか否かにより判断する。なお、静止画撮影用のシャッタボタンとブラケティング撮影ボタンを別個に設けたが、予めユーザがブラケティング撮影を行う旨を指示しておき、シャッタボタンを押下するとブラケティング撮影を行うようにしてもよい。
FIG. 21 shows a state of the image display unit 10 at that time.
Rear depth of field Tr (= Tr0) = 20 m, forward depth of field Tf (= Tf0) = 1.8 m, depth of field Z (= Z0) = 21.8 m, depth of field limit far point Lmax It can be seen that (= Lmax0) = 24.0 m and the depth of field limit near point Lmin (= Lmin0) = 2.2 m. Further, the focal length f = 18 mm and the aperture value F = 12.3.
Then, it is determined whether or not to shoot the subject (step S89). This determination is made based on whether or not an operation signal corresponding to the operation of the shutter button or the operation of the bracketing shooting button is sent from the key input unit 9. If it is determined not to perform shooting, the process proceeds to step S99. If it is determined that shooting is to be performed, it is determined whether or not it is depth-of-field bracketing shooting (step S90). This determination is made based on whether or not an operation signal corresponding to the operation of the bracketing shooting button is sent from the key input unit 9. Although a shutter button for shooting still images and a bracketing shooting button are provided separately, the user may instruct to perform bracketing shooting in advance, and bracketing shooting may be performed when the shutter button is pressed. Good.

そして、ブラケティング撮影でないと判断するとその他の撮影処理を行い、ブラケティング撮影であると判断すると、ブラケティング撮影を行うべくステップS91に進む。
まず、ブラケティング撮影を行うと判断すると(ステップS90でYに分岐)、ステップS84で設定された撮影順序が上り順であるか否かを判断する(ステップS91)。ステップS84で補正順序を「上り順」と設定したので、ステップS92に進み、後方被写界深度の初期値Tr1(Tr1=Tr0−kΔTr)の設定を行う。ここでの初期値とは、ブラケティング撮影で最初に撮影する画像の後方被写界深度Trの値のことをいう。なお、補正間隔をΔLmin等に設定した場合には、初期値はブラケティング撮影で最初に撮影する画像の被写界深度限界近点Lmin1(Lmin1=Lmin0−kΔLmin)等となる。
If it is determined that it is not bracketing shooting, other shooting processing is performed. If it is determined that it is bracketing shooting, the process proceeds to step S91 to perform bracketing shooting.
First, when it is determined that bracketing shooting is to be performed (branch to Y in step S90), it is determined whether or not the shooting order set in step S84 is an ascending order (step S91). Since the correction order is set to “upward order” in step S84, the process proceeds to step S92, and the initial value Tr1 (Tr1 = Tr0−kΔTr) of the rear depth of field is set. The initial value here refers to the value of the rear depth of field Tr of the first image captured by bracketing shooting. When the correction interval is set to ΔLmin or the like, the initial value is the depth-of-field limit near point Lmin1 (Lmin1 = Lmin0−kΔLmin) or the like of the image first captured by bracketing imaging.

ここでは、Tr0=20m、ΔTr=10、k=1(撮影枚数3枚=2k+1から)、初期値Tr1は、「Tr1=20m−1・10m=10m」となる。
そして、撮影順序mを「m=+1」に設定して(ステップS93)、ステップS94に進む。
一方、ステップS91で撮影順序が上り順でないと判断すると、撮影順序が下り順であるか否かを判断する(ステップS100)。撮影順序が下り順であると判断すると、後方被写界深度の初期値Tr1(Tr1=Tr0+k・Δtr)の設定を行う(ステップS101)。この場合の初期値Tr1は、「Tr1=20m+1・10m=30m」となる。そして、撮影順序mを「m=−1」と設定して(ステップS102)、ステップS94に進む。
ステップS94に進むと、撮影済み枚数jを「j=0」、撮影枚数nを「n=2k+1=3枚」と設定して、被写界深度補正撮影処理を行う(ステップS95)。
Here, Tr0 = 20m, ΔTr = 10, k = 1 (from 3 shots = 2k + 1), and the initial value Tr1 is “Tr1 = 20m−1 · 10m = 10m”.
Then, the shooting order m is set to “m = + 1” (step S93), and the process proceeds to step S94.
On the other hand, if it is determined in step S91 that the shooting order is not the ascending order, it is determined whether or not the shooting order is the descending order (step S100). If it is determined that the shooting order is the descending order, the initial value Tr1 (Tr1 = Tr0 + k · Δtr) of the rear depth of field is set (step S101). The initial value Tr1 in this case is “Tr1 = 20m + 1 · 10m = 30m”. Then, the shooting order m is set to “m = −1” (step S102), and the process proceeds to step S94.
In step S94, the number of shots j is set to “j = 0”, the number of shots n is set to “n = 2k + 1 = 3”, and depth-of-field correction shooting processing is performed (step S95).

ここで、被写界深度補正撮影処理の動作を図20のフローチャートに従って説明する。
補正被写界深度補正撮影処理を開始すると、図20のステップS131に進み、ブラケティング撮影で撮影する画像の後方被写界深度Tr「Tr=Tr1+m・j・ΔTr」を設定する。ここでは「Tr1=10m」であり、「j=0」、「m=+1」、「ΔTr=10m」であるので、「Tr=10+1・0・10m=10m」となる。
なお、撮影順序下り順序の場合には、「Tr1=30」であることから、「Tr=30+1・0・10m=30m」となる。
Here, the operation of the depth-of-field correction photographing process will be described with reference to the flowchart of FIG.
When the corrected depth-of-field correction photographing process is started, the process proceeds to step S131 in FIG. 20, and a rear depth of field Tr “Tr = Tr1 + m · j · ΔTr” of an image photographed by bracketing photographing is set. Here, “Tr1 = 10 m”, “j = 0”, “m = + 1”, and “ΔTr = 10 m”, so that “Tr = 10 + 1 · 0 · 10m = 10 m”.
In the case of the shooting order descending order, since “Tr1 = 30”, “Tr = 30 + 1 · 0 · 10m = 30 m”.

次いで、設定した被写界深度Trに相当する絞り値Fを算出して設定する。この絞り値Fは上述したように、数式16に従って算出する。なお、被写界深度限界をブラケティングさせる場合には、絞り値Fは、数式17(近点Lmin)、数式18(遠点Lmax)によって算出される
そして、絞り値Fに相当する絞り開口となるように絞り兼用シャッタ15を設定し(ステップS133)、測距処理、WB処理等を行う(ステップS134)。
そして、測距処理に基づく適切な露出量(Ev)とステップS132で設定した絞り値Fに適切なシャッタ速度に設定する(ステップS135)。
そして、設定した撮影条件で撮影し、得られた画像データをバッファメモリに記憶してから(ステップS136)、フラッシュメモリ7に転送記録する(ステップS137)。
Next, an aperture value F corresponding to the set depth of field Tr is calculated and set. The aperture value F is calculated according to Equation 16 as described above. When the depth of field limit is bracketed, the aperture value F is calculated by Equation 17 (near point Lmin) and Equation 18 (far point Lmax). The aperture / shutter 15 is set so as to be (step S133), and ranging processing, WB processing, etc. are performed (step S134).
Then, an appropriate shutter speed is set to an appropriate exposure amount (Ev) based on the distance measuring process and the aperture value F set in step S132 (step S135).
Then, after shooting under the set shooting conditions, the obtained image data is stored in the buffer memory (step S136), and then transferred and recorded in the flash memory 7 (step S137).

そして、図19のフローチャートに戻り、撮影済み枚数jを「j=j+1」に設定する(ステップS96)。ここでは、「j=0+1=1」となる。
そして、撮影済み枚数jが設定した撮影枚数n、ここでは、3枚以上であるか否かを判断する(ステップS97)。撮影済み枚数jは1なので、撮影枚数より少ないと判断し、ステップS95、つまり、図20のステップS131に戻り、後方被写界深度Trを設定して(ここでは、Tr=10m+1・1・10=20m)、該設定した後方被写界深度Trに相当する絞り値Fを算出して、撮影を行う。
Then, returning to the flowchart of FIG. 19, the number of shots j is set to “j = j + 1” (step S96). Here, “j = 0 + 1 = 1”.
Then, it is determined whether or not the number of shots j is the set number of shots n, here three or more (step S97). Since the number of shots j is 1, it is determined that the number is less than the number of shots, and the process returns to step S95, that is, step S131 in FIG. 20, and the rear depth of field Tr is set (here, Tr = 10m + 1 · 1 · 10). = 20 m), an aperture value F corresponding to the set rear depth of field Tr is calculated, and shooting is performed.

この動作を撮影済枚数jが撮影枚数n(ここでは、3)となるまで上記した動作を繰り返し、撮影済枚数jが撮影枚数n以上と判断すると(ステップS97でYに分岐)、該フラッシュメモリ7に記録されている複数の画像データ(ブラケティング撮影により撮影された画像データ)を被写界深度条件とともにメモリ・カード12に記録する(ステップS98)。このステップS95〜ステップS97のループによって撮影される画像は図22に示すような画像となる。   This operation is repeated until the number of shots j reaches the number of shots n (here, 3). When it is determined that the number of shots j is equal to or greater than the number of shots n (branch to Y in step S97), the flash memory 7 is recorded in the memory card 12 together with the depth-of-field condition (step S98). An image photographed by the loop of step S95 to step S97 is an image as shown in FIG.

図22はこのブラケティング撮影により撮影される画像のタイムチャートを示したものであり、1枚目に撮影される画像の後方被写界深度Trは10mであり、2枚目は20m、3枚目は30mである。なお、斜線部はピントが合っている領域、つまり、被写界深度Zの領域を示している。
そして、ブラケティング撮影により撮影された画像データ等をメモリ・カード12に記録すると、その他のキー処理、表示処理などを行う(ステップS99)。
FIG. 22 shows a time chart of an image shot by this bracketing shooting. The first image shot has a rear depth of field Tr of 10 m, the second shot is 20 m, and the third shot. The eyes are 30m. Note that the shaded area indicates a focused area, that is, an area of depth of field Z.
When the image data and the like taken by bracketing photography are recorded on the memory card 12, other key processing, display processing, etc. are performed (step S99).

一方、ステップS100で、撮影順序が下り順でもないと判断すると、撮影順序が0+−順であるか否かを判断する(ステップS103)。撮影順序が0+−順でもないと判断するとその他の処理を行い、0+−順であると判断すると、被写界深度の初期値Tr1(Tr1=Tr0)の設定を行う(ステップS104)。そして、撮影順序mを「m=+1」に設定し(ステップS105)、撮影枚数nを「n=k+1」、撮影済枚数jを「j=0」に設定する(ステップS106)。ここで、ステップS84でブラケティング撮影により撮影する全体の撮影枚数を3と設定した場合には、「2k+1=3」より「k=1」となることから、撮影枚数nは2となる。   On the other hand, if it is determined in step S100 that the shooting order is not the descending order, it is determined whether or not the shooting order is 0 + − (step S103). If it is determined that the shooting order is not 0 + -order, other processing is performed. If it is determined that the order is 0 + -order, the initial depth of field Tr1 (Tr1 = Tr0) is set (step S104). Then, the shooting order m is set to “m = + 1” (step S105), the shot number n is set to “n = k + 1”, and the shot number j is set to “j = 0” (step S106). Here, when the total number of shots taken by bracketing shooting is set to 3 in step S84, the number of shots n is 2 because “2k + 1 = 3” becomes “k = 1”.

そして、被写界深度補正撮影処理を行う(ステップS107)。ここでの被写界深度補正撮影処理は上述したように、図20のステップS131からステップS137の処理を踏むことになる。
そして、撮影済枚数jを「j=j+1」に設定し(ステップS108)、撮影済枚数jが撮影枚数n(ここでは、2)以上か否かを判断し(ステップS109)、撮影済枚数jが撮影枚数n以上でない場合には、ステップS107に戻り上記した動作を繰り返す。
つまり、このステップS107〜ステップS109の処理で、後方被写界深度Tr(Tr=Tr1+m・j・ΔTr)であることから、撮影される画像の後方被写界深度は、1枚目が20m、2枚目が30mとなる。なお、Tr1=Tr0=20m、ΔTr=10mとする。
Then, depth-of-field correction shooting processing is performed (step S107). As described above, the depth-of-field correction photographing process here follows the process from step S131 to step S137 in FIG.
Then, the photographed number j is set to “j = j + 1” (step S108), it is determined whether or not the photographed number j is equal to or greater than the number n (here, 2) (step S109). If is not greater than n, the process returns to step S107 and repeats the above operation.
That is, in the processing of step S107 to step S109, the rear depth of field Tr (Tr = Tr1 + m · j · ΔTr), so that the rear depth of field of the captured image is 20 m for the first image, The second piece is 30m. Note that Tr1 = Tr0 = 20 m and ΔTr = 10 m.

そして、撮影済枚数jが撮影枚数n以上か否かを判断し、撮影枚数n以上である場合には、撮影順序mを「m=−1」に設定し(ステップS110)、撮影枚数nを「n=k」(ここでは、「n=k=1」)、撮影済枚数jを「j=1」に設定して(ステップS111)、被写界深度補正撮影処理を行う(ステップS112)。被写界深度補正撮影処理は上述したように、図20のステップS131〜ステップS137までの処理を踏むこととなる。
そして、撮影済枚数jを「j=j+1」(ここでは、「j=1+1=2」)に設定して(ステップS113)、撮影済枚数jが撮影枚数n以上か否かを判断する(ステップS114)。ここでは撮影済枚数jが2であり、撮影枚数nが1であることから、撮影済枚数jが撮影枚数n以上であると判断する。
Then, it is determined whether or not the number of shots j is greater than or equal to the number of shots n. If the number of shots is greater than or equal to n, the shooting order m is set to “m = −1” (step S110), and the number of shots n is set. “N = k” (here, “n = k = 1”), the number of shots j is set to “j = 1” (step S111), and depth-of-field correction shooting processing is performed (step S112). . As described above, the depth-of-field correction photographing process is performed through steps S131 to S137 in FIG.
Then, the number of shots j is set to “j = j + 1” (here, “j = 1 + 1 = 2”) (step S113), and it is determined whether the number of shots j is greater than or equal to the number of shots n (step S113). S114). Here, since the number of shots j is 2 and the number of shots n is 1, it is determined that the number of shots j is greater than or equal to the number of shots n.

撮影済枚数jが撮影枚数n以上でないと判断するとステップS112に戻り、撮影済枚数jが撮影枚数n以上であると判断するとステップS98に進み、該フラッシュメモリ7に記録されている複数の画像データ(ブラケティング撮影により撮影された画像データ)を被写界深度条件とともにメモリ・カード12に記録する。
このステップS112〜ステップS114の処理で撮影される画像の後方被写界深度Trは10mとなることになる。
つまり、ステップS84で、補正間隔ΔTr=10m、撮影枚数3と設定した場合には、撮影順序が異なっても、撮影される画像は、後方被写界深度がそれぞれ「Tr=10m」、「Tr=20m」、「Tr=30m」、の画像を得ることがわかる。但し、Tr0=20m。
If it is determined that the number of shots j is not greater than or equal to the number of shots n, the process returns to step S112. If it is determined that the number of shots j is greater than or equal to the number of shots n, the process proceeds to step S98 and a plurality of image data recorded in the flash memory 7 is obtained. (Image data photographed by bracketing photographing) is recorded in the memory card 12 together with the depth of field condition.
The rear depth of field Tr of the image photographed by the processing of step S112 to step S114 is 10 m.
That is, when the correction interval ΔTr = 10 m and the number of shots 3 are set in step S84, the captured images have a rear depth of field of “Tr = 10 m” and “Tr, respectively, even if the shooting order is different. = 20m "and" Tr = 30m "are obtained. However, Tr0 = 20 m.

以上のように第4の実施の形態においては、被写界深度の設定などの撮影条件を変えて撮影しなくても、1回のシャッタ操作だけで被写界深度条件の異なる画像を複数撮影することができる。
また、狙って撮影した場合の被写界深度条件が望みの被写界深度でない場合も、ブラケティング撮影した複数の連続画像の中から、所望の被写界深度の深浅やピントが合う範囲やボケ範囲となる画像を得ることができ、満足のいく画像を撮影することができる。
また、補正間隔を自由に設定することができるので、ブラケティング撮影により撮影される画像の被写界深度の深浅や、ピントが合う範囲、ボケ範囲を調節することができ、所望の被写界深度条件を有する画像を撮影することができる。
As described above, in the fourth embodiment, a plurality of images with different depth-of-field conditions can be captured by a single shutter operation without changing the shooting conditions such as the depth of field setting. can do.
In addition, even if the depth of field condition when shooting with the aim is not the desired depth of field, the depth of the desired depth of field or the range in focus can be selected from a plurality of continuous images taken with bracketing. An image that falls within the blur range can be obtained, and a satisfactory image can be taken.
In addition, since the correction interval can be set freely, the depth of field of the image captured by bracketing shooting, the range of focus and the range of blur can be adjusted, and the desired field of view can be adjusted. An image having a depth condition can be taken.

また、ある程度所望の被写界深度条件を入力しておき、補正間隔を調整することで、より適切、所望の画像をブラケティング撮影により得ることができる。
また、撮影枚数を入力することができるので、その場の状況に応じて撮影枚数を入力することにより所望の画像を得ることができる。例えば、ユーザが入力した画角により所望の画像をほぼ得ることができる場合には撮影枚数は少なくてすみ、ユーザが設定した画像の画角では所望の画像を得ることができない場合には撮影枚数は多くすることにより、所望の画像を得ることができる。
Further, by inputting a desired depth of field condition to some extent and adjusting the correction interval, a more appropriate desired image can be obtained by bracketing shooting.
Further, since the number of shots can be input, a desired image can be obtained by inputting the number of shots according to the situation of the place. For example, the number of shots can be reduced when a desired image can be obtained almost according to the angle of view input by the user, and the number of shots can be taken when a desired image cannot be obtained with the angle of view of the image set by the user. By increasing the number, a desired image can be obtained.

なお、第4の実施の形態においては、ブラケティング撮影の一例として、後方被写界深度をブラケティングさせて撮影する場合のデジタルカメラの動作について説明したが、これに限らず、前方被写界深度又は被写界深度限界近点又は被写界深度限界遠点又は過焦点距離をブラケティングさせて撮影することができることはいうまでもない。   In the fourth embodiment, as an example of the bracketing shooting, the operation of the digital camera in the case of shooting with the rear depth of field being bracketed has been described. Needless to say, it is possible to bracket the depth or depth-of-field limit near point, the depth-of-field limit far point, or the hyperfocal distance by bracketing.

ユーザの被写界深度条件(後方被写界深度等)の設定を行わずに、撮影を行うと判断すると、ブラケティング撮影を行うようにしたが、ユーザが予め後方被写界深度等の撮影条件を設定し、撮影を行うと判断するとブラケティング撮影を行うようにしてもよい。つまり、第2の、第3の実施の形態に説明するように、ユーザに設定された被写界深度条件となるように設定してから、ブラケティング撮影を行うようにする。これにより、ユーザによって設定された後方被写界深度を基準にブラケティング撮影を行うので、ユーザが所望する画像を確実に得ることができる。   If it is determined that the user wants to shoot without setting the user's depth of field condition (back depth of field, etc.), bracketing shooting is performed. If conditions are set and it is determined that shooting is to be performed, bracketing shooting may be performed. That is, as will be described in the second and third embodiments, bracketing shooting is performed after setting the depth of field condition set by the user. Thereby, since bracketing imaging is performed based on the rear depth of field set by the user, an image desired by the user can be obtained with certainty.

また、ブラケティングされる被写界深度条件となるような絞り値Fを算出して、ブラケティング撮影を行うようにしたが、ブラケティングされる被写界深度条件となるような焦点距離fを算出してブラケティング撮影を行うようにしてもよい。
つまり、第3の実施の形態のように被写界深度条件に対応する絞り値Fを算出するのではなく、第2の実施の形態のように被写界深度条件に対応する焦点距離fを算出することになる。この場合の絞り値Fは、ユーザによって入力された値やAE処理によって設定された絞り値などを使用する。
In addition, the aperture value F that satisfies the bracketed depth of field condition is calculated and the bracketing shooting is performed, but the focal length f that satisfies the bracketed depth of field condition is set. It is also possible to calculate and perform bracketing shooting.
That is, instead of calculating the aperture value F corresponding to the depth of field condition as in the third embodiment, the focal length f corresponding to the depth of field condition is calculated as in the second embodiment. Will be calculated. In this case, the aperture value F uses a value input by the user, an aperture value set by AE processing, or the like.

また、被写界深度条件をブラケティングさせて撮影する場合について述べたが、ブラケティング撮影を行うことなく、被写体を連続して撮影を行うようにしてもよい。このとき、撮影ごとに他の被写界深度条件を設定して撮影を行うようにしてもよい。例えば、連続撮影において、1枚目は後方被写界深度Trが「10m」となるような画像を撮影し、2枚目は被写界深度限界遠点Lmaxが「50m」となるような画像を撮影し、3枚目は過焦点距離L∞が「10m」となるような画像を連続して撮影するようにしてもよい。
また、同じ被写界深度条件で連続撮影する場合においても、1枚目は後方被写界深度Trが「5m」となるような画像を撮影し、2枚目は後方被写界深度Trが「15m」となるような画像を撮影し、3枚目は後方被写界深度Trが「20m」となるような補正間隔がバラバラな画像を連続して撮影するようにしてもよい。
Further, although the case where shooting is performed by bracketing the depth of field condition has been described, the subject may be continuously shot without performing bracketing shooting. At this time, shooting may be performed by setting other depth-of-field conditions for each shooting. For example, in continuous shooting, the first image is taken such that the rear depth of field Tr is “10 m”, and the second image is such that the depth of field limit far point Lmax is “50 m”. And the third image may be continuously imaged such that the hyperfocal distance L∞ is “10 m”.
In addition, even in the case of continuous shooting under the same depth of field condition, the first image is shot so that the rear depth of field Tr is “5 m”, and the second image has the rear depth of field Tr. An image such as “15 m” may be photographed, and the third image may be continuously photographed with different correction intervals such that the rear depth of field Tr is “20 m”.

[第5の実施の形態]
第5の実施の形態においては、ユーザにより設定された被写界深度条件・露出条件等により被写界深度及び露出をブラケティングして撮影(マルチブラケティング撮影)を行うというものである。
[Fifth Embodiment]
In the fifth embodiment, shooting (multi-bracketing shooting) is performed by bracketing the depth of field and exposure according to the depth-of-field conditions and exposure conditions set by the user.

J.デジタルカメラ1の動作
第5の実施の形態におけるデジタルカメラ1の動作を図23、図24のフローチャートに従って説明するが、ここでは、被写界深度条件の補正間隔をΔTrと限定したときのデジタルカメラ1の動作に限定して説明する。
J. et al. Operation of Digital Camera 1 The operation of the digital camera 1 in the fifth embodiment will be described with reference to the flowcharts of FIGS. 23 and 24. Here, the digital camera when the depth-of-field condition correction interval is limited to ΔTr The description will be limited to the first operation.

静止画撮影モードに設定されたと判断すると、測光処理、WB処理などを行う(ステップS151)。そして、ズーム処理、AF処理を行ってから(ステップS152)、現在設定されている絞り値f、被写体距離L、焦点距離fから過焦点距離l∞0、前方又は後方被写界深度(Tr0、Tf0)、被写界深度限界(近点Lmin0、遠点Lmax0)の算出を行う(ステップS153)。この算出は、上述したように、数式1から数式5に従って算出する。なお、このTr0、Tf0等の値は、ブラケティング撮影で撮影される画像の基準となる被写界深度条件の値を示している。   If it is determined that the still image shooting mode is set, photometric processing, WB processing, and the like are performed (step S151). After performing zoom processing and AF processing (step S152), the currently set aperture value f, subject distance L, focal length f to hyperfocal distance l∞0, forward or rear depth of field (Tr0, Tf0) and the depth of field limit (near point Lmin0, far point Lmax0) are calculated (step S153). This calculation is performed according to Equations 1 to 5 as described above. The values of Tr0, Tf0, etc. indicate the values of the depth-of-field conditions that serve as a reference for images shot by bracketing shooting.

そして、被写体のスルー画像とともに距離換算スケール、ステップS153で算出した前方又は後方被写界深度(Tf0、Tr0)等の数値、関係グラフなどを画像表示部10に表示させ、被写界深度Zを距離換算スケール上に表示させる(ステップS154)。このときに、図21に示すような画像、関係グラフ等が画像表示部10に表示されているものとする。この図の説明については第4の実施の形態で述べたのでここででは省略する。
そして、被写体の撮影を行うか否かを判断する(ステップS155)。この判断は、シャッタボタン押下、又は、ブラケティング撮影を行う旨を指示するブラケティング撮影ボタンに対応する操作信号がキー入力部9から送られてきたか否かにより判断する。撮影を行わないと判断するとその他の処理を行い、撮影を行うと判断すると、ステップS156に進む。
Then, a distance conversion scale, a numerical value such as the front or rear depth of field (Tf0, Tr0) calculated in step S153, a relation graph, and the like are displayed on the image display unit 10 together with the through image of the subject, and the depth of field Z is calculated. It is displayed on the distance conversion scale (step S154). At this time, it is assumed that an image, a relationship graph, and the like as shown in FIG. 21 are displayed on the image display unit 10. The description of this figure has been described in the fourth embodiment, and is omitted here.
Then, it is determined whether or not to shoot the subject (step S155). This determination is made based on whether or not an operation signal corresponding to the bracketing shooting button for instructing to perform the shuttering button pressing or bracketing shooting is sent from the key input unit 9. If it is determined not to shoot, other processing is performed, and if it is determined to shoot, the process proceeds to step S156.

撮影を行うと判断すると、被写界深度・露出ブラケティング撮影を行うか否かを判断する(ステップS156)。この判断は、ユーザのキー入力部9の操作によりブラケティング撮影のうち被写界深度・露出ブラケティングが選択された状態で、且つ、ブラケティング撮影ボタンに相当する操作信号がキー入力部9から送られてきたか否かにより判断する。なお、静止画撮影用のシャッタボタンとブラケティング撮影ボタンを別個に設けたが、予めユーザが被写界深度・露出ブラケティング撮影を行う旨を指示された状態でシャッタボタンが押下されたと判断すると、被写界深度・露出ブラケティング撮影を行うと判断するようにしてもよい。   If it is determined that shooting is to be performed, it is determined whether to perform depth of field / exposure bracketing shooting (step S156). This determination is made when the depth of field / exposure bracketing is selected from the bracketing shooting by the user's operation of the key input unit 9 and an operation signal corresponding to the bracketing shooting button is received from the key input unit 9. Judgment is made based on whether or not it has been sent. Although the shutter button for shooting still images and the bracketing shooting button are provided separately, it is determined that the shutter button is pressed in a state where the user is instructed in advance to perform depth of field / exposure bracketing shooting. Alternatively, it may be determined that the depth of field / exposure bracketing shooting is performed.

ここで、ユーザが設定モードにより予め設定した被写界深度ブラケティング撮影用の条件とは、被写界深度補正間隔(ΔTr、ΔTF、ΔLmin、ΔLmaxなど)、被写界深度補正順序(上り順、下り順など)、被写界深度補正撮影枚数(2・k1+1)のことをいい、露出ブラケティング用の条件とは、露出補正間隔(ΔEv)、露出補正順序(上り順、下り順など)、露出補正撮影枚数(2・k2+1)のことをいう。ここでは、ユーザは設定モードで、被写界深度ブラケティング撮影用の条件の補正間隔ΔTrを10m、補正順序を上り順、撮影枚数を3(2・k1+1=3なので、k1=1となる)と設定し、露出ブラケティング撮影用の条件の補正間隔ΔEvを0.3Ev、補正順序を上り順、撮影枚数を3(2・k2+1=3なので、k2=1となる)と設定したものとする。   Here, the depth-of-field bracketing shooting conditions preset by the user in the setting mode are the depth-of-field correction interval (ΔTr, ΔTF, ΔLmin, ΔLmax, etc.), the depth-of-field correction order (ascending order). , Descending order, etc.), depth of field corrected number of shots (2.k1 + 1), and exposure bracketing conditions are exposure correction interval (ΔEv), exposure correction order (uplink order, descending order, etc.) This means the number of exposure-corrected shots (2.k2 + 1). Here, the user is in the setting mode, the correction interval ΔTr of the conditions for depth-of-field bracketing shooting is 10 m, the correction order is ascending order, and the number of shots is 3 (2 · k1 + 1 = 3, so k1 = 1) And the correction interval ΔEv for exposure bracketing shooting conditions is set to 0.3 Ev, the correction order is set to ascending order, and the number of shots is set to 3 (2 · k2 + 1 = 3, so k2 = 1). .

図23のフローチャートに戻り、ステップS157で、被写界深度・露出ブラケティング撮影でないと判断すると、その他の撮影処理を行い、被写界深度・露出ブラケティング撮影であると判断すると、被写界深度補正順序が上り順であるか否かを判断する(ステップS157)。
ここでは、被写界深度補正順序を上り順と設定してあるので、上り順と判断し、ブラケティングさせる後方被写界深度の初期値Tr1(Tr1=Tf0−k1・ΔTr)を設定する(ステップS158)。ここではTr0が20mであるので(図21参照)、後方被写界深度の初期値Trは「Tr1=20−1・10m=10m」となる。そして、撮影順序m1を「m1=+1」と設定して(ステップS159)、ステップS164に進む。
Returning to the flowchart of FIG. 23, if it is determined in step S157 that it is not depth-of-field / exposure bracketing shooting, other shooting processing is performed, and if it is determined that it is depth-of-field / exposure bracketing shooting, It is determined whether or not the depth correction order is an ascending order (step S157).
Here, since the depth-of-field correction order is set to ascending order, it is determined to be ascending order, and an initial value Tr1 (Tr1 = Tf0−k1 · ΔTr) of the rear depth of field to be bracketed is set ( Step S158). Here, since Tr0 is 20 m (see FIG. 21), the initial value Tr of the rear depth of field is “Tr1 = 20−1 · 10 m = 10 m”. Then, the photographing order m1 is set to “m1 = + 1” (step S159), and the process proceeds to step S164.

一方、ステップ157で被写界深度補正順序が上り順でないと判断すると、被写界深度補正順序が下り順であるか否かを判断する(ステップS160)。下り順であると判断すると、ブラケティングさせる後方被写界深度の初期値Tr1(Tr1=Tr0+k1・ΔTr)と設定し(ステップS161)、撮影順序m1を「m1=−1」と設定して(ステップS162)、ステップS164に進む。
一方、ステップS160で被写界深度補正順序が下り順でないと判断すると、その他の補正順序の初期値等を設定して(ステップS163)、ステップS164に進む。
On the other hand, if it is determined in step 157 that the depth of field correction order is not the ascending order, it is determined whether or not the depth of field correction order is the descending order (step S160). If it is determined that the order is descending, the initial value Tr1 (Tr1 = Tr0 + k1 · ΔTr) of the rear depth of field to be bracketed is set (step S161), and the shooting order m1 is set to “m1 = −1” (step S161). Step S162), the process proceeds to step S164.
On the other hand, if it is determined in step S160 that the depth-of-field correction order is not descending, initial values of other correction orders are set (step S163), and the process proceeds to step S164.

ステップS164に進むと、撮影枚数n1、撮影済枚数j1を設定する。ここでは、n1=2・k1+1=3と、j1=0と設定する。
そして、ブラケティング撮影で撮影する画像の後方被写界深度Tr(Tr=Tr1+m1・j1・ΔTr)を設定する(ステップS165)。ここでTr1はステップS158で「10m」と設定され、撮影順序m1はステップS159で「+1」と設定され、撮影済枚数j1はステップ164で「0」と設定されているので、Tr=10mとなる。
そして、図24のステップS166に進み、ステップS165で設定した後方被写界深度Trとなるような絞り値Fを算出して設定を行う。この算出は、数式16の関係式によって算出することができる。
In step S164, the number of shots n1 and the number of shots j1 are set. Here, n1 = 2 · k1 + 1 = 3 and j1 = 0 are set.
Then, the rear depth of field Tr (Tr = Tr1 + m1 · j1 · ΔTr) of the image shot by bracketing shooting is set (step S165). Here, Tr1 is set to “10 m” in step S158, the shooting order m1 is set to “+1” in step S159, and the number of shots j1 is set to “0” in step 164, so Tr = 10 m. Become.
Then, the process proceeds to step S166 of FIG. 24, and an aperture value F is calculated and set so as to be the rear depth of field Tr set in step S165. This calculation can be calculated by the relational expression of Expression 16.

そして、露出補正順序が上り順であるか否かを判断する(ステップS167)。ここでは、露出補正順序を上り順であると設定しているので、露出の初期値Ev1(Ev1=Ev0−k2・ΔEv)を設定する(ステップS168)。ここで、Ev0とは撮影を行うと判断したときの露出量のことをいう。よって、Ev1=Ev0−1・0.3Evとなる。
そして、撮影順序m2を「m2=+1」と設定して(ステップS169)、ステップS174に進む。
一方、露出補正順序が上り順でないと判断すると、露出補正順序が下り順であるか否かを判断し(ステップS170)、下り順である場合には、露出の初期値Ev1(Ev1=Ev0+k2・ΔEv)を設定する(ステップS171)。そして、撮影順序m2を「m2=−1」と設定して(ステップS172)、ステップS174に進む。
また、補正露出順序が上り順でもないと判断すると、その他の補正順序の初期値の設定等を行って(ステップS173)、ステップS174に進む。
Then, it is determined whether or not the exposure correction order is an ascending order (step S167). Here, since the exposure correction order is set to the ascending order, the initial exposure value Ev1 (Ev1 = Ev0−k2 · ΔEv) is set (step S168). Here, Ev0 means an exposure amount when it is determined that shooting is performed. Therefore, Ev1 = Ev0−1 · 0.3Ev.
Then, the shooting order m2 is set to “m2 = + 1” (step S169), and the process proceeds to step S174.
On the other hand, if it is determined that the exposure correction order is not the ascending order, it is determined whether or not the exposure correction order is the descending order (step S170). If the exposure correction order is the descending order, the initial exposure value Ev1 (Ev1 = Ev0 + k2 · ΔEv) is set (step S171). Then, the shooting order m2 is set to “m2 = −1” (step S172), and the process proceeds to step S174.
If it is determined that the corrected exposure order is not the ascending order, other initial values of the correction order are set (step S173), and the process proceeds to step S174.

ステップS174に進むと、撮影枚数n2、撮影済枚数j2の設定を行う。ここでは、n2=2・k2+1=3、j2=0と設定する。
そして、ブラケティング撮影の露出Ev(Ev=Ev1+m2・j2・ΔEv)を設定し、該設定した露出EvとステップS166で設定した絞り値Fとから最適なシャッタ速度の設定を行う(ステップS175)。ここでのブラケティング撮影の露出Evは「Ev=Ev0−0.3Ev」となる。
そして、設定した被写界深度条件、露出条件(絞り値F、シャッタ速度)で被写体の撮影処理を行い、得られた画像データ及び被写界深度条件などをバッファメッモリを介してフラッシュメモリ7に記録する(ステップS176)。
In step S174, the number of shots n2 and the number of shots j2 are set. Here, n2 = 2 · k2 + 1 = 3 and j2 = 0 are set.
Then, an exposure Ev (Ev = Ev1 + m2 · j2 · ΔEv) for bracketing shooting is set, and an optimum shutter speed is set from the set exposure Ev and the aperture value F set in step S166 (step S175). Here, the exposure Ev of the bracketing shooting is “Ev = Ev0−0.3Ev”.
Then, the subject is photographed under the set depth-of-field conditions and exposure conditions (aperture value F, shutter speed), and the obtained image data, depth-of-field conditions, and the like are sent to the flash memory 7 via the buffer memory. (Step S176).

そして、撮影済枚数j2を「j2=j2+1」に設定し(ステップS177)、j2がn2以上か否かを判断する(ステップS178)。ここでは、j2=1であり、n2=3であるので小さいと判断し、ステップS175に戻り、上記した動作を繰り返す。
ここでは、ステップS175〜ステップS178のループにより、露出が「Ev0−0.3Ev」、「Ev0±0」、「Ev0+0.3Ev」の3枚の画像が撮影されることになる。なお、「Ev0」とは撮影を行うと判断したときの露出量を示しており、この3枚の画像の後方被写界深度Trは10mであることは言うまでもない。
一方、ステップS178でj2がn2以上であると判断すると、ステップS179に進む。
Then, the photographed number j2 is set to “j2 = j2 + 1” (step S177), and it is determined whether j2 is equal to or greater than n2 (step S178). Here, since j2 = 1 and n2 = 3, it is determined to be small, and the process returns to step S175 to repeat the above-described operation.
Here, three images with exposures “Ev0−0.3Ev”, “Ev0 ± 0”, and “Ev0 + 0.3Ev” are photographed by the loop of step S175 to step S178. Note that “Ev0” indicates the exposure amount when it is determined that shooting is performed, and it goes without saying that the rear depth of field Tr of these three images is 10 m.
On the other hand, if it is determined in step S178 that j2 is n2 or more, the process proceeds to step S179.

そして、ステップS179に進むと、撮影済枚数j1を「j1=j1+1」に設定して、撮影済枚数j1が撮影枚数n1以上であるか否かを判断し(ステップS180)、j1がn1以上である場合にはステップS181に進み、j1がn1より小さい場合にはステップS165に戻り、上記した動作を繰り返す。
ここでは、j1=1であり、n1=3であるので、j1はn1以上ではないと判断するので、ステップS165に戻り、後方被写界深度Tr(Tr=Tr1+m1・j1・ΔTr)の設定を行う。ここでは、後方被写界深度Trは20mとなる。そして、設定された被写界深度となるような絞り値Fを設定し、露出ブラケティング撮影、つまり、露出が「Ev0−0.3Ev」、「Ev0±0Ev」、「Ev0+0.3Ev」となるような画像を撮影する。
In step S179, the number of shots j1 is set to “j1 = j1 + 1”, and it is determined whether the number of shots j1 is equal to or greater than the number of shots n1 (step S180), and j1 is equal to or greater than n1. If there is, the process proceeds to step S181. If j1 is smaller than n1, the process returns to step S165 to repeat the above-described operation.
Here, since j1 = 1 and n1 = 3, it is determined that j1 is not equal to or greater than n1, so the process returns to step S165 to set the rear depth of field Tr (Tr = Tr1 + m1 · j1 · ΔTr). Do. Here, the rear depth of field Tr is 20 m. Then, an aperture value F is set so as to achieve the set depth of field, and exposure bracketing shooting, that is, exposure becomes “Ev0−0.3Ev”, “Ev0 ± 0Ev”, “Ev0 + 0.3Ev”. Take a picture like this.

そして、撮影済枚数j1を「j1=j1+1」に設定し(ここでは、j1=2)、j1は、n1(n1=3)以上ではないので、再び後方被写界深度Trの設定を行い(ここでは、Tr=30m)、設定した後方被写界深度Trとなるような絞り値Fを設定し、露出ブラケティング撮影、つまり、露出量が「Ev0−0.3Ev」、「Ev0±0Ev」、「Ev0+0.3Ev」となるような画像を撮影する。
そして、撮影済枚数j1を「j1=j1+1」に設定し(ここでは、3)、j1はn1以上であるか否かを判断する。ここでは、j1=n1=3であるから、j1はn1以上であると判断しステップS181に進む。
ステップS181に進むと、フラッシュメモリ7に記録されているブラケティング撮影により撮影された画像データを被写界深度条件とともにメモリ・カード12に記録する。
Then, the photographed number j1 is set to “j1 = j1 + 1” (here, j1 = 2), and j1 is not equal to or greater than n1 (n1 = 3), so the rear depth of field Tr is set again ( Here, Tr = 30 m), and an aperture value F is set so that the set rear depth of field Tr is set, and exposure bracketing shooting, that is, exposure amounts are “Ev0−0.3Ev” and “Ev0 ± 0Ev”. Then, an image such as “Ev0 + 0.3Ev” is taken.
Then, the photographed number j1 is set to “j1 = j1 + 1” (here, 3), and it is determined whether j1 is n1 or more. Here, since j1 = n1 = 3, it is determined that j1 is n1 or more, and the process proceeds to step S181.
In step S181, the image data recorded by bracketing shooting recorded in the flash memory 7 is recorded in the memory card 12 together with the depth of field condition.

図25は、このブラケティング撮影で撮影された画像のタイムチャートを示すものである。
まず、1枚目に後方被写界深度Tr「10m」、露出「Ev0−0.3Ev」の画像が撮影され、2枚目に後方被写界深度Tr「m10」、露出「Ev0±0.3Ev」の画像、3枚目に後方被写界深度Tr「10m」、露出「Ev0+0.3Ev」の画像が撮影されている。
そして、4枚目から6枚目の画像は、後方被写界深度Tr「20m」であり、4枚目の露出は「Ev0−0.3Ev」、5枚目の露出は「Ev0±0Ev」、6枚目の露出は「Ev0+0.3Ev」である。
そして、7枚目から9枚目の画像は、後方被写界深度Tr「30m」であり、7枚目の露出は「Ev0−0.3Ev」、8枚目の露出は「Ev0±0Ev」、9枚目の露出は「Ev0+0.3Ev」である。
FIG. 25 shows a time chart of an image photographed by this bracketing photographing.
First, an image having a rear depth of field Tr “10 m” and an exposure “Ev0−0.3Ev” is taken as the first image, and a rear depth of field Tr “m10” and an exposure “Ev0 ± 0. A 3Ev image and a third image having a rear depth of field Tr “10 m” and an exposure “Ev0 + 0.3Ev” are captured.
The fourth to sixth images have a rear depth of field Tr “20 m”, the fourth exposure is “Ev0-0.3Ev”, and the fifth exposure is “Ev0 ± 0Ev”. The sixth exposure is “Ev0 + 0.3Ev”.
The seventh to ninth images have a rear depth of field Tr “30 m”, the seventh exposure is “Ev0−0.3Ev”, and the eighth exposure is “Ev0 ± 0Ev”. The exposure of the ninth sheet is “Ev0 + 0.3Ev”.

次に、ユーザのブラケティング撮影用の条件の入力方法の一例を図26を用いて説明する。
まず、ユーザがキー入力部9の設定モードキーを操作すると、図26(i)に示すような設定モードの画像が画像表示部10に表示される。画像表示部10には、「通常連写」、「高速連写」、「16枚連写」、「オートブラケティング」、「切」の5項目が表示され、それぞれの項目ごとに四角いチェックボックスが表示されている。このチェックボックスが黒く表示されている項目が現在選択されている項目であることを表示している。図を見ると、現在はオートブラケティングが選択されていることがわかる。ユーザはカーソルキーの「↑」、「↓」を操作することにより、ユーザが選択したい項目を選択することができる。例えば、カーソルキーの「↑」を操作すると、「オートブラケティング」のチェックボックスから「16枚連写」のチェックボックスが黒く表示される。つまり、「16枚連写」が選択される。
Next, an example of a method for inputting conditions for user bracketing shooting will be described with reference to FIG.
First, when the user operates the setting mode key of the key input unit 9, an image in the setting mode as shown in FIG. 26 (i) is displayed on the image display unit 10. The image display unit 10 displays five items of “normal continuous shooting”, “high-speed continuous shooting”, “16 continuous shooting”, “auto bracketing”, and “off”, and a square check box for each item. Is displayed. This check box indicates that the item displayed in black is the currently selected item. Looking at the figure, you can see that auto bracketing is currently selected. The user can select an item that the user wants to select by operating the cursor keys “↑” and “↓”. For example, when the cursor key “↑” is operated, a check box “16 consecutive shots” is displayed in black from a check box “auto bracketing”. That is, “16 consecutive shots” is selected.

次に、「オートブラケティング」が選択されている状態で、ユーザがカーソルキーの「→」を操作すると、図26(j)に示すような画像が表示される。つまり、オートブラケティングの種類を選択することができる状態へと切り換わる。
ここでは、「AE」、「WB」、「フォーカス」、「画角」、「被写界深度」、「マルチ」の6項目が表示されており、それぞれの項目ごとに丸いチェックボックスが表示されている。現在は「AE」が選択されている状態である。この「AE」とは、AEブラケティングのことを意味している。ここで、ユーザがカーソルキーの「→」を操作すると、図26(m)に示すようにAEブラケティングの条件を入力するための画像が表示される。
Next, when “auto bracketing” is selected and the user operates the cursor key “→”, an image as shown in FIG. 26J is displayed. That is, the state is switched to a state in which the type of auto bracketing can be selected.
Here, “AE”, “WB”, “focus”, “field angle”, “depth of field”, and “multi” are displayed, and a round check box is displayed for each item. ing. Currently, “AE” is selected. This “AE” means AE bracketing. Here, when the user operates the cursor key “→”, an image for inputting AE bracketing conditions is displayed as shown in FIG.

図26(m)に示す画像の下には丸いチェックボックスが左下、中下、右下の3ケ所に表示されており、現在は左下のチェックボックスが黒く表示されている。この左下のチェックボックスが黒く表示されているときは、補正間隔を入力する項目が選択されている状態であることを表示しており、現在は補正間隔が「0.3」Ev毎であることがわかる。この入力方法としては、ユーザがカーソルキーの「↑」、「↓」を操作して補正間隔の数値を切り替えることにより数値を入力することができる。例えば、カーソルキーの「↑」を操作すると、補正間隔が「0.3」Ev毎から「0.2」Ev枚に切り換わり、カーソルキーの「↓」を操作すると補正間隔が「0.3」Ev毎から「0.4」Ev毎に切り換わる。
また、ユーザがカーソルキーの「→」や「←」を操作することにより、左下のチェックボックスから中下のチェックボックスが選択された状態、つまり、補正枚数を設定する項目が選択されている状態へと切り換わる。そして、更にユーザがカーソルキーの「→」を操作すると、補正順序を設定する項目が選択されている状態となる。
Under the image shown in FIG. 26 (m), round check boxes are displayed in three places, the lower left, middle lower, and lower right, and the lower left check box is currently displayed in black. When the lower left check box is displayed in black, it indicates that the item for inputting the correction interval is selected, and the correction interval is currently set to every “0.3” Ev. I understand. As this input method, the user can input a numerical value by operating the cursor keys “↑” and “↓” to switch the numerical value of the correction interval. For example, when the cursor key “↑” is operated, the correction interval is switched from “0.3” Ev to “0.2” Ev, and when the cursor key “↓” is operated, the correction interval is “0.3”. “Ev” is switched to “0.4” Ev.
In addition, when the user operates the cursor keys “→” and “←”, the lower left check box is selected, that is, the item for setting the number of corrections is selected. Switch to. When the user further operates the cursor key “→”, an item for setting the correction order is selected.

また、図26(j)に示すような画像が表示されている状態で、ユーザがカーソルキーの「↓」を操作していき、図26(k)に示すように「被写界深度」が選択されている状態で、カーソルキーの「→」を操作すると、図26(n)に示すような画像が表示される。図26(n)は、後方被写界深度をブラケティングさせていく場合のブラケティングの条件を入力するための画像であるが、後方被写界深度ではなく、前方被写界深度、被写界深度限界近点などをティブラケングさせていく場合のブラケティングの条件を入力するための画像でもよい。また、ユーザのキー入力部9の操作により被写界深度条件を入力する画像が切り換わるようにしてもよい。
このブラケティングの条件の入力操作は上述したAEブラケティングの条件の選択方法と同一であり、左下は補正間隔、中下は補正枚数、右下は補正順序である。
Further, in a state where an image as shown in FIG. 26J is displayed, the user operates the cursor key “↓”, and the “depth of field” is set as shown in FIG. When the cursor key “→” is operated in the selected state, an image as shown in FIG. 26 (n) is displayed. FIG. 26 (n) is an image for inputting the bracketing conditions when the rear depth of field is bracketed, but not the rear depth of field but the forward depth of field, the depth of field. It may be an image for inputting bracketing conditions when the bracketing depth near the depth limit is to be tibraked. Further, an image for inputting the depth-of-field condition may be switched by the user's operation of the key input unit 9.
This bracketing condition input operation is the same as the method for selecting the AE bracketing condition described above. The lower left is the correction interval, the middle lower is the number of corrections, and the lower right is the correction order.

次に、図26(k)に示すような画像が表示されている状態で、ユーザがカーソルキーの「↓」を操作することにより、図26(l)に示すように「マルチ設定」が選択されている状態でカーソルキーの「→」を操作すると、図26(o)に示すようなマルチブラケティングの条件を入力するための画像が画像表示部10に表示される。
画像表示部10には、「AE」、「WB」、「フォーカス」、「画角」、「被写界深度」の5項目が表示されており、それぞれの項目ごとに丸いチェックボックスが表示されている。
Next, when the image as shown in FIG. 26 (k) is displayed, the user operates the cursor key “↓” to select “multi-setting” as shown in FIG. 26 (l). When the cursor key “→” is operated in the state of being displayed, an image for inputting the multi bracketing conditions as shown in FIG.
The image display unit 10 displays five items “AE”, “WB”, “focus”, “angle of view”, and “depth of field”, and a round check box is displayed for each item. ing.

図26(o)を見てわかるとおり、現在は、「AE」のチェックボックスが黒く表示されている。つまり、「AE」のブラケティング条件を入力することができる状態である。ここでは、「AE」ブラケティングの条件は、「−0.3」、「±0」、「+0.3」となっており、これは、AEブラケティングによりブラケティングされる露出が標準の露出から−0.3Ev、標準露出、標準露出から+0.3Evであることを表わしている。この「−0.3」、「±0」、「+0.3」の入力方法は上述したとおりである。
また、ユーザは、カーソルキーの「↓」を操作していくことにより、ブラケティングさせる項目を選択することができる。つまり、カーソルキーの「↓」を1回操作することにより、「WB」が選択されている状態(「WB」の条件を入力することができる状態)に切り換わり、更に「↓」を操作することにより、「フォーカス」が選択されている状態へと切り換わる。
As can be seen from FIG. 26 (o), the check box “AE” is currently displayed in black. That is, the bracketing condition “AE” can be input. Here, the conditions for “AE” bracketing are “−0.3”, “± 0”, and “+0.3”. This is because the exposure bracketed by AE bracketing is the standard exposure. To -0.3Ev, standard exposure, and standard exposure + 0.3Ev. The input method of “−0.3”, “± 0”, and “+0.3” is as described above.
Further, the user can select an item to be bracketed by operating the cursor key “↓”. In other words, by operating the cursor key “↓” once, the state is switched to a state where “WB” is selected (a state where the condition of “WB” can be input), and “↓” is further operated. As a result, the state is switched to the state in which “focus” is selected.

ここでは、AEブラケティングの条件の他に、被写界深度ブラケティングの条件「−10m」、「±0」、「+10m」が入力されている(図26(o)参照)。ここでの入力した被写界深度ブラケティングの条件は、後方被写界深度ブラケティングの条件であるとする。なお、ユーザのキー入力部9の操作により、入力する被写界深度ブラケティングの条件が、どの種類の被写界深度ブラケティングの条件であるのかを選択することができる。例えば、入力する被写界深度ブラケティングの条件が前方被写界深度ブラケティングの条件又は被写界深度限界遠点ブラケティングの条件というように選択することができる。
そして、実行キーなどを操作することにより、ユーザによって入力された条件が設定される。
Here, in addition to the AE bracketing conditions, depth-of-field bracketing conditions “−10 m”, “± 0”, and “+10 m” are input (see FIG. 26 (o)). Here, it is assumed that the input depth-of-field bracketing condition is a rear-field-depth bracketing condition. Note that it is possible to select which type of depth-of-field bracketing condition is to be input by the user's operation of the key input unit 9. For example, the input depth-of-field bracketing condition can be selected as a forward depth-of-field bracketing condition or a depth-of-field-limited far point bracketing condition.
Then, a condition input by the user is set by operating an execution key or the like.

以上のように第5の実施の形態においては、1回の撮影で被写界深度条件と露出条件とを組み合わせて加減補正した複数枚の画像を撮影することができるので、所望の被写界深度の深浅表現で、且つ、適切な露出条件の画像が得ることができる。   As described above, in the fifth embodiment, a plurality of images corrected and adjusted by combining the depth-of-field condition and the exposure condition can be shot in one shooting, so that a desired scene can be captured. It is possible to obtain an image with an appropriate exposure condition with a shallow expression of depth.

なお、第5の実施の形態においては、被写界深度条件と露出をブラケティングさせて被写体を撮影するようにしたが、露出ではなく、WB(ホワイトバランス)、シャープネス、コントラスト、フィルタ、カラー補正等を組み合わせて、ブラケティング撮影を行うようにしてもよい。例えば、被写界深度条件とコントラストをブラケティングさせて撮影するようにしてもよい。
また、被写界深度条件と露出とWBなどの複数をブラケティングさせて撮影するようにしてもよい。つまり、マルチブラケティング撮影を行うようにしてもよい。
また、ブラケティングされる被写界深度条件となるような絞り値Fを算出して、ブラケティング撮影を行うようにしたが、ブラケティングされる被写界深度条件となるような焦点距離fを算出してブラケティング撮影を行うようにしてもよい。これにより、ブラケティングにより被写界深度を変えるたびに(焦点距離を変えていくごとに)露出ブラケティング等のズームレンズを動かさないブラケティング撮影を行うので、ズームレンズを移動させる無駄を省くことができ、迅速にマルチブラケティング撮影を行うことができる。
In the fifth embodiment, the subject is photographed by bracketing the depth-of-field condition and exposure. However, WB (white balance), sharpness, contrast, filter, and color correction are used instead of exposure. For example, bracketing shooting may be performed in combination. For example, you may make it image | photograph by bracketing depth-of-field conditions and contrast.
Further, a plurality of depth-of-field conditions, exposure, WB, and the like may be bracketed for shooting. That is, you may make it perform multi bracketing imaging | photography.
In addition, the aperture value F that satisfies the bracketed depth of field condition is calculated and the bracketing shooting is performed, but the focal length f that satisfies the bracketed depth of field condition is set. It is also possible to calculate and perform bracketing shooting. As a result, every time the depth of field is changed by bracketing (every time the focal length is changed), bracketing shooting without moving the zoom lens, such as exposure bracketing, is performed, thus eliminating the waste of moving the zoom lens. Multi-bracketing photography can be performed quickly.

[第6の実施の形態]
第6の実施の形態においては、ベストショット撮影というものを設け、予めシーン毎に被写界深度条件(前方又は後方被写界深度、被写界深度限界(近点、遠点)など)を予め記録しておき、シーンを選ぶと選択したシーンに対応する被写界深度条件となるように、自動ズーム制御若しくは自動露出制御をして被写体を撮影することができるというものである。
[Sixth Embodiment]
In the sixth embodiment, the best shot shooting is provided, and the depth-of-field conditions (forward or backward depth of field, depth of field limit (near point, far point, etc.)) are previously set for each scene. If a scene is recorded in advance and the scene is selected, the subject can be photographed by automatic zoom control or automatic exposure control so that the depth of field condition corresponding to the selected scene is satisfied.

K.デジタルカメラ1の構成
第6の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮影装置を実現する。
第2の実施の形態におけるデジタルカメラ1は、第1の実施の形態と以下の点で構成の機能が多少異なる。
K. Configuration of Digital Camera 1 In the sixth embodiment, the imaging apparatus of the present invention is realized by using the digital camera 1 having the same configuration as that shown in FIG.
The digital camera 1 according to the second embodiment is slightly different from the first embodiment in configuration functions in the following points.

ユーザがキー入力部9の操作によりベストショット撮影モードに設定されると、DSP/CPU3は、複数の撮影シーン(撮影モード)を画像表示部10に表示させる。
ここで、図27(p)は、画像表示部10に表示された複数の撮影シーンを示すものである。画像表示部10には、「人物ポートレート」、「人物像(2〜3人)」、「風景+人物(記念写真)」等の撮影シーンが表示されている。また、人物ポートレートの欄が黒い太線で囲まれているのがわかる。これは、現在「人物ポートレート」が選択されていることを表わしている。
When the user sets the best shot shooting mode by operating the key input unit 9, the DSP / CPU 3 displays a plurality of shooting scenes (shooting modes) on the image display unit 10.
Here, FIG. 27 (p) shows a plurality of shooting scenes displayed on the image display unit 10. The image display unit 10 displays shooting scenes such as “portrait portrait”, “person image (2 to 3 people)”, “landscape + person (commemorative photo)”, and the like. It can also be seen that the person portrait field is surrounded by a thick black line. This represents that “person portrait” is currently selected.

そして、ユーザの十字キーの操作により、他の撮影シーンを選択することができる。例えば、ユーザが十字キーの「↓」の操作を行った場合は、「人物ポートレート」から「風景+人物(記念写真)」が選択され、ユーザが十字キーの「→」の操作を行った場合は、「人物ポートレート」から「人物像(2〜3人)」が選択されることとなる。
このように、ユーザは十字キーを操作することにより、撮影したい撮影シーンを選択することができる。そして、ユーザは所望の撮影シーンを選択して実行キーを操作すると、DSP/CPU3は、選択された撮影シーンが選択されたと判断する。
Then, another shooting scene can be selected by the user's operation of the cross key. For example, when the user operates the arrow key “↓”, “landscape + person (commemorative photo)” is selected from “Portrait”, and the user operates the arrow key “→”. In this case, “person image (2 to 3 persons)” is selected from “person portrait”.
Thus, the user can select a shooting scene to be shot by operating the cross key. When the user selects a desired shooting scene and operates the execution key, the DSP / CPU 3 determines that the selected shooting scene has been selected.

そして、DSP/CPU3は、実行キーの操作が行われたと判断すると、選択された撮影シーンに対応する撮影情報をROM8から読み出して(第1の条件取得手段)、該読み出した撮影情報を撮影条件として設定する(設定手段)。
図15(t)は、ROM8に記憶されている撮影情報の一例を示すものである。
図15(t)を見るとわかるように、撮影シーン毎に絞り、シャッタ速度、後方被写界深度Tr、被写界深度限界遠点Lmax等の撮影条件(被写界深度条件を含む)がROM8に記録されていることがわかる。
そして、該読み出した撮影情報を撮影条件として設定すると、自動ズーム制御若しくは自動露出制御を行う。
When the DSP / CPU 3 determines that the operation of the execution key has been performed, it reads out the shooting information corresponding to the selected shooting scene from the ROM 8 (first condition acquisition means), and uses the read shooting information as the shooting condition. Is set as (setting means).
FIG. 15 (t) shows an example of shooting information stored in the ROM 8.
As can be seen from FIG. 15 (t), shooting conditions (including depth of field conditions) such as aperture, shutter speed, rear depth of field Tr, depth of field limit far point Lmax, and the like for each shooting scene are understood. It can be seen that it is recorded in the ROM 8.
When the read shooting information is set as a shooting condition, automatic zoom control or automatic exposure control is performed.

ここで、選択した撮影シーンに対応する被写界深度条件(前方又は後方被写界深度、被写界深度限界(近点、遠点)となるように自動ズーム制御を行うためには、絞り値Fが必要となるが、予め、撮影シーン毎ごとに絞り値FをROM8に記録しておいてもよいし、ユーザが絞り値Fを入力してもよいし、AE処理によって定められた絞り値Fを用いてもよい。また、自動露出制御を行う場合には、焦点距離fが必要となるが、これも予め、撮影シーン毎ごとに焦点距離fをROM8に記録しておいてもよいし、AF処理時のズームレンズ14bの位置によって求められた焦点距離fを用いるようにしてもよい。
なお、画像表示部10の複数の撮影シーン表示の際に、ブラケティング撮影用の撮影シーンを表示してもよい。このときには、ROM8には、ブラケティング撮影用の撮影シーンに対応する撮影情報が記録されていることは言うまでもない。
Here, in order to perform automatic zoom control so that the depth of field conditions (forward or rear depth of field, depth of field limit (near point, far point)) corresponding to the selected shooting scene are set, Although the value F is required, the aperture value F may be recorded in the ROM 8 in advance for each shooting scene, the user may input the aperture value F, or the aperture determined by the AE process. The value F may be used, and when performing automatic exposure control, the focal length f is required, but this may also be recorded in advance in the ROM 8 for each shooting scene. Then, the focal length f obtained by the position of the zoom lens 14b at the time of AF processing may be used.
Note that when a plurality of shooting scenes are displayed on the image display unit 10, shooting scenes for bracketing shooting may be displayed. At this time, it goes without saying that the ROM 8 records shooting information corresponding to a shooting scene for bracketing shooting.

L.デジタルカメラ1の動作
第6の実施の形態におけるデジタルカメラ1の動作を図28のフローチャートに従って説明する。
ユーザのキー入力部9の操作によりベストショット撮影モードに選択されると、ステップS201で、図27(p)に示すような複数の撮影シーンを画像表示部10に表示させる。
ここで、ユーザは画像表示部10に複数の撮影シーンが画像表示部10に表示されると、撮影したい所望の撮影シーンを選択する。この選択は、十字キーの操作を行ってから、実行キーを操作する。ここで、ユーザが「人物像(2〜3人)」を十字キーにより選択し、実行キーを操作したものとする。
L. Operation of Digital Camera 1 The operation of the digital camera 1 in the sixth embodiment will be described with reference to the flowchart of FIG.
When the best shot shooting mode is selected by the user's operation of the key input unit 9, a plurality of shooting scenes as shown in FIG. 27 (p) are displayed on the image display unit 10 in step S201.
Here, when a plurality of shooting scenes are displayed on the image display unit 10, the user selects a desired shooting scene to be shot. In this selection, the execution key is operated after the operation of the cross key. Here, it is assumed that the user selects “person image (2 to 3 people)” with the cross key and operates the execution key.

次いで、ステップS202に進み、選択された撮影シーンに対応する撮影情報をROM8から読み出し、該読み出した撮影情報を撮影条件として設定する。
図15(t)はROM8に記録されている撮影シーン毎の撮影情報を示すものである。ここでは、「人物像」が選択されているので、証明写真に対応する撮影情報をROM8から読み出す。すなわち、読み出された撮影情報は、「絞り」がオート、「シャッター速度」がオート、「後方被写界深度」が20m等となる。
In step S202, shooting information corresponding to the selected shooting scene is read from the ROM 8, and the read shooting information is set as a shooting condition.
FIG. 15 (t) shows shooting information for each shooting scene recorded in the ROM 8. Here, since “person image” is selected, shooting information corresponding to the ID photo is read from the ROM 8. That is, in the read shooting information, “aperture” is auto, “shutter speed” is auto, “rear depth of field” is 20 m, and the like.

そして、該読み出した撮影情報を撮影条件として設定すると、図12のステップS22、又は、図16のステップS52に進む。
自動ズーム制御により撮影シーンに対応する被写界深度条件となるような画像を撮影する場合には図16のステップS22に進み、自動露出制御により撮影シーンに対応する被写界深度条件となるような画像を撮影する場合には図16のステップS52に進むようにする。
この自動ズーム制御により行うか、自動露出制御により行うかはユーザのキー入力部9の操作により選択することができるようにしてもよし、自動的に選択するようにしてもよい。
When the read shooting information is set as a shooting condition, the process proceeds to step S22 in FIG. 12 or step S52 in FIG.
When an image that satisfies the depth-of-field condition corresponding to the shooting scene is shot by the automatic zoom control, the process proceeds to step S22 in FIG. 16, and the depth-of-field condition corresponding to the shooting scene is set by the automatic exposure control. When taking an image, the process proceeds to step S52 in FIG.
Whether to perform the automatic zoom control or the automatic exposure control may be selected by the user's operation of the key input unit 9 or may be automatically selected.

なお、撮影シーンを選択した場合であっても選択された撮影シーンに適切なブラケティング撮影を行うようにしてもよい。
例えば、撮影シーン「人物ポートレート」のような人物が被写体となる撮影シーンを選択した場合は、ソフトフォーカスや肌色ブラケティング撮影を行うようにしたり、撮影シーンが屋内の場合は、WBブラケティングやフラッシュブラケティング撮影を行うようにしたり、撮影シーンが「風景」の場合には、画角ブラケティングや被写界深度ブラケティング撮影を行うようにしてもよい。また、シーンに合わせて、ブラケティング撮影だけでなく、特殊な連写機能や、パンフォーカス、また、複数のブラケティング撮影を組み合わせて、3枚×3枚など組合わせた条件でのブラケティング撮影等ができるようにしてもよい。
Even when a shooting scene is selected, bracketing shooting appropriate to the selected shooting scene may be performed.
For example, when a shooting scene where a person is the subject, such as a shooting portrait “person portrait”, is selected, soft focus or flesh-color bracketing shooting is performed, or when the shooting scene is indoors, WB bracketing or Flash bracketing shooting may be performed, or when the shooting scene is “landscape”, angle of field bracketing or depth of field bracketing shooting may be performed. Depending on the scene, not only bracketing shooting, but also a special continuous shooting function, pan focus, and multiple bracketing shooting combined with 3 x 3 shooting conditions. Etc. may be made possible.

また、静止画の撮影シーンを選択した場合であっても、ユーザのキー入力部9の操作により、補正間隔、撮影順序、撮影枚数を入力することができるようにしてもよい。つまり、選択した撮影シーンを基準にブラケティング撮影を行うようにする。この場合には、選択された撮影シーンの撮影情報及び入力された補正間隔、撮影順序、撮影枚数を撮影条件として設定して、設定された焦点距離に対応する位置にズームレンズ15を移動させると、図18のステップS85又は図23のステップS151に進むようにする。   Even when a still image shooting scene is selected, the correction interval, shooting order, and number of shots may be input by the user's operation of the key input unit 9. That is, bracketing shooting is performed based on the selected shooting scene. In this case, when the shooting information of the selected shooting scene, the input correction interval, shooting order, and the number of shots are set as shooting conditions, the zoom lens 15 is moved to a position corresponding to the set focal length. Then, the process proceeds to step S85 in FIG. 18 or step S151 in FIG.

また、撮影シーン毎の撮影情報の中に補正間隔、撮影順序、撮影枚数の撮影情報を予め記録させておき、撮影シーンの選択のときに通常の静止画撮影により撮影するかブラケティング撮影により撮影するかをユーザに選択させるようにしてもよい。通常の静止画撮影が選択された場合には、補正間隔、撮影順序、撮影枚数の撮影情報を撮影条件として設定せずに通常の静止画の撮影条件の設定を行い、ブラケティング撮影が選択された場合には、補正間隔、撮影順序、撮影枚数の撮影情報を撮影条件として設定する。
また、通常の静止画撮影用の撮影シーンと、ブラケティング撮影用の撮影シーンとを別個に記録しておき、ブラケティング撮影用の撮影シーンを選択した場合には、ブラケティング撮影を行うようにしてもよい。
In addition, shooting information for correction intervals, shooting order, and number of shots is recorded in advance in shooting information for each shooting scene, and when shooting scenes are selected, shooting is performed by normal still image shooting or shooting by bracketing shooting. You may make it make a user select whether to do. When normal still image shooting is selected, set the shooting conditions for normal still images without setting the shooting information of the correction interval, shooting order, and number of shots as shooting conditions, and bracketing shooting is selected. In such a case, the shooting information of the correction interval, shooting order, and number of shots is set as shooting conditions.
Also, a normal still image shooting scene and a bracketing shooting scene are recorded separately, and bracketing shooting is performed when a shooting scene for bracketing shooting is selected. May be.

以上のように第6の実施の形態においては、撮影シーンをユーザが選択すると、該選択された撮影シーンに対応する撮影情報を撮影条件として設定するので、人物ポートレート、人物像(2〜3人)など、撮影シーンを選択するだけで、最も適切な被写界深度やボケ具合になるように、自動ズーム制御、自動露出制御を行うので、シーン別に最適な被写界深度の撮影を簡単に撮影することができる。
撮影シーンを選択するだけで、最適な被写界深度の撮影を行うことができるので、被写界深度条件の設定を行うなどのユーザの手間を省くことができる。
As described above, in the sixth embodiment, when a user selects a shooting scene, shooting information corresponding to the selected shooting scene is set as a shooting condition. By simply selecting the shooting scene (such as people), automatic zoom control and automatic exposure control are performed so that the most appropriate depth of field and blur is achieved, making it easy to capture the optimal depth of field for each scene. Can be taken.
Since it is possible to perform shooting with the optimum depth of field simply by selecting a shooting scene, it is possible to save the user's troubles such as setting the depth of field condition.

なお、撮影シーンをユーザが選択するのではなく、メモリ・カード12に記録してある画像をユーザが選択することにより、該選択された画像に関連付けられて記録されている撮影条件(後方被写界深度等の被写界深度条件及びブラケティング撮影用の条件、絞り値、シャッタ速度、彩度、コントラストなど)を読み出して(第2の条件取得手段)、この読み出した撮影条件を撮影条件として設定して、被写体を撮影するようにしてもよい。
また、選択した画像が通常の静止画撮影により撮影された画像であっても、ユーザのキー入力部9の操作により本発明のブラケティング撮影にしたり、選択した画像がブラケティング撮影により撮影された画像であっても、ユーザのキー入力部9の操作により本発明の静止画撮影にしたりすることができるようにしてもよい。
The user does not select the shooting scene, but the user selects an image recorded on the memory card 12, so that the shooting condition (rear image) recorded in association with the selected image is selected. Depth of field conditions such as depth of field, bracketing shooting conditions, aperture value, shutter speed, saturation, contrast, etc.) are read (second condition acquisition means), and the read shooting conditions are used as shooting conditions. It may be set to shoot a subject.
Further, even if the selected image is an image shot by normal still image shooting, the user can operate the key input unit 9 to perform bracketing shooting according to the present invention, or the selected image can be shot by bracketing shooting. Even for an image, the user may operate the key input unit 9 to take a still image according to the present invention.

これにより、撮影した画像(メモリ・カード12に記録されている画像データ)を見て、これから撮影しようとする画像の構図に最も合う画像を選択することにより、その選択した画像とまったく同じ被写界深度となるような画像を撮影することができる。また、被写界深度条件の設定などのユーザの手間を省くことができ、簡単に適切な画角で被写体を撮影することができる。   As a result, the photographed image (image data recorded on the memory card 12) is viewed, and the image that best matches the composition of the image to be photographed is selected. It is possible to take an image that has a depth of field. Further, it is possible to save the user's troubles such as setting the depth-of-field condition, and it is possible to easily photograph the subject with an appropriate angle of view.

また、上記各実施の形態における撮影装置は、上記の実施の形態に限定されるものではなく、カメラ付き携帯電話、PDA、パソコン等、又はデジタルビデオカメラ等でもよく、要は被写体を撮影することができる機器であれば何でもよい。
また、光学ズーム機能を有するデジタルカメラ1を用いて説明したが、デジタルズーム機能のみを有するデジタルカメラであってもよい。
In addition, the imaging device in each of the above embodiments is not limited to the above embodiment, and may be a camera-equipped mobile phone, a PDA, a personal computer, or a digital video camera. Any device can be used.
Further, although the digital camera 1 having the optical zoom function has been described, a digital camera having only the digital zoom function may be used.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. ズームレンズと焦点距離fの関係、及び画角との関係を示す図である。It is a figure which shows the relationship between a zoom lens, the focal distance f, and the relationship with an angle of view. 画角が写し込むことができる水平面地上の最短距離を示す図である。It is a figure which shows the shortest distance on the horizontal surface ground which an angle of view can image. 単位目盛毎の画角とそのCCD上の位置との関係を示す図である。It is a figure which shows the relationship between the angle of view for every unit scale, and its position on CCD. 画像表示部10に表示される距離換算スケールの様子を示す図であるIt is a figure which shows the mode of the distance conversion scale displayed on the image display part. 距離換算スケール上に重ねて表示される被写界深度の様子を示した図である。It is the figure which showed the mode of the depth of field displayed superimposed on a distance conversion scale. 第1実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 1st Embodiment. 画像表示部に表示されるスルー画像及びそのときの被写界深度等の数値、距離換算スケール上に表示された被写界深度、関係グラフを示す図である。It is a figure which shows the through image displayed on an image display part, the numerical values, such as depth of field at that time, the depth of field displayed on the distance conversion scale, and a relationship graph. 関係グラフを拡大したときの図である。It is a figure when a relation graph is expanded. デジタルカメラの距離換算スケールの表示動作を示すフローチャートである。It is a flowchart which shows the display operation | movement of the distance conversion scale of a digital camera. その他の関係グラフの表示態様を示す図である。It is a figure which shows the display mode of another relationship graph. 第2実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 2nd Embodiment. 第2実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 2nd Embodiment. 画像表示部に表示されるスルー画像及びそのときの被写界深度等の数値、距離換算スケール上に表示された被写界深度、関係グラフを示す図である。It is a figure which shows the through image displayed on an image display part, the numerical values, such as depth of field at that time, the depth of field displayed on the distance conversion scale, and a relationship graph. 画像表示部に表示されるスルー画像及びそのときの被写界深度等の数値、距離換算スケール上に表示された被写界深度、関係グラフを示す図である。It is a figure which shows the through image displayed on an image display part, the numerical values, such as depth of field at that time, the depth of field displayed on the distance conversion scale, and a relationship graph. 第3実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 3rd Embodiment. 第3実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 3rd Embodiment. 第4実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 4th Embodiment. 第4実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 4th Embodiment. 被写界深度補正撮影処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a depth-of-field correction imaging process. 画像表示部に表示されるスルー画像及びそのときの被写界深度等の数値、距離換算スケール上に表示された被写界深度、関係グラフを示す図である。It is a figure which shows the through image displayed on an image display part, the numerical values, such as depth of field at that time, the depth of field displayed on the distance conversion scale, and a relationship graph. 被写界深度ブラケティング撮影により撮影された画像のタイムチャートを示すものである。2 is a time chart of an image taken by depth-of-field bracketing shooting. 第5実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 5th Embodiment. 第5実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 5th Embodiment. 被写界深度・露出ブラケティング撮影により撮影された画像のタイムチャートを示す図である。It is a figure which shows the time chart of the image image | photographed by depth of field and exposure bracketing imaging | photography. ユーザのブラケティング撮影用の条件の入力方法を説明するための図である。It is a figure for demonstrating the input method of the conditions for user bracketing imaging | photography. ベストショット撮影のベストショットシーンを選択させるための選択表示と、ROMに記録されているベストショットシーン毎の撮影条件を示す図である。It is a figure which shows the imaging | photography conditions for every best shot scene currently recorded on selection display for selecting the best shot scene of best shot imaging | photography, and ROM. 第6実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of 6th Embodiment.

符号の説明Explanation of symbols

1 デジタルカメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 DRAM
7 フラッシュメモリ
8 ROM
9 キー入力部
10 画像表示部
11 カードI/F
12 メモリ・カード
13 モータ駆動回路
14 撮影レンズ
15 絞り兼用シャッタ
1 Digital camera 2 CCD
3 DSP / CPU
4 TG
5 Unit circuit 6 DRAM
7 Flash memory 8 ROM
9 Key input section 10 Image display section 11 Card I / F
12 Memory Card 13 Motor Drive Circuit 14 Shooting Lens 15 Aperture Shutter

Claims (30)

被写体を撮影する撮影手段と、
被写界深度条件を設定する設定手段と、
前記設定手段により設定された被写界深度条件となるような撮影条件を取得する取得手段と、
前記取得手段により取得された撮影条件で前記撮影手段による撮影を制御する撮影制御手段と、
を備えたことを特徴とする撮影装置。
Photographing means for photographing the subject;
A setting means for setting a depth of field condition;
An acquisition means for acquiring a shooting condition that is a depth-of-field condition set by the setting means;
Photographing control means for controlling photographing by the photographing means under the photographing conditions obtained by the obtaining means;
An imaging apparatus comprising:
絞り値及び被写体距離を検出する第1の検出手段を備え、
前記取得手段は、
前記設定手段により設定された被写界深度条件及び前記第1の検出手段により検出された絞り値、被写体距離から焦点距離を算出し、該算出された焦点距離を撮影条件として取得することを特徴とする請求項1記載の撮影装置。
First detection means for detecting an aperture value and a subject distance;
The acquisition means includes
A focal length is calculated from the depth-of-field condition set by the setting means, the aperture value detected by the first detection means, and the subject distance, and the calculated focal distance is acquired as a shooting condition. The imaging apparatus according to claim 1.
前記第1の検出手段は、
ユーザによって入力された値を絞り値として検出することを特徴とする請求項2記載の撮影装置。
The first detection means includes
The photographing apparatus according to claim 2, wherein a value input by a user is detected as an aperture value.
前記第1の検出手段は、
自動露出制御によって設定された絞り値を検出することを特徴とする請求項2記載の撮影装置。
The first detection means includes
The photographing apparatus according to claim 2, wherein an aperture value set by automatic exposure control is detected.
焦点距離及び被写体距離を検出する第2の検出手段を備え、
前記取得手段は、
前記設定手段により設定された被写界深度条件及び前記第2の検出手段により検出された焦点距離、被写体距離から絞り値を算出し、該算出された絞り値を撮影条件として取得することを特徴とする請求項1記載の撮影装置。
A second detecting means for detecting a focal length and a subject distance;
The acquisition means includes
An aperture value is calculated from the depth-of-field condition set by the setting means, the focal length and the subject distance detected by the second detection means, and the calculated aperture value is acquired as an imaging condition. The imaging apparatus according to claim 1.
前記被写界深度条件は、
前方被写界深度、後方被写界深度、被写界深度限界近点、被写界深度限界遠点及び過焦点距離からなり、
前記設定手段は、
前記被写界深度条件のうち1つを設定することを特徴とする請求項1乃至5の何れかに記載の撮影装置。
The depth of field condition is:
It consists of forward depth of field, backward depth of field, depth of field limit near point, depth of field limit far point and hyperfocal distance,
The setting means includes
6. The photographing apparatus according to claim 1, wherein one of the depth-of-field conditions is set.
ユーザが被写界深度条件のうち1つを選択し、該選択された要素を数値データの形態で入力するための数値入力手段を備え、
前記設定手段は、
前記数値入力手段により入力された数値データを被写界深度条件として設定することを特徴とする請求項6記載の撮影装置。
A numerical value input means for the user to select one of the depth-of-field conditions and input the selected element in the form of numerical data;
The setting means includes
7. The photographing apparatus according to claim 6, wherein numerical data input by the numerical input means is set as a depth of field condition.
前記撮影制御手段は、
連続して前記撮影手段による被写体の撮影を制御する連続撮影制御手段を備えたことを特徴とする請求項1乃至7の何れかに記載の撮影装置。
The photographing control means includes
8. The photographing apparatus according to claim 1, further comprising continuous photographing control means for continuously controlling photographing of the subject by the photographing means.
前記設定手段は、
異なる被写界深度条件を設定していき、
前記取得手段は、
前記設定手段により設定されていく被写界深度条件となるような撮影条件を順次取得し、
前記連続撮影制御手段は、
前記取得手段により順次取得された撮影条件にしたがって、連続して前記撮影手段による撮影を制御することを特徴とする請求項8記載の撮影装置。
The setting means includes
Set different depth of field conditions,
The acquisition means includes
Sequentially acquiring shooting conditions that will be the depth of field conditions set by the setting means,
The continuous shooting control means includes
9. The photographing apparatus according to claim 8, wherein photographing by the photographing means is controlled continuously according to photographing conditions sequentially obtained by the obtaining means.
少なくともユーザがブラケティングさせる被写界深度条件の補正間隔を入力するための補正間隔入力手段を備え、
前記設定手段は、
前記補正間隔入力手段により入力された被写界深度条件の補正間隔にしたがって、被写界深度条件をブラケティングさせて異なる被写界深度条件を設定していくことを特徴とする請求項8又は9記載の撮影装置。
A correction interval input means for inputting a correction interval of at least a depth of field condition to be bracketed by the user;
The setting means includes
The different depth-of-field conditions are set by bracketing the depth-of-field condition according to the correction depth of the depth-of-field condition input by the correction interval input means. 9. The photographing apparatus according to 9.
前記補正間隔入力手段は、
更に、補正順序、撮影枚数を入力するための手段を備え、
前記設定手段は、
前記補正間隔入力手段により入力された補正間隔、補正順序、撮影枚数にしたがって、被写界深度条件をブラケティングさせて異なる被写界深度条件を設定していくことを特徴とする請求項10記載の撮影装置。
The correction interval input means includes
Furthermore, a means for inputting the correction order and the number of shots is provided.
The setting means includes
11. The depth-of-field condition is set by bracketing the depth-of-field condition in accordance with the correction interval, the correction order, and the number of shots input by the correction interval input means. Shooting device.
前記連続撮影制御手段は、
前記撮影手段による撮影を制御するごとに、露出ブラケティング撮影、WBブラケティング撮影、シャープネスブラケティング撮影、コントラストブラケティング撮影、フィルタブラケティング撮影、カラー補正ブラケティング撮影のうち少なくとも1つ以上のブラケティング撮影の制御を行うことを特徴とする9乃至11記載の撮影装置。
The continuous shooting control means includes
Each time the photographing by the photographing means is controlled, at least one of bracketing photography, exposure bracketing photography, sharpness bracketing photography, contrast bracketing photography, filter bracketing photography, and color correction bracketing photography is performed. The photographing apparatus according to 9 to 11, wherein photographing is controlled.
前記撮影手段により撮影された撮影画像を表示手段に表示させる表示制御手段を備えたことを特徴とする請求項1乃至12の何れかに記載の撮影装置。 13. The photographing apparatus according to claim 1, further comprising display control means for displaying a photographed image photographed by the photographing means on a display means. 前記表示制御手段は、
前記撮影手段により撮影された画像を表示手段に表示させるとともに、前記表示手段に表示された画像の撮影者から見た見かけ上の距離目盛を表した距離換算スケールを重ねて表示手段に表示させることを特徴とする請求項13記載の撮影装置。
The display control means includes
An image photographed by the photographing means is displayed on the display means, and a distance conversion scale representing an apparent distance scale viewed from the photographer of the image displayed on the display means is displayed on the display means in an overlapping manner. The imaging apparatus according to claim 13.
前記撮影手段により撮影された撮影画像の撮影者から見た見かけ上の距離目盛に対応する撮像素子上の位置を算出する距離位置算出手段を備え、
前記表示制御手段は、
前記距離位置算出手段により算出された距離目盛が対応する該撮像素子上の位置に該距離目盛情報を表示させることにより距離換算スケールを前記表示手段に表示させることを特徴とする請求項14記載の撮影装置。
A distance position calculating means for calculating a position on the image sensor corresponding to an apparent distance scale seen by a photographer of a photographed image photographed by the photographing means;
The display control means includes
15. The distance conversion scale is displayed on the display unit by displaying the distance scale information at a position on the image sensor corresponding to the distance scale calculated by the distance position calculation unit. Shooting device.
撮像素子上の位置に対応する前記撮影手段により撮影された撮影画像の撮影者から見た見かけ上の距離を算出する距離算出手段を備え、
前記表示制御手段は、
前記距離算出手段により算出された距離目盛が対応する前記撮像素子上の位置に該算出された距離目盛情報を表示させることにより距離換算スケールを前記表示手段に表示させることを特徴とする請求項14記載の撮影装置。
A distance calculating means for calculating an apparent distance seen from a photographer of a photographed image photographed by the photographing means corresponding to a position on an image sensor;
The display control means includes
15. The distance conversion scale is displayed on the display unit by displaying the calculated distance scale information at a position on the image sensor corresponding to the distance scale calculated by the distance calculating unit. The imaging device described.
絞り値、焦点距離及び被写体距離を検出する検出手段と、
前記検出手段によって検出された絞り値、焦点距離及び被写体距離から前記撮影手段により撮影された画像の被写界深度条件及び被写界深度を算出する算出手段を備え、
前記表示制御手段は、
前記算出手段により算出された被写界深度条件及び被写界深度の情報を前記表示手段に表示させることを特徴とする請求項14乃至16の何れかに記載の撮影装置。
Detecting means for detecting an aperture value, a focal length and a subject distance;
A calculation means for calculating a depth-of-field condition and a depth of field of an image photographed by the photographing means from an aperture value, a focal length and a subject distance detected by the detection means;
The display control means includes
17. The photographing apparatus according to claim 14, wherein information on a depth-of-field condition and a depth of field calculated by the calculating unit is displayed on the display unit.
前記表示制御手段は、
前記算出手段により算出された被写界深度の深浅を前記距離換算スケール上に重ねて前記表示手段に表示させることを特徴とする請求項17記載の撮影装置。
The display control means includes
18. The photographing apparatus according to claim 17, wherein the depth of field calculated by the calculating unit is displayed on the display unit so as to be superimposed on the distance conversion scale.
前記表示制御手段は、
前記撮影手段により撮影された撮影画像を前記表示手段に表示させるとともに、少なくとも絞り値と被写界深度の関係グラフ、焦点距離と被写界深度の関係グラフ、被写体距離と被写界深度の関係グラフのうち1つの関係グラフを表示させることを特徴とする請求項13乃至18の何れかに記載の撮影装置。
The display control means includes
A photographed image taken by the photographing means is displayed on the display means, and at least a relationship graph between an aperture value and a depth of field, a relationship graph between a focal length and a depth of field, a relationship between a subject distance and a depth of field The photographing apparatus according to claim 13, wherein one of the graphs is displayed.
前記表示制御手段は、
更に、絞り、シャッタ速度、露出量、ホワイトバランス、焦点距離、被写体距離、ズーム倍率のうち少なくとも1つ以上の情報を表示させることを特徴とする請求項13乃至19の何れかに記載の撮影装置。
The display control means includes
20. The photographing apparatus according to claim 13, further comprising at least one piece of information selected from an aperture, a shutter speed, an exposure amount, a white balance, a focal length, a subject distance, and a zoom magnification. .
前記撮影制御手段により撮影された画像を記録手段に記録する記録制御手段を備えたことを特徴とする請求項1乃至20の何れかに記載の撮影装置。 21. The photographing apparatus according to claim 1, further comprising recording control means for recording an image photographed by the photographing control means in a recording means. 前記記録制御手段は、
前記撮影制御手段により得られた画像データとともに、少なくとも該画像データが得られたときの被写界深度条件を該画像データと関連付けて前記記録手段に記録することを特徴とする請求項21記載の撮影装置。
The recording control means includes
The image data obtained by the photographing control means and at least a depth-of-field condition when the image data is obtained are recorded in the recording means in association with the image data. Shooting device.
ユーザが撮影モードを選択するための第1の選択手段と、
前記第1の選択手段により選択された撮影モードに対応する被写界深度条件を取得する第1の条件取得手段を備え、
前記設定手段は、
前記第1の条件取得手段により取得された被写界深度条件を設定することを特徴とする請求項1乃至22の何れかに記載の撮影装置。
First selection means for the user to select a shooting mode;
First condition acquisition means for acquiring a depth-of-field condition corresponding to the shooting mode selected by the first selection means;
The setting means includes
23. The photographing apparatus according to claim 1, wherein a depth-of-field condition acquired by the first condition acquiring unit is set.
前記撮影制御手段は、
前記第1の選択手段により選択された撮影モードの種類を判別し、該判別結果に基づいて適切なブラケティング撮影の制御を行うことを特徴とする請求項23記載の撮影装置。
The photographing control means includes
24. The photographing apparatus according to claim 23, wherein the type of photographing mode selected by the first selecting means is discriminated, and appropriate bracketing photographing control is performed based on the discrimination result.
前記記録手段に記録された画像データを選択する第2の選択手段と、
前記第2の選択手段により選択された画像データに関連付けられて記録されている被写界深度条件を取得する第2の条件取得手段と、
を備え、
前記設定手段は、
前記第2の条件取得手段により取得された被写界深度条件を設定することを特徴とする請求項1乃至24の何れかに記載の撮影装置。
Second selection means for selecting image data recorded in the recording means;
Second condition acquisition means for acquiring a depth-of-field condition recorded in association with the image data selected by the second selection means;
With
The setting means includes
25. The photographing apparatus according to claim 1, wherein a depth-of-field condition acquired by the second condition acquisition unit is set.
被写体を撮影する撮影手段と、
撮影手段により撮影された撮影画像の単位目盛毎の画角がそれぞれ対応する撮像素子上の位置を算出する画角位置算出手段と、
前記単位目盛毎の画角がそれぞれ写し込むことができる最短距離を算出する距離算出手段と、
前記撮影手段により撮影された撮影画像とともに、前記画角位置算出手段により算出された単位目盛毎の画角が対応する撮像素子上の位置に前記距離算出手段により算出された最短距離の情報を前記表示手段に表示させる表示制御手段と、
を備えたことを特徴とする撮影装置。
Photographing means for photographing the subject;
Angle-of-view position calculating means for calculating the position on the image sensor corresponding to the angle of view for each unit scale of the captured image captured by the imaging means;
Distance calculating means for calculating the shortest distance at which the angle of view for each unit scale can be imprinted;
The shortest distance information calculated by the distance calculation means is calculated at the position on the image sensor corresponding to the angle of view for each unit scale calculated by the angle-of-view position calculation means together with the captured image taken by the imaging means. Display control means for displaying on the display means;
An imaging apparatus comprising:
被写体を撮影する撮影手段と、
撮像素子上の位置に対応する前記撮影手段により撮影された撮影画像の単位目盛毎の画角を算出する画角算出手段と、
前記算出手段により算出された単位目盛毎の画角がそれぞれ写し込むことができる最短距離を算出する距離算出手段と、
前記撮影手段により撮影された撮影画像とともに、前記画角算出手段により算出された単位目盛毎の画角に対応する前記撮像素子上の位置に前記距離算出手段により算出された最短距離の情報を表示させることを特徴とする撮影装置。
Photographing means for photographing the subject;
An angle-of-view calculating means for calculating an angle of view for each unit scale of the photographed image taken by the photographing means corresponding to the position on the image sensor;
Distance calculating means for calculating the shortest distance at which the angle of view for each unit scale calculated by the calculating means can be imprinted;
The shortest distance information calculated by the distance calculation unit is displayed at a position on the image sensor corresponding to the field angle of each unit scale calculated by the field angle calculation unit together with the captured image captured by the imaging unit. An imaging apparatus characterized by causing the image to be captured.
被写体を撮影する撮影手段と、
絞り値、焦点距離、及び被写体距離を検出する検出手段と、
前記検出手段により検出された絞り値、焦点距離及び被写体距離から前記撮影手段により撮影された画像の被写界深度を算出する算出手段と、
前記撮影手段により撮影された画像と前記算出手段により算出された被写界深度の情報を表示手段に表示させる表示制御手段と、
を備えたことを特徴とする撮影装置。
Photographing means for photographing the subject;
Detecting means for detecting an aperture value, a focal length, and a subject distance;
Calculating means for calculating a depth of field of an image photographed by the photographing means from an aperture value, a focal length and a subject distance detected by the detecting means;
Display control means for displaying on the display means information taken by the photographing means and information on the depth of field calculated by the calculating means;
An imaging apparatus comprising:
前記表示制御手段は、
前記撮影手段により撮影された撮影画像を前記表示手段に表示させるとともに、少なくとも被写界深度と絞り値の関係グラフ、焦点距離と被写界深度の関係グラフ、被写体距離と被写界深度の関係グラフのうち1つの関係グラフを表示させることを特徴とする請求項26乃至29記載の撮影装置。
The display control means includes
A photographed image taken by the photographing means is displayed on the display means, and at least a relationship graph between depth of field and aperture value, a relationship graph between focal length and depth of field, and a relationship between subject distance and depth of field. 30. The photographing apparatus according to claim 26, wherein one of the graphs is displayed.
被写体を撮影する撮影処理と、
被写界深度条件を設定する処理と、
この処理により設定された被写界深度条件となるような撮影条件を取得する処理と、
この処理により取得された撮影条件で前記撮影処理による撮影を制御する撮影制御処理と、
を含み、上記各処理をコンピュータで実行させることを特徴とするプログラム。
A shooting process for shooting the subject;
Processing to set the depth of field condition;
A process of acquiring a shooting condition that is a depth-of-field condition set by this process;
A shooting control process for controlling shooting by the shooting process under the shooting conditions acquired by this process;
A program characterized by causing a computer to execute the processes described above.
JP2004159653A 2004-05-28 2004-05-28 Imaging apparatus and program thereof Expired - Fee Related JP4582295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004159653A JP4582295B2 (en) 2004-05-28 2004-05-28 Imaging apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004159653A JP4582295B2 (en) 2004-05-28 2004-05-28 Imaging apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2005338614A true JP2005338614A (en) 2005-12-08
JP4582295B2 JP4582295B2 (en) 2010-11-17

Family

ID=35492254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004159653A Expired - Fee Related JP4582295B2 (en) 2004-05-28 2004-05-28 Imaging apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4582295B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008124827A (en) * 2006-11-13 2008-05-29 Casio Comput Co Ltd Photographing control device, photographing control method, and program
JP2009080458A (en) * 2007-09-04 2009-04-16 Ricoh Co Ltd Imaging device and imaging method
JP2011007867A (en) * 2009-06-23 2011-01-13 Nikon Corp Focus detecting means and camera
JP2011109492A (en) * 2009-11-19 2011-06-02 Canon Inc Imaging device and method for processing image
JP2012103722A (en) * 2007-06-20 2012-05-31 Ricoh Co Ltd Imaging apparatus
JP2013514004A (en) * 2009-12-11 2013-04-22 エコスター テクノロジーズ エル.エル.シー. 3D recording and display system using proximal and distal focused images
JP2014123809A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging apparatus, imaging system, and imaging apparatus control method
JP2014211574A (en) * 2013-04-19 2014-11-13 キヤノン株式会社 Imaging apparatus, and control method and program therefor
JP2015231193A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Imaging apparatus, control method of the same, program, and storage medium
JP2019113856A (en) * 2019-02-20 2019-07-11 キヤノン株式会社 Image processing device, image processing method, and program
JP2020046475A (en) * 2018-09-14 2020-03-26 キヤノン株式会社 Image processing device and control method therefor
WO2023276446A1 (en) * 2021-06-30 2023-01-05 富士フイルム株式会社 Imaging device, imaging method, and program

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6262335A (en) * 1985-09-13 1987-03-19 Sony Corp Camera
JPH03287142A (en) * 1990-04-02 1991-12-17 Casio Comput Co Ltd Automatic exposure controller
JPH04211211A (en) * 1990-02-14 1992-08-03 Asahi Optical Co Ltd Camera having depth priority zoom mode
JPH05103241A (en) * 1991-10-08 1993-04-23 Canon Inc Picture recorder
JPH05232371A (en) * 1991-03-11 1993-09-10 Nikon Corp Device for displaying depth of field
JPH05297433A (en) * 1992-04-16 1993-11-12 Hitachi Ltd Control method for camera
JPH0678210A (en) * 1992-08-26 1994-03-18 Olympus Optical Co Ltd Image reproducing device
JPH06194714A (en) * 1992-06-02 1994-07-15 Nikon Corp Automatic bracketing device for camera
JPH086102A (en) * 1994-06-15 1996-01-12 Samsung Aerospace Ind Ltd Device and method for continuous photographing for classified depth stage of field of camera
JPH0880791A (en) * 1994-09-13 1996-03-26 Trans Tron:Kk On-vehicle rear confirmation device
JPH10197938A (en) * 1996-12-27 1998-07-31 Fuji Photo Optical Co Ltd Camera displaying focusing attainable distance range
JP2000101891A (en) * 1998-09-22 2000-04-07 Olympus Optical Co Ltd Image pickup device and manual setting adaptor fitted to the electronic image pickup device
JP2002122776A (en) * 2000-10-17 2002-04-26 Sharp Corp Autofocus controller, digital still camera and digital video camera equipped with the same, autofocus control method and recording medium having autofocus control program recorded thereon
JP2002305750A (en) * 2001-04-06 2002-10-18 Sony Corp Camera and continuous photographing method of the camera

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6262335A (en) * 1985-09-13 1987-03-19 Sony Corp Camera
JPH04211211A (en) * 1990-02-14 1992-08-03 Asahi Optical Co Ltd Camera having depth priority zoom mode
JPH03287142A (en) * 1990-04-02 1991-12-17 Casio Comput Co Ltd Automatic exposure controller
JPH05232371A (en) * 1991-03-11 1993-09-10 Nikon Corp Device for displaying depth of field
JPH05103241A (en) * 1991-10-08 1993-04-23 Canon Inc Picture recorder
JPH05297433A (en) * 1992-04-16 1993-11-12 Hitachi Ltd Control method for camera
JPH06194714A (en) * 1992-06-02 1994-07-15 Nikon Corp Automatic bracketing device for camera
JPH0678210A (en) * 1992-08-26 1994-03-18 Olympus Optical Co Ltd Image reproducing device
JPH086102A (en) * 1994-06-15 1996-01-12 Samsung Aerospace Ind Ltd Device and method for continuous photographing for classified depth stage of field of camera
JPH0880791A (en) * 1994-09-13 1996-03-26 Trans Tron:Kk On-vehicle rear confirmation device
JPH10197938A (en) * 1996-12-27 1998-07-31 Fuji Photo Optical Co Ltd Camera displaying focusing attainable distance range
JP2000101891A (en) * 1998-09-22 2000-04-07 Olympus Optical Co Ltd Image pickup device and manual setting adaptor fitted to the electronic image pickup device
JP2002122776A (en) * 2000-10-17 2002-04-26 Sharp Corp Autofocus controller, digital still camera and digital video camera equipped with the same, autofocus control method and recording medium having autofocus control program recorded thereon
JP2002305750A (en) * 2001-04-06 2002-10-18 Sony Corp Camera and continuous photographing method of the camera

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008124827A (en) * 2006-11-13 2008-05-29 Casio Comput Co Ltd Photographing control device, photographing control method, and program
JP2012103722A (en) * 2007-06-20 2012-05-31 Ricoh Co Ltd Imaging apparatus
JP2009080458A (en) * 2007-09-04 2009-04-16 Ricoh Co Ltd Imaging device and imaging method
JP2011007867A (en) * 2009-06-23 2011-01-13 Nikon Corp Focus detecting means and camera
JP2011109492A (en) * 2009-11-19 2011-06-02 Canon Inc Imaging device and method for processing image
JP2013514004A (en) * 2009-12-11 2013-04-22 エコスター テクノロジーズ エル.エル.シー. 3D recording and display system using proximal and distal focused images
JP2014123809A (en) * 2012-12-20 2014-07-03 Canon Inc Imaging apparatus, imaging system, and imaging apparatus control method
JP2014211574A (en) * 2013-04-19 2014-11-13 キヤノン株式会社 Imaging apparatus, and control method and program therefor
JP2015231193A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Imaging apparatus, control method of the same, program, and storage medium
JP2020046475A (en) * 2018-09-14 2020-03-26 キヤノン株式会社 Image processing device and control method therefor
JP7204387B2 (en) 2018-09-14 2023-01-16 キヤノン株式会社 Image processing device and its control method
JP2019113856A (en) * 2019-02-20 2019-07-11 キヤノン株式会社 Image processing device, image processing method, and program
WO2023276446A1 (en) * 2021-06-30 2023-01-05 富士フイルム株式会社 Imaging device, imaging method, and program
JP7477726B2 (en) 2021-06-30 2024-05-01 富士フイルム株式会社 Imaging device, imaging method, and program

Also Published As

Publication number Publication date
JP4582295B2 (en) 2010-11-17

Similar Documents

Publication Publication Date Title
JP4518131B2 (en) Imaging method and apparatus
US9888182B2 (en) Display apparatus
JP4338047B2 (en) Imaging device
JP4644883B2 (en) Imaging device
JP4291408B2 (en) Imaging device
CN110493528A (en) Photographic device and its control method
JP2007263926A (en) Range finder and method for the same
JP2007311861A (en) Photographic apparatus and method
JP4582295B2 (en) Imaging apparatus and program thereof
JP2016143035A (en) Focus adjustment device and focus adjustment method
JP2013117650A (en) Digital camera
JP2006349744A (en) Imaging apparatus
JP2007133301A (en) Autofocus camera
JP2006308813A (en) Imaging apparatus with focus bracket function
JP4949717B2 (en) In-focus position determining apparatus and method
JP2007225897A (en) Focusing position determination device and method
JP5153021B2 (en) Imaging apparatus, imaging method, and program
JP4867136B2 (en) Imaging apparatus and program thereof
JP2013205675A (en) Imaging apparatus
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2009033386A (en) Photographing device and method
JP2013210572A (en) Imaging device and control program of the same
JP5846928B2 (en) Imaging device
JP2008046556A (en) Camera
JP2008111897A (en) Autofocus device and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100817

R150 Certificate of patent or registration of utility model

Ref document number: 4582295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees