JP2680244B2 - How to confirm depth of field by simulation - Google Patents

How to confirm depth of field by simulation

Info

Publication number
JP2680244B2
JP2680244B2 JP5159516A JP15951693A JP2680244B2 JP 2680244 B2 JP2680244 B2 JP 2680244B2 JP 5159516 A JP5159516 A JP 5159516A JP 15951693 A JP15951693 A JP 15951693A JP 2680244 B2 JP2680244 B2 JP 2680244B2
Authority
JP
Japan
Prior art keywords
depth
field
subject
aperture value
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5159516A
Other languages
Japanese (ja)
Other versions
JPH0772376A (en
Inventor
銘 郎 謝
世 卿 頼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Priority to JP5159516A priority Critical patent/JP2680244B2/en
Publication of JPH0772376A publication Critical patent/JPH0772376A/en
Application granted granted Critical
Publication of JP2680244B2 publication Critical patent/JP2680244B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Diaphragms For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、オートフォーカス
一眼レフレックスカメラの自動被写体距離測定及びオー
トフォーカス機能と中央処理ユニットを用いて、任意の
絞り値による被写界深度を開放絞り状態で視認できるシ
ミュレーションによる被写界深度確認方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention makes it possible to visually recognize a depth of field at an arbitrary aperture value in an open aperture state by using an automatic subject distance measuring and autofocus function of an autofocus single lens reflex camera and a central processing unit. A method for confirming the depth of field by simulation.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】写真に
おいて、被写界深度は画像表現の良否にかかわる重要な
要素であるが、専門の撮影者であっても、時には不適当
な被写界深度の設定によって作品の失敗を招くことがあ
る。写真撮影時にレンズの絞りを小さくすればする程、
被写界深度はより深くなる。又、絞りを大きくすればす
る程、被写界深度は浅くなる。レンズの絞りを小さく絞
ると入射光量は減少し、撮影者はファインダーで被写体
像を見ることが難しくなるので一般の一眼レフレックス
カメラでは開放絞りで被写体を照準し、シャッターボタ
ンを押した瞬間に絞りを設定値に絞って露出する自動絞
り機構が備えられている。よって、撮影者がファインダ
ーで見る開放絞りの被写界深度と、開放絞り以下の絞り
値による実際の撮影画面の被写界深度とは異なる。この
ため、シャッターを押す前にあらかじめ被写界深度の範
囲を判断する必要が生じる場合がある。従来の被写界深
度の判断方法を以下に述べる。 レンズの鏡筒に記されている被写界深度目もりで被
写界深度を読取る。この方法は各絞り値に対してそれぞ
れ異なる被写界深度範囲を表示する目盛りによって設定
絞り値における被写界深度を判読する。この方法はレン
ズの絞りを変更するたびに、視線をファインダーからレ
ンズの被写界深度目もりに移さなければならないので操
作が不便である上、目もりの指示範囲もあまり厳密でな
いため大略的な合焦範囲を知ることができるが、背景或
いは前景の実際のボケの程度を知ることができない。
2. Description of the Related Art In photography, the depth of field is an important factor in determining the quality of image expression, but even a professional photographer sometimes finds an unsuitable depth of field. Depending on the depth setting, the work may fail. The smaller the aperture of the lens when taking a picture,
The depth of field is deeper. Also, the larger the aperture, the shallower the depth of field. If the aperture of the lens is reduced, the amount of incident light will decrease, and it will be difficult for the photographer to see the subject image in the viewfinder.Therefore, ordinary single-lens reflex cameras aim at the subject with the wide aperture and the aperture is pressed the moment the shutter button is pressed. It is equipped with an automatic aperture mechanism that exposes the aperture to a set value. Therefore, the depth of field of the open aperture that the photographer sees in the viewfinder is different from the depth of field of the actual shooting screen when the aperture value is equal to or less than the open aperture. Therefore, it may be necessary to determine the range of the depth of field in advance before pressing the shutter. A conventional method for determining the depth of field will be described below. Read the depth of field with the depth-of-field index marked on the lens barrel. In this method, the depth of field at a set aperture value is read by a scale that displays a different depth of field range for each aperture value. This method is inconvenient because it requires moving the line of sight from the viewfinder to the depth of field of the lens each time the aperture of the lens is changed. The focus range can be known, but the actual degree of blurring of the background or foreground cannot be known.

【0003】 一眼レフレックスカメラの絞り込みボ
タンを利用してファインダーの画面の被写界深度を観察
する。絞り込みボタンを押すとレンズの絞りは設定した
絞りに縮小するが、絞りを縮小したファインダー画面は
暗いので、被写界深度と背景及び前景のボケ程度を視認
することが難しい。
The depth of field of the screen of the finder is observed using the narrowing button of the single-lens reflex camera. When the aperture button is pressed, the aperture of the lens is reduced to the set aperture, but since the viewfinder screen with the reduced aperture is dark, it is difficult to visually recognize the depth of field and the degree of blurring of the background and foreground.

【0004】上述のように従来の被写界深度の判断方法
は諸種の欠点があるため、被写界深度の判断が難しく、
専門の撮影者といえども撮影時に被写界深度の判断違い
で作品の失敗を招くことがあるものである。
As described above, the conventional methods for determining the depth of field have various drawbacks, so that it is difficult to determine the depth of field.
Even a professional photographer can cause a work to fail due to a difference in depth of field when shooting.

【0005】そこで、設定した絞り値及び焦点距離にお
ける背景或いは前景のボケ程度を開放絞りのままファイ
ンダーを通して視認できるようにして、被写界深度の判
断錯誤を減少し、写真撮影を更に容易にするために解決
すべき課題が生じてくるのであり、本発明は上記課題を
解決することを目的とする。
Therefore, the degree of blurring of the background or foreground at the set aperture value and focal length can be visually recognized through the viewfinder with the open aperture, to reduce the depth of field judgment and error and to facilitate photography. Therefore, a problem to be solved occurs, and an object of the present invention is to solve the above problem.

【0006】[0006]

【課題を解決するための手段】本発明は前記の課題を解
決する手段として、従来の伝統的なカメラに於て、絞り
を絞った状態の被写界深度を確認することが容易ではな
い欠点に対して改良を加えたものである。即ち、現在の
一眼レフレックスカメラにおいて一般的なハードウェア
であるオートフォーカス機構とその中央処理ユニットを
用いて、任意の焦点距離設定と絞り設定における被写界
深度の演算を行い、開放絞りのまま任意の背景または近
景の被写体に対して焦点を移動して、実際の撮影時の絞
り及び焦点距離の設定におけるボケの程度をファインダ
ー画像に表現するシミュレーションによる被写界深度視
認方法を提供するものである。これにより、撮影者はフ
ァインダー画像を観察して設定した絞り値における被写
界深度の状態を視認することができる。
As a means for solving the above-mentioned problems, the present invention has a drawback that it is not easy to confirm the depth of field in a state where a diaphragm is narrowed in a conventional traditional camera. It is a modification of the. That is, using the autofocus mechanism, which is general hardware in current single-lens reflex cameras, and its central processing unit, the depth of field is calculated at any focal length setting and aperture setting, and the aperture remains open. It provides a method of visual confirmation of depth of field by simulating by expressing the degree of blurring in the setting of the aperture and focal length during actual shooting on the viewfinder image by moving the focus on a subject in the background or near view. is there. Thereby, the photographer can visually recognize the state of the depth of field at the set aperture value by observing the viewfinder image.

【0007】[0007]

【発明の実施の形態】前述の如く、従来の伝統的な一眼
レフレックスカメラは、絞りを変えない状態に於ては、
ファインダーで実際の被写界深度の状況を判別すること
ができない欠点をもっている。然るに、現在のカメラ
は、自動露出やオートフォーカス機能など、自動化の程
度が発展しているので、そのオートフォーカス機能と中
央処理ユニットを結合して被写界深度の演算を行い、撮
影者をしてファインダーからの観察で被写界深度を知る
ことができる独特なシミュレーション方法を開発したも
のである。下記に本発明の方法と原理を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION As described above, in the conventional traditional single-lens reflex camera, when the aperture is not changed,
It has the drawback that the actual depth of field cannot be determined with the viewfinder. However, since the degree of automation of the current cameras such as automatic exposure and autofocus function has advanced, the autofocus function and the central processing unit are combined to calculate the depth of field, and the photographer is We have developed a unique simulation method that allows you to know the depth of field by observing from a viewfinder. The method and principle of the present invention will be described below.

【0008】レンズの被写界深度(合焦範囲)は下記公
式で求められる。
The depth of field (focus range) of the lens is obtained by the following formula.

【0009】 被写界深度遠方限界点TF =(D×f2 )/(f2 −D×C×N)‥‥(1) 被写界深度前方限界点TN =(D×f2 )/(f2 +D×C×N)‥‥(2) 但し、D=主要被写体距離 f=レンズの焦点距離 C=合焦判断の基準となる画像の最小錯乱円の直径 N=レンズの絞り値Depth of field distant limit point T F = (D × f 2 ) / (f 2 −D × C × N) (1) Depth of field front limit point T N = (D × f 2 ) / (F 2 + D × C × N) (2) where D = main subject distance f = lens focal length C = diameter of the circle of least confusion of the image that is the reference for focusing determination N = lens aperture value

【0010】上述の二公式中に各変数の既知数を代入す
ると、被写界深度遠方限界点TF と被写界深度前方限界
点TN を求めることができる。また、被写界深度範囲に
おける錯乱円の直径も逆算できる。同様に上述二公式を
利用し、更に下記に説明する本発明の方法と組合せれば
観察したい背景或いは前景物体の鮮明度を演算によって
求めることができる。
By substituting the known number of each variable into the above two formulas, the depth of field far limit point T F and the depth of field front limit point T N can be obtained. Also, the diameter of the circle of confusion in the depth of field range can be calculated backward. Similarly, the sharpness of the background or foreground object to be observed can be calculated by using the above two formulas and further combining with the method of the present invention described below.

【0011】尚、被写界深度演算公式は上述した二つの
被写界深度演算公式に限定するものではなく、他に種々
の被写界深度演算公式が知られており、他の類似の演算
公式を運用して被写界深度の範囲を算出することもで
き、それらの被写界深度演算結果も全く許容範囲内にあ
る。
The depth-of-field calculation formula is not limited to the above-mentioned two depth-of-field calculation formulas, and various other depth-of-field calculation formulas are known, and other similar calculations. The formula can also be used to calculate the depth of field range, and the depth of field calculation results are also within the permissible range.

【0012】図1に示す如く、カメラを主要被写体Aに
向けて照準するとオートフォーカス機構により主要被写
体Aの距離Dを得ることができる。その後、カメラを移
動して観察したい背景被写体B(或いは前景被写体f)
に向けて照準すると、観察したい背景被写体Bの距離T
を求めることができる。そして、背景距離Tと撮影者が
設定した絞り値Nを、公式1或いはその他の被写界深度
演算公式に代入すると、背景物体Bが絞り値Nの状況に
おいてフィルムに結像する際の最小錯乱円Cを求めるこ
とができる(若し前景fを観察した時は公式2を利用す
る)。そして、求められた最小錯乱円Cとレンズの開放
絞り値を公式1、或いはその他の被写界深度模擬演算公
式に代入すると、仮想主要被写体A′の距離Dnew を求
めることができる。その後にオートフォーカス機構を駆
動してレンズの焦点を仮想主要被写体A′の距離Dnew
に移す。この時ファインダーから見た背景被写体Bの映
像は、設定絞り値で実際に撮影したフィルム上の鮮明度
(シャープネス)で見える。上述の方法と公式によっ
て、撮影者をして絞りをかえない状況において、はっき
りとファインダーから前景或いは背景被写体の映像の鮮
明度を視認でき、これにより設定絞り値における被写界
深度の状況を知り得る。
As shown in FIG. 1, when the camera is aimed at the main subject A, the distance D of the main subject A can be obtained by the autofocus mechanism. Then, move the camera to the background subject B (or foreground subject f) that you want to observe.
Aiming at the target, the distance T of the background subject B you want to observe
Can be requested. Substituting the background distance T and the aperture value N set by the photographer into Formula 1 or another formula for calculating the depth of field, the minimum confusion when the background object B is imaged on the film in the situation of the aperture value N. The circle C can be determined (use formula 2 if you observe the foreground f). Then, by substituting the obtained minimum circle of confusion C and the open aperture value of the lens into Formula 1 or another formula for simulating the depth of field, the distance Dnew of the virtual main subject A'can be obtained. After that, the auto focus mechanism is driven to focus the lens to the distance Dnew of the virtual main subject A '.
Transfer to At this time, the image of the background subject B viewed from the viewfinder can be seen with the sharpness on the film actually photographed at the set aperture value. With the above method and formula, the sharpness of the image of the foreground or background subject can be clearly seen from the viewfinder in a situation where the photographer cannot change the aperture, and thus the depth of field at the set aperture value can be known. obtain.

【0013】図2は本発明のハードウェア系統を示した
もので、データ処理に用いる中央処理ユニット、被写体
とカメラの距離を測定する距離測定系統、正確な露出に
要する絞りとシャッタ速度を決定するための測光系統、
観測したい背景或いは前景の物体を拡大し、被写体の鮮
明度の判別を容易にするためのズーム系統と、迅速且つ
正確に焦点を合致させるとともに、適宜焦点移動ができ
るオートフォーカス機構で構成している。
FIG. 2 shows a hardware system of the present invention. A central processing unit used for data processing, a distance measuring system for measuring a distance between an object and a camera, an aperture and a shutter speed required for accurate exposure are determined. Metering system for
It is composed of a zoom system for enlarging the object in the background or foreground to be observed and facilitating the determination of the sharpness of the subject, and an auto-focus mechanism that allows quick and accurate focusing and appropriate focus movement. .

【0014】本発明のハードウェア構成は、現在のオー
トフォーカス一眼レフレックスカメラのものと全く同様
である。本発明は距離測定系統で主要被写体及び主要被
写体の前後の任意の被写体の距離を測定し、中央処理ユ
ニットによって上述の方法で被写界深度のシミュレーシ
ョン演算を経て、更にオートフォーカス系統で自動的に
焦点調整を行う。すなわち、主要被写体に焦点を合わせ
た状態における主要被写体の前または後の被写体の設定
絞り値で撮影されたときのボケ程度をファインダ画像で
再現し、ボケ程度を確認した後に自動測光系統による正
確な露出値で撮影することによって撮影者の意図する撮
影効果を得ることができる。若しズームレンズを使用す
れば、被写界深度観測過程において、ズーム系統を利用
して比較的長い焦点距離で物体を観察することができ
て、鮮明度の判別が容易になる。
The hardware configuration of the present invention is exactly the same as that of the current autofocus single-lens reflex camera. The present invention measures the distance between a main subject and an arbitrary subject before and after the main subject by a distance measuring system, and performs a simulation calculation of the depth of field by the above-described method by the central processing unit and further automatically by an autofocus system. Adjust the focus. That is, the degree of blurring when the subject is photographed at the set aperture value before or after the main subject in the state of being focused on the main subject is reproduced in the viewfinder image, and after confirming the degree of blurring, accurate blurring by the automatic metering system is performed. By shooting at the exposure value, the shooting effect intended by the photographer can be obtained. If a zoom lens is used, an object can be observed at a relatively long focal length using a zoom system in the depth-of-field observation process, and the sharpness can be easily determined.

【0015】図3は本発明の被写界深度シミュレーショ
ン方法のフローチャートで、本発明の各操作ステップを
示している。図4は本発明が応用しているソフトウェア
のデータ処理過程を示していて、本発明の中央処理ユニ
ットのシミュレーション演算の各ステップを示してい
る。先ず、シャッタ速度優先モードやプログラム露出モ
ード等の種々の撮影モードから本発明の被写界深度優先
モードを選択してセットする。その後カメラを移動して
ファインダ内に撮影画面をフレーミングし、任意の絞り
値Nold を決定する。主要被写体に対して照準すること
によって主要被写体の距離Dold が測定され、中央処理
ユニットがこのときのレンズ焦点距離fold 、被写体距
離Dold 、絞り値Nold 等のデータを記憶する。
FIG. 3 is a flow chart of the depth-of-field simulation method of the present invention, showing each operation step of the present invention. FIG. 4 shows a data processing process of software to which the present invention is applied, and shows each step of the simulation operation of the central processing unit of the present invention. First, the depth of field priority mode of the present invention is selected and set from various shooting modes such as the shutter speed priority mode and the program exposure mode. After that, the camera is moved to frame the shooting screen in the viewfinder, and an arbitrary aperture value Nold is determined. The distance Dold of the main subject is measured by aiming at the main subject, and the central processing unit stores data such as the lens focal length fold, the subject distance Dold, and the aperture value Nold.

【0016】この後、撮影者はカメラを移動してボケ程
度を観察したい背景または近景の任意の被写体に対して
照準する。若しこの被写体を拡大して観察したい場合
は、ズーム系統を利用してレンズ焦点距離を長焦点方向
へ変更して被写体像を拡大する。ここで、測距機構によ
って背景または近景被写体の距離TF またはTN が求め
られ、中央処理ユニットが距離Tと焦点距離fnew のデ
ータを記憶する。撮影者が背景被写体のフレーミングと
照準、ズーム等の動作を完了した後、中央処理ユニット
は被写界深度のシミュレーション演算を行う。中央処理
ユニットの被写界深度演算の第一ステップは、背景また
は近景の任意の被写体の距離Tと主要被写体距離Dold
の大小を比較して、任意の被写体が主要被写体の前景或
いは背景であるかを判別する。
After this, the photographer moves the camera and aims at an arbitrary subject in the background or in the near view whose degree of blurring is to be observed. If it is desired to magnify and observe this subject, the zoom system is used to change the lens focal length to the long focal length direction to magnify the subject image. Here, the distance measuring mechanism determines the distance T F or T N of the background or near object, and the central processing unit stores the data of the distance T and the focal length fnew. After the photographer completes operations such as framing, aiming, and zooming of the background subject, the central processing unit performs a simulation calculation of the depth of field. The first step of the depth of field calculation of the central processing unit is the distance T of an arbitrary subject in the background or the near view and the main subject distance Dold.
Is compared to determine whether any subject is the foreground or background of the main subject.

【0017】若し被写体が背景被写体であれば、下式を
採用して該被写体の実画面における最小錯乱円Cを求め
る。
If the subject is a background subject, the following equation is adopted to obtain the minimum circle of confusion C on the real screen of the subject.

【0018】 TF =(Dold ×fold2)/(fold2−Dold ×C×Nold )‥‥(3)T F = (Dold × fold 2 ) / (fold 2 −Dold × C × Nold) (3)

【0019】若し被写体が前景被写体であれば、下式を
採用して該被写体の実画面の最小錯乱円Cを求めだす。
If the subject is a foreground subject, the following equation is adopted to find the minimum circle of confusion C on the real screen of the subject.

【0020】 TN =(Dold ×fold2)/(fold2+Dold ×C×Nold )‥‥(4)T N = (Dold × fold 2 ) / (fold 2 + Dold × C × Nold) (4)

【0021】任意の被写体の実画面の最小錯乱円Cを算
出した後、最小錯乱円C、ズーム後の焦点距離fnew 、
レンズの開放絞り値Nnew を上述の被写界深度演算公式
に代入して仮想主要被写体距離Dnew を算出する。この
外、上述のステップ中に於てその他の被写界深度の演算
公式を採用してもよい。その演算で得た値も要求に符合
する。
After calculating the minimum circle of confusion C of the actual screen of an arbitrary subject, the minimum circle of confusion C, the focal length fnew after zooming,
The virtual main subject distance Dnew is calculated by substituting the open aperture value Nnew of the lens into the above depth-of-field calculation formula. Besides, other formulas for calculating the depth of field may be adopted in the above steps. The value obtained by the calculation also meets the request.

【0022】中央処理ユニットが被写界深度のシミュレ
ーション演算を終了した後、オートフォーカス系統を駆
動してカメラのレンズ焦点を仮想主要被写体距離Dnew
に移す。このとき開放絞り値Nnew による前記背景被写
体または前景被写体の画像の錯乱円Cの直径は、距離D
old 、レンズ焦点距離fold 、設定絞り値Nold による
実際の撮影画像の錯乱円Cの直径と等しくなる。よっ
て、開放絞り値Nnew 、レンズ焦点距離fnew の状態
で、主要被写体距離Dold 、レンズ焦点距離fold、設
定絞り値Nold による実際の撮影条件における背景また
は近景被写体の鮮明度をファインダーで視認することが
できる。
After the central processing unit completes the simulation calculation of the depth of field, the autofocus system is driven to move the lens focus of the camera to the virtual main subject distance Dnew.
Transfer to At this time, the diameter of the circle of confusion C of the image of the background subject or the foreground subject due to the open aperture value Nnew is the distance D
old, the lens focal length fold, and the set aperture value Nold are equal to the diameter of the circle of confusion C of the actual captured image. Therefore, in the state of the open aperture value Nnew and the lens focal length fnew, the sharpness of the background or the near-distance subject in the actual photographing condition can be visually recognized by the viewfinder by the main subject distance Dold, the lens focal length fold, and the set aperture value Nold. .

【0023】若し、撮影者が背景または近景被写体の鮮
明度に対して不満足であれば、設定絞り値Nold を変え
れば、中央処理ユニットは改めて被写界深度のシミュレ
ーション演算を行い、更に焦点fnew の調整を行って撮
影者をして新たにそのボケの程度を観察させることがで
きる。撮影者はまたレンズ焦点距離をズーミングして画
面を更に拡大することによってボケの程度を拡大して観
察することができる。
If the photographer is dissatisfied with the sharpness of the background or near-field subject, the central processing unit performs a simulation calculation of the depth of field again by changing the set aperture value Nold, and further the focus fnew. Can be adjusted to allow the photographer to newly observe the degree of blur. The photographer can also magnify and observe the degree of blur by zooming the lens focal length to further magnify the screen.

【0024】背景または近景被写体の鮮明度が要求に合
った後、更に他の被写体に対して同上の観察をすること
ができる。観察終了後、カメラのオートフォーカス系統
は自動的に焦点を主要被写体距離Dold に復元し、且
つ、レンズ焦点距離もfold に戻す。よって、最初に主
要被写体をフレーミングした状態に復元する。その後再
び測光系統で光量を測光し、設定絞り値におけるシャッ
ター速度が決定され、撮影者は只シャッターを押すだけ
で良好な作品を撮影することができる。
After the sharpness of the background or near object has been met, the same observation can be performed on another object. After the observation is completed, the autofocus system of the camera automatically restores the focus to the main subject distance Dold, and also returns the lens focal length to fold. Therefore, the main subject is first restored to the framing state. After that, the amount of light is measured again by the photometry system, the shutter speed at the set aperture value is determined, and the photographer can shoot a good work simply by pressing the shutter.

【0025】本発明の図3と図4に示すフローで実際に
物体のボケの程度をシミュレーションする外、背景或い
は近景物体の被写界深度演算時に、錯乱円Cを略0.0
3mm(35mm型オートフォーカスカメラにおける合焦
判断の最小錯乱円直径とみなされている)に仮設定し、
被写界深度範囲の公式を利用して直接被写界深度遠距離
点TF と被写界深度近距離点TN を求め、距離数値デー
タの形態でファインダー内に表示して撮影者の参考に供
してもよい。又、ファインダー内にバーグラフ等の適当
なシンボルで上述のTF とTN を撮影距離に相対して表
示し、撮影者もまたこれによって直接ファインダーに現
われる被写界深度範囲を撮影の参考としてもよい。これ
によればレンズの焦点移動による被写界深度のシミュレ
ーションを行わないため撮影に要する時間を短縮するこ
とができる。
3 and 4 of the present invention, the degree of blurring of the object is actually simulated, and the circle of confusion C is set to about 0.0 when the depth of field of the background or near object is calculated.
Temporarily set to 3 mm (which is regarded as the smallest circle of confusion for determining the focus in a 35 mm autofocus camera),
The depth-of-field range formula is used to directly determine the depth-of-field long-distance point T F and the depth-of-field short-distance point T N, which are displayed in the viewfinder in the form of numerical distance data for reference by the photographer. You may use it. In addition, the above-mentioned T F and T N are displayed in the viewfinder by an appropriate symbol such as a bar graph relative to the shooting distance, and the photographer also uses the depth of field range directly appearing in the viewfinder as a reference for shooting. Good. According to this, since the simulation of the depth of field due to the focus movement of the lens is not performed, the time required for shooting can be shortened.

【0026】[0026]

【発明の効果】本発明はカメラを開放絞りのままで、撮
影時の絞り設定における背景または近景被写体の鮮明度
を観察することができる。従って、設定した撮影状態の
被写界深度を正確に視認することができ、撮影者はファ
インダーを覗いたままで随時被写界深度の程度を調整で
きて操作が容易である。また、任意の背景被写体または
前景被写体の鮮明度を確認でき、意図した通りの被写界
深度効果による撮影が容易に行える。
According to the present invention, it is possible to observe the sharpness of the background or near-view subject in the aperture setting at the time of shooting, while keeping the camera at the open aperture. Therefore, the depth of field in the set shooting state can be visually recognized accurately, and the photographer can adjust the degree of depth of field at any time while looking through the finder, and the operation is easy. Further, the sharpness of an arbitrary background subject or foreground subject can be confirmed, and the intended depth-of-field effect can be easily used for shooting.

【図面の簡単な説明】[Brief description of the drawings]

【図1】カメラと被写体の位置を示し、被写界深度シミ
ュレーションによる焦点移動の解説図である。
FIG. 1 is a diagram illustrating the positions of a camera and a subject, and is an explanatory diagram of focus movement by a depth of field simulation.

【図2】自動露出オートフォーカスカメラの制御系統解
説図。
FIG. 2 is an explanatory diagram of a control system of an automatic exposure autofocus camera.

【図3】本発明の被写界深度確認方法による撮影操作フ
ローチャート。
FIG. 3 is a flowchart of a shooting operation according to the depth-of-field confirmation method of the present invention.

【図4】本発明の被写界深度シミュレーションのデータ
処理フローチャート。
FIG. 4 is a data processing flowchart of the depth of field simulation of the present invention.

【符号の説明】[Explanation of symbols]

A 主要被写体 A’ 仮想主要被写体 B 背景被写体 F 近景被写体 D 主要被写体の距離 Dnew 仮想主要被写体の距離 T 背景被写体の距離 A main subject A'virtual main subject B background subject F near-field subject D main subject distance Dnew virtual main subject distance T background subject distance

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 オートフォーカスカメラにおいて、レン
ズの絞り込み操作を行うことなく、設定絞り値における
被写界深度をファインダー画像で確認できるシミュレー
ションによる被写界深度確認方法であって、 a.絞り値、レンズ焦点距離、及び被写体距離の各パラ
メータに基づいて被写界深度を算出する計算式を設定 b.前記カメラのオートフォーカス機構による、主要被
写体距離DoId と、前景または背景物体の距離Tの測定 c.主要被写体距離DoId におけるレンズ焦点距離foI
d の演算 d.撮影を行う任意の第一の絞り値NoId の設定 e.前記カメラにおいて、前記カメラのファインダで被
写体を観察する際の絞り値である第二の絞り値Nnew の
読込み f.主要被写体距離DoId 、前景被写体或いは背景被写
体距離T及びレンズ焦点距離foId と第一の絞り値NoI
d 、第二の絞り値Nnew を前記計算式に代入し、主要被
写体距離DoId で第一の絞り値NoId の状態における前
記前景被写体或いは背景被写体の画像鮮明度と、前記第
二の絞り値Nnew の状態における前記前景被写体或いは
背景被写体の画像鮮明度とが等しくなる仮想の主要被写
体距離Dnew を算出 g.前記カメラのオートフォーカス機構により、レンズ
の焦点を主要被写体距離DoId から仮想主要被写体距離
Dnew に移動 以上のステップを実行することにより、前記第一絞り値
NoId の状態における前景被写体或いは背景被写体の仮
想鮮明度を、前記第二の絞り値Nnew の状態で前記ファ
インダに顕示するシミュレーションによる被写界深度確
認方法。
1. A method of confirming a depth of field by a simulation, which is capable of confirming the depth of field at a set aperture value in a viewfinder image without performing a lens aperture operation in an autofocus camera, comprising: a. Set a calculation formula to calculate the depth of field based on each parameter of aperture value, lens focal length, and subject distance b. Measurement of the main subject distance DoId and the distance T of the foreground or background object by the autofocus mechanism of the camera c. Lens focal length foI at main subject distance DoId
Calculation of d d. Setting of arbitrary first aperture value NoId for shooting e. Reading a second aperture value Nnew, which is an aperture value when observing an object with a viewfinder of the camera, in the camera f. Main subject distance DoId, foreground subject or background subject distance T, lens focal length foId, and first aperture value NoI
d, substituting the second aperture value Nnew into the calculation formula, the image sharpness of the foreground subject or the background subject in the state of the first aperture value NoId at the main subject distance DoId, and the second aperture value Nnew A virtual main subject distance Dnew at which the image sharpness of the foreground subject or the background subject in the state is equal to g. The focus of the lens is moved from the main subject distance DoId to the virtual main subject distance Dnew by the autofocus mechanism of the camera. By executing the above steps, the virtual sharpness of the foreground subject or the background subject in the state of the first aperture value NoId. Depth of field confirmation method by simulation in which the degree is shown in the viewfinder in the state of the second aperture value Nnew.
【請求項2】 オートフォーカスカメラにおいて、レン
ズの絞り込み操作を行うことなく、設定絞り値における
被写界深度をファインダー画像で確認できるシミュレー
ションによる被写界深度確認方法であって、 a.前記被写界深度計算式は下記の公式を採用する: (i) 前景被写体を視準するとき: T=(D×f2 )/(f2 +D×C×N) (ii)背景被写体を視準するとき: T=(D×f2 )/(f2 −D×C×N) 前記公式に於て、 D:主要被写体距離 T:前景或いは背景被写体の距離 f:レンズの焦点距離 C:前景被写体或いは背景被写体の画像における最小錯
乱円の直径 N:レンズの絞り値 b.前述仮想主体距離の見積りステップは: (i) 前記公式を利用して、測距機構を介して測定された
前記主要被写体距離Dold 並びにレンズ焦点距離foId
を前記公式中の変数D並びに変数fに代入し、前景或い
は背景物体の距離Tを前記変数Tに代入し、更に、任意
に設定した第一絞り値Nold を前記変数Nに代入して、
前記前景被写体画像または背景被写体画像の最小錯乱円
直径Cを算出する。 (ii)前記最小錯乱円直径Cを前記公式の変数Cに代入
し、前景被写体或いは背景被写体の距離Tを前記変数T
に代入し、前記第二絞り値Nnew を前記変数Nに代入
し、及び、前記レンズ焦点距離foId を前記変数fに代
入して変数Dを算出する。変数Dの値は、前記の仮想主
体距離Dnew である。 (iii)前記カメラのズームレンズをズーミングした場合
は、ステップb(ii)中の前記変数fとしてズーム後のレ
ンズの焦点距離fnew を代入する。 以上のステップを実行することを特徴とする請求項1記
載のシミュレーションによる被写深度確認方法。
2. A method of confirming a depth of field by a simulation, which is capable of confirming the depth of field at a set aperture value in a viewfinder image without performing a lens aperture operation in an autofocus camera, comprising: a. The depth of field calculation formula adopts the following formula: (i) When collimating a foreground subject: T = (D × f 2 ) / (f 2 + D × C × N) (ii) a background subject When collimating: T = (D × f 2 ) / (f 2 −D × C × N) In the above formula, D: main subject distance T: foreground or background subject distance f: lens focal length C : Diameter of circle of least confusion in image of foreground subject or background subject N: Aperture value of lens b. The steps of estimating the virtual subject distance are as follows: (i) Using the formula, the main subject distance Dold and the lens focal length foId measured through a distance measuring mechanism.
Is substituted into the variables D and f in the formula, the distance T of the foreground or background object is substituted into the variable T, and the arbitrarily set first aperture value Nold is substituted into the variable N,
A minimum confusion circle diameter C of the foreground subject image or the background subject image is calculated. (ii) Substituting the minimum confusion circle diameter C into the formula variable C, the distance T of the foreground subject or the background subject to the variable T
, The second aperture value Nnew is assigned to the variable N, and the lens focal length foId is assigned to the variable f to calculate a variable D. The value of the variable D is the virtual subject distance Dnew. (iii) When the zoom lens of the camera is zoomed, the focal length fnew of the lens after zooming is substituted as the variable f in step b (ii). The depth of field confirmation method by simulation according to claim 1, wherein the above steps are executed.
【請求項3】 オートフォーカスカメラにおいて、レン
ズの絞り込み操作を行うことなく、設定絞り値における
被写界深度をファインダー画像で確認できるシミュレー
ションによる被写界深度確認方法であって、 前記第一の絞り値NoId の変更に応じて、前記仮想主体
距離Dnew の演算ステップ、及び前記レンズの焦点を前
記仮想主体距離Dnew に移動するステップを反復して行
うことを特徴とする請求項1又は2記載のシミュレーシ
ョンによる被写界深度確認方法。
3. A depth-of-field confirmation method by simulation, which enables the depth-of-field at a set aperture value to be confirmed in a viewfinder image without performing a lens aperture operation in an autofocus camera. 3. The simulation according to claim 1, wherein the step of calculating the virtual subject distance Dnew and the step of moving the focal point of the lens to the virtual subject distance Dnew are repeated according to the change of the value NoId. Depth of field confirmation method by.
【請求項4】 オートフォーカスカメラにおいて、レン
ズの絞り込み操作を行うことなく、設定絞り値における
被写界深度をファインダー画像で確認できるシミュレー
ションによる被写界深度確認方法であって、 前記第二の絞り値Nnew は前記オートフォーカスカメラ
のレンズの最大開放絞り値であることを特徴とする請求
項1又は2記載のシミュレーションによる被写界深度確
認方法。
4. A method of confirming a depth of field by a simulation, which is capable of confirming a depth of field at a set aperture value in a viewfinder image without performing a lens aperture operation in an autofocus camera. The method for confirming depth of field by simulation according to claim 1 or 2, wherein the value Nnew is a maximum aperture value of the lens of the autofocus camera.
JP5159516A 1993-06-29 1993-06-29 How to confirm depth of field by simulation Expired - Lifetime JP2680244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5159516A JP2680244B2 (en) 1993-06-29 1993-06-29 How to confirm depth of field by simulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5159516A JP2680244B2 (en) 1993-06-29 1993-06-29 How to confirm depth of field by simulation

Publications (2)

Publication Number Publication Date
JPH0772376A JPH0772376A (en) 1995-03-17
JP2680244B2 true JP2680244B2 (en) 1997-11-19

Family

ID=15695482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5159516A Expired - Lifetime JP2680244B2 (en) 1993-06-29 1993-06-29 How to confirm depth of field by simulation

Country Status (1)

Country Link
JP (1) JP2680244B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3984660B2 (en) * 1995-06-01 2007-10-03 キヤノン株式会社 Imaging device
CN100357822C (en) * 2002-05-31 2007-12-26 金宝电子工业股份有限公司 Automatic focusing method cooperated with depth of field

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3005304B2 (en) * 1991-01-30 2000-01-31 京セラ株式会社 Depth of field confirmation mode mechanism of AF camera

Also Published As

Publication number Publication date
JPH0772376A (en) 1995-03-17

Similar Documents

Publication Publication Date Title
US5384615A (en) Ambient depth-of-field simulation exposuring method
US5604560A (en) Camera apparatus
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5241096B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2018097253A (en) Focus adjustment unit and focus adjustment method
US7805068B2 (en) Imaging apparatus
JP4693709B2 (en) Image processing apparatus and image processing method
US4998126A (en) Automatic focus adjustment camera
JP4560420B2 (en) Imaging device
JP2680244B2 (en) How to confirm depth of field by simulation
JP2009159092A (en) Imaging apparatus and control method thereof
JP2006093859A (en) Camera mounted with twin lens image pickup system and camera capable of stereoscopic photographing
JP2006065080A (en) Imaging device
JP2020008785A (en) Imaging apparatus
JP2002072048A (en) Image pickup device and focal distance conversion device
JP5018932B2 (en) Imaging device
JP2988793B2 (en) Optical equipment
JP2016142853A (en) Control device of imaging device
JP2008040084A (en) Optical device
JP3302132B2 (en) Imaging device
JP2015118231A (en) Imaging device
JPH04264431A (en) Camera capable of panoramic photographing
JPH03107932A (en) Photographing controller for camera
JP2926596B2 (en) Interchangeable lens camera
JP2017134322A (en) Lens device