JPH1138313A - Optical device and camera - Google Patents

Optical device and camera

Info

Publication number
JPH1138313A
JPH1138313A JP20833397A JP20833397A JPH1138313A JP H1138313 A JPH1138313 A JP H1138313A JP 20833397 A JP20833397 A JP 20833397A JP 20833397 A JP20833397 A JP 20833397A JP H1138313 A JPH1138313 A JP H1138313A
Authority
JP
Japan
Prior art keywords
area
camera
areas
main subject
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20833397A
Other languages
Japanese (ja)
Inventor
Hitoshi Oonoda
仁 大野田
Terutake Kadohara
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP20833397A priority Critical patent/JPH1138313A/en
Publication of JPH1138313A publication Critical patent/JPH1138313A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To unnecessitate complicated operation such as focusing on a main object for several times at the time of performing photographing, in which the depth of field is given priority, and to prevent a deeper depth and a longer exposure time than needed. SOLUTION: As the outline operation of a camera, distance inside a screen and the two-dimensional distribution of defocusing quantity are firstly measured (a step 101 as a distribution information measuring means). Next, the inside of the screen is divided into plural subject areas based on distribution information, and one or more main subject areas are, at least, detected from the plural subject areas (the step 102 as an area detecting means). Then, the focal position of an optical system and a diaphragm are adjusted so as to make the entire area of the main subject area detected in a focused state (the steps 103-106 as adjusting means).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自動焦点調節と深
度調節の機能を有した光学装置及びカメラの改良に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in an optical device and a camera having automatic focus adjustment and depth adjustment functions.

【0002】[0002]

【従来の技術】自動露出調節機能と自動焦点調節機能を
有するカメラにおいて、被写界深度優先という撮影モー
ドが特公平7−82180号等により開示されている。
これは撮影者が意図した複数の被写体すべてに対してピ
ントが合うように撮影可能とするもので、カメラの焦点
検出領域が1つの場合は一番手前と一番奥に位置する被
写体それぞれに自動焦点調節機能を用いてピントを合わ
せ、その時の被写界輝度と2つの被写体の奥行き差から
最適な撮影ピント位置と絞りをカメラが自動的に設定す
るものである。
2. Description of the Related Art In a camera having an automatic exposure adjustment function and an automatic focus adjustment function, a photographing mode in which priority is given to the depth of field is disclosed in Japanese Patent Publication No. 7-82180.
This makes it possible to take a picture so that all the subjects intended by the photographer are in focus. If the camera has only one focus detection area, the camera automatically focuses on each of the frontmost and farthest subjects. Focusing is performed using a focus adjustment function, and the camera automatically sets an optimum photographing focus position and aperture based on the luminance of the field at that time and the depth difference between the two subjects.

【0003】一方、複数の焦点検出領域を備えたカメラ
においては、複数の焦点検出領域からの一番手前と一番
奥の検出結果を用いる事で、上記撮影動作を一度の動作
へと簡略化したものが知られている。
On the other hand, in a camera having a plurality of focus detection areas, the photographing operation is simplified to a single operation by using the detection results of the front and back from the plurality of focus detection areas. Is known.

【0004】他方、複数の方向に存在する物体までの距
離を光学的に測定する技術が、本出願人より特公平4−
67607号により開示されている。これは、被写界に
存在する物体の距離分布情報を得た後、物体の距離分布
情報に基づき被写界中の主被写体の存在領域を推測する
といった技術である。
On the other hand, a technique for optically measuring the distance to an object existing in a plurality of directions has been disclosed by the present applicant in Japanese Patent Application Laid-Open Publication No. Hei.
67607. This is a technique in which, after obtaining distance distribution information of an object present in an object scene, an area where the main subject exists in the object scene is estimated based on the distance distribution information of the object.

【0005】ここで、従来行われていた典型的な主被写
体領域推測方法について説明する。
Here, a typical method of estimating a main subject area, which has been conventionally performed, will be described.

【0006】図17(a)のシーンをCCDなどを用い
たステレオカメラなどで撮影する。ステレオカメラで得
られる互いに視差を伴った二つの画像を、それぞれ「m
×n」個のブロックに分割する。一方の画像のあるブロ
ック内の信号と、他方のカメラで撮影した対応するブロ
ック内に信号の間で公知の相関演算を行うと、三角測量
の原理により、前ブロック内の物体までの距離やデフォ
ーカスを測定することができる。この測定をすべてのブ
ロックに対して行うことにより、図17(b)のような
「m×n」ブロックからなる距離分布情報が得られる。
The scene of FIG. 17A is photographed by a stereo camera using a CCD or the like. Two images with parallax obtained by a stereo camera are referred to as “m
Xn blocks. When a well-known correlation operation is performed between a signal in one block of one image and a signal in a corresponding block captured by the other camera, the distance and data to an object in the previous block are calculated according to the principle of triangulation. Focus can be measured. By performing this measurement for all blocks, distance distribution information composed of “m × n” blocks as shown in FIG. 17B is obtained.

【0007】次に、被写界を構成する各物体を画面上で
分離するために領域分割(グルーピング)を行う。グル
ーピングが行われると前述の「m×n」ブロックから成
る被写界空間は、図17(c)のように物体毎に領域分
割される。(図中の斜線部分は像信号のコントラスト不
足などで、相関演算結果の信頼性が低いと判別された領
域である。) 領域分割(グルーピング)の手法として、被写界空間を
構成するブロックと、これに隣接するブロックに関する
二つのパラメータの類似度を比較して、類似度が高けれ
ば同一物体、類似度が低ければ別の物体と判別する方法
が存在する。前記パラメータとして用いられる情報は、
緻密な距離分布データが得られる場合には面の法線ベク
トルであることが多く、この従来例のように比較的荒い
距離分布データの場合には単純に距離値やデフォーカス
値などが用いられる。
Next, region division (grouping) is performed in order to separate each object constituting the scene on the screen. When the grouping is performed, the object space composed of the aforementioned “m × n” blocks is divided into regions for each object as shown in FIG. (The shaded area in the figure is an area where the reliability of the correlation operation result is determined to be low due to insufficient contrast of the image signal, etc.) As a method of area division (grouping), the blocks constituting the object space and There is a method of comparing the similarity between two parameters related to a block adjacent thereto, and discriminating the same object if the similarity is high and the different object if the similarity is low. Information used as the parameter,
In the case where dense distance distribution data is obtained, it is often a normal vector of a surface, and in the case of relatively rough distance distribution data as in this conventional example, a distance value or a defocus value is simply used. .

【0008】例えば、図17(b)の各ブロックの距離
情報に対して、隣接する二つのブロックの距離情報を比
較してこの距離の差が所定のしきい値以内であれば「二
つのブロックを構成する物体は同一物体を形成する」と
判別し、また距離の差が所定のしきい値より大きければ
「二つのブロックを構成する物体は別物体である」と判
別する。すべてのブロックとその隣接関係にあるブロッ
クとの間で、前述の判別を行うことで、画面全体を物体
毎に領域分けすることができ、分割された各領域は一つ
の物体を表すグループとして扱うことができる。
For example, with respect to the distance information of each block in FIG. 17B, the distance information of two adjacent blocks is compared. Are determined to form the same object ", and if the distance difference is greater than a predetermined threshold, it is determined that" the objects forming the two blocks are different objects ". By performing the above-described determination between all blocks and blocks adjacent to each other, the entire screen can be divided into regions for each object, and each divided region is treated as a group representing one object be able to.

【0009】次に、撮影空間を構成する各領域(各グル
ープ)の特性を評価して、すべてのグループの中から主
被写体を表すグループを決定する。
Next, the characteristics of each region (each group) constituting the photographing space are evaluated, and a group representing the main subject is determined from all the groups.

【0010】例えば図17(c)の場合、図示した1〜
7の各グループすべてについて、平均的な距離や、領域
の幅、高さ、画面上の位置などの特性をそれぞれ演算し
て、それらを総合評価して主被写体と考えられる領域を
判別する。
For example, in the case of FIG.
For each of the groups 7, characteristics such as an average distance, an area width, a height, and a position on a screen are respectively calculated, and comprehensive evaluation is performed to determine an area considered as a main subject.

【0011】例えば、以下の(1)式のような主被写体
度評価関数が考えられる。
For example, a main subject degree evaluation function as shown in the following equation (1) can be considered.

【0012】 (主被写体度)=W1 ×(幅)×(高さ)+W2 /(画面上中心からの距離)+W3 (平均距離)…(1) 上記(1)式において、W1 ,W2 ,W3 は重み付けの
定数、画面中心からの距離は画面中心と領域の重心位置
との距離であり、又平均距離は領域内の全ブロックの平
均距離を表している。この主被写体度をすべての領域に
対して演算して、この主被写体度が最も大きい被写体を
主被写体として判別する。
(Main subject degree) = W 1 × (width) × (height) + W 2 / (distance from center on screen) + W 3 (average distance) (1) In the above equation (1), W 1 , W 2 and W 3 are weighting constants, the distance from the center of the screen is the distance between the center of the screen and the position of the center of gravity of the area, and the average distance represents the average distance of all blocks in the area. The main subject degree is calculated for all areas, and the subject having the highest main subject degree is determined as the main subject.

【0013】次の主被写体として判別された領域に焦点
が合うように、主被写体領域内の距離情報に基づき一つ
の焦点調節距離を決定した後、レンズを駆動して焦点を
合わせる。
After one focus adjustment distance is determined based on the distance information in the main subject area so as to focus on the next area determined as the main subject, the lens is driven to focus.

【0014】[0014]

【発明が解決しようとする課題】ところで、カメラの焦
点検出領域が1点のみの場合での被写界深度優先撮影モ
ードでは、上記のように複数回被写体にピントを合わせ
る撮影方法となってしまい、初心者レベルの撮影者には
煩わしいものとなっていた。
By the way, in the depth of field priority photographing mode in which the camera has only one focus detection area, the photographing method focuses on the subject a plurality of times as described above. However, it was troublesome for beginner level photographers.

【0015】一方、複数の焦点検出領域を備えていたと
しても実際にピントを合わせたい被写体位置に焦点検出
領域が合わないと、必要以上に深度が深くなったり、露
光時間が長くなり手振れの原因になるなどの問題があっ
た。
On the other hand, even if a plurality of focus detection areas are provided, if the focus detection area does not match the position of the subject to be actually focused, the depth becomes unnecessarily deep or the exposure time becomes longer, which may cause camera shake. And so on.

【0016】(発明の目的)本発明の第1の目的は、主
要対象物に複数回ピントを合わせるといった煩わしい操
作を不要とすると共に、必要以上に深い深度となってし
まうことを防止することのできる光学装置を提供しよう
とするするものである。
(Object of the Invention) A first object of the present invention is to eliminate the troublesome operation of focusing on a main object a plurality of times and to prevent the depth from becoming deeper than necessary. It is an object of the present invention to provide a possible optical device.

【0017】本発明の第2の目的は、自動設定された主
要対象領域数に対して、必要に応じて撮影者の意志を反
映させた領域数に変更することのできる光学装置を提供
しようとするものである。
A second object of the present invention is to provide an optical device capable of changing the number of main target areas automatically set to the number of areas reflecting the intention of the photographer, if necessary. Is what you do.

【0018】本発明の第3の目的は、被写界深度優先撮
影を行う際に、主被写体に複数回ピントを合わせなけれ
ばならないといった煩わしい操作を不要とすると共に、
必要以上に深い深度や長い露光時間となってしまうこと
を防止することのできるカメラを提供しようとするする
ものである。
A third object of the present invention is to eliminate the troublesome operation of having to focus on a main subject a plurality of times when performing depth of field priority photographing, and
It is an object of the present invention to provide a camera capable of preventing an unnecessarily deep depth and a long exposure time.

【0019】本発明の第4の目的は、自動設定された主
被写体領域数に対して、必要に応じて撮影者の意志を反
映させたその領域数に変更し、撮影者の意志を反映させ
た被写界深度優先撮影を行うことのできるカメラを提供
しようとするものである。
A fourth object of the present invention is to change the number of main subject areas automatically set to the number of areas reflecting the intention of the photographer, if necessary, to reflect the intention of the photographer. It is an object of the present invention to provide a camera capable of performing depth-of-field priority shooting.

【0020】[0020]

【課題を解決するための手段】上記第1の目的を達成す
るために、請求項1〜3記載の本発明は、画面内の距離
又はデフォーカス量の二次元分布を測定する分布情報測
定手段と、前記分布情報に基づき画面内を複数の対象領
域に分割し、これら複数の対象領域から主要対象領域を
少なくとも1つ以上検出する領域検出手段と、前記検出
された主対象領域全域が合焦状態となるように、光学系
の焦点位置と絞りを調節する調節手段とを有した光学装
置とするものである。
In order to achieve the first object, according to the present invention, there is provided a distribution information measuring means for measuring a two-dimensional distribution of a distance or a defocus amount in a screen. Area detecting means for dividing the screen into a plurality of target areas based on the distribution information and detecting at least one or more main target areas from the plurality of target areas, and focusing on the entire detected main target area This is an optical device having adjusting means for adjusting the focal position of the optical system and the aperture so as to be in a state.

【0021】また、上記第2の目的を達成するために、
請求項2記載の本発明は、領域検出手段により自動的に
検出された、順位付きで検出された主要対象物領域に対
して、外部操作によりその主要対象領域数を変更するた
めの操作部材を有した光学装置とするものである。
In order to achieve the second object,
According to a second aspect of the present invention, an operation member for changing the number of main target areas by an external operation with respect to the main target areas detected with ranking automatically detected by the area detecting means is provided. Optical device.

【0022】また、上記第3の目的を達成するために、
請求項4〜8記載の本発明は、画面内の距離又はデフォ
ーカス量の二次元分布を測定する分布情報測定手段と、
前記分布情報に基づき画面内を複数の被写体領域に分割
し、これら複数の被写体領域から主被写体領域を少なく
とも1つ以上検出する領域検出手段と、前記検出された
主被写体領域全域が合焦状態となるように、光学系の焦
点位置と絞りを調節する調節手段とを有したカメラとす
るものである。
Also, in order to achieve the third object,
The present invention according to claims 4 to 8, wherein a distribution information measuring means for measuring a two-dimensional distribution of a distance or a defocus amount in a screen,
An area detecting unit that divides the screen into a plurality of subject areas based on the distribution information, and detects at least one main subject area from the plurality of subject areas; and In this case, the camera has an adjusting means for adjusting the focal position of the optical system and the aperture.

【0023】また、上記第4の目的を達成するために、
請求項5記載の本発明は、領域検出手段により自動的に
検出された、順位付きで検出された主被写体領域に対し
て、外部操作によりその主被写体域数を変更するための
操作部材を有したカメラとするものである。
In order to achieve the fourth object,
According to a fifth aspect of the present invention, there is provided an operating member for changing the number of main subject areas by an external operation with respect to the main subject areas detected in order automatically detected by the area detecting means. Camera.

【0024】[0024]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.

【0025】自動焦点調節カメラの被写界深度優先撮影
モードを例に、主要被写体自動選択結果に対して一軸の
回転操作部材(いわゆるダイヤル)を用いて任意に主被
写体領域候補数を変更可能なシステムの、本発明の実施
の第1の形態について以下に詳述する。
Taking the depth-of-field priority shooting mode of the automatic focusing camera as an example, the number of main subject area candidates can be arbitrarily changed using a uniaxial rotary operation member (so-called dial) for the main subject automatic selection result. The first embodiment of the present invention of the system will be described in detail below.

【0026】図1は本発明の実施の第1の形態に係るカ
メラの基本構成要素のブロック図である。
FIG. 1 is a block diagram of basic components of a camera according to the first embodiment of the present invention.

【0027】図中、51は被写界中の任意の場所の距離
を測定する距離分布測定部、52は撮影画面内から主被
写体が存在する領域を検出する主被写体領域検出部、5
3は前記主被写体領域検出手段52で自動的に決定され
た主被写体領域の数を手動の入力に従って変更する主被
写体領域数変更部材、54は決定された主被写体領域の
情報に従って撮影光学系に対する焦点調節距離決定部、
55は被写体輝度を測定する測光手段、57は前記主被
写体領域検出部52で検出された各主被写体領域それぞ
れに対する焦点調節情報から必要な被写界深度を求める
被写界深度決定部、56は前記被写界深度決定部57で
求められた撮影に必要な被写界深度と前記測光手段55
で求められた輝度情報から実際に撮影する際のシャッタ
速度を決定するシャッタ速度決定部、59は撮影光学
系、58はレンズを駆動して焦点を調節するレンズ駆動
装置、60の点線は、実際にはマイクロコンピュータの
CPU及びRAMとROMで具現化される領域を表して
いる。この中で、距離分布測定部51と測光部55は該
マイクロコンピュータと測定用光学系から、そして主被
写体領域数変更部材53は該マイクロコンピュータと操
作部材から具現化されることから、点線を跨いだ表現と
なっている。
In the figure, 51 is a distance distribution measuring section for measuring the distance of an arbitrary place in the scene, 52 is a main subject area detecting section for detecting an area where the main subject is present in the photographing screen, and 5.
3 is a main subject area number changing member for changing the number of main subject areas automatically determined by the main subject area detecting means 52 in accordance with a manual input. Focusing distance determination unit,
55 is a photometric means for measuring the brightness of the subject, 57 is a depth of field determining unit for obtaining a necessary depth of field from the focus adjustment information for each of the main subject regions detected by the main subject region detecting unit 52, and 56 is Depth of field necessary for photographing obtained by the depth of field determination unit 57 and the photometric unit 55
A shutter speed determining unit that determines a shutter speed when actually taking a picture from the luminance information obtained in step 5, a photographing optical system 59, a lens driving device 58 that drives a lens to adjust the focus, and a dotted line 60 Indicates an area embodied by the CPU and the RAM and the ROM of the microcomputer. Among them, the distance distribution measuring unit 51 and the photometric unit 55 are embodied by the microcomputer and the measuring optical system, and the main subject area number changing member 53 is embodied by the microcomputer and the operating member. It is an expression.

【0028】以下に各部の詳しい動作と全体の処理の流
れを、図2を用いて説明する。
The detailed operation of each unit and the flow of the entire processing will be described below with reference to FIG.

【0029】撮影者が不図示のシャッタボタンなどを押
すことにより、ステップ(100)を経由して撮影処理
が開始される。
When the photographer presses a shutter button (not shown) or the like, the photographing process is started via step (100).

【0030】ステップ(101)において、距離分布測
定部51により被写界の距離分布を測定するサブルーチ
ンが呼び出される。この距離分布の測定は、光学系とマ
イクロコンピュータにより実施される。以下に、光学系
の構成及びマイクロコンピュータによるサブルーチンの
実施内容について説明する。
In step (101), a subroutine for measuring the distance distribution of the object scene by the distance distribution measuring unit 51 is called. The measurement of the distance distribution is performed by an optical system and a microcomputer. Hereinafter, the configuration of the optical system and the contents of the subroutine executed by the microcomputer will be described.

【0031】図3は、被写界の距離を検出する為のカメ
ラの光学構成要素の配置図であり、図中、1は撮影レン
ズ、8はフィールドレンズ、9は二次結像レンズ、10
はエリアセンサである。
FIG. 3 is a view showing the arrangement of optical components of a camera for detecting the distance of the field. In FIG. 3, reference numeral 1 denotes a photographing lens, 8 denotes a field lens, 9 denotes a secondary imaging lens,
Is an area sensor.

【0032】前記エリアセンサ10の二つの撮影画面1
0a,10b上には各々撮影レンズ1のお互いに異なる
瞳位置からの光束が導かれ、フィールドレンズ8、二次
結像レンズ9により定まる結像倍率で再結像される。こ
のエリアセンサ10は撮影レンズ1に対して撮影フィル
ム面と光学的に等価な位置にあり、撮影画面10a,1
0bは各々撮影画面の一部または撮影画面に等しい視野
を有している。
Two photographing screens 1 of the area sensor 10
Light beams from different pupil positions of the photographing lens 1 are respectively guided onto 0a and 10b, and are re-imaged at an imaging magnification determined by the field lens 8 and the secondary imaging lens 9. The area sensor 10 is located at a position optically equivalent to the photographic film surface with respect to the photographic lens 1, and has a photographic screen 10a,
0b has a field of view equal to a part of the photographing screen or the photographing screen.

【0033】図4は、図3に示した検出光学系をカメラ
に適した場合のレイアウトを示したものであり、図中、
6はクイックリターンミラー、18はペンタプリズム、
19は分割プリズム、20は反射ミラであり、他は図3
と同様である。
FIG. 4 shows a layout when the detection optical system shown in FIG. 3 is suitable for a camera.
6 is a quick return mirror, 18 is a pentaprism,
19 is a split prism, 20 is a reflection mirror and the others are shown in FIG.
Is the same as

【0034】又図5は、図4のレイアウトをカメラ上部
方向より見た図である。
FIG. 5 is a view of the layout of FIG. 4 as viewed from above the camera.

【0035】以上の様な構成により、所定の視差を持っ
た撮影画像10a,10bが得られる。
With the above configuration, the photographed images 10a and 10b having a predetermined parallax can be obtained.

【0036】尚、前述の構成を有するカメラについて
は、特願平5−278433等で詳細に開示されてい
る。
The camera having the above configuration is disclosed in detail in Japanese Patent Application No. 5-278433.

【0037】図6は、上記の如き各部を備えたカメラの
具体的な構成の一例を示す回路図であり、先ずその構成
について説明する。
FIG. 6 is a circuit diagram showing an example of a specific configuration of a camera having the above-described components. First, the configuration will be described.

【0038】図6に於て、PRSはカメラの制御装置
で、例えば、内部にCPU(中央処理装置),ROM,
RAM,A/D変換機能を有する1チップのマイクロコ
ンピュータである。このカメラの制御装置(以下、マイ
コンと記す)PRSはROMに格納されたカメラのシー
ケンス・プログラムに従って、自動露出制御機能,自動
焦点調節機能,フィルムの巻上げ・巻戻し等のカメラの
一連の動作を行っている。その為にマイコンPRSは、
通信用信号SO,SI,SCLK、通信選択信号CKC
M,CDDR,CICCを用いて、カメラ本体内の周辺
回路及びレンズ内制御装置と通信を行って、各々の回路
やレンズを制御する。
In FIG. 6, PRS is a camera control device, for example, a CPU (central processing unit), ROM,
It is a one-chip microcomputer having a RAM and an A / D conversion function. The camera control device (hereinafter referred to as a microcomputer) PRS performs a series of camera operations such as an automatic exposure control function, an automatic focus adjustment function, and film winding / rewinding in accordance with a camera sequence program stored in a ROM. Is going. For that, the microcomputer PRS
Communication signals SO, SI, SCLK, communication selection signal CKC
By using M, CDDR, and CICC, communication is performed with a peripheral circuit in the camera body and a control device in the lens to control each circuit and lens.

【0039】SOはマイコンPRSから出力されるデー
タ信号、SIはマイコンPRSに入力されるデータ信
号、SCLKは信号SO,SIの同期クロックである。
SO is a data signal output from the microcomputer PRS, SI is a data signal input to the microcomputer PRS, and SCLK is a synchronous clock of the signals SO and SI.

【0040】LCMはレンズ通信バッファ回路であり、
カメラが動作中のときにはレンズ用電源端子VLに電力
を供給するとともに、マイコンPRSからの選択信号C
LCMが高電位レベル(以下、‘H’と略記し、低電位
レベルは‘L’と略記する)のときには、カメラとレン
ズ間の通信バッファトなる。
LCM is a lens communication buffer circuit,
When the camera is in operation, power is supplied to the lens power supply terminal VL and a selection signal C from the microcomputer PRS is supplied.
When the LCM is at a high potential level (hereinafter, abbreviated as “H” and the low potential level is abbreviated as “L”), communication between the camera and the lens is buffered.

【0041】マイコンPRSがCLCMを‘H’にし
て、SCLKに同期して所定のデータをSOから送出す
ると、レンズ通信バッファ回路LCMはカメラ・レンズ
間通信接点を介して、SCLK,SOの各々のバッファ
信号LCK,DCLをレンズへ出力する。それと同時に
レンズからの信号DLCのバッファ信号をSIに出力
し、マイコンPRSは同期してSIからレンズのデータ
を入力する。
When the microcomputer PRS sets CLCM to "H" and sends out predetermined data from the SO in synchronization with SCLK, the lens communication buffer circuit LCM causes each of SCLK and SO to pass through the camera-lens communication contact. The buffer signals LCK and DCL are output to the lens. At the same time, a buffer signal of the signal DLC from the lens is output to the SI, and the microcomputer PRS synchronously inputs lens data from the SI.

【0042】DDRは各種のスイッチSWSの検知及び
表示回路であり、信号CDDRが‘H’のとき選択さ
れ、SO,SI,SCLKを用いてマイコンPRSから
制御される。即ち、マイコンPRSから送られてくるデ
ータに基づいてカメラの表示部材DSPの表示を切り換
えたり、カメラの各種操作部材のオン・オフ状態を通信
によってマイコンPRSに報知する。本実施の形態にお
ける主被写体領域数変更部材である回転操作部材の状態
もここで検知される。
DDR is a detection and display circuit for various switches SWS, which is selected when the signal CDDR is "H", and is controlled by the microcomputer PRS using SO, SI and SCLK. That is, based on data sent from the microcomputer PRS, the display of the display member DSP of the camera is switched, and the on / off state of various operation members of the camera is notified to the microcomputer PRS by communication. The state of the rotation operation member, which is the main subject region number changing member in the present embodiment, is also detected here.

【0043】OLCはカメラ上部に位置する外部液晶表
示装置であり、ILCはファインダ内部液晶表示装置で
ある。
OLC is an external liquid crystal display device located above the camera, and ILC is a finder internal liquid crystal display device.

【0044】SW1,SW2は不図示のレリーズボタン
に連動したスイッチで、レリーズボタンの第一階段の押
下によりスイッチSW1がオンし、引き続いて第2段階
の押下でスイッチSW2がオンする。マイコンPRSは
スイッチSW1のオンで測光,自動焦点調節を行い、ス
イッチSW2のオンをトリガとして露出制御とその後の
フィルムの巻上げを行う。
SW1 and SW2 are switches linked to a release button (not shown). The switch SW1 is turned on when the first step of the release button is pressed, and subsequently the switch SW2 is turned on when pressed in the second step. The microcomputer PRS performs photometry and automatic focus adjustment when the switch SW1 is turned on, and performs exposure control and subsequent film winding with the switch SW2 turned on as a trigger.

【0045】尚、スイッチSW2はマイコンPRSの
「割り込み入力端子」に接続され、スイッチSW1のオ
ン時のプログラム実行中でも、該スイッチSW2のオン
によって割り込みがかかり、直ちに所定の割り込むプロ
グラムへ制御を移すことができる。
The switch SW2 is connected to the "interrupt input terminal" of the microcomputer PRS. Even when the program is executed when the switch SW1 is turned on, an interrupt is generated by turning on the switch SW2, and the control is immediately transferred to a predetermined interrupting program. Can be.

【0046】MTR1はフィルム給送用の、MTR2は
ミラーアップ・ダウン及びシャッタばねチャージ用の、
それぞれモータであり、各々の駆動回路MDR1,MD
R2により正転、逆転の制御が行われる。マイコンPR
Sから駆動回路MDR1,MDR2に入力されている信
号M1F,M1R、M2F,M2Rはモータ制御用の信
号である。
MTR1 is for film feeding, MTR2 is for mirror up / down and shutter spring charging,
Each is a motor, and each drive circuit MDR1, MD
R2 controls normal rotation and reverse rotation. Microcomputer PR
Signals M1F, M1R, M2F, and M2R input from S to the drive circuits MDR1 and MDR2 are motor control signals.

【0047】MG1,MG2は各々シャッタ先幕・後幕
走行開始用マグネットで、信号SMG1,SMG2、増
幅トランジスタTR1,TR2で通電され、マイコンP
RSによりシャッタ制御が行われる。
MG1 and MG2 are shutter start curtain / rear curtain run start magnets, respectively, which are energized by signals SMG1 and SMG2 and amplification transistors TR1 and TR2,
Shutter control is performed by RS.

【0048】尚、モータ駆動回路MDR1,MDR2、
シャッタ制御は、本発明と直接関りがないので、詳しい
説明は省略する。
The motor drive circuits MDR1, MDR2,
Since the shutter control does not directly relate to the present invention, a detailed description is omitted.

【0049】レンズ内制御回路LPRSにLCKと同期
して入力される信号DCLは、カメラからレンズLNS
に対する命令のデータであり、命令に対するレンズの動
作は予め決められている。このレンズ内制御回路LPR
Sは、所定の手続きに従ってその命令を解析し、焦点調
節や絞り制御の動作や、出力DLCからレンズの各部動
作状況(焦点調節光学系の駆動状況や、絞りの駆動状態
等)や、各種パラメータ(開放Fナンバー,焦点距離,
デフォーカス量対焦点調節光学系の移動量の係数,各種
ピント補正量等、距離情報)の出力を行う。
A signal DCL input to the in-lens control circuit LPRS in synchronization with LCK is transmitted from the camera to the lens LNS.
, And the operation of the lens in response to the command is determined in advance. This in-lens control circuit LPR
S analyzes the command in accordance with a predetermined procedure, and performs operations of focus adjustment and aperture control, the operation status of each part of the lens (driving status of focus adjustment optical system, driving status of aperture, etc.) from output DLC, and various parameters. (Open F-number, focal length,
It outputs distance information such as the defocus amount versus the coefficient of the movement amount of the focus adjustment optical system, various focus correction amounts, and the like.

【0050】この実施の形態では、ズームレンズを例を
示しており、カメラから焦点調節の命令が送られた場合
には、同時に送られてくる駆動量・方向に従って焦点調
節用モータLTMRを信号KMF,LMRによって駆動
して、光学系を光軸方向に移動させて焦点調節を行う。
光学系の移動量は光学系に連動して回動するパルス板の
パターンをフォトカプラにて検出し、移動量に応じた数
のパルスを出力するエンコーダ回路ENCFのパルス信
号SENCFでモニタし、レンズ内制御回路LPRS内
のカウンタで係数しており、所定の移動が完了した時点
でLPRS自身が信号LMF、LMRを‘L’にしてモ
ータLMTRを制動する。
In this embodiment, a zoom lens is shown as an example. When a focus adjustment command is sent from a camera, a focus adjustment motor LTMR is sent to a signal KMF in accordance with the drive amount and direction sent at the same time. , LMR to adjust the focus by moving the optical system in the direction of the optical axis.
The amount of movement of the optical system is monitored by a pulse signal SENCF of an encoder circuit ENCF that detects a pattern of a pulse plate that rotates in conjunction with the optical system with a photocoupler and outputs a number of pulses corresponding to the amount of movement. The coefficient is calculated by a counter in the internal control circuit LPRS, and when the predetermined movement is completed, the LPRS itself sets the signals LMF and LMR to 'L' to brake the motor LMTR.

【0051】このため、一旦カメラ焦点調節の命令が送
られた後は、マイコンPRSはレンズの駆動が終了する
まで、レンズ駆動に関して全く関与する必要がない。ま
た、カメラから要求が合った場合には、上記カウンタの
内容をカメラに送出することも可能な構成になってい
る。
For this reason, once the camera focus adjustment command is sent, the microcomputer PRS does not need to be involved in driving the lens at all until the lens driving is completed. Further, when a request from the camera is met, the contents of the counter can be sent to the camera.

【0052】カメラから絞り制御の命令が送られた場合
には、同時に送られてくる絞り段数に従って、絞り駆動
用としては公知のステッピング・モータDMTRを駆動
する。尚、ステッピング・モータはオープン制御が可能
なため、動作をモニタするためのエンコーダを必要とし
ない。
When an aperture control command is sent from the camera, a known stepping motor DMTR for driving the aperture is driven in accordance with the number of aperture stages sent at the same time. Since the stepping motor can perform open control, it does not require an encoder for monitoring the operation.

【0053】ENCZはズーム光学系に付随したエンコ
ーダ回路であり、レンズ内制御回路LPRSはこのエン
コーダ回路ENCZからの信号SENCZを入力してズ
ーム位置を検出する。レンズ内制御回路LPRS内には
各ズーム位置におけるレンズ・パラメータが格納されて
おり、カメラ側のマイコンPRSから要求が合った場合
には、現在のズーム位置に対応したパラメータをカメラ
に送出する。
ENCZ is an encoder circuit attached to the zoom optical system, and the in-lens control circuit LPRS receives the signal SENCZ from the encoder circuit ENCZ to detect the zoom position. Lens parameters at each zoom position are stored in the in-lens control circuit LPRS, and when a request is received from the microcomputer PRS on the camera side, a parameter corresponding to the current zoom position is sent to the camera.

【0054】ICCは、CCD等から構成される焦点検
出と露出制御用測光エリアセンサ及びその駆動回路であ
り、信号CICCが‘H’のとき選択されて、SO,S
I,SCLKを用いてマイコンPRSから制御される。
The ICC is a photometric area sensor for focus detection and exposure control composed of a CCD or the like and its driving circuit. The ICC is selected when the signal CICC is "H",
It is controlled by the microcomputer PRS using I and SCLK.

【0055】φV,φH,φRはエリアセンサ出力の読
み出し、リセット信号であり、マイコンPRSから信号
に基づいてICC内の駆動回路によりセンサ制御信号が
生成される。センサ出力はセンサ部からの読み出し後増
幅され、出力信号IMAGEとしてマイコンPRSのア
ナログ入力端子に入力され、マイコンPRSは同信号を
A/D変換後、そのデジタル値をRAM上の所定アドレ
スへ順次格納して行く。これらデジタル変換された信号
を用いて被写界の距離分布測定と焦点調節あるいは測光
を行う。
ΦV, φH, φR are reset signals for reading the output of the area sensor, and a sensor control signal is generated by a drive circuit in the ICC based on the signal from the microcomputer PRS. The sensor output is amplified after reading from the sensor unit, and is input as an output signal IMAGE to an analog input terminal of the microcomputer PRS. The microcomputer PRS converts the signal into an analog signal, and sequentially stores the digital value in a predetermined address on the RAM. Go. Using these digitally converted signals, distance distribution measurement and focus adjustment or photometry of the object scene are performed.

【0056】尚、上記図6ではカメラとレンズが別体
(レンズ交換が可能)となるもので表現されているが、
本発明はカメラ・レンズ一体なるものでも何等問題な
く、これ等に限定されるものではない。
In FIG. 6, the camera and the lens are shown as being separate (lens can be replaced).
The present invention has no problem even if the camera and lens are integrated, and the present invention is not limited to these.

【0057】以上の構成の基に、図7のフローチャート
に基づき、距離分布の測定が行われる。
Based on the above configuration, the distance distribution is measured based on the flowchart of FIG.

【0058】ステップ(201)では、センサ画像の取
り込みを行う。センサ画像の取り込みは次のように実施
される。
In step (201), a sensor image is captured. The capture of the sensor image is performed as follows.

【0059】まず、センサのリセットを行う。具体的に
は、制御信号φV,φH,φRをマイコンPRSにて同
時に一定時間“H”にすることで、ICC内部でリセッ
ト動作が行われる。次にマイコンPRSから蓄積開始命
令を送り蓄積を開始し、後に蓄積終了を検知する。そし
て、制御信号φV,φHを駆動してセンサ出力IMAG
Eを順次読み出し、マイコンPRSにてA/D変換して
RAMに格納し、ステップ(201)のセンサの出力信
号の取り込みが完了する。
First, the sensor is reset. More specifically, the reset operation is performed inside the ICC by setting the control signals φV, φH, and φR to “H” at the same time by the microcomputer PRS for a certain period of time. Next, an accumulation start command is sent from the microcomputer PRS to start accumulation, and later the end of accumulation is detected. Then, the control signals φV and φH are driven to output the sensor output IMAG.
E are sequentially read out, A / D converted by the microcomputer PRS and stored in the RAM, and the capture of the output signal of the sensor in step (201) is completed.

【0060】二つのセンサの出力信号データは、RAM
上の所定領域IMG1,IMG2に格納される。
The output signal data of the two sensors is stored in RAM
They are stored in the upper predetermined areas IMG1 and IMG2.

【0061】次にステップ(202)以降に於て、「m
×n」ブロック(m,nは1以上の整数)で構成される
デフォーカス分布情報(デフォーカスマップ)の作成が
行われる。
Next, in step (202) and thereafter, "m
Defocus distribution information (defocus map) composed of (× n) blocks (m and n are integers of 1 or more) is created.

【0062】ステップ(202)では、ブロックの座標
を指示する変数х,уが初期化される。次のステップ
(203)では、ブロック(х,у)の距離演算に必要
な信号がRAM上の画像データIMG1の中から抽出さ
れ、RAM上の所定アドレスAにコピーされる。続くス
テップ(204)では、ブロック(х,у)の距離演算
に必要なもう一方の信号がIMG2の中から抽出され、
RAM上の所定アドレスBにコピーされる。
In step (202), variables х and す る indicating the coordinates of the block are initialized. In the next step (203), a signal necessary for the distance calculation of the block (х, у) is extracted from the image data IMG1 on the RAM and copied to a predetermined address A on the RAM. In the following step (204), another signal necessary for the distance calculation of the block (х, у) is extracted from IMG2,
It is copied to a predetermined address B on the RAM.

【0063】次のステップ(205)では、アドレスA
とアドレスBに記憶された輝度分布信号に対して公知の
相関演算COR(A,B)が実施され、二つの像信号の
ずれ量δが算出される。続くステップ(206)では、
像ずれ量δから距離値の算出が公知の関数f(δ)によ
り実施され、RAM上の距離分布記録用に確保された所
定のアドレスD(х,у)に距離値又はデフォーカスが
格納される。そして、ステップ(207)に於て、хの
値を一つ増加して、処理対象を隣接ブロックに移す。
In the next step (205), the address A
A known correlation operation COR (A, B) is performed on the luminance distribution signal stored at the address B and the luminance distribution signal stored at the address B, and a shift amount δ between the two image signals is calculated. In the following step (206),
The calculation of the distance value from the image shift amount δ is performed by a well-known function f (δ), and the distance value or the defocus is stored in a predetermined address D (х, у) secured for the distance distribution recording on the RAM. You. Then, in step (207), the value of х is increased by one, and the processing target is moved to an adjacent block.

【0064】ステップ(208)では、xと距離マップ
のx方向の解像度mとの比較が行われ、ここで「x<
m」が真と判定された場合はステップ(203)に戻
り、x方向の隣のブロックに対して前述と同様に距離値
の演算と格納が行われる。また、「x<m」が偽と判定
された場合はステップ(209)に移り、xを初期化
し、yを1増加する。
In step (208), x is compared with the resolution m of the distance map in the x direction, where "x <
If "m" is determined to be true, the process returns to step (203), and the calculation and storage of the distance value are performed on the adjacent block in the x direction in the same manner as described above. If “x <m” is determined to be false, the process proceeds to step (209), where x is initialized and y is increased by one.

【0065】ステップ(210)では、yの値が評価さ
れ、「y<n」が真と判定されたときは再びステップ
(203)に戻り、次のブロック列に対す演算が開始さ
れる。また、「y<n」が偽と判定されたときは、すべ
てのブロックに対する距離算出が完了となり、距離分布
作成サブルーチンは終了して、図2のステップ(10
1)が完了する。
In step (210), the value of y is evaluated, and when it is determined that "y <n" is true, the process returns to step (203) again, and the operation for the next block sequence is started. When it is determined that “y <n” is false, the distance calculation for all blocks is completed, the distance distribution creation subroutine ends, and step (10) in FIG.
1) is completed.

【0066】次に、ステップ(103)に於て主被写体
領域の検出サブルーチンが呼び出される。
Next, in step (103), the main subject area detection subroutine is called.

【0067】主被写体領域検出部52にて行われる主被
写体領域検出サブルーチンの実施内容を図8を用いて説
明する。
The contents of the main subject area detection subroutine performed by the main subject area detection section 52 will be described with reference to FIG.

【0068】図8のステップ(301)に於て、被写界
を構成する各物体(グループ)毎に番号付けが行われ
る。
In step (301) of FIG. 8, numbering is performed for each object (group) constituting the scene.

【0069】例えば図9のように、画面の左上のブロッ
クから図中の矢印のようにラスタ・スキャンしながら分
割処理を行う場合、注目ブロックG(x,y)の上のブ
ロックG(x,y−1)と、左ロックG(x−1,y)
との間で、同じグループかどうかの判別を行えば、結果
的にすべての隣接ブロック間で同一ブロックかどうかの
判別を行うことができる。このとき、画面の上辺(y=
0)と左辺(x=0)のブロックは、それぞれ上のブロ
ックと左のブロックが存在しないので、それらに対する
処理は行わない。
For example, as shown in FIG. 9, when the division processing is performed while performing raster scanning from the upper left block of the screen as indicated by the arrow in the figure, the block G (x, y) above the target block G (x, y) y-1) and the left lock G (x-1, y)
If it is determined whether or not the block belongs to the same group, it can be determined whether all adjacent blocks are the same block. At this time, the upper side of the screen (y =
0) and the block on the left side (x = 0) do not have the upper block and the left block, respectively, so that no processing is performed on them.

【0070】また、判別の結果はRAM上のメモリG
(0,0)〜G(m−1,n−1)に記録する。まず、
(x,y)=(0,0)のブロックはグループ番号g=
1として登録して、領域が異なるグループが検出されれ
ばgの数を一つ増やしてそのブロックのグループ番号と
する。
The result of the determination is stored in the memory G on the RAM.
Record in (0,0) to G (m-1, n-1). First,
The block of (x, y) = (0, 0) has a group number g =
Registered as 1, and if a group having a different area is detected, the number of g is increased by one and set as the group number of the block.

【0071】この処理により、例えば図10(a)のよ
うな撮影シーンは、図10(b)のように各グループ毎
に番号が与えられる。こうした、番号付けの処理自体は
「ラベリング法」と呼ばれる公知技術であるので、領域
分け全体のフローチャートは省略する。
By this processing, for example, a photographing scene as shown in FIG. 10A is given a number for each group as shown in FIG. 10B. Since the numbering process itself is a known technique called “labeling method”, a flowchart of the entire area division is omitted.

【0072】また、各ブロック間で同一ブロックかどう
かの判別方法に関しては、特願平08−325327号
に詳述されているので、ここでは省略するが、例えば隣
り合うブロックでのデフォーカス量(距離値)の差が所
定範囲内の時に同一ブロックとして処理する方法が取ら
れる。
The method of determining whether each block is the same block is described in detail in Japanese Patent Application No. 08-325327, and will not be described here. When the difference of the distance values is within a predetermined range, a method of processing as the same block is adopted.

【0073】次に、ステップ(302)では、上記ステ
ップ(301)で検出された被写体の数を変数Gnum に
設定する。
Next, in step (302), the number of subjects detected in step (301) is set in a variable Gnum.

【0074】ステップ(303)以降では、撮影空間を
構成する各グループの特性を評価して、この特性からす
べてのグループの中から主被写体を表すグループを決定
する。
After step (303), the characteristics of each group constituting the photographing space are evaluated, and from these characteristics, the group representing the main subject is determined from all the groups.

【0075】ステップ(303)では、演算対象のグル
ープを表す変数Gcur に1を設定する。次のステップ
(304)では、グループ番号Gcur の被写体領域の主
被写体度S(Gcur )を演算する。この主被写体度は平
均的な距離や、領域の幅、高さ、画面上の位置などの特
性をそれぞれ演算して、それらを総合評価して主被写体
と考えられる領域を判別する。例えば、主被写体度評価
関数S(Gcur )としては先述した(1)式が考えられ
る。
In step (303), 1 is set to a variable Gcur representing the group to be operated. In the next step (304), the main subject degree S (Gcur) of the subject area of the group number Gcur is calculated. The main subject degree calculates characteristics such as an average distance, an area width, a height, and a position on a screen, and evaluates them comprehensively to determine an area considered as a main subject. For example, as the main subject degree evaluation function S (Gcur), the aforementioned equation (1) can be considered.

【0076】ステップ(305)では、変数Gcur の値
を一つ増やし、演算対象を次のグループに移す。次のス
テップ(306)では、変数Gcur とGnum の値を比較
し、全てのグループに対して演算が終了したかどうかチ
ェックする。この結果、「Gcur ≦Gnum 」であれば、
全てのグループに対する演算が終了していないのでステ
ップ(304)に戻り、「Gcur >Gnum 」であれば、
ステップ(307)に移る。
In step (305), the value of the variable Gcur is increased by one, and the operation target is moved to the next group. In the next step (306), the values of the variables Gcur and Gnum are compared to check whether or not the operation has been completed for all the groups. As a result, if “Gcur ≦ Gnum”,
Since the operations for all the groups have not been completed, the process returns to step (304), and if "Gcur>Gnum",
Move to step (307).

【0077】ステップ(307)では、演算した全ての
主被写体度S(1)〜S(Gnum )の中で、最も大きい
値となるグループ番号を求める関数MAXにより、最も
主被写体度が高いグループの番号を変数Gmainに代入す
る。Gmainの表す番号と一致する領域が主被写体領域を
表す。そして、ステップ(308)で、主被写体領域検
出のサブルーチンを終了し、図2のステップ(102)
が完了する。
In step (307), a function MAX for obtaining a group number having the largest value among all the calculated main subject degrees S (1) to S (Gnum) is used to determine a group having the highest main subject degree. The number is assigned to the variable Gmain. The area corresponding to the number represented by Gmain represents the main subject area. Then, in step (308), the sub-routine of main subject area detection is completed, and step (102) in FIG.
Is completed.

【0078】続く図2のステップ(103)では、測光
部55により被写体(界)の輝度(分布)を測定するサ
ブルーチンが呼び出される。先述したように、本実施の
形態では、距離分布測定部51で用いる光学系及びエリ
アセンサを用いて被写体あるいは被写界の輝度(分布)
を測定している。エリアセンサを用いることにより、被
写界全体の輝度分布が細かく得られ、被写界全域やステ
ップ(102)で求めた主被写体領域を含む各領域毎の
平均輝度を求めている。これにより、複数の被写体領域
の平均輝度なども簡単に得られることとなる。
In step (103) of FIG. 2, a subroutine for measuring the luminance (distribution) of the subject (field) by the photometric unit 55 is called. As described above, in the present embodiment, the luminance (distribution) of the subject or the object scene is determined using the optical system and the area sensor used in the distance distribution measuring unit 51.
Is measured. By using the area sensor, the luminance distribution of the entire object scene can be obtained finely, and the average luminance of each region including the entire object scene and the main object region obtained in step (102) is obtained. As a result, the average luminance of a plurality of subject areas can be easily obtained.

【0079】測光部55にて行われる測光サブルーチン
の実施内容を図11を用いて説明する。
The contents of the photometry subroutine performed by the photometry unit 55 will be described with reference to FIG.

【0080】図11のステップ(401)においては、
まず、被写界全域の輝度情報から全体の平均輝度を求め
ている。実際には、図2のステップ(101)の距離分
布測定サブルーチンで用いたセンサ画像を輝度出力とし
て扱い、全部の平均値を算出している。
In step (401) of FIG. 11,
First, the average luminance of the entire object is obtained from the luminance information of the entire object field. Actually, the sensor image used in the distance distribution measurement subroutine of step (101) in FIG. 2 is treated as a luminance output, and the average value of all the images is calculated.

【0081】次に、ステップ(402)では、図2のス
テップ(102)で検出された被写体領域の数を変数G
num に設定する。そして、ステップ(403)以降で、
撮影空間を構成する各グループ領域毎の平均輝度を求め
ていく。
Next, in step (402), the number of subject areas detected in step (102) in FIG.
Set to num. Then, after step (403),
The average brightness of each group area constituting the shooting space is calculated.

【0082】ステップ(403)では、測光対象のグル
ープを表わす変数Gcur に1を設定する。次のステップ
(404)では、グループ番号Gcur の被写体領域毎の
平均輝度を演算する。続くステップ(405)では、G
cur の値を一つ増やし、測光演算対象を次のグループに
移す。そして、ステップ(406)において、Gcurと
Gnum の値を比較し、全てのグループに対して測光演算
が終了したかどうかチェックする。この結果、「Gcur
≦Gnum 」であれば、全てのグループに対する演算が終
了していないのでステップ(404)に戻り、「Gcur
>Gnum 」であればステップ(407)に移り、測光の
サブルーチンを終了し、図2のステップ(103)が完
了する。
In step (403), 1 is set to a variable Gcur representing a group to be measured. In the next step (404), the average luminance of each subject area of the group number Gcur is calculated. In the following step (405), G
Increment the value of cur by one and move the photometry calculation target to the next group. Then, in step (406), the values of Gcur and Gnum are compared, and it is checked whether the photometric calculation has been completed for all groups. As a result, "Gcur
If .ltoreq.Gnum, the calculation for all groups has not been completed, so the flow returns to step (404), and "Gcur
If> Gnum ", the process proceeds to step (407), the photometry subroutine is terminated, and step (103) in FIG. 2 is completed.

【0083】次に、図2のステップ(104)の被写界
深度決定サブルーチンを実行する。
Next, the depth of field determination subroutine of step (104) in FIG. 2 is executed.

【0084】ここでは、現在設定、選択されている主被
写体領域全てに対し、ピントが合うような被写界深度、
具体的には必要な撮影光学系の絞り値を求めている。
Here, the depth of field such that all the currently set and selected main subject areas are in focus,
Specifically, the required aperture value of the photographing optical system is obtained.

【0085】被写界深度決定部57にて行われる被写界
深度決定サブルーチンの実施内容を、図12を用いて説
明する。
The contents of the depth of field determination subroutine performed by the depth of field determination unit 57 will be described with reference to FIG.

【0086】図12(a)のステップ(501)におい
ては、まず、ピントを合わせる必要のある被写体領域中
の最もカメラ側に近いデフォーカス量Dnを求めてい
る。ここで、被写体として選択されている領域が1つの
場合はその領域内で最もカメラ側に近いデフォーカス量
となり、被写体が複数選択されている場合はすべての選
択されている領域内で最もカメラ側に近いデフォーカス
量となる。
In step (501) of FIG. 12A, first, a defocus amount Dn closest to the camera side in a subject area to be focused is obtained. Here, when one area is selected as a subject, the defocus amount is closest to the camera side in that area, and when a plurality of objects are selected, the defocus amount is closest to the camera side in all selected areas. Becomes a defocus amount close to.

【0087】尚、本実施の形態では、選択領域数の初期
値を1(従って、実際は主被写体のみが選択されている
状態で、被写界深度優先撮影ではない)とし、必要に応
じて選択数を増やす(即ち、自動的に被写界深度優先撮
影になる)システムとしている。
In the present embodiment, the initial value of the number of selected regions is set to 1 (actually, only the main subject is selected, and depth-of-field priority shooting is not performed). The number is increased (that is, the depth of field priority is automatically set).

【0088】次のステップ(502)においては、ピン
トを合わせる必要のある被写体領域中の最もカメラ側に
遠いデフォーカス量Dfを求めている。ここでも、被写
体として選択されている領域が1つの場合はその領域内
で最もカメラ側に遠いデフォーカス量となり、被写体が
複数選択されている場合はすべての選択されている領域
内で最もカメラ側に遠いデフォーカス量となる。
In the next step (502), the defocus amount Df which is the farthest from the camera in the subject area to be focused is determined. Also in this case, when one area is selected as the subject, the defocus amount is the furthest to the camera side in that area, and when a plurality of subjects are selected, the defocus amount is the most defocus amount in all the selected areas. Defocus amount far away from the camera.

【0089】続くステップ(503)では次式の演算を
行う。
In the following step (503), the following equation is calculated.

【0090】F=(Df−Dn) ・A/Δ ここで、Aは図12(b)に示したような係数で、カメ
ラに対して近い被写体nと遠い被写体fとを両端とする
被写界深度をα対βに内分する点(c)に対するデフォ
ーカス量を求めるためのものである。この内分比率は撮
影モード等により自由に設定可能である。このデフォー
カス量を最小錯乱円の大きさΔ(35μmとしている)
で割り、必要な絞り値Fを求めている。
F = (Df−Dn) · A / Δ Here, A is a coefficient as shown in FIG. 12 (b), and an object having both ends of a subject n near and a subject f far from the camera. This is for calculating the defocus amount for the point (c) that internally divides the depth of field into α and β. This internal division ratio can be set freely according to the shooting mode or the like. This defocus amount is the size of the smallest circle of confusion Δ (35 μm).
And the required aperture value F is obtained.

【0091】そして、ステップ(504)に移り、被写
界深度決定のサブルーチンを終了し、図2のステップ
(104)が完了する。
Then, the process proceeds to step (504), where the subroutine for determining the depth of field is completed, and step (104) in FIG. 2 is completed.

【0092】図2のステップ(105)では、焦点調節
距離決定部54にて焦点調節すべき距離を決定してい
る。
In step (105) of FIG. 2, the focus adjustment distance determination section 54 determines the distance to be adjusted.

【0093】本実施の形態では、先のステップ(10
4)にて決められた被写界深度を内分する目標点(図1
2(b)のc点)に対して焦点調節するため、実際には
ステップ(104)で調節すべきデフォーカス量は求ま
っている。従って、ここでは撮影光学系の焦点調節レン
ズを駆動すべき駆動量の演算が行われる。
In the present embodiment, the previous step (10
The target point which internally divides the depth of field determined in 4) (Fig. 1
In order to adjust the focus with respect to point (c) of 2 (b), the defocus amount to be adjusted in step (104) is actually obtained. Therefore, here, the calculation of the drive amount for driving the focus adjusting lens of the photographing optical system is performed.

【0094】図2のステップ(106)では、撮影露光
動作におけるシャッタ速度を決めるサブルーチンを実行
する。これは、ステップ(103)で求めた測光結果と
ステップ(104)で求めた絞り値及びフィルム感度と
から決まるもので、測光結果から選択されている被写体
領域すべての平均、すなわち各領域の平均値の平均を求
め、APEX方式なる次の関係式より導き出される。
In step (106) of FIG. 2, a subroutine for determining a shutter speed in the photographing exposure operation is executed. This is determined from the photometric result obtained in step (103) and the aperture value and film sensitivity obtained in step (104), and is the average of all the subject areas selected from the photometric result, that is, the average value of each area. , And is derived from the following relational expression of the APEX method.

【0095】TV+AV=BV+SV 但し、TVは露光時間(シャッタスピード)、AVは絞
り値、BVは輝度、SVはフィルム感度の各対応値であ
る。
TV + AV = BV + SV Here, TV is an exposure time (shutter speed), AV is an aperture value, BV is luminance, and SV is a corresponding value of film sensitivity.

【0096】シャッタ速度決定部56にて行われるシャ
ッタ速度決定サブルーチンの実施内容を図13を用いて
説明する。
The contents of the shutter speed determination subroutine performed by the shutter speed determination unit 56 will be described with reference to FIG.

【0097】図13のステップ(601)において、ま
ず、選択領域の合計領域数と選択領域の合計輝度情報を
初期化(=0)している。次のステップ(602)で
は、図2のステップ(102)で検出された被写体領域
の数を変数Gnum に設定する。続くステップ(603)
では、輝度情報の対象グループを表わす変数Gcur に1
を設定する。そして、ステップ(604)において、現
在の対象グループが選択されている領域かを判断する。
選択されている領域ならそのままステップ(605)
へ、非選択領域ならステップ(607)へ移行する。
In step (601) of FIG. 13, first, the total number of selected areas and the total luminance information of the selected areas are initialized (= 0). In the next step (602), the number of subject areas detected in step (102) of FIG. 2 is set in a variable Gnum. The next step (603)
Then, the variable Gcur representing the target group of the luminance information is set to 1
Set. Then, in step (604), it is determined whether the current target group is the selected area.
If the area is selected, step (605)
If it is a non-selection area, the process proceeds to step (607).

【0098】ステップ(605)では、現時点での選択
領域数を示す変数Gsum の値を一つ増やしている。次の
ステップ(606)では、選択領域の合計輝度情報を示
す変数Bsum に現在の対象領域の輝度情報Bcur を加え
ている。続くステップ(607)では、Gcur の値を一
つ増やし、演算対象を次のグループに移す。そして、ス
テップ(608)においては、Gcur とGnum の値を比
較し、全てのグループに対して測光演算が終了したかど
うかチェックする。この結果、「Gcur ≦Gnum 」であ
れば、全てのグループに対する演算が終了していないの
でステップ(604)に戻り、「Gcur >Gnum 」であ
ればステップ(609)に移り、選択領域の合計輝度情
報を選択領域数で割って平均輝度情報を求めている。
In step (605), the value of the variable Gsum indicating the current number of selected areas is increased by one. In the next step (606), the luminance information Bcur of the current target area is added to the variable Bsum indicating the total luminance information of the selected area. In the following step (607), the value of Gcur is increased by one, and the operation target is moved to the next group. Then, in step (608), the values of Gcur and Gnum are compared to check whether or not the photometric calculation has been completed for all the groups. As a result, if “Gcur ≦ Gnum”, the calculation for all the groups has not been completed, so the flow returns to step (604). If “Gcur> Gnum”, the flow proceeds to step (609), where the total luminance of the selected area is calculated. The average luminance information is obtained by dividing the information by the number of selected areas.

【0099】そして、ステップ(611)にて先述のA
PEX演算を行い、シャッタ速度を決定している。そし
てステップ(612)に移り、シャッタ速度決定のサブ
ルーチンを終了し、図2のステップ(106)が完了す
る。
Then, in step (611), the aforementioned A
The PEX calculation is performed to determine the shutter speed. Then, the process proceeds to step (612), where the subroutine for determining the shutter speed is ended, and step (106) in FIG. 2 is completed.

【0100】以上のような図2におけるステップ(10
1)〜(106)のマイコンPRS内での演算を経て、
ステップ(107)で、先のステップ(105)で決定
した目標点に焦点が合うようにマイコンPRSから図6
のレンズLNSに対して焦点調節の命令が送られ、レン
ズ内制御回路LPRSがモータLMTRを制御して現時
点での焦点調節が完了する。
Step (10) in FIG.
After the operations in the microcomputer PRS of 1) to (106),
In step (107), the microcomputer PRS performs the operation shown in FIG. 6 so that the target point determined in the previous step (105) is focused.
Is sent to the lens LNS, and the in-lens control circuit LPRS controls the motor LMTR to complete the current focus adjustment.

【0101】次のステップ(108)では、現在の被写
体領域数、即ち選択されている主被写体領域の数に異存
が無いかが問われている。本実施の形態では、主被写体
領域数変更部材53である回転操作部材あるいは撮影開
始となるレリーズボタンの操作に応答するスイッチSW
2の状態検知により、撮影者が設定数を変更したいかど
うかを調べている。即ち、前記スイッチSW2が押され
る前に主被写体領域数変更部材53である回転操作部材
が操作されたならば、撮影者が被写体領域の数を変更し
たいものとし、一方そのままスイッチSW2が押された
ならば現在の設定で満足していると判断している。
In the next step (108), it is determined whether there is any difference in the current number of subject areas, that is, the number of selected main subject areas. In the present embodiment, a switch SW that responds to the operation of a rotation operation member that is the main subject region number changing member 53 or a release button that starts shooting.
By the state detection of 2, it is checked whether the photographer wants to change the set number. That is, if the rotation operation member, which is the main subject area number changing member 53, is operated before the switch SW2 is pressed, the photographer wants to change the number of subject areas, and the switch SW2 is pressed as it is. If so, it is determined that you are satisfied with the current settings.

【0102】まず、ここでは変更しない場合として説明
を続けると、続くステップ(110)にて、マイコンP
RSよりシャッタ先幕・後幕走行開始用MG1,MG2
に対して、信号SMG1,SMG2がステップ(10
6)で決められたシャッタ速度での時間間隔で発生し、
露光動作が行われ撮影が完了することとなる。
First, the description will be continued assuming that no change is made. In the following step (110), the microcomputer P
MG1, MG2 for starting the first and second curtain of shutter from RS
Signals SMG1 and SMG2 correspond to step (10
Occurs at time intervals at the shutter speed determined in 6),
The exposure operation is performed and the photographing is completed.

【0103】一方、ステップ(108)にて選択被写体
領域数の設定変更が要求された場合は、ステップ(10
9)にて被写体領域数選択サブルーチンが呼び出され
る。このサブルーチンの動作を図14を用いて説明す
る。
On the other hand, if it is requested in step (108) to change the setting of the number of selected subject areas, the process proceeds to step (10).
In 9), a subroutine for selecting the number of subject areas is called. The operation of this subroutine will be described with reference to FIG.

【0104】上記のようにステップ(108)で主被写
体領域の変更が要求された、即ち回転操作部材が操作さ
れたならば、ステップ(701)にて、その回転方向を
検出している。本実施の形態では、現在設定されている
選択領域数から変更したい場合、増加させる場合は右回
転、減少させたい場合は左回転を不図示の一軸の回転操
作部材(いわゆるダイヤル)で入力するシステムを採用
しており、上記検出結果に従って、左方向ならステップ
(702)へ、右方向ならステップ(704)へと移行
する。ステップ(702)とステップ(704)では、
ステップ(701)で検出された回転方向に従い、被写
体領域数を現在設定されている値に対して変更可能かの
判断を行っている。
As described above, when the change of the main subject area is requested in step (108), that is, when the rotation operation member is operated, the rotation direction is detected in step (701). In the present embodiment, a system for inputting a right rotation to increase or a left rotation to decrease from the currently set number of selected areas with a uniaxial rotary operation member (not shown) (not shown) when increasing the number of selected areas. According to the above detection result, the process proceeds to step (702) if it is leftward, and to step (704) if it is rightward. In step (702) and step (704),
According to the rotation direction detected in step (701), it is determined whether the number of subject areas can be changed from the currently set value.

【0105】即ちステップ(702)では選択数を減ら
すので、選択領域数が0になってしまうエラーを避ける
ため選択領域数が1かどうかの判定を行っている。一
方、ステップ(704)では選択領域数を増やすので被
写界内の最大領域数を超えるエラーを避けるため最大値
かどうかの判定を行っている。ステップ(702),
(704)ともにエラー状態にならなければ、それぞれ
ステップ(703),(705)へ進み、選択領域数の
増減変更を行う。逆にエラー状態になる場合はそのまま
変更入力を無視し、本サブルーチンを終了する。
That is, in step (702), since the number of selected areas is reduced, it is determined whether or not the number of selected areas is one in order to avoid an error that the number of selected areas becomes zero. On the other hand, in step (704), since the number of selected areas is increased, it is determined whether or not the number is the maximum value in order to avoid an error exceeding the maximum number of areas in the scene. Step (702),
If both (704) do not enter the error state, the process proceeds to steps (703) and (705), respectively, to increase or decrease the number of selected areas. Conversely, if an error occurs, the change input is ignored and the subroutine ends.

【0106】ステップ(706)では、変更された選択
領域数に応じた選択領域の設定を行う。具体的には増加
させる場合、非選択領域で上記(1)式にて得られる主
被写体度評価関数S( Gcur ) の高い領域を選択領域に
追加し、減少させる場合は選択領域から上記(1)式に
て得られる主被写体度評価関数S( Gcur ) の低い領域
を削除する。
In step (706), the selection area is set according to the changed number of selected areas. More specifically, when increasing, a non-selected area in which the main subject degree evaluation function S (Gcur) obtained by the above equation (1) is high is added to the selected area. )), The area where the main subject degree evaluation function S (Gcur) is low is deleted.

【0107】以上のように変更された選択領域数に対応
した領域選択を行い、ステップ(707)に移り、被写
体領域数選択サブルーチンを終了し、図2のステップ
(109が完了する。
Area selection corresponding to the number of selected areas changed as described above is performed, and the process proceeds to step (707), where the subject area number selection subroutine is terminated, and step (109) in FIG. 2 is completed.

【0108】上記のようにステップ(109)の被写体
領域数選択サブルーチンが行われると、再びステップ
(104)に戻り、現在の被写体選択領域から必要な被
写界深度を決定し、ステップ(105),(106)で
焦点調節距離、シャッタ速度を決定し、ステップ(10
7)でレンズを駆動し、再びステップ(108)にて変
更動作か撮影動作かの検出を行う。
When the subroutine for selecting the number of subject areas in step (109) is performed as described above, the process returns to step (104) to determine the necessary depth of field from the current subject selection area, and then proceeds to step (105). , (106) determine the focus adjustment distance and the shutter speed.
The lens is driven in 7), and it is detected again in step (108) whether the operation is a change operation or a photographing operation.

【0109】以上ステップ(108)からの一連の主被
写体領域の変更動作を、図10(a)の撮影シーンで説
明するならば、最初自動的に同図(b)のグループナン
バー3のみの被写体領域が選択されていた場合、図14
のステップ(701)にてダイヤルの右方向回転が検出
されたならば、新たな選択被写体領域として同図のグル
ープナンバー4を追加し、この領域を含めての被写界深
度設定、焦点調節、シャッタ速度設定が行われ、再びス
テップ(701)でダイヤルの右方向回転が検出された
ならば、今度は同図グループナンバー6の被写体領域が
新たに選択被写体領域として追加選択、設定される事と
なる。撮影者は、自分の意図する被写体全てにピントが
合った時点でスイッチSW2がオンするまで押し込む事
で意図した通りの撮影が可能となる。
If a series of operations for changing the main subject area from step (108) will be described with reference to the photographing scene of FIG. 10A, first, the subject having only the group number 3 in FIG. When an area is selected, FIG.
If the right rotation of the dial is detected in step (701), the group number 4 shown in the figure is added as a new selected subject area, and the depth of field including this area, focus adjustment, If the shutter speed is set and the clockwise rotation of the dial is detected again in step (701), the subject area of group number 6 in the figure is additionally selected and set as a newly selected subject area. Become. The photographer can perform the intended photographing by pushing the switch SW2 until the switch SW2 is turned on at the time when all the subjects intended by the photographer are in focus.

【0110】以上の実施の第1の形態においては、距離
分布情報から検出される主被写体領域の中から例えば最
もカメラ側に近い距離情報又はデフォーカス情報を得
(尚ここで得られる情報は、従来の様に一番手前と一番
奥のそれぞれ一つの情報ではなく、図10(b)からも
明らかな様に多数の測距点に対応する複数の情報が得ら
れている)、該情報を対象とした被写界深度優先撮影を
自動的に行うようにしているため、焦点検出領域を1点
のみ持つ従来のカメラの様に、初心者には容易に被写界
深度優先撮影を行えないといったことや、複数の焦点検
出領域を持つ従来のカメラの様に、被写体位置に焦点検
出領域がない為に必要以上に深度が深くなったり、露光
時間が長くなって手振れの原因になってしまうといった
問題点を解消することができる。
In the first embodiment described above, for example, distance information or defocus information closest to the camera side is obtained from the main subject area detected from the distance distribution information (the information obtained here is: As is clear from FIG. 10B, a plurality of pieces of information corresponding to a large number of ranging points are obtained instead of one piece of information for each of the front and the back as in the related art.) Depth-of-field priority shooting is automatically performed, so that a beginner cannot easily perform depth-of-field priority shooting like a conventional camera having only one focus detection area. As with conventional cameras with multiple focus detection areas, there is no focus detection area at the subject position, so the depth becomes unnecessarily deep, or the exposure time becomes longer, causing camera shake. Problems such as Can.

【0111】また、自動的に設定された被写体領域数に
対して、所定の(回転)操作部材により撮影者が任意の
数に変更をする事が可能となっているため、撮影者の意
図した被写界深度優先撮影をより簡単に行うことができ
るといった利点を有している。
Further, the photographer can change the automatically set number of subject areas to an arbitrary number by using a predetermined (rotational) operation member. This has the advantage that depth of field priority shooting can be performed more easily.

【0112】尚、入力手段として一軸の回転操作部材一
個を想定していたが、これに限らず、例えば二つのプッ
シュスイッチやスライドレバーなどで構成しても良い。
Although one rotary operation member is assumed as the input means, the present invention is not limited to this. For example, two input switches or slide levers may be used.

【0113】(実施の第2の形態)上記の実施の第1の
形態の説明においては、初期の選択被写体領域数を1と
し、必要に応じて選択数を増加することで自動的に被写
界深度優先撮影になるシステムを例にして説明を行って
きた。しかし、いわゆる各撮影モード(ポートレート,
風景など)に応じて初期値を変更して設定しておけばよ
り応答良い撮影が行える。
(Second Embodiment) In the description of the first embodiment described above, the number of selected subject areas is initially set to one, and the number of selections is increased as necessary, so that the subject is automatically picked up. The description has been made with an example of a system in which depth-of-field priority shooting is performed. However, so-called shooting modes (portrait,
If the initial value is changed and set according to the scenery, etc., more responsive shooting can be performed.

【0114】図15に本実施の第2の形態における全体
の処理の流れを示している。上記実施の第1の形態(図
2)と異なるところは、ステップ(804)、つまり撮
影モードに応じた選択領域数設定サブルーチンが追加さ
れたところのみである。
FIG. 15 shows an overall processing flow in the second embodiment. The only difference from the first embodiment (FIG. 2) is the step (804), that is, the addition of a selection area number setting subroutine corresponding to the shooting mode.

【0115】図16でこの選択領域数設定サブルーチン
を説明する。
The subroutine for setting the number of selected areas will be described with reference to FIG.

【0116】このサブルーチンでは、まずステップ(9
01)にて現在風景撮影モードであるかの判定を行って
いる。同様にステップ(903)でもスポーツ撮影モー
ドであるかの判定を行っている。この二つのモード以外
は基本的設定値としてステップ(905)にて初期領域
数を「1」とし、一方、風景,スポーツの両モードでは
それぞれステップ(902),(904)にて初期設定
数「2」としている。
In this subroutine, first, step (9)
At 01), it is determined whether the current mode is the landscape photography mode. Similarly, in step (903), it is determined whether the mode is the sports shooting mode. In other than these two modes, the initial number of areas is set to "1" in step (905) as a basic setting value, while in the scenery and sports modes, the initial number of areas is set in steps (902) and (904), respectively. 2 ".

【0117】ここでは風景,スポーツの両モードでのみ
初期設定値を変更したが、各モードにて個別に細かく設
定しても良く、更に初期設定値自体を可変にしても良
い。
Here, the initial setting values are changed only in both the landscape and sports modes. However, the initial setting values may be individually and finely set in each mode, and the initial setting values themselves may be variable.

【0118】以上の実施の第2の形態によれば、自動的
に設定する初期値を撮影モードにより変更可能としてい
る。従って、撮影における様々な被写体の状態や撮影側
の状況に適応した焦点調節及び被写界深度設定が可能な
カメラを実現することができる。
According to the second embodiment described above, the initial value to be automatically set can be changed depending on the shooting mode. Therefore, it is possible to realize a camera capable of adjusting the focus and setting the depth of field in accordance with the state of various subjects in photographing and the situation on the photographing side.

【0119】(変形例)上記の実施の形態においては、
距離分布情報から主被写体領域を検出するようにしてい
るが、これに限定されるものではなく、デフォーカス分
布情報を基に主被写体領域を検出する様な構成であって
もよい。
(Modification) In the above embodiment,
Although the main subject area is detected from the distance distribution information, the present invention is not limited to this, and a configuration in which the main subject area is detected based on the defocus distribution information may be employed.

【0120】上記の実施の形態では、主被写体領域数を
外部操作によって増減可能な構成を想定しているため
に、TTL方式の一眼フレカメラに適用した例を示して
いるが、その他のカメラ、例えばビデオカメラや電子ス
チルカメラ等への適用も可能である。但しこの種のカメ
ラの場合、撮影者の意志によって主被写体領域数の変更
はできないが、その他の効果は発揮できるものである。
さらには、カメラ以外の焦点調節と深度調節の両機能を
備えた光学装置への適用も可能である。
In the above embodiment, an example in which the number of main subject regions can be increased or decreased by an external operation is assumed, so that an example in which the present invention is applied to a TTL single-lens frame camera is shown. Application to video cameras, electronic still cameras, and the like is also possible. However, in the case of this type of camera, the number of main subject areas cannot be changed by the photographer's will, but other effects can be exhibited.
Further, the present invention can be applied to an optical device other than the camera, which has both functions of focus adjustment and depth adjustment.

【0121】[0121]

【発明の効果】以上説明したように、本発明によれば、
主要対象物に複数回ピントを合わせるといった煩わしい
操作を不要とすると共に、必要以上に深い深度となって
しまうことを防止することができる光学装置を提供でき
るものである。
As described above, according to the present invention,
It is possible to provide an optical device that does not require a troublesome operation of focusing on a main object a plurality of times and prevents the depth from becoming deeper than necessary.

【0122】また、本発明によれば、自動設定された主
要対象領域数に対して、必要に応じて撮影者の意志を反
映させた領域数に変更することができる光学装置を提供
できるものである。
Further, according to the present invention, it is possible to provide an optical device capable of changing the number of main target areas automatically set to the number of areas reflecting the intention of the photographer as necessary. is there.

【0123】また、本発明によれば、被写界深度優先撮
影を行う際に、主被写体に複数回ピントを合わせなけれ
ばならないといった煩わしい操作を不要とすると共に、
必要以上に深い深度や長い露光時間となってしまうこと
を防止することができるカメラを提供できるものであ
る。
According to the present invention, when performing depth-of-field priority photographing, it is not necessary to perform a troublesome operation of focusing on the main subject a plurality of times.
An object of the present invention is to provide a camera capable of preventing an unnecessary deep depth and a long exposure time.

【0124】また、自動設定された主被写体領域数に対
して、必要に応じて撮影者の意志を反映させたその領域
数に変更し、撮影者の意志を反映させた被写界深度優先
撮影を行うことができるカメラを提供できるものであ
る。
The number of main subject areas automatically set is changed, if necessary, to the number of areas reflecting the intention of the photographer, and the depth of field priority photographing reflecting the intention of the photographer is changed. A camera capable of performing the following.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の第1の形態に係るカメラの概略
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a camera according to a first embodiment of the present invention.

【図2】本発明の実施の第1の形態に係るカメラの概略
動作を示すフローチャートである。
FIG. 2 is a flowchart illustrating a schematic operation of the camera according to the first embodiment of the present invention.

【図3】本発明の実施の第1の形態に係るカメラの光学
系の配置の概略を示す図である。
FIG. 3 is a diagram schematically illustrating an arrangement of an optical system of the camera according to the first embodiment of the present invention.

【図4】本発明の実施の第1の形態に係るカメラの光学
系の配置を示す斜視図である。
FIG. 4 is a perspective view showing an arrangement of an optical system of the camera according to the first embodiment of the present invention.

【図5】図4の光学系を上面より見た図である。5 is a diagram of the optical system of FIG. 4 as viewed from above.

【図6】本発明の実施の第1の形態に係るカメラの内部
構成を示すブロック図である。
FIG. 6 is a block diagram showing an internal configuration of the camera according to the first embodiment of the present invention.

【図7】図2のステップ(101)における距離分布測
定の動作を示すフローチャートである。
FIG. 7 is a flowchart showing an operation of distance distribution measurement in step (101) of FIG. 2;

【図8】図2のステップ(102)における主被写体領
域検出の動作を示すフローチャートである。
FIG. 8 is a flowchart showing an operation of detecting a main subject area in step (102) of FIG. 2;

【図9】図8の動作において実際に領域を分割する方法
を説明する為の図である。
FIG. 9 is a diagram for explaining a method of actually dividing an area in the operation of FIG. 8;

【図10】図8の動作においてラベリングの結果例を示
す図である。
FIG. 10 is a diagram showing an example of a result of labeling in the operation of FIG. 8;

【図11】図2のステップ(103)における測光動作
を示すフローチャートである。
FIG. 11 is a flowchart showing a photometric operation in step (103) of FIG. 2;

【図12】図2のステップ(104)における被写界深
度決定の動作を示すフローチャート及びその動作説明を
助けるための図である。
FIG. 12 is a flowchart showing the operation of determining the depth of field in step (104) of FIG. 2 and a diagram for assisting the description of the operation.

【図13】図2のステップ(106)におけるシャッタ
速度決定の動作を示すフローチャートである。
FIG. 13 is a flowchart showing an operation of determining a shutter speed in step (106) of FIG. 2;

【図14】図2のステップ(109)における被写体領
域選択の動作を示すフローチャートである。
FIG. 14 is a flowchart showing an operation of selecting a subject area in step (109) of FIG. 2;

【図15】本発明の実施の第2の形態に係るカメラの概
略動作を示すフローチャートである。
FIG. 15 is a flowchart illustrating a schematic operation of the camera according to the second embodiment of the present invention.

【図16】図15のステップ(804)における選択領
域数設定の動作を示すフローチャートである。
FIG. 16 is a flowchart showing an operation of setting the number of selected areas in step (804) of FIG.

【図17】ある撮影シーンとその距離分布測定結果と距
離分布測定結果から各領域の特性毎にグプープ分けした
状態を示す図である。
FIG. 17 is a diagram illustrating a certain shooting scene, its distance distribution measurement result, and a state in which groups are grouped for each region characteristic from the distance distribution measurement result.

【符号の説明】[Explanation of symbols]

51 距離分布測定部 52 主被写体領域検出部 53 主被写体領域変更部材 54 焦点調節距離決定部 55 測光部 56 シャッタ速度決定部 57 被写界深度決定部 58 レンズ駆動装置 PRS マイコン LPRS レンズ内制御回路 LNS レンズ ICC 焦点検出及び測光用センサ及び駆動回路 Reference Signs List 51 distance distribution measuring section 52 main subject area detecting section 53 main subject area changing member 54 focusing distance determining section 55 photometric section 56 shutter speed determining section 57 depth of field determining section 58 lens driving device PRS microcomputer LPRS in-lens control circuit LNS Lens ICC Focus detection and photometry sensor and drive circuit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画面内の距離又はデフォーカス量の二次
元分布を測定する分布情報測定手段と、前記分布情報に
基づき画面内を複数の対象領域に分割し、これら複数の
対象領域から主要対象領域を少なくとも1つ以上検出す
る領域検出手段と、前記検出された主要対象領域全域が
合焦状態となるように、光学系の焦点位置と絞りを調節
する調節手段とを有したことを特徴とする光学装置。
1. A distribution information measuring means for measuring a two-dimensional distribution of a distance or a defocus amount in a screen, and dividing the screen into a plurality of target areas based on the distribution information; A region detecting unit that detects at least one region; and an adjusting unit that adjusts a focal position and an aperture of an optical system so that the entire detected main target region is in focus. Optical device.
【請求項2】 前記領域検出手段は、複数の対象領域か
ら主要対象領域を順位付きで少なくとも1つ以上検出す
るものであり、 前記自動的に検出された主要対象領域数に対して、外部
操作によりその主要対象領域数を変更するための操作部
材を有したことを特徴とする請求項1記載の光学装置。
2. The area detecting means detects at least one or more main target areas from a plurality of target areas in order, and performs an external operation on the number of the automatically detected main target areas. 2. The optical device according to claim 1, further comprising an operation member for changing the number of main target areas by the operation member.
【請求項3】 前記領域検出手段によって検出される主
要対象領域の個数は、予め設定されていることを特徴と
する請求項1又は2記載の光学装置。
3. The optical device according to claim 1, wherein the number of main target areas detected by the area detection unit is set in advance.
【請求項4】 画面内の距離又はデフォーカス量の二次
元分布を測定する分布情報測定手段と、前記分布情報に
基づき画面内を複数の被写体領域に分割し、これら複数
の被写体領域から主被写体領域を少なくとも1つ以上検
出する領域検出手段と、前記検出された主被写体領域全
域が合焦状態となるように、光学系の焦点位置と絞りを
調節する調節手段とを有したことを特徴とするカメラ。
4. A distribution information measuring means for measuring a two-dimensional distribution of a distance or a defocus amount in a screen, dividing the screen into a plurality of subject areas based on the distribution information, and dividing a main subject from the plurality of subject areas. An area detecting means for detecting at least one area, and an adjusting means for adjusting a focus position and an aperture of an optical system such that the entire area of the detected main subject area is in focus. Camera.
【請求項5】 前記領域検出手段は、複数の被写体領域
から主被写体領域を少なくとも1つ以上検出するもので
あり、 前記自動的に検出された主被写体領域数に対して、外部
操作によりその主被写体領域数を変更するための操作部
材を有したことを特徴とする請求項4記載のカメラ。
5. The area detecting means detects at least one main subject area from a plurality of subject areas. The number of the main subject areas automatically detected is determined by an external operation. The camera according to claim 4, further comprising an operation member for changing the number of subject areas.
【請求項6】 前記領域検出手段によって検出される主
被写体領域の個数は、予め設定されていることを特徴と
する請求項4又は5記載のカメラ。
6. The camera according to claim 4, wherein the number of main subject areas detected by said area detection means is set in advance.
【請求項7】 前記領域検出手段によって検出される主
被写体領域の個数は、撮影モードに応じて設定されてい
ることを特徴とする請求項4又は5記載のカメラ。
7. The camera according to claim 4, wherein the number of main subject areas detected by said area detecting means is set according to a photographing mode.
【請求項8】 画面を通して各領域の焦点状態を観察で
きる構造をしていることを特徴とする請求項5記載のカ
メラ。
8. The camera according to claim 5, wherein the camera has a structure in which a focus state of each area can be observed through a screen.
JP20833397A 1997-07-18 1997-07-18 Optical device and camera Pending JPH1138313A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20833397A JPH1138313A (en) 1997-07-18 1997-07-18 Optical device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20833397A JPH1138313A (en) 1997-07-18 1997-07-18 Optical device and camera

Publications (1)

Publication Number Publication Date
JPH1138313A true JPH1138313A (en) 1999-02-12

Family

ID=16554540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20833397A Pending JPH1138313A (en) 1997-07-18 1997-07-18 Optical device and camera

Country Status (1)

Country Link
JP (1) JPH1138313A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139256A (en) * 2004-10-15 2006-06-01 Olympus Corp Camera having focus detection device
JP2006330211A (en) * 2005-05-25 2006-12-07 Casio Comput Co Ltd Camera, camera control program and camera control method
JP2009207155A (en) * 2009-03-31 2009-09-10 Fujifilm Corp Digital camera and image processor
US8107805B2 (en) 2009-07-03 2012-01-31 Fujifilm Corporation Photographing control device and method, as well as program
US8300112B2 (en) 2006-07-03 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2014167695A (en) * 2013-02-28 2014-09-11 Nikon Corp Image processor, imaging device and image processing program
JP2015046917A (en) * 2014-10-11 2015-03-12 オリンパスイメージング株式会社 Imaging device and imaging method
JP2016167839A (en) * 2016-04-18 2016-09-15 オリンパス株式会社 Imaging apparatus and imaging method
JP2018017876A (en) * 2016-07-27 2018-02-01 キヤノン株式会社 Imaging apparatus and control method of the same, and image processing apparatus and method
JP2022145453A (en) * 2021-03-17 2022-10-04 キヤノン株式会社 Imaging apparatus, control method, and storage medium
JP2022166801A (en) * 2021-04-21 2022-11-02 キヤノン株式会社 Imaging apparatus, control method, and storage medium
US11722769B2 (en) 2021-03-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus, control method, and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006139256A (en) * 2004-10-15 2006-06-01 Olympus Corp Camera having focus detection device
JP2006330211A (en) * 2005-05-25 2006-12-07 Casio Comput Co Ltd Camera, camera control program and camera control method
JP4665607B2 (en) * 2005-05-25 2011-04-06 カシオ計算機株式会社 Camera, camera control program, and camera control method
US8300112B2 (en) 2006-07-03 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2009207155A (en) * 2009-03-31 2009-09-10 Fujifilm Corp Digital camera and image processor
US8107805B2 (en) 2009-07-03 2012-01-31 Fujifilm Corporation Photographing control device and method, as well as program
JP2014167695A (en) * 2013-02-28 2014-09-11 Nikon Corp Image processor, imaging device and image processing program
JP2015046917A (en) * 2014-10-11 2015-03-12 オリンパスイメージング株式会社 Imaging device and imaging method
JP2016167839A (en) * 2016-04-18 2016-09-15 オリンパス株式会社 Imaging apparatus and imaging method
JP2018017876A (en) * 2016-07-27 2018-02-01 キヤノン株式会社 Imaging apparatus and control method of the same, and image processing apparatus and method
JP2022145453A (en) * 2021-03-17 2022-10-04 キヤノン株式会社 Imaging apparatus, control method, and storage medium
US11722769B2 (en) 2021-03-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus, control method, and storage medium
JP2022166801A (en) * 2021-04-21 2022-11-02 キヤノン株式会社 Imaging apparatus, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP4018218B2 (en) Optical apparatus and distance measuring point selection method
JP2004109690A (en) Camera system and camera
JPH10161013A (en) Environment recognition device and camera provided therewith
US5091742A (en) Camera having an auto focusing device
JP2605282B2 (en) Automatic focusing device
US6463214B1 (en) Multi-point autofocus system
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JP2003029135A (en) Camera, camera system and photographic lens device
JPH10142490A (en) Environment recognition device and camera
JPH1138313A (en) Optical device and camera
US5604562A (en) Auto-zoom camera
JPH0629895B2 (en) Focus state determination device
JP2000180709A (en) Range-finding device
JP3630965B2 (en) Focus detection apparatus, camera, and focus detection method
JP4011738B2 (en) Optical device
JP2008203428A (en) Imaging apparatus
JP4847352B2 (en) Imaging apparatus and control method thereof
JPH06138378A (en) Camera provided with focus detecting means and line-of-sight detecting means
JP2620235B2 (en) Signal forming device
JP2000009430A (en) Optical device
JP7379083B2 (en) Control device, imaging device, control method, and program
JP2757396B2 (en) camera
JP3320098B2 (en) Single-lens reflex camera
JP4262034B2 (en) Optical device and camera
JP4773769B2 (en) Focus detection device