JPH09127405A - Optical device - Google Patents

Optical device

Info

Publication number
JPH09127405A
JPH09127405A JP7302323A JP30232395A JPH09127405A JP H09127405 A JPH09127405 A JP H09127405A JP 7302323 A JP7302323 A JP 7302323A JP 30232395 A JP30232395 A JP 30232395A JP H09127405 A JPH09127405 A JP H09127405A
Authority
JP
Japan
Prior art keywords
area
defocus
distance
optical device
main object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7302323A
Other languages
Japanese (ja)
Other versions
JP3571831B2 (en
Inventor
Hitoshi Oonoda
仁 大野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP30232395A priority Critical patent/JP3571831B2/en
Priority to US08/740,219 priority patent/US5913082A/en
Publication of JPH09127405A publication Critical patent/JPH09127405A/en
Application granted granted Critical
Publication of JP3571831B2 publication Critical patent/JP3571831B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the precision of automatic selection of an area where a principal object exsist in an observation picture. SOLUTION: Area division means 102 and 103 which divide the observation face into areas based on plural distance measurement or defocus extent detection results and an area extraction means 104 which extracts at least one area, where the principal object exists, from plural areas divided by area division means and operates the degree of inclination of the object to the optical axis of an objective lens based on plural distance measurement results and takes it as a discrimination element of the principal object are provided, and the degree of inclination of the object is operated, and this inclination information and absolute distance information or the defocus extent are synthetically evaluated, thereby determining the principal object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、複数の測距結果あ
るいはデフォーカス結果に基づいて、観察面を領域分割
する領域分割手段と、領域分割手段により分割された複
数の領域の中から主要物体が存在する領域を少なくとも
一つ抽出する領域抽出手段とを備えた、測距装置,焦点
検出装置、更にはこれら装置を具備したカメラ等の光学
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an area dividing means for dividing an observation surface into areas based on a plurality of distance measurement results or defocus results, and a main object from a plurality of areas divided by the area dividing means. The present invention relates to a distance measuring device, a focus detecting device, and an optical device such as a camera equipped with these devices, the distance measuring device and the focus detecting device including at least one region in which an area in which an object exists is extracted.

【0002】[0002]

【従来の技術】従来の多点測距が可能なカメラにおい
て、複数の測距結果の中から最も“近い”測距領域を必
ず選択して測距を行ったのでは誤測距することが多々あ
る事から、例えば3点測距の結果が、遠,中,近といっ
た特定のパターンを持っている場合には、“中”の測距
点を選択(“近”は地面等可能性がある為)するといっ
たアルゴリズムをもつものが提案(特開平2−2822
34号)されている。
2. Description of the Prior Art In a conventional camera capable of multi-point distance measurement, if the distance measurement is performed by always selecting the closest distance measurement area from a plurality of distance measurement results, incorrect distance measurement may occur. Since there are many, for example, when the result of three-point distance measurement has a specific pattern such as distance, middle, and near, the distance measuring point of “medium” is selected (“near” may mean the ground, etc.). Proposal of a method having an algorithm such as (for example, JP-A-2-2822).
34).

【0003】また、撮影画面内に多数の測距点を備え、
これら測距点について測距を行い、撮影空間中の任意の
方向の距離(デフォーカス量)を測定可能とする装置が
本願出願人より提案(特公平4−67607号)されて
いる。
Further, a large number of distance measuring points are provided in the photographing screen,
An apparatus has been proposed by the applicant of the present application (Japanese Patent Publication No. 4-67607) that can measure a distance (defocus amount) in an arbitrary direction in a photographing space by performing distance measurement at these distance measuring points.

【0004】この提案装置について、例えば図6の様な
シーンを撮影する場合を例にとって説明する。
The proposed apparatus will be described by taking as an example the case of shooting a scene as shown in FIG.

【0005】まず、撮影画面内を細かくブロック分割し
て(エリアセンサ上の複数の画素を組として)測距し、
次に図7の様な距離分布情報(距離マップ)を得る。そ
して、被写界空間の物体配置を判断するために、空間を
構成する各物体のグルーピングを行う。
First, the photographed screen is finely divided into blocks (a plurality of pixels on the area sensor is set) to measure the distance,
Next, distance distribution information (distance map) as shown in FIG. 7 is obtained. Then, in order to determine the object arrangement in the object space, the objects forming the space are grouped.

【0006】図8は、図7の距離マップデータに基づい
てグルーピングを行った結果の例であり、グルーピング
により各物体毎に領域が切り分けられる。
FIG. 8 shows an example of the result of grouping based on the distance map data of FIG. 7, and the regions are divided for each object by the grouping.

【0007】実際的なグルーピングの手法は、いくつか
の方法が一般的に知られている。最も簡単な例は、隣接
する2つのブロックの距離(あるいはデフォーカス)の
差が所定値以下であれば、2つのブロックは同一物体を
形成しているという判断を、すべての隣接ブロックに対
して適用するという方法である。
As a practical grouping method, some methods are generally known. The simplest example is that if the difference in distance (or defocus) between two adjacent blocks is less than or equal to a predetermined value, it is determined that the two blocks form the same object for all adjacent blocks. It is a method of applying.

【0008】以上のような方法で、図8のように撮影空
間を構成する物体毎に、画面を領域分け(グルーピン
グ)する。
By the method as described above, the screen is divided into regions (grouping) for each object constituting the photographing space as shown in FIG.

【0009】そして、例えば距離情報や、物体の大きさ
情報、画面上での位置情報などを用いて、これら撮影空
間を構成する物体の中から主被写体の領域を決定すると
いうものである。
Then, for example, the area of the main subject is determined from the objects forming the photographing space by using the distance information, the size information of the object, the position information on the screen, and the like.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、上記何
れの提案装置においても、図9の様なシーン、つまり主
被写体である人物1の手前にテーブル2があるシーンな
どの場合には、テーブル2と人物1との距離が近い為、
テーブル2や食器を測距している領域を選択してしまう
恐れがあった。従って、このような場合には、撮影者は
希望の測距領域を選択する為に測距領域選択モードを手
動に切り替えた後、測距領域を手動で選択するといった
作業を行わなければならず、その操作が煩わしいもので
あった。
However, in any of the above proposed devices, in the case of the scene as shown in FIG. 9, that is, the scene in which the table 2 is in front of the person 1 who is the main subject, Because the distance to person 1 is short,
There was a risk of selecting the table 2 or the area where the tableware was measured. Therefore, in such a case, the photographer must perform the work of manually selecting the distance measuring area after switching the distance measuring area selection mode to manual in order to select the desired distance measuring area. The operation was troublesome.

【0011】(発明の目的)本発明の目的は、観察画面
内において主要物体が存在する領域の自動選択の精度を
向上させることのできる光学装置を提供することであ
る。
(Object of the Invention) It is an object of the present invention to provide an optical device capable of improving the accuracy of automatic selection of a region where a main object exists in an observation screen.

【0012】[0012]

【課題を解決するための手段】例えばカメラを例にする
と、一般的な撮影シーンにおいて、人物などの主被写体
と考えられる物体と、テーブルや地面など近距離にあっ
ても主被写体で無い物体の違いは、その物体を構成する
面の傾きにある場合が多い。
[Means for Solving the Problems] Taking a camera as an example, in a general shooting scene, an object that is considered as a main subject such as a person and an object such as a table or the ground that is not the main subject even at a short distance are considered. The difference is often in the inclination of the surfaces that make up the object.

【0013】すなわち、主被写体はカメラに対して正対
することが多いので、撮影光軸に垂直な面から構成され
る物体が主被写体であることが多い。一方、近距離にあ
っても、地面や壁などの主被写体では無い物体は、撮影
光軸に対して傾きを持った面から構成されることが多
い。
That is, since the main subject often faces the camera, an object formed of a plane perpendicular to the photographing optical axis is often the main subject. On the other hand, an object that is not the main subject such as the ground or a wall even at a short distance is often composed of a surface having an inclination with respect to the photographing optical axis.

【0014】この様な点に鑑み、請求項1〜4記載の本
発明は、観察面内の複数の点を測距する測距手段と、該
測距手段による複数の測距結果に基づいて、観察面を領
域分割する領域分割手段と、領域分割手段により分割さ
れた複数の領域の中から主要物体が存在する領域を少な
くとも一つ抽出するものであって、複数の測距結果に基
づいて対物レンズ光軸に対する物体の傾きの度合を演算
し、これを主要物体の判定要素とする領域抽出手段とを
備え、また、請求項5〜7記載の本発明は、観察面内の
複数の点のデフォーカス量を検出するデフォーカス量検
出手段と、該デフォーカス量検出手段による複数のデフ
ォーカス結果に基づいて、観察面を領域分割する領域分
割手段と、領域分割手段により分割された複数の領域の
中から主要物体が存在する領域を少なくとも一つ抽出す
るものであって、複数のデフォーカス結果に基づいて対
物レンズ光軸に対する物体の傾きの度合を演算し、これ
を主要物体の判定要素とする領域抽出手段とを備え、物
体の傾きの度合を演算して、この傾き情報と、絶対距離
情報やデフォーカス量を総合的に評価することにより、
主要物体を決定するようにしている。
In view of these points, the present invention according to claims 1 to 4 is based on distance measuring means for measuring a distance between a plurality of points on an observation plane and a plurality of distance measuring results by the distance measuring means. A region dividing means for dividing the observation surface into regions, and at least one region in which the main object exists is extracted from the plurality of regions divided by the region dividing means, based on a plurality of distance measurement results. The present invention according to claims 5 to 7 further comprises a region extracting means for calculating the degree of inclination of the object with respect to the optical axis of the objective lens and using this as a determination element for the main object. Defocus amount detecting means for detecting the defocus amount of the, the area dividing means for dividing the observation surface into regions based on the plurality of defocus results by the defocus amount detecting means, and the plurality of divided areas by the area dividing means. The main object from the area At least one existing region is extracted, and the degree of inclination of the object with respect to the optical axis of the objective lens is calculated based on a plurality of defocus results, and the region extraction means uses this as a determination element of the main object. By including the degree of inclination of the object, and comprehensively evaluating this inclination information, absolute distance information and defocus amount,
I try to determine the main object.

【0015】[0015]

【発明の実施の形態】以下、本発明を図示の実施の形態
に基づいて詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail based on illustrated embodiments.

【0016】図1は本発明の実施の第1の形態に係るカ
メラの概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a camera according to the first embodiment of the present invention.

【0017】図1において、200はレンズ、201は
微小受光画素を二次元配列したCCD等のエリアセン
サ、202は前記エリアセンサ101を駆動するセンサ
駆動回路である。203はマイクロコンピュータであ
り、前記エリアセンサからの出力をディジタル信号に変
換するA/Dコンバータや該A/DコンバータでA/D
変換された画像信号を格納するフレームメモリ(FM)
や後述の距離マップ作成やグルーピング等を行うCPU
を具備している。
In FIG. 1, 200 is a lens, 201 is an area sensor such as a CCD in which minute light receiving pixels are two-dimensionally arranged, and 202 is a sensor drive circuit for driving the area sensor 101. A microcomputer 203 is an A / D converter for converting the output from the area sensor into a digital signal and an A / D converter for the A / D converter.
Frame memory (FM) for storing converted image signals
CPU that performs distance map creation and grouping described later
Is provided.

【0018】204はシャッタの開閉を制御するシャッ
タ制御回路、205はフィルムの給送を制御するフィル
ム制御回路、206は前記マイクロコンピュータ203
によって選択される測距情報に基づいて撮影レンズの駆
動を行うレンズ駆動回路、207は不図示のレリーズ釦
の第1ストロークによりONするスイッチ(SW1)、
208は不図示のレリーズ釦の第2ストロークによりO
Nするスイッチ(SW2)である。
Reference numeral 204 is a shutter control circuit for controlling the opening and closing of the shutter, 205 is a film control circuit for controlling the feeding of the film, and 206 is the microcomputer 203.
A lens drive circuit for driving the taking lens based on the distance measurement information selected by 207, a switch (SW1) 207 that is turned on by the first stroke of a release button (not shown),
208 is O by the second stroke of the release button (not shown)
This is a switch (SW2) for N.

【0019】次に、上記マイクロコンピュータ203に
おいて実行される一連の動作について、図2のフローチ
ャートに従って説明する。
Next, a series of operations executed by the microcomputer 203 will be described with reference to the flowchart of FIG.

【0020】ステップ(101)においては、不図示の
レリーズ釦の第1ストロークが為されてスイッチSW1
がONしたか否かを判別し、OFFであればONするま
でこのステップに留まる。
In step (101), the first stroke of the release button (not shown) is made and the switch SW1
It is determined whether or not is turned on. If it is turned off, this step remains until it is turned on.

【0021】その後、該スイッチSW1がONするとス
テップ(102)へ移り、センサ駆動回路202を介し
てエリアセンサ201を駆動する。そして、撮影画面内
をブロック分割して、各ブロックにおいて、公知の演算
を行うことにより、ブロック内の物体までの距離を算出
する。この結果、撮影画面全体の距離の分布状態を表わ
す距離マップが作成される。
After that, when the switch SW1 is turned on, the process proceeds to step (102) to drive the area sensor 201 via the sensor drive circuit 202. Then, the shooting screen is divided into blocks, and a known calculation is performed in each block to calculate the distance to the object in the block. As a result, a distance map that represents the distribution of distances over the entire shooting screen is created.

【0022】例えば、図6のような撮影シーンの場合、
図7に示すような距離マップが作成されることになる。
For example, in the case of a shooting scene as shown in FIG.
A distance map as shown in FIG. 7 will be created.

【0023】次にステップ(103)において、距離マ
ップデータに基づきグルーピングを行う。
Next, in step (103), grouping is performed based on the distance map data.

【0024】グルーピングの手法は、前述した様に、隣
接する2つのブロックの距離(あるいはデフォーカス)
の差が所定値以下であれば、2つのブロックは同一物体
を形成しているという判断を、すべての隣接ブロックに
対して適用するという方法等が既に知られているので、
これ以上の説明は省略する。
As described above, the grouping method is the distance (or defocus) between two adjacent blocks.
If the difference between is less than or equal to a predetermined value, it is already known to apply the determination that two blocks form the same object to all adjacent blocks.
Further description is omitted.

【0025】このような、判断を行うことにより、図8
に示した様に、撮影画面を物体毎に領域分けしたデータ
を得ることができる。
By making such a judgment, FIG.
As shown in, it is possible to obtain data in which the photographing screen is divided into regions for each object.

【0026】次にステップ(104)においては、画面
を構成するすべての物体(グループ)の中から主被写体
を判定する。
Next, in step (104), the main subject is determined from all the objects (groups) constituting the screen.

【0027】主被写体を判断するための要素としては、
従来は至近優先的な考えが中心であり、図6の撮影シー
ンの場合、図8に示す領域3が最至近であるので、壁に
焦点を合わせてしまう。また、他の評価要素として、物
体の大きさや画面上での位置等を判定要素として導入す
る方法が考えられるが、例えば図3のような撮影シーン
においては、領域4の物体を主被写体としたいのにもか
かわらず、領域5の方が距離,大きさ,位置ともに好条
件となり、領域5の物体が主被写体と判定されてしま
う。
As elements for judging the main subject,
In the prior art, the focus is on the concept of closest proximity, and in the case of the shooting scene of FIG. 6, the region 3 shown in FIG. 8 is closest, so the focus is on the wall. As another evaluation element, a method of introducing the size of the object, the position on the screen, or the like as a determination element is conceivable. For example, in the shooting scene as shown in FIG. In spite of this, the area 5 has better conditions in terms of distance, size, and position, and the object in the area 5 is determined to be the main subject.

【0028】これに対し、本実施の形態においては、こ
れらの評価要素に加えて、撮影光軸に対する物体の傾き
の度合を算出して評価を行うことにより、正確に主被写
体を判定するものである。
On the other hand, in the present embodiment, in addition to these evaluation factors, the degree of inclination of the object with respect to the photographing optical axis is calculated and evaluated to accurately determine the main subject. is there.

【0029】そこで、ステップ(104)では、まず個
々のグループについてその傾きを算出する。
Therefore, in step (104), the inclination of each group is first calculated.

【0030】傾き算出の実施の一例を示す。An example of implementation of inclination calculation will be described.

【0031】図4の様に、カメラから物体表面上の点6
までのベクトルrに対して、微分経路sを考えた場合、
光軸と垂直な面に対する物体表面の傾きkは k=|(dr/ds)・n| で表わせる。ここで、nは光軸方向の単位ベクトルであ
る。この式を図5(a)の様にグルーピングされた領域
(物体)へ適用する場合を考える。
As shown in FIG. 4, a point 6 on the surface of the object is seen from the camera.
When the differential path s is considered for the vector r up to
The inclination k of the object surface with respect to the plane perpendicular to the optical axis can be expressed by k = | (dr / ds) · n |. Here, n is a unit vector in the optical axis direction. Consider a case where this formula is applied to a region (object) grouped as shown in FIG.

【0032】ここでは、簡単のためブロックのアスペク
ト比は1:1とし、また、レンズの焦点距離をf、結像
面上におけるブロックの辺の長さをL、グループまでの
平均距離をda とした場合、物体面上におけるブロック
の辺の長さは平均的に m=Lda /f で表すことができる。ここで、グループ内でi番目のブ
ロックBi の距離をdiとした場合、例えばブロックB6
の傾きkθ(6) は、図5(b)に示した各微分角度に
対して、 k0 (6)=|d7 −d5 |/2m k45 (6)=|d10−d2 |/2√(2)m k90 (6)=|d9 −d3 |/2m k135(6)=|d8 −d4 |/2√(2)m で演算される。
Here, for simplicity, the block aspect ratio is set to 1: 1, the lens focal length is f, the side length of the block on the image plane is L, and the average distance to the group is d a. In such a case, the length of the side of the block on the object plane can be represented by m = Ld a / f on average. Here, if the distance of the i-th block B i in the group is d i , for example, the block B 6
Of the gradient kθ (6) of k 0 (6) = | d 7 −d 5 | / 2m k 45 (6) = | d 10 −d 2 for each differential angle shown in FIG. 5B. | / 2√ (2) m k 90 (6) = | d 9 −d 3 | / 2m k 135 (6) = | d 8 −d 4 | / 2√ (2) m.

【0033】また、例えばブロックB1 のように、グル
ープのエッジを構成するブロックの場合には、エッジを
考慮して、 k0 (1)=0 k45 (1)=|d4 −d1 |/√(2)m k90 (1)=|d3 −d1 |/m k135(1)=|d2 −d1 |/√(2)m のようにグループ内のブロックのデータのみを用いて演
算を行う。同様に、すべてのブロックに対して傾きを演
算する。
Further, in the case of a block forming an edge of a group such as the block B 1 , the edge is taken into consideration, k 0 (1) = 0 k 45 (1) = │d 4 -d 1 | / √ (2) m k 90 (1) = | d 3 −d 1 | / m k 135 (1) = | d 2 −d 1 | / √ (2) m block data in the group Calculate using only. Similarly, the slope is calculated for all blocks.

【0034】次に、グループ全体の傾きを表わす指数と
して を演算し、この中の最大値をグループの傾きを表わす指
数kmax とする。
Next, as an index representing the inclination of the entire group Is calculated, and the maximum value among them is set as an index kmax indicating the slope of the group.

【0035】ここで、光軸に垂直な面に対する角度は、 θmax ≒tan-1(kmax /m) で表すことができ、これをグループの傾斜角とする。Here, the angle with respect to the plane perpendicular to the optical axis can be expressed by θ max ≈tan −1 (k max / m), which is taken as the tilt angle of the group.

【0036】以上の傾きの演算をすべてのグループにつ
いて行い、主被写体の評価要素とする。
The above-described inclination calculation is performed for all the groups and used as the evaluation element of the main subject.

【0037】例えば、公知の測距領域選択のアルゴリズ
ムに“光軸に垂直な面に対して所定値(例えば30度
等)以上傾いているグループは、主被写体として認識し
ない”という条件を加えることにより、図6や図3のよ
うな撮影シーンにおいても、壁やテーブル面等を主被写
体候補から除外することができ、正しく主被写体を認識
することが可能となる。
For example, a condition that "a group tilted by a predetermined value (for example, 30 degrees or more) with respect to a plane perpendicular to the optical axis is not recognized as a main subject" is added to the known distance measuring area selection algorithm. As a result, even in the shooting scenes shown in FIGS. 6 and 3, the wall, the table surface, etc. can be excluded from the main subject candidates, and the main subject can be correctly recognized.

【0038】また、ここでは所定値を角度に対して設定
したが、傾きを表わす指数kmax に対して所定値を設定
しても、傾き角度としては距離により多少の変動はある
ものの、ほぼ同様の演算が可能である。
Although the predetermined value is set with respect to the angle here, even if the predetermined value is set with respect to the index k max indicating the inclination, the inclination angle is almost the same although there is some variation depending on the distance. Can be calculated.

【0039】再び図2に戻る。Returning to FIG. 2 again.

【0040】次に、ステップ(105)では、上記ステ
ップ(104)で主被写体と判定したグループの領域中
からレンズ駆動を用いる測距領域を決定して測距情報を
得る。
Next, in step (105), a distance measurement area using lens drive is determined from the area of the group determined to be the main subject in step (104) to obtain distance measurement information.

【0041】上記測距領域の判定アルゴリズムは、最至
近優先,コントラスト優先、あるいは深度優先などの公
知のアルゴリズムが考えられる他、例えばグループの形
状が人間に近いと判定できた場合には、顔面である上部
を合焦対象とするなどのアルゴリズムがある。
Known algorithms such as closest priority, contrast priority, or depth priority can be considered as the determination algorithm of the distance measurement area. For example, when it is determined that the shape of the group is close to human, There is an algorithm such as focusing on a certain upper part.

【0042】次のステップ(106)では、上記ステッ
プ(105)で決定した測距データに基づき、図1のレ
ンズ駆動回路206を介してレンズ駆動を行う。続くス
テップ(107)では、スイッチSW1のON状態が継
続されているか否かを判別し、継続中であればステップ
(108)へ進み、一方OFFであればステップ(10
1)の初期状態へ戻る。
In the next step (106), the lens is driven through the lens drive circuit 206 of FIG. 1 based on the distance measurement data determined in the above step (105). In the following step (107), it is determined whether or not the ON state of the switch SW1 is continued, and if it is continuing, the process proceeds to step (108), while if it is OFF, the step (10) is performed.
Return to the initial state of 1).

【0043】次のステップ(108)では、スイッチS
W2がONしているか否かを判別し、OFFであれば前
記ステップ(107)へ戻り、上記の様にスイッチSW
1の状態の判別を行う。また、ONしていた場合にはス
テップ(109)に移り、シャッタ制御回路204や不
図示の絞り制御回路を駆動して公知の露光動作を実行
し、次いでフィルム制御回路105を駆動して撮影駒の
1駒巻上げを行い、一連の動作を終了する。
In the next step (108), the switch S
It is determined whether or not W2 is ON. If it is OFF, the process returns to step (107), and the switch SW is set as described above.
The state of 1 is determined. If it is turned on, the process proceeds to step (109) to drive the shutter control circuit 204 and an aperture control circuit (not shown) to execute a known exposure operation, and then drive the film control circuit 105 to move the photographing frame. One frame is wound and a series of operations is completed.

【0044】以上の実施の第1の形態においては、絶対
距離を算出する測距手段を具備したカメラを想定して説
明をしてきたが、勿論デフォーカス量を算出する焦点検
出装置を具備したカメラであっても同様に適用できるも
のである。
In the first embodiment described above, the description has been made assuming the camera provided with the distance measuring means for calculating the absolute distance, but of course the camera provided with the focus detection device for calculating the defocus amount. However, it can be similarly applied.

【0045】(実施の第2の形態)次に、本発明による
第2の実施例について説明する。なお、カメラの回路構
成や撮影全体の処理の流れは、実施の第1の形態で用い
た図1のフローチャートと同様であるので、ここではこ
れらの図示は省略する。
(Second Embodiment) Next, a second embodiment according to the present invention will be described. Note that the circuit configuration of the camera and the flow of the entire processing of photographing are the same as those in the flowchart of FIG. 1 used in the first embodiment, and therefore these are not shown here.

【0046】上記実施の第1の形態と異なるのは、図2
のステップ(104)での主被写体判断における傾きの
度合の判断アルゴリズムであり、ステップ(103)で
グルーピングされた個々のグループについて、その傾き
の度合を簡単に算出する例について説明する。
FIG. 2 is different from the first embodiment described above.
An example of a determination algorithm of the degree of inclination in the main subject determination in step (104) of (3), in which the degree of inclination is simply calculated for each group grouped in step (103) will be described.

【0047】例えば、図5のような、一つのグループに
含まれるすべてのブロックB1 〜B6 で測距した距離デ
ータの中から、最大,最小の距離dmax ,dmin を求
め、これらの距離差 ddiff=dmax −dmin …………(1) を演算する。
For example, as shown in FIG. 5, the maximum and minimum distances d max and d min are obtained from the distance data measured in all the blocks B 1 to B 6 included in one group, and these are calculated. Distance difference d diff = d max −d min (1) is calculated.

【0048】この距離差は物体表面の奥行きを表わして
おり、被写体が撮影光軸に対して傾いているかどうかを
表わす簡単な指標となる。
This distance difference represents the depth of the surface of the object, and is a simple index indicating whether the subject is tilted with respect to the photographing optical axis.

【0049】以上の距離差の演算をすべてのブロックに
ついて行い、主被写体の評価要素とする。
The above calculation of the distance difference is carried out for all the blocks and used as the evaluation element of the main subject.

【0050】この距離差が所定値を上回っている場合、
その物体はある程度の傾きを有するものとして主被写体
候補から除外することができる。
If this distance difference exceeds a predetermined value,
The object can be excluded from the main subject candidates as having an inclination to some extent.

【0051】例えば、所定値を1mに設定した場合、図
6や図3のシーンでは、壁やテーブルは距離差が1m以
上あるので主被写体候補から除外されるのに対して、正
立した人間は、距離差が1m以上になることは少ないの
で主被写体候補は人物に設定される。
For example, when the predetermined value is set to 1 m, in the scenes of FIG. 6 and FIG. 3, the wall and the table are excluded from the main subject candidates because the distance difference is 1 m or more, but the erect human being is excluded. Is unlikely to have a distance difference of 1 m or more, the main subject candidate is set to a person.

【0052】被写体までのデフォーカスを検出すること
が可能なカメラの場合でも、これに近い演算が可能であ
る。一つのグループ内のすべてのデフォカス結果の中か
ら、最大,最小のデフォーカスdfmax,dfminを求め、
これらのデフォーカス差 dfdiff =dfmax−dfmin …………(2) を演算する。ここでデフォーカス値は、物体までの距離
をdf とすると df =a/d+b …………(3) で表わすことができる。ここで、a,bは測距光学形に
よって決まる定数である。従って、上記(2)式は dfdiff =dfmax−dfmin ={(a/dmin )+b}−{(a/dmax )+b} =a・{(dmax −dmin )/(dmin ・dmax )} …………(4) となり、上記(1)式に比べると、同じ距離差でも絶対
距離によりデフォーカス差に変動があるものの、特に近
距離の被写体に対して傾きの有無を判断することが可能
であり、デフォーカス値からでも傾きを考慮した主被写
体判断は可能である。
Even in the case of a camera capable of detecting the defocus up to the subject, a calculation close to this can be performed. The maximum and minimum defocus d fmax and d fmin are obtained from all the defocus results in one group,
These defocus difference d fdiff = d fmax -d fmin ............ (2) to calculate. Here, the defocus value can be expressed as follows: d f = a / d + b (3) where d f is the distance to the object. Here, a and b are constants determined by the ranging optical type. Therefore, equation (2) d fdiff = d fmax -d fmin = {(a / d min) + b} - {(a / d max) + b} = a · {(d max -d min) / (d min · d max )} ………… (4) Compared to the above formula (1), the defocus difference varies depending on the absolute distance even if the distance is the same, but the inclination is particularly large for a short-distance subject. It is possible to determine the presence or absence, and it is possible to determine the main subject in consideration of the inclination even from the defocus value.

【0053】以上、実施の第2の形態では、簡単な傾き
判断のアルゴリズムを導入することにより、マイクロコ
ンピュータの演算スピードが遅いカメラ等においても、
高速に主被写体判断を行うことができるという利点があ
る。
As described above, in the second embodiment, by introducing a simple inclination judgment algorithm, even in a camera or the like in which the operation speed of the microcomputer is slow,
There is an advantage that the main subject determination can be performed at high speed.

【0054】以上の各実施の形態によれば、撮影空間を
細かくブロック分割測距してグルーピングの後、各物体
の傾きの度合を演算して、この傾き情報を主被写体判断
の判断要素に加えて主被写体を判断することにより、測
距点の候補領域を有効に限定することが可能となり、従
来のような測距点の誤判断を大幅に低減することが可能
となる。従って、どのような撮影シーンであっても、常
に意図した主被写体にあった写真撮影を自動的に行うこ
とが可能となる。
According to each of the above-mentioned embodiments, after the distance of the photographing space is finely divided into blocks and the distances are grouped, the degree of inclination of each object is calculated, and the inclination information is added to the main subject judgment element. By determining the main subject based on this, it becomes possible to effectively limit the candidate areas of the focus detection points, and it is possible to greatly reduce the erroneous determination of the focus detection points as in the conventional case. Therefore, in any shooting scene, it is possible to always automatically take a picture of the intended main subject.

【0055】(発明と実施の形態の対応)本実施の形態
において、マイクロコンピュータ203内の、図2にお
けるステップ(102),(103)の動作を実行する
部分が本発明の領域分割手段に相当し、ステップ(10
4)の動作を実行する部分が本発明の領域抽出手段に相
当する。
(Correspondence between Invention and Embodiment) In this embodiment, the portion of the microcomputer 203 which executes the operations of steps (102) and (103) corresponds to the area dividing means of the present invention. And step (10
The part that executes the operation of 4) corresponds to the area extracting means of the present invention.

【0056】以上が実施の形態の各構成と本発明の各構
成の対応関係であるが、本発明は、これら実施の形態の
構成に限定されるものではなく、請求項で示した機能、
又は実施の形態がもつ機能が達成できる構成であればど
のようなものであってもよいことは言うまでもない。
The above is the correspondence relationship between each configuration of the embodiments and each configuration of the present invention, but the present invention is not limited to the configurations of these embodiments, and the functions shown in the claims,
Needless to say, any configuration may be used as long as the functions of the embodiment can be achieved.

【0057】(変形例)本発明は、一眼レフカメラ等の
カメラに適用した場合を例にしているが、該カメラに搭
載される測距装置,焦点検出装置,焦点調節装置であっ
ても良いし、更には環境認識装置、例えばエアコン(例
えば人物を認識してその方向に風向きを設定する装置と
して利用)や車(人物認識装置として利用)等の装置に
も適用可能である。
(Modification) The present invention is applied to a camera such as a single-lens reflex camera by way of example, but may be a distance measuring device, a focus detecting device or a focus adjusting device mounted on the camera. Further, it is also applicable to environment recognition devices such as air conditioners (for example, used as a device for recognizing a person and setting the wind direction in that direction) and cars (used as a person recognition device).

【0058】その他、本発明が適用される測距装置や焦
点検出装置を具備した光学装置、例えば双眼鏡やゲーム
機にも適用可能である。
In addition, the present invention can be applied to an optical device including a distance measuring device and a focus detecting device to which the present invention is applied, such as binoculars and a game machine.

【0059】[0059]

【発明の効果】以上説明したように、本発明によれば、
測距手段あるいはデフォーカス量検出手段による複数の
検出結果に基づいて、観察面を領域分割する領域分割手
段と、領域分割手段により分割された複数の領域の中か
ら主要物体が存在する領域を少なくとも一つ抽出するも
のであって、複数の測距結果に基づいて対物レンズ光軸
に対する物体の傾きの度合を演算し、これを主要物体の
判定要素とする領域抽出手段とを備え、物体の傾きの度
合を演算して、この傾き情報と、絶対距離情報やデフォ
ーカス量を総合的に評価することにより、主要物体を決
定するようにしている。
As described above, according to the present invention,
Based on a plurality of detection results by the distance measuring means or the defocus amount detecting means, at least an area dividing means for dividing the observation surface into an area and an area in which the main object exists among the plurality of areas divided by the area dividing means One is extracted, and the degree of inclination of the object with respect to the optical axis of the objective lens is calculated based on a plurality of distance measurement results, and the area extraction means having this as a determination element of the main object is provided. The main object is determined by calculating the degree of ∘ and comprehensively evaluating the tilt information, the absolute distance information, and the defocus amount.

【0060】よって、観察画面内において主要物体が存
在する領域の自動選択の精度を向上させることができ
る。
Therefore, it is possible to improve the accuracy of automatic selection of the area where the main object exists in the observation screen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の第1の形態に係るカメラの概略
構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a camera according to a first embodiment of the present invention.

【図2】図1のカメラの一連の動作を示すフローチャー
トである。
FIG. 2 is a flowchart showing a series of operations of the camera of FIG.

【図3】本実施の第1の形態における撮影シーンの一例
を示す図である。
FIG. 3 is a diagram showing an example of a shooting scene in the first embodiment.

【図4】本実施の第1の形態において傾き演算を説明す
るための図である。
FIG. 4 is a diagram for explaining a tilt calculation in the first embodiment.

【図5】本実施の実施の第1の形態においてグループ傾
き演算を説明するための図である。
FIG. 5 is a diagram for explaining group tilt calculation in the first embodiment of the present invention.

【図6】従来例と本実施の第1の形態において効果の差
を説明するための撮影シーン例を示す図である。
FIG. 6 is a diagram showing an example of a shooting scene for explaining a difference in effect between the conventional example and the first embodiment.

【図7】図6の距離マップの例を示す図である。7 is a diagram showing an example of the distance map of FIG.

【図8】図7をグルーピングした際の一例を示す図であ
る。
FIG. 8 is a diagram showing an example when the groups shown in FIG. 7 are grouped.

【図9】従来の装置において苦手としていた撮影シーン
例を示す図である。
FIG. 9 is a diagram showing an example of a shooting scene that a conventional apparatus is not good at.

【符号の説明】[Explanation of symbols]

201 エリアセンサ 202 センサ駆動回路 203 マイクロコンピュータ 206 レンズ駆動回路 201 area sensor 202 sensor drive circuit 203 microcomputer 206 lens drive circuit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 観察面内の複数の点を測距する測距手段
と、該測距手段による複数の測距結果に基づいて、観察
面を領域分割する領域分割手段と、領域分割手段により
分割された複数の領域の中から主要物体が存在する領域
を少なくとも一つ抽出する領域抽出手段とを備えた光学
装置において、 前記領域抽出手段は、複数の測距結果に基づいて対物レ
ンズ光軸に対する物体の傾きの度合を演算し、これを主
要物体の判定要素とする手段であることを特徴とする光
学装置。
1. A distance measuring means for measuring a plurality of points on an observation plane, an area dividing means for dividing an observation surface into areas based on a plurality of distance measurement results by the distance measuring means, and an area dividing means. An optical device comprising: an area extracting means for extracting at least one area in which a main object exists from a plurality of divided areas, wherein the area extracting means is an objective lens optical axis based on a plurality of distance measurement results. An optical device, which is a means for calculating a degree of inclination of an object with respect to, and using this as a determination element of a main object.
【請求項2】 前記領域抽出手段により抽出された主要
物体領域の測距結果に基づき、少なくとも一つの測距情
報を算出する測距情報算出手段を具備したことを特徴と
する請求項1記載の光学装置。
2. The distance measuring information calculating means for calculating at least one distance measuring information based on the distance measuring result of the main object area extracted by the area extracting means. Optical device.
【請求項3】 前記領域抽出手段は、前記測距手段によ
り得られる複数の距離情報から対物レンズ光軸に対する
物体の角度を演算し、これを主要物体の判定要素とする
手段を具備したことを特徴とする請求項1又は2記載の
光学装置。
3. The area extracting means comprises means for calculating an angle of the object with respect to the optical axis of the objective lens from a plurality of pieces of distance information obtained by the distance measuring means, and using the calculated angle as an element for determining a main object. The optical device according to claim 1 or 2, which is characterized in that.
【請求項4】 前記領域抽出手段は、前記測距手段によ
り得られる複数の距離情報から物体表面の少なくとも2
点間の距離差を演算し、これを主要物体の判定要素とす
る手段であることを特徴とする請求項1又は2記載の光
学装置。
4. The area extracting means determines at least 2 of the surface of the object from a plurality of distance information obtained by the distance measuring means.
3. The optical device according to claim 1, wherein the optical device is means for calculating a distance difference between points and using the difference as a determination element for a main object.
【請求項5】 観察面内の複数の点のデフォーカス量を
検出するデフォーカス量検出手段と、該デフォーカス量
検出手段による複数のデフォーカス結果に基づいて、観
察面を領域分割する領域分割手段と、領域分割手段によ
り分割された複数の領域の中から主要物体が存在する領
域を少なくとも一つ抽出する領域抽出手段とを備えた光
学装置において、 前記領域抽出手段は、複数のデフォーカス結果に基づい
て対物レンズ光軸に対する物体の傾きの度合を演算し、
これを主要物体の判定要素とする手段であることを特徴
とする光学装置。
5. A defocus amount detection means for detecting defocus amounts of a plurality of points on the observation surface, and area division for dividing the observation surface into areas based on a plurality of defocus results by the defocus amount detection means. Means and an area extraction means for extracting at least one area where a main object exists from the plurality of areas divided by the area division means, wherein the area extraction means is a plurality of defocus results Calculate the degree of inclination of the object with respect to the optical axis of the objective lens based on
An optical device characterized in that it is means for using this as a judgment element of a main object.
【請求項6】 前記領域抽出手段により抽出された主要
物体領域のデフォーカス結果に基づき、少なくとも一つ
のデフォーカス情報を算出するデフォーカス情報算出手
段を具備したことを特徴とする請求項5記載の光学装
置。
6. The defocus information calculating means for calculating at least one defocus information based on the defocus result of the main object area extracted by the area extracting means. Optical device.
【請求項7】 前記領域抽出手段は、前記デフォーカス
検出手段により得られる複数のデフォーカス情報から物
体表面の少なくとも2点間のデフォーカス差を演算し、
これを主要物体の判定要素とする手段であることを特徴
とする請求項5又は6記載の光学装置。
7. The area extracting means calculates a defocus difference between at least two points on an object surface from a plurality of defocus information obtained by the defocus detecting means,
7. The optical device according to claim 5, wherein the optical device is a device that uses this as a determination element for a main object.
JP30232395A 1995-10-27 1995-10-27 Optical device Expired - Fee Related JP3571831B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP30232395A JP3571831B2 (en) 1995-10-27 1995-10-27 Optical device
US08/740,219 US5913082A (en) 1995-10-27 1996-10-25 Image signal processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30232395A JP3571831B2 (en) 1995-10-27 1995-10-27 Optical device

Publications (2)

Publication Number Publication Date
JPH09127405A true JPH09127405A (en) 1997-05-16
JP3571831B2 JP3571831B2 (en) 2004-09-29

Family

ID=17907565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30232395A Expired - Fee Related JP3571831B2 (en) 1995-10-27 1995-10-27 Optical device

Country Status (1)

Country Link
JP (1) JP3571831B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0926526A2 (en) * 1997-12-25 1999-06-30 Canon Kabushiki Kaisha Optical device and method for selecting object of focus
EP0926528A3 (en) * 1997-12-24 1999-12-22 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
JP2002006203A (en) * 2000-06-19 2002-01-09 Olympus Optical Co Ltd Focusing device and image pickup device
JP2006058421A (en) * 2004-08-18 2006-03-02 Samsung Techwin Co Ltd Method and apparatus for controlling automatic focusing
US7209163B1 (en) 1999-06-03 2007-04-24 Fujifilm Corporation Image processing apparatus, image output apparatus, and camera
JP2010177860A (en) * 2009-01-28 2010-08-12 Nikon Corp Image composition apparatus, imaging apparatus, and image composition method
JP2011097645A (en) * 2011-01-31 2011-05-12 Nikon Corp Image synthesizing apparatus, imaging apparatus, and image synthesizing method
US8570427B2 (en) 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01128019A (en) * 1987-11-12 1989-05-19 Minolta Camera Co Ltd Object distance measuring device of camera
JPH02105108A (en) * 1988-10-14 1990-04-17 Olympus Optical Co Ltd Camera incorporating swing and tilt mechanism
JPH02178641A (en) * 1988-12-29 1990-07-11 Nikon Corp Focus detecting device
JPH0437935U (en) * 1990-07-27 1992-03-31
JPH05196858A (en) * 1992-01-22 1993-08-06 Fuji Photo Film Co Ltd Camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01128019A (en) * 1987-11-12 1989-05-19 Minolta Camera Co Ltd Object distance measuring device of camera
JPH02105108A (en) * 1988-10-14 1990-04-17 Olympus Optical Co Ltd Camera incorporating swing and tilt mechanism
JPH02178641A (en) * 1988-12-29 1990-07-11 Nikon Corp Focus detecting device
JPH0437935U (en) * 1990-07-27 1992-03-31
JPH05196858A (en) * 1992-01-22 1993-08-06 Fuji Photo Film Co Ltd Camera

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6088539A (en) * 1997-12-24 2000-07-11 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
US6157782A (en) * 1997-12-24 2000-12-05 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
EP0926528A3 (en) * 1997-12-24 1999-12-22 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
EP0926526B1 (en) * 1997-12-25 2005-04-13 Canon Kabushiki Kaisha Optical device and method for selecting object of focus
EP0926526A3 (en) * 1997-12-25 1999-12-22 Canon Kabushiki Kaisha Optical device and method for selecting object of focus
EP0926526A2 (en) * 1997-12-25 1999-06-30 Canon Kabushiki Kaisha Optical device and method for selecting object of focus
US7071985B1 (en) 1997-12-25 2006-07-04 Canon Kabushiki Kaisha Optical device and method for selecting object of focus
US7209163B1 (en) 1999-06-03 2007-04-24 Fujifilm Corporation Image processing apparatus, image output apparatus, and camera
JP2002006203A (en) * 2000-06-19 2002-01-09 Olympus Optical Co Ltd Focusing device and image pickup device
JP2006058421A (en) * 2004-08-18 2006-03-02 Samsung Techwin Co Ltd Method and apparatus for controlling automatic focusing
JP4520792B2 (en) * 2004-08-18 2010-08-11 サムスン・デジタル・イメージング・カンパニー・リミテッド Automatic focus control method and automatic focus control device
JP2010177860A (en) * 2009-01-28 2010-08-12 Nikon Corp Image composition apparatus, imaging apparatus, and image composition method
JP4710983B2 (en) * 2009-01-28 2011-06-29 株式会社ニコン Image composition device, imaging device, and image composition method
US8570427B2 (en) 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
JP2011097645A (en) * 2011-01-31 2011-05-12 Nikon Corp Image synthesizing apparatus, imaging apparatus, and image synthesizing method

Also Published As

Publication number Publication date
JP3571831B2 (en) 2004-09-29

Similar Documents

Publication Publication Date Title
CN103155537B (en) Based on face detection and the continuous autofocus of tracking
JPH10161013A (en) Environment recognition device and camera provided therewith
JP4018218B2 (en) Optical apparatus and distance measuring point selection method
US8064761B2 (en) Method to determine auto focus of a digital camera
JP2002298142A (en) Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
US5913082A (en) Image signal processing apparatus
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JP3076625B2 (en) Camera ranging device
US4962400A (en) Zooming control device for camera
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP3571831B2 (en) Optical device
JP3335419B2 (en) Camera ranging device
US6636699B2 (en) Focus detection device and distance measurement device
JP2008216719A (en) Focus detecting device, focus adjusting device and imaging apparatus
JP2013085089A (en) Object tracking device and camera
JP3630965B2 (en) Focus detection apparatus, camera, and focus detection method
CN103581553A (en) Object ranging apparatus, imaging apparatus and object ranging method
US9420167B2 (en) Imaging apparatus
JP4497567B2 (en) Focus detection device, distance measuring device and optical instrument
JP4539276B2 (en) Camera photometric device and camera
JP5930792B2 (en) Imaging apparatus and control method thereof
JP2010072559A (en) Imaging apparatus and object area extracting method
JPH0875548A (en) Image sensor system and automatic focal point detector
JP2000019386A (en) Camera
JPS6155620A (en) Automatic focusing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040625

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees