JP2002014275A - Camera - Google Patents

Camera

Info

Publication number
JP2002014275A
JP2002014275A JP2000194806A JP2000194806A JP2002014275A JP 2002014275 A JP2002014275 A JP 2002014275A JP 2000194806 A JP2000194806 A JP 2000194806A JP 2000194806 A JP2000194806 A JP 2000194806A JP 2002014275 A JP2002014275 A JP 2002014275A
Authority
JP
Japan
Prior art keywords
distance
distance measurement
area
screen
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000194806A
Other languages
Japanese (ja)
Inventor
Koichi Nakada
康一 中田
Toshiyuki Matsumoto
寿之 松本
Osamu Nonaka
修 野中
Masataka Ide
昌孝 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000194806A priority Critical patent/JP2002014275A/en
Publication of JP2002014275A publication Critical patent/JP2002014275A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera with an automatic focusing function of accurately deciding a main object, irrespective of a zooming position and a distance up to the object, and accurately finding the range of the object, and further, focusing on the object. SOLUTION: As for the camera, a two-dimensional detection limit area required at operating at a 2nd timing in accordance with the range finding result at the 1st timing is decided by a CPU 1 based on the outputs of sensor arrays 2a and 2b.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、撮影画面内の主要
被写体を検出してピント合せをするオートフォーカス機
能を有するカメラに関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a camera having an autofocus function for detecting a main subject in a photographing screen and performing focusing.

【0002】[0002]

【従来の技術】一般に、オートフォーカス機能を有する
カメラは、画面中心部に位置する被写体を測距して、そ
の被写体の距離に応じてピントを合せるように構成され
ているが、このような構成では、画面周辺部に存在する
被写体に対するピント合せが困難になる。この問題に鑑
みて、画面中心部以外に存在する被写体に対する測距も
併せて行う装置に関する技術も提案されている。
2. Description of the Related Art In general, a camera having an auto-focus function is configured to measure a distance of a subject located at the center of a screen and focus on the subject in accordance with the distance of the subject. In such a case, it becomes difficult to focus on a subject existing in the periphery of the screen. In view of this problem, there has been proposed a technology relating to an apparatus that also performs distance measurement on a subject existing outside the center of the screen.

【0003】ところが、一般に、主要被写体は、画面周
辺部よりも画面中心部に存在する確率が高いので、画面
内の位置を加味した判断に基づいて主要被写体を検出す
る手法の方がピント合せの精度が高くなるといえる。
However, since the main subject is generally more likely to be located at the center of the screen than at the periphery of the screen, the method of detecting the main subject based on the determination in consideration of the position in the screen is more suitable for focusing. It can be said that the accuracy becomes higher.

【0004】しかしながら、コンパクトカメラでは、フ
ァインダの光学系と測距の光学系の光路が異なるため、
特に近距離では視差(以下、パララックスと称する)に
よってファインダ中心と測距センサの中心が異なること
が多かった。
However, in a compact camera, the optical paths of the finder optical system and the distance measuring optical system are different.
Particularly at short distances, the center of the finder and the center of the distance measurement sensor often differ due to parallax (hereinafter, referred to as parallax).

【0005】従って、画面中心部といっても、距離によ
って対応するセンサ位置がずれてしまう事があった。か
かる問題に鑑みてなされた技術としては、特開平8−2
9235号公報により開示されたものがあり、同技術で
は、所謂マクロモードにおいて測距の領域を切り替える
といった工夫をしている。
[0005] Therefore, even if it is the center of the screen, the corresponding sensor position may be shifted depending on the distance. As a technique made in view of such a problem, Japanese Patent Application Laid-Open No. 8-2
There is a technique disclosed in Japanese Patent Application Laid-Open No. 9235/1994, and in this technology, a device is used in which a distance measurement area is switched in a so-called macro mode.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来技術では、マクロモードを採用することを前提として
いるが、マクロモードを採用していないカメラにおいて
も、上述したようなパララックスによる問題は回避でき
ないものであった。
However, in the above prior art, it is assumed that the macro mode is employed. However, even in a camera which does not employ the macro mode, the above-described problem due to parallax cannot be avoided. Was something.

【0007】また、昨今では、コンパクトカメラにズー
ムレンズを搭載する事も多くなり、このような場合、撮
影画角が測距可能範囲と一致しないことがあり、これら
問題に対しても対策を講ずる必要が生じていた。
In recent years, a compact camera is often equipped with a zoom lens. In such a case, the angle of view may not coincide with the range in which the distance can be measured. The need had arisen.

【0008】本発明は、上記問題に鑑みてなされたもの
で、その目的とするところは、ズーミングの位置や被写
体の距離に関わらず、正確に主要被写体を判定して、そ
れに対して正確に測距し、更にはピント合せが行われる
オートフォーカス機能を有するカメラを提供することに
ある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to accurately determine a main subject regardless of the zooming position and the distance to the subject, and to accurately measure the main subject. It is an object of the present invention to provide a camera having an autofocus function for performing focusing and focusing.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様では、撮影画面を観察するファ
インダ手段と、上記ファインダ手段とは異なる光路上に
配設され、上記撮影画面内に二次元的な検出領域を有す
る測距手段と、上記測距手段を第1のタイミングで作動
させたときの結果に従って、上記測距手段を第2のタイ
ミングで作動させるときの二次元的な検出制限領域を決
定する決定手段と、を有する事を特徴とするカメラが提
供される。
In order to achieve the above object, according to a first aspect of the present invention, there is provided a finder for observing a photographic screen, and the finder is disposed on a different optical path from the finder. A distance measuring means having a two-dimensional detection area in a screen, and a two-dimensional moving means for operating the distance measuring means at a second timing according to a result of operating the distance measuring means at a first timing. And a determining means for determining a specific detection restricted area.

【0010】さらに、第2の態様では、上記第1の態様
において、上記測距手段は、被写体の像信号を利用して
測距を行うパッシブ方式と、上記被写体の像には関わり
なく、測距用光を投射した時の上記被写体からの信号成
分に従って測距を行うアクティブ方式と、の少なくとも
いずれかにより測距を行うものであり、上記第1のタイ
ミングでの測距方式と、上記第2のタイミングでの測距
方式を異なるものとすることを特徴とするカメラが提供
される。
Further, in a second aspect, in the first aspect, the distance measuring means is provided with a passive method for measuring a distance using an image signal of the object and a distance measuring means irrespective of the image of the object. The distance measurement is performed by at least one of an active method that measures a distance in accordance with a signal component from the subject when the distance light is projected, and the distance measurement method at the first timing and the active method that measures the distance. A camera is provided, wherein the distance measurement method at the second timing is different.

【0011】そして、第3の態様では、撮影画面を観察
するファインダ手段と、上記ファインダ手段とは異なる
光路上に配設され、上記ファインダ手段の撮影画面と並
び方向に検出領域を有する測距手段と、上記測距手段の
複数の所定領域における測距結果を順次、各々予め定め
られた所定値と比較し、上記比較結果がほぼ等しいと判
断されたとき、当該エリアを中心とした所定の範囲で上
記測距手段による測距を行い、当該測距結果の比較に基
づいて合焦位置を決定する決定手段と、を有することを
特徴とするカメラが提供される。
In a third aspect, a finder means for observing a photographing screen, and a distance measuring means disposed on an optical path different from the finder means and having a detection area in a direction in which the finder means is aligned with the photographing screen. And the distance measurement results in a plurality of predetermined regions of the distance measuring means are sequentially compared with predetermined values, and when it is determined that the comparison results are substantially equal, a predetermined range around the area is determined. And a determination means for determining a focus position based on a comparison of the distance measurement results.

【0012】また、第4の態様では、上記第3の態様に
おいて、上記所定領域は、ズーミング位置によって決定
されることを特徴とするカメラが提供される。
According to a fourth aspect, there is provided the camera according to the third aspect, wherein the predetermined area is determined by a zooming position.

【0013】上記第1乃至第4の態様によれば以下の作
用が奏される。
According to the above-mentioned first to fourth aspects, the following operations are provided.

【0014】即ち、本発明の第1の態様では、ファイン
ダ手段により、撮影画面が観察され、上記ファインダ手
段とは異なる光路上に配設された測距手段により、上記
撮影画面内に二次元的な検出領域が定義され、決定手段
により、上記測距手段を第1のタイミングで作動させた
ときの結果に従って、上記測距手段を第2のタイミング
で作動させるときの二次元的な検出制限領域が決定され
る。
That is, in the first aspect of the present invention, the photographing screen is observed by the finder means, and the distance measuring means disposed on an optical path different from the finder means two-dimensionally displays the photographing screen in the photographing screen. A two-dimensional detection limit area when the distance measuring means is operated at the second timing according to the result obtained when the distance measuring means is operated at the first timing by the determining means. Is determined.

【0015】そして、第2の態様では、上記第1の態様
において、上記測距手段により、上記第1のタイミング
での測距方式と、上記第2のタイミングでの測距方式が
異なるものとされている。
According to a second aspect, in the first aspect, the distance measuring means is different in the distance measuring method at the first timing from the distance measuring method at the second timing. Have been.

【0016】さらに、第3の態様では、ファインダ手段
により撮影画面が観察され、上記ファインダ手段とは異
なる光路上に配設された測距手段により上記ファインダ
手段の撮影画面と並び方向に検出領域が定義され、決定
手段により、上記測距手段の複数の所定領域における測
距結果が順次、各々予め定められた所定値と比較され、
上記比較結果がほぼ等しいと判断されたとき、当該エリ
アを中心とした所定の範囲で上記測距手段による測距が
行われ、当該測距結果の比較に基づいて合焦位置が決定
される。
Further, in the third aspect, the photographing screen is observed by the finder means, and the detection area is arranged in the direction in which the photographing screen of the finder means is arranged by the distance measuring means arranged on an optical path different from the finder means. Defined, by the determination means, the distance measurement results in the plurality of predetermined areas of the distance measurement means are sequentially compared with predetermined predetermined values, respectively,
When it is determined that the comparison results are substantially equal, distance measurement is performed by the distance measuring means in a predetermined range centered on the area, and a focus position is determined based on the comparison of the distance measurement results.

【0017】また、第4の態様では、上記第3の態様に
おいて、上記所定領域は、ズーミング位置によって決定
される。
According to a fourth aspect, in the third aspect, the predetermined area is determined by a zooming position.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0019】先ず、本発明の第1の実施の形態について
説明する。
First, a first embodiment of the present invention will be described.

【0020】図1(c)は、第1の実施の形態に係るカ
メラの外観構成図である。
FIG. 1C is an external configuration diagram of the camera according to the first embodiment.

【0021】同図に示されるように、カメラ100の前
面には、撮影レンズ7、ファインダ対物部23、ストロ
ボ発光部24、測距用窓25が少なくとも配設されてお
り、上面にはレリーズボタン101が設けられている。
As shown in FIG. 1, a photographing lens 7, a finder objective unit 23, a strobe light emitting unit 24, and a distance measuring window 25 are provided at least on the front surface of the camera 100, and a release button is provided on the upper surface. 101 is provided.

【0022】このような構成では、図1(d)に示され
るように、ファインダ対物レンズ50と測距レンズ51
との間の視差Sによって、ファインダ画角と測距範囲が
異なる。同図において斜線で示した領域は、測距は可能
であるが、撮影範囲からは外れているのでピント合せ時
の測距には不適切な領域である。
In such a configuration, as shown in FIG. 1D, a finder objective lens 50 and a distance measuring lens 51 are provided.
The viewfinder angle of view and the distance measurement range are different depending on the parallax S between. In the figure, the area indicated by diagonal lines can be measured, but is out of the shooting range and is therefore inappropriate for distance measurement at the time of focusing.

【0023】図1(a)は、被写体までの距離がL2の
ときの撮影画面と測距領域との関係を示している。ここ
では、測距用センサとしてエリアセンサを利用し、x,
y方向に測距可能な範囲が広がった場合を想定してい
る。この場合、ファインダ画角と測距範囲は、y方向は
同じであるがx方向にずれているので、被写体までの距
離によってセンサアレイがモニタする範囲がx方向にシ
フトする。
FIG. 1A shows the relationship between the shooting screen and the distance measurement area when the distance to the subject is L2. Here, an area sensor is used as a distance measuring sensor, and x,
It is assumed that the range that can be measured in the y direction is widened. In this case, the viewfinder angle of view and the distance measurement range are the same in the y direction but are shifted in the x direction, so that the range monitored by the sensor array shifts in the x direction depending on the distance to the subject.

【0024】一方、図1(b)は、被写体までの距離が
L1のときの撮影画面と測距領域との関係を示したもの
である。被写体までの距離がL2の場合には、センサア
レイのモニタする範囲が図示の如く右側にずれてアンバ
ランスとなるので、図の右側斜線部を使用しないように
して、左右のバランスを調整する。これによって、画面
周辺に存在する被写体に誤ってピント合せしてしまうこ
とを防止する。
On the other hand, FIG. 1B shows the relationship between the photographing screen and the distance measurement area when the distance to the subject is L1. When the distance to the subject is L2, the range monitored by the sensor array shifts to the right side as shown in the figure and becomes unbalanced. Therefore, the right and left balance is adjusted without using the shaded portion on the right side of the figure. As a result, erroneous focusing on a subject existing around the screen is prevented.

【0025】これら図1(a),(b)からも判るよう
に、画面周辺には、壁や机等、主要被写体でないものが
存在することが多いので、上述したような工夫によって
ピント合せの的中率を向上させることができる。また、
被写体までの距離L2より近い距離L1においては、更に
ファインダ内におけるモニタ領域が小さくなり、これに
より画面外の測距領域が増加するので、少なくともこの
領域においては測距を行わないようにして、ピントがず
れるのを防止する。
As can be seen from FIGS. 1 (a) and 1 (b), objects other than the main subject, such as walls and desks, often exist around the screen. The hit rate can be improved. Also,
At a distance L1 shorter than the distance L2 to the subject, the monitor area in the viewfinder is further reduced, thereby increasing the distance measurement area outside the screen. Prevents deviation.

【0026】次に、図3及び図4を参照して、本発明の
カメラが採用する三角測距の原理に基づく測距方法につ
いて説明する。
Next, referring to FIGS. 3 and 4, a description will be given of a distance measuring method based on the principle of triangulation employed by the camera of the present invention.

【0027】尚、以下の実施の形態では、測距装置のセ
ンサ部として、受光素子からなる画素(センサ)がライ
ン状に配置されたものをラインセンサと称し、画素(セ
ンサ)が2次元的、例えばマトリックス状に配置された
ものをエリアセンサと称し、これらをまとめてセンサア
レイと称する。
In the following embodiment, a sensor device of a distance measuring device in which pixels (sensors) each including a light receiving element are arranged in a line is referred to as a line sensor, and the pixels (sensors) are two-dimensionally arranged. For example, those arranged in a matrix are referred to as area sensors, and these are collectively referred to as a sensor array.

【0028】図3,4において、基線長Bだけ離間して
配置された2つの受光レンズ3a,3bを介して、被写
体4の像をセンサアレイ2a,2bが検出すると、その
視差が人の眼と同種の効果によって像の位置の差xを生
じさせる。
3 and 4, when the sensor arrays 2a and 2b detect the image of the subject 4 through the two light receiving lenses 3a and 3b spaced apart by the base line length B, the parallax is detected by the human eye. An image position difference x is produced by the same kind of effect as described above.

【0029】このとき、被写体距離Lは、 L=B・f/x という関係によって求められる。ここで、fは受光レン
ズの焦点距離である。
At this time, the subject distance L is obtained by the relationship L = B · f / x. Here, f is the focal length of the light receiving lens.

【0030】これら2つのセンサアレイ2a,2bの出
力をD/A変換回路10を介して演算制御部(CPU)
1が受けて、被写体像の相対位置差xを求め、上記式に
従って被写体距離Lを算出して、当該被写体距離Lに応
じてピント合わせ部5を制御して、被写体にピントを合
わせる。即ち、上述した各部によりオートフォーカス
(AF)機能を有するカメラが構築される。
The outputs of these two sensor arrays 2a and 2b are processed via a D / A conversion circuit 10 by an arithmetic control unit (CPU).
1 receives the relative position difference x of the subject image, calculates the subject distance L according to the above formula, and controls the focusing unit 5 according to the subject distance L to focus on the subject. That is, a camera having an autofocus (AF) function is constructed by the above-described units.

【0031】また、図6(c)に示されるように、被写
体4がファインダの画面6内の中心に存在せず、光軸か
らx方向に角度θだけずれた位置に存在しても、図4に
示したように、センサアレイ2aのうち基準として用い
るセンサ位置をx0だけずらしてやればよいことにな
る。
As shown in FIG. 6C, even if the object 4 does not exist at the center of the screen 6 of the finder, but exists at a position shifted from the optical axis by an angle θ in the x direction. As shown in FIG. 4, the sensor position used as a reference in the sensor array 2a may be shifted by x0.

【0032】つまり、 θ=arctan(x0/f) の関係によって、θだけずれた位置の被写体を測距する
ことができる。
That is, the distance of a subject shifted by θ can be measured by the relationship θ = arctan (x0 / f).

【0033】このように、ラインセンサを長くすること
によって測距可能位置としてx方向に広がりを持たせる
ことができる。この処理の後は、センサの重点的に測距
すべき位置をパターン検出によって決定すればよい。
As described above, by increasing the length of the line sensor, it is possible to extend the x-direction as a distance measuring position. After this process, the position where the sensor should mainly measure the distance may be determined by pattern detection.

【0034】例えば、図6(b)に示されるように、主
要被写体となる対象物(人物)4が中央に存在しない構
図に対しては、前述した形態では、ピント合わせができ
なかった。かかる点に鑑みて、第1の実施の形態に係る
カメラに採用される測距装置では、ラインセンサに代え
てエリアセンサを採用する。
For example, as shown in FIG. 6B, in a composition in which the object (person) 4 as a main subject does not exist at the center, focusing cannot be performed in the above-described embodiment. In view of the above, in the distance measuring device used in the camera according to the first embodiment, an area sensor is used instead of the line sensor.

【0035】図5(b)に示されるように、ラインセン
サによる測距範囲2a′は、カメラの撮影画面12に対
して、中央部横並びの狭い範囲でしかなかった。
As shown in FIG. 5 (b), the distance measurement range 2a 'by the line sensor was only a narrow range horizontally aligned with the photographing screen 12 of the camera.

【0036】これに対して、第1の実施の形態が採用す
るエリアセンサは、ラインセンサを2次元的に配置した
構成と同様なので、撮影画面12と略同じ測距範囲13
まで測距エリアを広げることができる。
On the other hand, the area sensor employed in the first embodiment has the same configuration as the two-dimensional arrangement of the line sensors.
The ranging area can be extended up to.

【0037】従って、図5(a)に示すような構図で撮
影したい場合、従来の測距装置では、先ず測距時に測距
範囲内(画面中心)に主要被写体を入れて、レリーズボ
タン101を半押して測距した後、その半押し状態を保
持したままカメラを構え直して、撮影したい構図に移動
させた後、レリーズボタン101を更に押し込み露光す
る、所謂フォーカスロック動作という2段階動作による
露光を行っていた。
Therefore, when photographing with a composition as shown in FIG. 5A, in a conventional distance measuring apparatus, first, at the time of distance measurement, a main subject is put in the distance measurement range (the center of the screen), and the release button 101 is pressed. After half-pressing to measure the distance, re-holding the camera while holding the half-pressed state, moving the camera to the composition to be photographed, and further pressing the release button 101 to perform exposure, a so-called focus lock operation is a two-step exposure. I was going.

【0038】しかし、この動作は、撮影前の予備動作に
手間が掛かることや、動きのある被写体では所望する構
図にしている間にシャッタチャンスを逃してしまう等、
即写性に欠けていた。これに対して、第1の実施の形態
のように、エリアセンサを用いて測距可能範囲を広くす
れば、図5(a)に示すような撮影画面においても画面
端に位置する主要被写体を測距することが可能となる。
However, this operation is troublesome because the preliminary operation before photographing takes time, and a moving subject loses a shutter chance while a desired composition is obtained.
It lacked immediate shooting. On the other hand, if the range that can be measured is increased by using an area sensor as in the first embodiment, the main subject located at the edge of the shooting screen as shown in FIG. The distance can be measured.

【0039】しかし、このように画面端の対象物を測距
できる技術を用いたとしても、実施する場合には、測距
可能ポイントが増加した分だけ、主要被写体が撮影画面
内のどこにいるかを検出する技術が重要となる。
However, even if such a technique capable of measuring the distance to the object at the edge of the screen is used, when the technique is implemented, it is possible to determine where the main subject is in the photographing screen by an increase in the number of measurable points. Detection technology is important.

【0040】これらの測距ポイントが極端に増加した場
合、これらの測距ポイントに対して順次調べると処理に
時間がかかり、フォーカスロックより長い時間が必要と
なってしまう。これでは逆効果であり、エリアセンサが
ラインセンサより高価である分だけデメリットが大き
い。
When the number of distance measurement points increases extremely, it takes time to process these distance measurement points sequentially, and a longer time than focus lock is required. This is the opposite effect, and the disadvantage is greater because the area sensor is more expensive than the line sensor.

【0041】以下、図6(a)乃至(c)を参照して、
エリアセンサを利用したAFによって高速に主要被写体
の位置を検出する測距装置の概念について説明する。
Hereinafter, referring to FIGS. 6 (a) to 6 (c),
The concept of a distance measuring device that detects the position of a main subject at high speed by AF using an area sensor will be described.

【0042】先ず、図6(a)に示すように、カメラは
測距を行なうに先立って、撮影画面内に相当する画角で
広く発光する。この時、被写体の距離に応じて、反射信
号光がエリアセンサに入射する反射光のエリアセンサ上
の分布を等価的に図示すると図6(b)に示すようにな
る。
First, as shown in FIG. 6A, the camera emits light at a wide angle of view corresponding to the inside of the photographing screen before performing the distance measurement. At this time, the distribution of the reflected light on the area sensor in which the reflected signal light enters the area sensor according to the distance to the subject is equivalently shown in FIG. 6B.

【0043】この図より明らかなように、煩雑な背景か
らは、その距離が遠い故に反射信号光はほとんど返って
こない。しかし、人物や手前の花などからは、距離が比
較的近い故に反射信号光が返って来るので、エリアセン
サ上のパターンは、図6(b)に示すように、極めて単
純化されたものとなる。
As is apparent from this figure, the reflected signal light hardly returns from a complicated background because the distance is long. However, since the reflected signal light is returned from a person or a flower in the foreground because the distance is relatively short, the pattern on the area sensor is extremely simplified as shown in FIG. Become.

【0044】この略2値化されたパターン信号をカメラ
の演算制御部が所定のパターン判定シーケンスによって
演算制御すれば、撮影画面内のどの位置に主要被写体が
存在するかを判定することができる。
If the arithmetic control unit of the camera performs arithmetic control of the substantially binarized pattern signal according to a predetermined pattern determination sequence, it is possible to determine at which position in the photographing screen the main subject exists.

【0045】この考え方は、前述した図3において説明
したものと同様であり、この位置判定に従って、図6
(c)に示すように、測距ポイントを特定した測距を行
なえば、瞬時に主要被写体が撮影画面内のどこに存在し
ても、その位置にピント合わせができるオートフォーカ
ス(AF)技術が実現できる。
This concept is similar to that described with reference to FIG. 3 described above.
As shown in (c), if the distance measurement is performed by specifying the distance measurement point, the auto focus (AF) technology that can instantly focus on the position of the main subject regardless of where the main subject exists in the shooting screen is realized. it can.

【0046】この時の測距方式としては、カメラ側から
測距用光を投射する所謂アクティブ方式による測距で
も、測距用光を投射しないパッシブ方式の測距でも、そ
の時の状況に応じて切り換えればよい。
As the distance measuring method at this time, whether the distance is measured by a so-called active method in which light for measuring is projected from the camera side or a passive method in which light for measuring is not projected is determined according to the situation at that time. You just need to switch.

【0047】次に、図7(a)は、被写体21をプリ発
光により被写体位置を検出する方式の測距を行なう構成
例を示している。
Next, FIG. 7A shows an example of a configuration for performing distance measurement in a method of detecting the position of the subject 21 by pre-emission of the subject 21.

【0048】先ず、投光部22における投光制御回路2
3の制御によりストロボ24から補助光を被写体21に
投光し、その反射信号光は、2つの受光レンズ25a,
25bへ入射して、それぞれ2つのエリアセンサ26
a,26bに入射する。
First, the light emitting control circuit 2 in the light emitting section 22
Auxiliary light is projected from the strobe 24 to the subject 21 under the control of 3, and the reflected signal light is transmitted to the two light receiving lenses 25a, 25a.
25b, and each of the two area sensors 26
a, 26b.

【0049】これらのエリアセンサ26a,26bは、
被写体像を受像して光電変換し、それらの出力は、A/
D変換回路27でA/D変換されて、各画素のディジタ
ル値が演算制御部(CPU)28に入力される。尚、上
記A/D変換回路27は、積分制御回路27aにより制
御される。
These area sensors 26a and 26b are
A subject image is received and photoelectrically converted, and their outputs are A /
A / D conversion is performed by the D conversion circuit 27, and the digital value of each pixel is input to the arithmetic control unit (CPU). The A / D conversion circuit 27 is controlled by an integration control circuit 27a.

【0050】また、これらのエリアセンサ26a,26
bには、定常光除去回路30が接続されており、演算制
御部28の制御により、撮影画面から定常的に入射する
直流的な光の信号は除去され、ストロボ24からのパル
ス光(補助光)のみが出力信号として得られるようにな
っている。この機能を利用して、測距する方式を「アク
ティブ方式」と称する。
Further, these area sensors 26a, 26
b, a steady light removing circuit 30 is connected, and under the control of the arithmetic and control unit 28, a DC light signal that constantly enters from the photographing screen is removed, and the pulse light (auxiliary light) from the strobe 24 is used. ) Can be obtained as an output signal. A method of measuring a distance using this function is referred to as an “active method”.

【0051】従って、定常光除去回路30を作動させた
状態で、反射信号光をエリアセンサ26a,26b上に
受光させると、その受光面には、図7(b)に示したよ
うな黒の部分からなる像を結ぶことになる。このような
エリアセンサ上に結像された像のパターンの分析は、演
算制御部28に組み込まれたパターン判別部(例えば、
ソフトウェアからなる)によって行ない、像パターンが
人間の形であると判定されれば、これを主要被写体と考
えることができる。
Therefore, when the reflected signal light is received on the area sensors 26a and 26b in a state where the stationary light removing circuit 30 is operated, the light receiving surface has a black light as shown in FIG. It will form an image consisting of parts. The analysis of the pattern of the image formed on such an area sensor is performed by a pattern determination unit (for example,
(Consisting of software), and if it is determined that the image pattern is a human figure, this can be considered as a main subject.

【0052】このような構成の測距装置を前提とし、さ
らに、パララックスによるファインダと測距エリアの位
置誤差を加味してピント合せを行うのが本発明の第1の
実施の形態に係るカメラの特徴点である。
The camera according to the first embodiment of the present invention is based on the premise of the distance measuring apparatus having such a configuration, and further performs the focusing in consideration of the position error between the viewfinder and the distance measuring area by parallax. It is the characteristic point of.

【0053】つまり、先に図6(a)に示した、アクテ
ィブ方式によるプリ発光の結果、図6(b)に示したよ
うにパターンが得られるが、この得られたパターンに従
って両受光センサ(図7の26a,26b)が、先に図
3で説明したような三角測距による距離算出を行なう
(プリ測距)。このとき得られた距離データの最も近い
距離を利用して、本測距を行う。
That is, as a result of the pre-emission by the active method shown in FIG. 6A, a pattern is obtained as shown in FIG. 6B. In FIG. 7, 26a and 26b) calculate the distance by triangulation as described above with reference to FIG. 3 (pre-ranging). The actual distance measurement is performed using the closest distance of the distance data obtained at this time.

【0054】即ち、図2(a)のフローチャートに示さ
れるように、プリ測距を行った後(ステップS1)、最
至近選択を行い(ステップS2)、使用エリアを設定し
た後(図1(a)参照)(ステップS3)、本測距を行
う(ステップS4)。
That is, as shown in the flowchart of FIG. 2A, after the pre-ranging is performed (step S1), the closest selection is performed (step S2), and the use area is set (FIG. a)) (step S3), the actual distance measurement is performed (step S4).

【0055】また、図2(b)のフローチャートに示さ
れるように、改めて再測距を行なわなくてもよい。つま
り、所定エリアを測距することにより像検出を行ない
(ステップS5)、このうち、図1(a)の距離L1の
例の丸印で示すような、略中央部のエリアのみの像を利
用して測距し、その測距結果に従って、改めて使用エリ
アを決定し(ステップS6)、さらに測距ポイント数を
増加させて、その中からピント合せ用の測距データを選
択するようにする(ステップS7)。
Further, as shown in the flowchart of FIG. 2B, it is not necessary to perform the distance measurement again. That is, image detection is performed by measuring the distance of a predetermined area (step S5), and among these, an image of only the substantially central area as shown by a circle in the example of the distance L1 in FIG. 1A is used. In accordance with the result of the distance measurement, an area to be used is determined again (step S6), the number of distance measurement points is further increased, and distance measurement data for focusing is selected from among them (step S6). Step S7).

【0056】この図2(b)のフローチャートのステッ
プS6における使用エリア設定時には、図1のエリアセ
ンサの斜線領域を使用しない範囲で測距ポイントを増加
させる。この斜線領域は、前述したように被写体距離に
よって変化するので、ステップS5の測距結果が近い
程、使用エリアは制限されることになる。具体的には、
遠距離ではx方向に10点、y方向に5点、測距する所
を近距離、例えば距離L1においては、x方向に7点、
y方向には5点の測距を行うようにする。
At the time of setting the use area in step S6 of the flowchart of FIG. 2B, the distance measuring points are increased within a range where the shaded area of the area sensor of FIG. 1 is not used. Since the shaded area changes depending on the subject distance as described above, the closer the distance measurement result in step S5 is, the more the use area is limited. In particular,
At a long distance, 10 points in the x direction, 5 points in the y direction, and a point to be measured at a short distance, for example, at a distance L1, 7 points in the x direction
Distance measurement of five points is performed in the y direction.

【0057】ここで、図2(a)と図2(b)のシーケ
ンスの違いは、後者がステップS5の測距時に全センサ
領域の像信号をCPU等が記憶しておき、その記憶され
たデータを再度利用して、ステップS7における測距を
行うシーケンスになっているという点にある。この他、
カメラ撮影時に、ユーザーがレリーズボタン101(図
1(b)参照)を押し込むと撮影が開始されるが、半押
し状態でONする1stレリーズ(1R)SWを設け、
このスイッチの状態によって、撮影に先立つタイミング
を判定するカメラが広く知られている。
Here, the difference between the sequence shown in FIG. 2A and the sequence shown in FIG. 2B is that the latter stores the image signals of all the sensor areas at the time of distance measurement in step S5, and that the image signals are stored. The point is that the distance measurement sequence in step S7 is performed using the data again. In addition,
When the user presses the release button 101 (see FIG. 1B) during camera shooting, shooting starts. However, a 1st release (1R) SW that is turned on in a half-pressed state is provided.
Cameras that determine timing prior to photographing based on the state of this switch are widely known.

【0058】この1RSWの押下に先立って測距装置を
作動させておき、1RSWの操作時に先立って使用エリ
アを決めておく処理は、図2(c)のフローチャートに
示される。即ち、同処理では、先ず図1(a)に示した
3つの丸印のあたりを測距しておき(ステップS8)、
この3つの点の測距結果のうち最も近い距離に従って
(ステップS9)、使用エリアを設定し(ステップS1
0)、撮影動作に入る時には(ステップS11)、既に
先に図1(a)に斜線で示した領域は使用することなく
測距を行うことができるように所定の設定しておく。そ
して、1RSWの押下により本測距を行う(ステップS
12)。
The process of operating the distance measuring device prior to pressing the 1RSW and determining the use area prior to the operation of the 1RSW is shown in the flowchart of FIG. That is, in the same process, first, the distance is measured around the three circles shown in FIG. 1A (step S8),
The use area is set (step S1) according to the closest distance among the distance measurement results of these three points (step S9).
0) At the start of the photographing operation (step S11), predetermined settings are made so that distance measurement can be performed without using the previously hatched area in FIG. Then, the actual distance measurement is performed by pressing the 1RSW (step S
12).

【0059】このような処理によれば、撮影に先立って
使用エリアが決定されているので、図2(a)、(b)
の処理よりも高速で測距することができる。
According to such processing, since the use area is determined prior to photographing, FIGS. 2 (a) and 2 (b)
Can be measured faster than the processing of

【0060】上述したような工夫をしないと、図8
(a)に示されるようなシーンで人物4が中央に位置す
るにも関わらず、パララックスによりファインダ12の
外側の花瓶4aにセンサが反応し、当該位置にピントを
合せてしまうような事態が起こりえる。そうなると、図
8(b)に示されるように、得られた写真はピントがボ
ケたものとなってしまう。
If the above measures are not taken, FIG.
In the scene as shown in (a), even though the person 4 is located at the center, the sensor reacts to the vase 4a outside the finder 12 due to parallax, and the focus is adjusted to the position. It can happen. Then, as shown in FIG. 8B, the obtained photograph becomes out of focus.

【0061】先に図5を参照して説明したように、画面
内のどこでも測距ができ、ピント合せのできるカメラは
非常に便利ではあるが、本発明のような工夫を施さない
と単純なシーンでも副作用の問題の方が大きくなってし
まう。
As described earlier with reference to FIG. 5, a camera that can measure the distance anywhere on the screen and can focus is very convenient, but it is simple unless the device is modified as in the present invention. In the scene, the problem of side effects is even greater.

【0062】本発明によれば、図8(a)の領域13a
のような画面中心付近をプリ測距してから、その結果に
従って測距領域を図8(c)の領域13aのように絞りこ
んで再測距するので、花瓶4aにピントが合ってしまう
ような副作用なく、正確なピント合せが可能となる。
According to the present invention, the region 13a shown in FIG.
After the pre-range measurement near the center of the screen as described above, the distance measurement area is narrowed down as in the area 13a of FIG. 8C according to the result, and the distance measurement is performed again, so that the vase 4a is in focus. Accurate focusing can be performed without any side effects.

【0063】ところで、図8(d)に示されるシーンの
ように、雑被写体である花瓶4aが画面外になくとも、
人物4にピントを合せたい場合には、花瓶4aにピント
が合ってしまうような状況を回避する技術が必要とな
る。
By the way, as in the scene shown in FIG. 8D, even if the vase 4a which is a rough subject is not outside the screen,
When it is desired to focus on the person 4, a technique for avoiding a situation where the vase 4a is in focus is required.

【0064】そこで、本発明の第2の実施の形態とし
て、かかるシーンでも正しくピント合せできるカメラを
説明する。
Therefore, as a second embodiment of the present invention, a camera that can correctly focus on such a scene will be described.

【0065】先ず、図9を参照して、第2の実施の形態
の基本的な考え方を説明する。
First, the basic concept of the second embodiment will be described with reference to FIG.

【0066】図9(a)において、符号23はファイン
ダであり、距離L2にいる人物4を中心に見ているもの
とする。しかし、視差のために、測距用センサ2aの中
心は、必ずしも人物をモニタせず、むしろ前方にある花
瓶4aをモニタしている。このような状況の下では、花
瓶4aが近距離で且つ正面中央部にある、ということか
ら、カメラは花瓶4aを主被写体としてピント合せをし
てしまう。
In FIG. 9A, reference numeral 23 denotes a finder, which is assumed to be viewed mainly by a person 4 located at a distance L2. However, due to parallax, the center of the distance measuring sensor 2a does not necessarily monitor the person, but rather monitors the vase 4a in front. In such a situation, the camera focuses on the vase 4a as the main subject because the vase 4a is at a short distance and at the center of the front.

【0067】しかしながら、詳細は後述するが、第2の
実施の形態のように、パララックスを十分考慮すれば、
画面中央に位置し主要被写体としようとしたシーンをピ
ントがボケた写真としてしまう事は生じないことにな
る。
However, although details will be described later, if parallax is sufficiently considered as in the second embodiment,
A scene located at the center of the screen and intended to be the main subject will not be a blurred photograph.

【0068】本発明は、近年、コンパクトカメラにも搭
載されるようになったズームレンズにも対応している。
つまり、図9(b)に示されるように、ユーザーの操作
により、図中、符号12T,12Wで示したように、画
面の大きさが変化するカメラでは、エリアセンサ13の
全域が測距領域になると、画面周辺の雑被写体にピント
合せが行われる可能性が高いことに鑑みて、第2の実施
の形態では、ワイド時には、ΔθWとして示した領域の
センサのみを用い、テレ時にはΔθTとして示した領域
のセンサのみを用いて測距を行なう。
The present invention is applicable to a zoom lens which has recently been mounted on a compact camera.
That is, as shown in FIG. 9B, in a camera in which the size of the screen changes as indicated by reference numerals 12T and 12W in the figure by the user's operation, the entire area of the area sensor 13 is the distance measurement area. In the second embodiment, only the sensor in the area indicated as ΔθW is used at the time of widening, and ΔθT is used at the time of telephoto, in view of the possibility that focusing on a rough subject around the screen is likely to be performed. The distance measurement is performed using only the sensor in the region where the distance has been set.

【0069】さらに、距離L2,L1では、図9(c),
(d)に示されるように、測距エリア13と画面12と
がズレていくことも考慮している。
Further, at the distances L2 and L1, FIG.
As shown in (d), it is considered that the distance measurement area 13 and the screen 12 are shifted.

【0070】第2の実施の形態では、距離L1の被写体
に対しては、図9(a)に示されるように、2aのセン
サアレイの角度θ1の部分(光軸からx1のポイント)を
見ており、同様に距離L2に対しては、光軸からx2だけ
離れたセンサ(角度θ2を示す)が中央を見ており、距
離L3に対しては、光軸からx3だけ離れたセンサ(角度
θ3)が正面中央を見ている。
In the second embodiment, as shown in FIG. 9A, for a subject at a distance L1, the portion of the sensor array 2a at an angle θ1 (point x1 from the optical axis) is viewed. Similarly, for the distance L2, a sensor (indicating the angle θ2) away from the optical axis by x2 looks at the center, and for the distance L3, a sensor (angle θ2) away from the optical axis by x3 θ3) looks at the front center.

【0071】ここで、θとxの関係は、受光レンズの焦
点距離を用いて、 tanθ=x/f の関係となる。
Here, the relationship between θ and x is a relationship of tan θ = x / f using the focal length of the light receiving lens.

【0072】ファインダ23がズーミング機能23aを
持つことを考慮して、図10に示されるようなシーケン
スで測距をすれば、図8(d)に示したように、画面中
央に存在する人物に正確なピント合せができる。
In consideration of the fact that the finder 23 has the zooming function 23a, if the distance is measured in a sequence as shown in FIG. 10, as shown in FIG. Accurate focusing is possible.

【0073】即ち、ステップS20はズーム位置を検知
するステップであり、ステップS21はこの結果に従っ
て、センサ上のモニタ範囲(図9(b)のΔθT,ΔθW
参照)を決定するステップである。この後、センサアレ
イ2a,2bにより、被写体像を検出するが、先ず、L
1の距離の中央部をにらむセンサアレイのx1の部分で距
離検出を行う。この結果、Lx1がステップS24にて、
略L1と同じであれば、距離L1 において画面中央部に
被写体がいることが判る。
That is, step S20 is a step of detecting the zoom position, and step S21 is based on the result, and the monitor range on the sensor (ΔθT, ΔθW in FIG.
Reference). Thereafter, the subject images are detected by the sensor arrays 2a and 2b.
Distance detection is performed at the x1 portion of the sensor array that looks at the center of the distance of 1. As a result, Lx1 is set in step S24.
If approximately the same as L1, the distance L1 It can be seen that the subject is in the center of the screen.

【0074】従って、この時、Lx1は重要なピント合せ
距離候補として、ステップS25において、ΔL1を減
算されて、優先度を上げた上、ステップS26にてこの
時の画面中央部θ1を中央にステップS21で決められ
たΔθの範囲で、複数のポイントの測距を行なう。しか
し、この後、ステップS35にて、この中から最も近い
距離を選択してピント合せをするようにしたので、先の
ΔL1減算分、L1は近距離として比較の対象となるた
め、画面中央部が優先されたこととなる。
Therefore, at this time, Lx1 is regarded as an important focusing distance candidate. In step S25, ΔL1 is subtracted to increase the priority, and in step S26, the screen center portion θ1 at this time is centered. Distance measurement is performed for a plurality of points within the range of Δθ determined in S21. However, after that, in step S35, the closest distance is selected from among them for focusing, so that the subtraction of ΔL1 and L1 are to be compared as short distances. Will be prioritized.

【0075】ステップS35の選択時には、距離L1
は、−ΔL1されて比較されるが選択された後は、距離
L1に対してピント合せを行うことは勿論である。
When step S35 is selected, the distance L1
Is compared by -ΔL1, but after the selection is made, it goes without saying that focusing is performed on the distance L1.

【0076】ステップS27,S28,S29,S30
では、上述のプロセスを、距離L2にて同様に繰り返し
ている。
Steps S27, S28, S29, S30
Then, the above process is similarly repeated at the distance L2.

【0077】この距離には、この図では人物4がいるの
で、ステップS27でLx2=L2となる距離Lx2が測距
され、ステップS28をYに分岐し、ステップS29で
Lx2−ΔL2<L1という形で優先度が向上された後、ス
テップS30にてθ2を中心にΔθの範囲で測距が行わ
れる。
In this figure, since there is a person 4 in this figure, the distance Lx2 where Lx2 = L2 is measured in step S27, step S28 is branched to Y, and in step S29, Lx2-ΔL2 <L1 After the priority is improved in step S30, the distance is measured in a range of Δθ around θ2 in step S30.

【0078】この時、手前の花瓶4aも測距されるが、
ステップS29にて、Lx2は、実際よりも近距離として
花瓶4aの距離L1と比較されるので、ステップS35
にて、人物の距離が選択されて、この距離に対して正し
くピント合せが行われる。また、ステップS31〜S3
4は、これと同じ処理を、距離L3に対して適用したも
ので、距離L3の画面中心にあるものを優先した測距と
なる。
At this time, the front vase 4a is also measured,
In step S29, since Lx2 is compared with the distance L1 of the vase 4a as a shorter distance than the actual one, step S35
, The distance of the person is selected, and the focusing is correctly performed on this distance. Steps S31 to S3
Reference numeral 4 denotes the same processing applied to the distance L3, and the distance measurement at the center of the screen with the distance L3 is prioritized.

【0079】尚、人物4の距離を求めるには、像位置θ
2,θL2を検出し、2つのレンズ3a,3b間の距離B
を用いて、 L=B/(tanθL2−tanθ2) を計算すればよい。なお、ステップS22で行った像検
出の結果、十分コントラストのある像信号が得られなか
った時には、ステップS26,S30,34での測距時
に積分制御を切り換えて像検出を再度行い、より信頼性
のある像信号検出を行って高精度化を狙っても良い。
In order to obtain the distance of the person 4, the image position θ
2, θL2 is detected and the distance B between the two lenses 3a, 3b is detected.
L = B / (tan θ L2 −tan θ 2) may be calculated using the following equation. If an image signal with sufficient contrast is not obtained as a result of the image detection performed in step S22, the integration control is switched at the time of distance measurement in steps S26, S30, and 34, and image detection is performed again to improve reliability. It is also possible to aim at higher precision by performing image signal detection with a certain level.

【0080】以上説明したように、第2の実施の形態に
よれば、第1の実施の形態のパララックスを考慮に加
え、ズーミングによる画像変化や画面中心部の被写体を
優先する考え方を加味したので、一層の合焦確率向上が
図れる。
As described above, according to the second embodiment, in addition to the parallax of the first embodiment, the concept of giving priority to the image change due to zooming and the subject at the center of the screen is added. Therefore, the focus probability can be further improved.

【0081】また、第2の実施の形態では、第1の実施
の形態では中央部3点で実施されていたプリ測距を、各
距離の画面中心にて行う。
In the second embodiment, the pre-ranging performed at the central three points in the first embodiment is performed at the center of the screen at each distance.

【0082】また、図11(a)に示されるように、カ
メラの測距窓25とファインダ23が横並びではなく、
斜め方向にずれた形で配置される場合は、上述した本発
明の誤差考慮をx方向(横)のみならずy方向にも適用
すればよい。
As shown in FIG. 11A, the distance measuring window 25 and the finder 23 of the camera are not arranged side by side.
In the case of disposition in an oblique direction, the above-described consideration of the error of the present invention may be applied not only to the x direction (horizontal) but also to the y direction.

【0083】図11(b)の符号6W,6S,6Tは、
各々、広角、標準、望遠のズーム画角を示しており、符
号2aはエリアセンサのモニタ領域を示している。この
ように、前述した実施の形態とは異なり、x方向だけで
はなくy方向も測距するエリアをシフト、限定させてい
く必要がある。
The reference numerals 6W, 6S, 6T in FIG.
Each of them indicates a wide-angle, standard, and telephoto zoom angle of view, and reference numeral 2a indicates a monitor area of the area sensor. As described above, unlike the above-described embodiment, it is necessary to shift and limit the area to be measured not only in the x direction but also in the y direction.

【0084】そこで、ここでは、図12を用いて、その
制限の方法について説明する。
Here, a method of the limitation will be described with reference to FIG.

【0085】測距センサ2aの中心が、ファインダ26
の中心と同じ座標Cを見る距離をL0とし、ファインダ
の画角を片側θ、測距センサの画角を片側φとすると、
距離L1の被写体を測距しようとすると、図中Aという
記号で示した部分は、測距に用いる方がよい。この部分
は、パララックスにより画面からはみ出している(図1
(2)の距離L1の斜線部に相当)ので、この部分でピ
ント合せを行っても、画面内には、その被写体は写らな
いからである。
The center of the distance measuring sensor 2a is
Assuming that the distance to view the same coordinate C as the center of L is L0, the angle of view of the viewfinder is one side θ, and the angle of view of the distance measuring sensor is one side φ,
When trying to measure the distance of the subject at the distance L1, it is better to use the portion indicated by the symbol A in the figure for distance measurement. This part protrudes from the screen due to parallax (see FIG. 1).
(Corresponding to the shaded portion of the distance L1 in (2)), so that even if focusing is performed at this portion, the subject is not captured in the screen.

【0086】そこで、このAの部分の範囲を計算によっ
て求める。まず、ファインダ光軸と測距用レンズ間の距
離をSとし、図中Dを求めると、 L0:S=(L0−L1):D より、 D=S×(L0−L1)/L0=S−(SL1/L0) となり、 B=L1tanθ−D=L1tanθ−S+{(S・L
1)/L0} となる。従って A=L1tanθ−B なので、 A=L1tanφ−L1tanθ+S−(SL1/L0) ≒S+L1(tanφ−tanθ)=S−L1(tanφ
−tanθ) となる。このAを角度で換算すると、arctan(A/L
1)となる。
Therefore, the range of the portion A is obtained by calculation. First, assuming that the distance between the finder optical axis and the distance measuring lens is S, and D in the figure is obtained, L0: S = (L0−L1): D, D = S × (L0−L1) / L0 = S − (SL1 / L0), and B = L1 tan θ−D = L1 tan θ−S + {(S · L
1) / L0}. Therefore, since A = L1 tan θ−B, A = L1 tan φ−L1 tan θ + S− (SL1 / L0) ≒ S + L1 (tan φ−tan θ) = S−L1 (tan φ)
−tan θ). When this A is converted into an angle, arctan (A / L
1)

【0087】距離L1が求まれば、その時のズーム位置
よりθが求まり、S,φは既に決まった値なので、上記
測距に用いない部分はCPUの計算によって算出でき
る。
When the distance L1 is obtained, θ is obtained from the zoom position at that time, and since S and φ are already determined values, the portion not used for the distance measurement can be calculated by the CPU.

【0088】このような関係を、x方向のみならず、y
方向にも適用し、カメラを制御するCPUが、図2
(b)のようなフローでステップS6の使用エリア決定
の際に上述のA部分を排除するようにすれば、図11
(a)に示されるように、x,y方向に測距系と、ファ
インダがずれたレイアウトのカメラでも、正確にファイ
ンダ画面内のもののみを測距することができる。
Such a relationship can be expressed not only in the x direction but also in the y direction.
CPU that controls the camera by applying to the direction
If the above-mentioned part A is excluded when the use area is determined in step S6 in the flow as shown in FIG.
As shown in (a), even with a distance measuring system in the x and y directions and a camera with a layout in which the viewfinder is displaced, it is possible to accurately measure only the object in the viewfinder screen.

【0089】さらに、カメラの視差としては、ファイン
ダ23と測距エリア25の他、図13のように、ファイ
ンダと撮影レンズ7の撮影画角の差、ファインダと露出
用の測光範囲の差、等を考慮しなければならない。
Further, in addition to the viewfinder 23 and the distance measuring area 25, as shown in FIG. 13, the camera parallax includes the difference in the angle of view between the viewfinder and the photographing lens 7, the difference in the metering range between the viewfinder and the exposure, and the like. Must be considered.

【0090】第2の実施の形態では、測距エリアの切換
について重点的に説明したが、測距エリアの切換と同時
に、測光部101の範囲を切り換える応用も同じ考え方
で可能である。また、本発明のプリ測距の考え方によっ
てファインダの画面を、液晶等で切り換えてもよい(図
14参照)。
In the second embodiment, the switching of the distance measurement area has been mainly described. However, the application of switching the range of the photometry unit 101 simultaneously with the switching of the distance measurement area is also possible based on the same concept. Further, the screen of the finder may be switched by a liquid crystal or the like according to the concept of pre-ranging according to the present invention (see FIG. 14).

【0091】[0091]

【発明の効果】以上詳述したように、本発明によれば、
ズーミングの位置や被写体の距離に関わらず、正確に主
要被写体を判定して、それに対して正確に測距し、更に
はピント合せが行われるオートフォーカス機能を有する
カメラを提供することができる。
As described in detail above, according to the present invention,
It is possible to provide a camera having an autofocus function for accurately determining a main subject, accurately measuring a distance to the main subject, and further performing focusing, regardless of a zooming position and a subject distance.

【図面の簡単な説明】[Brief description of the drawings]

【図1】(a)は被写体までの距離がL2のときの撮影
画面と測距領域との関係を示す図であり、(b)は被写
体までの距離がL2のときの撮影画面と測距領域との関
係を示す図であり、(c)は第1の実施の形態に係るカ
メラの外観構成図であり、(d)はファインダ対物レン
ズ50と測距レンズ51との間の視差Sを示す図であ
る。
FIG. 1A is a diagram illustrating a relationship between a photographing screen when a distance to a subject is L2 and a distance measurement area, and FIG. 1B is a diagram illustrating a photographing screen and a distance measurement when the distance to a subject is L2. FIG. 3C is a diagram illustrating a relationship with a region, FIG. 4C is an external configuration diagram of the camera according to the first embodiment, and FIG. 4D is a diagram illustrating a parallax S between a finder objective lens 50 and a distance measuring lens 51. FIG.

【図2】(a)乃至(c)は、第1の実施の形態に係る
カメラの動作を説明するためのフローチャートである。
FIGS. 2A to 2C are flowcharts for explaining the operation of the camera according to the first embodiment.

【図3】本発明のカメラが採用する三角測距の原理に基
づく測距方法について説明するための図である。
FIG. 3 is a diagram for explaining a distance measuring method based on the principle of triangular distance measurement adopted by the camera of the present invention.

【図4】本発明のカメラが採用する三角測距の原理に基
づく測距方法について説明するための図である。
FIG. 4 is a diagram for explaining a distance measuring method based on the principle of triangular distance measurement adopted by the camera of the present invention.

【図5】(a)はエリアセンサを用いて測距可能範囲を
広くすることで画面端に位置する主要被写体を測距する
ことが可能となる撮影画面の一例を示す図であり、
(b)はラインセンサによる測距範囲2a′は、カメラ
の撮影画面12に対して、中央部横並びの狭い範囲であ
ることを示す図である。
FIG. 5A is a diagram illustrating an example of a shooting screen in which a range of a main subject located at an edge of a screen can be measured by increasing a range capable of measuring a distance using an area sensor;
(B) is a diagram showing that the distance measurement range 2a 'by the line sensor is a narrow range horizontally aligned at the center with respect to the photographing screen 12 of the camera.

【図6】(a)乃至(c)は、エリアセンサを利用した
AFによって高速に主要被写体の位置を検出する測距装
置の概念について説明するための図である。
FIGS. 6A to 6C are diagrams for explaining the concept of a distance measuring device that detects the position of a main subject at high speed by AF using an area sensor.

【図7】(a)は被写体21をプリ発光により被写体位
置を検出する方式の測距を行なう構成例を示す図であ
り、(b)は定常光除去回路30を作動させた状態で、
反射信号光をエリアセンサ26a,26b上に受光させ
た受光面の様子を示す図である。
7A is a diagram illustrating a configuration example in which distance measurement is performed by a method of detecting a position of a subject 21 by pre-emission of the subject 21. FIG. 7B illustrates a state in which a stationary light removal circuit 30 is operated.
FIG. 4 is a diagram showing a state of a light receiving surface where reflected signal light is received on area sensors 26a and 26b.

【図8】(a)乃至(d)は各種撮影画面例を示す図で
ある。
FIGS. 8A to 8D are diagrams showing examples of various photographing screens.

【図9】(a)乃至(d)は第2の実施の形態に係るカ
メラの基本概念を説明するための図である。
FIGS. 9A to 9D are views for explaining a basic concept of a camera according to a second embodiment.

【図10】第2の実施の形態に係るカメラの測距動作を
説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining a distance measuring operation of the camera according to the second embodiment.

【図11】(a)及び(b)は、第2の実施の形態に係
るカメラの改良例について説明するための図である。
FIGS. 11A and 11B are diagrams for describing an improved example of the camera according to the second embodiment.

【図12】第2の実施の形態に係るカメラの改良例の基
本原理を説明するための図である。
FIG. 12 is a diagram for explaining a basic principle of an improved example of the camera according to the second embodiment.

【図13】第2の実施の形態に係るカメラの改良例を説
明するための図である。
FIG. 13 is a diagram for describing an improved example of the camera according to the second embodiment.

【図14】第2の実施の形態に係るカメラの改良例を説
明するための図である。
FIG. 14 is a diagram for describing an improved example of the camera according to the second embodiment.

【符号の説明】[Explanation of symbols]

1 演算制御部 2 センサアレイ 3 受光レンズ 4 被写体 5 ピント合わせ部 6 ファインダの画面 7 撮影レンズ 8 ストロボ発光部 9 ストロボ発光部 10 D/A変換回路 Reference Signs List 1 arithmetic control unit 2 sensor array 3 light receiving lens 4 subject 5 focusing unit 6 viewfinder screen 7 photographing lens 8 strobe light emitting unit 9 strobe light emitting unit 10 D / A conversion circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 野中 修 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 井出 昌孝 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 2H011 AA01 BA05 BA14 CA01 2H051 BB07 BB09 BB20 CB22 DA02 DA03 DB01 EA29 EB13  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Osamu Nonaka 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (72) Inventor Masataka Ide 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Co., Ltd. F-term (reference) 2H011 AA01 BA05 BA14 CA01 2H051 BB07 BB09 BB20 CB22 DA02 DA03 DB01 EA29 EB13

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 撮影画面を観察するファインダ手段と、 上記ファインダ手段とは異なる光路上に配設され、上記
撮影画面内に二次元的な検出領域を有する測距手段と、 上記測距手段を第1のタイミングで作動させたときの結
果に従って、上記測距手段を第2のタイミングで作動さ
せるときの二次元的な検出制限領域を決定する決定手段
と、を有する事を特徴とするカメラ。
1. A finder means for observing a photographing screen, a distance measuring means arranged on an optical path different from the finder means and having a two-dimensional detection area in the photographing screen, A determining means for determining a two-dimensional detection limited area when the distance measuring means is operated at the second timing, according to a result obtained when the distance measuring means is operated at the first timing.
【請求項2】 上記測距手段は、 被写体の像信号を利用して測距を行うパッシブ方式と、 上記被写体の像には関わりなく、測距用光を投射した時
の上記被写体からの信号成分に従って測距を行うアクテ
ィブ方式と、の少なくともいずれかにより測距を行うも
のであり、 上記第1のタイミングでの測距方式と、上記第2のタイ
ミングでの測距方式を異なるものとすることを特徴とす
る請求項1に記載のカメラ。
2. The method according to claim 1, wherein the distance measuring unit performs a distance measurement using an image signal of the object, and a signal from the object when the distance measuring light is projected irrespective of the image of the object. The distance measurement is performed by at least one of an active method that measures the distance according to the component. The distance measurement method at the first timing is different from the distance measurement method at the second timing. The camera according to claim 1, wherein:
【請求項3】 撮影画面を観察するファインダ手段と、 上記ファインダ手段とは異なる光路上に配設され、上記
ファインダ手段の撮影画面と並び方向に検出領域を有す
る測距手段と、 上記測距手段の複数の所定領域における測距結果を順
次、各々予め定められた所定値と比較し、上記比較結果
がほぼ等しいと判断されたとき、当該エリアを中心とし
た所定の範囲で上記測距手段による測距を行い、当該測
距結果の比較に基づいて合焦位置を決定する決定手段
と、を有することを特徴とするカメラ。
3. A finder means for observing a photographing screen, a distance measuring means arranged on an optical path different from the finder means and having a detection area in a direction parallel to the photographing screen of the finder means; The distance measurement results in a plurality of predetermined areas are sequentially compared with predetermined values, and when it is determined that the comparison results are substantially equal, the distance measurement means performs a predetermined range centering on the area. Determining means for performing distance measurement and determining a focus position based on a comparison of the distance measurement results.
【請求項4】 上記所定領域は、ズーミング位置によっ
て決定されることを特徴とする請求項3に記載のカメ
ラ。
4. The camera according to claim 3, wherein the predetermined area is determined by a zooming position.
JP2000194806A 2000-06-28 2000-06-28 Camera Withdrawn JP2002014275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000194806A JP2002014275A (en) 2000-06-28 2000-06-28 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000194806A JP2002014275A (en) 2000-06-28 2000-06-28 Camera

Publications (1)

Publication Number Publication Date
JP2002014275A true JP2002014275A (en) 2002-01-18

Family

ID=18693572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000194806A Withdrawn JP2002014275A (en) 2000-06-28 2000-06-28 Camera

Country Status (1)

Country Link
JP (1) JP2002014275A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059415A (en) * 2009-09-10 2011-03-24 Canon Inc Image pickup apparatus and range-finding method
CN103246130A (en) * 2013-04-16 2013-08-14 广东欧珀移动通信有限公司 Focusing method and device
JP5637995B2 (en) * 2009-10-30 2014-12-10 株式会社オプトエレクトロニクス Optical information reader

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011059415A (en) * 2009-09-10 2011-03-24 Canon Inc Image pickup apparatus and range-finding method
JP5637995B2 (en) * 2009-10-30 2014-12-10 株式会社オプトエレクトロニクス Optical information reader
CN103246130A (en) * 2013-04-16 2013-08-14 广东欧珀移动通信有限公司 Focusing method and device

Similar Documents

Publication Publication Date Title
JP4963569B2 (en) Imaging system and lens unit
US20040183939A1 (en) Camera having AF function
JP2003029135A (en) Camera, camera system and photographic lens device
JP2004157456A (en) Camera and range-finding method of camera
JP3738795B2 (en) Electronic still camera
JP4398017B2 (en) Ranging device
US8724010B2 (en) Image pickup apparatus with thinning-out section
JPH10186460A (en) Range-finding device for camera
JP2006254413A (en) Imaging apparatus and camera body
JP4892014B2 (en) camera
JP4426670B2 (en) Camera focusing device
JP2002014275A (en) Camera
JP5170266B2 (en) Imaging device and camera body
JPH11109218A (en) Automatic focus detector
JP2004361431A (en) Imaging unit
JP4282300B2 (en) Camera ranging device
JP3963535B2 (en) Multi-point distance measuring device
JP2002214516A (en) Autofocusing camera
JP3798866B2 (en) Ranging device
JP2001154225A (en) Deflection detecting device and device with deflection detecting function
JPS6155619A (en) Automatic focusing device
JP2002131630A (en) Range-finding sensor and range-finding device
JP2001343578A (en) Camera
JP2013187776A (en) Photometric apparatus and imaging apparatus
JP2003015021A (en) Range-finding device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070904