JP2001075000A - Camera - Google Patents

Camera

Info

Publication number
JP2001075000A
JP2001075000A JP24786899A JP24786899A JP2001075000A JP 2001075000 A JP2001075000 A JP 2001075000A JP 24786899 A JP24786899 A JP 24786899A JP 24786899 A JP24786899 A JP 24786899A JP 2001075000 A JP2001075000 A JP 2001075000A
Authority
JP
Japan
Prior art keywords
camera
screen
main subject
display
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP24786899A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Masataka Ide
昌孝 井出
Takashi Kindaichi
剛史 金田一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP24786899A priority Critical patent/JP2001075000A/en
Publication of JP2001075000A publication Critical patent/JP2001075000A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a camera capable of instructing a user what point in a screen range-finding is to be performed to, realizing display for multi AF, made easy-to-use considering speediness and operability and hardly having a shutter time lag. SOLUTION: In the camera capable of performing the range-finding to plural points in the screen, any of plural range-finding points is selected by a line-of- sight detection part 29. And, a point within the screen of a finder corresponding to the range-finding point selected by the detection part 29 is judged by a CPU 10. The range-finding point judged by the CPU 10 is displayed within the screen of the finder by the combination of plural lines by a finer optical system 28.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は撮影画面内の複数
ポイントを測距可能なマルチAF搭載のカメラの改良に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of a camera equipped with a multi-AF capable of measuring a plurality of points in a shooting screen.

【0002】[0002]

【従来の技術】画面内の特定のポイントを測距するカメ
ラには、ファインダ内光路に目視可能なターゲットマー
クという表示部が設けられている。このターゲットマー
クにより、撮影者が撮影前にそのポイントに被写体を入
れてレリーズすれば、正しいピントで主要被写体にピン
ト合わせできる工夫となっていた。
2. Description of the Related Art A camera for measuring a distance at a specific point on a screen is provided with a display section called a target mark which can be viewed in an optical path in a viewfinder. With this target mark, if the photographer puts the subject at that point before the photographing and releases it, it is possible to focus on the main subject with the correct focus.

【0003】しかし、特定ポイントのみしか測距できな
いこうした装置の場合、構図上の制約が生じる上、撮影
時にフレーミングに専念できないといった課題を有して
いた。更に、ユーザによっては、この工夫を知らず、ピ
ンボケの写真ばかり撮影してしまうケースも多かった。
[0003] However, such an apparatus which can measure distance only at a specific point has a problem that a composition is restricted and that framing cannot be devoted to photographing. Furthermore, depending on the user, there are many cases in which the user takes only out-of-focus photos without knowing this ingenuity.

【0004】そこで、画面内の複数ポイントを測距でき
るようにして、ユーザがフレーミングに専念することが
できる、撮影画面内の複数ポイントを測距可能なマルチ
AFのカメラが市場に出回るようになった。しかしなが
ら、測距ポイントが増加する程、表示方法が複雑になる
こともあって、煩わしさを解消する意味からも、上記タ
ーゲットマークは簡素化される傾向にあった。
Accordingly, a multi-AF camera capable of measuring the distance between a plurality of points in a shooting screen and allowing the user to concentrate on framing by measuring the distance between a plurality of points on the screen has come to market. Was. However, as the number of distance measurement points increases, the display method may become more complicated, and the target mark tends to be simplified from the viewpoint of eliminating inconvenience.

【0005】ところが、反対に上記複数ポイントの何れ
にピントが合うかわからないといった不満も大きくなっ
た。
However, on the other hand, the complaint that it is difficult to determine which of the above-mentioned plurality of points is in focus has increased.

【0006】[0006]

【発明が解決しようとする課題】上述したような課題を
解決するために、例えば特開平8−286253号公報
に記載されたような技術があったが、これはファインダ
内の測距ポイント上を着色で表示するもので、非常に煩
わしい表示となる。特に、ポートレートの場合等、顔の
上が塗りつぶされて肝心の顔等が良く見えなくなってし
まうものであった。
In order to solve the above-mentioned problems, for example, there is a technique described in Japanese Patent Application Laid-Open No. 8-286253. The display is colored, which is very troublesome. In particular, in the case of a portrait or the like, the top of the face is painted out and the essential face or the like becomes invisible.

【0007】この発明は上記課題に鑑みてなされたもの
であり、画面内のどのポイントを測距するかをユーザに
わかりやすく指示できると共に、マルチAF用の表示を
可能とし、且つ、高速性や操作性を考慮して、使い易く
シャッタタイムラグの少ないカメラを提供することを目
的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and allows a user to easily instruct which point on a screen to measure a distance, to enable multi-AF display, and to provide high-speed operation. An object of the present invention is to provide a camera which is easy to use and has a small shutter time lag in consideration of operability.

【0008】[0008]

【課題を解決するための手段】すなわちこの発明は、画
面内の複数のポイントを測距可能なカメラに於いて、上
記複数の測距ポイントの何れかを選択する選択手段と、
上記選択手段で選択された測距ポイントに対応するファ
インダ画面内のポイントを判断する判断手段と、上記判
断手段で判断されたポイントを複数の直線の組合わせで
上記ファインダ画面内に表示する表示手段と、を具備す
ることを特徴とする。
That is, according to the present invention, in a camera capable of measuring a plurality of points on a screen, selecting means for selecting any one of the plurality of distance measuring points,
Judgment means for judging a point in the finder screen corresponding to the distance measurement point selected by the selection means, and display means for displaying the point judged by the judgment means in the finder screen in combination with a plurality of straight lines. And characterized in that:

【0009】またこの発明は、ファインダ画面内の主要
被写体の位置を判定する判定手段と、上記判定手段の判
定結果に応じて、上記ファインダ画面内に上記主要被写
体位置を表示する表示手段と、を具備するカメラに於い
て、上記表示手段は、上記主要被写体位置の近傍領域外
に上記主要被写体位置を示すパターンを表示し、上記主
要被写体位置の近傍領域内には表示を行わないようにし
たことを特徴とする。
Further, the present invention further comprises a judging means for judging the position of the main subject in the finder screen, and a display means for displaying the main subject position in the finder screen according to the judgment result of the judging means. In the camera provided, the display means displays a pattern indicating the main subject position outside a region near the main subject position, and does not display the pattern in a region near the main subject position. It is characterized by.

【0010】この発明のカメラにあっては、画面内の複
数のポイントを測距可能なカメラに於いて、選択手段で
上記複数の測距ポイントの何れかが選択される。そし
て、この選択手段で選択された測距ポイントに対応する
ファインダ画面内のポイントは、判断手段で判断され
る。上記判断手段で判断されたポイントは、表示手段に
よって、複数の直線の組合わせで上記ファインダ画面内
に表示される。
In the camera according to the present invention, in a camera capable of measuring a plurality of points on the screen, any one of the plurality of distance measuring points is selected by the selection means. Then, the point in the finder screen corresponding to the distance measuring point selected by the selecting means is determined by the determining means. The points determined by the determination means are displayed on the finder screen by a combination of a plurality of straight lines by the display means.

【0011】またこの発明のカメラにあっては、ファイ
ンダ画面内の主要被写体の位置が判定手段によって判定
され、この判定手段の判定結果に応じて、表示手段によ
り上記ファインダ画面内に上記主要被写体位置が表示さ
れる。そして、上記表示手段では、上記主要被写体位置
の近傍領域外に上記主要被写体位置を示すパターンが表
示され、上記主要被写体位置の近傍領域内には表示が行
われないようにする。
In the camera according to the present invention, the position of the main subject in the finder screen is determined by the determination means, and the main subject position is displayed in the finder screen by the display means in accordance with the determination result of the determination means. Is displayed. Then, the display means displays a pattern indicating the main subject position outside the area near the main subject position, and prevents display in the area near the main subject position.

【0012】[0012]

【発明の実施の形態】以下、図面を参照してこの発明の
実施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1は、この発明の第1の実施の形態を示
すもので、(a)はカメラの内部構成を示すブロック図
であり、(b)は該カメラの外観斜視図である。
FIGS. 1A and 1B show a first embodiment of the present invention. FIG. 1A is a block diagram showing the internal structure of a camera, and FIG. 1B is an external perspective view of the camera.

【0014】図1(a)に於いて、CPU10はカメラ
のシーケンス制御や各種演算を行うためのワンチップマ
イクロコンピュータ等から成る演算制御手段である。こ
のCPU10は、内部に像検知部11、相関演算部12
及び表示制御部13を有している。
Referring to FIG. 1A, a CPU 10 is an arithmetic control means comprising a one-chip microcomputer for performing camera sequence control and various calculations. The CPU 10 includes an image detecting unit 11 and a correlation calculating unit 12 inside.
And a display control unit 13.

【0015】上記CPU10には、レリーズスイッチ等
から成るスイッチ群14が接続されると共に、測距部1
5や図示されない測光部が接続されている。
A switch group 14 composed of a release switch and the like is connected to the CPU 10 and the distance measuring unit 1 is connected to the CPU 10.
5 and a photometric unit (not shown) are connected.

【0016】上記測距部15は、投光部17を駆動する
ためのドライバ16と、図示されない被写体に測距用光
を投射する投光部17と、該被写体からの反射光を導く
受光レンズ18a及び18bと、上記反射光を結像させ
るセンサアレイ19a及び19bと、これらセンサアレ
イ19a及び19bの信号出力をA/D変換するA/D
コンバータ20とから構成される。
The distance measuring section 15 includes a driver 16 for driving the light projecting section 17, a light projecting section 17 for projecting distance measuring light to an object (not shown), and a light receiving lens for guiding reflected light from the object. 18a and 18b, sensor arrays 19a and 19b for forming an image of the reflected light, and an A / D for A / D converting signal outputs of the sensor arrays 19a and 19b.
And a converter 20.

【0017】上記CPU10には、また、露出制御部2
3及びピント合わせ部24と、ズームレンズ25の位置
を検知するズーム検知部26と、ファインダ光学系28
内に挿入された表示用の液晶(LCD)27と、撮影者
の視線を検知する視線検知部29とが接続されている。
The CPU 10 also includes an exposure control unit 2.
3, a focusing unit 24, a zoom detecting unit 26 for detecting the position of the zoom lens 25, and a finder optical system 28.
A display liquid crystal (LCD) 27 inserted in the camera and a line-of-sight detection unit 29 that detects the line of sight of the photographer are connected.

【0018】また、図1(b)に示されるように、カメ
ラボディ30には、その前面部に撮影レンズ31が設け
られると共に、測距窓32、ファインダ33、ストロボ
34等が、設けられている。
As shown in FIG. 1B, the camera body 30 is provided with a photographic lens 31 on the front surface thereof, and a distance measuring window 32, a finder 33, a strobe 34, and the like. I have.

【0019】上記CPU10は、上述したように、図示
されない測光部や測距部15を制御し、その出力に従っ
て、露出制御部23やピント合わせ部24を制御して、
正しくピントの合った正確な露出の写真撮影を行う。カ
メラの撮影レンズ31にズームレンズ25が採用される
と画角が変えられるため、それに応じた測距・測光や表
示制御が必要となる。したがって、ズーム位置を検知す
るズーム検知部26により、CPU10にズーム情報が
入力される。更に、ズーミングによってファインダ33
の画像も機械的に連動する。
As described above, the CPU 10 controls the photometry unit and the distance measurement unit 15 (not shown), and controls the exposure control unit 23 and the focusing unit 24 according to the outputs thereof.
Take photos with the correct exposure and correct exposure. When the zoom lens 25 is used as the photographing lens 31 of the camera, the angle of view can be changed. Therefore, the zoom information is input to the CPU 10 by the zoom detection unit 26 that detects the zoom position. In addition, the finder 33 is zoomed.
Images are also mechanically linked.

【0020】このように得られた各種情報を、ファイン
ダ光学系の間に設けられたLCD27上に表示するため
に、CPU10はこれらのセグメントの点灯、消灯制御
を行う表示制御部13を有している。
In order to display the various information thus obtained on the LCD 27 provided between the finder optical systems, the CPU 10 has a display control section 13 for controlling the turning on and off of these segments. I have.

【0021】上記測距部15は、一対の受光レンズ18
a、18b及び一対のセンサアレイ19a、19bを有
しており、図示されない被写体の像信号をA/Dコンバ
ータ20にてA/D変換し、CPU10に出力する。
The distance measuring section 15 includes a pair of light receiving lenses 18.
a, 18b and a pair of sensor arrays 19a, 19b. A / D converter 20 converts an image signal of a subject (not shown) into an analog signal, and outputs the converted signal to CPU 10.

【0022】受光レンズ18a、18bは、視差となる
基線長分の距離Bだけ離して配置されているので、受光
レンズ18a、18bの焦点距離fと、被写体距離Lの
関係より、2つのセンサアレイ19a、19b上には、
相対位置xだけずれた所に同じ像が結ぶことになる。こ
の三角測距の原理より、像のずれ量xを求めれば被写体
距離Lが算出できることがわかる。
Since the light receiving lenses 18a and 18b are arranged apart from each other by a distance B corresponding to the base line length serving as parallax, two sensor arrays are used based on the relationship between the focal length f of the light receiving lenses 18a and 18b and the subject distance L. On 19a and 19b,
The same image is formed at a position shifted by the relative position x. From the principle of the triangulation, it can be understood that the object distance L can be calculated by obtaining the image shift amount x.

【0023】また画面の広い範囲を測距するためには、
例えば、光軸からθだけずらした所を測距する場合は、
図中に破線で示されるように a=ftan θ …(1) の所のセンサを基準にして、相対ズレ量を検出すれば良
い。
In order to measure a wide range of the screen,
For example, when measuring the distance from the optical axis by θ,
As shown by a broken line in the figure, the relative displacement may be detected with reference to the sensor at a = ftan θ (1).

【0024】このような構成のカメラならば、図2
(a)に示されるような主要被写体37がファインダ画
面36の中央に存在しないシーンでもピントを合わせる
ことができる。
With a camera having such a configuration, FIG.
The camera can focus on a scene in which the main subject 37 does not exist at the center of the finder screen 36 as shown in FIG.

【0025】図2(b)は、このようなシーンで得られ
る像信号を示したものであるが、背景が壁等から主要被
写体である人物の所に、特徴的な像信号変化がみられ
る。したがって、図4のようなフローチャートでこの変
化を検出し、それが画面右側ならば、ファインダ画面内
のLCDセグメント38のうち、右側のLCDセグメン
ト39を点灯させれば、図2(c)に示されるように、
画面内に測距ポイントが表示されて、正しく撮影したい
被写体が測距され、撮影者はその被写体にピントが合う
ことを認識することができ、安心して撮影を楽しむこと
ができる。
FIG. 2 (b) shows an image signal obtained in such a scene. A characteristic image signal change is observed at a person whose main subject is a background from a wall or the like. . Therefore, if this change is detected in the flow chart as shown in FIG. 4 and the change is detected on the right side of the screen, if the right LCD segment 39 of the LCD segments 38 in the finder screen is turned on, the change shown in FIG. So that
A distance measurement point is displayed on the screen, and a subject to be photographed correctly is measured. The photographer can recognize that the subject is in focus, and can enjoy photographing with ease.

【0026】すなわち、図4のフローチャートに於い
て、先ずステップS1にて被写体の像信号が入力される
と、続くステップS2及びS3にて、左右のエッジが判
定される。次いで、ステップS4にて上記ステップS2
及びS3で判定された左右エッジの中央部分の座標が判
定される。そして、ここで判定された座標のLCDセグ
メントが選択されて、例えば図2(c)に示されるよう
に点灯される。
That is, in the flowchart of FIG. 4, when an image signal of a subject is input in step S1, the left and right edges are determined in subsequent steps S2 and S3. Next, in step S4, the above step S2
Then, the coordinates of the central portion of the left and right edges determined in S3 are determined. Then, the LCD segment of the coordinates determined here is selected and turned on, for example, as shown in FIG.

【0027】また、このように測距ポイントを十字状の
セグメントで表し、その中央部を見えるようにしたの
で、被写体の表情等がよく確認でき、すっきりっとした
画面にすることが可能となる。
Also, since the distance measuring points are represented by cross-shaped segments and the central portion thereof is made visible, the expression of the subject can be easily checked, and a clear screen can be obtained. .

【0028】また、図3に示されるようなシーンでは、
カメラが誤って手前の木にピントを合わせるケースがあ
る。この場合、撮影者が図示されない操作釦を押すこと
により、次の測距ポイントの候補に切り換えるようにし
ても良い。
In a scene as shown in FIG. 3,
There are cases where the camera accidentally focuses on the tree in front. In this case, the photographer may switch to the next distance measuring point candidate by pressing an operation button (not shown).

【0029】例えば、写真の8割以上は画面中央部に主
要被写体が存在するので、この実施の形態では、変更操
作によって画面中央部に測距ポイントを移し、正しく被
写体の城にピントを合わせることを可能とした。また、
主要被写体が判別できないシーンでは、画面中央に表示
をリセットする仕様にしても良い。
For example, since 80% or more of a photograph has a main subject at the center of the screen, in this embodiment, the distance measurement point is moved to the center of the screen by a change operation to correctly focus on the castle of the subject. Was made possible. Also,
In a scene where the main subject cannot be determined, the display may be reset at the center of the screen.

【0030】また、この操作であるが、わざわざ指を使
用して変更するのは大変なので、図5に示されるよう
に、視線検知によるファインダ光学系を構成して使用し
ても良い。
In this operation, since it is difficult to change using a finger, it is possible to construct and use a finder optical system based on line-of-sight detection as shown in FIG.

【0031】すなわち、ファインダ光学系40に於い
て、対物レンズ41より入射される被写体像と共に、プ
リズム42や赤外発光ダイオード(IRED)43を用
いて、接眼レンズ46を介して撮影者の目に赤外光が照
射される。そして、その反射光が、マスクLCD45を
介してフォトダイオード44で受光されるようにする。
That is, in the finder optical system 40, the image of the subject incident through the objective lens 41 is used together with the prism 42 and the infrared light emitting diode (IRED) 43 through the eyepiece 46 to the eyes of the photographer. Irradiated with infrared light. Then, the reflected light is received by the photodiode 44 via the mask LCD 45.

【0032】上記マスクLCD45は、光路中に図6
(c)に示されるように、開口部50が切換えられるよ
うに配置されている。マスクLCD45の開口部を切換
えることにより、何れの開口部を開いた時が一番反射光
が入射するかの判定を行って、視線の方向を判別できる
ようにすれば、撮影者の目の動きで測距ポイントを切換
えることが可能となる。
The above-mentioned mask LCD 45 is provided in the optical path as shown in FIG.
As shown in (c), the openings 50 are arranged to be switched. By switching the openings of the mask LCD 45, it is possible to determine which opening is the most reflected light incident and to determine the direction of the line of sight. It is possible to switch the ranging point by using.

【0033】例えば、図6(a)に示されるような目4
9の配置ならば、S1とS3の開口部に白目の部分があ
るので、S1、S3の開口部を開いた時に、フォトダイ
オードに入射するIREDによる反射信号光が多くな
る。
For example, an eye 4 as shown in FIG.
In the arrangement of No. 9, since there is a white part in the openings of S1 and S3, when the openings of S1 and S3 are opened, the amount of reflected signal light by the IRED incident on the photodiode increases.

【0034】しかしながら、図6(b)に示されるよう
に視線をずらすと、S3の信号光は減少してS2の開口
部を開いた時の反射光が多くなる。撮影者がレリーズ釦
を半押し状態にして、第1候補を表示した後、このよう
な考え方でカメラのCPUが図7のようなフローチャー
トでIREDやマスクを制御して目の動きを検出すれ
ば、撮影者が測距ポイントを切換えたい時に目を動かす
だけで、測距ポイントが切換わり、手動の動作は不要と
なる。
However, when the line of sight is shifted as shown in FIG. 6B, the signal light of S3 decreases and the reflected light when the opening of S2 is opened increases. After the photographer presses the release button halfway and displays the first candidate, if the CPU of the camera controls the IRED and the mask in a flowchart as shown in FIG. When the photographer wants to switch the ranging point, the user simply moves his or her eyes, and the ranging point is switched, so that a manual operation is not required.

【0035】図7のフローチャートを参照すると、先
ず、ステップS11にて像検出が行われて第1候補が表
示される。次いで、ステップS12にて、セカンドレリ
ーズスイッチがオンされていれば、ステップS13に移
行して通常の撮影シーケンスが実行される。
Referring to the flowchart of FIG. 7, first, in step S11, an image is detected and a first candidate is displayed. Next, in step S12, if the second release switch is turned on, the process proceeds to step S13, where a normal photographing sequence is executed.

【0036】一方、セカンドレリーズスイッチがオンさ
れていなければ、ステップS14に移行して、赤外発光
ダイオード43が照射される。そして、ステップS15
及びS16にて、順次開口部が変更されて反射信号光の
大きい2つのブロックS01、S02が記憶される。
On the other hand, if the second release switch has not been turned on, the process proceeds to step S14, where the infrared light emitting diode 43 is irradiated. Then, step S15
In steps S16 and S16, two blocks S 01 and S 02 having large reflected signal light are sequentially stored by changing the aperture.

【0037】次に、ステップS17に於いて、上記2つ
のブロックS01、S02が比較される。その結果、変化が
あれば、視線が変化したとしてステップS18に移行
し、測距ポイントが変更される。
Next, in step S17, the two blocks S 01 and S 02 are compared. As a result, if there is a change, the flow shifts to step S18 assuming that the line of sight has changed, and the distance measuring point is changed.

【0038】つまり、2回全ての開口部を順次開きなが
ら反射信号光の多い2つのブロックを選び、その間隔が
変化するか否かで視線の動きがあったか否かを判定す
る。そして、視線の動きがあった場合には、撮影者が測
距ポイントを気に入っていると判断して、次に優先度の
高いポイントに表示を切換え、そのポイントに対して測
距を行ってピント合わせを行うようにする。
That is, two blocks with a large amount of reflected signal light are selected while sequentially opening all the openings two times, and it is determined whether or not the line of sight has moved based on whether or not the interval changes. If there is a movement of the line of sight, the photographer determines that he or she likes the distance measurement point, switches the display to the next highest priority point, measures the distance, and focuses on that point. Make adjustments.

【0039】これによって、撮影者は煩わしい手動動作
から開放されてレリーズ動作に集中でき、目の動きだけ
で測距ポイントの選択が行うことができる。
Thus, the photographer is freed from troublesome manual operation and can concentrate on the release operation, and can select a distance measuring point only by eye movement.

【0040】尚、撮影者が見たポイントを判別して、そ
のポイントにピント合わせをするようにしても良いが、
技術が複雑でコストがかかるわりに、撮影者が必ずしも
撮影したいものばかりを見ているわけではないことがわ
かっている。
It is also possible to determine the point that the photographer has seen and focus on that point.
It turns out that, despite the complexity and cost of the technology, photographers do not always see what they want to photograph.

【0041】そのため、この発明ではカメラが画面内の
測距ポイントのうち、予め自動的に優先順位を決定し、
それに追加・補助する形で撮影者の目の動き等の動作ま
たは操作を加味したので、非常に簡単で精度の高いピン
ト合わせが可能となる。
Therefore, according to the present invention, the camera automatically determines in advance the priority order among the distance measurement points in the screen,
In addition to this, the movement or operation such as the movement of the eyes of the photographer is added in the form of addition or assistance, so that extremely simple and highly accurate focusing can be achieved.

【0042】ところで、ファインダとAF用受光レンズ
が別の光学系であると、視差(パララックス)によっ
て、測距ポイントと表示ポイントに誤差が生じやすい。
If the finder and the AF light receiving lens are separate optical systems, errors tend to occur between the distance measurement point and the display point due to parallax (parallax).

【0043】ここで、図8を参照して、上述したパララ
ックスを考慮した画面内表示制御方法について説明す
る。
Here, with reference to FIG. 8, a description will be given of an in-screen display control method in consideration of the parallax described above.

【0044】先に説明した像信号による主要被写体位置
検出によって、図8にθ1 の方向に主要被写体がいると
判定され、尚且つその被写体の距離が上述の方法で検出
されていて、これをLとすると、ファインダ内ではその
光軸を基準に右側に S−L・tan θ1 …(2) の位置に上記被写体が見えることになる。ここで、Sは
2つの光学系の視差である。
[0044] by the main subject position detection by image signals previously discussed, it is determined that there are the main subject in the direction of the theta 1 in FIG. 8, besides the distance of the object is being detected in the manner described above, this When L is set, the subject is seen at the position of SL-tan θ 1 (2) on the right side with respect to the optical axis in the viewfinder. Here, S is the parallax of the two optical systems.

【0045】ファインダ内の基準位置を画面端部(図8
に於ける「枠基準位置」)にとると、この基準位置から
ファインダ光軸までの距離が L1 tan φ1 …(3) であるので(ここでφ1 は光軸からファインダの画角端
までの角度)、基準位置から、測距ポイントまでの距離
は L1 tan φ1 +S−L1 tan θ1 …(4) となる。
The reference position in the finder is set at the end of the screen (FIG. 8).
In this case, the distance from this reference position to the finder optical axis is L 1 tan φ 1 (3) (where φ 1 is the angle of view of the finder from the optical axis). ), And the distance from the reference position to the ranging point is L 1 tan φ 1 + S−L 1 tan θ 1 (4).

【0046】ここで、表示用LCDがドットマトリクス
タイプのものであるとし、画面の端から端までを、図9
に示されるように、H個のセグメントで埋めることので
きるLCDがファインダ内に収められているとする。こ
のH個が上記L1 tan θ1 の2倍に対応するため、測距
ポイントに対応するセグメントは、上記H個のうち、 H×(tan φ1 +S/L−tam θ1 )/(2・tan φ1 )番目 =x1 番目 …(5) のものとなる。尚、上記(5)式でHを除いた(tan φ
1 +S/L−tam θ1 )/(2・tan φ1 )の部分は、
枠比と称することとする。
Here, it is assumed that the display LCD is of a dot matrix type, and the entire screen is shown in FIG.
It is assumed that an LCD that can be filled with H segments is contained in the viewfinder as shown in FIG. Since the H number corresponds to twice the L 1 tan θ 1 , the segment corresponding to the distance measuring point is H × (tan φ 1 + S / L-tam θ 1 ) / (2・ Tan φ 1 ) th = x 1st (5) Note that H was removed from the above equation (5) (tan φ
1 + S / L-tam θ 1 ) / (2 · tan φ 1 )
It is referred to as a frame ratio.

【0047】したがって、このセグメントを消灯し、そ
の上下左右のセグメントを2つずつ点灯させれば、図9
(b)に示されるようなセグメントの表示が可能とな
る。
Therefore, if this segment is turned off and the upper, lower, left and right segments are turned on two by two,
The display of the segment as shown in FIG.

【0048】また、この消灯制御によって、被写体の様
子を見やすくしている。画面上下方向にも測距ポイント
が広げられる場合、左右方向の枠比(枠比1)だけでな
く、上下方向の枠比(枠比2)を考慮して、ファインダ
内表示の制御が必要である。
Further, the light-off control makes it easier to see the state of the subject. If the distance measurement points can be extended in the vertical direction of the screen, it is necessary to control the display in the viewfinder in consideration of not only the horizontal frame ratio (frame ratio 1) but also the vertical frame ratio (frame ratio 2). is there.

【0049】図10に示されるように、上下方向の画角
をφ2 として表し、測距ポイントをθ2 とすると、画面
枠上端基準の測距ポイント位置の画角に対する比率(枠
比2)は、 (tan φ2 −tan θ2 )/2tan φ2 …(6) となるので、図9(a)に示されるように、画面内上下
方向にT個のセグメントが並んだLCDを想定すると、
上から T(tan φ2 −tan θ2 )/(2・tan φ2 )番目=y1 番目 …(7) のセグメントの所に被写体が存在すると考えられてい
る。
As shown in FIG. 10, assuming that the vertical angle of view is φ 2 and the distance measuring point is θ 2 , the ratio of the distance measuring point position to the angle of view based on the upper end of the screen frame (frame ratio 2) Is (tan φ 2 −tan θ 2 ) / 2tan φ 2 (6) Therefore, as shown in FIG. 9A, assuming an LCD in which T segments are arranged vertically in the screen. ,
From the top, it is considered that the subject exists at the segment of T (tan φ 2 −tan θ 2 ) / (2 · tan φ 2 ) = y 1 ... (7).

【0050】したがって、図9(b)に示されるような
表示を上下に移動させる場合は、上下方向に関しては、
この関係から点灯、消灯制御を行うようにする。
Therefore, when moving the display as shown in FIG. 9B up and down,
On the basis of this relationship, lighting / light-out control is performed.

【0051】つまり、xy座標形式で表現すると、 (x1 ,y1 )=(H×枠比1、T×枠比2) …(8) のポイントを消灯させ、その上下2セグメントずつを点
灯させれば、図9(b)に示されるような表示を上下左
右に移動させて、撮影者に測距光をかかりやすく伝える
ことができる。
That is, when expressed in the xy coordinate format, the point of (x 1 , y 1 ) = (H × frame ratio 1, T × frame ratio 2) (8) is turned off, and the upper and lower two segments are turned on. By doing so, the display as shown in FIG. 9B can be moved up, down, left and right, and the distance measuring light can be easily transmitted to the photographer.

【0052】図11のフローチャート及び図12を参照
して、こうしたファインダ内(F内)表示点灯の動作に
ついて説明する。
Referring to the flow chart of FIG. 11 and FIG. 12, the operation of turning on the display in the finder (inside F) will be described.

【0053】ステップS21にて上記画角φ1 、φ2
検出され、続くステップS22にて上記角度θ1 、θ2
が検出される。次に、ステップS23にて被写体までの
距離Lに対して測距が行われる。
In step S21, the angles of view φ 1 and φ 2 are detected, and in step S22, the angles θ 1 and θ 2 are detected.
Is detected. Next, distance measurement is performed on the distance L to the subject in step S23.

【0054】次いで、ステップS24に於いて、例えば
図12に示される座標(xF ,yF)が上記(8)式に
基いて算出される。そして、ステップS25及びS26
にて、xF のライン及びyF のラインのLCDが点灯さ
れる。更に、ステップS27にて、上記座標(xF ,y
F )の部分のLCDが消灯される(消灯ポイント)。
Next, in step S24, for example, coordinates (x F , y F ) shown in FIG. 12 are calculated based on the above equation (8). Then, steps S25 and S26
At, LCD lines of line and y F of x F is illuminated. Further, in step S27, the coordinates (x F , y
The LCD in part F ) is turned off (light-off point).

【0055】これにより、図9(b)に示されるよう
に、十字状の中央部が開いた測距ポイントが表示され
る。
As a result, as shown in FIG. 9B, a distance measuring point having a cross-shaped central portion opened is displayed.

【0056】更に、上述した消灯ポイントは1ポイント
でなくても良く、測距点の中の被写体の表情をよく見え
るようにするには、消灯ポイントを、距離や画角等によ
り切換え制御する技術が効果を発揮する。
Furthermore, the above-mentioned light-off point is not limited to one point, and in order to make the expression of the subject in the distance measuring point better visible, the light-off point is switched and controlled by a distance, an angle of view, or the like. Is effective.

【0057】つまり、人間の顔の幅をK(約20cm)
とすると、図13(a)に示されるように、距離Lと画
角を表す角度φ1 によって得られるx方向の画面幅2L
・tan φ1 に対してKの割合を画面内で占めることにな
るので、横方向にH個あるドットマトリクス式のLCD
ならば、H×K/2L・tan φ1 分の消灯制御を行え
ば、図13(b)、(c)に示されるように、画面内に
占める顔の大きさによって、消灯域を制御して、人の表
情をよく見えるようにすることができる。
That is, the width of the human face is K (about 20 cm).
Then, as shown in FIG. 13A, the screen width 2L in the x direction obtained by the distance L and the angle φ 1 representing the angle of view is obtained.
-Since the ratio of K to the tan φ 1 is occupied in the screen, there are H dot-matrix LCDs in the horizontal direction.
Then, if the extinguishing control for H × K / 2L · tan φ 1 is performed, as shown in FIGS. 13B and 13C, the extinguishing area is controlled by the size of the face occupying the screen. Can make people's facial expressions better visible.

【0058】このような場合のファインダ内表示点灯の
動作について、図14のフローチャートを参照して説明
する。
The operation of turning on the display in the finder in such a case will be described with reference to the flowchart of FIG.

【0059】先ず、ステップS31にて、カメラのズー
ム状態判別によってφ1 、φ2 が求められ、次にステッ
プS32にて、測距用センサによって測距方向θ1 、θ
2 が求められる。これらから、ステップS33に於い
て、画面内の主要被写体の座標(x1 ,y1 )が、上述
した式によってカメラのCPUにより算出される。
First, in step S31, φ 1 and φ 2 are obtained by determining the zoom state of the camera, and then in step S32, the distance measuring directions θ 1 and θ are detected by the distance measuring sensor.
2 is required. From these, in step S33, the coordinates (x 1 , y 1 ) of the main subject in the screen are calculated by the CPU of the camera according to the above formula.

【0060】そして、ステップS34にて測距が行われ
る。その結果をLとすると、ステップS35にて、先の
関係より、(x1 ,y1 )の上下左右に顔幅が占めるH
×K/2L・tan φ1 の半分ずつのセグメントが消灯さ
れる。更に、ステップS36にて、その上下左右のセグ
メントが点灯されるようにすることで、図13(b)に
示されるように、すっきりとした表示にすることができ
る。
Then, distance measurement is performed in step S34. When the result is L, at step S35, from the previous relation, occupied by vertically and horizontally on the face width of the (x 1, y 1) H
× halves segment of K / 2L · tan φ 1 is turned off. Further, by turning on the upper, lower, left and right segments in step S36, a clear display can be achieved as shown in FIG.

【0061】以上説明したように、このような消灯部の
切換えの工夫によって、撮影者は画面内の何処にピント
が合うかがわかる上に、被写体の表情までを十分に確認
してから安心して撮影が楽しめるカメラを提供すること
ができる。
As described above, by devising the switching of the light-off section, the photographer can know where on the screen the subject is in focus, and after confirming the expression of the subject sufficiently, the photographer can feel safe. It is possible to provide a camera that allows users to enjoy shooting.

【0062】また、図13では、被写体が1人の例を示
したが、被写体の人数を画像情報等から検出して、それ
に合わせて上記消灯制御を行うようにしても良い。この
場合、並んで立った人の表情がよくわかるカメラとな
る。
Although FIG. 13 shows an example in which the number of subjects is one, the number of subjects may be detected from image information or the like, and the above-described light-off control may be performed accordingly. In this case, the camera can be used to clearly understand the expressions of the people standing side by side.

【0063】このように、画面内で主要被写体のポイン
トを検出し、その部分にある程度の視認性を与えなが
ら、場所を特定する方式としては、十字状の測距ポイン
トに限られる必要はなく、図15(a)、(b)、
(c)に示されるように、ファインダ内に斜線のクロス
や、丸形状、四角形状等による応用も可能である。これ
らの測距ポイントは、顔の大きさに応じて大きさも変え
られるものである。
As described above, the method of detecting the point of the main subject on the screen and specifying the location while giving a certain degree of visibility to that portion is not limited to the cross-shaped ranging point. 15 (a), (b),
As shown in (c), application of an oblique cross, a round shape, a square shape, or the like in the finder is also possible. These distance measuring points can be changed in size according to the size of the face.

【0064】更に、ドットマトリクス式のLCDであれ
ば、ファインダ視野内を碁盤の目のように、ドットを切
換えて表示できるので、こうした応用はCPUのソフト
ウエアの修正のみで対応可能となる。
Further, in the case of a dot matrix type LCD, dots can be switched and displayed in a finder visual field like a grid, so that such an application can be dealt with only by modifying the software of the CPU.

【0065】もちろん、ユーザの好みに合わせて表示方
法を切換えても良く、地域性を考慮して、販売チャネル
別に切換えても良い。
Of course, the display method may be switched according to the user's preference, or may be switched for each sales channel in consideration of regional characteristics.

【0066】また、ドットマトリクスの利点を生かし
て、図15(d)に示されるように、ファインダ内に文
字表示を出力するように構成しても良い。このような構
成にすれば、ユーザにわかりやすい製品化に役立つもの
である。
Further, by utilizing the advantages of the dot matrix, a configuration may be adopted in which a character display is output in the viewfinder as shown in FIG. Such a configuration is useful for commercialization that is easy for the user to understand.

【0067】当然、この文字表示が主要被写体にかかっ
てしまうと煩わしいので、この文字表示が出力される部
分も、この発明の特徴である主被写体検知技術を利用し
て、主被写体ではない部分の明きスペースを選択して表
示するようにする。或いは、表示の大きさをその明きス
ペースに合わせて、切換えるようにしても良い。
Naturally, it is troublesome if this character display is applied to the main subject. Therefore, the part where this character display is output is also used for the part which is not the main subject by utilizing the main subject detection technology which is a feature of the present invention. Select and display a bright space. Alternatively, the size of the display may be switched according to the clear space.

【0068】図16は、こうした文字表示の大きさを変
更可能な場合のファインダ内表示の動作を説明するフロ
ーチャートである。
FIG. 16 is a flowchart for explaining the display operation in the finder when the size of the character display can be changed.

【0069】先ず、ステップS41にて主要被写体が検
知されると、続くステップS42にてファインダ内で上
記主要被写体以外の空きスペースが検出される。そし
て、ステップS43にて、表示される文字の大きさが決
定される。次いで、ステップS44にて、上記ステップ
S42で検出された空きスペース上に、上記ステップS
43で決定された大きさの文字が表示される。
First, when a main subject is detected in step S41, an empty space other than the main subject is detected in the finder in the following step S42. Then, in step S43, the size of the character to be displayed is determined. Next, at step S44, the above-mentioned step S44 is placed on the empty space detected at step S42.
The character of the size determined in 43 is displayed.

【0070】この図16のフローチャートに於ける主要
被写体検知や空きスペース検出は、図29乃至図31を
用いて後述するような方法で行うものとする。この例で
は、画面の光の分布より、背景の夜景部は主被写体では
ないと考え、この夜景部分に表示を出すようにすれば良
い(図17参照)。
The detection of the main subject and the detection of the empty space in the flowchart of FIG. 16 are performed by a method described later with reference to FIGS. 29 to 31. In this example, based on the distribution of light on the screen, the background night view portion is not considered to be the main subject, and the display may be displayed in this night view portion (see FIG. 17).

【0071】以上の実施の形態では、測距用センサとし
てラインセンサを用いた例についてのみを説明したが、
エリアセンサを用いたより高性能の測距装置に適用する
ことも可能である。
In the above embodiment, only an example in which a line sensor is used as a distance measuring sensor has been described.
It is also possible to apply to a higher-performance distance measuring device using an area sensor.

【0072】図18(b)に示されるように、一般的な
ラインセンサ63による測距では、カメラ60のカメラ
画面61に対し、中央部横並びの狭い範囲の測距しかで
きなかった。
As shown in FIG. 18 (b), in the distance measurement by the general line sensor 63, only the distance measurement in a narrow range in the center portion of the camera screen 61 of the camera 60 could be performed.

【0073】これに対し、エリアセンサ62は、ライン
センサを2次元的に配置したものであるから、カメラ画
面61とほぼ同じ範囲にまで測距エリアを広げることが
できる。
On the other hand, since the area sensor 62 is a two-dimensional arrangement of line sensors, the distance measuring area can be extended to almost the same range as the camera screen 61.

【0074】したがって、図18(a)に示されるよう
なシーンに於いて、53で示されるような構図で撮影し
たい場合、ラインセンサの測距装置では、先ず測距時
に、画面中心の測距エリア56に主要被写体54を入れ
た構図55でレリーズ釦半押し等の操作をする。続い
て、カメラを構え直して撮影したい構図53にした後、
レリーズ釦を押し込むという、2段階動作(フォーカス
ロック動作)を必要としている。しかしながら、この動
作は、撮影前の予備動作が面倒であり、即時性に欠けて
いる。
Therefore, in the scene as shown in FIG. 18A, when it is desired to take a picture with the composition as indicated by 53, the distance measuring device of the line sensor first measures the distance at the center of the screen when measuring the distance. An operation such as half-pressing the release button is performed in a composition 55 in which the main subject 54 is put in the area 56. Then, after re-holding the camera to make the composition 53 you want to shoot,
A two-step operation (focus lock operation) of pressing the release button is required. However, in this operation, the preliminary operation before photographing is troublesome and lacks immediacy.

【0075】そこで、エリアセンサを用いて測距可能範
囲を広くすれば、図18(a)に示されるようなシーン
でも、画面の端に位置する主要被写体54を測距するこ
とが可能となる。
Therefore, if the range that can be measured is widened using an area sensor, it is possible to measure the distance of the main subject 54 located at the edge of the screen even in the scene shown in FIG. .

【0076】しかし、このような技術を持ってしても、
測距可能ポイントが増えた分だけ主要被写体が何処にい
るかを検出する技術が重要となる。ポイントが極端に増
加すると、各測距ポイントを順々に調べていく際に時間
がかかり、かえってフォーカスロックより長い時間を必
要とすることになる。これでは逆効果であり、エリアセ
ンサがラインセンサより高価である分だけデメリットが
大きくなってしまう。
However, even with such a technique,
A technique for detecting where the main subject is located by the number of measurable points is important. When the number of points increases extremely, it takes time to sequentially examine each ranging point, and it takes longer time than the focus lock. This is the opposite effect, and the disadvantage is increased as much as the area sensor is more expensive than the line sensor.

【0077】そこで、第2の実施の形態として、更に高
速に主要被写体位置を検出する例について、以下、図1
9を参照して説明する。
Therefore, as a second embodiment, an example in which the main subject position is detected at higher speed will be described below with reference to FIG.
This will be described with reference to FIG.

【0078】先ず、カメラは、図19(a)に示される
ように、測距に先立って画面内に広く発光を行う。この
時、被写体の距離に応じて、反射信号光がエリアセンサ
に入射される。反射光のエリアセンサ上の分布を等価的
に図示すると、図19(b)に示されるようになる。
First, as shown in FIG. 19A, the camera emits light widely within the screen prior to distance measurement. At this time, the reflected signal light is incident on the area sensor according to the distance to the subject. FIG. 19B shows an equivalent distribution of the reflected light on the area sensor.

【0079】つまり、煩雑な背景からはその距離が遠い
故に、反射信号光はほとんどカメラに返ってこない。し
かし、人物や手前の花等からは、距離が比較的近い故に
反射信号光が返ってくる。したがって、エリアセンサ上
のパターンは、図19(c)に示されるように、極めて
単純化されたものとなる。
That is, since the distance is far from a complicated background, the reflected signal light hardly returns to the camera. However, a reflected signal light is returned from a person or a flower in the foreground because the distance is relatively short. Therefore, the pattern on the area sensor is extremely simplified as shown in FIG.

【0080】このほぼ2値化されたパターン信号を、カ
メラ内のマイクロコンピュータが所定のパターン判定シ
ーケンスによって演算制御すれば、どの位置に被写体が
存在するかを判定することができる。この位置判定に従
って、図19(c)に示されるように測距ポイントを特
定した積分測距を行えば、瞬時に主要被写体がファイン
ダ内の何処に存在していても、そこにピント合わせをす
ることができるAFを提供することができる。
If the microcomputer in the camera calculates and controls the substantially binarized pattern signal in accordance with a predetermined pattern determination sequence, it is possible to determine at which position the subject exists. According to this position determination, if integral distance measurement is performed with a distance measurement point specified as shown in FIG. 19C, focusing is instantaneous wherever the main subject exists in the viewfinder. Can be provided.

【0081】この際の測距方式としては、改めて測距用
光を投射する、いわゆるアクティブ方式による測距で
も、測距用光を投射しないパッシブ方式の測距でも、そ
の時の状況に応じて切換えれば良い。
As the distance measuring method at this time, switching is performed according to the situation at the time, whether the distance is measured by the so-called active method, in which the light for distance measurement is newly projected, or the passive distance measurement, in which the light for distance measurement is not projected. Just do it.

【0082】次に、図20を参照して、スーパーコンビ
ネーションAFと称される新型のオートフォーカス技術
について説明する。
Next, a new type of autofocus technique called super combination AF will be described with reference to FIG.

【0083】尚、このスーパーコンビネーションAFと
は、アクティブ方式とバッシブ方式を単にハイブリッド
的に組合わせたものではなく、2つの方式を用いて主要
被写体検知まで行うようにしたものである。
The super combination AF is not a simple combination of the active method and the passive method in a hybrid manner, but performs detection of a main subject using two methods.

【0084】図20(a)は、被写体をこの方式のAF
で測距しているカメラを示したもので、主要な部分の構
成を示したブロック図である。
FIG. 20A shows a case where an object is set to the AF method of this method.
FIG. 2 is a block diagram showing a camera measuring a distance, and showing a configuration of a main part.

【0085】同図に於いて、CPU65はカメラ制御用
のマイクロコンピュータで構成されるもので、内部にパ
ターン制御部66を有している。また、CPU65は、
測光部67に接続されている。
In the figure, a CPU 65 is constituted by a microcomputer for controlling a camera, and has a pattern control section 66 therein. Further, the CPU 65
It is connected to the photometry section 67.

【0086】この測光部67には、被写体68からの光
を導く2つの受光レンズ69a、69bと、上記被写体
68からの光を受像する2つのエリアセンサ70a、7
0bと、A/Dコンバータ(ADC)71と、定常光除
去回路72とを有して構成される。
The photometric section 67 includes two light receiving lenses 69a and 69b for guiding light from the subject 68, and two area sensors 70a and 7 for receiving light from the subject 68.
0b, an A / D converter (ADC) 71, and a stationary light removal circuit 72.

【0087】更に、上記CPU65には、光源74を発
光制御するための発光部73と、音声信号発生部75と
が接続されている。
Further, a light emitting section 73 for controlling light emission of the light source 74 and an audio signal generating section 75 are connected to the CPU 65.

【0088】図20(a)に於いて、2つの受光レンズ
69a、69bから入射された被写体68からの光は、
2つのエリアセンサ70a、70bに入射される。これ
らのエリアセンサ70a、70bでは、被写体像が受像
されて光電変換される。そして、その出力はA/Dコン
バータ71で各画素のデジタル値に変換されて、CPU
65に供給される。
In FIG. 20A, the light from the subject 68 incident from the two light receiving lenses 69a and 69b is
The light is incident on the two area sensors 70a and 70b. In these area sensors 70a and 70b, a subject image is received and photoelectrically converted. Then, the output is converted into a digital value of each pixel by an A / D converter 71,
65.

【0089】また、エリアセンサ70a、70bに接続
されている定常光除去回路72が制御されると、被写体
68から定常的に入射される直流的な光の信号が除去さ
れる。これにより、光源74からのパルス光のみが出力
信号として得られるようになっている。
When the steady light removing circuit 72 connected to the area sensors 70a and 70b is controlled, a DC light signal constantly incident from the subject 68 is removed. Thereby, only the pulse light from the light source 74 can be obtained as an output signal.

【0090】したがって、定常光除去回路72を作動さ
せた状態でCPU65が発光部73を制御して光源74
等を照射すると、その反射信号光が、被写体68から返
ってきて、例えばエリアセンサ70a上に、図20
(b)に示されるような像が結ばれる。
Therefore, the CPU 65 controls the light emitting section 73 while the steady light removing circuit 72 is operated, and
And the like, the reflected signal light returns from the subject 68, and is, for example, displayed on the area sensor 70a as shown in FIG.
An image as shown in FIG.

【0091】図20(b)は、黒い部分に光が入射した
ところを示した図である。こうしたエリアセンサ上の像
のパターンを分析するソフトウエアがCPU65内には
組込まれていて、人間の形であることが判定されれば、
これを主要被写体と考えることができる。
FIG. 20 (b) is a diagram showing a state where light is incident on a black portion. If the software for analyzing the pattern of the image on the area sensor is incorporated in the CPU 65 and it is determined that the image is a human figure,
This can be considered a main subject.

【0092】したがって、図21に示されるようなフロ
ーチャートによる測距が考えれる。
Therefore, distance measurement according to a flowchart as shown in FIG. 21 can be considered.

【0093】先ず、ステップS51にて、測距に先立っ
て光源74が照射され、定常光除去回路67により反射
信号光のパターンのみが、図20(b)に示されるよう
に取出される。次いで、ステップS52にて該反射信号
光のパターンが判別される。
First, in step S51, the light source 74 is irradiated before the distance measurement, and only the pattern of the reflected signal light is extracted by the stationary light removing circuit 67 as shown in FIG. Next, in step S52, the pattern of the reflected signal light is determined.

【0094】そして、ステップS53に於いて、このパ
ターンが人物の形状等から主要被写体か否かが判定され
る。ここで、主要被写体が検知されない場合は、ステッ
プS54に移行して、輝度情報等が加味されて、アクテ
ィブ方式、またはバッシブ方式が選択された後、被写体
の存在確率の高い画面中央部が重点的に測距される。次
いで、ステップS55にて、この中央測距に応じた音声
が音声信号発生部75より発音される。
Then, in step S53, whether or not this pattern is a main subject is determined based on the shape of the person and the like. Here, if the main subject is not detected, the process proceeds to step S54, where the active system or the passive system is selected in consideration of the luminance information and the like, and the central portion of the screen where the existence probability of the subject is high is emphasized. Is measured. Next, in step S55, a sound corresponding to the center distance measurement is generated by the sound signal generation unit 75.

【0095】一方、上記ステップS53に於いて、主要
被写体が検知された場合は、ステップS56に移行し
て、上記パターンを形成する光信号が弱いかどうか、或
いは十分なコントラストがあるかが判定される。すなわ
ち、ステップS56では、測距方式が、信号光をカメラ
側から投射して、その反射信号光を用いて測距する、い
わゆるアクティブタイプと、被写体の像信号を基に測距
する、いわゆるパッシブタイプの何れの方式を用いるか
の選択が行われる。
On the other hand, if the main subject has been detected in step S53, the flow shifts to step S56 to determine whether the optical signal forming the pattern is weak or has sufficient contrast. You. That is, in step S56, the distance measurement method is a so-called active type in which signal light is projected from the camera side and distance measurement is performed using the reflected signal light, and a so-called passive type in which distance measurement is performed based on an image signal of a subject. A selection is made of which of the types to use.

【0096】つまり、反射信号光が弱いと判定された場
合は、パッシブ方式のAFの方が適しているとして、ス
テップS57に移行する。そして、このステップS57
にて、すでに求められた主要被写体位置の像信号が重点
的に用いられたパッシブ方式による測距が行われる。そ
の後、ステップS58にて、このパッシブAFに対応し
た音声が音声信号発生部75から発音される。
That is, if it is determined that the reflected signal light is weak, it is determined that the passive AF is more suitable, and the flow shifts to step S57. Then, this step S57
The distance measurement is performed by the passive method in which the image signal of the main subject position already obtained is used with emphasis. Thereafter, in step S 58, a sound corresponding to the passive AF is generated by the sound signal generation unit 75.

【0097】一方、上記ステップS56にて、像信号の
コントラストが弱い場合には、ステップS59に移行す
る。そして、このステップS59及びS60にて、再度
測距用光が照射されて、その反射信号光によるアクティ
ブAFが、先に求められた主要被写体位置に対して重点
的に行われる。その後、ステップS61にて、このアク
ティブAFに対応した音声が音声信号発生部75より発
音される。
On the other hand, if the contrast of the image signal is low in step S56, the flow shifts to step S59. Then, in steps S59 and S60, the light for distance measurement is irradiated again, and the active AF based on the reflected signal light is performed with emphasis on the previously obtained main subject position. Thereafter, in step S61, a sound corresponding to the active AF is generated by the sound signal generation unit 75.

【0098】これらの測距方式、または主要被写体の判
定の可否に従って、CPU65が音声信号を選択して出
力制御すれば、ユーザにわかりやすく、このスーパーコ
ンビネーションAFの特徴をアピールしながら安心感の
ある測距が可能となる。
If the CPU 65 selects and controls the output of the audio signal according to the distance measurement method or whether the main subject can be determined or not, it is easy for the user to understand, and there is a sense of security while appealing the features of this super combination AF. Distance measurement becomes possible.

【0099】また、単純に音を切換えるのではなく、図
22(a)に示されるように、CPUにマトリクスLC
Dドライバを内蔵させ、ファインダ内のLCDの透過率
を測距結果によって切換えられるようにすれば、よりユ
ーザにわかりやすいカメラにすることができる。
Further, instead of simply switching the sound, as shown in FIG.
If a D driver is built in and the transmittance of the LCD in the finder can be switched according to the result of distance measurement, the camera can be made more user-friendly.

【0100】図22(a)に於いて、CPU80は、内
部にドットマトリクス対応LCDドライバ80a、A/
D変換器80b、ポート80c、メモリ80d、対応付
部80eを有して構成されいる。更に、このCPU80
には、ファインダ内に挿入されているドットマトリクス
対応のLCD81と、測距部82と、フォーカスロック
スイッチ83と、画角部84とが接続されている。
In FIG. 22 (a), the CPU 80 has a dot matrix compatible LCD driver 80a, A /
It has a D converter 80b, a port 80c, a memory 80d, and an associating unit 80e. Further, the CPU 80
, An LCD 81 compatible with a dot matrix inserted in the finder, a distance measuring unit 82, a focus lock switch 83, and an angle of view unit 84 are connected.

【0101】そして、例えば、図22(b)に示される
ように、LCDドライバ80aが図20(b)に示され
るような被写体像に対応する形で透過部分を決定して、
コモン(COM)、セグメント(SEG)の選択信号を
制御すれば、図23に示されるように、ファインダ内で
カメラがピント合わせしようとしている領域をモニタす
ることができる。ここでは、像に合わせて透過エリアを
決定し、その他のエリアは透過率を落とすような制御を
した例を示している。
Then, for example, as shown in FIG. 22B, the LCD driver 80a determines a transmission portion in a form corresponding to the subject image as shown in FIG.
By controlling the common (COM) and segment (SEG) selection signals, it is possible to monitor the area in the viewfinder where the camera is trying to focus, as shown in FIG. Here, an example is shown in which the transmission area is determined according to the image, and the other areas are controlled to reduce the transmittance.

【0102】また、図24に示されるように、測距ポイ
ントを、十字状のクロス部分で表示しても良い。これに
は、測距ポイントの座標を表す軸をx、y方向に延出し
た形でファインダ内LCDを非透過とすれば良い。
Further, as shown in FIG. 24, the distance measurement points may be displayed by cross-shaped cross portions. This can be achieved by making the LCD in the viewfinder non-transparent, with the axis representing the coordinates of the distance measurement point extending in the x and y directions.

【0103】この時の各セグメントの制御動作は、上述
した図11のフローチャートに示したとおりである。
The control operation of each segment at this time is as shown in the flowchart of FIG.

【0104】このような表示をファインダで確認するこ
とによって、ユーザはカメラが順調に作動しているか否
かを知ることができる。
By confirming such a display with the viewfinder, the user can know whether or not the camera is operating smoothly.

【0105】もしも、カメラが誤った表示をするような
場合には、主要被写体検出も誤っていると考えられるの
で、その場合は改めて図18(a)に示されるようなフ
ォーカスロック動作を行うことによって、測距をやり直
せるようにしても良い。この場合、図22(a)に示さ
れるように、CPU80に設けられたフォーカスロック
スイッチ83をユーザが操作するようにする。
If the camera makes an erroneous display, it is considered that the detection of the main subject is also erroneous. In such a case, the focus lock operation as shown in FIG. Thus, the distance measurement may be performed again. In this case, as shown in FIG. 22A, the user operates the focus lock switch 83 provided in the CPU 80.

【0106】また、測距ポイントとファインダ画面とを
対応付けするために、CPU80は測距信号や撮影等の
画角を基に対応付け演算を行い、その結果をLCD表示
制御に反映させるようにする。
In order to associate the distance measurement point with the viewfinder screen, the CPU 80 performs an association calculation based on the distance measurement signal and the angle of view of photographing or the like, and reflects the result in LCD display control. I do.

【0107】また、この発明は、次のような一眼レフレ
ックスタイプのカメラにも応用可能である。一眼レフレ
ックスタイプのカメラは、ファインダと測距のパララッ
クスがないので、上述した図8、図10のようなことは
考えなくて良い。
The present invention is also applicable to the following single-lens reflex camera. Since a single-lens reflex camera does not have a viewfinder and parallax for distance measurement, it is not necessary to consider the above-described cases shown in FIGS.

【0108】図25は、この発明の第3の実施の形態を
示すもので、一眼レフレックスカメラの構成を示す断面
図である。
FIG. 25 shows a third embodiment of the present invention and is a cross-sectional view showing the structure of a single-lens reflex camera.

【0109】図25に於いて、カメラボディ90内の撮
影レンズ91を通過した被写体からの光束は、メインミ
ラー92により反射または透過される。このメインミラ
ー92で反射された光束は、LCD93、ペンタプリズ
ム94を介してファインダ95に導かれる。上記LCD
93は、撮影画面内の合焦した位置を表示するもので、
ファインダ95から確認できるようになっている。この
LCD93は、後述するCPUにより表示の制御がなさ
れる。
In FIG. 25, a light beam from a subject that has passed through a photographic lens 91 in a camera body 90 is reflected or transmitted by a main mirror 92. The light beam reflected by the main mirror 92 is guided to a finder 95 via an LCD 93 and a pentaprism 94. The above LCD
Numeral 93 indicates a focused position in the shooting screen,
It can be confirmed from the finder 95. The display of the LCD 93 is controlled by a CPU described later.

【0110】一方、メインミラー23を透過した光束
は、メインミラー92の後方に設けられたサブミラー9
7により反射されて、カメラボディ90の下部に設けら
れた焦点検出部98に導かれる。
On the other hand, the light beam transmitted through the main mirror 23 is transmitted to the sub mirror 9 provided behind the main mirror 92.
The light is reflected by 7 and guided to a focus detection unit 98 provided at the lower part of the camera body 90.

【0111】この焦点検出部98は、位相差検出方式に
より焦点を検出するものであり、撮影レンズ91を通過
した光束を絞り込む視野マスク(Sマスク)99と、赤
外カットフィルタ100と、光束を集めるためのコンデ
ンサレンズ(Cレンズ)101と、光束を全反射する全
反射ミラー102と、光束を制限する瞳マスク103
と、エリアセンサ105と、光束を該エリアセンサ10
5上に再結像させる再結像レンズ(Sレンズ)104と
から構成される。
The focus detection section 98 detects a focus by a phase difference detection method, and includes a field mask (S mask) 99 for narrowing a light beam passing through the photographing lens 91, an infrared cut filter 100, and a light beam. A condenser lens (C lens) 101 for collecting, a total reflection mirror 102 for totally reflecting the light beam, and a pupil mask 103 for restricting the light beam
, The area sensor 105, and the light flux from the area sensor 10.
5 and a re-imaging lens (S lens) 104 for re-imaging the image on the lens 5.

【0112】更に、カメラボディ90の上部には、焦点
検出時の補助光としても機能するストロボ装置107が
設けられている。
Further, on the upper part of the camera body 90, there is provided a strobe device 107 which also functions as an auxiliary light at the time of focus detection.

【0113】図26は、上記した焦点検出部98の斜視
図及びその制御系を示した図である。
FIG. 26 is a perspective view of the focus detecting section 98 and a diagram showing a control system thereof.

【0114】同図に於いて、瞳マスク103の後方に
は、被写体からの光束を通すためのSレンズ104が設
けられている。
In the figure, an S lens 104 for passing a light beam from a subject is provided behind the pupil mask 103.

【0115】また、CPU108は、エリアセンサ10
5及びストロボ装置107の動作制御を行うと共に、上
述したようにLCD93の動作制御も行う。
[0115] The CPU 108
5 and the strobe device 107, and also controls the operation of the LCD 93 as described above.

【0116】エリアセンサ105の積分動作が開始され
ると、必要に応じてストロボ装置107が発光されて、
発光時または非発光時のセンサデータが得られる。CP
U108により、エリアセンサ105からセンサデータ
が読出され、主要被写体センサデータが読出され、主要
被写体検出、焦点検出演算等が行われる。
When the integration operation of the area sensor 105 is started, the strobe device 107 emits light as necessary, and
Sensor data at the time of light emission or non-light emission can be obtained. CP
In U108, sensor data is read from the area sensor 105, main subject sensor data is read, and main subject detection, focus detection calculation, and the like are performed.

【0117】図27は、この第3の実施の形態によるカ
メラの外観図である。
FIG. 27 is an external view of a camera according to the third embodiment.

【0118】例えば、図28に示されるようなシーンで
は、画面が煩雑なので、カメラもどれが主要被写体かを
判断できずに迷うことがある。
For example, in the scene shown in FIG. 28, since the screen is complicated, the camera may not be able to determine which is the main subject and may be lost.

【0119】基本的には、図28(a)に示されるよう
に、真中にいる人物111の形のパターンを優先すれば
かなりの確率で合焦となる。しかしながら、条件によっ
ては、誤って図28(b)に示されるようにビン112
に合焦してしまったり、或いは撮影者が、図28(c)
に示されるように周辺の人物113にピントを合わせた
い場合もある。
Basically, as shown in FIG. 28 (a), if priority is given to the pattern of the shape of the person 111 in the center, focusing will be performed with a considerable probability. However, depending on the conditions, the bin 112 may be erroneously set as shown in FIG.
When the photographer focuses on
In some cases, it may be desired to focus on the surrounding person 113 as shown in FIG.

【0120】この場合は、カメラボディ90に設けられ
た次候補スイッチ109の操作によって、次のピント合
わせ候補をCPU108が判断して、ファインダ内のド
ットマトリックスLCDによって指示することによりユ
ーザにわかるようにすれば、多くの不満は解消される。
In this case, the CPU 108 determines the next focus candidate by operating the next candidate switch 109 provided on the camera body 90, and instructs the user by using the dot matrix LCD in the finder so that the user can recognize it. Many complaints will go away.

【0121】また、このように一眼レフレックスカメラ
に応用すれば、ピントが合っているか否かを撮影レンズ
を介して判別できるので、ユーザにはいっそうピント位
置の確認が容易となり、失敗のないカメラを提供するこ
とができる。
Further, if the present invention is applied to a single-lens reflex camera, it is possible to determine whether or not the subject is in focus through a photographing lens. Can be provided.

【0122】以上、主要被写体検知技術について簡単に
述べたが、例えば、図29に示されるような、主要被写
体の背景が夜景のシーンでは、単純にエリアセンサの出
力をモニタするだけでは、輝度は図30に示されるよう
になって、肝心の人物の像が検出できない。
Although the main subject detection technique has been briefly described above, for example, in a scene where the background of the main subject is a night scene as shown in FIG. 29, the luminance can be obtained by simply monitoring the output of the area sensor. As shown in FIG. 30, the image of the important person cannot be detected.

【0123】しかしながら、主要被写体検知ができなか
ったようなシーンでも、カメラのストロボ等の補助光を
発光させて、反射光の分布をモニタし(図31参照)、
図30に示される発光なしの場合の輝度分布と比較する
ことによって、主要被写体を検知することが可能とな
る。発光によって変化した部分を優先し、その形状、面
積等を考慮すれば、より正確な主要被写体位置検出が可
能となる。
However, even in a scene in which the main subject cannot be detected, auxiliary light such as a strobe light of a camera is emitted to monitor the distribution of reflected light (see FIG. 31).
By comparing with the luminance distribution without light emission shown in FIG. 30, the main subject can be detected. If priority is given to a portion changed by light emission and its shape, area, and the like are taken into consideration, more accurate main subject position detection can be performed.

【0124】尚、この発明の上記実施の形態によれば、
以下の如き構成を得ることができる。
According to the above embodiment of the present invention,
The following configuration can be obtained.

【0125】すなわち、 (1) ファインダ画面内の主要被写体の位置を判定す
る判定手段と、上記判定手段の判定結果に応じて、上記
ファインダ画面内に上記主要被写体位置を表示する表示
手段と、を具備するカメラに於いて、上記表示手段は、
上記主要被写体位置の近傍領域外に上記主要被写体位置
を示すパターンを表示し、上記主要被写体位置の近傍領
域内には表示を行わないようにしたことを特徴とするカ
メラ。
That is, (1) determining means for determining the position of the main subject in the finder screen, and display means for displaying the main subject position in the finder screen according to the determination result of the determining means. In the camera provided, the display means includes:
A camera, wherein a pattern indicating the main subject position is displayed outside a region near the main subject position, and display is not performed in a region near the main subject position.

【0126】(2) 上記判定手段は、撮影シーンから
の光分布信号を検出し、その光分布信号に基いて上記主
要被写体位置を判定することを特徴とする上記(1)に
記載のカメラ。
(2) The camera according to (1), wherein the determining means detects a light distribution signal from a shooting scene and determines the position of the main subject based on the light distribution signal.

【0127】(3) 上記判定手段は、撮影シーンに向
けて投光し、その反射光から上記光分布信号を検出する
ことを特徴とする上記(2)に記載のカメラ。
(3) The camera according to (2), wherein the judging means projects light toward a photographic scene and detects the light distribution signal from the reflected light.

【0128】(4) 上記表示手段は、上記主要被写体
位置の近傍領域内を高透過率にし、近傍領域外を低透過
率にすることを特徴とする上記(1)に記載のカメラ。
(4) The camera according to (1), wherein the display means sets a high transmittance in an area near the main subject position and a low transmittance outside the vicinity area.

【0129】(5) 撮影シーンからの光分布信号を検
出する検出手段と、上記光分布信号に基き、ファインダ
画面内の主要被写体の位置を判定する判定手段と、上記
判定手段の判定結果に基き、上記ファインダ画面内の上
記主要被写体以外の位置に情報表示を行う表示手段と、
を具備することを特徴とするカメラ。
(5) Detecting means for detecting a light distribution signal from a photographic scene, determining means for determining the position of a main subject in a finder screen based on the light distribution signal, and based on the determination result of the determining means Display means for displaying information at a position other than the main subject in the finder screen;
A camera comprising:

【0130】[0130]

【発明の効果】以上説明したようにこの発明によれば、
被写体がどこにいても瞬時にピント合わせができると共
に、デザイン上もすっきりとしたマルチAF用の表示を
可能とし、且つ、ユーザがそのピント合わせポイントを
簡単に確認して安心して撮影等が楽しめ、使い易くシャ
ッタタイムラグの少ないカメラを提供することができ
る。
As described above, according to the present invention,
Focusing can be performed instantly wherever the subject is located, and a clear multi-AF display is possible in the design. A camera which is easy and has a small shutter time lag can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施の形態を示すもので、
(a)はカメラの内部構成を示すブロック図であり、
(b)は該カメラの外観斜視図である。
FIG. 1 shows a first embodiment of the present invention;
(A) is a block diagram showing an internal configuration of a camera,
(B) is an external perspective view of the camera.

【図2】主要被写体がファインダ画面の中央に存在しな
いシーンに於ける測距の例を示した図である。
FIG. 2 is a diagram illustrating an example of distance measurement in a scene where a main subject is not present at the center of a finder screen.

【図3】主要被写体ではなく、誤って手前の木にピント
を合わせた場合の例を説明する図である。
FIG. 3 is a diagram illustrating an example of a case where a focus is incorrectly focused on a tree in front of the subject, instead of the main subject;

【図4】第1の実施の形態に於ける測距ポイントの表示
動作を説明するフローチャートである。
FIG. 4 is a flowchart illustrating a display operation of a ranging point according to the first embodiment.

【図5】視線検知によるファインダ光学系の構成を示し
た図である。
FIG. 5 is a diagram illustrating a configuration of a finder optical system based on line-of-sight detection.

【図6】図5のマスクLCDと撮影者の目の動きの関係
を説明する図である。
FIG. 6 is a diagram illustrating the relationship between the mask LCD of FIG. 5 and the movement of the photographer's eyes.

【図7】第1の実施の形態に於けるファーストレリーズ
の動作を説明するフローチャートである。
FIG. 7 is a flowchart illustrating an operation of a first release according to the first embodiment.

【図8】パララックスを考慮した画面内表示制御方法に
ついて説明するための図である。
FIG. 8 is a diagram for describing an in-screen display control method in consideration of parallax.

【図9】測距ポイントとなるファインダ内LCDを説明
するための図である。
FIG. 9 is a view for explaining an LCD in a finder serving as a distance measuring point.

【図10】パララックスを考慮した画面内表示制御方法
について説明するための図である。
FIG. 10 is a diagram for describing an in-screen display control method in consideration of parallax.

【図11】パララックスを考慮したファインダ内表示点
灯の動作について説明するフローチャートである。
FIG. 11 is a flowchart illustrating an operation of turning on display in a viewfinder in consideration of parallax.

【図12】パララックスを考慮したファインダ内表示点
灯の動作について説明する図である。
FIG. 12 is a diagram for explaining an operation of turning on display in the viewfinder in consideration of parallax.

【図13】人間の顔の幅を考慮した場合の測距ポイント
を説明するための図である。
FIG. 13 is a diagram for explaining distance measurement points when the width of a human face is considered.

【図14】図13に示される測距ポイントでのファイン
ダ内表示点灯の動作について説明するフローチャートで
ある。
FIG. 14 is a flowchart illustrating an operation of turning on the display in the viewfinder at the distance measurement point shown in FIG. 13;

【図15】ファインダ内の表示例を示したもので、
(a)は斜線のクロスによる測距ポイントの例を示した
図、(b)は丸形状の測距ポイントの例を示した図、
(c)は四角形状の測距ポイントの例を示した図、
(d)は文字表示の例を示した図である。
FIG. 15 shows a display example in the viewfinder.
(A) is a diagram illustrating an example of a ranging point by a cross-hatched line, (b) is a diagram illustrating an example of a round ranging point,
(C) is a diagram showing an example of a square shaped ranging point,
(D) is a diagram showing an example of character display.

【図16】文字表示の大きさを変更可能な場合のファイ
ンダ内表示の動作を説明するフローチャートである。
FIG. 16 is a flowchart for explaining the operation of display in the viewfinder when the size of character display can be changed.

【図17】主要被写体の背景が夜景である例を示した図
である。
FIG. 17 is a diagram illustrating an example in which the background of a main subject is a night scene.

【図18】フォーカスロックについて説明するための図
である。
FIG. 18 is a diagram for explaining focus lock.

【図19】この発明の第2の実施の形態として、高速に
主要被写体位置を検出する例について説明する図であ
る。
FIG. 19 is a diagram illustrating an example in which a main subject position is detected at high speed as a second embodiment of the present invention.

【図20】(a)は第2の実施の形態に於けるカメラの
主要な部分の構成を示したブロック図、(b)は(a)
のエリアセンサ70aに結ばれた像の例を示した図であ
る。
FIG. 20A is a block diagram showing a configuration of a main part of a camera according to the second embodiment, and FIG.
FIG. 5 is a diagram showing an example of an image formed on an area sensor 70a of FIG.

【図21】第2の実施の形態に於けるカメラの測距動作
を説明するフローチャートである。
FIG. 21 is a flowchart illustrating a distance measuring operation of the camera according to the second embodiment.

【図22】マトリクスLCDドライバを内蔵させ、ファ
インダ内のLCDの透過率を測距結果によって切換えら
れるようにしたCPUの構造を説明する図である。
FIG. 22 is a diagram for explaining a structure of a CPU having a built-in matrix LCD driver so that the transmittance of an LCD in a finder can be switched according to a result of distance measurement.

【図23】ファインダ内でカメラがピント合わせしよう
としている領域をモニタしている状態を示した図であ
る。
FIG. 23 is a diagram showing a state in which the camera is monitoring an area in the viewfinder where the camera is to focus.

【図24】測距ポイントを、十字状のクロス部分で表示
した例を示した図である。
FIG. 24 is a diagram showing an example in which distance measuring points are displayed by cross-shaped cross portions.

【図25】この発明の第3の実施の形態を示すもので、
一眼レフレックスカメラの構成を示す断面図である。
FIG. 25 shows a third embodiment of the present invention.
FIG. 1 is a cross-sectional view illustrating a configuration of a single-lens reflex camera.

【図26】図25の焦点検出部98の斜視図及びその制
御系を示した図である。
26 is a perspective view of a focus detection unit 98 of FIG. 25 and a diagram showing a control system thereof.

【図27】第3の実施の形態によるカメラの外観図であ
る。
FIG. 27 is an external view of a camera according to a third embodiment.

【図28】第3の実施の形態に於けるカメラによる合焦
を説明する図である。
FIG. 28 is a diagram illustrating focusing by a camera according to the third embodiment.

【図29】主要被写体の背景が夜景のシーンである例を
示した図である。
FIG. 29 is a diagram illustrating an example in which the background of a main subject is a night scene.

【図30】図29のシーンに於けるエリアセンサの出力
による輝度を示した図である。
FIG. 30 is a diagram showing luminance according to the output of the area sensor in the scene of FIG. 29;

【図31】図29のシーンに於いてストロボ等の補助光
を発光させて、反射光の分布をモニタした輝度を示した
図である。
FIG. 31 is a diagram showing luminance in which auxiliary light such as a strobe light is emitted in the scene of FIG. 29 and the distribution of reflected light is monitored.

【符号の説明】[Explanation of symbols]

10 CPU、 11 像検知部、 12 相関演算部、 13 表示制御部、 14 スイッチ群、 15 測距部、 16 ドライバ、 17 投光部、 18a、18b 受光レンズ、 19a、19b センサアレイ、 20 A/Dコンバータ、 23 露出制御部、 24 ピント合わせ部、 25 ズームレンズ、 26 ズーム検知部、 27 液晶(LCD)、 28、40 ファインダ光学系、 29 視線検知部、 30 カメラボディ、 31 撮影レンズ、 32 測距窓、 33 ファインダ、 34 ストロボ、 36 ファインダ画面、 37 主要被写体、 38、39 LCDセグメント、 41 対物レンズ、 42 プリズム、 43 赤外発光ダイオード(IRED)、 44 フォトダイオード、 45 マスクLCD、 46 接眼レンズ。 Reference Signs List 10 CPU, 11 image detection unit, 12 correlation operation unit, 13 display control unit, 14 switch group, 15 distance measuring unit, 16 driver, 17 light emitting unit, 18a, 18b light receiving lens, 19a, 19b sensor array, 20A / D converter, 23 exposure control unit, 24 focusing unit, 25 zoom lens, 26 zoom detection unit, 27 liquid crystal (LCD), 28, 40 finder optical system, 29 line of sight detection unit, 30 camera body, 31 shooting lens, 32 measurement Long window, 33 finder, 34 strobe, 36 finder screen, 37 main subject, 38, 39 LCD segment, 41 objective lens, 42 prism, 43 infrared light emitting diode (IRED), 44 photodiode, 45 mask LCD, 46 eyepiece .

フロントページの続き (72)発明者 金田一 剛史 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 2H011 BA01 DA05 2H051 DA03 DA10 DA24 GA01 GA09 GA17 2H102 AA44 BB08 BB26 CA11 Continuation of the front page (72) Inventor Takeshi Kaneda 2-43-2 Hatagaya, Shibuya-ku, Tokyo Olympus Optical Industrial Co., Ltd. F-term (reference) 2H011 BA01 DA05 2H051 DA03 DA10 DA24 GA01 GA09 GA17 2H102 AA44 BB08 BB26 CA11

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画面内の複数のポイントを測距可能なカ
メラに於いて、 上記複数の測距ポイントの何れかを選択する選択手段
と、 上記選択手段で選択された測距ポイントに対応するファ
インダ画面内のポイントを判断する判断手段と、 上記判断手段で判断されたポイントを複数の直線の組合
わせで上記ファインダ画面内に表示する表示手段と、 を具備することを特徴とするカメラ。
1. A camera capable of measuring a plurality of points on a screen, a selection means for selecting any one of the plurality of distance measurement points, and a camera corresponding to the distance measurement point selected by the selection means. A camera comprising: a determination unit configured to determine a point in a finder screen; and a display unit configured to display the point determined by the determination unit on the finder screen in a combination of a plurality of straight lines.
【請求項2】 上記測距ポイント近傍は、上記表示を行
わないようにしたことを特徴とする請求項1に記載のカ
メラ。
2. The camera according to claim 1, wherein the display is not performed near the distance measuring point.
【請求項3】 ファインダ画面内の主要被写体の位置を
判定する判定手段と、 上記判定手段の判定結果に応じて、上記ファインダ画面
内に上記主要被写体位置を表示する表示手段と、 を具備するカメラに於いて、 上記表示手段は、上記主要被写体位置の近傍領域外に上
記主要被写体位置を示すパターンを表示し、上記主要被
写体位置の近傍領域内には表示を行わないようにしたこ
とを特徴とするカメラ。
3. A camera comprising: determining means for determining a position of a main subject in a finder screen; and display means for displaying the main subject position in the finder screen in accordance with a result of the determination by the determining means. Wherein the display means displays a pattern indicating the main subject position outside a region near the main subject position, and does not perform display in a region near the main subject position. Camera.
【請求項4】 上記表示手段は、上記近傍領域の範囲を
撮影レンズの画角若しくは被写体距離に応じて切換える
ことを特徴とする請求項3に記載のカメラ。
4. The camera according to claim 3, wherein the display means switches the range of the vicinity area according to an angle of view of a photographic lens or a subject distance.
JP24786899A 1999-09-01 1999-09-01 Camera Withdrawn JP2001075000A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24786899A JP2001075000A (en) 1999-09-01 1999-09-01 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24786899A JP2001075000A (en) 1999-09-01 1999-09-01 Camera

Publications (1)

Publication Number Publication Date
JP2001075000A true JP2001075000A (en) 2001-03-23

Family

ID=17169832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24786899A Withdrawn JP2001075000A (en) 1999-09-01 1999-09-01 Camera

Country Status (1)

Country Link
JP (1) JP2001075000A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101061287B1 (en) 2003-10-20 2011-08-31 소니 주식회사 imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101061287B1 (en) 2003-10-20 2011-08-31 소니 주식회사 imaging device
US8411165B2 (en) 2003-10-20 2013-04-02 Sony Corporation Microphone apparatus, reproducing apparatus, and image taking apparatus

Similar Documents

Publication Publication Date Title
US8194173B2 (en) Auto-focusing electronic camera that focuses on a characterized portion of an object
US7079188B2 (en) Object detecting apparatus
JP3070624B2 (en) Automatic focus detection device
JP4499271B2 (en) camera
JP2001091819A (en) Range-finding device for camera
JP2007233170A (en) Focus detector and camera
US5987151A (en) Apparatus for detecting visual axis
US6308014B1 (en) Ranging apparatus installed in camera
JP2008170645A (en) Focus controller and imaging apparatus
JP2007324976A (en) Digital camera
JP5928016B2 (en) Imaging apparatus and imaging method
JP4786734B2 (en) camera
JPH07325354A (en) Camera
JP2001075000A (en) Camera
JPH07301742A (en) Camera
JP2001083563A (en) Camera
JP4508104B2 (en) camera
JP4756721B2 (en) Camera focus detection device
JP2001108886A (en) Camera
JP3095829B2 (en) Camera display device
JP3568211B2 (en) camera
JP2005345501A (en) Electronic camera
JP3495824B2 (en) Optical equipment having a line-of-sight detection device
JP3236115B2 (en) Focus area setting device
JP3571744B2 (en) Camera with gaze detection means

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107