JP2001075164A - Intra-finder display device and camera - Google Patents

Intra-finder display device and camera

Info

Publication number
JP2001075164A
JP2001075164A JP25150899A JP25150899A JP2001075164A JP 2001075164 A JP2001075164 A JP 2001075164A JP 25150899 A JP25150899 A JP 25150899A JP 25150899 A JP25150899 A JP 25150899A JP 2001075164 A JP2001075164 A JP 2001075164A
Authority
JP
Japan
Prior art keywords
display
screen
camera
finder
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP25150899A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP25150899A priority Critical patent/JP2001075164A/en
Publication of JP2001075164A publication Critical patent/JP2001075164A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an intra-finder display device in which the confirmation of subjects is easy at the time of taking a photograph and which is capable of displaying photography information at a position where it is not a hindrance to the subjects at the time of observing the subjects, and a camera. SOLUTION: When the distance till a main subject is measured by a distance measuring part 12, the image of the main object in a screen is detected by an image detecting part 13. Then, in a CPU 11, the judgement of position of main object and the distance measuring operation are performed based on an output signal from the part 13 and the focusing control of a camera is performed. Moreover, an area where the main object does not exist is judged in the position judging part 11a of the CPU 11 by the operation for detecting the position of the main object of this image detecting part 13 and the displaying of the photography information in the area where the main object does not exist is controlled by a display part 14.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ファインダ内表
示装置及びカメラに関し、より詳細には、撮影画面内の
複数ポイントを測距可能なマルチAF搭載のカメラのフ
ァインダ内表示装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device in a finder and a camera, and more particularly to an improvement in a display device in a finder of a camera equipped with a multi-AF capable of measuring a plurality of points in a shooting screen. is there.

【0002】[0002]

【従来の技術】近年、カメラの高機能化に伴い、ファイ
ンダ内に種々の情報を表示する技術に発展が見られる。
例えば、特開平8−286353号公報には、合焦ポイ
ントをファインダ内に色分け表示するカメラが開示され
ている。
2. Description of the Related Art In recent years, with the advancement of functions of cameras, a technique for displaying various information in a viewfinder has been developed.
For example, Japanese Patent Laying-Open No. 8-286353 discloses a camera that displays a focus point in a viewfinder in different colors.

【0003】更に、カメラが測距するポイントや、輝度
情報のみならず、ビデオカメラでは撮影時間や電池状態
をファインダ画面内に表示する技術が知られている。例
えば、特開平7−87392号公報に開示されているよ
うに、テレビジョン等でも裏番組の放送の画面を画面の
隅に表示する製品が知られている。
Further, there is known a technique for displaying, in a finder screen, a shooting time and a battery state in a video camera as well as a point at which a camera measures a distance and luminance information. For example, as disclosed in Japanese Patent Application Laid-Open No. 7-87392, there is known a product that displays a screen of a broadcast of a back program at a corner of the screen even on a television or the like.

【0004】また、パーソナルコンピュータの技術で
も、いろいろなプログラムを選択表示する技術は広く知
られている。
[0004] In the personal computer technology, a technology for selectively displaying various programs is widely known.

【0005】つまり、ユーザがいろいろな表示を同時に
見ることはできないのに対し、その一方で、目視可能な
ビジュアルな情報は認知がしやすいという感覚上の問題
を解決するために、これらの工夫は不可欠なものとなっ
ている。
[0005] In other words, in order to solve the sensory problem that the user cannot see various displays at the same time, while visually recognizable visual information is easy to recognize, these ideas are devised. It has become indispensable.

【0006】また、製品化に際して、デジタル画像の表
示には、非常に大きなコスト上、製造上の困難さが伴う
ので、この技術をより有効に用いるという考え方は自然
な流れといえる。
[0006] In addition, at the time of commercialization, the display of digital images involves extremely large costs and difficulties in manufacturing. Therefore, it can be said that the idea of using this technology more effectively is a natural flow.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上述し
た特開平7−87392号公報に記載された技術は、放
送されている複数の画像の配置に関するものであり、ユ
ーザがそれを見ながら判断して操作するための技術では
ない。
However, the technique described in Japanese Patent Application Laid-Open No. 7-87392 relates to the arrangement of a plurality of broadcast images, and the user makes a judgment while watching the images. It is not a technology to operate.

【0008】また、テレビ画面の場合、上記複数の画面
は等価なものであるが、カメラの場合、一方は撮影され
る被写体であり、一方はそれ以外の画面なので当然前者
を重視するべきであり、後者は、じゃまな場合は最悪見
えなくとも良い。
In the case of a television screen, the above-mentioned plurality of screens are equivalent. In the case of a camera, however, one is a subject to be photographed, and the other is another screen, so that the former should be naturally emphasized. The latter need not look worst in the way.

【0009】ところが、上述した特開平8−28625
3号公報に記載のカメラでは、主要被写体の上に表示が
重なると、被写体の表情が見えなくなる等、ファインダ
内の表示が非常に煩わしいものとなる。
However, the above-mentioned Japanese Patent Application Laid-Open No. Hei 8-28625
In the camera described in Japanese Patent Application Publication No. 3 (1993) -2009, if the display overlaps the main subject, the display in the viewfinder becomes very troublesome, for example, the expression of the subject becomes invisible.

【0010】したがってこの発明は、上記課題に鑑みて
なされたものであり、撮影時に確認が容易であると共
に、被写体の観察時に邪魔にならない位置に撮影情報を
表示可能なファインダ内表示装置及びカメラを提供する
ことを目的とする。
SUMMARY OF THE INVENTION Accordingly, the present invention has been made in view of the above-mentioned problems, and provides a display device and a camera in a finder which are easy to confirm at the time of photographing and can display photographing information at a position where they do not interfere with observation of a subject. The purpose is to provide.

【0011】[0011]

【課題を解決するための手段】すなわちこの発明は、フ
ァインダ画面内に撮影情報を表示するファインダ内表示
装置に於いて、上記ファインダ画面内に於ける測距ポイ
ントを特定する特定手段と、上記特定された測距ポイン
トと上記撮影情報表示とが重ならないように、その位置
若しくは大きさを設定する設定手段と、を具備すること
を特徴とする。
That is, the present invention relates to a display device in a finder for displaying photographing information in a finder screen, a specifying means for specifying a distance measuring point in the finder screen, and the specifying means. Setting means for setting the position or size of the measured distance measurement point and the display of the photographing information so as not to overlap with each other.

【0012】またこの発明は、ファインダ画面内に撮影
情報を表示するファインダ内表示装置に於いて、上記画
面内の輝度分布を判定する判定手段と、上記判定手段で
判定された輝度分布情報に基いて、上記撮影情報の表示
位置、若しくは大きさ設定する設定手段と、を具備する
ことを特徴とする。
Further, the present invention provides a display device in a finder for displaying photographing information in a finder screen, a determining means for determining a luminance distribution in the screen, and a luminance distribution information determined by the determining means. Setting means for setting the display position or size of the photographing information.

【0013】更にこの発明は、ファインダ内の撮影者の
注視ポイントを検出する検出手段と、上記検出手段の検
出結果に基き撮影者の注視ポイントの変更を判定する視
線変更判定手段と、ファインダ内の表示位置を切換える
表示切換手段と、上記視線変更判定手段が、注視ポイン
トが変更されたと判定したら上記表示切換手段を切換え
制御する制御手段と、を具備することを特徴とする。
Further, the present invention provides a detecting means for detecting a gaze point of the photographer in the finder, a gaze change determining means for judging a change in the gaze point of the photographer based on the detection result of the detecting means, A display switching means for switching a display position, and a control means for switching and controlling the display switching means when the gaze change determining means determines that the gaze point has been changed.

【0014】この発明のファインダ内表示装置にあって
は、ファインダ画面内に撮影情報を表示するもので、上
記ファインダ画面内に於ける測距ポイントが特定手段に
より特定される。すると、設定手段によって、この特定
された測距ポイントと上記撮影情報表示とが重ならない
ように、その位置若しくは大きさが設定される。
In the finder display device according to the present invention, the photographing information is displayed in the finder screen, and the distance measuring points in the finder screen are specified by the specifying means. Then, the position or size of the specified distance measuring point is set by the setting means so that the specified distance measuring point does not overlap the display of the photographing information.

【0015】また、この発明のファインダ内表示装置に
あっては、ファインダ画面内に撮影情報を表示するもの
で、上記画面内の輝度分布が判定手段によって判定され
る。そして、上記判定手段で判定された輝度分布情報に
基いて、上記撮影情報の表示位置、若しくは大きさが設
定手段によって設定される。
In the finder display device according to the present invention, the photographing information is displayed in the finder screen, and the luminance distribution in the screen is determined by the determination means. Then, based on the luminance distribution information determined by the determining means, the display position or size of the photographing information is set by the setting means.

【0016】更に、この発明のカメラにあっては、ファ
インダ内の撮影者の注視ポイントが検出手段によって検
出手段され、この検出手段の検出結果に基いて、視線変
更判定手段で撮影者の注視ポイントの変更が判定され
る。そして、ファインダ内の表示位置が表示切換手段に
よって切換えられると、上記視線変更判定手段が、注視
ポイントが変更されたと判定したならば、制御手段によ
って上記表示切換手段が切換え制御される。
Further, in the camera according to the present invention, the gaze point of the photographer in the finder is detected by the detection means, and based on the detection result of the detection means, the gaze change determination means determines the gaze point of the photographer. Is determined. When the display position in the finder is switched by the display switching means, if the gaze change determining means determines that the gaze point has been changed, the display switching means is switched by the control means.

【0017】[0017]

【発明の実施の形態】以下、図面を参照してこの発明の
実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0018】初めに、この発明のファインダ内表示装置
によるファインダ内の表示例について説明する。
First, a display example in the finder by the finder display device of the present invention will be described.

【0019】この発明は、図2に示されるように、ファ
インダ内の被写体の状態を自動的に判別するものであ
り、よって、画面内に表示する情報の位置やその大きさ
を切換えることのできるカメラである。
According to the present invention, as shown in FIG. 2, the state of the subject in the finder is automatically determined. Therefore, the position and size of the information displayed on the screen can be switched. Camera.

【0020】図2(a)は、主要被写体2が画面1の中
央に存在するだけのシンプルな構図であるので、画面左
上の空きスペースに測距表示3aが出力されている。こ
の測距表示は撮影情報の1つであり、例えば、ポートレ
ートの距離ならば人の形の表示を、風景の距離ならば山
の表示を出力するというように、ビジュアルで撮影者が
すぐにわかりやすいものとする。
FIG. 2A shows a simple composition in which the main subject 2 only exists at the center of the screen 1, and therefore, the distance measurement display 3a is output to an empty space at the upper left of the screen. This distance measurement display is one type of photographing information. For example, the photographer immediately outputs a visual image of a person in the case of a portrait distance and a display of a mountain in the case of a landscape distance. Make it easy to understand.

【0021】図2(b)は、風景の表示の例を示したも
のである。この場合、画面1内に空きスペースが小さい
ので測距表示3bも小さくしている。更に、図2(c)
に示されるように、画面中央に人物が存在しない場合
は、画面中央に測距表示3cが出力される。
FIG. 2B shows an example of a scene display. In this case, since the free space in the screen 1 is small, the distance measurement display 3b is also reduced. Further, FIG.
As shown in (2), when no person exists at the center of the screen, the distance measurement display 3c is output at the center of the screen.

【0022】このような工夫によって、主要被写体の上
に表示が重なるようなことがないので、ユーザは被写体
の表情や構図を十分確認することができ、尚且つ、正し
くピント合せができているかどうかを、ビジュアル測距
表示によって同じ画面内で確認できるので、安心して撮
影が可能となる。
With such a device, the display does not overlap with the main subject, so that the user can sufficiently check the expression and composition of the subject, and whether the user has correctly focused. Can be confirmed on the same screen by the visual distance display, so shooting can be performed with confidence.

【0023】図1は、この発明の第1の実施の形態に係
るファインダ内表示装置の概略構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a schematic configuration of the display device in the finder according to the first embodiment of the present invention.

【0024】図1に於いて、CPU11は、カメラ全体
のシーケンスを司るワンチップマイクロコンピュータ等
から成る演算制御手段である。このCPU11は、内部
に位置判定部11a及び面積判定部11bを有している
もので、また、外部に測距部12、像検出部13、表示
部14が接続されている。
In FIG. 1, a CPU 11 is an arithmetic and control means comprising a one-chip microcomputer or the like for controlling the sequence of the entire camera. The CPU 11 has a position determining unit 11a and an area determining unit 11b inside, and a distance measuring unit 12, an image detecting unit 13, and a display unit 14 are connected to the outside.

【0025】このカメラは、測距部12によって主要被
写体までの距離が測定されると、像検出部13により画
面内に於ける上記主要被写体の像が検出される。CPU
11では、上記像検出部13からの出力信号を基に、主
要被写体位置の判別と、その測距動作が行われてカメラ
のピント合わせ制御が行われる。
In this camera, when the distance to the main subject is measured by the distance measuring section 12, the image of the main subject on the screen is detected by the image detecting section 13. CPU
At 11, the main subject position is determined based on the output signal from the image detection unit 13 and the distance measurement operation is performed to control the focusing of the camera.

【0026】すなわち、上記像検出部13の主要被写体
位置検出動作によって、CPU11内の位置判定部11
aにて主要被写体の存在しない領域が決定され、ファイ
ンダを構成する表示部14によって該主要被写体の存在
しない領域に表示制御が行われる。
That is, the main object position detecting operation of the image detecting unit 13 causes the position judging unit 11 in the CPU 11 to operate.
The area where the main subject does not exist is determined in a, and display control is performed on the area where the main subject does not exist by the display unit 14 constituting the viewfinder.

【0027】また、CPU11側で主要被写体の存在し
ない領域の像信号をモニタすれば、面積判定部11bに
よって表示可能な部分の面積が割出されて、その部分を
最大限生かした大きさでの表示制御が可能となる。図2
(b)に示されるように、画面内のコントラストの低い
部分が狭い場合に測距表示3bが小さく表示されるの
は、このような制御によるものである。
If the CPU 11 monitors the image signal of the area where the main subject does not exist, the area of the displayable portion is determined by the area determination section 11b, and the size of the display portion is maximized. Display control becomes possible. FIG.
As shown in (b), when the low-contrast portion in the screen is narrow, the distance measurement display 3b is displayed small due to such control.

【0028】図3は、第1の実施の形態によるカメラの
測距動作を説明するフローチャートである。
FIG. 3 is a flowchart for explaining the distance measuring operation of the camera according to the first embodiment.

【0029】ステップS1にて画面内の像検出が行われ
ると、この結果より、続くステップS2にて主要被写体
の位置が検出される。この主要被写体位置の検出は、画
面各部の距離を測定して、距離の分布より一番近い距離
のものを選択しても良いし、その面積や形状を考慮して
判定が行われるようにしても良い。また、像のパターン
や補助光照射時の反射光分布によって判定が行われるよ
うにしても良い。
When the image in the screen is detected in step S1, the position of the main subject is detected in step S2 based on the result. In detecting the main subject position, the distance of each part of the screen may be measured, and the closest distance may be selected from the distance distribution, or the determination may be made in consideration of the area or shape. Is also good. Alternatively, the determination may be made based on the pattern of the image or the distribution of the reflected light when the auxiliary light is applied.

【0030】ステップS3では、このようにして得られ
た主要被写体の位置の像信号が用いられて、ピント合わ
せ用に距離測定が行われる。この距離測定結果によっ
て、その時にファインダ内に表示する内容が切換えられ
るのは上述したとおりである。
In step S3, the image signal at the position of the main subject obtained in this manner is used to measure a distance for focusing. As described above, the content displayed in the finder at that time is switched according to the distance measurement result.

【0031】次いで、ステップS4に於いて、上記ステ
ップS2に於ける主要被写体位置判定結果によって、画
面中央に主要被写体が存在しているか否かが判定され
る。ここで、画面中央に主要被写体が存在していれば、
ステップS5に移行して、図2(a)、(b)に示され
るように、画面内左上のスペースに測距表示が行われる
べく、画面左上の部分のローコントラストスペースが検
出される。
Next, in step S4, it is determined whether or not the main subject exists at the center of the screen based on the result of the main subject position determination in step S2. Here, if the main subject exists in the center of the screen,
In step S5, as shown in FIGS. 2A and 2B, a low-contrast space in the upper left portion of the screen is detected so that the distance measurement display is performed in the upper left space in the screen.

【0032】そして、ステップS6に於いて、上記ステ
ップS5で検出されたスペースが、所定の面積よりも大
きいか否かが判定される。ここで、そのスペースが小さ
ければ、ステップS7に移行して、図2(b)に示され
るように、画面左上に小さな表示(測距表示3b)が出
力される。また、上記ステップS6にて上記スペースが
大であると判定された場合は、ステップS8に移行し
て、図2(a)に示されるように、画面左上に大きな表
示(測距表示3a)が出力される。
Then, in step S6, it is determined whether or not the space detected in step S5 is larger than a predetermined area. If the space is small, the process proceeds to step S7, and a small display (distance measurement display 3b) is output at the upper left of the screen as shown in FIG. 2B. If it is determined in step S6 that the space is large, the process proceeds to step S8, where a large display (distance measurement display 3a) is displayed at the upper left of the screen as shown in FIG. Is output.

【0033】一方、上記ステップS4に於いて、画面内
中央に主要被写体が存在していなければ、ステップS9
に移行して、図2(c)に示されるように、画面中央部
上部に表示が行われるべく、画面中央上の部分のローコ
ントラストスペースが検出される。
On the other hand, if the main subject does not exist at the center of the screen in step S4, step S9
Then, as shown in FIG. 2 (c), a low-contrast space in the upper portion of the screen is detected so that the image is displayed in the upper portion of the center of the screen.

【0034】そして、ステップS10にて、上記ステッ
プS9で検出されたスペースが、所定の面積よりも大き
いか否かが判定される。ここで、そのスペースが小さけ
れば、ステップS11に移行して、図示されないが、画
面中央上の部分に小さな表示が出力される。また、上記
ステップS10にて上記スペースが大であると判定され
た場合は、ステップS12に移行して、図2(c)に示
されるように、画面中央上の部分に大きな表示(測距表
示3c)が出力される。
Then, in step S10, it is determined whether or not the space detected in step S9 is larger than a predetermined area. Here, if the space is small, the process proceeds to step S11, and a small display (not shown) is output in a portion on the center of the screen. If it is determined in step S10 that the space is large, the process proceeds to step S12, where a large display (a distance measurement display) is displayed in the upper center portion of the screen as shown in FIG. 3c) is output.

【0035】このように、画面内の主要被写体の位置
と、表示部の空きスペースによって、表示の位置や大き
さを変えるので、表示による煩わしさのないファインダ
画面を得ることができる。
As described above, the position and size of the display are changed depending on the position of the main subject in the screen and the empty space of the display unit, so that a finder screen without troublesome display can be obtained.

【0036】加えて、図2(b)に示されるように、表
示スペースが小さい場合には小さな表示となるので、画
面の隅々まで良く確認してからシャッタチャンスを決め
ることができる。
In addition, as shown in FIG. 2B, when the display space is small, the display is small, so that it is possible to determine a shutter chance after confirming well every corner of the screen.

【0037】また、空きスペースの大きさが大きい場合
には大きな表示となるので、より確認しやすく、安心感
のある撮影を楽しむことができる。
When the size of the empty space is large, the display is large, so that it is easier to confirm and the user can enjoy the photographing with a sense of security.

【0038】上述したように、主要被写体の存在する位
置には撮影情報を表示しないようにしたので、人物の表
情がわからなくなってしまうようなことはない。
As described above, since the photographing information is not displayed at the position where the main subject is present, the expression of the person is not lost.

【0039】次に、上述したファインダ内表示装置が適
用されたカメラの測距装置について詳しく説明する。
Next, a distance measuring device for a camera to which the above-described display device in a finder is applied will be described in detail.

【0040】図4(a)を参照して、先ず、被写体距離
の求め方について説明する。
Referring to FIG. 4A, a method of obtaining the subject distance will be described first.

【0041】図4(a)に於いて、被写体20からの光
束は、受光レンズ21a、21bを介して入射されてセ
ンサアレイ22a、22b上に結像される。これらセン
サアレイ22a、22bからの出力信号は、CPU25
内のA/D変換回路25aでデジタル信号に変換されて
相関演算部25bに供給される。
In FIG. 4A, a light beam from a subject 20 is incident via light receiving lenses 21a and 21b and forms an image on sensor arrays 22a and 22b. Output signals from these sensor arrays 22a and 22b are
Is converted into a digital signal by an A / D conversion circuit 25a and supplied to a correlation operation unit 25b.

【0042】上記CPU25は、ワンチップマイクロコ
ンピュータ等から構成される演算制御手段であり、更に
積分制御部25c及び選択部25dを有しているもの
で、外部は使用状態検知部26、ピント合わせ部27が
接続される。
The CPU 25 is an arithmetic control means composed of a one-chip microcomputer and the like, and further includes an integration control section 25c and a selection section 25d. 27 is connected.

【0043】上記受光レンズ21a、21bは、視差B
を有して配置された一対の受光レンズであり、被写体2
0の像は、これら受光レンズ21a、21bによってセ
ンサアレイ22a、22b上に結像される。この像は、
上記視差Bによって三角測距の原理に従って、2つのセ
ンサアレイ上で異なる相対位置の所に結像される。
The light receiving lenses 21a and 21b have a parallax B
And a pair of light-receiving lenses arranged with
The image of 0 is formed on the sensor arrays 22a and 22b by the light receiving lenses 21a and 21b. This image is
According to the parallax B, images are formed at different relative positions on the two sensor arrays according to the principle of triangulation.

【0044】この相対位置の差xを検出すれば、被写体
20までの距離Lは、受光レンズ21a、21bの焦点
距離fと上記視差Bに従って、L=(B・f)/xを計
算することによって求めることができる。この結果に従
って、CPU25によりピント合わせ部27が制御され
れば、被写体20にピントが合った撮影を楽しむことが
できる。
If the difference x between the relative positions is detected, the distance L to the subject 20 is calculated by calculating L = (B · f) / x according to the focal length f of the light receiving lenses 21a and 21b and the parallax B. Can be determined by: If the focusing unit 27 is controlled by the CPU 25 in accordance with the result, the user can enjoy shooting with the subject 20 in focus.

【0045】上記xの算出方法は、CPU25内に設け
られたA/D変換回路25aによって、各センサアレイ
の各センサの出力がデジタル信号としてCPU内の図示
されないメモリに記憶される。この結果が用いられて、
CPU25では所定のプログラムによって、いわゆる相
関演算が行われる。この相関演算は、2つのセンサアレ
イ22a、22bの出力をセンサアレイの並び方向にず
らしながら差をとり、最も差が小さくなった時のずらし
量の“相関”が高いと判定する方法である。このずらし
量とセンサアレイのピッチが、つまり、上述した相対位
置差xを表す値となる。そして、この相関演算は、CP
U25内の相関演算部25bに於いて行われる。
In the method of calculating x, the output of each sensor of each sensor array is stored as a digital signal in a memory (not shown) in the CPU by the A / D conversion circuit 25a provided in the CPU 25. Using this result,
In the CPU 25, a so-called correlation operation is performed by a predetermined program. This correlation calculation is a method of taking the difference while shifting the outputs of the two sensor arrays 22a and 22b in the direction in which the sensor arrays are arranged, and determining that the "correlation" of the shift amount when the difference becomes smallest is high. This shift amount and the pitch of the sensor array, that is, a value representing the relative position difference x described above. And this correlation operation is CP
This is performed in the correlation operation unit 25b in U25.

【0046】図5は、このようなセンサアレイの一部を
より詳細に示した構成図である。
FIG. 5 is a configuration diagram showing a part of such a sensor array in more detail.

【0047】図5に於いて、電源となるバイアス回路3
1には、センサアレイ32a〜32dが接続されてい
る。これらのセンサアレイ32a〜32dからは、該セ
ンサアレイを形成する受光素子の受光面により、受光量
に応じた信号電流が出力される。この信号電流は、積分
開始/終了を切換える積分スイッチ33aのオン時は積
分アンプ34a〜34dに導かれる。
In FIG. 5, a bias circuit 3 serving as a power supply
1 is connected to the sensor arrays 32a to 32d. From these sensor arrays 32a to 32d, signal currents corresponding to the amounts of received light are output by the light receiving surfaces of the light receiving elements forming the sensor arrays. This signal current is guided to the integration amplifiers 34a to 34d when the integration switch 33a for switching the start / end of integration is turned on.

【0048】そして、リセットスイッチ33bがオフ時
には、各積分アンプ34a〜34dの出力に、積分量に
応じた電圧信号が現れる。この結果が、CPU25に内
蔵されたA/D変換回路25aによって読取られること
により、上述した相関演算を経て、ピント合わせをする
ことができる。
When the reset switch 33b is off, a voltage signal corresponding to the integration amount appears at the output of each of the integration amplifiers 34a to 34d. The result is read by the A / D conversion circuit 25a incorporated in the CPU 25, so that focusing can be performed through the above-described correlation operation.

【0049】しかし、上記センサアレイ34a〜34d
に入る光の量は、シーンの明るさや被写体の色や反射率
によって種々の値にバラつくので、限られたダイナミッ
クレンジの積分手段で適正な値に積分量を収めるために
は、正確な積分制御技術が必要になる。例えば、積分時
間が短かすぎる時、積分結果が平坦になってしまって差
が得られないが、長すぎても回路の飽和によって積分結
果が均一になってしまう。
However, the sensor arrays 34a to 34d
Since the amount of light entering varies depending on the brightness of the scene, the color of the subject, and the reflectivity, accurate integration is required in order to set the integration amount to an appropriate value with the limited dynamic range integration means. Control technology is required. For example, when the integration time is too short, the integration result becomes flat and no difference can be obtained, but when it is too long, the integration result becomes uniform due to the saturation of the circuit.

【0050】先の相関演算の説明からも明らかなよう
に、像に変化が乏しいと、2つのセンサアレイで得られ
た2つの像の相関がとりにくく、結果として正しい測距
ができなくなってしまう。
As is clear from the above description of the correlation calculation, if the image has little change, it is difficult to correlate the two images obtained by the two sensor arrays, and as a result, correct distance measurement cannot be performed. .

【0051】そこで、積分結果をリアルタイムでモニタ
して適正なレベルになったところで積分を終了させる技
術が用いられる。つまり、最大積分値検出回路35に接
続された選択スイッチ33cの何れをオンするかによっ
て、どのセンサの出力がモニタされるかが決まる。
Therefore, a technique is used in which the integration result is monitored in real time and the integration is terminated when the integration level reaches an appropriate level. That is, which of the selection switches 33c connected to the maximum integration value detection circuit 35 is turned on determines which sensor output is monitored.

【0052】図6(a)は、上記選択スイッチ33cを
オンさせて、積分制御を行う動作を説明するタイミング
チャートである。
FIG. 6A is a timing chart for explaining the operation of performing the integral control by turning on the selection switch 33c.

【0053】センサアレイ32a〜32dに光が入って
いる時、最初にリセットスイッチ33bがオンされ、出
力が基準レベルにリセットされた後、積分スイッチがオ
ン、リセットスイッチ33bがオフされると、T1のタ
イミングで積分が開始される。
When light enters the sensor arrays 32a to 32d, the reset switch 33b is turned on first, and after the output is reset to the reference level, the integration switch is turned on and the reset switch 33b is turned off. Integration is started at the timing of.

【0054】最大積分値検出回路35の出力は、選択部
8のスイッチ8が該最大積分値出力回路35に接続され
ている時、最も積分量の大きい出力が選択されてCPU
25内のA/D変換回路25aに入力される。したがっ
て、CPU25は、この出力を、A/D変換回路25a
を動作させて逐次モニタし、この最大値が回路のダイナ
ミックレンジを越えない時点T2で積分スイッチ33が
オフされれば、各センサの積分出力がダイナミックレン
ジを越えることはない。
When the switch 8 of the selector 8 is connected to the maximum integration value output circuit 35, the output of the maximum integration value detection circuit 35 is selected as the output having the largest integration amount.
25 is input to an A / D conversion circuit 25a. Therefore, the CPU 25 outputs this output to the A / D conversion circuit 25a.
Are operated and monitored successively. If the integration switch 33 is turned off at the time T2 when this maximum value does not exceed the dynamic range of the circuit, the integrated output of each sensor will not exceed the dynamic range.

【0055】そして、積分停止後、センサアレイ32
a、32b、32c、32dの積分出力をA/D変換す
るために、選択部8のスイッチが切換え制御されれば、
CPU25にて各センサ出力が順次モニタ可能となる。
After stopping the integration, the sensor array 32
If the switches of the selection unit 8 are controlled to perform A / D conversion on the integrated outputs of a, 32b, 32c, and 32d,
Each sensor output can be sequentially monitored by the CPU 25.

【0056】このようにして得られた像信号は、図6
(b)に示されるようなもので、光の入射状態に従って
暗い部分は低い出力、明るい部分は高い出力として表さ
れる。このような技術によって、カメラの測距装置は、
適正な像信号を得ることができ、更に、画面上の像パタ
ーンの表示にふさわしいコントラスト域を見つけるため
の情報も得ることができる。
The image signal thus obtained is shown in FIG.
As shown in (b), a dark part is represented as a low output and a bright part is represented as a high output according to the incident state of light. With this technology, camera ranging devices
An appropriate image signal can be obtained, and information for finding a contrast region suitable for displaying an image pattern on a screen can also be obtained.

【0057】また、CPU25のスイッチ33cの制御
によって、所定のセンサのみを最大積分値検出回路35
と接続することができる。
Further, only the predetermined sensor is controlled by the switch 33c of the CPU 25 so that the maximum integrated value detecting circuit 35
And can be connected.

【0058】ここで、もし、上述した4つのセンサの例
でも、図4(b)に示されるようにセンサアレイ32a
の測距ポイント28が被写体20でなく、図4(c)に
示されるように太陽29の光が入っているとすると、こ
の当該センサアレイ32aを最大積分値検出回路35に
接続しなければ、太陽の強い光によって積分制御がなさ
れてしまうことはない。
Here, even in the case of the above-described four sensors, as shown in FIG.
Assuming that the distance measuring point 28 is not the subject 20 and the light of the sun 29 enters as shown in FIG. 4C, if the sensor array 32a is not connected to the maximum integrated value detecting circuit 35, The integral control is not performed by the strong light of the sun.

【0059】逆に、積分モニタ時に太陽29の直射光が
影響すると、通常、被写体20の像信号が得られる前に
積分制御が終了してしまい、正確な測距はできなくなっ
てしまうケースが多い。
On the other hand, if the direct light of the sun 29 affects the integration monitor, the integration control is usually terminated before the image signal of the subject 20 is obtained, so that accurate distance measurement cannot be performed in many cases. .

【0060】尚、最大積分値検出回路は、最大値でな
く、最大値と最小値の差や、平均値を検出する回路であ
っても同様のことが起こり得る。
The same may occur even if the maximum integrated value detection circuit detects not the maximum value but the difference between the maximum value and the minimum value or the average value.

【0061】更に、図4(a)に示される装置の構成
で、受光レンズ21aからの破線で示された光線を利用
する、と画面中心のポイント28C以外のポイント、つ
まり基線長方向にずれたポイント28L、28Rの測距
も可能となる。
Further, in the configuration of the apparatus shown in FIG. 4A, when the light beam indicated by the broken line from the light receiving lens 21a is used, a point other than the point 28C at the center of the screen, that is, the base line is shifted in the longitudinal direction. Distance measurement of the points 28L and 28R is also possible.

【0062】また、図7(a)に示されるように、受光
レンズ21a、21bの後方に配置されたセンサアレイ
22a、22bを基線長方向と垂直の方向に上下各々1
本追加すると、同図に示される光線のように、基線長方
向とは垂直な方向であるポイント28Uの部分とポイン
ト28Dの部分を測距可能となる。したがって、この
時、図7(b)のように、模式的にセンサアレイのモニ
タ域を示したように、画面内の多くのポイントが測距可
能になる。
As shown in FIG. 7 (a), the sensor arrays 22a and 22b disposed behind the light receiving lenses 21a and 21b are vertically moved one by one in the direction perpendicular to the base line length direction.
With this addition, it is possible to measure the distance between the point 28U and the point 28D, which are perpendicular to the base line length direction, like the light rays shown in FIG. Therefore, at this time, as shown in FIG. 7B, many points on the screen can be measured for distance, as schematically showing the monitor area of the sensor array.

【0063】この考え方を拡張すれば、図8(a)に示
されるように、1本や3本のラインセンサではなく、セ
ンサが連続して配設された、いわゆるエリアセンサを用
いることによって、画面内をくまなくモニタすることが
でき、例えば図7(c)に示されるように、測距可能ポ
イント数を30ポイント以上の数に増加させることが可
能になる。
If this idea is extended, as shown in FIG. 8A, the screen is not changed by using a so-called area sensor in which sensors are continuously arranged instead of one or three line sensors. The inside can be monitored all over, and for example, as shown in FIG. 7C, the number of measurable points can be increased to 30 or more.

【0064】このような工夫によって、測距ポイント数
を増加させれば、画面の何処に主要被写体が存在しても
正確な測距が可能な測距装置を提供することができる。
例えば、従来の画面中央しか測距できなかった、図9
(c)に示されるような構図で画面の端の方に人物がい
る場合も、正確なピント合わせのできるカメラを提供可
能となる。更に、この構成によって画面内各部のコント
ラストや輝度分布の測定ができる。
By increasing the number of distance measurement points by such a device, it is possible to provide a distance measurement device capable of accurate distance measurement regardless of where the main subject exists on the screen.
For example, in the conventional method, only the center of the screen could be measured.
Even when there is a person near the edge of the screen in the composition shown in FIG. 3C, a camera capable of accurate focusing can be provided. Further, with this configuration, it is possible to measure the contrast and the luminance distribution of each part in the screen.

【0065】但し、上述したように、測距域が広くなる
程、積分制御の時に余計ものの光の影響を受けやすくな
り、副作用として誤測距に到る確率も増加する。そこ
で、本実施の形態では、図8(b)に示されるように、
画面全域に測距域を拡張しながら、積分判定エリアは、
パターンA〜Dの4つに限定し、極力必要な光のみで積
分制御を行うようにする。
However, as described above, as the distance measurement range becomes wider, the influence of extra light is more likely to be exerted during integration control, and the probability of erroneous distance measurement as a side effect increases. Therefore, in the present embodiment, as shown in FIG.
While extending the ranging area to the entire screen, the integration judgment area
The pattern is limited to four patterns A to D, and the integral control is performed using only necessary light as much as possible.

【0066】すなわち、図9(a)〜(d)に示される
ようなシーンで、カメラの構え方が縦か横か、また上向
きか否かを判定して、その撮影状況に最適な積分判定域
を用いて積分制御を行うようにすれば、図中の画面38
内の太陽の直射の影響を受けることなく、適切な積分制
御が可能となる。更に、この構図検知によって、表示の
文字の上下を合わせ込むことも可能となる。
That is, in the scenes shown in FIGS. 9A to 9D, it is determined whether the camera is held vertically, horizontally, or upward, and the optimum integration determination for the shooting situation is determined. If the integral control is performed using the region, the screen 38 in the figure can be displayed.
Appropriate integration control can be performed without being affected by the direct sunlight of the sun inside. Further, by this composition detection, it is possible to align the upper and lower sides of the displayed characters.

【0067】図9(a)は横構図で、且つ上向きでない
構図である。したがって、パターンAの積分判定領域で
積分を判定して終了させる。また、図9(b)は縦構図
で、且つ上向きでない構図なので、パターンBを選択す
る。
FIG. 9A is a horizontal composition and a composition not facing upward. Therefore, integration is determined in the integration determination area of the pattern A, and the process is terminated. FIG. 9B shows a vertical composition and a composition that is not upward, so that the pattern B is selected.

【0068】更に、カメラを上向きに構えると、高い建
物や山を画面内に写し込んで、尚且つ、その前にいる人
物にピント合わせをしたいという例が多い(但し、この
ような撮影では撮影画角を広くしたいので、例えばズー
ムレンズ付のカメラでは、広角側(Wide側)で撮影
し、望遠側(Tele側)では撮影しない場合が多
い)。この場合は、積分判定域を図9(c)、(d)に
示されるように、画面下方にずらして積分制御すること
が好ましい。画面の真中より上では、空や太陽等、主要
被写体より高輝度のものが存在するケースが多い。
Further, when the camera is pointed upward, there are many cases in which a tall building or a mountain is to be photographed on the screen and the person in front of the camera is to be focused. In order to increase the angle of view, for example, a camera with a zoom lens often shoots on the wide angle side (Wide side) and does not shoot on the telephoto side (Tele side). In this case, as shown in FIGS. 9C and 9D, it is preferable to perform integration control by shifting the integration determination area downward in the screen. Above the center of the screen, there are many cases where there are objects with higher luminance than the main subject, such as the sky and the sun.

【0069】尚、図9(a)〜(d)に於いて、39a
〜39dは、画面内に表示される測距表示である。
In FIGS. 9 (a) to 9 (d), 39a
To 39d are distance measurement displays displayed on the screen.

【0070】ところで、この縦横検知、また、上向き検
知は、図10に示されるように、カメラ41内に水銀等
の流体の導電物質43を収めた球状のケース42を内蔵
させ、このケース42内に差し込まれた複数の電極44
a〜44dの何れの電極同士が流体導電体で短絡される
かを、CPUが判定することによって可能になる。
For the vertical and horizontal detection and the upward detection, as shown in FIG. 10, a spherical case 42 containing a fluid conductive material 43 such as mercury is built in a camera 41, and this case 42 Electrodes 44 inserted in
The determination can be made by the CPU which of the electrodes a to 44d is short-circuited by the fluid conductor.

【0071】つまり、電極44bと電極44cが短絡す
れば横、電極44bと電極44aならば縦、更に電極4
4bと電極44dならば上向きと判定することができ
る。
That is, when the electrode 44b and the electrode 44c are short-circuited, the electrode 44b and the electrode 44a become horizontal, and when the electrode 44b and the electrode 44a are short-circuited,
4b and the electrode 44d can be determined to be upward.

【0072】また、一般にズームレンズ付カメラは、ズ
ーミングによるピント位置補正制御を行う必要から、ズ
ーム位置検知機能を有するので、この機能等を応用して
利用すれば撮影時、Tele側かWide側かの判定が
できる。こうしたカメラの使用状態は、使用状態検知部
26によって検知される。
In general, a camera with a zoom lens has a zoom position detection function because it is necessary to perform focus position correction control by zooming. Therefore, if this function or the like is applied and used, the camera can be used at the Tele side or the Wide side at the time of shooting. Can be determined. The use state of the camera is detected by the use state detection unit 26.

【0073】ここで、図11のフローチャートを参照し
て、第1の実施の形態に於いて構図を確認する場合の測
距動作について説明する。
Here, with reference to the flowchart of FIG. 11, the distance measuring operation in the case of confirming the composition in the first embodiment will be described.

【0074】先ず、ステップS21にて構図の判定動作
が行われると、続くステップS22に於いて、縦構図で
あるか否かが判定される。ここで、横構図の場合はステ
ップS23へ移行し、縦構図の場合はステップS30に
移行する。
First, when the composition determination operation is performed in step S21, it is determined in subsequent step S22 whether or not the composition is a vertical composition. Here, in the case of the horizontal composition, the process proceeds to step S23, and in the case of the vertical composition, the process proceeds to step S30.

【0075】ステップS23では、撮影時に望遠側(T
ele側)であるか否かが判定される。ここで、望遠側
(Tele側)である場合はステップS25に移行し、
そうでない場合はステップS24にてカメラが上向きで
あるか否かが判定される。そして、上向きでない場合は
ステップS25へ移行し、上向きである場合はステップ
S26へ移行する。
In step S23, the telephoto side (T
ele side) is determined. Here, if it is on the telephoto side (Tele side), the process proceeds to step S25,
Otherwise, it is determined in step S24 whether the camera is facing upward. If it is not upward, the process proceeds to step S25, and if it is upward, the process proceeds to step S26.

【0076】ステップS25では、上述したエリアセン
サのパターンAとして積分制御が行われる。同様に、ス
テップS26では、エリアセンサのパターンDとして積
分制御が行われる。
In step S25, integral control is performed as the area sensor pattern A described above. Similarly, in step S26, integral control is performed as the pattern D of the area sensor.

【0077】次いで、ステップS27では、図7(c)
に示されるような、30以上のポイントについて像の相
関が求められて測距が行われる。そして、ステップS2
8で、最も近い距離が選択されると、ステップS29に
て、画面を横とした横構図を得ることができる。
Next, in step S27, FIG.
As shown in the above, image correlation is obtained for 30 or more points, and distance measurement is performed. Then, step S2
When the closest distance is selected in step 8, a horizontal composition in which the screen is horizontal can be obtained in step S29.

【0078】上記ステップS22で縦構図と判定された
場合は、ステップS30に移行して、撮影時に望遠側
(Tele側)であるか否かが判定される。ここで、望
遠側(Tele側)である場合はステップS32に移行
し、そうでない場合はステップS31にてカメラが上向
きであるか否かが判定される。そして、上向きでない場
合はステップS32へ移行し、上向きである場合はステ
ップS33へ移行する。
If it is determined in step S22 that the image is a vertical composition, the flow shifts to step S30 to determine whether or not the photographing is on the telephoto side (Tele side). If the camera is on the telephoto side (Tele side), the process proceeds to step S32. If not, it is determined in step S31 whether the camera is facing upward. If not upward, the process proceeds to step S32, and if upward, the process proceeds to step S33.

【0079】ステップS31では、上述したエリアセン
サのパターンBとして積分制御が行われる。同様に、ス
テップS33では、エリアセンサのパターンCとして積
分制御が行われる。
In step S31, integral control is performed as the area sensor pattern B described above. Similarly, in step S33, integral control is performed as the pattern C of the area sensor.

【0080】次いで、ステップS34では、図7(c)
に示されるような、30以上のポイントについて像の相
関が求められて測距が行われる。そして、ステップS3
5で、最も近い距離が選択されると、ステップS36に
て、画面を縦とした縦構図を得ることができる。
Next, in step S34, FIG.
As shown in the above, image correlation is obtained for 30 or more points, and distance measurement is performed. Then, step S3
When the closest distance is selected in step 5, a vertical composition with the screen set to vertical can be obtained in step S36.

【0081】このようにすれば、各々のシーンに最適な
積分判定で、正しく被写体像検出ができるので、積分制
御後、上述した画面内の30ポイントについて像の相関
を求めて測距を行い、最も近い距離を主要被写体距離と
すれば、正しいピント合わせ及び表示位置決定が可能と
なる。
In this way, the subject image can be correctly detected by the integral judgment optimal for each scene. After the integral control, the distance measurement is performed by obtaining the image correlation at the above-mentioned 30 points in the screen. If the closest distance is set as the main subject distance, correct focusing and display position determination can be performed.

【0082】また、縦横の構図判定によって表示の上下
を合わせ込むので常に見やすいものとなる。更に、撮影
情報表示が、ファインダ内で確認可能となる。
Also, the vertical and horizontal composition judgment is made so that the upper and lower sides of the display are aligned, so that it is always easy to see. Further, the photographing information display can be confirmed in the viewfinder.

【0083】また、こうした構図判定だけでなく、図1
2及び図13に示されるように、エリアセンサの出力か
ら最適な積分判定領域を選択するようにしても良い。
In addition to such composition determination, FIG.
As shown in FIG. 2 and FIG. 13, an optimal integration determination region may be selected from the output of the area sensor.

【0084】図12(a)に示されるようなシーンをと
らえた画面47では、画面の上半分が空であるので、該
画面の下半分の何処かに主要被写体が存在している確率
が高い。
In a screen 47 capturing a scene as shown in FIG. 12A, the upper half of the screen is empty, so that there is a high probability that the main subject exists somewhere in the lower half of the screen. .

【0085】これを自動的に判定するには、図12
(b)に示されるように、エリアセンサをx,yの座標
で考え、x方向に沿って同じy値をとる画素の出力値を
加算してグラフ表示した場合の加算輝度分布と、図12
(c)に示されるように、y方向に沿って同じx値をと
る画素の出力値を加算してグラフ表示した場合の加算輝
度分布を比べれば良い。
In order to judge this automatically, FIG.
As shown in FIG. 12 (b), an area sensor is considered based on x and y coordinates, and the output luminance values of pixels having the same y value along the x direction are added and displayed as a graph.
As shown in (c), the output luminance values of the pixels having the same x value along the y direction are added to compare the added luminance distribution when the graph is displayed.

【0086】この場合、図12(b)では空と大地が分
離されるため、ΔBVで示した大きな輝度変化がみられ
るが、図12(c)では空と大地がとけ合って単調な輝
度変化となる。この大きな輝度変化があった大部分がy
B として検出される。
In this case, since the sky and the earth are separated in FIG. 12B, a large change in luminance indicated by ΔBV is observed. However, in FIG. Becomes Most of these large luminance changes are y
Detected as B.

【0087】一方、図13(a)に示されるような縦構
図では、逆に、y方向に加算した加算輝度分布に大きな
ΔBVの変化が見られ(図13(b))、x方向に同じ
yの値をとるセンサエリアの出力値を加算した加算輝度
分布には、単調な変化しか見られない(図13
(c))。図12に示される例と同様に、大きな輝度変
化があった大部分をxB とする。
On the other hand, in the vertical composition as shown in FIG. 13 (a), conversely, a large change in ΔBV is seen in the added luminance distribution added in the y direction (FIG. 13 (b)), and the same in the x direction. Only a monotonous change is seen in the added luminance distribution obtained by adding the output values of the sensor area having the value of y (FIG. 13).
(C)). Similar to the example shown in FIG. 12, a majority was a large luminance change and x B.

【0088】このような特性を用いて、図14のフロー
チャートに従って積分判定域を選択すれば、図15
(a)、(b)に示されるように、空部を除いた大部分
に、積分判定領域51a、51bを設けることができ、
また、空部に測距表示部52a、52bを設けることが
できる。
By using such characteristics and selecting an integral judgment area in accordance with the flowchart of FIG.
As shown in (a) and (b), the integration determination regions 51a and 51b can be provided in most of the space except for the empty space.
In addition, the distance measurement display units 52a and 52b can be provided in the space.

【0089】また、xB ,yB が検出不能であった場合
は、主要被写体が存在する確率の高い図15(c)に示
されるような、画面中央部で積分終了判定を行えば良
い。この場合の測距表示部は、図2(a)に示されるよ
うな、オーソドックスな横画面左上表示にすれば良い。
If x B and y B cannot be detected, it is sufficient to determine the end of integration at the center of the screen as shown in FIG. 15C where the probability that the main subject exists is high. In this case, the distance measurement display section may be displayed in an orthodox horizontal upper left display as shown in FIG.

【0090】したがって、図12(a)、図13(a)
に示される画面から、それぞれ図12(d)、図13
(d)に示されるように、測距表示48a、48bが出
力される。
Therefore, FIGS. 12 (a) and 13 (a)
12D and FIG. 13 from the screen shown in FIG.
As shown in (d), the distance measurement displays 48a and 48b are output.

【0091】次に、図14のフローチャートを参照し
て、上述した積分エリアの選択動作について説明する。
Next, the above-described operation of selecting an integration area will be described with reference to the flowchart of FIG.

【0092】先ず、ステップS41にて、画面の状況を
調べるために、積分判定エリアを選択するためのプリ積
分動作が行われる。これは、図12、図13に示される
ように、全画面のセンサ画素のうち最大の出力を出して
いるものを利用して積分制御しても良いが、全画素を加
算した結果である平均的な値を基に制御を行っても良
い。
First, in step S41, a pre-integration operation for selecting an integration determination area is performed to check the state of the screen. As shown in FIGS. 12 and 13, the integration control may be performed by using the sensor pixel that outputs the maximum output among the sensor pixels of the entire screen. The control may be performed based on a typical value.

【0093】そして、ステップS42にて、x方向に沿
って同じy値をとる画素の出力値が加算されると、続く
ステップS43にて、パターン判定が行われる。
Then, in step S42, when the output values of the pixels having the same y value along the x direction are added, the pattern is determined in the following step S43.

【0094】次いで、ステップS44に於いて、空の部
分があるか否かが判定される。ここで、空部が存在した
場合は、ステップS45に移行して、y=yB /2部の
直線により積分判定がなされる。そして、ステップS4
6にて、画面横として、すなわち横構図として空部に測
距表示がなされる。
Next, in step S44, it is determined whether or not there is an empty portion. Here, when the hollow portion exists, the process proceeds to step S45, the integral determination is made by the straight line y = y B / 2 parts. Then, step S4
At 6, a distance measurement display is made in the sky as a side of the screen, that is, as a horizontal composition.

【0095】これに対し、上記ステップS44にて空部
でないと判定された場合は、ステップS47及びS48
に移行して、y方向について上記x方向と同様に、y方
向に沿って同じx値をとる画素の出力値が加算されてパ
ターン判定される。
On the other hand, if it is determined in step S44 that there is no empty space, steps S47 and S48 are performed.
Then, the output values of pixels having the same x value along the y direction in the y direction are added to determine the pattern in the same manner as in the x direction.

【0096】そして、ステップS49に於いて、再び空
部か否かが判定される。ここで、空部が存在した場合
は、ステップS50に移行して、x=xB /2部の直線
により積分判定がなされる。そして、ステップS51に
て、画面縦として、すなわち縦構図として空部に測距表
示がなされる。
Then, in step S49, it is determined again whether or not there is an empty space. Here, when the hollow portion exists, the process proceeds to step S50, the integral determination is made by the straight line x = x B / 2 parts. Then, in step S51, a distance measurement display is made in the sky as a vertical screen, that is, as a vertical composition.

【0097】また、上記ステップS49で空部でないと
判定された場合は、ステップS52に移行して、画面中
心部について積分制御される。その後、ステップS53
では、画面横として、すなわち横画面として左上部に測
距表示がなされる。
If it is determined in step S49 that the area is not empty, the flow shifts to step S52 to perform integral control on the center of the screen. Then, step S53
In this case, the distance measurement display is performed at the upper left of the screen, that is, as a horizontal screen.

【0098】このように構成すれば、上述した図10に
示されるような構図判定やカメラの傾き判定用のスイッ
チは不要となる。
With this configuration, the switch for determining the composition and the tilt of the camera as shown in FIG. 10 described above is not required.

【0099】このように積分エリア選択を行えば、空の
部分を自動的に検知して、その部分に測距表示を行うの
で、ユーザがファインダ内で被写体が確認できないとい
うことがなくなる。
When the integration area is selected in this way, the sky portion is automatically detected, and the distance measurement display is performed on that portion, so that the user is not able to confirm the subject in the finder.

【0100】次に、この発明の第2の実施の形態とし
て、ファインダ内表示装置が適用されたカメラについ
て、更に詳細にパララックス等も考慮して説明する。
Next, as a second embodiment of the present invention, a camera to which a display device in a finder is applied will be described in further detail in consideration of parallax and the like.

【0101】図16は、この発明の第2の実施の形態を
示すもので、(a)はカメラの内部構成を示すブロック
図であり、(b)は該カメラの外観斜視図である。
FIGS. 16A and 16B show a second embodiment of the present invention. FIG. 16A is a block diagram showing the internal configuration of the camera, and FIG. 16B is an external perspective view of the camera.

【0102】図16(a)に於いて、CPU55はカメ
ラのシーケンス制御や各種演算を行うためのワンチップ
マイクロコンピュータ等から成る演算制御手段である。
このCPU55は、内部に像検知部56、相関演算部5
7及び表示制御部58を有している。
In FIG. 16A, a CPU 55 is an arithmetic control means comprising a one-chip microcomputer or the like for performing camera sequence control and various arithmetic operations.
The CPU 55 includes an image detecting unit 56 and a correlation calculating unit 5 therein.
7 and a display control unit 58.

【0103】上記CPU55には、レリーズスイッチ等
から成るスイッチ群59が接続されると共に、測距部6
1や図示されない測光部が接続されている。
A switch group 59 composed of a release switch and the like is connected to the CPU 55,
1 and a photometric unit (not shown) are connected.

【0104】上記測距部61は、投光部63を駆動する
ためのドライバ62と、図示されない被写体に測距用光
を投射する投光部63と、該被写体からの反射光を導く
受光レンズ21a及び21bと、上記反射光を結像させ
るセンサアレイ22a及び22bと、これらセンサアレ
イ22a及び22bの信号出力をA/D変換するA/D
コンバータ64とから構成される。
The distance measuring unit 61 includes a driver 62 for driving the light projecting unit 63, a light projecting unit 63 for projecting distance measuring light to a subject (not shown), and a light receiving lens for guiding reflected light from the subject. 21a and 21b, sensor arrays 22a and 22b for forming an image of the reflected light, and an A / D for A / D converting signal outputs of the sensor arrays 22a and 22b.
And a converter 64.

【0105】上記CPU55には、また、露出制御部6
5及びピント合わせ部66と、ズームレンズ67の位置
を検知するズーム検知部68と、ファインダ光学系71
内に挿入された表示用の液晶(LCD)70と、撮影者
の視線を検知する視線検知部72とが接続されている。
The CPU 55 further includes an exposure control unit 6.
5, a focusing unit 66, a zoom detecting unit 68 for detecting the position of the zoom lens 67, and a finder optical system 71.
A display liquid crystal (LCD) 70 inserted in the camera and a visual line detection unit 72 for detecting the visual line of the photographer are connected.

【0106】また、図16(b)に示されるように、カ
メラボディ75には、その前面部に撮影レンズ76が設
けられると共に、測距窓77、ファインダ78、ストロ
ボ79等が、設けられている。
As shown in FIG. 16B, a camera body 75 is provided with a photographing lens 76 on the front surface thereof, and a distance measuring window 77, a finder 78, a strobe 79, and the like. I have.

【0107】上記CPU55は、上述したように、図示
されない測光部や測距部61を制御し、その出力に従っ
て、露出制御部65やピント合わせ部66を制御して、
正しくピントの合った正確な露出の写真撮影を行う。カ
メラの撮影レンズ76にズームレンズ67が採用される
と画角が変えられるため、それに応じた測距・測光や表
示制御が必要となる。したがって、ズーム位置を検知す
るズーム検知部68により、CPU55にズーム情報が
入力される。更に、ズーミングによってファインダ78
の画像も機械的に連動する。
As described above, the CPU 55 controls the photometric unit and the distance measuring unit 61 (not shown), and controls the exposure control unit 65 and the focusing unit 66 according to the output.
Take photos with the correct exposure and correct exposure. When the zoom lens 67 is used as the photographing lens 76 of the camera, the angle of view can be changed. Therefore, the zoom information is input to the CPU 55 by the zoom detector 68 that detects the zoom position. Further, the finder 78 is zoomed.
Images are also mechanically linked.

【0108】このように得られた各種情報を、ファイン
ダ光学系の間に設けられたLCD70上に表示するため
に、CPU55はこれらのセグメントの点灯、消灯制御
を行う表示制御部58を有している。
In order to display the various information thus obtained on the LCD 70 provided between the finder optical systems, the CPU 55 has a display control unit 58 for controlling the turning on and off of these segments. I have.

【0109】上記測距部61は、一対の受光レンズ21
a、21b及び一対のセンサアレイ22a、22bを有
しており、図示されない被写体の像信号をA/Dコンバ
ータ64にてA/D変換し、CPU55に出力する。
The distance measuring section 61 includes a pair of light receiving lenses 21.
a, 21b and a pair of sensor arrays 22a, 22b. The A / D converter 64 performs A / D conversion of an image signal of a subject (not shown), and outputs the converted signal to the CPU 55.

【0110】受光レンズ21a、21bは、視差となる
基線長分の距離Bだけ離して配置されているので、受光
レンズ21a、21bの焦点距離fと、被写体距離Lの
関係より、2つのセンサアレイ22a、22b上には、
相対位置xだけずれた所に同じ像が結ぶことになる。こ
の三角測距の原理より、像のずれ量xを求めれば被写体
距離Lが算出できることがわかる。
Since the light receiving lenses 21a and 21b are arranged apart from each other by a distance B corresponding to the base line length serving as parallax, the two sensor arrays are determined based on the relationship between the focal length f of the light receiving lenses 21a and 21b and the object distance L. On 22a and 22b,
The same image is formed at a position shifted by the relative position x. From the principle of the triangulation, it can be understood that the object distance L can be calculated by obtaining the image shift amount x.

【0111】また画面の広い範囲を測距するためには、
例えば、光軸からθだけずらした所を測距する場合は、
図中に破線で示されるように a=ftan θ …(1) の所のセンサを基準にして、相対ズレ量を検出すれば良
い。
To measure a wide area of the screen,
For example, when measuring the distance from the optical axis by θ,
As shown by a broken line in the figure, the relative displacement may be detected with reference to the sensor at a = ftan θ (1).

【0112】このような構成のカメラならば、図17
(a)に示されるような主要被写体82がファインダ画
面81の中央に存在しないシーンでもピントを合わせる
ことができる。
With a camera having such a configuration, FIG.
In a scene where the main subject 82 does not exist at the center of the finder screen 81 as shown in FIG.

【0113】図17(b)は、このようなシーンで得ら
れる像信号を示したものであるが、背景が壁等から主要
被写体である人物の所に、特徴的な像信号変化がみられ
る。したがって、図18のようなフローチャートでこの
変化を検出し、それが画面右側ならば、ファインダ画面
内のLCDセグメント83のうち、右側のLCDセグメ
ントを点灯させれば、図17(c)に示されるように、
画面内に測距ポイントが表示されて、正しく撮影したい
被写体が測距され、撮影者はその被写体にピントが合う
ことを認識することができ、安心して撮影を楽しむこと
ができる。
FIG. 17 (b) shows an image signal obtained in such a scene. A characteristic image signal change is observed at a person whose background is a main subject from a wall or the like. . Therefore, if this change is detected in the flow chart as shown in FIG. 18 and the change is detected on the right side of the screen, if the right LCD segment of the LCD segments 83 in the finder screen is turned on, it is shown in FIG. like,
A distance measurement point is displayed on the screen, and a subject to be photographed correctly is measured. The photographer can recognize that the subject is in focus, and can enjoy photographing with ease.

【0114】すなわち、図18のフローチャートに於い
て、先ずステップS61にて被写体の像信号が入力され
ると、続くステップS62及びS63にて、左右のエッ
ジが判定される。次いで、ステップS64にて上記ステ
ップS62及びS63で判定された左右エッジの中央部
分の座標が判定される。
That is, in the flowchart of FIG. 18, when an image signal of a subject is input in step S61, left and right edges are determined in subsequent steps S62 and S63. Next, in step S64, the coordinates of the central portion of the left and right edges determined in steps S62 and S63 are determined.

【0115】そして、ここで判定された座標のLCDセ
グメントが、ステップS65で選択されて、例えば図1
7(c)に示されるように点灯される。更に、ステップ
S66にて、ファインダ画面81内の主要被写体82が
存在しない空部に測距情報が測距表示84として出力さ
れる。
Then, the LCD segment having the coordinates determined here is selected in step S65, for example, as shown in FIG.
The light is turned on as shown in FIG. Further, in step S66, the distance measurement information is output as the distance measurement display 84 to the sky portion where the main subject 82 does not exist in the finder screen 81.

【0116】このように測距ポイントを十字状のセグメ
ントで表し、その中央部を見えるようにしたので、被写
体の表情等がよく確認でき、すっきりっとした画面にす
ることが可能となる。
As described above, the distance measuring points are represented by cross-shaped segments, and the central portion thereof is made visible, so that the expression of the subject and the like can be easily confirmed, and a clear screen can be obtained.

【0117】また、図19に示されるようなシーンで
は、カメラが誤って手前の木にピントを合わせるケース
がある。この場合、撮影者が図示されない操作釦を押す
ことにより、次の測距ポイントの候補に切り換えるよう
にしても良い。
In a scene as shown in FIG. 19, there is a case where the camera erroneously focuses on a tree in front. In this case, the photographer may switch to the next distance measuring point candidate by pressing an operation button (not shown).

【0118】例えば、写真の8割以上は画面中央部に主
要被写体が存在するので、この実施の形態では、変更操
作によって画面中央部に測距ポイントを移し、正しく被
写体の城にピントを合わせることを可能とした。これに
対応して、測距表示の表示位置を切換える(84a、8
4b)ことも可能である。
For example, since 80% or more of the photographs have a main subject at the center of the screen, in this embodiment, the distance measurement point is moved to the center of the screen by a change operation to correctly focus on the castle of the subject. Was made possible. In response to this, the display position of the distance measurement display is switched (84a, 8).
4b) It is also possible.

【0119】また、この操作であるが、わざわざ指を使
用して変更するのは大変なので、図20に示されるよう
に、視線検知によるファインダ光学系を構成して使用し
ても良い。
In addition, since this operation is difficult to change using a finger, it is possible to construct and use a finder optical system based on line-of-sight detection as shown in FIG.

【0120】すなわち、ファインダ光学系86に於い
て、対物レンズ87より入射される被写体像と共に、プ
リズム88や赤外発光ダイオード(IRED)89を用
いて、接眼レンズ92を介して撮影者の目に赤外光が照
射される。そして、その反射光が、マスクLCD91を
介してフォトダイオード(PD)90で受光されるよう
にする。
That is, in the finder optical system 86, the image of the subject incident from the objective lens 87 is used together with the prism 88 and the infrared light emitting diode (IRED) 89 through the eyepiece 92 to the eyes of the photographer. Irradiated with infrared light. Then, the reflected light is received by the photodiode (PD) 90 via the mask LCD 91.

【0121】上記マスクLCD91は、光路中に図21
(c)に示されるように、開口部94が切換えられるよ
うに配置されている。マスクLCD91の開口部を切換
えることにより、何れの開口部を開いた時が一番反射光
が入射するかの判定を行って、視線の方向を判別できる
ようにすれば、撮影者の目の動きで測距ポイントを切換
えることが可能となる。
The mask LCD 91 is positioned in the optical path as shown in FIG.
As shown in (c), the opening 94 is arranged to be switched. By switching the openings of the mask LCD 91, it is possible to determine which of the openings is the most reflected light incident and to determine the direction of the line of sight. It is possible to switch the ranging point by using.

【0122】例えば、図21(a)に示されるような目
93の配置ならば、S1とS3の開口部に白目の部分が
あるので、S1、S3の開口部を開いた時に、フォトダ
イオードに入射するIREDによる反射信号光が多くな
る。
For example, in the arrangement of the eye 93 as shown in FIG. 21A, since there is a white eye portion in the openings of S1 and S3, when the openings of S1 and S3 are opened, the photodiode is connected to the photodiode. Incident signal light reflected by the IRED increases.

【0123】しかしながら、図21(b)に示されるよ
うに視線をずらすと、S3の信号光は減少してS2の開
口部を開いた時の反射光が多くなる。撮影者がレリーズ
釦を半押し状態にして、第1候補を表示した後、このよ
うな考え方でカメラのCPUが図12のようなフローチ
ャートでIREDやマスクを制御して目の動きを検出す
れば、撮影者が測距ポイントを切換えたい時に目を動か
すだけで、測距ポイントが切換わり、手動の動作は不要
となる。
However, when the line of sight is shifted as shown in FIG. 21B, the signal light of S3 decreases and the reflected light when the opening of S2 is opened increases. After the photographer presses the release button halfway and displays the first candidate, if the CPU of the camera controls the IRED and the mask in a flow chart as shown in FIG. When the photographer wants to switch the ranging point, the user simply moves his or her eyes, and the ranging point is switched, so that a manual operation is not required.

【0124】図22のフローチャートを参照すると、先
ず、ステップS71にて像検出が行われて第1候補が表
示される。次いで、ステップS72にて、セカンドレリ
ーズスイッチがオンされていれば、ステップS73に移
行して通常の撮影シーケンスが実行される。
Referring to the flowchart of FIG. 22, first, in step S71, image detection is performed and a first candidate is displayed. Next, in step S72, if the second release switch has been turned on, the flow shifts to step S73 to execute a normal photographing sequence.

【0125】一方、セカンドレリーズスイッチがオンさ
れていなければ、ステップS74に移行して、赤外発光
ダイオード89が照射される。そして、ステップS75
及びS76にて、順次開口部が変更されて反射信号光の
大きい2つのブロックS01、S02が記憶される。
On the other hand, if the second release switch has not been turned on, the flow shifts to step S74 to irradiate the infrared light emitting diode 89. Then, step S75
In steps S76 and S76, the openings are sequentially changed, and two blocks S 01 and S 02 having large reflected signal light are stored.

【0126】次に、ステップS77に於いて、上記2つ
のブロックS01、S02が比較される。その結果、変化が
あれば、視線が変化したとしてステップS78に移行し
て、変化が1回合ったか否かが判定される。ここで、1
回も変化しない場合は、ステップS79に移行して測距
ポイント及びそれに応じたファインダ内の表示ポイント
が変更される。
Next, in step S77, the two blocks S 01 and S 02 are compared. As a result, if there is a change, it is determined that the line of sight has changed, and the flow shifts to step S78 to determine whether or not the change has been made once. Where 1
If the number of times has not changed, the flow shifts to step S79 to change the distance measurement point and the display point in the finder corresponding thereto.

【0127】つまり、2回全ての開口部を順次開きなが
ら反射信号光の多い2つのブロックを選び、その間隔が
変化するか否かで視線の動きがあったか否かを判定す
る。そして、視線の動きがあった場合には、撮影者が測
距ポイントを気に入っていると判断して、次に優先度の
高いポイントに表示を切換え、そのポイントに対して測
距を行ってピント合わせを行うようにする。それに応じ
て、ファインダ内の撮影表示位置を切換えれば、測距表
示が邪魔になることはない。
That is, two blocks with a large amount of reflected signal light are selected while sequentially opening all the openings two times, and it is determined whether or not the line of sight has moved based on whether or not the interval changes. If there is a movement of the line of sight, the photographer determines that he or she likes the distance measurement point, switches the display to the next highest priority point, measures the distance, and focuses on that point. Make adjustments. If the photographing display position in the viewfinder is switched accordingly, the distance measurement display does not interfere.

【0128】これによって、撮影者は煩わしい手動動作
から開放されてレリーズ動作に集中でき、目の動きだけ
で測距ポイントの選択や測距表示位置の変更を行うこと
ができる。但し、僅かな目の動きのみで表示位置の切換
えが行われると表示がちらつくので、同じ動きを2回行
った場合のみ切換えるようにしても良い。
As a result, the photographer can be freed from troublesome manual operations and can concentrate on the release operation, and can select a distance measuring point or change the distance measuring display position only by eye movement. However, if the display position is switched by only a slight movement of the eyes, the display flickers. Therefore, the switching may be performed only when the same movement is performed twice.

【0129】尚、撮影者が見たポイントを判別して、そ
のポイントにピント合わせをするようにしても良いが、
技術が複雑でコストがかかるわりに、撮影者が必ずしも
撮影したいものばかりを見ているわけではないことがわ
かっている。
It is also possible to determine the point seen by the photographer and focus on that point.
It turns out that, despite the complexity and cost of the technology, photographers do not always see what they want to photograph.

【0130】そのため、この発明ではカメラが画面内の
測距ポイントのうち、予め自動的に優先順位を決定し、
それに追加・補助する形で撮影者の目の動き等の動作ま
たは操作を加味したので、非常に簡単で精度の高いピン
ト合わせが可能となる。
For this reason, according to the present invention, the camera automatically determines in advance the priority order among the distance measurement points on the screen,
In addition to this, the movement or operation such as the movement of the eyes of the photographer is added in the form of addition or assistance, so that extremely simple and highly accurate focusing can be achieved.

【0131】ところで、ファインダとAF用受光レンズ
が別の光学系であると、視差(パララックス)によっ
て、測距ポイントと表示ポイントに誤差が生じやすい。
If the finder and the AF light-receiving lens are different optical systems, an error is likely to occur between the distance measurement point and the display point due to parallax (parallax).

【0132】ここで、図23を参照して、上述したパラ
ラックスを考慮した画面内表示制御方法について説明す
る。
Here, with reference to FIG. 23, a description will be given of an in-screen display control method in consideration of the above-described parallax.

【0133】先に説明した像信号による主要被写体位置
検出によって、図23にθ1 の方向に主要被写体がいる
と判定され、尚且つその被写体の距離が上述の方法で検
出されていて、これをLとすると、ファインダ内ではそ
の光軸を基準に右側に S−L・tan θ1 …(2) の位置に上記被写体が見えることになる。ここで、Sは
2つの光学系の視差である。
[0133] by the main subject position detection by image signals previously discussed, it is determined that there are the main subject in the direction of the theta 1 in FIG. 23, besides the distance of the object is being detected in the manner described above, this When L is set, the subject is seen at the position of SL-tan θ 1 (2) on the right side with respect to the optical axis in the viewfinder. Here, S is the parallax of the two optical systems.

【0134】ファインダ内の基準位置を画面端部(図2
3に於ける「枠基準位置」)にとると、この基準位置か
らファインダ光軸までの距離が L1 tan φ1 …(3) であるので(ここでφ1 は光軸からファインダの画角端
までの角度)、基準位置から、測距ポイントまでの距離
は L1 tan φ1 +S−L1 tan θ1 …(4) となる。
The reference position in the viewfinder is set at the end of the screen (FIG. 2).
3), the distance from this reference position to the finder optical axis is L 1 tan φ 1 (3) (where φ 1 is the angle of view of the finder from the optical axis) angle to the end), from the reference position, the distance to the point becomes L 1 tan φ 1 + S- L 1 tan θ 1 ... (4).

【0135】ここで、表示用LCDがドットマトリクス
タイプのものであるとし、画面の端から端までを、図2
4に示されるように、H個のセグメントで埋めることの
できるLCDがファインダ内に収められているとする。
このH個が上記L1 tan θ1の2倍に対応するため、測
距ポイントに対応するセグメントは、上記H個のうち、 H×(tan φ1 +S/L−tam θ1 )/(2・tan φ1 )番目 =x1 番目 …(5) のものとなる。尚、上記(5)式でHを除いた(tan φ
1 +S/L−tam θ1 )/(2・tan φ1 )の部分は、
枠比と称することとする。
Here, it is assumed that the display LCD is of a dot matrix type, and the entire screen is shown in FIG.
As shown in FIG. 4, it is assumed that an LCD that can be filled with H segments is contained in the finder.
Since the H number corresponds to twice the L 1 tan θ 1 , the segment corresponding to the distance measuring point is H × (tan φ 1 + S / L-tam θ 1 ) / (2・ Tan φ 1 ) th = x 1st (5) Note that H was removed from the above equation (5) (tan φ
1 + S / L-tam θ 1 ) / (2 · tan φ 1 )
It is referred to as a frame ratio.

【0136】したがって、このセグメントを消灯し、そ
の上下左右のセグメントを2つずつ点灯させれば、図2
4(b)に示されるようなセグメントの表示が可能とな
る。
Therefore, if this segment is turned off and the upper, lower, left and right segments are turned on two by two, FIG.
The display of the segment as shown in FIG.

【0137】また、この消灯制御によって、被写体の様
子を見やすくしている。画面上下方向にも測距ポイント
が広げられる場合、左右方向の枠比(枠比1)だけでな
く、上下方向の枠比(枠比2)を考慮して、ファインダ
内表示の制御が必要である。
Further, the state of the subject can be easily seen by the light-off control. If the distance measurement points can be extended in the vertical direction of the screen, it is necessary to control the display in the viewfinder in consideration of not only the horizontal frame ratio (frame ratio 1) but also the vertical frame ratio (frame ratio 2). is there.

【0138】図25に示されるように、上下方向の画角
をφ2 として表し、測距ポイントをθ2 とすると、画面
枠上端基準の測距ポイント位置の画角に対する比率(枠
比2)は、 (tan φ2 −tan θ2 )/2tan φ2 …(6) となるので、図24(a)に示されるように、画面内上
下方向にT個のセグメントが並んだLCDを想定する
と、上から T(tan φ2 −tan θ2 )/(2・tan φ2 )番目=y1 番目 …(7) のセグメントの所に被写体が存在すると考えられてい
る。
As shown in FIG. 25, assuming that the vertical angle of view is φ 2 and the distance measuring point is θ 2 , the ratio of the distance measuring point position to the angle of view based on the upper end of the screen frame (frame ratio 2) since (tan φ 2 -tan θ 2) / 2tan φ 2 ... become (6), as shown in FIG. 24 (a), assuming an LCD lined T segments within the screen vertically From the top, it is considered that the subject exists at the segment of T (tan φ 2 −tan θ 2 ) / (2 · tan φ 2 ) = y 1 ... (7).

【0139】したがって、図24(b)に示されるよう
な表示を上下に移動させる場合は、上下方向に関して
は、この関係から点灯、消灯制御を行うようにする。
Therefore, when the display as shown in FIG. 24 (b) is moved up and down, lighting and extinguishing control is performed in the vertical direction from this relationship.

【0140】つまり、xy座標形式で表現すると、 (x1 ,y1 )=(H×枠比1、T×枠比2) …(8) のポイントを消灯させ、その上下2セグメントずつを点
灯させれば、図24(b)に示されるような表示を上下
左右に移動させて、撮影者に測距光をかかりやすく伝え
ることができる。
That is, when expressed in the xy coordinate format, the points of (x 1 , y 1 ) = (H × frame ratio 1, T × frame ratio 2) are turned off, and the upper and lower two segments are turned on. By doing so, the display as shown in FIG. 24 (b) can be moved up, down, left and right, and the distance measurement light can be easily transmitted to the photographer.

【0141】更に、上述した消灯ポイントは1ポイント
でなくても良く、測距点の中の被写体の表情をよく見え
るようにするには、消灯ポイントを、距離や画角等によ
り切換え制御する技術が効果を発揮する。
Further, the above-mentioned light-off point is not limited to one point, and in order to make the expression of the subject in the distance measuring point better visible, the light-off point is switched and controlled according to the distance, the angle of view and the like. Is effective.

【0142】つまり、人間の顔の幅をK(約20cm)
とすると、図26(a)に示されるように、距離Lと画
角を表す角度φ1 によって得られるx方向の画面幅2L
・tan φ1 に対してKの割合を画面内で占めることにな
る。したがって、横方向にH個あるドットマトリクス式
のLCDならば、H×K/2L・tan φ1 分の消灯制御
を行えば、図26(b)、(c)に示されるように、画
面内に占める顔の大きさによって、消灯域を制御して、
人の表情をよく見えるようにすることができる。
That is, the width of the human face is K (about 20 cm).
When, as shown in FIG. 26 (a), the distance L and the screen width of the x direction obtained by the angle phi 1 representing the angle 2L
・ The ratio of K to the tan φ 1 is occupied in the screen. Accordingly, in the case of a dot matrix type LCD having H dots in the horizontal direction, if the turn-off control for H × K / 2L · tan φ 1 is performed, as shown in FIGS. By controlling the light-off area according to the size of the face
It can make people's facial expressions well visible.

【0143】このような場合のファインダ内表示点灯の
動作について、図27のフローチャートを参照して説明
する。
The operation of turning on the display in the viewfinder in such a case will be described with reference to the flowchart of FIG.

【0144】先ず、ステップS81にて、カメラのズー
ム状態判別によってφ1 、φ2 が求められ、次にステッ
プS82にて、測距用センサによって測距方向θ1 、θ
2 が求められる。これらから、ステップS83に於い
て、画面内の主要被写体の座標(x1 ,y1 )が、上述
した式によってカメラのCPUにより算出される。
First, in step S81, φ 1 and φ 2 are obtained by determining the zoom state of the camera. Next, in step S82, the distance measuring directions θ 1 and θ are detected by the distance measuring sensor.
2 is required. From these, in step S83, the coordinates (x 1 , y 1 ) of the main subject in the screen are calculated by the CPU of the camera according to the above formula.

【0145】そして、ステップS84にて測距が行われ
る。その結果をLとすると、ステップS85にて、先の
関係より、(x1 ,y1 )の上下左右に顔幅が占めるH
×K/2L・tan φ1 の半分ずつのセグメントが消灯さ
れる。更に、ステップS86にて、その上下左右のセグ
メントが点灯されるようにすることで、図13(b)に
示されるように、セグメント96a、96bをすっきり
とした表示にすることができる。
Then, distance measurement is performed in step S84. Assuming that the result is L, in step S85, the face width occupies the upper, lower, left, and right sides of (x 1 , y 1 ) from the above relationship.
× halves segment of K / 2L · tan φ 1 is turned off. Further, by turning on the upper, lower, left and right segments in step S86, the segments 96a and 96b can be displayed clearly as shown in FIG. 13B.

【0146】そして、ステップS87では、ファインダ
画面内の空きスペースにより、撮影情報97a、97b
であるグラフィック表示、数値表示の大きさが変更され
る。
In step S87, the shooting information 97a, 97b is set based on the empty space in the finder screen.
The size of the graphic display and numerical display is changed.

【0147】尚、主要被写体の顔幅等で人物の占める割
合が決定されれば、それ以外の空白域も求められるの
で、この領域に合わせた大きさの撮影内容表示を行えば
良い。
If the proportion of the person occupied by the face width or the like of the main subject is determined, other blank areas are also obtained, so that the photographed content having a size corresponding to this area may be displayed.

【0148】とろで、この第2の実施の形態による表示
例は、画面内に距離分布を3次元表示したものである。
全画面の測距によって、各部の距離が求められると、図
26(b)、(c)に示されるように、人物が1人立っ
ているだけのシーンならば、人物の形が浮き出すような
形で表示可能である。高く出ているポイント程、距離が
近いことを示している。
In the display example according to the second embodiment, the distance distribution is three-dimensionally displayed on the screen.
When the distance of each part is obtained by distance measurement of the entire screen, as shown in FIGS. 26B and 26C, in a scene where only one person stands, the shape of the person appears. It can be displayed in various forms. The higher the point, the closer the distance.

【0149】このような表示によって、各ポイントが正
確に測距を行っていることやカメラが正確に被写体検知
していることをビジュアルに知らせることができるの
で、ユーザは安心して撮影が続けられる。また、ハイテ
ク感もあり、撮影しなくとも表示を見ているだけで楽し
いカメラを提供することができる。
With such a display, it is possible to visually notify that each point is accurately measuring the distance and that the camera is accurately detecting the subject, so that the user can continue shooting with peace of mind. In addition, a high-tech feeling can be provided, and a fun camera can be provided just by looking at the display without photographing.

【0150】また、表示部に表示されるのは1つの情報
に限るわけではなく、図26(b)、(c)に示される
ように、下半分には、古くから知られた露出制御時のシ
ャッタースピードや撮影時の絞り(FNo)等を並べて
表示するようにしても良い。
Further, what is displayed on the display unit is not limited to one piece of information. As shown in FIGS. 26B and 26C, the lower half is provided with the exposure control which has been known for a long time. The shutter speed, the aperture (FNo) at the time of photographing, and the like may be displayed side by side.

【0151】尚、これらの値は、測光値やフィルム感度
からCPUが演算する。
The CPU calculates these values from the photometric value and the film sensitivity.

【0152】以上説明したように、このような消灯部分
の切換えの工夫によって、撮影者は画面内の何処にピン
トが合うかがわかる上に、被写体の表情までを十分に確
認してから安心して撮影が楽しめるカメラを提供するこ
とができる。
As described above, by devising the switching of the light-off portion, the photographer can know where on the screen the subject is in focus, and after confirming the expression of the subject sufficiently, the photographer can feel safe. It is possible to provide a camera that allows users to enjoy shooting.

【0153】また、図26では、被写体が1人の例を示
したが、被写体の人数を画像情報等から検出して、それ
に合わせて上記消灯制御を行うようにしても良い。この
場合、並んで立った人の表情がよくわかるカメラとな
る。
Although FIG. 26 shows an example in which the number of subjects is one, the number of subjects may be detected from image information or the like, and the light-off control may be performed accordingly. In this case, the camera can be used to clearly understand the expressions of the people standing side by side.

【0154】このように、画面内で主要被写体のポイン
トを検出し、その部分にある程度の視認性を与えながら
場所を特定する方式としては、十字状の測距ポイントに
限られる必要はなく、図28(a)、(b)、(c)に
示されるように、ファインダ内に斜線のクロスや、丸形
状、四角形状等による応用も可能である。これらの測距
ポイントは、顔の大きさに応じて大きさも変えられるも
のである。
As described above, the method of detecting the point of the main subject on the screen and specifying the location while giving a certain degree of visibility to the portion is not limited to the cross-shaped ranging points. As shown in FIGS. 28 (a), (b), and (c), it is also possible to apply an oblique cross, a round shape, a square shape, or the like in the finder. These distance measuring points can be changed in size according to the size of the face.

【0155】更に、ドットマトリクス式のLCDであれ
ば、ファインダ視野内を碁盤の目のように、ドットを切
換えて表示できるので、こうした応用はCPUのソフト
ウエアの修正のみで対応可能となる。
Further, in the case of a dot matrix type LCD, dots can be switched and displayed in a finder visual field like a grid, so that such an application can be dealt with only by modifying the software of the CPU.

【0156】もちろん、ユーザの好みに合わせて表示方
法を切換えても良く、地域性を考慮して、販売チャネル
別に切換えても良い。
Of course, the display method may be switched according to the user's preference, or may be switched for each sales channel in consideration of regional characteristics.

【0157】また、ドットマトリクスの利点を生かし
て、図28(d)に示されるように、ファインダ内に文
字表示を出力するように構成しても良い。このような構
成にすれば、ユーザにわかりやすい製品化に役立つもの
である。
In addition, by utilizing the advantages of the dot matrix, a configuration may be employed in which a character display is output in the viewfinder as shown in FIG. Such a configuration is useful for commercialization that is easy for the user to understand.

【0158】当然、この文字表示が主要被写体にかかっ
てしまうと煩わしいので、この文字表示が出力される部
分も、この発明の特徴である主被写体検知技術を利用し
て、主被写体ではない部分の明きスペースを選択して表
示するようにする。或いは、表示の大きさをその明きス
ペースに合わせて、切換えるようにしても良い。
Naturally, it is troublesome if the character display is applied to the main subject. Therefore, the part where the character display is output is also used for the part which is not the main subject by using the main subject detection technology which is a feature of the present invention. Select and display a bright space. Alternatively, the size of the display may be switched according to the clear space.

【0159】図29は、こうした文字表示の大きさを変
更可能な場合のファインダ内表示の動作を説明するフロ
ーチャートである。
FIG. 29 is a flow chart for explaining the operation of display in the viewfinder when the size of such a character display can be changed.

【0160】先ず、ステップS91にて主要被写体が検
知されると、続くステップS92にてファインダ内で上
記主要被写体以外の空きスペースが検出される。そし
て、ステップS93にて、表示される文字の大きさが決
定される。次いで、ステップS94にて、上記ステップ
S92で検出された空きスペース上に、上記ステップS
93で決定された大きさの文字が表示される。
First, when a main subject is detected in step S91, an empty space other than the main subject is detected in the finder in the following step S92. Then, in step S93, the size of the character to be displayed is determined. Next, in step S94, the above-mentioned step S92 is placed on the empty space detected in step S92.
The character having the size determined in step 93 is displayed.

【0161】また、撮影情報用表示としては、古くから
知られたピント合わせ用、露出制御用の表示の他、図2
8(a)に示されるストロボ充電中表示、図28(b)
に示されるバッテリ残量表示、図28(c)に示される
太陽電池充電表示等の情報表示があれば便利である。
In addition to the display for focusing and exposure control, which has been known for a long time, the display for photographing information is shown in FIG.
FIG. 28 (b) shows a flash charging display shown in FIG.
It is convenient if there are information displays such as a battery remaining amount display shown in FIG. 28 and a solar cell charge display shown in FIG.

【0162】ストロボ充電中は、ストロボ用のエネルギ
ーをコンデンサに蓄える時間、シャッタをオンにしても
正しい露出にならないので、ユーザに待機状態を知らせ
るためにイメージ表示として砂時計マークを出力するよ
うにする。また、電池残量が少なくなってきた時には、
図28に示されるように、電池のイメージを表示すれ
ば、電池交換または電池充電のチャンスを逃すようなこ
とがなくなる。
While the strobe is being charged, the exposure will not be correct even if the shutter is turned on during the time that the energy for the strobe is stored in the capacitor. Therefore, an hourglass mark is output as an image display to inform the user of the standby state. Also, when the battery level is getting low,
As shown in FIG. 28, displaying the image of the battery eliminates the possibility of missing a chance to replace or charge the battery.

【0163】図30は、この発明の第3の実施の形態と
して、上述した太陽電池充電表示が可能なカメラの概略
構成を示した図である。
FIG. 30 is a diagram showing a schematic configuration of a camera capable of displaying the above-mentioned solar battery charge as a third embodiment of the present invention.

【0164】図30に於いて、カメラボディ101の、
例えば上面部に太陽電池102が設けられており、整流
回路103を介して電源電池104が接続されている。
また、上記整流回路103には、フィルタ105と、分
圧抵抗106、スイッチ107を介してA/D変換回路
を内蔵したCPU110が接続される。
In FIG. 30, the camera body 101
For example, a solar cell 102 is provided on the upper surface, and a power supply cell 104 is connected via a rectifier circuit 103.
The rectifier 103 is connected to a filter 105, a voltage dividing resistor 106, and a CPU 110 having a built-in A / D converter via a switch 107.

【0165】このCPU110には、上述した情報表示
用の表示部111と、測光部112と、充電用コンデン
サ114が接続された充電回路113と、発光部115
が接続されている。また、上記充電回路114及び発光
部115には、ストロボ116が接続されている。尚、
117は撮影レンズである。
The CPU 110 includes a display unit 111 for displaying information, a photometric unit 112, a charging circuit 113 to which a charging capacitor 114 is connected, and a light emitting unit 115.
Is connected. In addition, a strobe 116 is connected to the charging circuit 114 and the light emitting unit 115. still,
117 is a taking lens.

【0166】このような太陽電池102を用いて電源電
池104を充電可能なカメラでは、日が当たっている状
態ではカメラにエネルギー充電が可能となる。この状態
を図28(c)に示されるような情報表示としてイメー
ジ表示しても良い。この表示が出力されていたら、ユー
ザは電池の残量を気にしないで撮影を楽しむことができ
る。
In such a camera that can charge the power supply battery 104 using the solar battery 102, the camera can be charged with energy when the sun is shining. This state may be displayed as an image as an information display as shown in FIG. If this display is output, the user can enjoy shooting without worrying about the remaining battery level.

【0167】電源電池104の電圧は、スイッチ107
をオンして分圧抵抗106で分圧すれば、CPU110
のA/D変換回路でバッテリチェックが可能となる。ま
た、CPU110は、測光部112の出力を基に、シャ
ッタスピードや絞りを決定するが、手ブレをしそうな状
況では、ストロボ116を発光させて露出を補助する。
The voltage of the power supply battery 104 is
Is turned on and the voltage is divided by the voltage dividing resistor 106, the CPU 110
A / D conversion circuit enables battery check. Further, the CPU 110 determines the shutter speed and the aperture based on the output of the photometry unit 112. In a situation where camera shake is likely to occur, the flash unit 116 emits light to assist exposure.

【0168】上記ストロボ116は、充電用コンデンサ
114にチャージしたエネルギーを発光部115で放電
させて発光させるが、一度放電した充電用コンデンサ1
4は、充電回路113で充電するのに時間がかかる。そ
れ故、この充電時間中を判定した場合は、次の撮影まで
時間がかかるので、図28(a)に示されるような表示
とする。
The strobe 116 discharges the energy charged in the charging capacitor 114 by the light emitting section 115 to emit light.
No. 4 takes a long time to be charged by the charging circuit 113. Therefore, if it is determined that the charging time is in progress, it takes time until the next photographing, and the display is as shown in FIG. 28A.

【0169】これらの表示は、図31のようなフローチ
ャートによって、CPU110が制御する。但し、この
フローチャートに於いては、表示場所選択のシーケンス
は省略している。
These displays are controlled by the CPU 110 according to the flowchart shown in FIG. However, in this flowchart, the display location selection sequence is omitted.

【0170】先ず、ステップS101にてチェックが開
始されると、続くステップS102に於いて、バッテリ
チェックの状態が判定される。ここで、バッテリチェッ
クの結果、電源電池104の残量が少なければ、ステッ
プS103に移行して残量が少ない旨の表示がなされ
る。
First, when the check is started in step S101, the state of the battery check is determined in the following step S102. Here, as a result of the battery check, if the remaining amount of the power supply battery 104 is not low, the process proceeds to step S103, and an indication that the remaining amount is low is displayed.

【0171】ステップS104では、太陽電池102の
状態が判定される。ここで、太陽電池102の電圧が十
分であれば、ステップS105に移行して太陽電池を表
すマークが表示される。
At step S104, the state of solar cell 102 is determined. Here, if the voltage of the solar cell 102 is sufficient, the process proceeds to step S105 and a mark representing the solar cell is displayed.

【0172】ステップS106では、ストロボ116が
充電中であるか否かが判定される。ストロボ116が充
電中であれば、ステップS107に移行して充電中のマ
ークが表示される。
In step S106, it is determined whether or not strobe 116 is being charged. If the strobe 116 is charging, the process proceeds to step S107, and a charging mark is displayed.

【0173】その後、ステップS108に於いて、レリ
ーズスイッチがオンされたか否かが判定される。そし
て、レリーズスイッチがオンされたならば、ステップS
109に移行して撮影シーケンスが実行される。
Thereafter, in step S108, it is determined whether or not the release switch has been turned on. If the release switch is turned on, step S
The flow shifts to 109, where a shooting sequence is executed.

【0174】以上説明したように、第3の実施の形態に
よれば、ファインダ内に、撮影時の状態がイメージで表
示できるので、ユーザに操作がわかりやすく、安心して
撮影できるカメラが提供可能となる。
As described above, according to the third embodiment, since the state at the time of shooting can be displayed as an image in the viewfinder, it is possible to provide a camera that allows the user to easily understand the operation and shoot with ease. Become.

【0175】尚、上述した実施の形態によれば、肝心な
撮影時の構図選択時の視覚を妨げることのない、ファイ
ンダ内表示によって、撮影時に安心感があり、撮影状態
を確認しやすいカメラを提供することができる。
According to the above-described embodiment, a camera which has a sense of security at the time of photographing and which makes it easy to confirm the photographing state by the display in the viewfinder which does not hinder the visual sense at the time of selecting the composition at the time of the important photographing. Can be provided.

【0176】また、上述した実施の形態では、銀塩カメ
ラの例についてのみ説明したが、これ以外に電子ビュー
ファインダを有する電子カメラやビデオカメラにも応用
可能であることは言うまでもない。
In the above-described embodiment, only an example of a silver halide camera has been described. However, it goes without saying that the present invention can be applied to an electronic camera or a video camera having an electronic viewfinder.

【0177】尚、この発明の上記実施の形態によれば、
以下の如き構成を得ることができる。
According to the above embodiment of the present invention,
The following configuration can be obtained.

【0178】すなわち、 (1) ファインダ画面内に撮影情報を表示するカメラ
のファインダ内表示装置に於いて、上記ファインダ画面
内に於ける測距ポイントを特定する特定手段と、上記特
定された測距ポイントと上記撮影情報表示とが重ならな
いように、その位置若しくは大きさを設定する設定手段
と、を具備することを特徴とするカメラのファインダ内
表示装置。
(1) In a finder display device of a camera for displaying photographing information in a finder screen, specifying means for specifying a distance measuring point in the finder screen; A display device in a camera finder, comprising: a setting unit for setting a position or a size of a point so that the display of the shooting information does not overlap.

【0179】(2) ファインダ画面内に撮影情報を表
示するカメラのファインダ内表示装置に於いて、上記画
面内の輝度分布を判定する判定手段と、上記判定手段で
判定された輝度分布情報に基いて、上記撮影情報の表示
位置、若しくは大きさ設定する設定手段と、を具備する
ことを特徴とするカメラのファインダ内表示装置。
(2) In a finder display device of a camera for displaying photographing information in a finder screen, a judging means for judging a luminance distribution in the screen, and a judgment means for judging luminance distribution information judged by the judging means. And a setting means for setting a display position or a size of the photographing information.

【0180】(3) 上記撮影情報は、撮影時モードや
ピント合わせ距離を図形表示した情報であることを特徴
とする上記(1)若しくは(2)に記載のカメラのファ
インダ内表示装置。
(3) The display device in the viewfinder of the camera according to (1) or (2), wherein the photographing information is information in which a photographing mode and a focusing distance are graphically displayed.

【0181】(4) 上記撮影情報は、カメラ駆動用の
電池状態、ストロボ充電中の充電時間、若しくは充電待
機状態であることを特徴とする上記(1)若しくは
(2)に記載のカメラのファインダ内表示装置。
(4) The camera finder according to (1) or (2), wherein the photographing information is a battery state for driving the camera, a charging time during flash charging, or a charging standby state. Display device inside.

【0182】(5) 上記撮影情報は、画面内の距離分
布であることを特徴とする上記(1)若しくは(2)に
記載のカメラのファインダ内表示装置。
(5) The display device according to the above (1) or (2), wherein the photographing information is a distance distribution in a screen.

【0183】[0183]

【発明の効果】以上のようにこの発明によれば、撮影時
に確認が容易であると共に、被写体の観察時に邪魔にな
らない位置に撮影情報を表示可能なファインダ内表示装
置及びカメラを提供することができる。
As described above, according to the present invention, it is possible to provide a display device in a finder and a camera which can be easily checked at the time of photographing and can display photographing information at a position where it does not interfere when observing a subject. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の第1の実施の形態に係るファインダ
内表示装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a display device in a finder according to a first embodiment of the present invention.

【図2】ファインダ内の被写体の状態を自動的に判別す
る例を説明するもので、(a)は主要被写体が画面の中
央に存在する構図を示した図、(b)は風景の表示の例
を示した図、(c)は画面中央に人物が存在しない場合
の例を示した図である。
FIGS. 2A and 2B illustrate an example in which the state of a subject in a finder is automatically determined. FIG. 2A illustrates a composition in which a main subject is present at the center of a screen, and FIG. FIG. 3C is a diagram showing an example, and FIG. 3C is a diagram showing an example in which no person exists at the center of the screen.

【図3】第1の実施の形態によるカメラの測距動作を説
明するフローチャートである。
FIG. 3 is a flowchart illustrating a distance measuring operation of the camera according to the first embodiment.

【図4】(a)はファインダ内表示装置が適用されたカ
メラの測距装置の構成を示した図、(b)はセンサアレ
イの測距ポイントが被写体に入っている例を示した図、
(c)はセンサアレイの測距ポイントが太陽の光に入っ
ている例を示した図である。
4A is a diagram illustrating a configuration of a distance measuring device of a camera to which a display device in a finder is applied, FIG. 4B is a diagram illustrating an example in which a distance measuring point of a sensor array is in a subject,
(C) is a diagram showing an example in which the distance measurement point of the sensor array is in sunlight.

【図5】センサアレイの一部をより詳細に示した構成図
である。
FIG. 5 is a configuration diagram showing a part of the sensor array in more detail.

【図6】(a)は上記選択スイッチ33cをオンさせ
て、積分制御を行う動作を説明するタイミングチャー
ト、(b)はCPUでモニタされる像信号の出力の例を
示した図である。
FIG. 6A is a timing chart illustrating an operation of performing integral control by turning on the selection switch 33c, and FIG. 6B is a diagram illustrating an example of an output of an image signal monitored by a CPU.

【図7】(a)は受光レンズとセンサアレイの配置を示
した図、(b)は模式的に(a)のセンサアレイのモニ
タ域を示した図、(c)は測距ポイント数を30にした
場合のモニタ域を示した図である。
7A is a diagram showing an arrangement of a light receiving lens and a sensor array, FIG. 7B is a diagram schematically showing a monitor area of the sensor array in FIG. 7A, and FIG. It is a figure showing the monitor area at the time of making into 30.

【図8】(a)は受光レンズとセンサアレイとの配置を
示した図、(b)は画面全域に測距域を配置した例を示
した図である。
8A is a diagram illustrating an arrangement of a light receiving lens and a sensor array, and FIG. 8B is a diagram illustrating an example in which a ranging area is arranged over the entire screen.

【図9】画面の構図と積分判定エリア、測距表示の例に
ついて示した図である。
FIG. 9 is a diagram illustrating an example of a screen composition, an integration determination area, and a distance measurement display.

【図10】縦横検知、上向き検知を説明するための図で
ある。
FIG. 10 is a diagram for explaining vertical / horizontal detection and upward detection.

【図11】第1の実施の形態に於いて構図を確認する場
合の測距動作について説明するフローチャートである。
FIG. 11 is a flowchart illustrating a distance measuring operation when confirming a composition in the first embodiment.

【図12】エリアセンサの出力から最適な積分判定領域
を選択する場合の例を示した図である。
FIG. 12 is a diagram illustrating an example of a case where an optimal integration determination area is selected from an output of an area sensor.

【図13】エリアセンサの出力から最適な積分判定領域
を選択する場合の例を示した図である。
FIG. 13 is a diagram illustrating an example of a case where an optimal integration determination area is selected from an output of an area sensor.

【図14】積分エリアの選択動作について説明するフロ
ーチャートである。
FIG. 14 is a flowchart illustrating an integration area selection operation.

【図15】画面の構図と積分判定エリア、測距表示の例
について示した図である。
FIG. 15 is a diagram illustrating an example of a screen composition, an integration determination area, and a distance measurement display.

【図16】この発明の第2の実施の形態を示すもので、
(a)はカメラの内部構成を示すブロック図であり、
(b)は該カメラの外観斜視図である。
FIG. 16 shows a second embodiment of the present invention.
(A) is a block diagram showing an internal configuration of a camera,
(B) is an external perspective view of the camera.

【図17】主要被写体がファインダ画面の中央に存在し
ないシーンに於ける測距の例を示した図である。
FIG. 17 is a diagram illustrating an example of distance measurement in a scene in which a main subject does not exist at the center of the finder screen.

【図18】第2の実施の形態に於ける測距ポイントの表
示動作を説明するフローチャートである。
FIG. 18 is a flowchart illustrating a display operation of a distance measurement point according to the second embodiment.

【図19】主要被写体ではなく、誤って手前の木にピン
トを合わせた場合の例を説明する図である。
FIG. 19 is a diagram illustrating an example of a case where the focus is incorrectly focused on a tree in front of the subject, instead of the main subject.

【図20】視線検知によるファインダ光学系の構成を示
した図である。
FIG. 20 is a diagram showing a configuration of a finder optical system based on line-of-sight detection.

【図21】図20のマスクLCDと撮影者の目の動きの
関係を説明する図である。
21 is a diagram illustrating the relationship between the mask LCD of FIG. 20 and the movement of the photographer's eyes.

【図22】第2の実施の形態に於けるファーストレリー
ズの動作を説明するフローチャートである。
FIG. 22 is a flowchart illustrating an operation of a first release according to the second embodiment.

【図23】パララックスを考慮した画面内表示制御方法
について説明するための図である。
FIG. 23 is a diagram for describing an in-screen display control method in consideration of parallax.

【図24】測距ポイントとなるファインダ内LCDを説
明するための図である。
FIG. 24 is a view for explaining an LCD in a finder serving as a distance measuring point.

【図25】パララックスを考慮した画面内表示制御方法
について説明するための図である。
FIG. 25 is a diagram for describing an in-screen display control method in consideration of parallax.

【図26】パララックスを考慮したファインダ内表示点
灯の動作について説明する図である。
FIG. 26 is a diagram for explaining the operation of turning on the display in the viewfinder in consideration of parallax.

【図27】人間の顔の幅を考慮した場合のファインダ内
表示点灯の動作について説明するフローチャートであ
る。
FIG. 27 is a flowchart illustrating an operation of turning on display in the viewfinder when the width of a human face is taken into consideration.

【図28】ファインダ内の表示例を示したもので、
(a)は斜線のクロスによる測距ポイントの例を示した
図、(b)は丸形状の測距ポイントの例を示した図、
(c)は四角形状の測距ポイントの例を示した図、
(d)は文字表示の例を示した図である。
FIG. 28 shows a display example in the viewfinder.
(A) is a diagram illustrating an example of a ranging point by a cross-hatched line, (b) is a diagram illustrating an example of a round ranging point,
(C) is a diagram showing an example of a square shaped ranging point,
(D) is a diagram showing an example of character display.

【図29】文字表示の大きさを変更可能な場合のファイ
ンダ内表示の動作を説明するフローチャートである。
FIG. 29 is a flowchart for explaining the operation of display in the viewfinder when the size of character display can be changed.

【図30】この発明の第3の実施の形態として、上述し
た太陽電池充電表示が可能なカメラの概略構成を示した
図である。
FIG. 30 is a diagram showing a schematic configuration of a camera capable of performing the above-described solar cell charge display as a third embodiment of the present invention.

【図31】第3の実施の形態に於けるカメラの撮影情報
の表示動作を説明するフローチャートである。
FIG. 31 is a flowchart illustrating a display operation of camera shooting information according to the third embodiment.

【符号の説明】[Explanation of symbols]

1 画面、 2 主要被写体、 3a、3b、3c 測距表示、 11、25 CPU、 11a 位置判定部、 11b 面積判定部、 12 測距部、 13 像検出部、 14 表示部、 20 被写体、 21a、21b 受光レンズ、 22a、22b、32a〜32d センサアレイ、 25a A/D変換回路、 25b 相関演算部、 25c 積分制御部、 25d 選択部、 26 使用状態検知部、 27 ピント合わせ部、 28 測距ポイント、 31 バイアス回路、 33a 積分スイッチ、 33b リセットスイッチ、 33c 選択スイッチ、 34a〜34d 積分アンプ、 35 最大積分値検出回路、 41 カメラ、 42 ケース、 43 導電物質、 44a〜44d 電極。 1 screen, 2 main subjects, 3a, 3b, 3c distance measurement display, 11, 25 CPU, 11a position determination unit, 11b area determination unit, 12 distance measurement unit, 13 image detection unit, 14 display unit, 20 subjects, 21a, 21b light receiving lens, 22a, 22b, 32a to 32d sensor array, 25a A / D conversion circuit, 25b correlation operation unit, 25c integration control unit, 25d selection unit, 26 use state detection unit, 27 focusing unit, 28 distance measurement points 31 bias circuit, 33a integration switch, 33b reset switch, 33c selection switch, 34a-34d integration amplifier, 35 maximum integration value detection circuit, 41 camera, 42 case, 43 conductive material, 44a-44d electrode.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ファインダ画面内に撮影情報を表示する
ファインダ内表示装置に於いて、 上記ファインダ画面内に於ける測距ポイントを特定する
特定手段と、 上記特定された測距ポイントと上記撮影情報表示とが重
ならないように、その位置若しくは大きさを設定する設
定手段と、 を具備することを特徴とするファインダ内表示装置。
1. A display device in a finder for displaying photographing information in a finder screen, a locating means for specifying a distance measuring point in the finder screen, the specified distance measuring point and the photographing information Setting means for setting the position or size of the display so that the display does not overlap with the display.
【請求項2】 ファインダ画面内に撮影情報を表示する
ファインダ内表示装置に於いて、 上記画面内の輝度分布を判定する判定手段と、 上記判定手段で判定された輝度分布情報に基いて、上記
撮影情報の表示位置、若しくは大きさ設定する設定手段
と、 を具備することを特徴とするファインダ内表示装置。
2. A finder display device for displaying photographing information in a finder screen, comprising: a determination means for determining a luminance distribution in the screen; and a luminance distribution information determined by the determination means. Setting means for setting the display position or size of the photographing information.
【請求項3】 上記撮影情報は、撮影時モードやピント
合せ距離を図形表示した情報と、カメラ駆動用の電池状
態、ストロボ充電中の充電時間若しくは充電待機状態、
及び、画面内の距離分布のうちの少なくとも1つである
ことを特徴とする請求項1若しくは2に記載のファイン
ダ内表示装置。
3. The photographing information includes information indicating a photographing mode and a focusing distance in graphic form, a battery state for driving a camera, a charging time during flash charging or a charging standby state,
3. The display device in a finder according to claim 1, wherein the display device is at least one of distance distributions in a screen.
【請求項4】 ファインダ内の撮影者の注視ポイントを
検出する検出手段と、 上記検出手段の検出結果に基き撮影者の注視ポイントの
変更を判定する視線変更判定手段と、 ファインダ内の表示位置を切換える表示切換手段と、 上記視線変更判定手段が、注視ポイントが変更されたと
判定したら上記表示切換手段を切換え制御する制御手段
と、 を具備することを特徴とするカメラ。
A detecting means for detecting a gaze point of the photographer in the viewfinder; a gaze change determining means for determining a change in the gaze point of the photographer based on the detection result of the detecting means; and a display position in the viewfinder. A camera comprising: display switching means for switching; and control means for switching and controlling the display switching means when the gaze change determination means determines that the gaze point has been changed.
JP25150899A 1999-09-06 1999-09-06 Intra-finder display device and camera Withdrawn JP2001075164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25150899A JP2001075164A (en) 1999-09-06 1999-09-06 Intra-finder display device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25150899A JP2001075164A (en) 1999-09-06 1999-09-06 Intra-finder display device and camera

Publications (1)

Publication Number Publication Date
JP2001075164A true JP2001075164A (en) 2001-03-23

Family

ID=17223864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25150899A Withdrawn JP2001075164A (en) 1999-09-06 1999-09-06 Intra-finder display device and camera

Country Status (1)

Country Link
JP (1) JP2001075164A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007151034A (en) * 2005-11-30 2007-06-14 Nikon Corp Imaging apparatus and image reproducing device
JP2010011260A (en) * 2008-06-30 2010-01-14 Nikon Corp Imaging device
US8421899B2 (en) 2001-09-18 2013-04-16 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
KR20160108494A (en) 2014-01-17 2016-09-19 교와 핫꼬 기린 가부시키가이샤 NUCLEIC ACID CAPABLE OF INHIBITING EXPRESSION OF β2GPI
KR20190128674A (en) 2017-03-09 2019-11-18 쿄와 기린 가부시키가이샤 Nucleic Acids That Inhibit Expression of MASP2
CN111883036A (en) * 2020-07-28 2020-11-03 华兴源创(成都)科技有限公司 Compensation method and compensation device of display panel

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421899B2 (en) 2001-09-18 2013-04-16 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2007151034A (en) * 2005-11-30 2007-06-14 Nikon Corp Imaging apparatus and image reproducing device
JP2010011260A (en) * 2008-06-30 2010-01-14 Nikon Corp Imaging device
KR20160108494A (en) 2014-01-17 2016-09-19 교와 핫꼬 기린 가부시키가이샤 NUCLEIC ACID CAPABLE OF INHIBITING EXPRESSION OF β2GPI
KR20190128674A (en) 2017-03-09 2019-11-18 쿄와 기린 가부시키가이샤 Nucleic Acids That Inhibit Expression of MASP2
CN111883036A (en) * 2020-07-28 2020-11-03 华兴源创(成都)科技有限公司 Compensation method and compensation device of display panel
CN111883036B (en) * 2020-07-28 2023-05-09 华兴源创(成都)科技有限公司 Compensation method and compensation device for display panel

Similar Documents

Publication Publication Date Title
US7805067B2 (en) Focus detection device for image forming optical system, imaging apparatus, and focus detection method for image forming optical system
US5696998A (en) Optical apparatus equipped with sight line detector
JP2985087B2 (en) Focus detection device
JP2001091819A (en) Range-finding device for camera
JP3970046B2 (en) camera
CN101854482A (en) The control method of image pick-up device, image pick-up device and program thereof
JP2021105734A (en) Control device, control method and control program
JP2009109839A (en) Image tracking device and imaging device
US6801639B2 (en) Distance measurement apparatus
JP4004591B2 (en) Camera with self-mode function
JP2001075164A (en) Intra-finder display device and camera
JP4786734B2 (en) camera
JP4391637B2 (en) camera
EP1037086A2 (en) Focus detecting device and apparatus having the same
JP2013122494A (en) Focus detector and camera
JP4512173B2 (en) Ranging device
US7184089B2 (en) Electronic camera and photographing composition determination apparatus mountable on electronic camera
JP3385062B2 (en) Camera auto focus device
JP2005249831A (en) Optical equipment having line-of-sight detector
JP5417032B2 (en) Camera photometric device
JP2001296576A (en) Operation device
JP3095829B2 (en) Camera display device
JP3495824B2 (en) Optical equipment having a line-of-sight detection device
JP5157758B2 (en) Imaging device
JPH1172818A (en) Multi-point range finder

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107