JP3192483B2 - Optical equipment - Google Patents

Optical equipment

Info

Publication number
JP3192483B2
JP3192483B2 JP15416592A JP15416592A JP3192483B2 JP 3192483 B2 JP3192483 B2 JP 3192483B2 JP 15416592 A JP15416592 A JP 15416592A JP 15416592 A JP15416592 A JP 15416592A JP 3192483 B2 JP3192483 B2 JP 3192483B2
Authority
JP
Japan
Prior art keywords
subject
area
extraction
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15416592A
Other languages
Japanese (ja)
Other versions
JPH05328197A (en
Inventor
秀夫 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=15578257&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP3192483(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP15416592A priority Critical patent/JP3192483B2/en
Publication of JPH05328197A publication Critical patent/JPH05328197A/en
Priority to US08/442,558 priority patent/US6118484A/en
Application granted granted Critical
Publication of JP3192483B2 publication Critical patent/JP3192483B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】 本発明は、画像信号に基づいて
対象物の存在する領域を抽出する光学機器に関するもの
である。
BACKGROUND OF THE INVENTION The present invention relates to an image processing method based on an image signal.
The present invention relates to an optical device for extracting a region where an object exists .

【0002】[0002]

【従来の技術】 従来、種々の撮影制御に際して、撮影
画面内に領域を設定することがなされている。例えば、
オートフォーカスにおいては、合焦情報を検出する為の
合焦検出領域を、また、撮影者の手振れ等による画像の
ブレ補正においては、画像の動きを検出するブレ検知領
域を、それぞれ設定し、この設定した領域内の撮像信号
に基づいて各々の撮影制御を行っていた。
2. Description of the Related Art Conventionally, an area has been set in a photographing screen when performing various photographing controls. For example,
In autofocus, a focus detection area for detecting focus information is set, and in image blur correction due to camera shake of a photographer, a shake detection area for detecting image movement is set. Each photographing control is performed based on the image pickup signal in the set area.

【0003】また、被写体の合焦情報などに基づいて先
の合焦検出領域を自動的に被写体に追尾させることを可
能とするものも提案されている。
Further, there has been proposed a camera capable of automatically tracking a previous focus detection area on a subject based on focus information of the subject or the like.

【0004】[0004]

【発明が解決しようとする課題】 しかしながら、上記
従来例において、撮影制御に際して設定される領域は予
め画面内に設定される構成となっており、必要に応じて
撮影者が任意の位置に設定するといった事はできず、撮
影の範囲が制限されてしまっていた。このため、合焦情
報などの被写体の情報に基づいて抽出すべく被写体領域
(範囲)を設定するものにおいては、合焦状態にあるか
否かによりその領域を設定してしまうために、撮影者の
意図する被写体と異なる被写体を選択、つまり意図しな
い被写体にピントが合ってしまうといった問題点があっ
た。
However, in the above-described conventional example, the area set at the time of shooting control is configured to be set in the screen in advance, and the photographer sets the area at an arbitrary position as necessary. I couldn't do that, and the shooting range was limited. For this reason, in the case of setting a subject area (range) to be extracted based on information of the subject such as focusing information, the area is set depending on whether or not the subject is in focus. select an object different from the object intended by the, i.e. there is a problem that becomes in focus on the intended object.

【0005】 また、撮影後に領域を設定して、画像の
合成などを編集作業として行うような編集装置も多種提
案されているが、このように画面内の意図した位置に領
域を設定可能とするものにおいては、編集装置を別に準
備する必要があることと、別に時間をかけて作業を行わ
なければならないこと、さらには撮影後の画像にのみ
領域設定した情報を使用することができないなどの問
題があった。
[0005] Various types of editing apparatuses have been proposed in which an area is set after photographing and images are synthesized as an editing operation. However, an area can be set at an intended position on a screen as described above. In some cases, it is necessary to prepare an editing device separately, it is necessary to spend extra time working, and only for the image after shooting.
Or region setting information has a problem such can not be used.

【0006】 本発明の目的は、上記の点に鑑み、抽出
された領域が複数あった場合に、意図する領域を選択す
ることのできる光学機器を提供することである。
In view of the above, an object of the present invention is to extract
If there is more than one area, select the intended area.
It is to provide an optical device that can be used .

【0007】[0007]

【課題を解決するための手段】 上記目的を達成するた
めに、請求項1に記載した本発明は、画像信号を出力す
る画像センサと、前記画像信号に基づいて対象物の存在
する領域を抽出する抽出手段と、該抽出手段により抽出
された領域の中から少なくとも1つを選択する領域選択
手段とを有することを特徴としている。 また、請求項2
に記載した本発明は、画像信号を出力する画像センサ
と、前記画像信号に基づいて対象物の存在する領域を抽
出する抽出手段と、視線を検出する視線検出手段と、該
視線検出手段の視線検出結果に基づいて、前記抽出手段
により抽出された領域の中から少なくとも1つを選択す
る領域選択手段とを有することを特徴としている。
た、請求項3に記載した本発明は、請求項1又は2記載
の発明に加え、前記抽出手段は、対象物の大きさに相当
する領域を抽出することを特徴としている。
Means for Solving the Problems To achieve the above object,
According to the present invention, an image signal is output.
Image sensor, and presence of an object based on the image signal
Extraction means for extracting a region to be extracted, and extraction by the extraction means
Area selection to select at least one of the selected areas
Means. Claim 2
An image sensor for outputting an image signal
And extracting the area where the object exists based on the image signal.
Extraction means for outputting, gaze detection means for detecting gaze,
The extraction means based on a gaze detection result of the gaze detection means;
Select at least one of the regions extracted by
Region selecting means. Ma
The present invention described in claim 3 provides the invention according to claim 1 or 2.
In addition to the above invention, the extraction means corresponds to the size of the object.
It is characterized in that a region to be extracted is extracted.

【0008】[0008]

【0009】[0009]

【実施例】以下、本発明を図示の実施例に基づいて詳細
に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.

【0010】 図1は本発明第1の実施例における撮
影装置のブロック図であり、同図において、1は撮影レ
ンズ、2はCCDなどの撮像素子、3は撮像素子2より
の撮像信号から画面内における被写体の領域(範囲)を
抽出(設定)する被写体抽出回路、4は前記被写体抽出
回路3にて抽出された領域情報に基づきその被写体枠を
生成する被写体枠生成回路、5は前記被写体枠生成回路
3で生成された被写体枠を映像信号に合成し、合成画像
をファインダに表示するファインダ制御回路、6は電子
ビューファインダなどの表示装置、7はファインダを観
察するためのファインダレンズ、8は撮影者の眼球の動
きから撮影者の視線を検出する視線検出光学系、9は眼
球の像を検出する検出器、10はファインダ系の光路と
視線検出系の光路を分離する光路分離ミラー、11は視
線の位置を抽出する視線抽出回路、12は被写体抽出回
路3からの領域情報と視線抽出回路11からの視線情報
に基づいて主要被写体を決定し、被写体情報の制御をす
る被写体情報制御回路、13は撮像素子2からの撮像信
号をテレビジョン規格に準じた映像信号に変換する映像
信号変換回路、14は撮影レンズ1の駆動を制御する撮
影レンズ駆動回路、15は撮像素子1の露光時間やシャ
ッタスピードなどを制御する撮像素子駆動回路、16は
各回路における動作の同期をとるための信号を発生する
同期信号発生回路である。
FIG. 1 is a block diagram of a photographing apparatus according to a first embodiment of the present invention. In FIG. 1, reference numeral 1 denotes a photographing lens, 2 denotes an image pickup device such as a CCD, and 3 denotes an image pickup signal from the image pickup device 2. A subject extraction circuit 4 extracts (sets) a region (range) of the subject in the screen. A subject frame generation circuit 4 generates a subject frame based on the region information extracted by the subject extraction circuit 3. A finder control circuit that combines the subject frame generated by the frame generation circuit 3 with a video signal and displays the synthesized image on a finder; 6, a display device such as an electronic view finder; 7, a finder lens for observing the finder; Is a line-of-sight detection optical system that detects the line of sight of the photographer from the movement of the eyeball of the photographer, 9 is a detector that detects an image of the eyeball, and 10 is an optical path of the finder system and an optical path of the line-of-sight detection system. An optical path separating mirror for separation, 11 is a line-of-sight extraction circuit for extracting the position of the line of sight, 12 is a main object determined based on the area information from the object extraction circuit 3 and the line of sight information from the line of sight extraction circuit 11, and control of the object information A video signal conversion circuit 13 for converting an image signal from the image sensor 2 into a video signal conforming to a television standard; a photographing lens driving circuit 14 for controlling the driving of the photographing lens 1; An image sensor driving circuit 16 controls the exposure time, shutter speed, and the like of the image sensor 1, and a synchronization signal generating circuit 16 generates a signal for synchronizing the operation of each circuit.

【0011】ここで、図2を用いて被写体抽出回路3で
の動作について説明する。
The operation of the object extracting circuit 3 will be described with reference to FIG.

【0012】被写体抽出回路3は、撮像素子2から被写
体像のエッヂ部分のボケ量に応じたボケ幅を検出し(図
2(a) 参照)、検出された合焦度に応じたエッヂのボケ
幅の撮像画面上における分布を認識し(図2(b) 参
照)、合焦状態にある分布から主要被写体の領域を設定
する(図2(c) 参照)。
The subject extracting circuit 3 detects a blur width corresponding to the blur amount of the edge portion of the subject image from the image pickup device 2 (see FIG. 2A), and blurs the edge corresponding to the detected degree of focus. The distribution of the width on the imaging screen is recognized (see FIG. 2 (b)), and the area of the main subject is set from the in-focus distribution (see FIG. 2 (c)).

【0013】 次に、上述した視線検出光学系8、イメ
ージセンサ等の検出器9及び視線抽出回路11等より成
る視線検出装置による視線検出方法の基本原理につい
て、図3により説明する。
Next, the basic principle of a gaze detection method using a gaze detection device including the above-described gaze detection optical system 8, a detector 9 such as an image sensor, and a gaze extraction circuit 11 will be described with reference to FIG.

【0014】図3において、104は観察者に対して不
感の赤外光を放射する発光ダイオード等の光源であり、
投光レンズ106の焦点面に配置されている。
In FIG. 3, reference numeral 104 denotes a light source such as a light emitting diode which emits infrared light insensitive to an observer;
It is arranged on the focal plane of the light projecting lens 106.

【0015】 光源104より発光した赤外光は投光レ
ンズ106により平行光となり、ハーフミラー105で
反射し、眼球の角膜101を照明する。この時、角膜1
01の表面で反射した赤外光の一部に基く角膜反射像d
はハーフミラー105を透過し、図1の視線検出光学系
8に相当する受光レンズ107により集光され、同じく
図1の検出器9に相当するイメージセンサ109上の位
置d´に角膜反射像dを再結像する。
The infrared light emitted from the light source 104 is converted into parallel light by the light projecting lens 106, reflected by the half mirror 105, and illuminates the cornea 101 of the eyeball. At this time, the cornea 1
Corneal reflection image d based on a part of the infrared light reflected on the surface of No. 01
Is transmitted through the half mirror 105, condensed by the light receiving lens 107 corresponding to the visual axis detection optical system 8 in FIG. 1, and is reflected at the position d ′ on the image sensor 109 also corresponding to the detector 9 in FIG. Is re-imaged.

【0016】また、虹彩103の端部a,bからの光束
はハーフミラー105、受光レンズ107を介してイメ
ージセンサ109の上に導光され、その位置a´,b´
に該端部a,bの像を結像する。受光レンズ107の光
軸に対する眼球の光軸の回転角θが小さい場合、虹
彩103の端部a,bのZ座標をZa,Zbとすると、
虹彩103の中心位置cの座標Zcは Zc≒(Za+Zb)/2 と表される。
The light beams from the ends a and b of the iris 103 are guided to the image sensor 109 via the half mirror 105 and the light receiving lens 107, and the positions a 'and b' thereof.
Then, the images of the ends a and b are formed. When the rotation angle θ of the optical axis of the eyeball with respect to the optical axis of the light receiving lens 107 is small, and the Z coordinates of the ends a and b of the iris 103 are Za and Zb,
The coordinate Zc of the center position c of the iris 103 is expressed as Zc ≒ (Za + Zb) / 2.

【0017】また、角膜反射像の発生位置dのZ座標を
Zd,角膜101の曲率中心Oと虹彩103の中心Cま
でを距離OCとすると、眼球光軸の回転角θは OC・sinθ≒Zc−Zd …………(1) の関係式を略満足する。このため、イメージセンサ10
9上に投影された各特異点(角膜反射像d及び虹彩の端
部a,b)の位置を検出することにより、眼球光軸の
回転角θを求めることができる。この時(1)式は β・OC・sinθ≒{(Za+Zb)/2}−Zd …………(2) と書き換えられる。但し、βは角膜反射像の発生位置d
と受光レンズ7との距離Lと受光レンズ107とイメー
ジセンサ109との距離Loで決る倍率で、通常ほぼ一
定の値となっている。
If the Z coordinate of the corneal reflection image generation position d is Zd, and the distance between the center of curvature O of the cornea 101 and the center C of the iris 103 is a distance OC, the rotation angle θ of the optical axis of the eyeball is OC · sin θ ≒ Zc −Zd satisfies the relational expression (1) substantially. For this reason, the image sensor 10
The rotation angle θ of the optical axis of the eyeball can be obtained by detecting the position of each singular point (the corneal reflection image d and the end portions a and b of the iris) projected on the surface 9. At this time, the expression (1) is rewritten as β · OC · sin θ ≒ {(Za + Zb) / 2} −Zd (2) Here, β is the position d where the corneal reflection image is generated.
The magnification is determined by the distance L between the light-receiving lens 7 and the distance Lo between the light-receiving lens 107 and the image sensor 109, and usually has a substantially constant value.

【0018】上記のような原理により、観察者の被検眼
の視線の方向(注視点)を検出することができる。
According to the above-described principle, the direction of the line of sight of the examinee's eye (point of sight) can be detected.

【0019】次に、本発明の第1の実施例における撮影
装置に動作について、図4のフローチャート及び図5,
図6に基づいて説明する。
Next, the operation of the photographing apparatus according to the first embodiment of the present invention will be described with reference to the flowchart of FIG.
Explanation will be given based on FIG.

【0020】 ステップ101において、被写体抽出回
路3により前述した様に撮像素子2から被写体情報が取
り込まれ(図5(a) 参照)、次のステップ102におい
て、被写体数が1つかそれ以上であるかの判別が行われ
る。この結果、1つであれば被写体領域は既に確定であ
るのでステップ108へ進み、2つ以上であった場合に
は主要被写体を確定するためにステップ103へと進
む。この実施例では、図5(a) に示す様に被写体数が3
つの場合を想定しているので、ステップ102からステ
ップ103へと進むことになる。ステップ103におい
ては、例えばボケ幅に関する情報から被写体の領域の設
定が行われ、この領域情報に基づいて被写体枠生成回路
4にて該領域の枠にあたる画像が生成される(図5(b)
参照)。そして、ステップ104において、この画像
(被写体枠)がファインダ制御回路5へ供給され、ここ
で該被写体枠と撮像信号とが合成され、この合成された
画像が表示装置6に表示される。
In step 101, subject information is fetched from the image sensor 2 by the subject extraction circuit 3 as described above (see FIG. 5A). In the next step 102, whether the number of subjects is one or more? Is determined. As a result, if there is only one, the subject region has already been determined, and the process proceeds to step 108. If there are two or more, the process proceeds to step 103 to determine the main subject. In this embodiment, as shown in FIG.
Therefore, the process proceeds from step 102 to step 103. In step 103, for example, a region of the subject is set from information on the blur width, and an image corresponding to the frame of the region is generated by the subject frame generation circuit 4 based on the region information (FIG. 5B).
reference). Then, in step 104, this image (subject frame) is supplied to the finder control circuit 5, where the subject frame and the image pickup signal are combined, and the combined image is displayed on the display device 6.

【0021】この時、撮影者は前記電子ビューファイン
ダ等の表示装置6上の像をファインダレンズ7を通して
観察しているが、その際の撮影者の眼球の動きが前述の
視線検出光学系8を通して検出器9で検出され、この検
出された眼球の像に基づいて視線抽出回路11にて視線
の位置検出がなされており、ステップ105において、
被写体抽出スイッチがONされることによりステップ1
06へ進み、ここで前記視線抽出回路11にて生成され
た視線情報が被写体情報制御回路12へと供給される。
そして、ステップ107において、被写体情報制御回路
12にて前記視線情報と被写体抽出回路3からの領域情
報から主要な被写体が決定され(図5(c) 参照)、被写
体領域が確定される。
At this time, the photographer observes the image on the display device 6 such as the electronic view finder through the finder lens 7, and the movement of the photographer's eyeball at that time passes through the above-mentioned visual axis detection optical system 8. The position of the line of sight is detected by the line-of-sight extraction circuit 11 based on the detected image of the eyeball detected by the detector 9.
Step 1 when the subject extraction switch is turned on
In step 06, the line-of-sight information generated by the line-of-sight extraction circuit 11 is supplied to the subject information control circuit 12.
In step 107, a main subject is determined by the subject information control circuit 12 from the line-of-sight information and the area information from the subject extraction circuit 3 (see FIG. 5C), and the subject area is determined.

【0022】前述した様に被写体情報制御回路12にて
被写体領域が確定した後はステップ108へ進み、主要
の被写体情報を生成する。そして、次のステップ109
において、この主要被写体情報に基づいて撮影レンズ駆
動回路14によって撮影レンズ1を駆動したり、撮像素
子駆動回路15によって撮像素子2の駆動を行う。
After the subject area is determined by the subject information control circuit 12 as described above, the flow advances to step 108 to generate main subject information. Then, the next step 109
, The photographing lens 1 is driven by the photographing lens drive circuit 14 based on the main subject information, and the image pickup device 2 is driven by the image pickup device drive circuit 15.

【0023】また、図6(a) に示す様に主被写体が抽出
した位置より動いた場合には、被写体抽出回路3からの
領域情報に基づき追従するように選択(図6(b) 参照)
されると共に、追従して得られる主被写体情報に基づい
て撮影レンズ駆動回路14によって撮影レンズ1が駆
動、又撮像素子駆動回路15によって撮像素子2の駆動
が、それぞれ継続される。
When the main subject moves from the extracted position as shown in FIG. 6 (a), selection is made to follow based on the area information from the subject extraction circuit 3 (see FIG. 6 (b)).
At the same time, the driving of the photographing lens 1 by the photographing lens drive circuit 14 and the driving of the image pickup device 2 by the image pickup device drive circuit 15 are continued based on the main subject information obtained by following.

【0024】なお、2つ以上の被写体があった場合の選
択は被写体抽出スイッチで行う様にしているが、この代
りに、視線の注視している位置を計測し、その頻度の高
い位置を撮影者の最も注視している位置と自動的に判断
し、その位置を視線情報として、被写体情報制御回路1
2が主被写体を自動的に決定するような構成であっても
良い。また、被写体の抽出に使用する撮像信号の情報
は、ボケ幅ではなく、輝度信号や、色信号でも良いし、
これらを合せて使用しても良い。
In the case where there are two or more subjects, the selection is made with the subject extraction switch. Instead, the gaze position is measured, and the position with the highest frequency is photographed. Is automatically determined to be the position where the user is gazing most, and the position is determined as the line-of-sight information by the subject information control circuit 1.
2 may automatically determine the main subject. Also, the information of the imaging signal used for extracting the subject may be a luminance signal or a color signal instead of the blur width,
These may be used together.

【0025】(第2の実施例)図7は本発明の第2の実
施例における撮影装置を示すブロック図であり、図1と
同じ部分は同一符合を付してある。
(Second Embodiment) FIG. 7 is a block diagram showing a photographing apparatus according to a second embodiment of the present invention, and the same parts as those in FIG. 1 are denoted by the same reference numerals.

【0026】図7において、17は被写体枠を一時的に
記憶するメモリである。
In FIG. 7, reference numeral 17 denotes a memory for temporarily storing a subject frame.

【0027】この第2の実施例では、被写体抽出を行う
時に、撮影レンズ1のフォーカスレンズ群を駆動し、異
なる被写体距離に位置する各被写体を画像信号より抽出
し、それらを合せて表示した被写体枠から撮影者が主要
な被写体を決定できるようにしたものである。
In the second embodiment, at the time of subject extraction, the focus lens group of the photographing lens 1 is driven to extract each subject located at a different subject distance from the image signal, and display the subject together. This allows the photographer to determine the main subject from the frame.

【0028】次に、本発明の第2の実施例における撮影
装置に動作について、図8のフローチャート及び図9,
図10に基づいて説明する。
Next, the operation of the photographing apparatus according to the second embodiment of the present invention will be described with reference to the flowchart of FIG.
A description will be given based on FIG.

【0029】 被写体を撮影者が抽出する状態になる
と、ステップ201において、撮影レンズ駆動回路14
を通して撮影レンズ1内のフォーカスレンズが無限遠位
置にセットされ、次のステップ202において、被写体
抽出回路3により撮像素子2から被写体情報が取り込ま
れ(図9(a) の左図参照)、次のステップ203におい
て、第1の実施例と同様に例えばボケ幅に関する情報か
ら被写体の領域の設定が行われ、この領域情報に基づい
て被写体枠生成回路4にて該領域の枠にあたる画像が生
成される(図(a) の右図参照)。そして、ステップ2
04において、この画像(被写体枠)がメモリ17に記
憶される。次に、ズテップ205へ進み、ここでは先の
フォーカスレンズが所定量至近側に駆動され、被写体距
離が変更され、ステップ206にて所定回数同様の動作
が繰り返し行われたか否かの判別が行われる。
When the photographer is ready to extract a subject, in step 201, the photographing lens driving circuit 14
The focus lens in the photographing lens 1 is set at the infinity position through the process, and in the next step 202, the subject information is fetched from the image sensor 2 by the subject extracting circuit 3 (see the left diagram in FIG. 9A). In step 203, similarly to the first embodiment, an area of the subject is set based on, for example, information on the blur width, and an image corresponding to a frame of the area is generated by the subject frame generation circuit 4 based on the area information. (See the right figure in FIG. 9 (a)). And step 2
At 04, this image (subject frame) is stored in the memory 17. Next, the process proceeds to step 205, where the previous focus lens is driven to the nearest side by a predetermined amount, the subject distance is changed, and it is determined in step 206 whether the same operation has been repeated a predetermined number of times. .

【0030】所定回数行われていない場合には、ステッ
プ201へ動作は戻り、同様の動作が繰り返し行われ
る。この実施例においては、図9に示すように(a) 〜
(d) の5回行われる場合を想定しており、よって、各ル
ープにおいて抽出された被写体枠は順次メモリ17に合
せて記憶されることになる。
If the operation has not been performed the predetermined number of times, the operation returns to step 201, and the same operation is repeated. In this embodiment, as shown in FIG.
(d) is assumed to be performed five times. Therefore, the subject frames extracted in each loop are sequentially stored in the memory 17.

【0031】所定回数フォーカスレンズが駆動され、所
定回数分の被写体枠を生成したのち、ステップ207へ
と動作は進み、ここではメモリ17に記憶されている被
写体枠の合成が行われ、次のステップ208において、
合成された被写体枠の画像はファインダ制御回路5に供
給され、映像信号と合成されて表示装置6に表示される
(図10(a) 参照)。
After the focus lens is driven a predetermined number of times to generate a subject frame for a predetermined number of times, the operation proceeds to step 207, where the subject frames stored in the memory 17 are combined, and the next step is performed. At 208,
The combined image of the subject frame is supplied to the finder control circuit 5, where it is combined with the video signal and displayed on the display device 6 (see FIG. 10A).

【0032】この時、撮影者は前記電子ビューファイン
ダ等の表示装置6上の像をファインダレンズ7を通して
観察しているが、その際の撮影者の眼球の動きが前述し
た様に視線検出光学系8を通して検出器9で検出され、
この検出された眼球の像に基づいて視線抽出回路11に
て視線の位置検出がなされており、ステップ209にお
いて、被写体抽出スイッチがONされることによりステ
ップ210へ進み、ここで前記視線抽出回路11にて生
成された視線情報が被写体情報制御回路12へと供給さ
れる。そして、ステップ211において、被写体情報制
御回路12にて前記視線情報と被写体抽出回路3からの
領域情報から主要な被写体が決定され(図10(b) 参
照)、被写体領域が確定される。
At this time, the photographer observes the image on the display device 6 such as the electronic view finder through the finder lens 7, and the movement of the photographer's eyeball at that time is, as described above, the visual axis detection optical system. Detected by the detector 9 through 8,
The gaze position is detected by the gaze extraction circuit 11 based on the detected eyeball image. In step 209, the subject extraction switch is turned on to proceed to step 210, where the gaze extraction circuit 11 Is supplied to the subject information control circuit 12. In step 211, a main subject is determined by the subject information control circuit 12 from the line-of-sight information and the area information from the subject extraction circuit 3 (see FIG. 10B), and the subject area is determined.

【0033】前述した様に被写体情報制御回路12にて
被写体領域が確定した後はステップ212へ進み、主要
の被写体情報を生成する。そして、次のステップ109
において、この主要被写体情報に基づいて撮影レンズ駆
動回路14によって撮影レンズ1を駆動したり、撮像素
子駆動回路15によって撮像素子2の駆動を行う。
After the subject area is determined by the subject information control circuit 12 as described above, the flow advances to step 212 to generate main subject information. Then, the next step 109
, The photographing lens 1 is driven by the photographing lens drive circuit 14 based on the main subject information, and the image pickup device 2 is driven by the image pickup device drive circuit 15.

【0034】また、主被写体が抽出した位置より動いた
場合には、被写体抽出回路3からの領域情報に基づき追
従するように選択されると共に、追従して得られる主被
写体情報に基づいて、撮影レンズ駆動回路14によって
撮影レンズ1の駆動が、又撮像素子駆動回路15によっ
て撮像素子2の駆動が、それぞれ継続される。
When the main subject moves from the extracted position, it is selected to follow based on the area information from the subject extracting circuit 3, and the photographing is performed based on the main subject information obtained by following. The driving of the photographing lens 1 by the lens driving circuit 14 and the driving of the imaging element 2 by the imaging element driving circuit 15 are continued.

【0035】なお、第1の実施例と同様、複数の中より
主被写体を選択する方法としては、視線の注視している
位置を計測し、その頻度の高い位置を撮影者の最も注視
している位置と自動的に判断し、その位置を視線情報と
して、被写体情報制御回路12が主被写体を自動的に決
定するような構成であっても良い。また、被写体を抽出
するための撮像信号が、ボケ幅ではなく輝度信号や色信
号による場合でも、フォーカスの合っている時がコント
ラストが良くなるので、同様な方法で被写体を抽出する
ことができる。
As in the first embodiment, as a method of selecting a main subject from among a plurality of objects, a position where a gaze is gazed is measured, and a position with a high frequency of gaze is most closely watched by the photographer. The configuration may be such that the position is automatically determined and the position is regarded as the line-of-sight information, and the object information control circuit 12 automatically determines the main object. Further, even when the imaging signal for extracting the subject is not a blur width but a luminance signal or a color signal, the contrast is improved when the subject is in focus, so that the subject can be extracted by the same method.

【0036】(第3の実施例)図11は本発明の第3の
実施例における撮影装置を示すブロック図であり、図1
及び図7と同じ部分は同一符合を付してある。
(Third Embodiment) FIG. 11 is a block diagram showing a photographing apparatus according to a third embodiment of the present invention.
The same parts as those in FIG. 7 are denoted by the same reference numerals.

【0037】この第3の実施例では、画面上で撮影者の
注視する部分の映像信号に基づいて被写体の領域を抽出
するようにしたものであり、図13を用いて図12のフ
ローチャートにしたがって動作説明を行う。
In the third embodiment, an area of a subject is extracted based on a video signal of a part of the screen that the photographer gazes at, and FIG. 13 is used in accordance with the flowchart of FIG. The operation will be described.

【0038】 撮影者が被写体を抽出する状態になる
と、ステップ301において、被写体情報制御回路12
よりファインダ制御回路5に視線の位置を表示装置6へ
表示するべく指示がなされ、これによりファインダ制御
回路5の働きにより、視線抽出回路11からの視線情報
に基づいた位置にカーソルが合成されて表示装置6に表
示される(図13(a) →(b) 参照)。次のステップ30
2においては、被写体抽出スイッチがONされているか
否かの判別が行われ、ONが判別されることによりステ
ップ303へ進み、ここでは先の表示を停止する。次の
ステップ304においては、被写体抽出回路3により被
写体抽出スイッチがONになった時の視線情報が検出さ
れ、ステップ305においては、前記視線情報、つまり
撮影者の注視する部分の映像信号に基づいて被写体の領
域を抽出し、続くステップ306において、被写体の抽
出が成功したか否かの判別がなされる。被写体の抽出が
成功しなかった場合には、同様の動作を行うべくステッ
プ301へ戻り、成功した場合はステップ307へと進
む。
When the photographer is ready to extract a subject, in step 301, the subject information control circuit 12
The finder control circuit 5 is instructed to display the position of the line of sight on the display device 6. With the operation of the finder control circuit 5, the cursor is synthesized at the position based on the line of sight information from the line of sight extraction circuit 11 and displayed. It is displayed on the device 6 (see FIGS. 13A to 13B). Next Step 30
In step 2, it is determined whether or not the subject extraction switch is ON. If the switch is ON, the process proceeds to step 303, where the previous display is stopped. In the next step 304, the line-of-sight information when the object extraction switch is turned on is detected by the object extraction circuit 3, and in step 305, the line-of-sight information, that is,
The area of the subject is determined based on the video signal of the part watched by the photographer.
A region is extracted, and in a succeeding step 306, it is determined whether or not the extraction of the subject is successful. If the extraction of the subject is not successful, the process returns to step 301 to perform the same operation. If the extraction is successful, the process proceeds to step 307.

【0039】ステップ307においては、視線位置近傍
の撮像信号に基づいて被写体領域が設定され、この領域
情報が被写体情報制御回路12へ供給され、次のステッ
プ308において、被写体情報制御回路12により領域
情報に基づいて被写体領域情報が生成され(図13(c)
参照)、撮影レンズ駆動回路14や撮像素子駆動回路1
5へ供給されてこれらが駆動される。
In step 307, a subject area is set based on the image signal near the line of sight, and this area information is supplied to the subject information control circuit 12. In the next step 308, the subject information control circuit 12 13 (c), subject area information is generated based on
), The photographing lens drive circuit 14 and the image sensor drive circuit 1
5 to be driven.

【0040】また、主被写体が抽出した位置より動いた
場合には、被写体抽出回路3からの領域情報に基づき追
従するように選択されると共に、追従して得られる主被
写体情報に基づいて、撮影レンズ駆動回路14によって
撮影レンズ1の駆動が、又撮像素子駆動回路15によっ
て撮像素子2の駆動が、それぞれ継続される。
When the main subject moves from the extracted position, the main subject is selected to follow based on the area information from the subject extracting circuit 3 and is photographed based on the main subject information obtained by following. The driving of the photographing lens 1 by the lens driving circuit 14 and the driving of the imaging element 2 by the imaging element driving circuit 15 are continued.

【0041】以上の各実施例によれば、画像情報より被
写体が複数である場合にはそれぞれの領域を設定し、撮
影者の視線情報に基づいてその領域中より主被写体の領
域を選択するようにしているため、特別な操作をするこ
となく、撮影者の意図する被写体領域を、言換えれば撮
影制御の対象と成るべく領域をリアルタイムで抽出する
ことができ、よって、例えば従来のように意図しない被
写体にピントがあったり、不適性露出となったりするこ
とがなくる。
According to each of the above embodiments, when there are a plurality of subjects from the image information, each region is set, and the region of the main subject is selected from the regions based on the gaze information of the photographer. Therefore, it is possible to extract a subject area intended by the photographer in real time without performing any special operation, in other words, an area to be a target of shooting control. A subject that is not focused will not be in focus or will not be improperly exposed.

【0042】(変形例)以上の各実施例では、複数の被
写体領域中より主被写体領域を選択するために、視線検
知装置からの視線情報を用いているが、これに限定され
るものではなく、外部よりダイアル操作等により画面内
に表示したカーソル位置を可変して行うようにしても良
い。
(Modification) In each of the above embodiments, the line of sight information from the line of sight detection device is used to select the main object region from a plurality of object regions. However, the present invention is not limited to this. Alternatively, the cursor position displayed on the screen may be changed by an external dial operation or the like.

【0043】[0043]

【発明の効果】 以上説明したように、請求項1に記載
した本発明によれば、画像信号を出力する画像センサ
と、前記画像信号に基づいて対象物の存在する領域を抽
出する抽出手段と、該抽出手段により抽出された領域の
中から少なくとも1つを選択する領域選択手段とを有す
ることにより、前記抽出手段により抽出された領域が複
数ある場合に、意図する領域を選択することができる。
According to the first aspect of the present invention, as described above.
According to the present invention, an image sensor that outputs an image signal is provided.
And extracting the area where the object exists based on the image signal.
Extraction means for extracting, and an area extracted by the extraction means.
Region selecting means for selecting at least one of the regions
Thus, the area extracted by the extraction means is duplicated.
If there are, the intended area can be selected.

【0044】 また、請求項2に記載した本発明によれ
ば、画像信号を出力する画像センサと、前記画像信号に
基づいて対象物の存在する領域を抽出する抽出手段と、
視線を検出する視線検出手段と、該視線検出手段の視線
検出結果に基づいて、前記抽出手段により抽出された領
域の中から少なくとも1つを選択する領域選択手段とを
有することにより、前記抽出手段により抽出された領域
が複数ある場合に、意図する領域を選択することができ
る。
According to the second aspect of the present invention,
An image sensor that outputs an image signal;
Extracting means for extracting an area where the object exists based on the
Gaze detection means for detecting gaze, and gaze of the gaze detection means
Based on the detection result, the area extracted by the extraction means
Area selecting means for selecting at least one of the areas
By having, the area extracted by the extraction means
If there is more than one, you can select the intended area
You.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例における撮影装置のブロ
ック図である。
FIG. 1 is a block diagram of a photographing apparatus according to a first embodiment of the present invention.

【図2】図1の被写体抽出回路における動作を説明する
ための図である。
FIG. 2 is a diagram for explaining an operation in the subject extraction circuit of FIG. 1;

【図3】図1の視線検出装置における視線検知方法につ
いて説明するための図である。
3 is a diagram for explaining to For additional details about visual axis detecting method in the visual axis detection apparatus of FIG.

【図4】本発明の第1の実施例における撮影装置の主要
部分の動作を示すフローチャートである。
FIG. 4 is a flowchart illustrating an operation of a main part of the photographing apparatus according to the first embodiment of the present invention.

【図5】図4の動作説明を助けるための図である。FIG. 5 is a diagram to help explain the operation of FIG. 4;

【図6】同じく図4の動作説明を助けるための図であ
る。
6 is a diagram for assisting the explanation of the operation of FIG. 4;

【図7】本発明の第2の実施例における撮影装置のブロ
ック図である。
FIG. 7 is a block diagram of a photographing apparatus according to a second embodiment of the present invention.

【図8】本発明の第2の実施例における撮影装置の主要
部分の動作を示すフローチャートである。
FIG. 8 is a flowchart illustrating an operation of a main part of the photographing apparatus according to the second embodiment of the present invention.

【図9】図8の動作説明を助けるための図である。FIG. 9 is a diagram for helping to explain the operation of FIG. 8;

【図10】同じく図8の動作説明を助けるための図であ
る。
FIG. 10 is a diagram for assisting the explanation of the operation of FIG. 8;

【図11】本発明の第2の実施例における撮影装置のブ
ロック図である。
FIG. 11 is a block diagram of a photographing apparatus according to a second embodiment of the present invention.

【図12】本発明の第3の実施例における撮影装置の主
要部分の動作を示すフローチャートである。
FIG. 12 is a flowchart illustrating an operation of a main part of the photographing apparatus according to a third embodiment of the present invention.

【図13】図11の動作説明を助けるための図である。FIG. 13 is a diagram to help explain the operation of FIG. 11;

【符合の説明】[Description of sign]

1 撮影レンズ 2 撮像素子 3 被写体抽出回路 4 被写体枠生成回路 5 ファインダ制御回路 8 視線検出光学系 9 検出器 11 視線抽出回路 12 被写体情報制御回路 13 映像信号変換回路 17 メモリREFERENCE SIGNS LIST 1 photographing lens 2 image pickup device 3 subject extraction circuit 4 subject frame generation circuit 5 finder control circuit 8 visual axis detection optical system 9 detector 11 visual axis extraction circuit 12 subject information control circuit 13 video signal conversion circuit 17 memory

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像信号を出力する画像センサと、前記
画像信号に基づいて対象物の存在する領域を抽出する抽
出手段と、該抽出手段により抽出された領域の中から少
なくとも1つを選択する領域選択手段とを有することを
特徴とする光学機器。
An image sensor for outputting an image signal;
Extraction to extract the area where the object exists based on the image signal
Output means and a small number of areas extracted by the extraction means.
At least one area selecting means for selecting one.
Characteristic optical equipment.
【請求項2】 画像信号を出力する画像センサと、前記
画像信号に基づいて対象物の存在する領域を抽出する抽
出手段と、視線を検出する視線検出手段と、該視線検出
手段の視線検出結果に基づいて、前記抽出手段により抽
出された領域の中から少なくとも1つを選択する領域選
択手段とを有することを特徴とする光学機器。
2. An image sensor for outputting an image signal;
Extraction to extract the area where the object exists based on the image signal
Output means, line-of-sight detecting means for detecting a line of sight, and line-of-sight detection
Extraction means based on the line-of-sight detection result of
Area selection for selecting at least one of the displayed areas
An optical device, comprising:
【請求項3】 前記抽出手段は、対象物の大きさに相当
する領域を抽出することを特徴とする請求項1又は2記
載の光学機器。
3. The method according to claim 2, wherein the extracting means corresponds to a size of the object.
3. An area to be extracted is extracted.
On-board optical equipment.
JP15416592A 1992-05-22 1992-05-22 Optical equipment Expired - Fee Related JP3192483B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15416592A JP3192483B2 (en) 1992-05-22 1992-05-22 Optical equipment
US08/442,558 US6118484A (en) 1992-05-22 1995-05-16 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15416592A JP3192483B2 (en) 1992-05-22 1992-05-22 Optical equipment

Publications (2)

Publication Number Publication Date
JPH05328197A JPH05328197A (en) 1993-12-10
JP3192483B2 true JP3192483B2 (en) 2001-07-30

Family

ID=15578257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15416592A Expired - Fee Related JP3192483B2 (en) 1992-05-22 1992-05-22 Optical equipment

Country Status (1)

Country Link
JP (1) JP3192483B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6388707B1 (en) 1994-04-12 2002-05-14 Canon Kabushiki Kaisha Image pickup apparatus having means for appointing an arbitrary position on the display frame and performing a predetermined signal process thereon
US6078751A (en) 1994-04-27 2000-06-20 Canon Kabushiki Kaisha Image-shake correcting device
US6396540B1 (en) 1995-09-20 2002-05-28 Canon Kabushiki Kaisha Video camera system with interchangeable lens assembly
JP5106271B2 (en) * 2008-06-27 2012-12-26 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
CN102265597B (en) 2008-12-26 2013-10-09 松下电器产业株式会社 Image pickup equipment
JP5331128B2 (en) 2008-12-26 2013-10-30 パナソニック株式会社 Imaging device
JP6862202B2 (en) * 2017-02-08 2021-04-21 キヤノン株式会社 Image processing device, imaging device and control method

Also Published As

Publication number Publication date
JPH05328197A (en) 1993-12-10

Similar Documents

Publication Publication Date Title
JPH0846846A (en) Image pickup device
JP2011097645A (en) Image synthesizing apparatus, imaging apparatus, and image synthesizing method
JP3102825B2 (en) camera
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP3192483B2 (en) Optical equipment
US5797046A (en) Visual axis controllable optical apparatus including a visual axis detecting device for detecting a visual axis
JP2024003037A (en) Electronic apparatus, method for controlling electronic apparatus, program, and storage medium
JP2010177860A (en) Image composition apparatus, imaging apparatus, and image composition method
JP3297504B2 (en) Optical device
JP3109870B2 (en) Video camera
JPH0556924A (en) Video camera
JPH0564061A (en) Video camera
JP7358130B2 (en) Electronic equipment and its control method
JP2952071B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JP4594402B2 (en) Auto focus camera
JP2952072B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JP3071910B2 (en) Video camera
JP2952070B2 (en) Optical line-of-sight detecting device and optical apparatus having line-of-sight detecting means
JPH06148511A (en) Line-of-sight detector and optical device with the same
JP2023178092A (en) Information processing apparatus, imaging apparatus, information processing method, and method for controlling imaging apparatus
JP3563895B2 (en) Imaging device
JP2023087377A (en) Visual line detection device
JPH05183800A (en) Camera
CN114650350A (en) Gaze detection apparatus, gaze detection method, and computer-readable storage medium
JPH05145830A (en) Video camera

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees