JPH05288982A - 注視点選択装置 - Google Patents
注視点選択装置Info
- Publication number
- JPH05288982A JPH05288982A JP4088631A JP8863192A JPH05288982A JP H05288982 A JPH05288982 A JP H05288982A JP 4088631 A JP4088631 A JP 4088631A JP 8863192 A JP8863192 A JP 8863192A JP H05288982 A JPH05288982 A JP H05288982A
- Authority
- JP
- Japan
- Prior art keywords
- area
- gazing point
- subroutine
- tracking
- substituted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2213/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B2213/02—Viewfinders
- G03B2213/025—Sightline detection
Landscapes
- Focusing (AREA)
- Viewfinders (AREA)
- Lenses (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
(57)【要約】
【目的】この発明の注視点選択装置にあっては、画面内
の意図する領域を簡単に選択するために、撮影者の注視
点を検出して動体検出ゾーン内の追尾被写体を判断して
これを特定することを特徴とする。 【構成】ビデオカメラ10は被写体像を映像信号に光電
変換すると共に、Y/C分離回路11、A/D変換回路
12及びビデオRAM13aを介して使用者の注視点を
表す注視点信号を入力する。CPU14は、上記映像信
号の中から上記注視点信号に基いて比較的広い第1領域
を選択し、またこの第1領域を更に複数の領域に分割す
る。そして、CPU14、ビデオRAM13a、13
b、RAM15及びROM16により、上記分割された
複数の領域から、動体が存在するか若しくは最大コント
ラスト領域を第2の領域として検出する。
の意図する領域を簡単に選択するために、撮影者の注視
点を検出して動体検出ゾーン内の追尾被写体を判断して
これを特定することを特徴とする。 【構成】ビデオカメラ10は被写体像を映像信号に光電
変換すると共に、Y/C分離回路11、A/D変換回路
12及びビデオRAM13aを介して使用者の注視点を
表す注視点信号を入力する。CPU14は、上記映像信
号の中から上記注視点信号に基いて比較的広い第1領域
を選択し、またこの第1領域を更に複数の領域に分割す
る。そして、CPU14、ビデオRAM13a、13
b、RAM15及びROM16により、上記分割された
複数の領域から、動体が存在するか若しくは最大コント
ラスト領域を第2の領域として検出する。
Description
【0001】
【産業上の利用分野】この発明は注視点選択装置に関
し、特に画面の広い領域から焦点調節等のための任意の
領域を指定する注視点選択装置に関するものである。
し、特に画面の広い領域から焦点調節等のための任意の
領域を指定する注視点選択装置に関するものである。
【0002】
【従来の技術】従来、カメラ等に於いて、画面の広い領
域から簡単に焦点調節等のための任意の領域を指定する
ための装置が、種々開発されている。そして、特に動き
のある被写体に対しては、使用者が手動によってカメラ
の映像内の狭い領域をすばやく指定して動体の領域を判
別していた。また、使用者の視線方向を検知することに
より、注視点を検出するというものもあった。
域から簡単に焦点調節等のための任意の領域を指定する
ための装置が、種々開発されている。そして、特に動き
のある被写体に対しては、使用者が手動によってカメラ
の映像内の狭い領域をすばやく指定して動体の領域を判
別していた。また、使用者の視線方向を検知することに
より、注視点を検出するというものもあった。
【0003】そして、例えば特願平2−235074号
によれば、測距視野選択装置に関する技術が開示されて
いる。これは、画面を複数の領域に分割し、その中から
1つの領域を選択する手段と、選択された領域を表すフ
ォーカスフレーム表示手段と、フォーカスフレーム内に
存在する被写体に焦点を合わせる合焦手段とより成るカ
メラに於いて、上記フォーカスフレームをフォーカスフ
レーム選択部材と、抵抗値比較手段とフォーカスフレー
ムの表示を移動させる手段とで構成し、所望のフォーカ
スフレームの存在する方向を検出すると同時にフォーカ
スフレームを該方向に移動して表示させるものである。
また、特開平3−177828号公報には、視線検出装
置の視線検出方向の改良に関する技術が開示されてい
る。
によれば、測距視野選択装置に関する技術が開示されて
いる。これは、画面を複数の領域に分割し、その中から
1つの領域を選択する手段と、選択された領域を表すフ
ォーカスフレーム表示手段と、フォーカスフレーム内に
存在する被写体に焦点を合わせる合焦手段とより成るカ
メラに於いて、上記フォーカスフレームをフォーカスフ
レーム選択部材と、抵抗値比較手段とフォーカスフレー
ムの表示を移動させる手段とで構成し、所望のフォーカ
スフレームの存在する方向を検出すると同時にフォーカ
スフレームを該方向に移動して表示させるものである。
また、特開平3−177828号公報には、視線検出装
置の視線検出方向の改良に関する技術が開示されてい
る。
【0004】更に、特開平2−96707号公報には、
被写体パターンを入力した時に被写体要部の位置を示す
信号を出力するように学習されたネットワークを有し
て、このネットワークの出力により複数の光電変換素子
の出力の中から被写体主要部の信号を選択し、それに基
いて焦点が検出される露出制御装置に関する技術が開示
されている。
被写体パターンを入力した時に被写体要部の位置を示す
信号を出力するように学習されたネットワークを有し
て、このネットワークの出力により複数の光電変換素子
の出力の中から被写体主要部の信号を選択し、それに基
いて焦点が検出される露出制御装置に関する技術が開示
されている。
【0005】
【発明が解決しようとする課題】しかしながら、ジョイ
スティック等により、使用者が手動操作によってカメラ
の映像内の画面の広い領域から任意の領域を選択する場
合、特に動きのある被写体に対してすばやく任意の領域
を選択するのは大変困難であり、熟練を要するものであ
る。また、視線検知による方法では、精度良く画面の任
意領域を選択するのが難しい。
スティック等により、使用者が手動操作によってカメラ
の映像内の画面の広い領域から任意の領域を選択する場
合、特に動きのある被写体に対してすばやく任意の領域
を選択するのは大変困難であり、熟練を要するものであ
る。また、視線検知による方法では、精度良く画面の任
意領域を選択するのが難しい。
【0006】一方、ニューラルネットワーク等により、
カメラの映像内の画面の広い領域から自動的に主要被写
体を認識する場合、主要被写体の候補が多数存在して認
識が困難であるという問題がある。
カメラの映像内の画面の広い領域から自動的に主要被写
体を認識する場合、主要被写体の候補が多数存在して認
識が困難であるという問題がある。
【0007】この発明は上記課題に鑑みてなされたもの
で、画面の広い領域から使用者の意図する注視点を簡単
に選択することができる注視点選択装置を提供すること
を目的とする。
で、画面の広い領域から使用者の意図する注視点を簡単
に選択することができる注視点選択装置を提供すること
を目的とする。
【0008】
【課題を解決するための手段】すなわちこの発明は、被
写体像を映像信号に変換する光電変換手段と、使用者の
注視点を表す注視点信号を入力する入力手段と、上記映
像信号の中から上記注視点信号に基いて比較的広い第1
領域を選択する選択手段と、上記第1領域を更に複数の
領域に分割する分割手段と、この分割手段によって分割
された複数の領域から動体の存在するか若しくは最大コ
ントラスト領域を第2の領域として検出する検出手段と
を具備することを特徴とする。
写体像を映像信号に変換する光電変換手段と、使用者の
注視点を表す注視点信号を入力する入力手段と、上記映
像信号の中から上記注視点信号に基いて比較的広い第1
領域を選択する選択手段と、上記第1領域を更に複数の
領域に分割する分割手段と、この分割手段によって分割
された複数の領域から動体の存在するか若しくは最大コ
ントラスト領域を第2の領域として検出する検出手段と
を具備することを特徴とする。
【0009】
【作用】この発明の注視点選択装置にあっては、被写体
像が光電変換手段で映像信号に変換され、使用者の注視
点を表す注視点信号が入力手段で入力される。そして、
上記映像信号の中から上記注視点信号に基いて、比較的
広い第1領域が選択手段で選択手段される。また、上記
第1領域は、分割手段によって更に複数の領域に分割さ
れる。この分割手段によって分割された複数の領域か
ら、動体が存在するか若しくは最大コントラスト領域が
第2の領域として検出手段によって検出される。
像が光電変換手段で映像信号に変換され、使用者の注視
点を表す注視点信号が入力手段で入力される。そして、
上記映像信号の中から上記注視点信号に基いて、比較的
広い第1領域が選択手段で選択手段される。また、上記
第1領域は、分割手段によって更に複数の領域に分割さ
れる。この分割手段によって分割された複数の領域か
ら、動体が存在するか若しくは最大コントラスト領域が
第2の領域として検出手段によって検出される。
【0010】
【実施例】以下、図面を参照してこの発明の実施例を説
明する。図1は、この発明の一実施例で、注視点選択装
置が適用されたカメラシステムの構成を示すブロック図
である。
明する。図1は、この発明の一実施例で、注視点選択装
置が適用されたカメラシステムの構成を示すブロック図
である。
【0011】同図に於いて、ビデオカメラ10から出力
されるNTSCコンポジット信号の一方は、Y/C分離
回路11で輝度信号が分離され、輝度信号のみA/D変
換回路12でAD変換されてビデオRAM13aに入力
される。CPU14は、ビデオRAM13a、13b、
14、RAM15及びROM16と結合しているもの
で、システム全体の制御、演算を行う。
されるNTSCコンポジット信号の一方は、Y/C分離
回路11で輝度信号が分離され、輝度信号のみA/D変
換回路12でAD変換されてビデオRAM13aに入力
される。CPU14は、ビデオRAM13a、13b、
14、RAM15及びROM16と結合しているもの
で、システム全体の制御、演算を行う。
【0012】上記ROM16には、予め制御の手順がプ
ログラムされている。また、RAM15は、演算途中の
データの記憶、演算結果のデータの記憶に用いられる。
更に、ビデオRAM13bは、CPU14で演算された
注視点の位置を表示したり追尾マークの表示データを記
憶するものである。
ログラムされている。また、RAM15は、演算途中の
データの記憶、演算結果のデータの記憶に用いられる。
更に、ビデオRAM13bは、CPU14で演算された
注視点の位置を表示したり追尾マークの表示データを記
憶するものである。
【0013】ビデオRAM13bに記憶された表示デー
タは、CRTコントローラ17のタイミングに従ってゲ
ート18を通り、スーパーインポーザ19の一方の入力
となる。このスーパーインポーザ19は、ビデオカメラ
10の映像信号に、ゲート18の出力である注視点の位
置や追尾マーク等を重ねて表示するための装置である。
スーパーインポーザ19の出力は、表示部20に表示さ
れる。
タは、CRTコントローラ17のタイミングに従ってゲ
ート18を通り、スーパーインポーザ19の一方の入力
となる。このスーパーインポーザ19は、ビデオカメラ
10の映像信号に、ゲート18の出力である注視点の位
置や追尾マーク等を重ねて表示するための装置である。
スーパーインポーザ19の出力は、表示部20に表示さ
れる。
【0014】尚、CPU14に入力される信号s1は、
カメラの操作者が注視点を移動させるための信号であ
る。また、スイッチSWは、注視点を保持し、追尾を開
始するためのスイッチである。
カメラの操作者が注視点を移動させるための信号であ
る。また、スイッチSWは、注視点を保持し、追尾を開
始するためのスイッチである。
【0015】図2は、カメラの操作者が注視点を選択し
てから追尾するまでの表示例を示したものである。図2
(a)は、操作者が物体OBJの近傍に注視点マークP
“+”を移動させた状態を示した図である。ここで、ス
イッチSW(図1参照)がオンされると、同図(a)の
“+”マークを中心に、図2(b)に示されるように広
い領域の動体検出ゾーンがスーパーインポーズされる。
次いで、後に詳述する演算により動体領域が特定されて
追尾が開始される。尚、同図(b)の表示はなくともよ
いものである。更に、図2(c)は、後述する追尾ゾー
ンの表す領域に、追尾マークがスーパーインポーズされ
た状態を示したものである。
てから追尾するまでの表示例を示したものである。図2
(a)は、操作者が物体OBJの近傍に注視点マークP
“+”を移動させた状態を示した図である。ここで、ス
イッチSW(図1参照)がオンされると、同図(a)の
“+”マークを中心に、図2(b)に示されるように広
い領域の動体検出ゾーンがスーパーインポーズされる。
次いで、後に詳述する演算により動体領域が特定されて
追尾が開始される。尚、同図(b)の表示はなくともよ
いものである。更に、図2(c)は、後述する追尾ゾー
ンの表す領域に、追尾マークがスーパーインポーズされ
た状態を示したものである。
【0016】図3は、注視点のマーク(図2の“+”)
を移動させるための部材の配置を示したものである。こ
れは銀塩カメラへの応用例であり、その詳細は本出願人
が先に出願した特願平2−235074号に詳しく述べ
てある。
を移動させるための部材の配置を示したものである。こ
れは銀塩カメラへの応用例であり、その詳細は本出願人
が先に出願した特願平2−235074号に詳しく述べ
てある。
【0017】図3に於いて、カメラ本体21のグリップ
22上に、注視点移動部材23が配置されている。そし
て、この注視点移動部材23の中心に注視点選択部材2
4(図1のスーパーインポーザ19に相当する)が配置
されている。注視点選択部材24はレリーズ釦を兼用し
ている。
22上に、注視点移動部材23が配置されている。そし
て、この注視点移動部材23の中心に注視点選択部材2
4(図1のスーパーインポーザ19に相当する)が配置
されている。注視点選択部材24はレリーズ釦を兼用し
ている。
【0018】また、図4及び図5は、視線方向を検出
し、それにより画面の任意の領域を指示するための原理
図である。これらについて、例えば特開平2−5号公報
や特開平2−65834号公報、或いは電子通信学会技
術報告PRU88−73、PP.17−24に詳しく述
べられている。これらは、眼の瞳孔と角膜反射像(第1
プリキンエ像)、または虹彩と角膜反射像の組合わせか
ら視線方向を検出するもので、注視点を指示する方法と
して注目されている。
し、それにより画面の任意の領域を指示するための原理
図である。これらについて、例えば特開平2−5号公報
や特開平2−65834号公報、或いは電子通信学会技
術報告PRU88−73、PP.17−24に詳しく述
べられている。これらは、眼の瞳孔と角膜反射像(第1
プリキンエ像)、または虹彩と角膜反射像の組合わせか
ら視線方向を検出するもので、注視点を指示する方法と
して注目されている。
【0019】図4に於いて、25は赤外LEDであり、
この赤外LED25からレンズ26を介して平行光束が
作られる。また、図中27、28はダイクロイックミラ
ー、29は撮影者の眼、30はCCD、31はレンズで
ある。
この赤外LED25からレンズ26を介して平行光束が
作られる。また、図中27、28はダイクロイックミラ
ー、29は撮影者の眼、30はCCD、31はレンズで
ある。
【0020】赤外LED25から発せられた赤外線は、
レンズ26、ダイクロイックミラー27、28を介して
眼29に入る。そして、眼29で反射された光は、ダイ
クロイックミラー28、27及びレンズ31を介してC
CD30で撮像され、上述した原理で視線方向が計算さ
れる。これにより、撮影レンズ32、ミラー33、マッ
ト34、コンデンサーレンズ35、ペンタプリズム36
及びダイクロイックミラー28を介して、撮影者が観測
する注視点の位置を検出することが可能となる。図5
は、眼の角膜反射像、瞳孔、虹彩の出力波形の一例を示
したものである。図6は、動体検出ゾーンとカメラの動
き検出領域の一例を示した図である。
レンズ26、ダイクロイックミラー27、28を介して
眼29に入る。そして、眼29で反射された光は、ダイ
クロイックミラー28、27及びレンズ31を介してC
CD30で撮像され、上述した原理で視線方向が計算さ
れる。これにより、撮影レンズ32、ミラー33、マッ
ト34、コンデンサーレンズ35、ペンタプリズム36
及びダイクロイックミラー28を介して、撮影者が観測
する注視点の位置を検出することが可能となる。図5
は、眼の角膜反射像、瞳孔、虹彩の出力波形の一例を示
したものである。図6は、動体検出ゾーンとカメラの動
き検出領域の一例を示した図である。
【0021】画面37内の動体検出ゾーン38は、更に
このゾーンの中が、後述するように複数ブロックに分割
され、この中から1つのブロックが選択され、追尾ゾー
ンに特定されるようになっている。選択されるブロック
は動体が最優先されるが、その場合、カメラが動いてい
るのか、物体が動いているのかの判別が課題となる。
尚、図中S1〜S4で示される領域は、カメラの動きを
判別するために設定した動きベクトル検出領域39〜4
2である。
このゾーンの中が、後述するように複数ブロックに分割
され、この中から1つのブロックが選択され、追尾ゾー
ンに特定されるようになっている。選択されるブロック
は動体が最優先されるが、その場合、カメラが動いてい
るのか、物体が動いているのかの判別が課題となる。
尚、図中S1〜S4で示される領域は、カメラの動きを
判別するために設定した動きベクトル検出領域39〜4
2である。
【0022】図7は、図6の動体検出ゾーン38を複数
のブロックに分割した例である。同図(a)〜(d)に
示されるように、各々がオーバラップするように、9ブ
ロックの追尾ゾーン(a11、a12、a13、a21、a22、
a23、a31、a32、a33)に分割され、それぞれの領域
の動きベクトルを検出することになる。
のブロックに分割した例である。同図(a)〜(d)に
示されるように、各々がオーバラップするように、9ブ
ロックの追尾ゾーン(a11、a12、a13、a21、a22、
a23、a31、a32、a33)に分割され、それぞれの領域
の動きベクトルを検出することになる。
【0023】これら9ブロックの追尾ゾーンのうち、1
つの追尾ゾーン内は図8に示されるように、16個の代
表点画素(P( 1,1)、P( 1,2)、…、P( 4,4))
で構成されている。
つの追尾ゾーン内は図8に示されるように、16個の代
表点画素(P( 1,1)、P( 1,2)、…、P( 4,4))
で構成されている。
【0024】また、図9は図8の中の1つの画素
(P11)が、5つの画素(P(0)、P(1)、
P(2)、P(3)、P(4))の平均値で表されること
を示す図である。この平均値は、数1の関係式のように
して求められる。
(P11)が、5つの画素(P(0)、P(1)、
P(2)、P(3)、P(4))の平均値で表されること
を示す図である。この平均値は、数1の関係式のように
して求められる。
【0025】
【数1】
【0026】図10は、この発明で採用された動きベク
トル(移動量と方向)の検出の原理を示す図である(参
考文献:テレビジョン学会技術報告Vol.11,N
o.3,PP.43−48,PP0E’87−12(M
ay,1987)。
トル(移動量と方向)の検出の原理を示す図である(参
考文献:テレビジョン学会技術報告Vol.11,N
o.3,PP.43−48,PP0E’87−12(M
ay,1987)。
【0027】動きベクトル検出法としては種々の方法が
あるが、精度スピードの点から、以下に述べる代表点マ
ッチングがたいへんすぐれている。これは画面上のいく
つかの画素(以下これを代表点と称する)に着目し、現
在の位置と所定時間後の位置の変化から、動きベクトル
を決定する方法である。
あるが、精度スピードの点から、以下に述べる代表点マ
ッチングがたいへんすぐれている。これは画面上のいく
つかの画素(以下これを代表点と称する)に着目し、現
在の位置と所定時間後の位置の変化から、動きベクトル
を決定する方法である。
【0028】図10の模式図に於いて、現在の代表点P
が同図(a)に示される位置にあるものとする。所定時
間後のこの代表点Pと最もレベルが一致する点を、同図
(b)のp1〜p9と比較することにより求める。ここで
は、その最もレベルが近い画素の位置へ代表点が移動し
たと判断し、該当するベクトルを動きベクトルと判断す
る。実際は精度を上げるため、代表点の数を増やしてい
る。
が同図(a)に示される位置にあるものとする。所定時
間後のこの代表点Pと最もレベルが一致する点を、同図
(b)のp1〜p9と比較することにより求める。ここで
は、その最もレベルが近い画素の位置へ代表点が移動し
たと判断し、該当するベクトルを動きベクトルと判断す
る。実際は精度を上げるため、代表点の数を増やしてい
る。
【0029】図11は、代表点配置の一例を示したもの
である。同図に於いて、水平方向に15ドットおきに3
4ポイント、垂直方向に15ライン毎に34ポイントの
代表点を配置している。尚、追尾ゾーンは、上述したよ
うに、4×4=16の代表点より構成される。また、ゾ
ーンB(追尾ゾーンAの動きベクトル検出範囲)は、水
平、垂直方向ともに±2ポイントに設定される。
である。同図に於いて、水平方向に15ドットおきに3
4ポイント、垂直方向に15ライン毎に34ポイントの
代表点を配置している。尚、追尾ゾーンは、上述したよ
うに、4×4=16の代表点より構成される。また、ゾ
ーンB(追尾ゾーンAの動きベクトル検出範囲)は、水
平、垂直方向ともに±2ポイントに設定される。
【0030】すなわち、図11で代表点Pの検出範囲
は、図示の如く計25ポイントとなる。また、図9で説
明したように、各ポイントに相当する画素のレベルは、
周囲4点の画素との加算平均を行うことにより、ローパ
スフィルタ効果をもたせている。これにより、エッジの
鋭い画像を得て、細いラインへの検出能力を高めてい
る。次に、図12乃至図21のフローチャートを参照し
て、同実施例の動作を説明する。
は、図示の如く計25ポイントとなる。また、図9で説
明したように、各ポイントに相当する画素のレベルは、
周囲4点の画素との加算平均を行うことにより、ローパ
スフィルタ効果をもたせている。これにより、エッジの
鋭い画像を得て、細いラインへの検出能力を高めてい
る。次に、図12乃至図21のフローチャートを参照し
て、同実施例の動作を説明する。
【0031】図12はこのカメラシステムの全体の制御
動作を説明するフローチャートである。同図に於いて、
先ず、注視点の設定が行われる(ステップS1)。ここ
で、CPU14は、注視点の座標を読取る。次に、設定
された注視点を中心にして、現時点に於ける動体検出ゾ
ーンと、カメラの動きベクトル検出ゾーン(図6及び図
11参照)の代表点のポイントのレベルが求められる
(これを基準像のロード及び代表点フィルタリングと称
するものとする)。次いで、所定時間(1/30se
c)後、同様にして上記と同領域の代表点ポイントのレ
ベルが求められる(これを参照像のロード及び代表点フ
ィルタリングと称するものとする)(ステップS2)。
動作を説明するフローチャートである。同図に於いて、
先ず、注視点の設定が行われる(ステップS1)。ここ
で、CPU14は、注視点の座標を読取る。次に、設定
された注視点を中心にして、現時点に於ける動体検出ゾ
ーンと、カメラの動きベクトル検出ゾーン(図6及び図
11参照)の代表点のポイントのレベルが求められる
(これを基準像のロード及び代表点フィルタリングと称
するものとする)。次いで、所定時間(1/30se
c)後、同様にして上記と同領域の代表点ポイントのレ
ベルが求められる(これを参照像のロード及び代表点フ
ィルタリングと称するものとする)(ステップS2)。
【0032】そして、iに0が初期設定される(ステッ
プS3)。ここで、iは図7に示された9つの追尾ゾー
ン(i=0〜8)と、カメラの動きベクトル検出ゾーン
(i=9〜12)の領域を表す変数である。次に、サブ
ルーチンCNTCALにて、i=0〜12の各領域のコ
ントラストが求められる(ステップS4)。各々の領域
は、図8に示されるように、16個の代表点から成る。
いま、それぞれの代表点を図8のようにP( 1,1)、P
( 1,2)、…、P( 4,4)とし、記述を簡単にするため
に、各々代表点の出力レベルも同じ記号P(i,j)で
表わすものとする。
プS3)。ここで、iは図7に示された9つの追尾ゾー
ン(i=0〜8)と、カメラの動きベクトル検出ゾーン
(i=9〜12)の領域を表す変数である。次に、サブ
ルーチンCNTCALにて、i=0〜12の各領域のコ
ントラストが求められる(ステップS4)。各々の領域
は、図8に示されるように、16個の代表点から成る。
いま、それぞれの代表点を図8のようにP( 1,1)、P
( 1,2)、…、P( 4,4)とし、記述を簡単にするため
に、各々代表点の出力レベルも同じ記号P(i,j)で
表わすものとする。
【0033】図13は、基準像のコントラスト計算を実
行するCNTCALのサブルーチンである。先ず、コン
トラストCNTの演算が、次のように行われる(ステッ
プA1)。すなわち、X方向のコントラストをCNT
X、Y方向のコントラストをCNTY、そしてコントラ
ストをCNTとすると、それぞれ数2、数3及び数4の
関係式のようになる。
行するCNTCALのサブルーチンである。先ず、コン
トラストCNTの演算が、次のように行われる(ステッ
プA1)。すなわち、X方向のコントラストをCNT
X、Y方向のコントラストをCNTY、そしてコントラ
ストをCNTとすると、それぞれ数2、数3及び数4の
関係式のようになる。
【0034】
【数2】
【0035】
【数3】
【0036】
【数4】
【0037】次にCNTが所定レベルC1と比較され
(ステップA2)、映像のコントラストが不足すると
き、すなわちCNT<C1のときは信頼度なしとして、
RLBTYにNGが代入される(ステップA3)。この
後、コントラスト演算のサブルーチンCNTCALから
リターンされる。
(ステップA2)、映像のコントラストが不足すると
き、すなわちCNT<C1のときは信頼度なしとして、
RLBTYにNGが代入される(ステップA3)。この
後、コントラスト演算のサブルーチンCNTCALから
リターンされる。
【0038】図12のフローチャートに戻り、信頼度変
数RLBTYが判別され(ステップS5)、RLBTY
=NGのときベクトルパターンVP(i)にNGが代入
される(ステップS6)。ここでVP(i)は、動きベ
クトルの種類をパターン分類するための変数であり、V
P(i)=NGとは動きベクトルを検出できないことを
意味する。
数RLBTYが判別され(ステップS5)、RLBTY
=NGのときベクトルパターンVP(i)にNGが代入
される(ステップS6)。ここでVP(i)は、動きベ
クトルの種類をパターン分類するための変数であり、V
P(i)=NGとは動きベクトルを検出できないことを
意味する。
【0039】そして、変数CNT(i)にCNTが代入
され(ステップS7)、i=12が判別される(ステッ
プS8)。ここで、i=12でなければiに1を加えた
後(ステップS9)、ステップS4に戻る。一方、ステ
ップS8に於いて、i=12であればコントラスト演算
(ステップS4〜S9)を終了する。
され(ステップS7)、i=12が判別される(ステッ
プS8)。ここで、i=12でなければiに1を加えた
後(ステップS9)、ステップS4に戻る。一方、ステ
ップS8に於いて、i=12であればコントラスト演算
(ステップS4〜S9)を終了する。
【0040】次に、更新回数の変数LOOPに0が設定
された後(ステップS10)、再び領域選択iに0が初
期設定される(ステップS11)。CPU14は、先ず
i=0に相当する領域の代表点の信号を選択すると、図
14に示されるサブルーチンVECTCALに於いて、
上記基準像と参照像との間で相関演算を行う(ステップ
S12)。
された後(ステップS10)、再び領域選択iに0が初
期設定される(ステップS11)。CPU14は、先ず
i=0に相当する領域の代表点の信号を選択すると、図
14に示されるサブルーチンVECTCALに於いて、
上記基準像と参照像との間で相関演算を行う(ステップ
S12)。
【0041】図14に於いて、いま基準像のP(i,
j)の位置(図8参照)に相当する信号レベルをPS
(i.j)、参照像の信号レベルをPR(i,j)とす
ると、相関値出力CORR(S)は数5の関係式の如く
なる(ステップB1)。
j)の位置(図8参照)に相当する信号レベルをPS
(i.j)、参照像の信号レベルをPR(i,j)とす
ると、相関値出力CORR(S)は数5の関係式の如く
なる(ステップB1)。
【0042】
【数5】 ここでH=0,1,2、V=0,1,2であり、H,V
はX方向、Y方向へのずらし量に相当する。
はX方向、Y方向へのずらし量に相当する。
【0043】次に、CORR(H,V)の極小値MIN
(CORR(H,V))が求められる。このときのHが
変数VECTHに、Vが変数VECTVに代入される。
そして、上述したように求められた領域iのコントラス
ト信号CNT(i)により、上記MIN(CORR
(H,V))が除算される(ステップB2)。2つの像
が真に一致したことにより、極小値MIN(CORR
(H,V))が求められるとき、MIN(CORR
(H,V))/CNT(i)は、所定の値βより小さく
なり、大きい程信頼度が悪くなることが実験的にも確認
されている。
(CORR(H,V))が求められる。このときのHが
変数VECTHに、Vが変数VECTVに代入される。
そして、上述したように求められた領域iのコントラス
ト信号CNT(i)により、上記MIN(CORR
(H,V))が除算される(ステップB2)。2つの像
が真に一致したことにより、極小値MIN(CORR
(H,V))が求められるとき、MIN(CORR
(H,V))/CNT(i)は、所定の値βより小さく
なり、大きい程信頼度が悪くなることが実験的にも確認
されている。
【0044】ここで、MIN(CORR(H,V))/
CNT(i)<βが判別され(ステップB3)、MIN
(CORR(H,V))/CNT(i)<βでないと
き、信頼度なしとして変数RLBTYにNGが代入され
る(ステップB4)。
CNT(i)<βが判別され(ステップB3)、MIN
(CORR(H,V))/CNT(i)<βでないと
き、信頼度なしとして変数RLBTYにNGが代入され
る(ステップB4)。
【0045】こうして、サブルーチンVECTCALか
らリターンされ、図12のステップ13へ進む。ここ
で、RLBTY=NGであれば、ベクトルパターンVP
(i)にNGが代入される(ステップS14)。
らリターンされ、図12のステップ13へ進む。ここ
で、RLBTY=NGであれば、ベクトルパターンVP
(i)にNGが代入される(ステップS14)。
【0046】次に、変数VH(i)に水平方向動きベク
トルVECTHが、変数VV(i)に垂直方向の動きベ
クトルVECTVが代入される(ステップS15)。そ
の後、全ての領域i=0〜12について、以上の動きベ
クトルの演算が終了したか否かが判別される(ステップ
S16)。終了していない場合は、i=12になるまで
iに1が加えられ(ステップS17)、ステップS12
に戻る。一方、上記ステップS16に於いてi=12で
あれば、次に各々の領域i=0〜12の動きベクトル
(VH(i),VV(i))を分類するためのサブルー
チンVECTPATが実行される(ステップS18)。
トルVECTHが、変数VV(i)に垂直方向の動きベ
クトルVECTVが代入される(ステップS15)。そ
の後、全ての領域i=0〜12について、以上の動きベ
クトルの演算が終了したか否かが判別される(ステップ
S16)。終了していない場合は、i=12になるまで
iに1が加えられ(ステップS17)、ステップS12
に戻る。一方、上記ステップS16に於いてi=12で
あれば、次に各々の領域i=0〜12の動きベクトル
(VH(i),VV(i))を分類するためのサブルー
チンVECTPATが実行される(ステップS18)。
【0047】図15は、動きベクトルのパターン分類プ
ログラムVECTPATのサブルーチンである。同図に
於いて、先ず領域を選択するための変数iに0が代入さ
れ(ステップC1)、またベクトルパターンの番号を表
す変数kに0が代入される(ステップC2)。次いで、
ベクトルパターンVP(i)がNGであるか否かが判別
され(ステップC3)、NGでなければVP(i)が本
来パターン分類としてあり得ない定数INITであるか
どうかが判別される(ステップC4)。
ログラムVECTPATのサブルーチンである。同図に
於いて、先ず領域を選択するための変数iに0が代入さ
れ(ステップC1)、またベクトルパターンの番号を表
す変数kに0が代入される(ステップC2)。次いで、
ベクトルパターンVP(i)がNGであるか否かが判別
され(ステップC3)、NGでなければVP(i)が本
来パターン分類としてあり得ない定数INITであるか
どうかが判別される(ステップC4)。
【0048】INITは、本プログラムには記されてい
ないが、図12のフローチャートの開始直後に初期設定
される値である。具体的には、INITは0〜12以外
の値であればよい。もし、VP(i)=INITである
ときは、VP(i)にkの値が代入される(ステップC
5)。次いで、変数jにi+1が代入され(ステップC
6)、VP(j)=NGでなく(ステップC7)、且つ
VP(j)=INIT(ステップC8)のとき、動きベ
クトルの差異|VH(i)−VH(j)|、|VV
(i)−VV(j)|が求められて、それぞれ変数ΔV
H、ΔVVに代入される(ステップC9)。
ないが、図12のフローチャートの開始直後に初期設定
される値である。具体的には、INITは0〜12以外
の値であればよい。もし、VP(i)=INITである
ときは、VP(i)にkの値が代入される(ステップC
5)。次いで、変数jにi+1が代入され(ステップC
6)、VP(j)=NGでなく(ステップC7)、且つ
VP(j)=INIT(ステップC8)のとき、動きベ
クトルの差異|VH(i)−VH(j)|、|VV
(i)−VV(j)|が求められて、それぞれ変数ΔV
H、ΔVVに代入される(ステップC9)。
【0049】ここで、ΔVH<α、且つΔVV<αのと
き(ステップC10)、ベクトル(VH(i),VV
(i))とベクトル(VH(j),VV(j)は同一ベ
クトルと判断されて、VP(j)にkが代入される(ス
テップC11)。次に、j=12であるか否かが判別さ
れ(ステップC12)、j=12でないときは、j+1
がjに代入され(ステップC13)、ステップC7に戻
って同様の演算が実行される。
き(ステップC10)、ベクトル(VH(i),VV
(i))とベクトル(VH(j),VV(j)は同一ベ
クトルと判断されて、VP(j)にkが代入される(ス
テップC11)。次に、j=12であるか否かが判別さ
れ(ステップC12)、j=12でないときは、j+1
がjに代入され(ステップC13)、ステップC7に戻
って同様の演算が実行される。
【0050】上記ステップC7でYES、ステップC8
でNO、ステップC10でNOの場合も、j=12であ
るか否かが判別され、j=12でないならば、jにj+
1が代入されて同様の演算が繰返される。
でNO、ステップC10でNOの場合も、j=12であ
るか否かが判別され、j=12でないならば、jにj+
1が代入されて同様の演算が繰返される。
【0051】ステップC12に於いて、j=12であれ
ば、次にベクトルパターンの種類を表す変数kにk+1
が代入される(ステップC14)。そして、i=12で
あれば(ステップC15)、本サブルーチンからリター
ンする。上記ステップC15に於いて、i=12でなけ
れば、変数iにi+1が代入されて(ステップC1
6)、再びステップC3に戻り、以上のループが繰返さ
れる。表1は、以上のループで実行される演算の具体例
を示したものである。
ば、次にベクトルパターンの種類を表す変数kにk+1
が代入される(ステップC14)。そして、i=12で
あれば(ステップC15)、本サブルーチンからリター
ンする。上記ステップC15に於いて、i=12でなけ
れば、変数iにi+1が代入されて(ステップC1
6)、再びステップC3に戻り、以上のループが繰返さ
れる。表1は、以上のループで実行される演算の具体例
を示したものである。
【0052】
【表1】
【0053】この例に示されるように、ベクトル(VH
(i),VV(i))が所定の誤差で一致していれば、
ベクトルパターンVP(i)には同一の番号が与えられ
る。そして、ベクトルパターンが異なる毎に順に、0,
1,2,…の数字が与えられる。また、VP(i)=N
Gはそのままである。
(i),VV(i))が所定の誤差で一致していれば、
ベクトルパターンVP(i)には同一の番号が与えられ
る。そして、ベクトルパターンが異なる毎に順に、0,
1,2,…の数字が与えられる。また、VP(i)=N
Gはそのままである。
【0054】VECTPATのサブルーチンの処理が終
了すると(ステップS18)、図16に示されるサブル
ーチンRECOGNGが実行される(ステップS1
9)。このサブルーチンでは、変数iに0が代入され
(ステップD1)、VP(i)=NGであれば(ステッ
プD2)、次にi=8であるか否かが判別される(ステ
ップD3)。ここで、i=8でなければiにi+1が代
入され(ステップD4)、その後ステップD2に戻る。
了すると(ステップS18)、図16に示されるサブル
ーチンRECOGNGが実行される(ステップS1
9)。このサブルーチンでは、変数iに0が代入され
(ステップD1)、VP(i)=NGであれば(ステッ
プD2)、次にi=8であるか否かが判別される(ステ
ップD3)。ここで、i=8でなければiにi+1が代
入され(ステップD4)、その後ステップD2に戻る。
【0055】上記ステップD3でi=8であれば、変数
RNGに1が代入される(ステップD5)。また、上記
ステップD2に於いてVP(i)=NGでなければ、変
数RNGに0が代入される(ステップD6)。
RNGに1が代入される(ステップD5)。また、上記
ステップD2に於いてVP(i)=NGでなければ、変
数RNGに0が代入される(ステップD6)。
【0056】すなわち、このサブルーチンは、動体検出
ゾーン(i=0〜8)の領域の全てのベクトルパターン
がNGのときにのみ、変数RNGに1が代入されるプロ
グラムである。
ゾーン(i=0〜8)の領域の全てのベクトルパターン
がNGのときにのみ、変数RNGに1が代入されるプロ
グラムである。
【0057】図12のフローチャートに戻り、ステップ
S20に於いて、RNG=1のとき、追尾不能の表示が
行われる(ステップS21)。一方、上記ステップS2
0にてRNG=1でないときは、次にサブルーチンRE
COGPATNUMが実行される(ステップS22)。
S20に於いて、RNG=1のとき、追尾不能の表示が
行われる(ステップS21)。一方、上記ステップS2
0にてRNG=1でないときは、次にサブルーチンRE
COGPATNUMが実行される(ステップS22)。
【0058】図17に示されるように、このプログラム
は動体検出ゾーン(i=0〜8)の領域のベクトルパタ
ーン数(種類)を求めるサブルーチンである。ベクトル
パターンVP(i)は、上述したサブルーチンVECT
PATで0から順に分類されているので、VP(i)の
最大値を求め、それに1を加えた値がベクトルパターン
数に等しくなる。
は動体検出ゾーン(i=0〜8)の領域のベクトルパタ
ーン数(種類)を求めるサブルーチンである。ベクトル
パターンVP(i)は、上述したサブルーチンVECT
PATで0から順に分類されているので、VP(i)の
最大値を求め、それに1を加えた値がベクトルパターン
数に等しくなる。
【0059】先ず、動体検出ゾーンを表す変数iに0が
代入される(ステップE1)。次いで、変数VPNUM
に−1が代入される(ステップE2)。そして、VP
(i)=NGが判別されて(ステップE3)、VP
(i)=NGでなければ、続いてVP(i)とVPNU
Mが比較される(ステップE4)。ここで、VP(i)
>VPNUMであればVPNUMにVP(i)が代入さ
れる(ステップE5)。
代入される(ステップE1)。次いで、変数VPNUM
に−1が代入される(ステップE2)。そして、VP
(i)=NGが判別されて(ステップE3)、VP
(i)=NGでなければ、続いてVP(i)とVPNU
Mが比較される(ステップE4)。ここで、VP(i)
>VPNUMであればVPNUMにVP(i)が代入さ
れる(ステップE5)。
【0060】次に、変数iが判別されて(ステップE
6)、i=8でなければiにi+1が代入された後(ス
テップE7)、ステップE3に戻り、以上の動作が繰返
される。上記ステップE3に於いて、VP(i)=NG
であればステップE6に進む。以上の結果、VP(i)
(i=0〜8)の最大値がVPNUMに代入される。
6)、i=8でなければiにi+1が代入された後(ス
テップE7)、ステップE3に戻り、以上の動作が繰返
される。上記ステップE3に於いて、VP(i)=NG
であればステップE6に進む。以上の結果、VP(i)
(i=0〜8)の最大値がVPNUMに代入される。
【0061】そして、VPNUMの値が判別されて(ス
テップE8)、VPNUM=0であれば、ベクトルパタ
ーン数は1つということでベクトルパターン数を表す変
数PNUMに1が代入される(ステップE9)。一方、
上記ステップE8にて、VPNUM=0でなく、更にV
PNUM≧2でない場合は(ステップE10)、PNU
Mに2が代入される。また、上記ステップE10にてP
NVM≧2である場合は、PNUMに3が代入される。
その後、このサブルーチンはリターンされる。
テップE8)、VPNUM=0であれば、ベクトルパタ
ーン数は1つということでベクトルパターン数を表す変
数PNUMに1が代入される(ステップE9)。一方、
上記ステップE8にて、VPNUM=0でなく、更にV
PNUM≧2でない場合は(ステップE10)、PNU
Mに2が代入される。また、上記ステップE10にてP
NVM≧2である場合は、PNUMに3が代入される。
その後、このサブルーチンはリターンされる。
【0062】再度図12のフローチャートに戻って、ス
テップS23に於いて、ベクトルパターン数PNUM=
1の場合は、動体検出ゾーンに存在する物体の動きベク
トルは1種類ということである。この場合の動体検出ゾ
ーンの物体の動きの可能性としては、(i)物体は動体
検出ゾーンの中で一体となって一方向に動いている、
(ii)物体は動いていない、(iii)物体は動いていない
がカメラが動いている、(iv)動体検出ゾーン内の一部
が動いているが動きが遅く検出できない等が考えられ
る。
テップS23に於いて、ベクトルパターン数PNUM=
1の場合は、動体検出ゾーンに存在する物体の動きベク
トルは1種類ということである。この場合の動体検出ゾ
ーンの物体の動きの可能性としては、(i)物体は動体
検出ゾーンの中で一体となって一方向に動いている、
(ii)物体は動いていない、(iii)物体は動いていない
がカメラが動いている、(iv)動体検出ゾーン内の一部
が動いているが動きが遅く検出できない等が考えられ
る。
【0063】同実施例の考え方としては、上記(i)〜
(iii)の場合は図7の9領域の中で、最大コントラスト
の領域を追尾ゾーン、または測距ゾーンとする。また、
上記(iv)の場合は、基準像はそのままにして参照像を
更新することにより、再び動きベクトルを検出する。こ
の更新回数は、変数LOOPで決定される。
(iii)の場合は図7の9領域の中で、最大コントラスト
の領域を追尾ゾーン、または測距ゾーンとする。また、
上記(iv)の場合は、基準像はそのままにして参照像を
更新することにより、再び動きベクトルを検出する。こ
の更新回数は、変数LOOPで決定される。
【0064】次いで、LOOP=3が判別され(ステッ
プS24)る。ここで、LOOP=3でない場合は、次
に参照画像の更新がなされ(ステップS25)、変数L
OOPにLOOP+1が代入された後(ステップS2
6)、ステップS11に戻る。一方、上記ステップS2
4に於いて、LOOP=3になってもベクトルパターン
数PNUM=1である場合は、次に、図18に示される
ように、サブルーチンRECOGTRKZNE1が実行
される。
プS24)る。ここで、LOOP=3でない場合は、次
に参照画像の更新がなされ(ステップS25)、変数L
OOPにLOOP+1が代入された後(ステップS2
6)、ステップS11に戻る。一方、上記ステップS2
4に於いて、LOOP=3になってもベクトルパターン
数PNUM=1である場合は、次に、図18に示される
ように、サブルーチンRECOGTRKZNE1が実行
される。
【0065】このサブルーチンは、動体検出ゾーンから
最大コントラストの追尾ゾーンを検出するプログラムで
ある。図18に於いて、先ず領域を表す変数iに0が代
入される(ステップF1)。次いで、変数MAXCNT
に−1が代入される(ステップF2)。そして、動体検
出ゾーン(i=0〜8)の各領域のコントラスト値CN
T(i)とMAXCNTが比較される(ステップF
3)。
最大コントラストの追尾ゾーンを検出するプログラムで
ある。図18に於いて、先ず領域を表す変数iに0が代
入される(ステップF1)。次いで、変数MAXCNT
に−1が代入される(ステップF2)。そして、動体検
出ゾーン(i=0〜8)の各領域のコントラスト値CN
T(i)とMAXCNTが比較される(ステップF
3)。
【0066】このステップF3に於いて、CNT(i)
>MAXCNTの場合は、MAXCNTにCNT(i)
が代入される(ステップF4)。そして、最終的に決定
される追尾ゾーンiがTRKZNEに代入される(ステ
ップF5)。こうして、i=8になってこのサブルーチ
ンがリターンされるまで(ステップF6)、変数iにi
+1が代入されて(ステップF7)、以上のステップF
3〜F7の動作が繰返される。
>MAXCNTの場合は、MAXCNTにCNT(i)
が代入される(ステップF4)。そして、最終的に決定
される追尾ゾーンiがTRKZNEに代入される(ステ
ップF5)。こうして、i=8になってこのサブルーチ
ンがリターンされるまで(ステップF6)、変数iにi
+1が代入されて(ステップF7)、以上のステップF
3〜F7の動作が繰返される。
【0067】次に、図12のフローチャートに於いて、
上記TRKZNEの表す領域に追尾マークがスーパーイ
ンポーズされる(図2(c)の状態)。続いて、サブル
ーチンTRACKで追尾が行われる(ステップS3
3)。
上記TRKZNEの表す領域に追尾マークがスーパーイ
ンポーズされる(図2(c)の状態)。続いて、サブル
ーチンTRACKで追尾が行われる(ステップS3
3)。
【0068】また、上記ステップS23に於いて、ベク
トルパターン数PNUMが1でない場合は、次にPNU
M=3か否かが判別される(ステップS28)。ここ
で、PNUM=3の場合は、動きの異なる物体が混在す
るので、追尾不能の表示がなされる(ステップS2
9)。
トルパターン数PNUMが1でない場合は、次にPNU
M=3か否かが判別される(ステップS28)。ここ
で、PNUM=3の場合は、動きの異なる物体が混在す
るので、追尾不能の表示がなされる(ステップS2
9)。
【0069】いま、上記ステップS28にて、PNUM
=3でないときは、自動的にPNUM=2となる。この
ときは、一方の動きベクトルは、カメラの動きである可
能性が高い。このときは、動体検出ゾーンとは異なる画
面の4隅に固定配置された4つの動きベクトル検出領域
39〜42(図6参照)(i=9〜12)の動きベクト
ルと比較されることにより、動体検出ゾーンの2つの動
きベクトルの中から真に物体の動いている領域が特定さ
れる。
=3でないときは、自動的にPNUM=2となる。この
ときは、一方の動きベクトルは、カメラの動きである可
能性が高い。このときは、動体検出ゾーンとは異なる画
面の4隅に固定配置された4つの動きベクトル検出領域
39〜42(図6参照)(i=9〜12)の動きベクト
ルと比較されることにより、動体検出ゾーンの2つの動
きベクトルの中から真に物体の動いている領域が特定さ
れる。
【0070】サブルーチンCMPVECTPAT(ステ
ップS30)は、(a)上記動体検出ゾーンとは異なる
4つの領域(i=9〜12)の中に動体検出ゾーンとは
異なる動きベクトルVP(i)が観測された場合は追尾
不能とする、(b)VP(i)=NG(検出不能)の領
域が2つ以上ある場合は追尾不能とする、(c)VP
(i)(i=9〜12)の中で2種類の動きベクトルが
存在し、両方のベクトルパターンの存在する領域の数が
同じ場合(例えば2:2、1:1)は、追尾不能とす
る、ことを基本とする。
ップS30)は、(a)上記動体検出ゾーンとは異なる
4つの領域(i=9〜12)の中に動体検出ゾーンとは
異なる動きベクトルVP(i)が観測された場合は追尾
不能とする、(b)VP(i)=NG(検出不能)の領
域が2つ以上ある場合は追尾不能とする、(c)VP
(i)(i=9〜12)の中で2種類の動きベクトルが
存在し、両方のベクトルパターンの存在する領域の数が
同じ場合(例えば2:2、1:1)は、追尾不能とす
る、ことを基本とする。
【0071】次に、図19のサブルーチンCMPVEC
TPATを説明する。同図に於いて、先ず、領域を表す
変数iに9が、そして変数NNG、N0、N1、RNG
2に、それぞれ0が代入される(ステップG1)。この
場合、i=0〜8のベクトルパターンVP(i)の最大
値は1であることに注意する。
TPATを説明する。同図に於いて、先ず、領域を表す
変数iに9が、そして変数NNG、N0、N1、RNG
2に、それぞれ0が代入される(ステップG1)。この
場合、i=0〜8のベクトルパターンVP(i)の最大
値は1であることに注意する。
【0072】次いで、VP(i)≧2が判別され(ステ
ップG2)、VP(i)≧2の場合は上記(a)の理由
で追尾不能表示のフラグRNG2に1が代入されて(ス
テップG3)リターンされる。一方、VP(i)≧2で
なく、且つVP(i)=NGの場合は(ステップG
4)、NGのカウンタ変数NNGがインクリメントされ
る(ステップG5)。
ップG2)、VP(i)≧2の場合は上記(a)の理由
で追尾不能表示のフラグRNG2に1が代入されて(ス
テップG3)リターンされる。一方、VP(i)≧2で
なく、且つVP(i)=NGの場合は(ステップG
4)、NGのカウンタ変数NNGがインクリメントされ
る(ステップG5)。
【0073】次に、VP(i)=0が判別されて(ステ
ップG6)、VP(i)=0の場合はN0がインクリメ
ントされる(ステップG7)。そして、VP(i)=1
の場合は(ステップG8)、N1がインクリメントされ
る(ステップG9)。以上の動作が、i=12まで繰返
される(ステップG10)。
ップG6)、VP(i)=0の場合はN0がインクリメ
ントされる(ステップG7)。そして、VP(i)=1
の場合は(ステップG8)、N1がインクリメントされ
る(ステップG9)。以上の動作が、i=12まで繰返
される(ステップG10)。
【0074】こうして、NNGにはVP(i)=NGと
なるベクトルパターン数が、N0にはVP(i)=0と
なるベクトルパターン数が、そしてN1にはVP(i)
=1となるベクトルパターン数が代入されたことにな
る。
なるベクトルパターン数が、N0にはVP(i)=0と
なるベクトルパターン数が、そしてN1にはVP(i)
=1となるベクトルパターン数が代入されたことにな
る。
【0075】上記ステップG10でN=12の場合、次
にNNG≧2であれば(ステップG11)、上記(b)
の理由により、追尾不能表示フラグRNG2に1が代入
される(ステップG13)。また、N0=N1の場合は
(ステップG12)、上記(c)の理由で同様に追尾不
能表示フラグRNG2に1が代入される。
にNNG≧2であれば(ステップG11)、上記(b)
の理由により、追尾不能表示フラグRNG2に1が代入
される(ステップG13)。また、N0=N1の場合は
(ステップG12)、上記(c)の理由で同様に追尾不
能表示フラグRNG2に1が代入される。
【0076】そして、N0>N1が判別されて(ステッ
プG14)、N0>N1の場合は変数VPに0が(ステ
ップG15)、N0≦N1の場合はVPに1が代入され
て(ステップG16)、リターンされる。
プG14)、N0>N1の場合は変数VPに0が(ステ
ップG15)、N0≦N1の場合はVPに1が代入され
て(ステップG16)、リターンされる。
【0077】図12のフローチャートに戻って、ステッ
プS30のサブルーチンCMPVECTPATが終了さ
れると、続いてサブルーチンRECOGTRKZNE2
が実行される(ステップS31)。これは、サブルーチ
ンCMPVECTPATで求められたVPの値に基いて
動体検出ゾーンの中から動体の存在する領域を検出する
プログラムである。
プS30のサブルーチンCMPVECTPATが終了さ
れると、続いてサブルーチンRECOGTRKZNE2
が実行される(ステップS31)。これは、サブルーチ
ンCMPVECTPATで求められたVPの値に基いて
動体検出ゾーンの中から動体の存在する領域を検出する
プログラムである。
【0078】ステップS30のサブルーチンCMPVE
CTPATで求められたVPは、領域i=9〜12のベ
クトルパターン2種(0〜1)のうち多い方のベクトル
パターンであり、これをカメラの動きベクトルと判断す
る。したがって、動体検出ゾーンの2種の動きベクトル
のうち、VPと等しくない方の動きベクトルをもった追
尾ゾーンが、動体の存在する領域である。更に、動体の
存在する領域が複数存在するときは、コントラストの高
い領域が最終的に追尾ゾーンとされる。
CTPATで求められたVPは、領域i=9〜12のベ
クトルパターン2種(0〜1)のうち多い方のベクトル
パターンであり、これをカメラの動きベクトルと判断す
る。したがって、動体検出ゾーンの2種の動きベクトル
のうち、VPと等しくない方の動きベクトルをもった追
尾ゾーンが、動体の存在する領域である。更に、動体の
存在する領域が複数存在するときは、コントラストの高
い領域が最終的に追尾ゾーンとされる。
【0079】図20はこの判断をするプログラムを示し
たものである。同図に於いて、先ずiに0が代入される
(ステップH1)。そして、MAXCNTに−1が代入
される(ステップH2)。次いで、VP(i)=VPで
あるか否かが判別される(ステップH3)
たものである。同図に於いて、先ずiに0が代入される
(ステップH1)。そして、MAXCNTに−1が代入
される(ステップH2)。次いで、VP(i)=VPで
あるか否かが判別される(ステップH3)
【0080】このステップH3にて、VP(i)=VP
でない場合にコントラストCNT(i)とMAXCNT
が比較され(ステップH4)、更にCNT(i)>MA
XCNTであればMAXCNTにCNT(i)が代入さ
れる(ステップH5)。その後、iがTRKZNEに代
入される(ステップH6)。
でない場合にコントラストCNT(i)とMAXCNT
が比較され(ステップH4)、更にCNT(i)>MA
XCNTであればMAXCNTにCNT(i)が代入さ
れる(ステップH5)。その後、iがTRKZNEに代
入される(ステップH6)。
【0081】次に、i=8が否かが判別される(ステッ
プH7)。ここで、i=8でない場合は、iがインクリ
メントされて(ステップH8)、以上の動作が繰返され
る。これにより、最終的に変数TRKZNEには、追尾
ゾーンiが代入されることになる。
プH7)。ここで、i=8でない場合は、iがインクリ
メントされて(ステップH8)、以上の動作が繰返され
る。これにより、最終的に変数TRKZNEには、追尾
ゾーンiが代入されることになる。
【0082】図12のフローチャートに戻り、ステップ
S32に於いて、RNG2=1のとき、追尾不能の表示
が行われ、RNG2=1でない場合は、追尾マークが表
示された後(ステップS33)、追尾演算TRACKの
サブルーチンが実行される(ステップS34)。
S32に於いて、RNG2=1のとき、追尾不能の表示
が行われ、RNG2=1でない場合は、追尾マークが表
示された後(ステップS33)、追尾演算TRACKの
サブルーチンが実行される(ステップS34)。
【0083】図21は、サブルーチンTRACKを示し
たものである。同図に於いて、先ず、タイマtに0が設
定される(ステップI1)。次いで、参照像のロードと
代表点フィルタリング演算が行われる(ステップI
2)。そして、サブルーチンVECTCALが行われる
動きベクトルが求められる(ステップI3)。
たものである。同図に於いて、先ず、タイマtに0が設
定される(ステップI1)。次いで、参照像のロードと
代表点フィルタリング演算が行われる(ステップI
2)。そして、サブルーチンVECTCALが行われる
動きベクトルが求められる(ステップI3)。
【0084】ここで、信頼度変数RLBTY=NGか否
かの判別がなされる(ステップI4)。このステップI
4にて、RLBTY=NGの場合は追尾不能の表示が行
われる(ステップI5)。一方、RLBTY=NGでな
い場合は、動きベクトルの値に応じて追尾マークの更新
が行われる(ステップI6)。
かの判別がなされる(ステップI4)。このステップI
4にて、RLBTY=NGの場合は追尾不能の表示が行
われる(ステップI5)。一方、RLBTY=NGでな
い場合は、動きベクトルの値に応じて追尾マークの更新
が行われる(ステップI6)。
【0085】次に、タイマがt>t0 (t0 は例えば1
秒)であるか否かが判別され(ステップI7)、t>t
0 のときは、次にtに0が設定されて(ステップI
8)、基準像が更新される(ステップI9)。
秒)であるか否かが判別され(ステップI7)、t>t
0 のときは、次にtに0が設定されて(ステップI
8)、基準像が更新される(ステップI9)。
【0086】次いで、コントラスト演算が行われ(ステ
ップI10)、もしコントラスト不足でRLBTY=N
Gのときは(ステップI11)、追尾不能表示がなされ
る(ステップI12)。一方、上記ステップI11に
て、RLBTY=NGでない場合は、再び基準像と参照
像との相関演算が行われて追尾する。以上のように、所
定時間毎に基準像が更新されることにより、移動中に少
しずつ形状が変わるような物体にも追尾が可能となる。
ップI10)、もしコントラスト不足でRLBTY=N
Gのときは(ステップI11)、追尾不能表示がなされ
る(ステップI12)。一方、上記ステップI11に
て、RLBTY=NGでない場合は、再び基準像と参照
像との相関演算が行われて追尾する。以上のように、所
定時間毎に基準像が更新されることにより、移動中に少
しずつ形状が変わるような物体にも追尾が可能となる。
【0087】図22は、同実施例の概略的な制御の流れ
を示すタイミングチャートである。同図(a)は画像を
1/30sec毎に取込む様子を示したものである。同
図(b)は動体検出ゾーンとカメラの動きベクトル検出
ゾーンの代表点フィルタリングとコントラスト演算のタ
イミングを示したものである。また、同図(c)は動作
ベクトルの演算のタイミングを示している。更に、同図
(d)は、追尾演算のタイミングを示したものである。
を示すタイミングチャートである。同図(a)は画像を
1/30sec毎に取込む様子を示したものである。同
図(b)は動体検出ゾーンとカメラの動きベクトル検出
ゾーンの代表点フィルタリングとコントラスト演算のタ
イミングを示したものである。また、同図(c)は動作
ベクトルの演算のタイミングを示している。更に、同図
(d)は、追尾演算のタイミングを示したものである。
【0088】初めに、図22(a)の第1画像を基準と
し、第2画像と比較して動きベクトルが検出される。こ
こで、動きベクトルが検出されるときは、基準像はその
ままに第1画像と第3画像から動きベクトルが求められ
る。同図は、最終的に第1画像と第4画像により動きベ
クトルが求まった場合を示している。このようにして、
第5画像以降の追尾が開始される。尚、上述した実施例
は、動体追尾システムへの適用例であるが、注視点を選
択した後、直ちに撮影する銀塩カメラへの適用も可能で
ある。また、追尾と同時に自動焦点を行う装置への適用
も可能である。
し、第2画像と比較して動きベクトルが検出される。こ
こで、動きベクトルが検出されるときは、基準像はその
ままに第1画像と第3画像から動きベクトルが求められ
る。同図は、最終的に第1画像と第4画像により動きベ
クトルが求まった場合を示している。このようにして、
第5画像以降の追尾が開始される。尚、上述した実施例
は、動体追尾システムへの適用例であるが、注視点を選
択した後、直ちに撮影する銀塩カメラへの適用も可能で
ある。また、追尾と同時に自動焦点を行う装置への適用
も可能である。
【0089】更に、動きのある被写体をすばやく選択し
て、追尾したり視線方向検知によって正確に注視点をと
らえ、画面の任意領域に簡単な操作で焦点を合わせる装
置への適用が可能となる。
て、追尾したり視線方向検知によって正確に注視点をと
らえ、画面の任意領域に簡単な操作で焦点を合わせる装
置への適用が可能となる。
【0090】
【発明の効果】以上のようにこの発明によれば、画面の
広い領域から使用者の意図する注視点を簡単に選択する
ことができる注視点選択装置を提供することができる。
広い領域から使用者の意図する注視点を簡単に選択する
ことができる注視点選択装置を提供することができる。
【図1】この発明の一実施例で、注視点選択装置が適用
されたカメラシステムの構成を示すブロック図である。
されたカメラシステムの構成を示すブロック図である。
【図2】カメラの操作者が注視点を選択してから追尾す
るまでの表示例を示したもので、(a)は操作者が物体
OBJの近傍に注視点マークP“+”を移動させた状態
を示した図、(b)は同図(a)の“+”マークを中心
に動体検出ゾーンがスーパーインポーズされた状態を示
した図、(c)は追尾ゾーンの表わす領域に追尾マーク
がスーパーインポーズされた状態を示した図である。
るまでの表示例を示したもので、(a)は操作者が物体
OBJの近傍に注視点マークP“+”を移動させた状態
を示した図、(b)は同図(a)の“+”マークを中心
に動体検出ゾーンがスーパーインポーズされた状態を示
した図、(c)は追尾ゾーンの表わす領域に追尾マーク
がスーパーインポーズされた状態を示した図である。
【図3】図2の注視点のマークを移動させるための部材
の配置を示した外観図である。
の配置を示した外観図である。
【図4】視線方向を検出し、それにより画面の任意の領
域を指示するための原理図である。
域を指示するための原理図である。
【図5】眼の角膜反射像、瞳孔、虹彩の出力波形の一例
を示した図である。
を示した図である。
【図6】動体検出ゾーンとカメラの動き検出領域の一例
を示した図である。
を示した図である。
【図7】図6の動体検出ゾーンを複数のブロックに分割
した例を示した図である。
した例を示した図である。
【図8】図7の1つの追尾ゾーン内の16個の代表点画
素配置を示した図である。
素配置を示した図である。
【図9】図8の中の1つの画素が、5つの画素の平均値
で表されることを示した図である。
で表されることを示した図である。
【図10】動きベクトル(移動量と方向)の検出の原理
を示した図である。
を示した図である。
【図11】代表点配置の一例を示した図である。
【図12】図12はこのカメラシステムの全体の制御動
作を説明するフローチャートである。
作を説明するフローチャートである。
【図13】基準像のコントラスト計算を実行するプログ
ラムCNTCALのサブルーチンである。
ラムCNTCALのサブルーチンである。
【図14】基準像と参照像との間で相関演算を行うプロ
グラムVECTCALのサブルーチンである。
グラムVECTCALのサブルーチンである。
【図15】動きベクトルのパターン分類プログラムVE
CTPATのサブルーチンである。
CTPATのサブルーチンである。
【図16】動体検出ゾーンの領域の全てのベクトルパタ
ーンがNGのときにのみ、変数RNGに1が代入される
プログラムRECOGNGのサブルーチンである。
ーンがNGのときにのみ、変数RNGに1が代入される
プログラムRECOGNGのサブルーチンである。
【図17】動体検出ゾーンの領域のベクトルパターン数
(種類)を求めるプログラムRECOGPATNUMの
サブルーチンである。
(種類)を求めるプログラムRECOGPATNUMの
サブルーチンである。
【図18】動体検出ゾーンから最大コントラストの追尾
ゾーンを検出するプログラムRECOGTRKZNE1
のサブルーチンである。
ゾーンを検出するプログラムRECOGTRKZNE1
のサブルーチンである。
【図19】ベクトルパターンVPを求めるプログラムC
MPVECTPATのサブルーチンである。
MPVECTPATのサブルーチンである。
【図20】サブルーチンCMPVECTPATで求めら
れたVPの値に基いて動体検出ゾーンの中から動体の存
在する領域を検出するプログラムRECOGTRKZN
E2のサブルーチンである。
れたVPの値に基いて動体検出ゾーンの中から動体の存
在する領域を検出するプログラムRECOGTRKZN
E2のサブルーチンである。
【図21】追尾演算のプログラムTRACKのサブルー
チンである。
チンである。
【図22】この発明の一実施例の概略的な制御の流れを
示すタイミングチャートである。
示すタイミングチャートである。
10…ビデオカメラ、11…Y/C分離回路、12…A
/D変換回路、13a、13b…ビデオRAM、14…
CPU、15…RAM、16…ROM、17…CRTコ
ントローラ、18…ゲート、19…スーパーインポー
ザ、20…表示部、23…注視点移動部材、24…注視
点選択部材、38…動体検出ゾーン、39、40、4
1、42…動きベクトル検出領域。
/D変換回路、13a、13b…ビデオRAM、14…
CPU、15…RAM、16…ROM、17…CRTコ
ントローラ、18…ゲート、19…スーパーインポー
ザ、20…表示部、23…注視点移動部材、24…注視
点選択部材、38…動体検出ゾーン、39、40、4
1、42…動きベクトル検出領域。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成5年4月15日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0073
【補正方法】変更
【補正内容】
【0073】次に、VP(i)=0が判別されて(ステ
ップG6)、VP(i)=0の場合はN0がインクリメ
ントされる(ステップG7)。そして、VP(i)=1
の場合は(ステップG8)、N1がインクリメントされ
る(ステップG9)。以上の動作が、i=12まで繰返
される(ステップG10、G17)。
ップG6)、VP(i)=0の場合はN0がインクリメ
ントされる(ステップG7)。そして、VP(i)=1
の場合は(ステップG8)、N1がインクリメントされ
る(ステップG9)。以上の動作が、i=12まで繰返
される(ステップG10、G17)。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0075
【補正方法】変更
【補正内容】
【0075】上記ステップG10でi=12の場合、次
にNNG≧2であれば(ステップG11)、上記(b)
の理由により、追尾不能表示フラグRNG2に1が代入
される(ステップG13)。また、N0=N1の場合は
(ステップG12)、上記(c)の理由で同様に追尾不
能表示フラグRNG2に1が代入される。
にNNG≧2であれば(ステップG11)、上記(b)
の理由により、追尾不能表示フラグRNG2に1が代入
される(ステップG13)。また、N0=N1の場合は
(ステップG12)、上記(c)の理由で同様に追尾不
能表示フラグRNG2に1が代入される。
【手続補正3】
【補正対象書類名】図面
【補正対象項目名】図14
【補正方法】変更
【補正内容】
【図14】
【手続補正4】
【補正対象書類名】図面
【補正対象項目名】図19
【補正方法】変更
【補正内容】
【図19】
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G03B 13/02 7139−2K H04N 5/232 C
Claims (1)
- 【請求項1】 被写体像を映像信号に変換する光電変換
手段と、 使用者の注視点を表す注視点信号を入力する入力手段
と、 上記映像信号の中から上記注視点信号に基いて比較的広
い第1領域を選択する選択手段と、 上記第1領域を更に複数の領域に分割する分割手段と、 この分割手段によって分割された複数の領域から動体の
存在するか若しくは最大コントラスト領域を第2の領域
として検出する検出手段とを具備することを特徴とする
注視点選択装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4088631A JPH05288982A (ja) | 1992-04-09 | 1992-04-09 | 注視点選択装置 |
US08/045,039 US5627586A (en) | 1992-04-09 | 1993-04-08 | Moving body detection device of camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4088631A JPH05288982A (ja) | 1992-04-09 | 1992-04-09 | 注視点選択装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05288982A true JPH05288982A (ja) | 1993-11-05 |
Family
ID=13948162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4088631A Withdrawn JPH05288982A (ja) | 1992-04-09 | 1992-04-09 | 注視点選択装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05288982A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0829826A (ja) * | 1994-07-18 | 1996-02-02 | Canon Inc | 撮像装置およびその撮像方法 |
JP2011233963A (ja) * | 2010-04-23 | 2011-11-17 | Ricoh Co Ltd | 撮像装置および追尾被写体検出方法 |
JP2012118188A (ja) * | 2010-11-30 | 2012-06-21 | Ditect:Kk | 撮影システム |
US8433097B2 (en) | 2006-03-15 | 2013-04-30 | Nikon Corporation | Subject tracking device, subject tracking method, subject tracking program product and optical device |
WO2020244440A1 (zh) * | 2019-06-04 | 2020-12-10 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、摄像系统、控制方法以及程序 |
JP2021068208A (ja) * | 2019-10-24 | 2021-04-30 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
-
1992
- 1992-04-09 JP JP4088631A patent/JPH05288982A/ja not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0829826A (ja) * | 1994-07-18 | 1996-02-02 | Canon Inc | 撮像装置およびその撮像方法 |
US8433097B2 (en) | 2006-03-15 | 2013-04-30 | Nikon Corporation | Subject tracking device, subject tracking method, subject tracking program product and optical device |
JP2011233963A (ja) * | 2010-04-23 | 2011-11-17 | Ricoh Co Ltd | 撮像装置および追尾被写体検出方法 |
JP2012118188A (ja) * | 2010-11-30 | 2012-06-21 | Ditect:Kk | 撮影システム |
WO2020244440A1 (zh) * | 2019-06-04 | 2020-12-10 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、摄像系统、控制方法以及程序 |
CN112313574A (zh) * | 2019-06-04 | 2021-02-02 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、摄像系统、控制方法以及程序 |
CN112313574B (zh) * | 2019-06-04 | 2022-04-05 | 深圳市大疆创新科技有限公司 | 控制装置、摄像装置、摄像系统、控制方法以及程序 |
JP2021068208A (ja) * | 2019-10-24 | 2021-04-30 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5627586A (en) | Moving body detection device of camera | |
US8139136B2 (en) | Image pickup apparatus, control method of image pickup apparatus and image pickup apparatus having function to detect specific subject | |
US8649574B2 (en) | Imaging apparatus, control method of imaging apparatus, and computer program | |
US20070266312A1 (en) | Method for displaying face detection frame, method for displaying character information, and image-taking device | |
JPH09181966A (ja) | 画像処理方法及び装置 | |
US20120281107A1 (en) | Imaging apparatus capable of recognizing photographic scene and method for the same | |
US10986262B2 (en) | Imaging apparatus, control method, and non-transitory storage medium | |
JP2011107396A (ja) | オートフォーカスシステム | |
CN111107276A (zh) | 信息处理设备及其控制方法、存储介质以及摄像系统 | |
GB2557437A (en) | Display control apparatus and method of controlling display control apparatus | |
JP2019105768A (ja) | 表示制御装置及びその制御方法 | |
JP2001243478A (ja) | 目標物体追尾装置 | |
JP5039570B2 (ja) | 表示装置、映像表示システム、及び表示方法 | |
TWI693828B (zh) | 顯示擷取裝置與其操作方法 | |
JPH05288982A (ja) | 注視点選択装置 | |
JP2001174696A (ja) | カラー撮像装置 | |
JP2021111929A (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
JPH05292377A (ja) | 動体の動きベクトル検出装置 | |
JPH05292376A (ja) | カメラの動体検出装置 | |
JP2009152725A (ja) | 自動追跡装置及び方法 | |
JP4985155B2 (ja) | 焦点調節装置および撮像装置 | |
JPH09265538A (ja) | 自動追尾装置 | |
JP2010130309A (ja) | 撮像装置 | |
JP2667885B2 (ja) | 移動物体の自動追尾装置 | |
JP3075936B2 (ja) | 動きベクトル検出回路およびそれを用いた被写体追尾カメラ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19990706 |