JPH05292376A - カメラの動体検出装置 - Google Patents

カメラの動体検出装置

Info

Publication number
JPH05292376A
JPH05292376A JP4088630A JP8863092A JPH05292376A JP H05292376 A JPH05292376 A JP H05292376A JP 4088630 A JP4088630 A JP 4088630A JP 8863092 A JP8863092 A JP 8863092A JP H05292376 A JPH05292376 A JP H05292376A
Authority
JP
Japan
Prior art keywords
image
detecting
vector
camera
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4088630A
Other languages
English (en)
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4088630A priority Critical patent/JPH05292376A/ja
Priority to US08/045,039 priority patent/US5627586A/en
Publication of JPH05292376A publication Critical patent/JPH05292376A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【目的】この発明のカメラの動体検出装置にあっては、
カメラが動いても所望の動体が存在する領域を正確に検
出するために、各移動ベクトルを比較して複数に分割さ
れた領域から動体が存在する領域を検出することを特徴
とする。 【構成】ビデオカメラ10により得られた被写体の映像
が、Y/C分離回路11、A/D変換回路12及びビデ
オRAM13aを介してCPU14で検出される。CP
U14、ビデオRAM13a、13b、RAM15及び
ROM16により、異なる2つの時刻に、上記検出され
た映像の、表示部20上に表示される任意の第1の所定
領域と第2の所定領域から抽出されたそれぞれ2つずつ
の映像から、それぞれの映像の移動ベクトルが検出され
る。そして、検出された映像の移動ベクトルに基いて、
上記第1の所定領域に存在する物体が動体か否かがCP
U14により判別される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明はカメラの動体検出装置
に関し、特に動体を自動的に判別して撮影したり動体を
自動的に追尾撮影するカメラの動体検出装置に関するも
のである。
【0002】
【従来の技術】従来より、カメラの映像の比較的広い領
域を複数に分割し、その中から動体の存在する領域を判
別する動体検出を行うカメラが、種々開発されている。
そして、特に動きのある被写体に対しては、操作者が手
動によってカメラの映像内の狭い領域をすばやく指定し
て動体の領域を判別していた。また、操作者の視線方向
を検知することにより、注視点、すなわち動体を検出す
るというものもあった。
【0003】そして、例えば特願平2−235074号
によれば、測距視野選択装置に関する技術が開示されて
いる。これは、画面を複数の領域に分割し、その中から
1つの領域を選択する手段と、選択された領域を表すフ
ォーカスフレーム表示手段と、フォーカスフレーム内に
存在する被写体に焦点を合わせる合焦手段とより成るカ
メラに於いて、上記フォーカスフレームをフォーカスフ
レーム選択部材と、抵抗値比較手段とフォーカスフレー
ムの表示を移動させる手段とで構成し、所望のフォーカ
スフレームの存在する方向を検出すると同時にフォーカ
スフレームを該方向に移動して表示させるものである。
また、特開平3−177828号公報には、視線検出装
置の視線検出方向の改良に関する技術が開示されてい
る。
【0004】更に、特開平2−96707号公報には、
被写体パターンを入力した時に被写体要部の位置を示す
信号を出力するように学習されたネットワークを有し
て、このネットワークの出力により複数の光電変換素子
の出力の中から被写体主要部の信号を選択し、それに基
いて焦点が検出される露出制御装置に関する技術が開示
されている。
【0005】
【発明が解決しようとする課題】しかしながら、ジョイ
スティック等により、操作者が手動操作によってカメラ
の映像内の画面の広い領域から任意の領域を選択する場
合、特に動きのある被写体に対してすばやく任意の領域
を選択するのは大変困難であり、熟練を要するものであ
る。また、視線検知による方法では、精度良く画面の任
意領域を選択するのが難しい。
【0006】一方、ニューラルネットワーク等により、
カメラの映像内の画面の広い領域から自動的に主要被写
体を認識する場合、主要被写体の候補が多数存在して認
識が困難であるという問題がある。
【0007】更に、動体の検出に関しては、先ず大まか
な視野を選択し、その中から特定の被写体を選択するよ
うにしているが、従来はカメラの動きと、目的とする移
動被写体を分離しなければ正確に追尾することができな
いものであった。
【0008】この発明は上記課題に鑑みてなされたもの
で、カメラの映像内の画面の広い領域から任意の領域を
簡単に選択することができ、カメラが動いても簡単な操
作により、所望の動体が存在する領域を正確に検出する
ことのできるカメラの動体検出装置を提供することを目
的とする。
【0009】
【課題を解決するための手段】すなわちこの発明は、被
写体の映像を検出する第1の検出手段と、異なる2つの
時刻に上記第1の検出手段で検出された映像の任意の第
1の所定領域から抽出された2つの映像から映像の移動
ベクトルを検出する第2の検出手段と、上記第1の所定
領域とは異なる位置の第2の所定領域から上記と同一の
時刻に抽出された2つの映像から映像の移動ベクトルを
検出する第3の検出手段と、上記第2の検出手段及び第
3の検出手段とにより検出された映像の移動ベクトルか
ら上記第1の所定領域に存在する物体が動体か否かを判
別する判別手段とを具備することを特徴とする。
【0010】またこの発明は、被写体の映像を検出する
映像検出手段と、この映像検出手段で検出された映像の
任意の位置の第1の所定領域を複数の領域に分割する手
段と、異なる2つの時刻に上記第1の所定領域の2つの
映像から上記複数のそれぞれの領域のそれぞれの映像の
移動ベクトルを検出する第1の移動ベクトル検出手段
と、上記第1の所定領域とは異なる位置の第2の所定領
域から上記と同一の時刻に抽出された2つの映像から映
像の移動ベクトルを検出する第2の移動ベクトル検出手
段と、上記第1の移動ベクトル検出手段と第2の移動ベ
クトル検出手段とにより検出された映像の移動ベクトル
とから、上記第1の所定領域中の複数に分割された領域
の中から動体の存在する領域を判別する手段とを具備す
ることを特徴とする。
【0011】
【作用】この発明のカメラの動体検出装置にあっては、
被写体の映像が第1の検出手段で検出され、異なる2つ
の時刻に、上記検出された映像の任意の第1の所定領域
と、この第1の所定領域とは異なる位置の第2の所定領
域から抽出されたそれぞれ2つずつの映像から、それぞ
れの映像の移動ベクトルが第2及び第3の検出手段によ
って検出される。そして、第2の検出手段及び第3の検
出手段とにより検出された映像の移動ベクトルに基い
て、上記第1の所定領域に存在する物体が動体か否かが
判別手段により判別される。
【0012】
【実施例】以下、図面を参照してこの発明の実施例を説
明する。図1は、この発明の一実施例で、カメラの動体
検出装置が適用されたカメラシステムの構成を示すブロ
ック図である。
【0013】同図に於いて、ビデオカメラ10から出力
されるNTSCコンポジット信号の一方は、Y/C分離
回路11で輝度信号が分離され、輝度信号のみA/D変
換回路12でAD変換されてビデオRAM13aに入力
される。CPU14は、ビデオRAM13a、13b、
14、RAM15及びROM16と結合しているもの
で、システム全体の制御、演算を行う。
【0014】上記ROM16には、予め制御の手順がプ
ログラムされている。また、RAM15は、演算途中の
データの記憶、演算結果のデータの記憶に用いられる。
更に、ビデオRAM13bは、CPU14で演算された
注視点の位置を表示したり追尾マークの表示データを記
憶するものである。
【0015】ビデオRAM13bに記憶された表示デー
タは、CRTコントローラ17のタイミングに従ってゲ
ート18を通り、スーパーインポーザ19の一方の入力
となる。このスーパーインポーザ19は、ビデオカメラ
10の映像信号に、ゲート18の出力である注視点の位
置や追尾マーク等を重ねて表示するための装置である。
スーパーインポーザ19の出力は、表示部20に表示さ
れる。
【0016】尚、CPU14に入力される信号s1は、
カメラの操作者が注視点を移動させるための信号であ
る。また、スイッチSWは、注視点を保持し、追尾を開
始するためのスイッチである。
【0017】図2は、カメラの操作者が注視点を選択し
てから追尾するまでの表示例を示したものである。図2
(a)は、操作者が物体OBJの近傍に注視点マークP
“+”を移動させた状態を示した図である。ここで、ス
イッチSW(図1参照)がオンされると、同図(a)の
“+”マークを中心に、図2(b)に示されるように広
い領域の動体検出ゾーンがスーパーインポーズされる。
次いで、後に詳述する演算により動体領域が特定されて
追尾が開始される。尚、同図(b)の表示はなくともよ
いものである。更に、図2(c)は、後述する追尾ゾー
ンの表す領域に、追尾マークがスーパーインポーズされ
た状態を示したものである。
【0018】図3は、注視点のマーク(図2の“+”)
を移動させるための部材の配置を示したものである。こ
れは銀塩カメラへの応用例であり、その詳細は本出願人
が先に出願した特願平2−235074号に詳しく述べ
てある。
【0019】図3に於いて、カメラ本体21のグリップ
22上に、注視点移動部材23が配置されている。そし
て、この注視点移動部材23の中心に注視点選択部材2
4(図1のスーパーインポーザ19に相当する)が配置
されている。注視点選択部材24はレリーズ釦を兼用し
ている。
【0020】また、図4及び図5は、視線方向を検出
し、それにより画面の任意の領域を指示するための原理
図である。これらについて、例えば特開平2−5号公報
や特開平2−65834号公報、或いは電子通信学会技
術報告PRU88−73、PP.17−24に詳しく述
べられている。これらは、眼の瞳孔と角膜反射像(第1
プリキンエ像)、または虹彩と角膜反射像の組合わせか
ら視線方向を検出するもので、注視点を指示する方法と
して注目されている。
【0021】図4に於いて、25は赤外LEDであり、
この赤外LED25からレンズ26を介して平行光束が
作られる。また、図中27、28はダイクロイックミラ
ー、29は撮影者の眼、30はCCD、31はレンズで
ある。
【0022】赤外LED25から発せられた赤外線は、
レンズ26、ダイクロイックミラー27、28を介して
眼29に入る。そして、眼29で反射された光は、ダイ
クロイックミラー28、27及びレンズ31を介してC
CD30で撮像され、上述した原理で視線方向が計算さ
れる。これにより、撮影レンズ32、ミラー33、マッ
ト34、コンデンサーレンズ35、ペンタプリズム36
及びダイクロイックミラー28を介して、撮影者が観測
する注視点の位置を検出することが可能となる。図5
は、眼の角膜反射像、瞳孔、虹彩の出力波形の一例を示
したものである。図6は、動体検出ゾーンとカメラの動
き検出領域の一例を示した図である。
【0023】画面37内の動体検出ゾーン38は、更に
このゾーンの中が、後述するように複数ブロックに分割
され、この中から1つのブロックが選択され、追尾ゾー
ンに特定されるようになっている。選択されるブロック
は動体が最優先されるが、その場合、カメラが動いてい
るのか、物体が動いているのかの判別が課題となる。
尚、図中S1〜S4で示される領域は、カメラの動きを
判別するために設定した動きベクトル検出領域39〜4
2である。
【0024】図7は、図6の動体検出ゾーン38を複数
のブロックに分割した例である。同図(a)〜(d)に
示されるように、各々がオーバラップするように、9ブ
ロックの追尾ゾーン(a11、a12、a13、a21、a22
23、a31、a32、a33)に分割され、それぞれの領域
の動きベクトルを検出することになる。
【0025】これら9ブロックの追尾ゾーンのうち、1
つの追尾ゾーン内は図8に示されるように、16個の代
表点画素(P( 1,1)、P( 1,2)、…、P( 4,4))
で構成されている。
【0026】また、図9は図8の中の1つの画素
(P11)が、5つの画素(P(0)、P(1)、
P(2)、P(3)、P(4))の平均値で表されること
を示す図である。この平均値は、数1の関係式のように
して求められる。
【0027】
【数1】
【0028】図10は、この発明で採用された動きベク
トル(移動量と方向)の検出の原理を示す図である(参
考文献:テレビジョン学会技術報告Vol.11,N
o.3,PP.43−48,PP0E’87−12(M
ay,1987)。
【0029】動きベクトル検出法としては種々の方法が
あるが、精度スピードの点から、以下に述べる代表点マ
ッチングがたいへんすぐれている。これは画面上のいく
つかの画素(以下これを代表点と称する)に着目し、現
在の位置と所定時間後の位置の変化から、動きベクトル
を決定する方法である。
【0030】図10の模式図に於いて、現在の代表点P
が同図(a)に示される位置にあるものとする。所定時
間後のこの代表点Pと最もレベルが一致する点を、同図
(b)のp1〜p9と比較することにより求める。ここで
は、その最もレベルが近い画素の位置へ代表点が移動し
たと判断し、該当するベクトルを動きベクトルと判断す
る。実際は精度を上げるため、代表点の数を増やしてい
る。
【0031】図11は、代表点配置の一例を示したもの
である。同図に於いて、水平方向に15ドットおきに3
4ポイント、垂直方向に15ライン毎に34ポイントの
代表点を配置している。尚、追尾ゾーンは、上述したよ
うに、4×4=16の代表点より構成される。また、ゾ
ーンB(追尾ゾーンAの動きベクトル検出範囲)は、水
平、垂直方向ともに±2ポイントに設定される。
【0032】すなわち、図11で代表点Pの検出範囲
は、図示の如く計25ポイントとなる。また、図9で説
明したように、各ポイントに相当する画素のレベルは、
周囲4点の画素との加算平均を行うことにより、ローパ
スフィルタ効果をもたせている。これにより、エッジの
鋭い画像を得て、細いラインへの検出能力を高めてい
る。次に、図12乃至図21のフローチャートを参照し
て、同実施例の動作を説明する。
【0033】図12はこのカメラシステムの全体の制御
動作を説明するフローチャートである。同図に於いて、
先ず、注視点の設定が行われる(ステップS1)。ここ
で、CPU14は、注視点の座標を読取る。次に、設定
された注視点を中心にして、現時点に於ける動体検出ゾ
ーンと、カメラの動きベクトル検出ゾーン(図6及び図
11参照)の代表点のポイントのレベルが求められる
(これを基準像のロード及び代表点フィルタリングと称
するものとする)。次いで、所定時間(1/30se
c)後、同様にして上記と同領域の代表点ポイントのレ
ベルが求められる(これを参照像のロード及び代表点フ
ィルタリングと称するものとする)(ステップS2)。
【0034】そして、iに0が初期設定される(ステッ
プS3)。ここで、iは図7に示された9つの追尾ゾー
ン(i=0〜8)と、カメラの動きベクトル検出ゾーン
(i=9〜12)の領域を表す変数である。次に、サブ
ルーチンCNTCALにて、i=0〜12の各領域のコ
ントラストが求められる(ステップS4)。各々の領域
は、図8に示されるように、16個の代表点から成る。
いま、それぞれの代表点を図8のようにP( 1,1)、P
1,2)、…、P( 4,4)とし、記述を簡単にするため
に、各々代表点の出力レベルも同じ記号P(i,j)で
表わすものとする。
【0035】図13は、基準像のコントラスト計算を実
行するCNTCALのサブルーチンである。先ず、コン
トラストCNTの演算が、次のように行われる(ステッ
プA1)。すなわち、X方向のコントラストをCNT
X、Y方向のコントラストをCNTY、そしてコントラ
ストをCNTとすると、それぞれ数2、数3及び数4の
関係式のようになる。
【0036】
【数2】
【0037】
【数3】
【0038】
【数4】
【0039】次にCNTが所定レベルC1と比較され
(ステップA2)、映像のコントラストが不足すると
き、すなわちCNT<C1のときは信頼度なしとして、
RLBTYにNGが代入される(ステップA3)。この
後、コントラスト演算のサブルーチンCNTCALから
リターンされる。
【0040】図12のフローチャートに戻り、信頼度変
数RLBTYが判別され(ステップS5)、RLBTY
=NGのときベクトルパターンVP(i)にNGが代入
される(ステップS6)。ここでVP(i)は、動きベ
クトルの種類をパターン分類するための変数であり、V
P(i)=NGとは動きベクトルを検出できないことを
意味する。
【0041】そして、変数CNT(i)にCNTが代入
され(ステップS7)、i=12が判別される(ステッ
プS8)。ここで、i=12でなければiに1を加えた
後(ステップS9)、ステップS4に戻る。一方、ステ
ップS8に於いて、i=12であればコントラスト演算
(ステップS4〜S9)を終了する。
【0042】次に、更新回数の変数LOOPに0が設定
された後(ステップS10)、再び領域選択iに0が初
期設定される(ステップS11)。CPU14は、先ず
i=0に相当する領域の代表点の信号を選択すると、図
14に示されるサブルーチンVECTCALに於いて、
上記基準像と参照像との間で相関演算を行う(ステップ
S12)。
【0043】図14に於いて、いま基準像のP(i,
j)の位置(図8参照)に相当する信号レベルをPS
(i.j)、参照像の信号レベルをPR(i,j)とす
ると、相関値出力CORR(S)は数5の関係式の如く
なる(ステップB1)。
【0044】
【数5】 ここでH=0,1,2、V=0,1,2であり、H,V
はX方向、Y方向へのずらし量に相当する。
【0045】次に、CORR(H,V)の極小値MIN
(CORR(H,V))が求められる。このときのHが
変数VECTHに、Vが変数VECTVに代入される。
そして、上述したように求められた領域iのコントラス
ト信号CNT(i)により、上記MIN(CORR
(H,V))が除算される(ステップB2)。2つの像
が真に一致したことにより、極小値MIN(CORR
(H,V))が求められるとき、MIN(CORR
(H,V))/CNT(i)は、所定の値βより小さく
なり、大きい程信頼度が悪くなることが実験的にも確認
されている。
【0046】ここで、MIN(CORR(H,V))/
CNT(i)<βが判別され(ステップB3)、MIN
(CORR(H,V))/CNT(i)<βでないと
き、信頼度なしとして変数RLBTYにNGが代入され
る(ステップB4)。
【0047】こうして、サブルーチンVECTCALか
らリターンされ、図12のステップ13へ進む。ここ
で、RLBTY=NGであれば、ベクトルパターンVP
(i)にNGが代入される(ステップS14)。
【0048】次に、変数VH(i)に水平方向動きベク
トルVECTHが、変数VV(i)に垂直方向の動きベ
クトルVECTVが代入される(ステップS15)。そ
の後、全ての領域i=0〜12について、以上の動きベ
クトルの演算が終了したか否かが判別される(ステップ
S16)。終了していない場合は、i=12になるまで
iに1が加えられ(ステップS17)、ステップS12
に戻る。一方、上記ステップS16に於いてi=12で
あれば、次に各々の領域i=0〜12の動きベクトル
(VH(i),VV(i))を分類するためのサブルー
チンVECTPATが実行される(ステップS18)。
【0049】図15は、動きベクトルのパターン分類プ
ログラムVECTPATのサブルーチンである。同図に
於いて、先ず領域を選択するための変数iに0が代入さ
れ(ステップC1)、またベクトルパターンの番号を表
す変数kに0が代入される(ステップC2)。次いで、
ベクトルパターンVP(i)がNGであるか否かが判別
され(ステップC3)、NGでなければVP(i)が本
来パターン分類としてあり得ない定数INITであるか
どうかが判別される(ステップC4)。
【0050】INITは、本プログラムには記されてい
ないが、図12のフローチャートの開始直後に初期設定
される値である。具体的には、INITは0〜12以外
の値であればよい。もし、VP(i)=INITである
ときは、VP(i)にkの値が代入される(ステップC
5)。次いで、変数jにi+1が代入され(ステップC
6)、VP(j)=NGでなく(ステップC7)、且つ
VP(j)=INIT(ステップC8)のとき、動きベ
クトルの差異|VH(i)−VH(j)|、|VV
(i)−VV(j)|が求められて、それぞれ変数ΔV
H、ΔVVに代入される(ステップC9)。
【0051】ここで、ΔVH<α、且つΔVV<αのと
き(ステップC10)、ベクトル(VH(i),VV
(i))とベクトル(VH(j),VV(j)は同一ベ
クトルと判断されて、VP(j)にkが代入される(ス
テップC11)。次に、j=12であるか否かが判別さ
れ(ステップC12)、j=12でないときは、j+1
がjに代入され(ステップC13)、ステップC7に戻
って同様の演算が実行される。
【0052】上記ステップC7でYES、ステップC8
でNO、ステップC10でNOの場合も、j=12であ
るか否かが判別され、j=12でないならば、jにj+
1が代入されて同様の演算が繰返される。
【0053】ステップC12に於いて、j=12であれ
ば、次にベクトルパターンの種類を表す変数kにk+1
が代入される(ステップC14)。そして、i=12で
あれば(ステップC15)、本サブルーチンからリター
ンする。上記ステップC15に於いて、i=12でなけ
れば、変数iにi+1が代入されて(ステップC1
6)、再びステップC3に戻り、以上のループが繰返さ
れる。表1は、以上のループで実行される演算の具体例
を示したものである。
【0054】
【表1】
【0055】この例に示されるように、ベクトル(VH
(i),VV(i))が所定の誤差で一致していれば、
ベクトルパターンVP(i)には同一の番号が与えられ
る。そして、ベクトルパターンが異なる毎に順に、0,
1,2,…の数字が与えられる。また、VP(i)=N
Gはそのままである。
【0056】VECTPATのサブルーチンの処理が終
了すると(ステップS18)、図16に示されるサブル
ーチンRECOGNGが実行される(ステップS1
9)。このサブルーチンでは、変数iに0が代入され
(ステップD1)、VP(i)=NGであれば(ステッ
プD2)、次にi=8であるか否かが判別される(ステ
ップD3)。ここで、i=8でなければiにi+1が代
入され(ステップD4)、その後ステップD2に戻る。
【0057】上記ステップD3でi=8であれば、変数
RNGに1が代入される(ステップD5)。また、上記
ステップD2に於いてVP(i)=NGでなければ、変
数RNGに0が代入される(ステップD6)。
【0058】すなわち、このサブルーチンは、動体検出
ゾーン(i=0〜8)の領域の全てのベクトルパターン
がNGのときにのみ、変数RNGに1が代入されるプロ
グラムである。
【0059】図12のフローチャートに戻り、ステップ
S20に於いて、RNG=1のとき、追尾不能の表示が
行われる(ステップS21)。一方、上記ステップS2
0にてRNG=1でないときは、次にサブルーチンRE
COGPATNUMが実行される(ステップS22)。
【0060】図17に示されるように、このプログラム
は動体検出ゾーン(i=0〜8)の領域のベクトルパタ
ーン数(種類)を求めるサブルーチンである。ベクトル
パターンVP(i)は、上述したサブルーチンVECT
PATで0から順に分類されているので、VP(i)の
最大値を求め、それに1を加えた値がベクトルパターン
数に等しくなる。
【0061】先ず、動体検出ゾーンを表す変数iに0が
代入される(ステップE1)。次いで、変数VPNUM
に−1が代入される(ステップE2)。そして、VP
(i)=NGが判別されて(ステップE3)、VP
(i)=NGでなければ、続いてVP(i)とVPNU
Mが比較される(ステップE4)。ここで、VP(i)
>VPNUMであればVPNUMにVP(i)が代入さ
れる(ステップE5)。
【0062】次に、変数iが判別されて(ステップE
6)、i=8でなければiにi+1が代入された後(ス
テップE7)、ステップE3に戻り、以上の動作が繰返
される。上記ステップE3に於いて、VP(i)=NG
であればステップE6に進む。以上の結果、VP(i)
(i=0〜8)の最大値がVPNUMに代入される。
【0063】そして、VPNUMの値が判別されて(ス
テップE8)、VPNUM=0であれば、ベクトルパタ
ーン数は1つということでベクトルパターン数を表す変
数PNUMに1が代入される(ステップE9)。一方、
上記ステップE8にて、VPNUM=0でなく、更にV
PNUM≧2でない場合は(ステップE10)、PNU
Mに2が代入される。また、上記ステップE10にてP
NVM≧2である場合は、PNUMに3が代入される。
その後、このサブルーチンはリターンされる。
【0064】再度図12のフローチャートに戻って、ス
テップS23に於いて、ベクトルパターン数PNUM=
1の場合は、動体検出ゾーンに存在する物体の動きベク
トルは1種類ということである。この場合の動体検出ゾ
ーンの物体の動きの可能性としては、(i)物体は動体
検出ゾーンの中で一体となって一方向に動いている、
(ii)物体は動いていない、(iii)物体は動いていない
がカメラが動いている、(iv)動体検出ゾーン内の一部
が動いているが動きが遅く検出できない等が考えられ
る。
【0065】同実施例の考え方としては、上記(i)〜
(iii)の場合は図7の9領域の中で、最大コントラスト
の領域を追尾ゾーン、または測距ゾーンとする。また、
上記(iv)の場合は、基準像はそのままにして参照像を
更新することにより、再び動きベクトルを検出する。こ
の更新回数は、変数LOOPで決定される。
【0066】次いで、LOOP=3が判別され(ステッ
プS24)る。ここで、LOOP=3でない場合は、次
に参照画像の更新がなされ(ステップS25)、変数L
OOPにLOOP+1が代入された後(ステップS2
6)、ステップS11に戻る。一方、上記ステップS2
4に於いて、LOOP=3になってもベクトルパターン
数PNUM=1である場合は、次に、図18に示される
ように、サブルーチンRECOGTRKZNE1が実行
される。
【0067】このサブルーチンは、動体検出ゾーンから
最大コントラストの追尾ゾーンを検出するプログラムで
ある。図18に於いて、先ず領域を表す変数iに0が代
入される(ステップF1)。次いで、変数MAXCNT
に−1が代入される(ステップF2)。そして、動体検
出ゾーン(i=0〜8)の各領域のコントラスト値CN
T(i)とMAXCNTが比較される(ステップF
3)。
【0068】このステップF3に於いて、CNT(i)
>MAXCNTの場合は、MAXCNTにCNT(i)
が代入される(ステップF4)。そして、最終的に決定
される追尾ゾーンiがTRKZNEに代入される(ステ
ップF5)。こうして、i=8になってこのサブルーチ
ンがリターンされるまで(ステップF6)、変数iにi
+1が代入されて(ステップF7)、以上のステップF
3〜F7の動作が繰返される。
【0069】次に、図12のフローチャートに於いて、
上記TRKZNEの表す領域に追尾マークがスーパーイ
ンポーズされる(図2(c)の状態)。続いて、サブル
ーチンTRACKで追尾が行われる(ステップS3
3)。
【0070】また、上記ステップS23に於いて、ベク
トルパターン数PNUMが1でない場合は、次にPNU
M=3か否かが判別される(ステップS28)。ここ
で、PNUM=3の場合は、動きの異なる物体が混在す
るので、追尾不能の表示がなされる(ステップS2
9)。
【0071】いま、上記ステップS28にて、PNUM
=3でないときは、自動的にPNUM=2となる。この
ときは、一方の動きベクトルは、カメラの動きである可
能性が高い。このときは、動体検出ゾーンとは異なる画
面の4隅に固定配置された4つの動きベクトル検出領域
39〜42(図6参照)(i=9〜12)の動きベクト
ルと比較されることにより、動体検出ゾーンの2つの動
きベクトルの中から真に物体の動いている領域が特定さ
れる。
【0072】サブルーチンCMPVECTPAT(ステ
ップS30)は、(a)上記動体検出ゾーンとは異なる
4つの領域(i=9〜12)の中に動体検出ゾーンとは
異なる動きベクトルVP(i)が観測された場合は追尾
不能とする、(b)VP(i)=NG(検出不能)の領
域が2つ以上ある場合は追尾不能とする、(c)VP
(i)(i=9〜12)の中で2種類の動きベクトルが
存在し、両方のベクトルパターンの存在する領域の数が
同じ場合(例えば2:2、1:1)は、追尾不能とす
る、ことを基本とする。
【0073】次に、図19のサブルーチンCMPVEC
TPATを説明する。同図に於いて、先ず、領域を表す
変数iに9が、そして変数NNG、N0、N1、RNG
2に、それぞれ0が代入される(ステップG1)。この
場合、i=0〜8のベクトルパターンVP(i)の最大
値は1であることに注意する。
【0074】次いで、VP(i)≧2が判別され(ステ
ップG2)、VP(i)≧2の場合は上記(a)の理由
で追尾不能表示のフラグRNG2に1が代入されて(ス
テップG3)リターンされる。一方、VP(i)≧2で
なく、且つVP(i)=NGの場合は(ステップG
4)、NGのカウンタ変数NNGがインクリメントされ
る(ステップG5)。
【0075】次に、VP(i)=0が判別されて(ステ
ップG6)、VP(i)=0の場合はN0がインクリメ
ントされる(ステップG7)。そして、VP(i)=1
の場合は(ステップG8)、N1がインクリメントされ
る(ステップG9)。以上の動作が、i=12まで繰返
される(ステップG10)。
【0076】こうして、NNGにはVP(i)=NGと
なるベクトルパターン数が、N0にはVP(i)=0と
なるベクトルパターン数が、そしてN1にはVP(i)
=1となるベクトルパターン数が代入されたことにな
る。
【0077】上記ステップG10でN=12の場合、次
にNNG≧2であれば(ステップG11)、上記(b)
の理由により、追尾不能表示フラグRNG2に1が代入
される(ステップG13)。また、N0=N1の場合は
(ステップG12)、上記(c)の理由で同様に追尾不
能表示フラグRNG2に1が代入される。
【0078】そして、N0>N1が判別されて(ステッ
プG14)、N0>N1の場合は変数VPに0が(ステ
ップG15)、N0≦N1の場合はVPに1が代入され
て(ステップG16)、リターンされる。
【0079】図12のフローチャートに戻って、ステッ
プS30のサブルーチンCMPVECTPATが終了さ
れると、続いてサブルーチンRECOGTRKZNE2
が実行される(ステップS31)。これは、サブルーチ
ンCMPVECTPATで求められたVPの値に基いて
動体検出ゾーンの中から動体の存在する領域を検出する
プログラムである。
【0080】ステップS30のサブルーチンCMPVE
CTPATで求められたVPは、領域i=9〜12のベ
クトルパターン2種(0〜1)のうち多い方のベクトル
パターンであり、これをカメラの動きベクトルと判断す
る。したがって、動体検出ゾーンの2種の動きベクトル
のうち、VPと等しくない方の動きベクトルをもった追
尾ゾーンが、動体の存在する領域である。更に、動体の
存在する領域が複数存在するときは、コントラストの高
い領域が最終的に追尾ゾーンとされる。
【0081】図20はこの判断をするプログラムを示し
たものである。同図に於いて、先ずiに0が代入される
(ステップH1)。そして、MAXCNTに−1が代入
される(ステップH2)。次いで、VP(i)=VPで
あるか否かが判別される(ステップH3)
【0082】このステップH3にて、VP(i)=VP
でない場合にコントラストCNT(i)とMAXCNT
が比較され(ステップH4)、更にCNT(i)>MA
XCNTであればMAXCNTにCNT(i)が代入さ
れる(ステップH5)。その後、iがTRKZNEに代
入される(ステップH6)。
【0083】次に、i=8が否かが判別される(ステッ
プH7)。ここで、i=8でない場合は、iがインクリ
メントされて(ステップH8)、以上の動作が繰返され
る。これにより、最終的に変数TRKZNEには、追尾
ゾーンiが代入されることになる。
【0084】図12のフローチャートに戻り、ステップ
S32に於いて、RNG2=1のとき、追尾不能の表示
が行われ、RNG2=1でない場合は、追尾マークが表
示された後(ステップS33)、追尾演算TRACKの
サブルーチンが実行される(ステップS34)。
【0085】図21は、サブルーチンTRACKを示し
たものである。同図に於いて、先ず、タイマtに0が設
定される(ステップI1)。次いで、参照像のロードと
代表点フィルタリング演算が行われる(ステップI
2)。そして、サブルーチンVECTCALが行われる
動きベクトルが求められる(ステップI3)。
【0086】ここで、信頼度変数RLBTY=NGか否
かの判別がなされる(ステップI4)。このステップI
4にて、RLBTY=NGの場合は追尾不能の表示が行
われる(ステップI5)。一方、RLBTY=NGでな
い場合は、動きベクトルの値に応じて追尾マークの更新
が行われる(ステップI6)。
【0087】次に、タイマがt>t0 (t0 は例えば1
秒)であるか否かが判別され(ステップI7)、t>t
0 のときは、次にtに0が設定されて(ステップI
8)、基準像が更新される(ステップI9)。
【0088】次いで、コントラスト演算が行われ(ステ
ップI10)、もしコントラスト不足でRLBTY=N
Gのときは(ステップI11)、追尾不能表示がなされ
る(ステップI12)。一方、上記ステップI11に
て、RLBTY=NGでない場合は、再び基準像と参照
像との相関演算が行われて追尾する。以上のように、所
定時間毎に基準像が更新されることにより、移動中に少
しずつ形状が変わるような物体にも追尾が可能となる。
【0089】図22は、同実施例の概略的な制御の流れ
を示すタイミングチャートである。同図(a)は画像を
1/30sec毎に取込む様子を示したものである。同
図(b)は動体検出ゾーンとカメラの動きベクトル検出
ゾーンの代表点フィルタリングとコントラスト演算のタ
イミングを示したものである。また、同図(c)は動作
ベクトルの演算のタイミングを示している。更に、同図
(d)は、追尾演算のタイミングを示したものである。
【0090】初めに、図22(a)の第1画像を基準と
し、第2画像と比較して動きベクトルが検出される。こ
こで、動きベクトルが検出されるときは、基準像はその
ままに第1画像と第3画像から動きベクトルが求められ
る。同図は、最終的に第1画像と第4画像により動きベ
クトルが求まった場合を示している。このようにして、
第5画像以降の追尾が開始される。尚、上述した実施例
は、動体追尾システムへの適用例であるが、注視点を選
択した後、直ちに撮影する銀塩カメラへの適用も可能で
ある。また、追尾と同時に自動焦点を行う装置への適用
も可能である。
【0091】
【発明の効果】以上のようにこの発明によれば、カメラ
の映像内の画面の広い領域から任意の領域を簡単に選択
することができ、カメラが動いても簡単な操作により、
所望の動体が存在する領域を正確に検出することのでき
るカメラの動体検出装置を提供することができる。
【図面の簡単な説明】
【図1】この発明の一実施例で、カメラの動体検出装置
が適用されたカメラシステムの構成を示すブロック図で
ある。
【図2】カメラの操作者が注視点を選択してから追尾す
るまでの表示例を示したもので、(a)は操作者が物体
OBJの近傍に注視点マークP“+”を移動させた状態
を示した図、(b)は同図(a)の“+”マークを中心
に動体検出ゾーンがスーパーインポーズされた状態を示
した図、(c)は追尾ゾーンの表わす領域に追尾マーク
がスーパーインポーズされた状態を示した図である。
【図3】図2の注視点のマークを移動させるための部材
の配置を示した外観図である。
【図4】視線方向を検出し、それにより画面の任意の領
域を指示するための原理図である。
【図5】眼の角膜反射像、瞳孔、虹彩の出力波形の一例
を示した図である。
【図6】動体検出ゾーンとカメラの動き検出領域の一例
を示した図である。
【図7】図6の動体検出ゾーンを複数のブロックに分割
した例を示した図である。
【図8】図7の1つの追尾ゾーン内の16個の代表点画
素配置を示した図である。
【図9】図8の中の1つの画素が、5つの画素の平均値
で表されることを示した図である。
【図10】動きベクトル(移動量と方向)の検出の原理
を示した図である。
【図11】代表点配置の一例を示した図である。
【図12】図12はこのカメラシステムの全体の制御動
作を説明するフローチャートである。
【図13】基準像のコントラスト計算を実行するプログ
ラムCNTCALのサブルーチンである。
【図14】基準像と参照像との間で相関演算を行うプロ
グラムVECTCALのサブルーチンである。
【図15】動きベクトルのパターン分類プログラムVE
CTPATのサブルーチンである。
【図16】動体検出ゾーンの領域の全てのベクトルパタ
ーンがNGのときにのみ、変数RNGに1が代入される
プログラムRECOGNGのサブルーチンである。
【図17】動体検出ゾーンの領域のベクトルパターン数
(種類)を求めるプログラムRECOGPATNUMの
サブルーチンである。
【図18】動体検出ゾーンから最大コントラストの追尾
ゾーンを検出するプログラムRECOGTRKZNE1
のサブルーチンである。
【図19】ベクトルパターンVPを求めるプログラムC
MPVECTPATのサブルーチンである。
【図20】サブルーチンCMPVECTPATで求めら
れたVPの値に基いて動体検出ゾーンの中から動体の存
在する領域を検出するプログラムRECOGTRKZN
E2のサブルーチンである。
【図21】追尾演算のプログラムTRACKのサブルー
チンである。
【図22】この発明の一実施例の概略的な制御の流れを
示すタイミングチャートである。
【符号の説明】
10…ビデオカメラ、11…Y/C分離回路、12…A
/D変換回路、13a、13b…ビデオRAM、14…
CPU、15…RAM、16…ROM、17…CRTコ
ントローラ、18…ゲート、19…スーパーインポー
ザ、20…表示部、23…注視点移動部材、24…注視
点選択部材、38…動体検出ゾーン、39、40、4
1、42…動きベクトル検出領域。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成5年4月15日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0075
【補正方法】変更
【補正内容】
【0075】次に、VP(i)=0が判別されて(ステ
ップG6)、VP(i)=0の場合はN0がインクリメ
ントされる(ステップG7)。そして、VP(i)=1
の場合は(ステップG8)、N1がインクリメントされ
る(ステップG9)。以上の動作が、i=12まで繰返
される(ステップG10、G17)。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0077
【補正方法】変更
【補正内容】
【0077】上記ステップG10で=12の場合、次
にNNG≧2であれば(ステップG11)、上記(b)
の理由により、追尾不能表示フラグRNG2に1が代入
される(ステップG13)。また、N0=N1の場合は
(ステップG12)、上記(c)の理由で同様に追尾不
能表示フラグRNG2に1が代入される。
【手続補正3】
【補正対象書類名】図面
【補正対象項目名】図14
【補正方法】変更
【補正内容】
【図14】
【手続補正4】
【補正対象書類名】図面
【補正対象項目名】図19
【補正方法】変更
【補正内容】
【図19】

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 被写体の映像を検出する第1の検出手段
    と、 異なる2つの時刻に上記第1の検出手段で検出された映
    像の任意の第1の所定領域から抽出された2つの映像か
    ら映像の移動ベクトルを検出する第2の検出手段と、 上記第1の所定領域とは異なる位置の第2の所定領域か
    ら上記と同一の時刻に抽出された2つの映像から映像の
    移動ベクトルを検出する第3の検出手段と、 上記第2の検出手段及び第3の検出手段とにより検出さ
    れた映像の移動ベクトルから上記第1の所定領域に存在
    する物体が動体か否かを判別する判別手段とを具備する
    ことを特徴とするカメラの動体検出装置。
  2. 【請求項2】 被写体の映像を検出する映像検出手段
    と、 この映像検出手段で検出された映像の任意の位置の第1
    の所定領域を複数の領域に分割する手段と、 異なる2つの時刻に上記第1の所定領域の2つの映像か
    ら上記複数のそれぞれの領域のそれぞれの映像の移動ベ
    クトルを検出する第1の移動ベクトル検出手段と、 上記第1の所定領域とは異なる位置の第2の所定領域か
    ら上記と同一の時刻に抽出された2つの映像から映像の
    移動ベクトルを検出する第2の移動ベクトル検出手段
    と、 上記第1の移動ベクトル検出手段と第2の移動ベクトル
    検出手段とにより検出された映像の移動ベクトルとか
    ら、上記第1の所定領域中の複数に分割された領域の中
    から動体の存在する領域を判別する手段とを具備するこ
    とを特徴とするカメラの動体検出装置。
JP4088630A 1992-04-09 1992-04-09 カメラの動体検出装置 Withdrawn JPH05292376A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4088630A JPH05292376A (ja) 1992-04-09 1992-04-09 カメラの動体検出装置
US08/045,039 US5627586A (en) 1992-04-09 1993-04-08 Moving body detection device of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4088630A JPH05292376A (ja) 1992-04-09 1992-04-09 カメラの動体検出装置

Publications (1)

Publication Number Publication Date
JPH05292376A true JPH05292376A (ja) 1993-11-05

Family

ID=13948134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4088630A Withdrawn JPH05292376A (ja) 1992-04-09 1992-04-09 カメラの動体検出装置

Country Status (1)

Country Link
JP (1) JPH05292376A (ja)

Similar Documents

Publication Publication Date Title
US5627586A (en) Moving body detection device of camera
US8139136B2 (en) Image pickup apparatus, control method of image pickup apparatus and image pickup apparatus having function to detect specific subject
JP3989523B2 (ja) 自動撮影方法および装置
US7660519B2 (en) Autofocus apparatus
JP2008046354A (ja) 被写体追尾装置およびカメラ
GB2557437A (en) Display control apparatus and method of controlling display control apparatus
JP3268953B2 (ja) 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置
JP2001243478A (ja) 目標物体追尾装置
JP5039570B2 (ja) 表示装置、映像表示システム、及び表示方法
JP4702193B2 (ja) 被写体領域特定装置、被写体領域特定方法およびカメラ
JP2001174696A (ja) カラー撮像装置
JPH05288982A (ja) 注視点選択装置
JP4888249B2 (ja) 焦点検出装置および撮像装置
JPH05292377A (ja) 動体の動きベクトル検出装置
JPH05292376A (ja) カメラの動体検出装置
JP2009152725A (ja) 自動追跡装置及び方法
JP2019129474A (ja) 画像撮影装置
JP4985155B2 (ja) 焦点調節装置および撮像装置
JPH09265538A (ja) 自動追尾装置
JP3174869B2 (ja) 目標物体追尾装置
JP2010130309A (ja) 撮像装置
JPH0628399B2 (ja) カメラにおける自動追尾装置
JP2667885B2 (ja) 移動物体の自動追尾装置
JP4391637B2 (ja) カメラ
JP2009294663A (ja) カメラ

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990706