JP2004015516A - Automatic tracking photographing method and automatic tracking photographing device for motion picture - Google Patents

Automatic tracking photographing method and automatic tracking photographing device for motion picture Download PDF

Info

Publication number
JP2004015516A
JP2004015516A JP2002167309A JP2002167309A JP2004015516A JP 2004015516 A JP2004015516 A JP 2004015516A JP 2002167309 A JP2002167309 A JP 2002167309A JP 2002167309 A JP2002167309 A JP 2002167309A JP 2004015516 A JP2004015516 A JP 2004015516A
Authority
JP
Japan
Prior art keywords
target
photographing
unit
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002167309A
Other languages
Japanese (ja)
Other versions
JP3963261B2 (en
Inventor
Fumitoki Amano
天野 史斎
Toshihisa Ishii
石井 聡寿
Yoshinori Yubikawa
指川 佳則
Mizuo Tsukidate
月舘 瑞男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuo Electronics Co Ltd
Original Assignee
Chuo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chuo Electronics Co Ltd filed Critical Chuo Electronics Co Ltd
Priority to JP2002167309A priority Critical patent/JP3963261B2/en
Publication of JP2004015516A publication Critical patent/JP2004015516A/en
Application granted granted Critical
Publication of JP3963261B2 publication Critical patent/JP3963261B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically execute a method which monitors efficiently on a large field of view with a few cameras and photographs an intruder with a clear video image so as to identify the intruder easily. <P>SOLUTION: A pan-tilt camera 1 and a wide angle camera 2 are installed in proximity. A motion picture photographed with the wide angle camera is converted to a digital motion picture data by A/D conversion unit 3. An aggregation S1 of zones is outputted for an inputted motion picture data in a detection unit 4. The aggregation S1 of zones is inputted to estimate a target current position on the picture. The two-dimensional co-ordinates of the estimated position are outputted while a signal is received from a target tracking unit 5, which outputs a target detected signal 10 and the position and the size of a circumscribed rectangle. The pan-tilt camera 1 is circled so that a target may be caught in field of view. A pan-tilt control signal for setting a magnification factor from a camera control unit 6 is inputtted into the pan-tilt camera 1. Video images outputted from the pan-tilt camera 1 are displayed on a video image recording device 7. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、セキュリティ・システムを構成する監視用カメラを利用して、動く物体を自動的に視野内に捉え続けて撮影する自動追尾撮影方法およびその装置に関する。
【0002】
【従来の技術】
監視用カメラによって監視対象物を撮影して、監視領域への侵入者を監視する方法としては、次のような方法が利用されていた。
▲1▼監視する領域全体を広角カメラで撮影する方法。
▲2▼監視する領域全体を通常画角のカメラ複数台を使用して、監視領域を分割して分担撮影する方法。
▲3▼パン・チルト雲台つきのカメラを予めプログラムした向きに、順番に向けさせて撮影する方法。
▲4▼パン・チルト雲台つきのカメラを人手で操作して撮影する方法。
【0003】
【発明が解決しようとする課題】
上述した従来技術による撮影方法では、解決すべき多くの課題があった。
▲1▼広角カメラで撮影すると、カメラの台数は少なくて済むが、撮影した映像の鮮明さが損われる。
例えば、侵入者が小さく写るので特定しにくい。
▲2▼監視領域を分割して分担撮影する方法では、多数のカメラを必要とする。
▲3▼プログラムを内蔵したパン・チルト雲台つきのカメラで撮影する方法では、侵入者を効果的に撮影し難い。
即ち、侵入者の顔など、重要な映像を撮り逃すおそれがある。
▲4▼パン・チルト雲台つきカメラを人手で操作するのでは、常に所要の人員を配置しておく必要が生ずる。
【0004】
【課題を解決するための手段】
本発明は上述した従来技術による欠点を解消しようとするものであって、
視野の方向を変更可能な撮影手段1で捉えるべきターゲットを、より広画角の撮影手段2の画像上で指定する動画像撮影手段と、
動画像上に映っている動く物体の位置と形状を、該物体が動き続ける条件下で推定し続ける追尾アルゴリズムと、
ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲット誤推定を自動修正する手段と、
によって構成し、動く物体を自動的に撮影手段1の視野内に捉え続けて追尾撮影する方法である。
【0005】
さらに、動く物体の中央(重心)より、むしろ上端側を撮影手段1の視野内に捉え続ける(追尾する)撮影方法と、前記撮影手段1の映像を傾かせずに、動く物体を視野内に捉え続ける(追尾する)撮影方法と、
前記撮影手段1の視野の変更に制約を設けて機械系の摩耗を低減させ、かつ安定した撮影(前記撮影手段1の視野内の変更が間欠的にしか発生しない)を実現しつつ、動く物体を視野内に捉え続ける(追尾する)撮影方法と、
前記撮影手段1でズーム撮影するときも、機械系の摩耗を低減し、かつ安定した撮影を実現することと、動く物体を視野内に捉え続けることを同時に満足する撮影方法
とによって自動追尾撮影方法を構成した。
【0006】
【発明の実施の形態】
以下、本発明の実施例を図面を参照しながら説明する。
図1は、本発明に係る動画像の自動追尾撮影装置の構成を示すブロック図である。
【0007】
パンチルトカメラ1は、パン機能とチルト機能を備えたカメラであって、侵入者(ターゲット)を鮮明に撮影することができる。
パン回転面が水平になるように設置し、パン回転中心とチルト回転中心が一致するように設置するのがよい。
【0008】
広角カメラ2は、通常の(遠近投影法に従う)レンズか、魚眼レンズ(魚眼投影法に従う)を備えた動画像撮影手段として使用されるカメラであって、監視対象領域の広い範囲(視野角にして90°等、少なくともパンチルトカメラ1単体の視野よりは広い)を視野内に収めることができる。
なお、パンチルトカメラ1と広角カメラ2とは近接して設置しておき、視野中心線(レンズの光軸)は斜め下45°程度に向けておく。
【0009】
A/D変換部3は、広角カメラ2で撮影した動画像(アナログ映像信号)をディジタル動画像データに変換する回路である。
【0010】
動き検出部4は、A/D変換部3が出力したディジタル画像データを受け取り、動きを検出した区画の集合S1を出力するものであって、その内部構成は図2に示す通りである。
フレームバッファ11はディジタル動画像データに1フレーム時間の遅延を与えるFIFOメモリであって、1フレーム分のディジタル動画像データを一時的に記憶する。
減算器12は、入力されたディジタル動画像データのY成分から、フレームバッファ11に記憶されている1フレーム時間前の動画像データのY成分を画素ごとに引き算し、その結果(濃度差分)を出力する回路である。
2値化回路A13は、濃度差分の値が閾値Tより大きい画素を1、それ以外の画素を0として出力する回路である。
集計回路14は、2値化回路A13により値1となった画素の個数を区画ごとに集計する回路である。
2値化回路B15は、集計回路14による集計値が閾値Tより大きい区画を1、そうでない区画を0に変換し出力する。
【0011】
次に、動き検出部4の処理手順を説明する。
▲1▼現在の1フレームと直前(過去)の1フレームのY成分の差分を画素ごとに、フレームバッファ11と減算器12を使用して取る。
▲2▼2値化回路A13が、上記差分が定数Tより大きい画素を1、それ以外の画素を0に変換する。
▲3▼集計回路14が値1となった画素の個数を区画ごとに集計する。例えば、区画は長方形とし、横320ピクセル、縦240ラインの画像を横32列、縦15行に区切る。
▲4▼2値化回路B15が上記集計値が定数Tより大きい区画を1、そうでない区画を0に変換して集合S1を出力する。
即ち、本実施例では、「区画の集合」を表現するデータ形式として、1フレーム分の画像を構成する区画の中で、該集合に含まれる区画を1、そうでない区画を0に置き換えたデータ形式を採用しており、図3に示す通りである。
【0012】
ターゲット追尾部5は、動き検出部4が出力した区画の集合S1を受け取り、画像上でのターゲット現在位置を推定し、その二次元座標を出力する。
但し、ターゲットが存在しない(広角カメラ2の視野内に動いている物体がない)場合もあるため、ターゲットの検知/未検知も別途ターゲット検出信号10として出力し、後段に与える。
また、パンチルトカメラ1の拡大率制御のため、ターゲットの画像上での大きさも出力する。
【0013】
ターゲット追尾部5の内部構成は図4に示す通りである。
CPU21は、ターゲット追尾部5を構成する各ブロックの各種処理を実施する中央制御装置であり、記憶手段1・22は、ターゲットの現在位置・形状・大きさを、区画の集合として保持するメモリである。
連結領域列挙手段23は、集合S1に含まれる連結領域のうち、与えられた集合S2と共通部分をもつものの集合Wを求める演算手段である。
また、連結領域選択手段24は、連結領域列挙手段23が出力した集合Wから、下記関数d(H)の値が最小となる集合Hを選択して出力する手段である。
d(H)=(集合Hと集合S1の共通部分に含まれる区画数)÷(集合Hに含まれる区画数)
マスク領域メモリ25は、ターゲット以外の動きがある領域または障害物(ターゲットとカメラの間を遮る)を被う区画の集合Mを記憶するメモリであり、内容は装置起動時に書き込み、追尾実行中は基本的に書き換えない。
包含判定手段26は、ターゲットの位置と形状の推定結果HがMに含まれるか判定するブロックであり、連結領域出力手段1・27は、HがMに含まれるとき、Hと共通部分をもつMの連結領域M(H)を出力するブロックである。
また、動き検出手段2・28は、HがMに含まれるとき、M(H)周縁上で動きを検知したとき、その位置(区画)Bを出力する手段であり、連結領域出力手段2・29は動き検出手段2・28が出力した区画Bを含む連結領域をS1から求め、出力する手段である。
セレクタ30は、包含判定手段26の結果を受け、記憶手段1・22に記憶する内容を選択する(Hとして出力)。
外接長方形算出31は、画像上でターゲットに外接する長方形の位置と大きさを求める。
演算手段2・32は、集合Hに含まれる区画の座標の相加平均(重心)G2を求め、ターゲットの代表位置として出力する。
【0014】
ターゲット追尾部5は、「ターゲット未検知」、「ターゲット追尾中」、「待機中」の3つの状態をもっている。
「ターゲット未検知」状態は、広角カメラ2の視野内にターゲットが現われるのを待っている状態を示し、「ターゲット追尾中」状態は、広角カメラ2の視野内をターゲットが動いており、それを追尾している状態を示し、「待機中」状態は、広角カメラ2の視野内でターゲットが停止した状態を示している。
【0015】
次に、ターゲット追尾部5における「ターゲット未検知」状態の処理は次の通りである。
▲1▼画面上に予め設定した領域(センスエリア)で動きを検知するのを待つ。
即ち、動き検出部4が出力した集合S1に、図5に示すセンスエリアを構成する区画の集合との間に共通部分が発生するのを待つ。
▲2▼センスエリアで動きを検知したときは、
a.その動いた部分を含む連結領域を集合S1から切り出し、記憶手段1・22に初期値として与える。
b.「ターゲット追尾中」状態に遷移する。
【0016】
「ターゲット追尾中」状態の処理は次の通りである。
▲1▼図4に示すように、記憶手段1・22の内容(区画の集合S2)を更新する。
▲2▼下記条件が成立したら、「待機中」状態に遷移する。
a.更新前S2⊂更新後S2
【0017】
「待機中」状態の処理は次の通りである。
▲1▼画面内の予め設定した領域(センスエリア)で動きを検知したかを判定する。
即ち、動き検出部4が出力した集合S1に、センスエリアを構成する区画が含まれるか判定する。
動きを検知したときは、「ターゲット未検知」における▲2▼a,bと同じ処理を行う。
▲2▼上記条件が成立、かつ下記条件のいずれかが成立したときは、「ターゲット追尾中」状態に遷移する。
a.H ⊂集合S2でない(HがS2からはみ出している)
▲3▼上記条件が成立しないままT秒経過したときは、「ターゲット未検知」状態に遷移する。
【0018】
ターゲット検出信号10は、「ターゲット未検知」状態で0、それ以外の状態において1を出力する。
なお、「待機中」状態を設ける理由は次の通りである。
▲1▼ターゲットが移動を停止すると、動き検出部4が殆ど動きを検出しないため、集合S1に含まれる区画がターゲットが動いている最中に比べて少なくなる。
▲2▼その状態で記憶手段2に記憶されているS2の更新を続けると、S2が空集合になってしまい、以降の追尾に差し支える。
▲3▼従って、ターゲットが停止してから再び動き出すまでの間は、記憶手段2の更新を停止する必要がある。
【0019】
カメラ制御部6は、ターゲット追尾部5が出力したターゲットの座標G、ターゲット検出信号10および外接長方形の位置と大きさを受け取り、ターゲットを視野内に捉えるようにパンチルトカメラ1を旋回させ、かつ拡大率を設定するものであって、次のステップから成る。
▲1▼座標Gより、広角カメラ2から見てターゲットがどの方向に存在するのかを推定する。(ターゲット見込み方向推定)
▲2▼推定された方向より、パンチルトカメラ1に与えるパンおよびチルトの角度を算出する。(カメラの旋回角度算出)
▲3▼算出したパンおよびチルトの角度をパンチルトカメラ1に与え、旋回させる。(旋回指令)
▲4▼外接長方形の横サイズが、パンチルトカメラ1で撮影される画像の横サイズの70%と一致するように、パンチルトカメラ1にズーム指令を与え拡大させる。(ズーム指令)
但し、ターゲット検出信号10が0(ターゲット未検知)のときは、上記処理は行わず、待機する。
【0020】
カメラ制御部6には、広角カメラ2で撮影した画像上でのターゲット位置Gが入力されており、これをもとに、広角カメラ2の焦点からターゲットに向かうベクトル成分を求める。
ターゲット見込み方向推定には、広角カメラ2で使用するレンズとして、通常の広角レンズ(遠近投影法に従う)と、魚眼レンズ(魚眼投影法に従う)の2種類があり、以下に記載の原理に従って、カメラ焦点からターゲットに向かうベクトル成分を求める。
広角カメラ2のレンズが通常(遠近投影法に従う)である場合におけるターゲット見込み方向の推定を、図6によって説明する。
図6において広角カメラ2の焦点Oから、三次元空間中でのターゲット位置Pに向かうベクトルが、求めるべきターゲット見込み方向を与える。
ここで、X軸は水平方向、Z軸は視野中心線(レンズ光軸)に一致するようにとっている。
ベクトル成分の導出を簡単にするために、OPに平行なベクトルOGを求める。ここで、Gは直線OPと投影面の交点である。
図6において、OGのX軸成分をx、Y軸成分をy,Z軸成分をzとすると、次式の通りである。
x=μ
y=ν
z=d=H/tan(H)……(1)
ここで、
μ:座標GのX成分
ν:座標GのY成分
:レンズの遠近投影法投影面の全幅の1/2
:レンズの水平視野角の1/2
d:レンズ焦点から投影面までの距離
x:ベクトルOGのX成分
y:ベクトルOGのY成分
z:ベクトルOGのZ成分
【0021】
広角カメラ2のレンズが魚眼レンズ(魚眼投影法に従う)である場合におけるターゲット見込み方向の推定方法を、図7によって説明する。
図7において、広角カメラ2の焦点Oから三次元空間中でのターゲット位置Pに向かうベクトルが、求めるべきターゲット見込み方向を与える。
ここで、X軸は水平方向、Z軸は視野中心線(レンズ光軸)に一致するようにとっている。
ベクトル成分の導出を簡単にするために、OPに平行なベクトルOG´を求める。G´は平面Z=γ上の点であり、γは魚眼投影面半径を示す。
図7より、  D=γs
=γH
従って、
=γtans=R/H・tan〔(H/R)・D〕…(2)
ここで、
:平面z=γ と Z軸(レンズ光軸)との交点
γ :魚眼投影法投影半径
:GからG´までの距離
:GからGまでの円弧長
:レンズ視野角÷2(一般的な魚眼レンズでは90°)
S :ターゲット見込み方向とZ軸のなす角
:画像上での視野角H円の半径
よって、OG´のX成分x、Y成分y、Z成分zは次式で与えられる。
【数1】

Figure 2004015516
【0022】
上述したターゲット見込み方向推定処理において、ターゲット見込み方向ベクトル成分(x,y,z)が得られたので、このベクトルとパンチルトカメラ1の視野中心線(レンズ光軸)が平行になるようなパンおよびチルト角度を図8と図9に従い算出する。
パン角度は、ベクトル(x,y,z)をパン回転面(三次元平面)に射影したベクトルVを求め、パン回転面上にX´軸とZ´軸からなる正規直交座標系をとり、VのX´成分x´と、Z´成分z´を求めると、パン角度Pは次式によって求められる。
=tan−1(x´/z´)
【0023】
次に、チルト角度は、パン回転面の法線方向にY´軸をとり、ベクトル(x,y,z)をベクトルVとY´軸が張る三次元平面に投射したベクトルVを求め、ベクトルVのY´成分y´とV成分v´を求めると、次式によってチルト角度Pが得られる。
=tan−1(y´/v´)
実施例では、広角カメラ2のレンズ光軸(Z軸)が45°斜め下を向いているのに対し、パンチルトカメラ1のパン回転面が水平である。
広角カメラ2のレンズ光軸とパンチルトカメラ1のパン回転面とのなす角をθとすると、X−Y−Z座標系とX´−Y´−Z´座標系は図10に示すようになる。
【0024】
前記原理により求めたパン角度P、チルト角度Pを与えると、パンチルトカメラ1は三次元空間中でのターゲット位置Pから広角カメラ2の焦点Oに入射光が入射してきた側を向き、かつ該パンチルトカメラ1の視野中心線と直線OP(入射光の入射方向)は平行となるように向く。さらに、パンチルトカメラ1と広角カメラ2が近接して設置されているため、該視野中心線と直線OPは互いに近接している。すなわちパンチルトカメラ1の視野中心線は三次元空間中でのターゲット位置Pに近接しており、よってPはパンチルトカメラ1の撮影像の中心付近に撮影されることになる。
【0025】
上記原理から分かるように、パンチルトカメラ1と広角カメラ2を近接して設置すればするほど、三次元空間中でのターゲット位置Pが正確にパンチルトカメラ1の視野中心に撮影される。
したがって、パンチルトカメラ1の映像上でPをどれだけ正確に視野中心に捉えたいかによってパンチルトカメラ1と広角カメラ2の距離(どれだけ近接させねばならないか)を決めればよい。
【0026】
実施例では、パンチルトカメラ1としてパン回転中心とチルト回転中心が一致するものを使用しており、パンチルトカメラ1と広角カメラ2の距離の決め方は容易になっている。すなわち、三次元空間中でのターゲット位置Pに対しそれを狙うパンチルトカメラ1の視野中心線が距離d以上それてはならないなら、二点OO間の距離がd未満になるようパンチルトカメラ1と広角カメラ2を設置せねばならない。
ここで、  O :広角カメラ2の焦点
:パンチルトカメラ1のパンおよびチルトの回転中心
【0027】
なお、旋回指令とズーム指令は次の通りである。
▲1▼外接長方形の横サイズがパンチルトカメラ1で撮影される画像の横サイズの70%と一致するようなパンチルトカメラ1の拡大率を算出する。
▲2▼撮影手段1において、z倍ズームで撮影するときの閾値Tを算出し、動き検出部4から入力されたGが、前回入力時のGと比べ、距離T以上離れていたときは、パンチルトカメラ1にパン(絶対角度P)、チルト(絶対角度P)、ズーム(拡大率z)を指令する。
▲3▼現在のGを記憶し、次のGの入力を待つ。
【0028】
ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲットの位置および形状の誤推定を自動修正する自動修正手段としては、下記の要素を追加している。
▲1▼入力画像を構成する区画のうち、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域を被う区画の集合Mを記憶する記憶手段2。
▲2▼追尾中のターゲットが入力画像上に占めると想定される領域を表す区画の集合Hが、Mに含まれるか否かを判定する包含判定手段26。
▲3▼HがMに含まれるとき、Hと共通部分をもつMの連結領域M(H)を出力する連結領域出力手段1・27。
▲4▼HがMに含まれるとき、連結領域M(H)の周縁上の動きを監視し、動きを検出したときその位置(区画)Bを出力する動き検出手段2・28。
▲5▼動き検出手段2・28が動きを検知(Bを出力)したとき、入力画像を構成する区画からBを含む連結領域S1C(B)を出力する連結領域出力手段2・29。
▲6▼動き検出手段2が動きを検知したとき、集合Hの内容を連結領域SC1(B)の内容で置き換える修正手段セレクタ30。
【0029】
上記構成要素により、広角カメラ2の画像上でターゲットが映っていると推定される領域Hが領域M内にある(包含されている)間、Hをターゲットとして更新するのと並行して連結領域M(H)(Hを包含するMの連結領域)の周縁での動きを監視し、該周縁上の区画Bで動きを検知したらHの更新をやめ、Bをターゲットの一部であるとみなして追尾しなおすことにより、領域Mの中で永久にターゲット以外のものをターゲットとして誤推定しつづけることを抑止する。
【0030】
【発明の効果】
以上説明したように、本発明による動画像の自動追尾撮影方法および自動追尾撮影装置は、視野の方向を変更可能な撮影手段1で捉えるべきターゲットをより広角度の撮影手段2の画像上で指定する動画像撮影手段と、同じく撮影手段2の画像上で動く物体の位置と形状を推定し続ける追尾アルゴリズムと、さらに、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲット誤推定を自動修正する手段とによって構成しているので、2つのカメラのみによって動く物体を視野内に捉え続けて自動的に追尾撮影することができる極めて高精度のセキュリティ・システムを構築することが可能である。
【図面の簡単な説明】
【図1】本発明による自動追尾撮影装置の構成を示すブロック図。
【図2】動き検出部の構成を示すブロック図。
【図3】区画の集合S1の例。
【図4】ターゲット追尾部の構成を示すブロック図。
【図5】センスエリアとマスクエリアの例。
【図6】広角カメラのレンズが通常の場合の説明図。
【図7】広角カメラのレンズが魚眼レンズの場合の説明図。
【図8】パン角度算出方法の説明図。
【図9】チルト角度算出方法の説明図。
【図10】X−Y−Z座標系とX´−Y´−Z´座標系の関係を示す説明図。
【符号の説明】
1 パンチルトカメラ
2 広角カメラ
3 A/D変換部
4 動き検出部
5 ターゲット追尾部
6 カメラ制御部
7 映像記録装置
11 フレームバッファ
12 減算器
13 2値化回路A
14 集計回路
15 2値化回路B
20 動き検出手段1
21 CPU
22 記憶手段1
23 連結領域列挙手段
24 連結領域選択手段
25 マスク領域メモリ
26 包含判定手段
27 連結領域出力手段1
28 動き検出手段2
29 連結領域出力手段2
30 セレクタ
31 外接長方形算出
32 演算手段2[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic tracking photographing method and apparatus for automatically capturing and photographing a moving object in a field of view by using a surveillance camera constituting a security system.
[0002]
[Prior art]
The following method has been used as a method of monitoring an intruder in a monitoring area by photographing an object to be monitored by a monitoring camera.
(1) A method in which the entire area to be monitored is photographed with a wide-angle camera.
{Circle over (2)} A method in which the monitoring area is divided and the divided area is photographed by using a plurality of cameras having a normal angle of view for the entire area to be monitored.
(3) A method in which a camera with a pan / tilt head is turned in a pre-programmed direction and shot in order.
(4) A method of manually operating a camera with a pan / tilt head and taking a picture.
[0003]
[Problems to be solved by the invention]
The above-described conventional imaging method has many problems to be solved.
{Circle around (1)} When shooting with a wide-angle camera, the number of cameras can be reduced, but the sharpness of the shot image is impaired.
For example, it is difficult to identify an intruder because it is small.
{Circle around (2)} In the method of dividing the monitoring area and performing shared shooting, a large number of cameras are required.
(3) It is difficult to shoot an intruder effectively by using a camera with a pan / tilt head with a built-in program.
That is, there is a possibility that an important image such as the face of an intruder is missed.
(4) When a camera with a pan / tilt pan head is operated manually, it is necessary to always have required personnel.
[0004]
[Means for Solving the Problems]
The present invention seeks to overcome the disadvantages of the prior art described above,
Moving image photographing means for designating a target to be captured by the photographing means 1 capable of changing the direction of the visual field on the image of the photographing means 2 having a wider angle of view;
A tracking algorithm that keeps estimating the position and shape of the moving object reflected on the moving image under conditions where the object continues to move,
Means for automatically correcting an erroneous target estimation in an area where there are many moving objects other than the target or where there are obstacles blocking the target,
In this method, a moving object is automatically captured within the field of view of the image capturing means 1 to perform tracking image capturing.
[0005]
Further, a photographing method in which the upper end rather than the center (center of gravity) of the moving object is kept in the field of view of the photographing means 1 (tracking), and the moving object is placed in the field of view without tilting the image of the photographing means 1 A shooting method that keeps catching (tracking)
Moving object while reducing the wear of the mechanical system by restricting the change of the visual field of the photographing means 1 and realizing stable photographing (the change in the visual field of the photographing means 1 occurs only intermittently) A shooting method that keeps (tracks) in the field of view,
Also when performing zoom photographing with the photographing means 1, an automatic tracking photographing method is realized by a photographing method which simultaneously realizes stable photographing while reducing wear of the mechanical system and simultaneously keeps capturing a moving object in a field of view. Was configured.
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a moving image automatic tracking photographing apparatus according to the present invention.
[0007]
The pan-tilt camera 1 is a camera having a pan function and a tilt function, and can clearly capture an intruder (target).
It is preferable to install the pan rotation surface so that it is horizontal, and to set the pan rotation center and the tilt rotation center to coincide.
[0008]
The wide-angle camera 2 is a camera which is used as a moving image photographing means provided with a normal lens (according to the perspective projection method) or a fish-eye lens (according to the fish-eye projection method). At least 90 °, which is wider than the field of view of the pan-tilt camera 1 alone).
The pan-tilt camera 1 and the wide-angle camera 2 are installed close to each other, and the center line of the visual field (the optical axis of the lens) is directed obliquely downward at about 45 °.
[0009]
The A / D converter 3 is a circuit that converts a moving image (analog video signal) captured by the wide-angle camera 2 into digital moving image data.
[0010]
The motion detector 4 receives the digital image data output from the A / D converter 3 and outputs a set S1 of sections in which motion has been detected. Its internal configuration is as shown in FIG.
The frame buffer 11 is a FIFO memory for delaying the digital moving image data by one frame time, and temporarily stores one frame of digital moving image data.
The subtractor 12 subtracts, for each pixel, the Y component of the moving image data one frame time earlier stored in the frame buffer 11 from the Y component of the input digital moving image data, and calculates the result (density difference). This is the output circuit.
Binarizing circuit A13 is a circuit for outputting a value thresholds T 1 greater than the pixel density difference 1, the other pixels as 0.
The tallying circuit 14 is a circuit for tallying the number of pixels having the value 1 by the binarizing circuit A13 for each section.
Binarization circuit B15 is the aggregate value by the summing circuit 14 is the threshold value T 2 is greater than section 1, to convert the partition otherwise zero output.
[0011]
Next, a processing procedure of the motion detection unit 4 will be described.
{Circle around (1)} The difference between the Y component of the current one frame and the immediately preceding (past) one frame is obtained for each pixel by using the frame buffer 11 and the subtractor 12.
{Circle around (2)} The binarizing circuit A13 converts a pixel whose difference is larger than the constant T1 to 1 and converts other pixels to 0.
(3) The counting circuit 14 counts the number of pixels having the value 1 for each section. For example, the section is rectangular, and an image of 320 pixels horizontally and 240 lines vertically is divided into 32 columns horizontally and 15 rows vertically.
▲ 4 ▼ 2 binarization circuit B15 1 a is the aggregate values constant T 2 greater compartments, and outputs the set S1 and converts the compartments otherwise zero.
That is, in the present embodiment, as a data format representing a “set of partitions”, data in which partitions included in the set are replaced with 1 and partitions not included in the set are replaced with 0 among partitions constituting an image for one frame. The format is adopted, as shown in FIG.
[0012]
The target tracking unit 5 receives the set S1 of the sections output by the motion detection unit 4, estimates the target current position on the image, and outputs its two-dimensional coordinates.
However, there is a case where the target does not exist (there is no moving object in the field of view of the wide-angle camera 2). Therefore, the detection / non-detection of the target is also output separately as the target detection signal 10 and given to the subsequent stage.
Further, the size of the target on the image is also output for controlling the enlargement ratio of the pan / tilt camera 1.
[0013]
The internal configuration of the target tracking unit 5 is as shown in FIG.
The CPU 21 is a central control unit that performs various processes of each block constituting the target tracking unit 5, and the storage units 1 and 22 are memories that hold the current position, shape, and size of the target as a set of sections. is there.
The connected area enumeration means 23 is an operation means for calculating a set W of connected areas included in the set S1 that have a common part with the given set S2.
The connected region selecting unit 24 is a unit that selects and outputs a set H that minimizes the value of the following function d (H) from the set W output by the connected region listing unit 23.
d (H) = (the number of sections included in the common part of the set H and the set S1) ÷ (the number of sections included in the set H)
The mask area memory 25 is a memory that stores a set M of areas other than the target where there is movement or a block that obstructs an obstacle (obstructs a gap between the target and the camera). Basically not rewritten.
The inclusion determining means 26 is a block for determining whether or not the estimation result H of the target position and the shape is included in M. When the H is included in M, the connected area output means 1 and 27 have a common part with H. This is a block that outputs a connected area M C (H) of M.
The motion detecting means 2.28 is a means for outputting a position (section) B when H is included in M and detecting a motion on the periphery of M C (H). Reference numeral 29 denotes a unit that obtains, from S1, a connected region including the section B output by the motion detection units 2.28, and outputs the connected region.
The selector 30 receives the result of the inclusion determination unit 26, selects the contents to be stored in the storage means 1, 22 (output as H 2).
The circumscribed rectangle calculation 31 calculates the position and size of a rectangle circumscribing the target on the image.
The calculating means 2.32 finds the arithmetic mean (center of gravity) G2 of the coordinates of the sections included in the set H and outputs it as the representative position of the target.
[0014]
The target tracking unit 5 has three states: “target not detected”, “target tracking”, and “standby”.
The “target not detected” state indicates a state in which the target appears in the field of view of the wide-angle camera 2, and the “target tracking” state indicates that the target is moving in the field of view of the wide-angle camera 2 and The “tracking” state indicates that the target is stopped within the field of view of the wide-angle camera 2.
[0015]
Next, the processing of the “target not detected” state in the target tracking unit 5 is as follows.
{Circle around (1)} Wait for detecting a motion in an area (sense area) set in advance on the screen.
That is, the process waits for a common part to be generated between the set S1 output from the motion detection unit 4 and the set of sections constituting the sense area shown in FIG.
(2) When motion is detected in the sense area,
a. A connected area including the moved part is cut out from the set S1 and given to the storage means 1.22 as an initial value.
b. The state transits to the “target tracking” state.
[0016]
The process in the “target tracking” state is as follows.
{Circle around (1)} As shown in FIG. 4, the contents of the storage means 1.22 (set S2 of sections) are updated.
{Circle around (2)} When the following condition is satisfied, the state transits to the “standby” state.
a. Before update S2 後 After update S2
[0017]
The processing in the "waiting" state is as follows.
(1) It is determined whether a motion is detected in a preset area (sense area) in the screen.
That is, it is determined whether or not the set S1 output by the motion detection unit 4 includes a section constituting the sense area.
When a movement is detected, the same processing as in (2) a and b in “Target not detected” is performed.
{Circle around (2)} When the above condition is satisfied and one of the following conditions is satisfied, the state transits to the “target tracking” state.
a. H 2で な い not set S2 (H 2 protrudes from S2)
{Circle around (3)} When TC seconds elapse without the above conditions being satisfied, the state transits to the “target not detected” state.
[0018]
The target detection signal 10 outputs 0 in the “target not detected” state and 1 in other states.
The reason for providing the “standby” state is as follows.
{Circle around (1)} When the target stops moving, the motion detecting unit 4 hardly detects the motion, so that the number of sections included in the set S1 is smaller than that during the movement of the target.
{Circle around (2)} If the updating of S2 stored in the storage means 2 is continued in that state, S2 becomes an empty set, which supports subsequent tracking.
{Circle over (3)} Therefore, it is necessary to stop updating the storage means 2 from when the target stops until it starts moving again.
[0019]
The camera control unit 6 receives the coordinates G of the target, the target detection signal 10, and the position and size of the circumscribed rectangle output by the target tracking unit 5, rotates the pan-tilt camera 1 to capture the target in the field of view, and enlarges it. It sets the rate and consists of the following steps:
{Circle around (1)} From the coordinates G, the direction in which the target is viewed from the wide-angle camera 2 is estimated. (Estimated target direction)
(2) Calculate the pan and tilt angles given to the pan-tilt camera 1 from the estimated direction. (Calculation of camera turning angle)
(3) The calculated pan and tilt angles are given to the pan / tilt camera 1 and the camera is turned. (Turn command)
{Circle around (4)} A zoom command is given to the pan-tilt camera 1 to enlarge it so that the horizontal size of the circumscribed rectangle matches 70% of the horizontal size of the image captured by the pan-tilt camera 1. (Zoom command)
However, when the target detection signal 10 is 0 (target not detected), the above process is not performed and the process waits.
[0020]
A target position G on an image captured by the wide-angle camera 2 is input to the camera control unit 6, and a vector component from the focal point of the wide-angle camera 2 toward the target is obtained based on the target position G.
There are two types of lenses used in the wide-angle camera 2 for estimating the target prospective direction: a normal wide-angle lens (according to the perspective projection method) and a fish-eye lens (according to the fish-eye projection method). Find the vector component from the focus to the target.
The estimation of the expected target direction when the lens of the wide-angle camera 2 is normal (according to the perspective projection method) will be described with reference to FIG.
In FIG. 6, a vector from the focal point O of the wide-angle camera 2 to the target position P in the three-dimensional space gives a target prospective direction to be obtained.
Here, the X axis is set to be in the horizontal direction, and the Z axis is set to be coincident with the center line of the visual field (lens optical axis).
To simplify the derivation of the vector components, a vector OG parallel to OP is determined. Here, G is the intersection of the straight line OP and the projection plane.
In FIG. 6, when the X-axis component of the OG is x, the Y-axis component is y, and the Z-axis component is z, the following equation is obtained.
x = μ
y = ν
z = d = H W / tan (H A ) (1)
here,
μ: X component of coordinate G ν: Y component of coordinate G H W : 1/2 of full width of perspective projection plane of lens
HA : 1/2 of the horizontal viewing angle of the lens
d: distance from lens focal point to projection plane x: X component of vector OG y: Y component of vector OG z: Z component of vector OG
A method of estimating the expected target direction when the lens of the wide-angle camera 2 is a fisheye lens (according to the fisheye projection method) will be described with reference to FIG.
In FIG. 7, a vector from the focal point O of the wide-angle camera 2 to the target position P in the three-dimensional space gives a target prospective direction to be obtained.
Here, the X axis is set to be in the horizontal direction, and the Z axis is set to be coincident with the center line of the visual field (lens optical axis).
In order to simplify the derivation of the vector components, a vector OG 'parallel to OP is obtained. G ′ is a point on the plane Z = γ, and γ indicates a fish-eye projection surface radius.
From FIG. 7, D 2 = γs
R 0 = γH A
Therefore,
D 1 = γ tans = R 0 / HA · tan [( HA / R 0 ) · D 2 ] (2)
here,
G 0 : Intersection γ between the plane z = γ and the Z axis (lens optical axis) γ: Fish-eye projection radius D 1 : Distance from G 0 to G ′ D 2 : Arc length H A from G 0 to G : Lens viewing angle ÷ 2 (90 ° for a general fisheye lens)
S: Angle between the expected direction of the target and the Z axis R 0 : Viewing angle HA on the image The X component x, the Y component y, and the Z component z of OG ′ are given by the following equations.
(Equation 1)
Figure 2004015516
[0022]
Since the target prospective direction vector component (x, y, z) has been obtained in the above-described target prospective direction estimation processing, panning and panning such that this vector is parallel to the center line of view (lens optical axis) of the pan-tilt camera 1 are performed. The tilt angle is calculated according to FIGS.
Pan angle, obtains a vector V 1 obtained by projecting the vector (x, y, z) and pan rotating surface (three-dimensional plane), taking the orthonormal coordinate system consisting Z'-axis and X'-axis on a pan rotation plane and X'component x'of V 1, when obtaining the Z'component z ', the pan angle P a is determined by the following equation.
P A = tan −1 (x ′ / z ′)
[0023]
Then, the tilt angle takes the Y'-axis in the normal direction of the panning rotation plane, obtains a vector vector V 2 which is projected (x, y, z) a three-dimensional plane spanned by Y'-axis vector V 1 When obtaining the Y'component y'and V 1 component v'vector V 2, the tilt angle P T is obtained by the following equation.
PT = tan -1 (y '/ v')
In the embodiment, the lens optical axis (Z axis) of the wide-angle camera 2 faces obliquely downward by 45 °, whereas the pan rotation surface of the pan-tilt camera 1 is horizontal.
Assuming that the angle between the lens optical axis of the wide-angle camera 2 and the pan rotation surface of the pan-tilt camera 1 is θ, the XYZ coordinate system and the X′-Y′-Z ′ coordinate system are as shown in FIG. .
[0024]
Pan angle P A was determined by the principle, given a tilt angle P T, pan tilt camera 1 faces a side of incident light on the focal point O of the wide-angle camera 2 from the target position P has entered in a three-dimensional space, and The center line of view of the pan-tilt camera 1 and the straight line OP (incident light incident direction) are oriented so as to be parallel. Further, since the pan-tilt camera 1 and the wide-angle camera 2 are installed close to each other, the visual field center line and the straight line OP are close to each other. That is, the center line of the visual field of the pan-tilt camera 1 is close to the target position P in the three-dimensional space, and therefore P is photographed near the center of the photographed image of the pan-tilt camera 1.
[0025]
As can be understood from the above principle, the closer the pan / tilt camera 1 and the wide-angle camera 2 are installed, the more accurately the target position P in the three-dimensional space is photographed at the center of the field of view of the pan / tilt camera 1.
Therefore, the distance between the pan-tilt camera 1 and the wide-angle camera 2 (how close it must be) may be determined depending on how accurately P is to be captured in the center of the visual field on the image of the pan-tilt camera 1.
[0026]
In the embodiment, the pan-tilt camera 1 whose pan rotation center and tilt rotation center coincide with each other is used, and it is easy to determine the distance between the pan-tilt camera 1 and the wide-angle camera 2. That is, if the center line of view of the pan-tilt camera 1 that aims at the target position P in the three-dimensional space must not deviate by more than the distance d, the pan-tilt camera 1 is moved so that the distance between the two points O and O becomes less than d. And the wide-angle camera 2 must be installed.
Here, O: focus O · wide-angle camera 2: pan and tilt rotation center [0027] of the pan-tilt camera 1
The turning command and the zoom command are as follows.
(1) An enlargement ratio of the pan-tilt camera 1 is calculated such that the horizontal size of the circumscribed rectangle coincides with 70% of the horizontal size of the image captured by the pan-tilt camera 1.
▲ 2 ▼ in the photographing unit 1 calculates the threshold T 5 when shooting in z times zoom, when G input from the motion detector 4, which was away compared to G of the previous input, the distance T 5 or Commands the pan-tilt camera 1 to perform pan (absolute angle P A ), tilt (absolute angle P T ), and zoom (magnification z).
(3) Store the current G and wait for the next G input.
[0028]
The following elements are added as automatic correction means for automatically correcting erroneous estimation of the position and shape of the target in a region where there are many moving objects other than the target or where there are obstacles blocking the target.
{Circle around (1)} A storage unit 2 for storing a set M of sections that cover an area in which there are many moving objects other than the target or an obstacle that blocks the target among the sections constituting the input image.
{Circle around (2)} The inclusion determining means 26 for determining whether or not the set H of the sections indicating the area where the target being tracked occupies on the input image is included in M.
{Circle around (3)} When H is included in M, connected region output means 1 and 27 which output a connected region M C (H) of M having a common part with H.
{Circle around (4)} When H is included in M, motion detecting means 2.28 which monitors the motion on the periphery of the connection area M C (H) and outputs the position (section) B when the motion is detected.
{Circle around (5)} When the motion detecting means 2.28 detects a motion (outputs B), a connected area output means 2.29 for outputting a connected area S 1C (B) including B from a section constituting the input image.
{Circle around (6)} When the movement detecting means 2 detects a movement, the correcting means selector 30 replaces the contents of the set H with the contents of the connected area S C1 (B).
[0029]
With the above-described components, while the area H in which the target is assumed to be projected on the image of the wide-angle camera 2 is within (including) the area M, the connected area is concurrently updated with H as the target. The movement at the periphery of M C (H) (the connected region of M including H) is monitored, and when the movement is detected in the section B on the periphery, the update of H is stopped, and B is regarded as a part of the target. By re-tracking as it is, it is possible to prevent erroneous estimation of a target other than the target in the area M as a target.
[0030]
【The invention's effect】
As described above, according to the moving image automatic tracking photographing method and the automatic tracking photographing apparatus of the present invention, a target to be captured by the photographing means 1 capable of changing the direction of the visual field is specified on the image of the photographing means 2 having a wider angle. Moving image capturing means, a tracking algorithm for continuously estimating the position and shape of a moving object on the image of the capturing means 2, and a large number of moving objects other than the target or obstacles blocking the target. A means for automatically correcting an erroneous target estimation in a target area, so that an extremely high-precision security system capable of continuously capturing an object moving with only two cameras in a field of view and automatically tracking and photographing. It is possible to construct
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an automatic tracking photographing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a configuration of a motion detection unit.
FIG. 3 is an example of a set of partitions S1.
FIG. 4 is a block diagram showing a configuration of a target tracking unit.
FIG. 5 is an example of a sense area and a mask area.
FIG. 6 is an explanatory diagram when a lens of a wide-angle camera is normal.
FIG. 7 is an explanatory diagram when a lens of a wide-angle camera is a fisheye lens.
FIG. 8 is an explanatory diagram of a pan angle calculation method.
FIG. 9 is an explanatory diagram of a tilt angle calculation method.
FIG. 10 is an explanatory diagram showing a relationship between an XYZ coordinate system and an X′-Y′-Z ′ coordinate system.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 Pan-tilt camera 2 Wide-angle camera 3 A / D conversion unit 4 Motion detection unit 5 Target tracking unit 6 Camera control unit 7 Video recording device 11 Frame buffer 12 Subtractor 13 Binarization circuit A
14 Counting circuit 15 Binarization circuit B
20 Motion detection means 1
21 CPU
22 Storage means 1
23 connected area listing means 24 connected area selecting means 25 mask area memory 26 inclusion determining means 27 connected area output means 1
28 Motion detection means 2
29 Connecting area output means 2
30 selector 31 circumscribed rectangle calculation 32 calculation means 2

Claims (8)

視野の方向を変更可能な撮影手段1と、
より広画角の撮影手段2と、
撮影手段1の撮影対象(以下ターゲットと表記)を、撮影手段2の画像上で指定する動画像撮影手段と、
撮影手段2で撮影された動画像上でのターゲットの位置と形状を、該ターゲットが動き続ける条件下で推定し続ける追尾手段と、
ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域での追尾手段による誤推定を自動修正する自動修正手段と、
を備え、動く物体を自動的に撮影手段1の視野内に捉え続けて追尾して撮影するようにしたことを特徴とする動画像の自動追尾撮影方法。
A photographing means 1 capable of changing the direction of the visual field;
Shooting means 2 having a wider angle of view;
A moving image photographing means for designating a photographing target (hereinafter referred to as a target) of the photographing means 1 on an image of the photographing means 2;
Tracking means for continuously estimating the position and shape of the target on the moving image captured by the imaging means 2 under conditions in which the target continues to move;
Automatic correction means for automatically correcting erroneous estimation by tracking means in an area where there are many moving objects other than the target, or where there are obstacles blocking the target,
And automatically capturing and tracking a moving object within the field of view of the photographing means 1 and photographing the moving object.
視野の方向を変更可能な撮影手段1と、
撮影手段1より水平画角もしくは垂直画角が大きい撮影手段2と、
撮影手段2で撮影した画像上の座標Gに結像した入射光の入射方向を推定する推定手段と、
前記座標Gに入射した入射光の推定入射方向と前記撮影手段1の視野中心が互いに平行かつ該視野が入射光が入射してきた側を向くように撮影手段1の方向を変更する制御手段と、
によって構成すると共に、前記撮影手段1と撮影手段2を近接して設置し、ターゲットをより広画角の撮影手段2の画像上で指定する動画像撮影手段を設けたことを特徴とする請求項1に記載の動画像の自動追尾撮影方法。
A photographing means 1 capable of changing the direction of the visual field;
A photographing means 2 having a larger horizontal or vertical angle of view than the photographing means 1;
Estimating means for estimating the incident direction of the incident light imaged at coordinates G on the image taken by the photographing means 2;
Control means for changing the direction of the photographing means 1 so that the estimated incident direction of the incident light incident on the coordinates G and the center of the visual field of the photographing means 1 are parallel to each other and the visual field faces the side on which the incident light is incident;
A moving image photographing means for setting the photographing means 1 and the photographing means 2 close to each other and designating a target on an image of the photographing means 2 having a wider angle of view. 2. The method for automatically tracking and capturing a moving image according to 1.
入力画像の動きを画像を構成する区画ごとに求め、動きを検知した区画の集合S1を出力する動き検出手段1と、
前記集合S1に含まれる連結領域のうち、与えられた集合S2と共通部分を持つ連結領域の集合Wを求める連結領域列挙手段と、
前記連結領域列挙手段が出力した集合Wから、下記関数d(H)の値が最小となる連結領域Hを選択して出力する連結領域選択手段と、
d(H)=(集合Hと集合S1の共通部分に含まれる区画数)÷(集合Hに含まれる区画数)
前記連結領域選択手段が出力した連結領域Hを一時的に記憶し、該記憶内容を連結領域列挙手段の要求に応じて集合S2として出力する記憶手段1と、
連結領域選択手段が出力した連結領域Hに含まれる区画の座標の相加平均(重心)G2を求め、ターゲットの代表位置として出力する演算手段2と、
によって構成し、動画像に映っている動く物体の位置と形状を推定する追尾手段を設けたことを特徴とする請求項1,2のいずれかに記載の動画像の自動追尾撮影方法。
A motion detecting unit 1 that obtains the motion of the input image for each of the sections constituting the image and outputs a set S1 of the sections in which the motion has been detected;
Connected area enumeration means for obtaining a set W of connected areas having a common part with the given set S2 among the connected areas included in the set S1,
Connected area selecting means for selecting and outputting a connected area H in which the value of the following function d (H) is minimum from the set W output by the connected area enumeration means;
d (H) = (the number of sections included in the common part of the set H and the set S1) ÷ (the number of sections included in the set H)
A storage unit 1 for temporarily storing the connected region H output by the connected region selecting unit, and outputting the stored contents as a set S2 in response to a request from the connected region listing unit;
An arithmetic means 2 for calculating an arithmetic mean (center of gravity) G2 of the coordinates of the sections included in the connected area H output by the connected area selecting means and outputting it as a representative position of the target;
3. A method according to claim 1, further comprising tracking means for estimating a position and a shape of a moving object appearing in the moving image.
入力画像を構成する区画のうち、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域を被う区画の集合Mを記憶する記憶手段2と、
追尾中のターゲットが入力画像上に占めると推定される領域を表す区画の集合Hが前記集合Mに含まれるか否かを判定する包含判定手段と、
集合Hが集合Mに含まれるとき、集合Hと共通部分を持つ集合Mの連結領域M(H)を出力する連結領域出力手段1と、
集合Hが集合Mに含まれるとき、連結領域M(H)の周縁上の動きを監視し、動きを検出したときその位置(区画)Bを出力する動き検出手段2と、
動き検出手段2が動きを検知したとき、入力画像を構成する区画からBを含む連結領域S1C(B)を出力する連結領域出力手段2と、
動き検出手段2が動きを検知したとき、集合Hの内容を連結領域SC1(B)の内容で置き換える修正手段と、
によって構成し、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲットの位置および形状の誤推定を自動修正する自動修正手段を設けたことを特徴とする請求項1から3のいずれかに記載の動画像の自動追尾撮影方法。
A storage unit 2 that stores a set M of sections that cover an area in which there are many moving objects other than the target or an obstacle that blocks the target, among the sections configuring the input image;
Inclusion determination means for determining whether or not a set H of sections indicating regions where a target being tracked is occupied on the input image is included in the set M;
When the set H is included in the set M, a connected area output unit 1 that outputs a connected area M C (H) of the set M having a common part with the set H;
When the set H is included in the set M, the motion detecting means 2 monitors the motion on the periphery of the connected area M C (H), and outputs the position (section) B when the motion is detected;
A connection area output means 2 for outputting a connection area S 1C (B) including B from a section constituting the input image when the movement detection means 2 detects a movement;
Correction means for replacing the contents of the set H with the contents of the connected area S C1 (B) when the movement detecting means 2 detects a movement;
And automatic correction means for automatically correcting erroneous estimation of the position and shape of the target in a region where there are many moving objects other than the target or where there are obstacles blocking the target. The method for automatically tracking and photographing a moving image according to claim 1.
制御手段から撮影手段1へ旋回を指令する前に、該指令により前記撮影手段1が向く予定の方向を求める演算手段4と、
制御手段から撮影手段1に実際に旋回を指令するとき、指令する直前の演算手段4の出力を記憶する記憶手段3と、
より成る構成要素を追加し、制御手段から撮影手段1へ旋回を指令するのは、演算手段4が現在出力中の方向と、記憶手段3に記憶されている方向のなす角が下記に示す閾値T以上になる条件が成立したときのみとし、撮影手段1の視野の変更に制約を設けて機械系の摩耗を低減し、かつ安定した撮影を実現しつつ、動く物体を前記撮影手段1の視野内に捉え続けて追尾するようにしたことを特徴とする請求項1から4のいずれかに記載の動画像の自動追尾撮影方法。
閾値T = tan−1(tanC/Z)
ここで、Z :撮影手段1におけるズーム倍率
C :拡大率Z=1(最大広角時)のときのTの値
:撮影手段1に旋回を指令するのに最低限必要なターゲット移 動角度(閾値)[rad]
A computing unit 4 for obtaining a direction in which the photographing unit 1 is to be directed by the command before the control unit instructs the photographing unit 1 to turn;
A storage unit 3 for storing an output of the arithmetic unit 4 immediately before the instruction when the control unit instructs the photographing unit 1 to actually turn;
The control unit instructs the photographing unit 1 to make a turn because the angle between the direction currently output by the arithmetic unit 4 and the direction stored in the storage unit 3 is a threshold value shown below. only as when T 4 or more following condition is satisfied, to reduce the wear of the mechanical system imposes constraints on change of the field of view of the imaging unit 1, and while realizing a stable shooting a moving object of the imaging unit 1 5. The method for automatically tracking and capturing a moving image according to claim 1, wherein the tracking is continuously performed while being captured in the field of view.
Threshold value T 4 = tan −1 (tan C / Z)
Here, Z: zoom magnification in the imaging unit 1 C: magnification Z = 1 the value of T 4 T when the (maximum wide-angle state) 4: Minimum targets move to direct the pivot photographing means 1 Angle (threshold) [rad]
制御手段から撮影手段1へ実際に旋回を指令したとき、座標Gの値を記憶する記憶手段4よりなる構成要素を追加し、
制御手段から撮影手段1へ旋回を指令するのは、座標Gと記憶手段4に記憶されている座標との距離が、下記に示す閾値T以上になる条件が成立するときのみとし、撮影手段1の視野の変更に制約を設けて機械系の摩耗を低減し、かつ安定した撮影を実現しつつ、動く物体を前記撮影手段1の視野内に捉え続けて追尾するようにしたことを特徴とする請求項1から4のいずれかに記載の動画像の自動追尾撮影方法。
閾値T=C/Z
ここで、 T: 撮影手段1に旋回を指令するのに最低限必要なターゲット 移動量(閾値)
Z :撮影手段1におけるズーム倍率
C :拡大率Z=1(最大広角時)のときのTの値
When the control means instructs the photographing means 1 to actually turn, a component comprising a storage means 4 for storing the value of the coordinate G is added,
To command the turning from the control means to the imaging unit 1, the distance between the coordinates stored as coordinates G in the storage unit 4, and only when the condition becomes equal to or higher than the threshold T 5 shown below is satisfied, the photographing means (1) reducing the wear of the mechanical system by restricting the change of the visual field and realizing stable photographing, while continuously tracking a moving object within the visual field of the photographing means 1; 5. The method for automatically tracking and photographing a moving image according to claim 1, wherein:
Threshold value T 5 = C / Z
Here, T 5 : minimum target movement amount (threshold) required to instruct the photographing means 1 to turn.
Z: zoom magnification in the imaging unit 1 C: value of T 5 when the enlargement ratio Z = 1 (at the maximum wide-angle)
撮影手段1としてパンとチルトにより視野を変更するカメラを使用し、かつパン平面を(撮影手段2の視野中心と並行にするのでなく)水平になるように設置することにより撮影手段1の映像を傾かせずに、かつ動く物体の中央(重心)より上端側の映像を、前記撮影手段1の視野内に捉え続けて追尾するようにしたことを特徴とする請求項1から6のいずれかに記載の動画像の自動追尾撮影方法。By using a camera that changes the field of view by panning and tilting as the photographing means 1 and setting the pan plane to be horizontal (instead of being parallel to the center of the visual field of the photographing means 2), the image of the photographing means 1 can be obtained. 7. The image capturing apparatus according to claim 1, wherein an image on an upper end side of a center (center of gravity) of the moving object is continuously captured in the field of view of the photographing unit without tilting. Automatic tracking shooting method for the described moving image. 近接して設置したパンチルトカメラおよび広角カメラと、広角カメラで撮影した動画像をディジタル動画像データに変換するA/D変換部と、ディジタル画像データを入力して動きを検出した区画の集合S1を出力する動き検出部と、該区画の集合S1を入力して画像上でのターゲット現在位置を推定し、その二次元座標Gを出力すると共にターゲット検出信号10および画像上でターゲットに外接する長方形の位置を出力するターゲット追尾部と、前記ターゲット追尾部が出力したターゲットの座標G、ターゲット検出信号10および外接長方形の位置と大きさを受け取り、ターゲットを視野内に捉えるようにパンチルトカメラを旋回させると共に拡大率を設定するカメラ制御部と、カメラ制御部から出力されるパンチルト制御信号に入力して動画像を撮影するパンチルトカメラからのターゲット映像を表示する映像記録装置と、
によって構成したことを特徴とする動画像の自動追尾撮影装置。
A pan-tilt camera and a wide-angle camera installed close to each other, an A / D conversion unit for converting a moving image captured by the wide-angle camera into digital moving image data, and a set S1 of sections that have input digital image data and have detected movement. The motion detection unit to be output and the set S1 of the sections are input to estimate the current position of the target on the image, to output its two-dimensional coordinates G, and to output the target detection signal 10 and the rectangular shape circumscribing the target on the image. A target tracking unit that outputs a position, receives the coordinates G of the target output by the target tracking unit, the target detection signal 10, and the position and size of the circumscribed rectangle, and rotates the pan-tilt camera to capture the target in the field of view. Camera control section to set the magnification and input to pan / tilt control signal output from camera control section A video recording apparatus for displaying a target image from the pan-tilt camera for photographing a moving image Te,
An automatic tracking and photographing apparatus for moving images characterized by comprising:
JP2002167309A 2002-06-07 2002-06-07 Automatic tracking imaging method and automatic tracking imaging device for moving images Expired - Fee Related JP3963261B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002167309A JP3963261B2 (en) 2002-06-07 2002-06-07 Automatic tracking imaging method and automatic tracking imaging device for moving images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002167309A JP3963261B2 (en) 2002-06-07 2002-06-07 Automatic tracking imaging method and automatic tracking imaging device for moving images

Publications (2)

Publication Number Publication Date
JP2004015516A true JP2004015516A (en) 2004-01-15
JP3963261B2 JP3963261B2 (en) 2007-08-22

Family

ID=30434604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002167309A Expired - Fee Related JP3963261B2 (en) 2002-06-07 2002-06-07 Automatic tracking imaging method and automatic tracking imaging device for moving images

Country Status (1)

Country Link
JP (1) JP3963261B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005184776A (en) * 2003-11-27 2005-07-07 Sony Corp Imaging device and its method, monitoring system, program and recording medium
US7936385B2 (en) 2006-12-20 2011-05-03 Sony Corporation Image pickup apparatus and imaging method for automatic monitoring of an image
US8064618B2 (en) 2007-07-31 2011-11-22 Sony Corporation Direction detection apparatus, direction detection method and direction detection program, and direction control apparatus, direction control method, and direction control program
JP2012042507A (en) * 2010-08-12 2012-03-01 Hitachi Consumer Electronics Co Ltd Video display device
CN102866712A (en) * 2012-09-07 2013-01-09 安科智慧城市技术(中国)有限公司 Method and system for realizing automatic cruise of pan-tilts
US8390686B2 (en) 2005-09-20 2013-03-05 Fujifilm Corporation Surveillance camera apparatus and surveillance camera system
KR101841993B1 (en) * 2016-11-15 2018-03-26 (주) 아이오티솔루션 Indoor-type selfie support Camera System Baseon Internet Of Thing
CN108133491A (en) * 2017-12-29 2018-06-08 重庆锐纳达自动化技术有限公司 A kind of method for realizing dynamic target tracking
CN108900758A (en) * 2018-09-07 2018-11-27 厦门博聪信息技术有限公司 A kind of the Intelligent human-face candid camera and its face snap method of the cooperation of rifle ball
US10560624B2 (en) 2014-09-10 2020-02-11 Fujifilm Corporation Imaging control device, imaging control method, camera, camera system, and program
CN113723262A (en) * 2021-08-25 2021-11-30 浙江大华技术股份有限公司 Target tracking method and device, road monitoring equipment, equipment and medium
WO2022141197A1 (en) * 2020-12-30 2022-07-07 深圳市大疆创新科技有限公司 Method and device for controlling cradle head, movable platform and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104243833B (en) * 2014-09-30 2017-12-08 精宸智云(武汉)科技有限公司 Camera posture adjusting method and device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4736381B2 (en) * 2003-11-27 2011-07-27 ソニー株式会社 Imaging apparatus and method, monitoring system, program, and recording medium
JP2005184776A (en) * 2003-11-27 2005-07-07 Sony Corp Imaging device and its method, monitoring system, program and recording medium
US8390686B2 (en) 2005-09-20 2013-03-05 Fujifilm Corporation Surveillance camera apparatus and surveillance camera system
US7936385B2 (en) 2006-12-20 2011-05-03 Sony Corporation Image pickup apparatus and imaging method for automatic monitoring of an image
US8064618B2 (en) 2007-07-31 2011-11-22 Sony Corporation Direction detection apparatus, direction detection method and direction detection program, and direction control apparatus, direction control method, and direction control program
JP2012042507A (en) * 2010-08-12 2012-03-01 Hitachi Consumer Electronics Co Ltd Video display device
CN102866712A (en) * 2012-09-07 2013-01-09 安科智慧城市技术(中国)有限公司 Method and system for realizing automatic cruise of pan-tilts
US10560624B2 (en) 2014-09-10 2020-02-11 Fujifilm Corporation Imaging control device, imaging control method, camera, camera system, and program
KR101841993B1 (en) * 2016-11-15 2018-03-26 (주) 아이오티솔루션 Indoor-type selfie support Camera System Baseon Internet Of Thing
WO2018092929A1 (en) * 2016-11-15 2018-05-24 (주) 아이오티솔루션 Internet of things-based indoor selfie-supporting camera system
CN108133491A (en) * 2017-12-29 2018-06-08 重庆锐纳达自动化技术有限公司 A kind of method for realizing dynamic target tracking
CN108900758A (en) * 2018-09-07 2018-11-27 厦门博聪信息技术有限公司 A kind of the Intelligent human-face candid camera and its face snap method of the cooperation of rifle ball
WO2022141197A1 (en) * 2020-12-30 2022-07-07 深圳市大疆创新科技有限公司 Method and device for controlling cradle head, movable platform and storage medium
CN113723262A (en) * 2021-08-25 2021-11-30 浙江大华技术股份有限公司 Target tracking method and device, road monitoring equipment, equipment and medium

Also Published As

Publication number Publication date
JP3963261B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
JP6532217B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM
JP4912117B2 (en) Imaging device with tracking function
JP4241742B2 (en) Automatic tracking device and automatic tracking method
JP5233926B2 (en) Fisheye monitoring system
RU2520574C2 (en) Camera platform system
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
US7697025B2 (en) Camera surveillance system and method for displaying multiple zoom levels of an image on different portions of a display
CN111787232B (en) Image processing method, device and storage medium based on pan-tilt-zoom camera
JP2004015516A (en) Automatic tracking photographing method and automatic tracking photographing device for motion picture
US20090086022A1 (en) Method and device for consistent region of interest
TWI530180B (en) Linking-up photographing system and control method for cameras thereof
JP6128109B2 (en) Image capturing apparatus, image capturing direction control method, and program
JP5183152B2 (en) Image processing device
JP2006319578A (en) Depth direction movement determining device, blurring correction system having the same, and blurring correction method, program, computer readable record medium recording the program, and electronic apparatus equipped with the blurring correction system
US8860780B1 (en) Automatic pivoting in a wide-angle video camera
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
WO2012158017A1 (en) Method and system for multiple objects tracking and display
US20090051770A1 (en) Camera control method, camera control device, camera control program, and camera system
JP5360403B2 (en) Mobile imaging device
JP2005303493A (en) Obstacle-adaptive projection type display
JP2009044475A (en) Monitor camera system
JP2006033188A (en) Supervisory apparatus and supervisory method
TW201410015A (en) A multiple camera system and method therefore
JP2002101408A (en) Supervisory camera system
KR100761817B1 (en) A ccd camera system for effectively tracking a motion of objects and a method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050113

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050216

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070516

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3963261

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100601

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110601

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120601

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130601

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130601

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees