JP2004015516A - Automatic tracking photographing method and automatic tracking photographing device for motion picture - Google Patents
Automatic tracking photographing method and automatic tracking photographing device for motion picture Download PDFInfo
- Publication number
- JP2004015516A JP2004015516A JP2002167309A JP2002167309A JP2004015516A JP 2004015516 A JP2004015516 A JP 2004015516A JP 2002167309 A JP2002167309 A JP 2002167309A JP 2002167309 A JP2002167309 A JP 2002167309A JP 2004015516 A JP2004015516 A JP 2004015516A
- Authority
- JP
- Japan
- Prior art keywords
- target
- photographing
- unit
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Accessories Of Cameras (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、セキュリティ・システムを構成する監視用カメラを利用して、動く物体を自動的に視野内に捉え続けて撮影する自動追尾撮影方法およびその装置に関する。
【0002】
【従来の技術】
監視用カメラによって監視対象物を撮影して、監視領域への侵入者を監視する方法としては、次のような方法が利用されていた。
▲1▼監視する領域全体を広角カメラで撮影する方法。
▲2▼監視する領域全体を通常画角のカメラ複数台を使用して、監視領域を分割して分担撮影する方法。
▲3▼パン・チルト雲台つきのカメラを予めプログラムした向きに、順番に向けさせて撮影する方法。
▲4▼パン・チルト雲台つきのカメラを人手で操作して撮影する方法。
【0003】
【発明が解決しようとする課題】
上述した従来技術による撮影方法では、解決すべき多くの課題があった。
▲1▼広角カメラで撮影すると、カメラの台数は少なくて済むが、撮影した映像の鮮明さが損われる。
例えば、侵入者が小さく写るので特定しにくい。
▲2▼監視領域を分割して分担撮影する方法では、多数のカメラを必要とする。
▲3▼プログラムを内蔵したパン・チルト雲台つきのカメラで撮影する方法では、侵入者を効果的に撮影し難い。
即ち、侵入者の顔など、重要な映像を撮り逃すおそれがある。
▲4▼パン・チルト雲台つきカメラを人手で操作するのでは、常に所要の人員を配置しておく必要が生ずる。
【0004】
【課題を解決するための手段】
本発明は上述した従来技術による欠点を解消しようとするものであって、
視野の方向を変更可能な撮影手段1で捉えるべきターゲットを、より広画角の撮影手段2の画像上で指定する動画像撮影手段と、
動画像上に映っている動く物体の位置と形状を、該物体が動き続ける条件下で推定し続ける追尾アルゴリズムと、
ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲット誤推定を自動修正する手段と、
によって構成し、動く物体を自動的に撮影手段1の視野内に捉え続けて追尾撮影する方法である。
【0005】
さらに、動く物体の中央(重心)より、むしろ上端側を撮影手段1の視野内に捉え続ける(追尾する)撮影方法と、前記撮影手段1の映像を傾かせずに、動く物体を視野内に捉え続ける(追尾する)撮影方法と、
前記撮影手段1の視野の変更に制約を設けて機械系の摩耗を低減させ、かつ安定した撮影(前記撮影手段1の視野内の変更が間欠的にしか発生しない)を実現しつつ、動く物体を視野内に捉え続ける(追尾する)撮影方法と、
前記撮影手段1でズーム撮影するときも、機械系の摩耗を低減し、かつ安定した撮影を実現することと、動く物体を視野内に捉え続けることを同時に満足する撮影方法
とによって自動追尾撮影方法を構成した。
【0006】
【発明の実施の形態】
以下、本発明の実施例を図面を参照しながら説明する。
図1は、本発明に係る動画像の自動追尾撮影装置の構成を示すブロック図である。
【0007】
パンチルトカメラ1は、パン機能とチルト機能を備えたカメラであって、侵入者(ターゲット)を鮮明に撮影することができる。
パン回転面が水平になるように設置し、パン回転中心とチルト回転中心が一致するように設置するのがよい。
【0008】
広角カメラ2は、通常の(遠近投影法に従う)レンズか、魚眼レンズ(魚眼投影法に従う)を備えた動画像撮影手段として使用されるカメラであって、監視対象領域の広い範囲(視野角にして90°等、少なくともパンチルトカメラ1単体の視野よりは広い)を視野内に収めることができる。
なお、パンチルトカメラ1と広角カメラ2とは近接して設置しておき、視野中心線(レンズの光軸)は斜め下45°程度に向けておく。
【0009】
A/D変換部3は、広角カメラ2で撮影した動画像(アナログ映像信号)をディジタル動画像データに変換する回路である。
【0010】
動き検出部4は、A/D変換部3が出力したディジタル画像データを受け取り、動きを検出した区画の集合S1を出力するものであって、その内部構成は図2に示す通りである。
フレームバッファ11はディジタル動画像データに1フレーム時間の遅延を与えるFIFOメモリであって、1フレーム分のディジタル動画像データを一時的に記憶する。
減算器12は、入力されたディジタル動画像データのY成分から、フレームバッファ11に記憶されている1フレーム時間前の動画像データのY成分を画素ごとに引き算し、その結果(濃度差分)を出力する回路である。
2値化回路A13は、濃度差分の値が閾値T1より大きい画素を1、それ以外の画素を0として出力する回路である。
集計回路14は、2値化回路A13により値1となった画素の個数を区画ごとに集計する回路である。
2値化回路B15は、集計回路14による集計値が閾値T2より大きい区画を1、そうでない区画を0に変換し出力する。
【0011】
次に、動き検出部4の処理手順を説明する。
▲1▼現在の1フレームと直前(過去)の1フレームのY成分の差分を画素ごとに、フレームバッファ11と減算器12を使用して取る。
▲2▼2値化回路A13が、上記差分が定数T1より大きい画素を1、それ以外の画素を0に変換する。
▲3▼集計回路14が値1となった画素の個数を区画ごとに集計する。例えば、区画は長方形とし、横320ピクセル、縦240ラインの画像を横32列、縦15行に区切る。
▲4▼2値化回路B15が上記集計値が定数T2より大きい区画を1、そうでない区画を0に変換して集合S1を出力する。
即ち、本実施例では、「区画の集合」を表現するデータ形式として、1フレーム分の画像を構成する区画の中で、該集合に含まれる区画を1、そうでない区画を0に置き換えたデータ形式を採用しており、図3に示す通りである。
【0012】
ターゲット追尾部5は、動き検出部4が出力した区画の集合S1を受け取り、画像上でのターゲット現在位置を推定し、その二次元座標を出力する。
但し、ターゲットが存在しない(広角カメラ2の視野内に動いている物体がない)場合もあるため、ターゲットの検知/未検知も別途ターゲット検出信号10として出力し、後段に与える。
また、パンチルトカメラ1の拡大率制御のため、ターゲットの画像上での大きさも出力する。
【0013】
ターゲット追尾部5の内部構成は図4に示す通りである。
CPU21は、ターゲット追尾部5を構成する各ブロックの各種処理を実施する中央制御装置であり、記憶手段1・22は、ターゲットの現在位置・形状・大きさを、区画の集合として保持するメモリである。
連結領域列挙手段23は、集合S1に含まれる連結領域のうち、与えられた集合S2と共通部分をもつものの集合Wを求める演算手段である。
また、連結領域選択手段24は、連結領域列挙手段23が出力した集合Wから、下記関数d(H)の値が最小となる集合Hを選択して出力する手段である。
d(H)=(集合Hと集合S1の共通部分に含まれる区画数)÷(集合Hに含まれる区画数)
マスク領域メモリ25は、ターゲット以外の動きがある領域または障害物(ターゲットとカメラの間を遮る)を被う区画の集合Mを記憶するメモリであり、内容は装置起動時に書き込み、追尾実行中は基本的に書き換えない。
包含判定手段26は、ターゲットの位置と形状の推定結果HがMに含まれるか判定するブロックであり、連結領域出力手段1・27は、HがMに含まれるとき、Hと共通部分をもつMの連結領域MC(H)を出力するブロックである。
また、動き検出手段2・28は、HがMに含まれるとき、MC(H)周縁上で動きを検知したとき、その位置(区画)Bを出力する手段であり、連結領域出力手段2・29は動き検出手段2・28が出力した区画Bを含む連結領域をS1から求め、出力する手段である。
セレクタ30は、包含判定手段26の結果を受け、記憶手段1・22に記憶する内容を選択する(H2として出力)。
外接長方形算出31は、画像上でターゲットに外接する長方形の位置と大きさを求める。
演算手段2・32は、集合Hに含まれる区画の座標の相加平均(重心)G2を求め、ターゲットの代表位置として出力する。
【0014】
ターゲット追尾部5は、「ターゲット未検知」、「ターゲット追尾中」、「待機中」の3つの状態をもっている。
「ターゲット未検知」状態は、広角カメラ2の視野内にターゲットが現われるのを待っている状態を示し、「ターゲット追尾中」状態は、広角カメラ2の視野内をターゲットが動いており、それを追尾している状態を示し、「待機中」状態は、広角カメラ2の視野内でターゲットが停止した状態を示している。
【0015】
次に、ターゲット追尾部5における「ターゲット未検知」状態の処理は次の通りである。
▲1▼画面上に予め設定した領域(センスエリア)で動きを検知するのを待つ。
即ち、動き検出部4が出力した集合S1に、図5に示すセンスエリアを構成する区画の集合との間に共通部分が発生するのを待つ。
▲2▼センスエリアで動きを検知したときは、
a.その動いた部分を含む連結領域を集合S1から切り出し、記憶手段1・22に初期値として与える。
b.「ターゲット追尾中」状態に遷移する。
【0016】
「ターゲット追尾中」状態の処理は次の通りである。
▲1▼図4に示すように、記憶手段1・22の内容(区画の集合S2)を更新する。
▲2▼下記条件が成立したら、「待機中」状態に遷移する。
a.更新前S2⊂更新後S2
【0017】
「待機中」状態の処理は次の通りである。
▲1▼画面内の予め設定した領域(センスエリア)で動きを検知したかを判定する。
即ち、動き検出部4が出力した集合S1に、センスエリアを構成する区画が含まれるか判定する。
動きを検知したときは、「ターゲット未検知」における▲2▼a,bと同じ処理を行う。
▲2▼上記条件が成立、かつ下記条件のいずれかが成立したときは、「ターゲット追尾中」状態に遷移する。
a.H2 ⊂集合S2でない(H2がS2からはみ出している)
▲3▼上記条件が成立しないままTC秒経過したときは、「ターゲット未検知」状態に遷移する。
【0018】
ターゲット検出信号10は、「ターゲット未検知」状態で0、それ以外の状態において1を出力する。
なお、「待機中」状態を設ける理由は次の通りである。
▲1▼ターゲットが移動を停止すると、動き検出部4が殆ど動きを検出しないため、集合S1に含まれる区画がターゲットが動いている最中に比べて少なくなる。
▲2▼その状態で記憶手段2に記憶されているS2の更新を続けると、S2が空集合になってしまい、以降の追尾に差し支える。
▲3▼従って、ターゲットが停止してから再び動き出すまでの間は、記憶手段2の更新を停止する必要がある。
【0019】
カメラ制御部6は、ターゲット追尾部5が出力したターゲットの座標G、ターゲット検出信号10および外接長方形の位置と大きさを受け取り、ターゲットを視野内に捉えるようにパンチルトカメラ1を旋回させ、かつ拡大率を設定するものであって、次のステップから成る。
▲1▼座標Gより、広角カメラ2から見てターゲットがどの方向に存在するのかを推定する。(ターゲット見込み方向推定)
▲2▼推定された方向より、パンチルトカメラ1に与えるパンおよびチルトの角度を算出する。(カメラの旋回角度算出)
▲3▼算出したパンおよびチルトの角度をパンチルトカメラ1に与え、旋回させる。(旋回指令)
▲4▼外接長方形の横サイズが、パンチルトカメラ1で撮影される画像の横サイズの70%と一致するように、パンチルトカメラ1にズーム指令を与え拡大させる。(ズーム指令)
但し、ターゲット検出信号10が0(ターゲット未検知)のときは、上記処理は行わず、待機する。
【0020】
カメラ制御部6には、広角カメラ2で撮影した画像上でのターゲット位置Gが入力されており、これをもとに、広角カメラ2の焦点からターゲットに向かうベクトル成分を求める。
ターゲット見込み方向推定には、広角カメラ2で使用するレンズとして、通常の広角レンズ(遠近投影法に従う)と、魚眼レンズ(魚眼投影法に従う)の2種類があり、以下に記載の原理に従って、カメラ焦点からターゲットに向かうベクトル成分を求める。
広角カメラ2のレンズが通常(遠近投影法に従う)である場合におけるターゲット見込み方向の推定を、図6によって説明する。
図6において広角カメラ2の焦点Oから、三次元空間中でのターゲット位置Pに向かうベクトルが、求めるべきターゲット見込み方向を与える。
ここで、X軸は水平方向、Z軸は視野中心線(レンズ光軸)に一致するようにとっている。
ベクトル成分の導出を簡単にするために、OPに平行なベクトルOGを求める。ここで、Gは直線OPと投影面の交点である。
図6において、OGのX軸成分をx、Y軸成分をy,Z軸成分をzとすると、次式の通りである。
x=μ
y=ν
z=d=HW/tan(HA)……(1)
ここで、
μ:座標GのX成分
ν:座標GのY成分
HW:レンズの遠近投影法投影面の全幅の1/2
HA:レンズの水平視野角の1/2
d:レンズ焦点から投影面までの距離
x:ベクトルOGのX成分
y:ベクトルOGのY成分
z:ベクトルOGのZ成分
【0021】
広角カメラ2のレンズが魚眼レンズ(魚眼投影法に従う)である場合におけるターゲット見込み方向の推定方法を、図7によって説明する。
図7において、広角カメラ2の焦点Oから三次元空間中でのターゲット位置Pに向かうベクトルが、求めるべきターゲット見込み方向を与える。
ここで、X軸は水平方向、Z軸は視野中心線(レンズ光軸)に一致するようにとっている。
ベクトル成分の導出を簡単にするために、OPに平行なベクトルOG´を求める。G´は平面Z=γ上の点であり、γは魚眼投影面半径を示す。
図7より、 D2=γs
R0=γHA
従って、
D1=γtans=R0/HA・tan〔(HA/R0)・D2〕…(2)
ここで、
G0:平面z=γ と Z軸(レンズ光軸)との交点
γ :魚眼投影法投影半径
D1:G0からG´までの距離
D2:G0からGまでの円弧長
HA:レンズ視野角÷2(一般的な魚眼レンズでは90°)
S :ターゲット見込み方向とZ軸のなす角
R0:画像上での視野角HA円の半径
よって、OG´のX成分x、Y成分y、Z成分zは次式で与えられる。
【数1】
【0022】
上述したターゲット見込み方向推定処理において、ターゲット見込み方向ベクトル成分(x,y,z)が得られたので、このベクトルとパンチルトカメラ1の視野中心線(レンズ光軸)が平行になるようなパンおよびチルト角度を図8と図9に従い算出する。
パン角度は、ベクトル(x,y,z)をパン回転面(三次元平面)に射影したベクトルV1を求め、パン回転面上にX´軸とZ´軸からなる正規直交座標系をとり、V1のX´成分x´と、Z´成分z´を求めると、パン角度PAは次式によって求められる。
PA=tan−1(x´/z´)
【0023】
次に、チルト角度は、パン回転面の法線方向にY´軸をとり、ベクトル(x,y,z)をベクトルV1とY´軸が張る三次元平面に投射したベクトルV2を求め、ベクトルV2のY´成分y´とV1成分v´を求めると、次式によってチルト角度PTが得られる。
PT=tan−1(y´/v´)
実施例では、広角カメラ2のレンズ光軸(Z軸)が45°斜め下を向いているのに対し、パンチルトカメラ1のパン回転面が水平である。
広角カメラ2のレンズ光軸とパンチルトカメラ1のパン回転面とのなす角をθとすると、X−Y−Z座標系とX´−Y´−Z´座標系は図10に示すようになる。
【0024】
前記原理により求めたパン角度PA、チルト角度PTを与えると、パンチルトカメラ1は三次元空間中でのターゲット位置Pから広角カメラ2の焦点Oに入射光が入射してきた側を向き、かつ該パンチルトカメラ1の視野中心線と直線OP(入射光の入射方向)は平行となるように向く。さらに、パンチルトカメラ1と広角カメラ2が近接して設置されているため、該視野中心線と直線OPは互いに近接している。すなわちパンチルトカメラ1の視野中心線は三次元空間中でのターゲット位置Pに近接しており、よってPはパンチルトカメラ1の撮影像の中心付近に撮影されることになる。
【0025】
上記原理から分かるように、パンチルトカメラ1と広角カメラ2を近接して設置すればするほど、三次元空間中でのターゲット位置Pが正確にパンチルトカメラ1の視野中心に撮影される。
したがって、パンチルトカメラ1の映像上でPをどれだけ正確に視野中心に捉えたいかによってパンチルトカメラ1と広角カメラ2の距離(どれだけ近接させねばならないか)を決めればよい。
【0026】
実施例では、パンチルトカメラ1としてパン回転中心とチルト回転中心が一致するものを使用しており、パンチルトカメラ1と広角カメラ2の距離の決め方は容易になっている。すなわち、三次元空間中でのターゲット位置Pに対しそれを狙うパンチルトカメラ1の視野中心線が距離d以上それてはならないなら、二点O・O間の距離がd未満になるようパンチルトカメラ1と広角カメラ2を設置せねばならない。
ここで、 O :広角カメラ2の焦点
O・:パンチルトカメラ1のパンおよびチルトの回転中心
【0027】
なお、旋回指令とズーム指令は次の通りである。
▲1▼外接長方形の横サイズがパンチルトカメラ1で撮影される画像の横サイズの70%と一致するようなパンチルトカメラ1の拡大率を算出する。
▲2▼撮影手段1において、z倍ズームで撮影するときの閾値T5を算出し、動き検出部4から入力されたGが、前回入力時のGと比べ、距離T5以上離れていたときは、パンチルトカメラ1にパン(絶対角度PA)、チルト(絶対角度PT)、ズーム(拡大率z)を指令する。
▲3▼現在のGを記憶し、次のGの入力を待つ。
【0028】
ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲットの位置および形状の誤推定を自動修正する自動修正手段としては、下記の要素を追加している。
▲1▼入力画像を構成する区画のうち、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域を被う区画の集合Mを記憶する記憶手段2。
▲2▼追尾中のターゲットが入力画像上に占めると想定される領域を表す区画の集合Hが、Mに含まれるか否かを判定する包含判定手段26。
▲3▼HがMに含まれるとき、Hと共通部分をもつMの連結領域MC(H)を出力する連結領域出力手段1・27。
▲4▼HがMに含まれるとき、連結領域MC(H)の周縁上の動きを監視し、動きを検出したときその位置(区画)Bを出力する動き検出手段2・28。
▲5▼動き検出手段2・28が動きを検知(Bを出力)したとき、入力画像を構成する区画からBを含む連結領域S1C(B)を出力する連結領域出力手段2・29。
▲6▼動き検出手段2が動きを検知したとき、集合Hの内容を連結領域SC1(B)の内容で置き換える修正手段セレクタ30。
【0029】
上記構成要素により、広角カメラ2の画像上でターゲットが映っていると推定される領域Hが領域M内にある(包含されている)間、Hをターゲットとして更新するのと並行して連結領域MC(H)(Hを包含するMの連結領域)の周縁での動きを監視し、該周縁上の区画Bで動きを検知したらHの更新をやめ、Bをターゲットの一部であるとみなして追尾しなおすことにより、領域Mの中で永久にターゲット以外のものをターゲットとして誤推定しつづけることを抑止する。
【0030】
【発明の効果】
以上説明したように、本発明による動画像の自動追尾撮影方法および自動追尾撮影装置は、視野の方向を変更可能な撮影手段1で捉えるべきターゲットをより広角度の撮影手段2の画像上で指定する動画像撮影手段と、同じく撮影手段2の画像上で動く物体の位置と形状を推定し続ける追尾アルゴリズムと、さらに、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲット誤推定を自動修正する手段とによって構成しているので、2つのカメラのみによって動く物体を視野内に捉え続けて自動的に追尾撮影することができる極めて高精度のセキュリティ・システムを構築することが可能である。
【図面の簡単な説明】
【図1】本発明による自動追尾撮影装置の構成を示すブロック図。
【図2】動き検出部の構成を示すブロック図。
【図3】区画の集合S1の例。
【図4】ターゲット追尾部の構成を示すブロック図。
【図5】センスエリアとマスクエリアの例。
【図6】広角カメラのレンズが通常の場合の説明図。
【図7】広角カメラのレンズが魚眼レンズの場合の説明図。
【図8】パン角度算出方法の説明図。
【図9】チルト角度算出方法の説明図。
【図10】X−Y−Z座標系とX´−Y´−Z´座標系の関係を示す説明図。
【符号の説明】
1 パンチルトカメラ
2 広角カメラ
3 A/D変換部
4 動き検出部
5 ターゲット追尾部
6 カメラ制御部
7 映像記録装置
11 フレームバッファ
12 減算器
13 2値化回路A
14 集計回路
15 2値化回路B
20 動き検出手段1
21 CPU
22 記憶手段1
23 連結領域列挙手段
24 連結領域選択手段
25 マスク領域メモリ
26 包含判定手段
27 連結領域出力手段1
28 動き検出手段2
29 連結領域出力手段2
30 セレクタ
31 外接長方形算出
32 演算手段2[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic tracking photographing method and apparatus for automatically capturing and photographing a moving object in a field of view by using a surveillance camera constituting a security system.
[0002]
[Prior art]
The following method has been used as a method of monitoring an intruder in a monitoring area by photographing an object to be monitored by a monitoring camera.
(1) A method in which the entire area to be monitored is photographed with a wide-angle camera.
{Circle over (2)} A method in which the monitoring area is divided and the divided area is photographed by using a plurality of cameras having a normal angle of view for the entire area to be monitored.
(3) A method in which a camera with a pan / tilt head is turned in a pre-programmed direction and shot in order.
(4) A method of manually operating a camera with a pan / tilt head and taking a picture.
[0003]
[Problems to be solved by the invention]
The above-described conventional imaging method has many problems to be solved.
{Circle around (1)} When shooting with a wide-angle camera, the number of cameras can be reduced, but the sharpness of the shot image is impaired.
For example, it is difficult to identify an intruder because it is small.
{Circle around (2)} In the method of dividing the monitoring area and performing shared shooting, a large number of cameras are required.
(3) It is difficult to shoot an intruder effectively by using a camera with a pan / tilt head with a built-in program.
That is, there is a possibility that an important image such as the face of an intruder is missed.
(4) When a camera with a pan / tilt pan head is operated manually, it is necessary to always have required personnel.
[0004]
[Means for Solving the Problems]
The present invention seeks to overcome the disadvantages of the prior art described above,
Moving image photographing means for designating a target to be captured by the photographing means 1 capable of changing the direction of the visual field on the image of the photographing means 2 having a wider angle of view;
A tracking algorithm that keeps estimating the position and shape of the moving object reflected on the moving image under conditions where the object continues to move,
Means for automatically correcting an erroneous target estimation in an area where there are many moving objects other than the target or where there are obstacles blocking the target,
In this method, a moving object is automatically captured within the field of view of the image capturing means 1 to perform tracking image capturing.
[0005]
Further, a photographing method in which the upper end rather than the center (center of gravity) of the moving object is kept in the field of view of the photographing means 1 (tracking), and the moving object is placed in the field of view without tilting the image of the photographing means 1 A shooting method that keeps catching (tracking)
Moving object while reducing the wear of the mechanical system by restricting the change of the visual field of the photographing means 1 and realizing stable photographing (the change in the visual field of the photographing means 1 occurs only intermittently) A shooting method that keeps (tracks) in the field of view,
Also when performing zoom photographing with the photographing means 1, an automatic tracking photographing method is realized by a photographing method which simultaneously realizes stable photographing while reducing wear of the mechanical system and simultaneously keeps capturing a moving object in a field of view. Was configured.
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a moving image automatic tracking photographing apparatus according to the present invention.
[0007]
The
It is preferable to install the pan rotation surface so that it is horizontal, and to set the pan rotation center and the tilt rotation center to coincide.
[0008]
The wide-
The
[0009]
The A /
[0010]
The motion detector 4 receives the digital image data output from the A /
The
The
Binarizing circuit A13 is a circuit for outputting a value thresholds T 1 greater than the
The
Binarization circuit B15 is the aggregate value by the
[0011]
Next, a processing procedure of the motion detection unit 4 will be described.
{Circle around (1)} The difference between the Y component of the current one frame and the immediately preceding (past) one frame is obtained for each pixel by using the
{Circle around (2)} The binarizing circuit A13 converts a pixel whose difference is larger than the constant T1 to 1 and converts other pixels to 0.
(3) The
▲ 4 ▼ 2 binarization circuit B15 1 a is the aggregate values constant T 2 greater compartments, and outputs the set S1 and converts the compartments otherwise zero.
That is, in the present embodiment, as a data format representing a “set of partitions”, data in which partitions included in the set are replaced with 1 and partitions not included in the set are replaced with 0 among partitions constituting an image for one frame. The format is adopted, as shown in FIG.
[0012]
The
However, there is a case where the target does not exist (there is no moving object in the field of view of the wide-angle camera 2). Therefore, the detection / non-detection of the target is also output separately as the target detection signal 10 and given to the subsequent stage.
Further, the size of the target on the image is also output for controlling the enlargement ratio of the pan /
[0013]
The internal configuration of the
The CPU 21 is a central control unit that performs various processes of each block constituting the
The connected area enumeration means 23 is an operation means for calculating a set W of connected areas included in the set S1 that have a common part with the given set S2.
The connected
d (H) = (the number of sections included in the common part of the set H and the set S1) ÷ (the number of sections included in the set H)
The mask area memory 25 is a memory that stores a set M of areas other than the target where there is movement or a block that obstructs an obstacle (obstructs a gap between the target and the camera). Basically not rewritten.
The
The motion detecting means 2.28 is a means for outputting a position (section) B when H is included in M and detecting a motion on the periphery of M C (H).
The selector 30 receives the result of the
The circumscribed rectangle calculation 31 calculates the position and size of a rectangle circumscribing the target on the image.
The calculating means 2.32 finds the arithmetic mean (center of gravity) G2 of the coordinates of the sections included in the set H and outputs it as the representative position of the target.
[0014]
The
The “target not detected” state indicates a state in which the target appears in the field of view of the wide-
[0015]
Next, the processing of the “target not detected” state in the
{Circle around (1)} Wait for detecting a motion in an area (sense area) set in advance on the screen.
That is, the process waits for a common part to be generated between the set S1 output from the motion detection unit 4 and the set of sections constituting the sense area shown in FIG.
(2) When motion is detected in the sense area,
a. A connected area including the moved part is cut out from the set S1 and given to the storage means 1.22 as an initial value.
b. The state transits to the “target tracking” state.
[0016]
The process in the “target tracking” state is as follows.
{Circle around (1)} As shown in FIG. 4, the contents of the storage means 1.22 (set S2 of sections) are updated.
{Circle around (2)} When the following condition is satisfied, the state transits to the “standby” state.
a. Before update S2 後 After update S2
[0017]
The processing in the "waiting" state is as follows.
(1) It is determined whether a motion is detected in a preset area (sense area) in the screen.
That is, it is determined whether or not the set S1 output by the motion detection unit 4 includes a section constituting the sense area.
When a movement is detected, the same processing as in (2) a and b in “Target not detected” is performed.
{Circle around (2)} When the above condition is satisfied and one of the following conditions is satisfied, the state transits to the “target tracking” state.
a. H 2で な い not set S2 (H 2 protrudes from S2)
{Circle around (3)} When TC seconds elapse without the above conditions being satisfied, the state transits to the “target not detected” state.
[0018]
The target detection signal 10
The reason for providing the “standby” state is as follows.
{Circle around (1)} When the target stops moving, the motion detecting unit 4 hardly detects the motion, so that the number of sections included in the set S1 is smaller than that during the movement of the target.
{Circle around (2)} If the updating of S2 stored in the storage means 2 is continued in that state, S2 becomes an empty set, which supports subsequent tracking.
{Circle over (3)} Therefore, it is necessary to stop updating the storage means 2 from when the target stops until it starts moving again.
[0019]
The camera control unit 6 receives the coordinates G of the target, the target detection signal 10, and the position and size of the circumscribed rectangle output by the
{Circle around (1)} From the coordinates G, the direction in which the target is viewed from the wide-
(2) Calculate the pan and tilt angles given to the
(3) The calculated pan and tilt angles are given to the pan /
{Circle around (4)} A zoom command is given to the
However, when the target detection signal 10 is 0 (target not detected), the above process is not performed and the process waits.
[0020]
A target position G on an image captured by the wide-
There are two types of lenses used in the wide-
The estimation of the expected target direction when the lens of the wide-
In FIG. 6, a vector from the focal point O of the wide-
Here, the X axis is set to be in the horizontal direction, and the Z axis is set to be coincident with the center line of the visual field (lens optical axis).
To simplify the derivation of the vector components, a vector OG parallel to OP is determined. Here, G is the intersection of the straight line OP and the projection plane.
In FIG. 6, when the X-axis component of the OG is x, the Y-axis component is y, and the Z-axis component is z, the following equation is obtained.
x = μ
y = ν
z = d = H W / tan (H A ) (1)
here,
μ: X component of coordinate G ν: Y component of coordinate G H W : 1/2 of full width of perspective projection plane of lens
HA : 1/2 of the horizontal viewing angle of the lens
d: distance from lens focal point to projection plane x: X component of vector OG y: Y component of vector OG z: Z component of vector OG
A method of estimating the expected target direction when the lens of the wide-
In FIG. 7, a vector from the focal point O of the wide-
Here, the X axis is set to be in the horizontal direction, and the Z axis is set to be coincident with the center line of the visual field (lens optical axis).
In order to simplify the derivation of the vector components, a vector OG 'parallel to OP is obtained. G ′ is a point on the plane Z = γ, and γ indicates a fish-eye projection surface radius.
From FIG. 7, D 2 = γs
R 0 = γH A
Therefore,
D 1 = γ tans = R 0 / HA · tan [( HA / R 0 ) · D 2 ] (2)
here,
G 0 : Intersection γ between the plane z = γ and the Z axis (lens optical axis) γ: Fish-eye projection radius D 1 : Distance from G 0 to G ′ D 2 : Arc length H A from G 0 to G : Lens viewing angle ÷ 2 (90 ° for a general fisheye lens)
S: Angle between the expected direction of the target and the Z axis R 0 : Viewing angle HA on the image The X component x, the Y component y, and the Z component z of OG ′ are given by the following equations.
(Equation 1)
[0022]
Since the target prospective direction vector component (x, y, z) has been obtained in the above-described target prospective direction estimation processing, panning and panning such that this vector is parallel to the center line of view (lens optical axis) of the
Pan angle, obtains a vector V 1 obtained by projecting the vector (x, y, z) and pan rotating surface (three-dimensional plane), taking the orthonormal coordinate system consisting Z'-axis and X'-axis on a pan rotation plane and X'component x'of V 1, when obtaining the Z'component z ', the pan angle P a is determined by the following equation.
P A = tan −1 (x ′ / z ′)
[0023]
Then, the tilt angle takes the Y'-axis in the normal direction of the panning rotation plane, obtains a vector vector V 2 which is projected (x, y, z) a three-dimensional plane spanned by Y'-axis vector V 1 When obtaining the Y'component y'and V 1 component v'vector V 2, the tilt angle P T is obtained by the following equation.
PT = tan -1 (y '/ v')
In the embodiment, the lens optical axis (Z axis) of the wide-
Assuming that the angle between the lens optical axis of the wide-
[0024]
Pan angle P A was determined by the principle, given a tilt angle P T,
[0025]
As can be understood from the above principle, the closer the pan /
Therefore, the distance between the
[0026]
In the embodiment, the
Here, O: focus O · wide-angle camera 2: pan and tilt rotation center [0027] of the
The turning command and the zoom command are as follows.
(1) An enlargement ratio of the
▲ 2 ▼ in the photographing
(3) Store the current G and wait for the next G input.
[0028]
The following elements are added as automatic correction means for automatically correcting erroneous estimation of the position and shape of the target in a region where there are many moving objects other than the target or where there are obstacles blocking the target.
{Circle around (1)} A
{Circle around (2)} The
{Circle around (3)} When H is included in M, connected region output means 1 and 27 which output a connected region M C (H) of M having a common part with H.
{Circle around (4)} When H is included in M, motion detecting means 2.28 which monitors the motion on the periphery of the connection area M C (H) and outputs the position (section) B when the motion is detected.
{Circle around (5)} When the motion detecting means 2.28 detects a motion (outputs B), a connected area output means 2.29 for outputting a connected area S 1C (B) including B from a section constituting the input image.
{Circle around (6)} When the
[0029]
With the above-described components, while the area H in which the target is assumed to be projected on the image of the wide-
[0030]
【The invention's effect】
As described above, according to the moving image automatic tracking photographing method and the automatic tracking photographing apparatus of the present invention, a target to be captured by the photographing
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an automatic tracking photographing apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a configuration of a motion detection unit.
FIG. 3 is an example of a set of partitions S1.
FIG. 4 is a block diagram showing a configuration of a target tracking unit.
FIG. 5 is an example of a sense area and a mask area.
FIG. 6 is an explanatory diagram when a lens of a wide-angle camera is normal.
FIG. 7 is an explanatory diagram when a lens of a wide-angle camera is a fisheye lens.
FIG. 8 is an explanatory diagram of a pan angle calculation method.
FIG. 9 is an explanatory diagram of a tilt angle calculation method.
FIG. 10 is an explanatory diagram showing a relationship between an XYZ coordinate system and an X′-Y′-Z ′ coordinate system.
[Explanation of symbols]
REFERENCE SIGNS
14
20 Motion detection means 1
21 CPU
22 Storage means 1
23 connected area listing means 24 connected area selecting means 25
28 Motion detection means 2
29 Connecting area output means 2
30 selector 31 circumscribed
Claims (8)
より広画角の撮影手段2と、
撮影手段1の撮影対象(以下ターゲットと表記)を、撮影手段2の画像上で指定する動画像撮影手段と、
撮影手段2で撮影された動画像上でのターゲットの位置と形状を、該ターゲットが動き続ける条件下で推定し続ける追尾手段と、
ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域での追尾手段による誤推定を自動修正する自動修正手段と、
を備え、動く物体を自動的に撮影手段1の視野内に捉え続けて追尾して撮影するようにしたことを特徴とする動画像の自動追尾撮影方法。A photographing means 1 capable of changing the direction of the visual field;
Shooting means 2 having a wider angle of view;
A moving image photographing means for designating a photographing target (hereinafter referred to as a target) of the photographing means 1 on an image of the photographing means 2;
Tracking means for continuously estimating the position and shape of the target on the moving image captured by the imaging means 2 under conditions in which the target continues to move;
Automatic correction means for automatically correcting erroneous estimation by tracking means in an area where there are many moving objects other than the target, or where there are obstacles blocking the target,
And automatically capturing and tracking a moving object within the field of view of the photographing means 1 and photographing the moving object.
撮影手段1より水平画角もしくは垂直画角が大きい撮影手段2と、
撮影手段2で撮影した画像上の座標Gに結像した入射光の入射方向を推定する推定手段と、
前記座標Gに入射した入射光の推定入射方向と前記撮影手段1の視野中心が互いに平行かつ該視野が入射光が入射してきた側を向くように撮影手段1の方向を変更する制御手段と、
によって構成すると共に、前記撮影手段1と撮影手段2を近接して設置し、ターゲットをより広画角の撮影手段2の画像上で指定する動画像撮影手段を設けたことを特徴とする請求項1に記載の動画像の自動追尾撮影方法。A photographing means 1 capable of changing the direction of the visual field;
A photographing means 2 having a larger horizontal or vertical angle of view than the photographing means 1;
Estimating means for estimating the incident direction of the incident light imaged at coordinates G on the image taken by the photographing means 2;
Control means for changing the direction of the photographing means 1 so that the estimated incident direction of the incident light incident on the coordinates G and the center of the visual field of the photographing means 1 are parallel to each other and the visual field faces the side on which the incident light is incident;
A moving image photographing means for setting the photographing means 1 and the photographing means 2 close to each other and designating a target on an image of the photographing means 2 having a wider angle of view. 2. The method for automatically tracking and capturing a moving image according to 1.
前記集合S1に含まれる連結領域のうち、与えられた集合S2と共通部分を持つ連結領域の集合Wを求める連結領域列挙手段と、
前記連結領域列挙手段が出力した集合Wから、下記関数d(H)の値が最小となる連結領域Hを選択して出力する連結領域選択手段と、
d(H)=(集合Hと集合S1の共通部分に含まれる区画数)÷(集合Hに含まれる区画数)
前記連結領域選択手段が出力した連結領域Hを一時的に記憶し、該記憶内容を連結領域列挙手段の要求に応じて集合S2として出力する記憶手段1と、
連結領域選択手段が出力した連結領域Hに含まれる区画の座標の相加平均(重心)G2を求め、ターゲットの代表位置として出力する演算手段2と、
によって構成し、動画像に映っている動く物体の位置と形状を推定する追尾手段を設けたことを特徴とする請求項1,2のいずれかに記載の動画像の自動追尾撮影方法。A motion detecting unit 1 that obtains the motion of the input image for each of the sections constituting the image and outputs a set S1 of the sections in which the motion has been detected;
Connected area enumeration means for obtaining a set W of connected areas having a common part with the given set S2 among the connected areas included in the set S1,
Connected area selecting means for selecting and outputting a connected area H in which the value of the following function d (H) is minimum from the set W output by the connected area enumeration means;
d (H) = (the number of sections included in the common part of the set H and the set S1) ÷ (the number of sections included in the set H)
A storage unit 1 for temporarily storing the connected region H output by the connected region selecting unit, and outputting the stored contents as a set S2 in response to a request from the connected region listing unit;
An arithmetic means 2 for calculating an arithmetic mean (center of gravity) G2 of the coordinates of the sections included in the connected area H output by the connected area selecting means and outputting it as a representative position of the target;
3. A method according to claim 1, further comprising tracking means for estimating a position and a shape of a moving object appearing in the moving image.
追尾中のターゲットが入力画像上に占めると推定される領域を表す区画の集合Hが前記集合Mに含まれるか否かを判定する包含判定手段と、
集合Hが集合Mに含まれるとき、集合Hと共通部分を持つ集合Mの連結領域MC(H)を出力する連結領域出力手段1と、
集合Hが集合Mに含まれるとき、連結領域MC(H)の周縁上の動きを監視し、動きを検出したときその位置(区画)Bを出力する動き検出手段2と、
動き検出手段2が動きを検知したとき、入力画像を構成する区画からBを含む連結領域S1C(B)を出力する連結領域出力手段2と、
動き検出手段2が動きを検知したとき、集合Hの内容を連結領域SC1(B)の内容で置き換える修正手段と、
によって構成し、ターゲット以外の動く物体が多数存在するか、もしくはターゲットを遮る障害物が存在する領域でのターゲットの位置および形状の誤推定を自動修正する自動修正手段を設けたことを特徴とする請求項1から3のいずれかに記載の動画像の自動追尾撮影方法。A storage unit 2 that stores a set M of sections that cover an area in which there are many moving objects other than the target or an obstacle that blocks the target, among the sections configuring the input image;
Inclusion determination means for determining whether or not a set H of sections indicating regions where a target being tracked is occupied on the input image is included in the set M;
When the set H is included in the set M, a connected area output unit 1 that outputs a connected area M C (H) of the set M having a common part with the set H;
When the set H is included in the set M, the motion detecting means 2 monitors the motion on the periphery of the connected area M C (H), and outputs the position (section) B when the motion is detected;
A connection area output means 2 for outputting a connection area S 1C (B) including B from a section constituting the input image when the movement detection means 2 detects a movement;
Correction means for replacing the contents of the set H with the contents of the connected area S C1 (B) when the movement detecting means 2 detects a movement;
And automatic correction means for automatically correcting erroneous estimation of the position and shape of the target in a region where there are many moving objects other than the target or where there are obstacles blocking the target. The method for automatically tracking and photographing a moving image according to claim 1.
制御手段から撮影手段1に実際に旋回を指令するとき、指令する直前の演算手段4の出力を記憶する記憶手段3と、
より成る構成要素を追加し、制御手段から撮影手段1へ旋回を指令するのは、演算手段4が現在出力中の方向と、記憶手段3に記憶されている方向のなす角が下記に示す閾値T4以上になる条件が成立したときのみとし、撮影手段1の視野の変更に制約を設けて機械系の摩耗を低減し、かつ安定した撮影を実現しつつ、動く物体を前記撮影手段1の視野内に捉え続けて追尾するようにしたことを特徴とする請求項1から4のいずれかに記載の動画像の自動追尾撮影方法。
閾値T4 = tan−1(tanC/Z)
ここで、Z :撮影手段1におけるズーム倍率
C :拡大率Z=1(最大広角時)のときのT4の値
T4:撮影手段1に旋回を指令するのに最低限必要なターゲット移 動角度(閾値)[rad]A computing unit 4 for obtaining a direction in which the photographing unit 1 is to be directed by the command before the control unit instructs the photographing unit 1 to turn;
A storage unit 3 for storing an output of the arithmetic unit 4 immediately before the instruction when the control unit instructs the photographing unit 1 to actually turn;
The control unit instructs the photographing unit 1 to make a turn because the angle between the direction currently output by the arithmetic unit 4 and the direction stored in the storage unit 3 is a threshold value shown below. only as when T 4 or more following condition is satisfied, to reduce the wear of the mechanical system imposes constraints on change of the field of view of the imaging unit 1, and while realizing a stable shooting a moving object of the imaging unit 1 5. The method for automatically tracking and capturing a moving image according to claim 1, wherein the tracking is continuously performed while being captured in the field of view.
Threshold value T 4 = tan −1 (tan C / Z)
Here, Z: zoom magnification in the imaging unit 1 C: magnification Z = 1 the value of T 4 T when the (maximum wide-angle state) 4: Minimum targets move to direct the pivot photographing means 1 Angle (threshold) [rad]
制御手段から撮影手段1へ旋回を指令するのは、座標Gと記憶手段4に記憶されている座標との距離が、下記に示す閾値T5以上になる条件が成立するときのみとし、撮影手段1の視野の変更に制約を設けて機械系の摩耗を低減し、かつ安定した撮影を実現しつつ、動く物体を前記撮影手段1の視野内に捉え続けて追尾するようにしたことを特徴とする請求項1から4のいずれかに記載の動画像の自動追尾撮影方法。
閾値T5=C/Z
ここで、 T5: 撮影手段1に旋回を指令するのに最低限必要なターゲット 移動量(閾値)
Z :撮影手段1におけるズーム倍率
C :拡大率Z=1(最大広角時)のときのT5の値When the control means instructs the photographing means 1 to actually turn, a component comprising a storage means 4 for storing the value of the coordinate G is added,
To command the turning from the control means to the imaging unit 1, the distance between the coordinates stored as coordinates G in the storage unit 4, and only when the condition becomes equal to or higher than the threshold T 5 shown below is satisfied, the photographing means (1) reducing the wear of the mechanical system by restricting the change of the visual field and realizing stable photographing, while continuously tracking a moving object within the visual field of the photographing means 1; 5. The method for automatically tracking and photographing a moving image according to claim 1, wherein:
Threshold value T 5 = C / Z
Here, T 5 : minimum target movement amount (threshold) required to instruct the photographing means 1 to turn.
Z: zoom magnification in the imaging unit 1 C: value of T 5 when the enlargement ratio Z = 1 (at the maximum wide-angle)
によって構成したことを特徴とする動画像の自動追尾撮影装置。A pan-tilt camera and a wide-angle camera installed close to each other, an A / D conversion unit for converting a moving image captured by the wide-angle camera into digital moving image data, and a set S1 of sections that have input digital image data and have detected movement. The motion detection unit to be output and the set S1 of the sections are input to estimate the current position of the target on the image, to output its two-dimensional coordinates G, and to output the target detection signal 10 and the rectangular shape circumscribing the target on the image. A target tracking unit that outputs a position, receives the coordinates G of the target output by the target tracking unit, the target detection signal 10, and the position and size of the circumscribed rectangle, and rotates the pan-tilt camera to capture the target in the field of view. Camera control section to set the magnification and input to pan / tilt control signal output from camera control section A video recording apparatus for displaying a target image from the pan-tilt camera for photographing a moving image Te,
An automatic tracking and photographing apparatus for moving images characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002167309A JP3963261B2 (en) | 2002-06-07 | 2002-06-07 | Automatic tracking imaging method and automatic tracking imaging device for moving images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002167309A JP3963261B2 (en) | 2002-06-07 | 2002-06-07 | Automatic tracking imaging method and automatic tracking imaging device for moving images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004015516A true JP2004015516A (en) | 2004-01-15 |
JP3963261B2 JP3963261B2 (en) | 2007-08-22 |
Family
ID=30434604
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002167309A Expired - Fee Related JP3963261B2 (en) | 2002-06-07 | 2002-06-07 | Automatic tracking imaging method and automatic tracking imaging device for moving images |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3963261B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005184776A (en) * | 2003-11-27 | 2005-07-07 | Sony Corp | Imaging device and its method, monitoring system, program and recording medium |
US7936385B2 (en) | 2006-12-20 | 2011-05-03 | Sony Corporation | Image pickup apparatus and imaging method for automatic monitoring of an image |
US8064618B2 (en) | 2007-07-31 | 2011-11-22 | Sony Corporation | Direction detection apparatus, direction detection method and direction detection program, and direction control apparatus, direction control method, and direction control program |
JP2012042507A (en) * | 2010-08-12 | 2012-03-01 | Hitachi Consumer Electronics Co Ltd | Video display device |
CN102866712A (en) * | 2012-09-07 | 2013-01-09 | 安科智慧城市技术(中国)有限公司 | Method and system for realizing automatic cruise of pan-tilts |
US8390686B2 (en) | 2005-09-20 | 2013-03-05 | Fujifilm Corporation | Surveillance camera apparatus and surveillance camera system |
KR101841993B1 (en) * | 2016-11-15 | 2018-03-26 | (주) 아이오티솔루션 | Indoor-type selfie support Camera System Baseon Internet Of Thing |
CN108133491A (en) * | 2017-12-29 | 2018-06-08 | 重庆锐纳达自动化技术有限公司 | A kind of method for realizing dynamic target tracking |
CN108900758A (en) * | 2018-09-07 | 2018-11-27 | 厦门博聪信息技术有限公司 | A kind of the Intelligent human-face candid camera and its face snap method of the cooperation of rifle ball |
US10560624B2 (en) | 2014-09-10 | 2020-02-11 | Fujifilm Corporation | Imaging control device, imaging control method, camera, camera system, and program |
CN113723262A (en) * | 2021-08-25 | 2021-11-30 | 浙江大华技术股份有限公司 | Target tracking method and device, road monitoring equipment, equipment and medium |
WO2022141197A1 (en) * | 2020-12-30 | 2022-07-07 | 深圳市大疆创新科技有限公司 | Method and device for controlling cradle head, movable platform and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104243833B (en) * | 2014-09-30 | 2017-12-08 | 精宸智云(武汉)科技有限公司 | Camera posture adjusting method and device |
-
2002
- 2002-06-07 JP JP2002167309A patent/JP3963261B2/en not_active Expired - Fee Related
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4736381B2 (en) * | 2003-11-27 | 2011-07-27 | ソニー株式会社 | Imaging apparatus and method, monitoring system, program, and recording medium |
JP2005184776A (en) * | 2003-11-27 | 2005-07-07 | Sony Corp | Imaging device and its method, monitoring system, program and recording medium |
US8390686B2 (en) | 2005-09-20 | 2013-03-05 | Fujifilm Corporation | Surveillance camera apparatus and surveillance camera system |
US7936385B2 (en) | 2006-12-20 | 2011-05-03 | Sony Corporation | Image pickup apparatus and imaging method for automatic monitoring of an image |
US8064618B2 (en) | 2007-07-31 | 2011-11-22 | Sony Corporation | Direction detection apparatus, direction detection method and direction detection program, and direction control apparatus, direction control method, and direction control program |
JP2012042507A (en) * | 2010-08-12 | 2012-03-01 | Hitachi Consumer Electronics Co Ltd | Video display device |
CN102866712A (en) * | 2012-09-07 | 2013-01-09 | 安科智慧城市技术(中国)有限公司 | Method and system for realizing automatic cruise of pan-tilts |
US10560624B2 (en) | 2014-09-10 | 2020-02-11 | Fujifilm Corporation | Imaging control device, imaging control method, camera, camera system, and program |
KR101841993B1 (en) * | 2016-11-15 | 2018-03-26 | (주) 아이오티솔루션 | Indoor-type selfie support Camera System Baseon Internet Of Thing |
WO2018092929A1 (en) * | 2016-11-15 | 2018-05-24 | (주) 아이오티솔루션 | Internet of things-based indoor selfie-supporting camera system |
CN108133491A (en) * | 2017-12-29 | 2018-06-08 | 重庆锐纳达自动化技术有限公司 | A kind of method for realizing dynamic target tracking |
CN108900758A (en) * | 2018-09-07 | 2018-11-27 | 厦门博聪信息技术有限公司 | A kind of the Intelligent human-face candid camera and its face snap method of the cooperation of rifle ball |
WO2022141197A1 (en) * | 2020-12-30 | 2022-07-07 | 深圳市大疆创新科技有限公司 | Method and device for controlling cradle head, movable platform and storage medium |
CN113723262A (en) * | 2021-08-25 | 2021-11-30 | 浙江大华技术股份有限公司 | Target tracking method and device, road monitoring equipment, equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP3963261B2 (en) | 2007-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6532217B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING SYSTEM | |
JP4912117B2 (en) | Imaging device with tracking function | |
JP4241742B2 (en) | Automatic tracking device and automatic tracking method | |
JP5233926B2 (en) | Fisheye monitoring system | |
RU2520574C2 (en) | Camera platform system | |
JP6574645B2 (en) | Control device for controlling imaging apparatus, control method for imaging apparatus, and program | |
US7697025B2 (en) | Camera surveillance system and method for displaying multiple zoom levels of an image on different portions of a display | |
CN111787232B (en) | Image processing method, device and storage medium based on pan-tilt-zoom camera | |
JP2004015516A (en) | Automatic tracking photographing method and automatic tracking photographing device for motion picture | |
US20090086022A1 (en) | Method and device for consistent region of interest | |
TWI530180B (en) | Linking-up photographing system and control method for cameras thereof | |
JP6128109B2 (en) | Image capturing apparatus, image capturing direction control method, and program | |
JP5183152B2 (en) | Image processing device | |
JP2006319578A (en) | Depth direction movement determining device, blurring correction system having the same, and blurring correction method, program, computer readable record medium recording the program, and electronic apparatus equipped with the blurring correction system | |
US8860780B1 (en) | Automatic pivoting in a wide-angle video camera | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
WO2012158017A1 (en) | Method and system for multiple objects tracking and display | |
US20090051770A1 (en) | Camera control method, camera control device, camera control program, and camera system | |
JP5360403B2 (en) | Mobile imaging device | |
JP2005303493A (en) | Obstacle-adaptive projection type display | |
JP2009044475A (en) | Monitor camera system | |
JP2006033188A (en) | Supervisory apparatus and supervisory method | |
TW201410015A (en) | A multiple camera system and method therefore | |
JP2002101408A (en) | Supervisory camera system | |
KR100761817B1 (en) | A ccd camera system for effectively tracking a motion of objects and a method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20041214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050113 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050216 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050415 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070516 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3963261 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100601 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110601 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120601 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120601 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130601 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130601 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |