JP2017085439A - 追尾装置 - Google Patents

追尾装置 Download PDF

Info

Publication number
JP2017085439A
JP2017085439A JP2015213552A JP2015213552A JP2017085439A JP 2017085439 A JP2017085439 A JP 2017085439A JP 2015213552 A JP2015213552 A JP 2015213552A JP 2015213552 A JP2015213552 A JP 2015213552A JP 2017085439 A JP2017085439 A JP 2017085439A
Authority
JP
Japan
Prior art keywords
subject
image
comparison
automatic tracking
tracking device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015213552A
Other languages
English (en)
Inventor
鈴木 潤一
Junichi Suzuki
潤一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015213552A priority Critical patent/JP2017085439A/ja
Publication of JP2017085439A publication Critical patent/JP2017085439A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被写体の予測位置との比較結果に基づき誤追尾を防止する自動追尾装置を提供する。【解決手段】予め記録してあるテンプレートパターンによりパターン認識を行う画像認識手段により被写体の位置を検出し、被写体の自動追尾撮影を行う自動追尾装置において、テンプレートパターンを時々刻々と入力される画像に更新するテンプレートパターン更新手段と、被写体の移動する位置を予測する移動位置予測手段と、移動位置予測手段で予測される位置と被写体の位置を比較する位置比較手段と、位置比較手段の比較結果に基づき、画像認識手段にて比較する画像を設定する比較画像設定手段と、位置比較手段の比較結果と画像認識手段の類似度により、被写体を探索する領域を設定する被写体探索領域設定手段と、被写体探索領域設定手段にて設定された領域内にて被写体を探索する設定領域探索手段を備えたことを特徴とする。【選択図】図7

Description

本発明は、撮影対象物を自動で追尾する自動追尾カメラシステムに関し、特に撮影対象物が航空機などの高速で移動するものに特化した自動追尾カメラシステムに関する。
近年、リモート雲台カメラに画像認識技術を搭載して、映像内に映る被写体の認識を行い、被写体の動きに合わせて自動でパン・チルトを動作させて追尾する自動追尾カメラシステムが提案されている。これにより、操作者が雲台カメラの向きを変更しなくても、動きのある被写体を自動で撮影することが可能になる。
被写体の認識を行う画像認識技術の一つとして、テンプレートマッチング手段を用いた認識技術が知られている。テンプレートマッチング手段を用いた場合、被写体の移動により撮影される被写体のパターンが変化していくと、最初に認識したテンプレートとの不一致部分が多くなり、最終的に被写体を認識できなくなる。これを解決するために、テンプレートを時々刻々と更新する方法が、特許文献1に開示されている。
特許文献1には、画像類似度の高い探索点の分散程度を算出し、算出結果に基づいてテンプレートの更新を判定する技術が開示されている。これにより、背景等に類似被写体がある場合においても、類似被写体の影響を受けることなく追尾対象を追尾できるようになる。
また、特許文献2には、テンプレートマッチング時の処理時間を低減させるために、前回の画像と前々回の画像の位置から予測される範囲を指定し、予測範囲内においてテンプレートマッチングを行う技術が開示されている。
特開平9−265538号公報 特開2008−112210号公報
しかしながら、上述の特許文献1に開示された従来技術では、障害物等によって一時的に被写体の一部、または大部分が隠れてしまう場合に、追尾対象を見失ってしまう。また、特許文献2に開示された従来技術では、予測範囲内に類似被写体が複数ある場合に、テンプレートが類似被写体に更新されると誤追尾してしまう。
そこで、本発明の目的は、被写体の予測位置との比較結果に基づき比較画像の設定および予測位置を再探索することにより、誤追尾を防止することを可能にした自動追尾装置を提供することにある。
上記の目的を達成するために、本発明に係る自動追尾装置は、
予め記録してあるテンプレートパターンによりパターン認識を行う画像認識手段により被写体の位置を検出し、前記被写体の自動追尾撮影を行う自動追尾装置において、
前記テンプレートパターンを時々刻々と入力される画像に更新するテンプレートパターン更新手段と、
前記被写体の移動する位置を予測する移動位置予測手段と、
前記移動位置予測手段で予測される位置と前記被写体の位置を比較する位置比較手段と、
前記位置比較手段の比較結果に基づき、
前記画像認識手段にて比較する画像を設定する比較画像設定手段と、
前記位置比較手段の比較結果と前記画像認識手段の類似度により、前記被写体を探索する領域を設定する被写体探索領域設定手段と、
前記被写体探索領域設定手段にて設定された領域内にて被写体を探索する設定領域探索手段を備えたことを特徴とする。
本発明によれば、被写体の予測位置との比較結果に基づき比較画像の設定および予測位置を再探索することにより、誤追尾を防止することを可能にした自動追尾装置を提供することができる。
実施例1〜3における自動追尾撮影を行うリモート雲台システムを示す図である。 実施例1〜3における被写体を目標座標へ移動させる方法を説明する図である。 実施例1〜3の雲台制御部220における追尾処理のフローチャート図である。 実施例1〜3における被写体の位置を予測する方法を説明する図である。 実施例1〜2における被写体検出から追尾終了までの模式図である。 実施例1〜3で用いる更新テンプレートと比較画像に設定される画像を示す図である。 実施例1の映像処理部210における追尾処理のフローチャート図である。 実施例2における被写体位置と予測位置のズレを算出する方法を示す図である。 実施例2の映像処理部210における追尾処理のフローチャート図である。 実施例3における被写体検出から追尾終了までの模式図である。 実施例3の映像処理部210における追尾処理のフローチャート図である。 実施例3の映像処理部210における追尾対象第二候補に対する位置予測部213のフローチャート図である。 実施例4における自動追尾撮影を行う撮影システムを示す図である。 実施例4におけるデジタルズーム機能を説明する図である。 実施例4の映像処理部210における追尾処理のフローチャート図である。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
以下、図1〜7を参照して、本発明の第1の実施例による、自動追尾装置について説明する。
図1は本発明の実施形態を示したシステム図である。
図1において、100が遠隔操作される雲台カメラである。雲台カメラ100は、カメラハウジング110、雲台ヘッド120、台座130で構成されている。
カメラハウジング110は、カメラズームレンズ111とボックスカメラ112を格納している。カメラズームレンズ111の制御信号は、雲台ヘッド120からコネクタ113を介して入力される。ボックスカメラ112の映像信号は、コネクタ114を介して外部へ出力される。本実施例において、映像信号はHD−SDI信号である。
雲台ヘッド120は、内部にCPU121、チルトモーター122、パンモーター123、チルトモータードライバー124、パンモータードライバー125、チルトポジションセンサー126、パンポジションセンサー127で構成されている。チルトモーター122とパンモーター123のハウジング(不図示)が、雲台ヘッド120に固定されており、各モータのシャフト(不図示)は、ギヤ(不図示)を介して台座130およびカメラハウジング110に接続されている。各モータが回転することにより、雲台ヘッド120を基準にして、台座130とカメラハウジング110が回転し、カメラの撮影方向が変更される。
CPU121は、コネクタ128を介して入力されるパン・チルト、ズーム、フォーカスの各制御信号を処理する。パン制御信号の場合はパンモータードライバー125に、チルト制御信号の場合はチルトモータードライバー124に、ズームおよびフォーカス制御信号の場合はコネクタ129に各制御信号を出力する。
パンモータードライバー125では、パン制御信号に応じてパンモーター123に電流を流し、パンモーター123を回転させる。チルトモータードライバーも同様に、チルト制御信号に応じてチルトモーター122を回転させる。コネクタ129に出力したズームおよびフォーカス制御信号は、コネクタ113を介してカメラズームレンズ111に出力され、制御信号に応じてズームとフォーカスが駆動する。チルトポジションセンサー126およびパンポジションセンサー127は、位置検出器であり、本実施例ではポテンショメーターとする。各センサーは、各モータの回転軸に配置されており、モータが回るとポテンショメーターが回転し、回転位置が電圧として出力される。各センサーから出力されたパン・チルトの電圧信号、コネクタ129から入力したズームとフォーカスの電圧信号は、CPU121で位置信号にそれぞれ変換され、コネクタ128を介して外部へ出力される。本実施例では、コネクタ128から出力される信号はRS−232C信号である。
200は演算処理装置であり、本実施例ではCPU(不図示)やメモリ(不図示)などを装備したパーソナルコンピュータ(PC)を使用している。図中、210と220は内部のソフト処理のブロックを示しており、210は映像処理部、220は雲台制御部である。映像処理部210は、コネクタ201を介して入力される雲台カメラ100からの映像信号と、テンプレートを用いて画像認識処理を行う。また、映像処理部210内にはテンプレートを時々刻々と更新するテンプレート更新部211と、雲台カメラ100から入力される映像と比較するための比較画像を設定する比較画像設定部212を備えている。さらに、被写体の位置を予測する位置予測部213と、予測位置と実際の位置を比較する位置比較部214を備えている。雲台制御部220は、雲台カメラ100、後述の操作機300と制御信号の送受信を行う。コネクタ202を介して入力される雲台カメラ100からのパン・チルト、ズーム、フォーカス位置信号は、演算処理装置200内でA/D変換された後、位置情報として雲台制御部220に入力される。映像処理部210および雲台制御部220の処理に関しては、後述する。
300は操作器、400はモニターであり、これらは遠隔地に配置され、図のように配線されている。モニター400には、雲台カメラ100が撮影した映像が映し出される。操作器300には、追尾(TRACKING)のON/OFFを設定する追尾設定SW302、ズーム操作部303、フォーカス操作部304、パン・チルト操作部305を備えている。追尾設定SW302を押すと、演算処理装置200内にある雲台制御部220の追尾状態がON/OFFする。ズーム操作部303、フォーカス操作部304、パン・チルト操作部305の各操作キーを動かすと、雲台制御信号がコネクタ301を介して出力され、演算処理装置200内の雲台制御部220へ送られる。雲台制御部220の追尾状態がONの場合、雲台制御信号は無視される。追尾状態がOFF場合、操作器300からの雲台制御信号は雲台カメラ100へ送られ、操作器300から雲台カメラ100のパン・チルト、ズーム、フォーカスを操作することができる。本実施例では、常に追尾状態とする。
次に図2を用いて、雲台制御部220で行う、被写体を目標座標へ移動させる方法を説明する。
21は被写体である航空機、22は被写体のサイズを矩形で示した被写体枠、23は画面であり、本実施例での画素数は横1920、縦1080である。24は画面左上座標、25は被写体目標位置座標、26は被写体中心位置座標、27は被写体枠22の左上座標を示す枠左上座標、28は被写体枠22の右下座標を示す枠右下座標である。25〜28はいずれも画面左上座標24を(0、0)とした座標系で表されている。本実施例において、被写体目標位置座標25は、画面の中心であり、(960、540)に設定してある。また、枠左上座標27、枠右下座標28の座標は、映像処理部210のテンプレートマッチング処理により算出される。被写体中心位置座標26は、枠左下座標27と枠右下座標28から算出される。
次に、図3を用いて本実施例における雲台制御部220の追尾処理を説明する。
S301では、位置信号の入力があるか否かを判断し、入力があればS302に進み、そうでなければS301に進む。
S302では、雲台カメラ100からのパン位置情報を映像処理部210へ送信し、S303に進む。
S303では、枠左上座標27(XL,YL)と枠右下座標28(XR,YR)から被写体中心位置26(X0,Y0)を算出し、S304に進む。
S304では、S303で算出した被写体中心位置座標26(X0,Y0)と被写体目標位置座標25(Xt,Yt)の差分(ΔX,ΔY)を算出し、S305に進む。
S305では、S304で算出した差分のうち、パンの位置差分があるか否かを判断し、差分があればS306に進み、そうでなければS308に進む。
S306では、S305で検出したパン位置差分からパン制御信号を生成し、S307に進む。
S307では、S306で生成したパン制御信号を雲台カメラ100に送信し、S308に進む。
S308では、S304で算出した差分のうち、チルトの位置差分があるか否かを判断し、差分があればS309に進み、そうでなければS311に進み、処理を完了する。
S309では、S308で検出したチルト位置差分からチルト制御信号を生成し、S310に進む。
S310では、S309で生成したチルト制御信号を雲台カメラ100に送信し、S311に進む。
S311では、追尾最終位置(XE,YE)であるか否かを判断し、追尾最終位置であればS312に進み、そうでなければS302に進む。追尾最終位置は、被写体が止まったことから検出しても良いし、予め設定するパン・チルト情報から検出しても良い。
S312では、雲台制御部220により、雲台カメラ100を初期位置へ駆動し、S313に進み処理を完了する。
以上の様に雲台制御部220を制御することにより、被写体中心位置座標26が被写体目標位置座標25と一致するように制御され、追尾が行われる。
次に、図4を用いて本実施例における位置予測部213の処理を説明する。
図中、t-1は前回画像取得時、tは今回画像取得時、t+1は次回画像取得時の各時刻での被写体位置の遷移を示している。また41は追尾被写体、42は被写体のサイズを矩形で示した被写体枠、43は被写体中心位置座標、44は被写体枠42の左上座標、45は被写体枠42の右下座標、46は予測位置領域を示している。仮に、43t-1の座標が(X t-1,Y t-1)、43tの座標が(Xt,Yt)とすると、前回の被写体位置と今回の被写体位置から移動ベクトル(Xt-X t-1,Yt-Y t-1)を算出する。移動位置予測部213は、算出した移動ベクトルを基に、予測位置(2Xt -X t-1,2Yt-Y t-1)を算出し、42t、42t+1を含む最小の領域を予測位置領域46に設定する。位置比較部214は、t+1時に実際に検出した被写体位置が予測位置領域46内であるか否か比較する。
図5は本実施例における被写体検出から追尾終了までの被写体位置の遷移を示した模式図である。
図中、51〜55は時系列になっており、51は映像処理部210が最初に検出した被写体を示している。また52は、電柱によって一部隠れている被写体、53は、林によって大部分が隠れている被写体、54は林を通り抜けた後の被写体、55は追尾終了時の被写体である。
図6は本実施例のテンプレート更新部211によって時々刻々と更新される更新テンプレートと、比較画像設定部212によって比較画像に設定される画像を示している。
図中、更新テンプレート(51)〜(55)は図5の同符号に対応している。
次に、図7を用いて本実施例における映像処理部210の処理を説明する。
まず、被写体を検出して追尾を開始すると、S701では追尾終了位置でないか否かを判断し、追尾終了位置でなければS702に進み、追尾終了位置ならばS714に進む。
S702では、映像処理部210にて、テンプレートマッチングを行い、S703に進む。
S703では、テンプレート更新部211によりテンプレートを更新し、S704に進む。
S704では、比較画像設定部212にてS703で更新したテンプレートを比較画像に設定し、S705に進む。
S705では、位置予測部213にて、図4で示した方法で位置を予測し、S706に進む。
S706では、被写体枠42の位置を取得し、S707に進む。
S707では、位置比較部214にて、S705で予測した位置とS706で取得した被写体枠42の位置を比較し、S708に進む。
S708では、S707の比較結果が閾値外であるか否かを判断し、閾値外であればS709に進み、そうでなければS701に進む。
S709では、比較画像設定部212にて、図6に示した基準テンプレートを比較画像に設定し、S710に進む。
S710では、映像処理部210にて、テンプレートマッチングを行い、S711に進む。
S711では、S710のテンプレートマッチングの結果、画像類似度が高いか低いかを判断し、画像類似度が低ければS712に進み、そうでなければS701に進む。
S712では、位置予測部213にて、S705で算出した予測位置領域46を探索領域に設定し、S710に進む。
S713では、処理を完了する。
以上より、映像処理部210は被写体の予測位置との比較結果と、設定した比較画像とのテンプレートマッチングから予測位置を探索領域として、追尾処理をやり直すことが可能になる。
本実施例では、位置の予測において、図4で説明したとおり、移動ベクトルから位置を予測したが、位置予測部213と位置比較部214を雲台制御部220内に備え、雲台カメラ100のトレースデータを基に位置の予測を行っても良い。また、航空機追尾のように、追尾終了位置が予め分かっている場合は追尾終了位置との比較を行っても良い。さらに、追尾終了位置と予測位置の比較を行い、予測位置が妥当であるか判定するようにしても良いし、その他、様々な条件を考慮して算出するようにしても良い。また、位置比較部214が用いる閾値において、図4に示す予測位置領域46を閾値としたが、これに限らず様々な条件を考慮して閾値を設定しても良い。さらに、比較画像の設定において、位置比較部214で判定される位置比較結果が閾値以上の時に、比較画像を基準テンプレートに設定したが、図6に示す最初に検出した画像を設定しても良い。また、位置の比較結果が閾値以上の時に比較画像を再設定するようにしたが、先に位置を比較し、比較結果に基づいて比較画像を設定するようにしても良い。さらに、追尾処理終了において、予測位置を再探索する場合は、予めタイムアウト時間を規定しておき、タイムアウト時間経過した場合に追尾処理を終了するようにしても良い。
本実施例によれば、被写体の予測位置との比較結果に基づき比較画像の設定および予測位置を再探索することにより、誤追尾を防止することを可能にした自動追尾装置を提供することができる。
以下、図1〜6、図8〜9を参照して、本発明の第2の実施例による、自動追尾装置について説明する。実施例1と同一の機能構成は、同一の符号を付け、説明は省く。
本実施例のシステム図は、実施例1と同様、図1を用いる。また、雲台制御部220で行う追尾処理は図2〜3を、映像処理部210の位置予測には図4を、比較画像の設定は図6を参照する点、模式図は図5を用いる点も実施例1と同様であり、説明は省略する。
図8を用いて、本実施例における、映像処理部210で行う被写体位置と追尾位置の差異量を算出する方法を説明する。図中、81は被写体、82は被写体81の中心位置を示しており、位置予測部213にて予測される位置は被写体中心位置82と一致しているものとする(予測位置82)。また、83は位置予測部213にて予測される位置の被写体枠、84は追尾を行っている位置の中心位置、85は追尾枠を示している。被写体の中心位置の算出方法は、実施例1の図4で説明した方法と同様であるため、ここでの説明は省略する。また、t-1、t、t+1と時系列になっている点も図4と同様である。本実施例では、時刻t-1以前にテンプレートが障害物(ここでは林)に更新され、追尾位置84と予測位置82に差異が生じている様子を示している。時刻tでは、更新されたテンプレートを基にテンプレートマッチングを行い、時刻t-1より追尾位置84と予測位置82の差異が大きくなっている様子を示している。
位置比較部214は、時刻t-1、t、t+1にて、被写体中心位置82と追尾位置84の差を算出し、不図示のメモリに記憶する。例えば時刻t-1の差異は(84Xt-1-82Xt-1, 84Yt-1-82Yt-1)となる。次に、各時間の差異の変化量を算出する。例えば時間t-1からtの変化量は、(84(Yt-Yt-1)-82(Yt-Yt-1) / 84(Xt-Xt-1)-82(Xt-Xt-1))となる。この変化量に対する閾値を予め決めておき、位置比較の判定に用いる。時刻tにて閾値以上と判断した場合、予測位置82を探索領域に設定してテンプレートマッチングを行うことで、時刻t+1では、予測位置82と追尾位置84が一致する。
次に、図9を用いて本実施例における映像処理部210の処理を説明する。
まず、被写体を検出して追尾を開始すると、S901では追尾終了位置でないか否かを判断し、追尾終了位置でなければS902に進み、追尾終了位置ならばS915に進む。
S902では、映像処理部210にて、テンプレートマッチングを行い、S903に進む。
S903では、テンプレート更新部211によりテンプレートを更新し、S904に進む。
S904では、比較画像設定部212にてS903で更新したテンプレートを比較画像に設定し、S905に進む。
S905では、位置予測部213にて、図4で示した方法で位置を予測し、S906に進む。
S906では、追尾位置84の位置を取得し、S907に進む。
S907では、位置比較部214にて、図8で示した方法によりS905で予測した位置とS906で取得した追尾位置を比較し、S908に進む。
S908では、S907で算出した予測位置と追尾位置の差異を不図示のメモリに記憶し、S909に進む。
S909では、S907の比較結果が閾値外であるか否かを判断し、閾値外であればS910に進み、そうでなければS912に進む。
S910では、位置予測部213にて、S905算出したで予測位置領域46を探索領域に設定し、S911に進む。
S911では、比較画像設定部212にて、図6に示した基準テンプレートを比較画像に設定し、S912に進む。
S912では、映像処理部210にて、テンプレートマッチングを行い、S913に進む。
S913では、S912のテンプレートマッチングの結果、画像類似度が低いか否かを判断し、画像類似度が低ければ追尾処理をタイムアウトしてS914に進み、そうでなければS901に進む。
S914では、処理を完了する。
以上より、映像処理部210は被写体の予測位置と実際の追尾位置との差異の変化から予測位置を探索領域として、追尾処理をやり直すことが可能になる。
本実施例では、位置の予測において、図4で説明したとおり、移動ベクトルから位置を予測したが、位置予測部213と位置比較部214を雲台制御部220内に備え、雲台カメラ100のトレースデータを基に位置の予測を行っても良い。また、航空機追尾のように、追尾終了位置が予め分かっている場合は追尾終了位置との比較を行っても良いし、その他、様々な条件を考慮して算出するようにしても良い。また、位置比較部214が用いる閾値において、予め設定する変化量以上を閾値としたが、これに限らず様々な条件を考慮して閾値を設定しても良い。さらに、比較画像の設定において、位置比較部214で判定される位置比較結果が閾値以上の時に、比較画像を基準テンプレートに設定したが、図6に示す最初に検出した画像を設定しても良い。また、位置の比較結果が閾値以上の時に比較画像を再設定するようにしたが、先に位置を比較し、比較結果に基づいて比較画像を設定するようにしても良い。さらに、追尾処理終了において、予測位置を再探索する場合は、タイムアウト時間経過した場合に追尾処理を終了するようにしたが、探索し続けるようにしても良い。
本実施例によれば、被写体の予測位置との比較結果に基づき比較画像の設定および予測位置を再探索することにより、誤追尾を防止することを可能にした自動追尾装置を提供することができる。
以下、図1〜6、図10〜12を参照して、本発明の第3の実施例による、自動追尾装置について説明する。実施例1、2と同一の機能構成は、同一の符号を付け、説明は省く。
本実施例のシステム図は、実施例1、2と同様、図1を用いる。また、雲台制御部220で行う追尾処理は図2〜3を、映像処理部210の位置予測には図4を、比較画像の設定は図6を参照する点、模式図は図5を用いる点も実施例1〜2と同様であり、説明は省略する。
図10は本実施例における被写体検出から追尾終了までの被写体位置の遷移を示した模式図である。
図中、51〜55は図5と同様であり、説明は省略する。また、図中1001、1002は駐機している航空機を示している。被写体53の時は、被写体が障害物により隠れてしまうため、画像類似度は航空機1001の方が高くなる。
次に、図11を用いて本実施例における映像処理部210の処理を説明する。実施例1で用いた図7と異なる点は、S702で、映像処理部210にて、テンプレートマッチングを行うと、S1101に進む。
S1101では、類似被写体があるか否かを判定し、類似被写体があればS1102に進み、そうでなければS703に進む。
S1102では、類似被写体のうち、第二候補の画像に対する処理を行い、S703に進む。第二候補の画像に対する処理の詳細は、図12にて説明する。
次に、図12を用いて図11のS1102で行う、第二候補の画像に対する処理を説明する。
まず、第二候補の被写体に対する処理を開始すると、S1201では処理が任意のn回未満であるか否かを判断し、処理がn回未満であればS1202に進み、そうでなければS1207に進む。
S1202では、第一候補の画像類似度が第二候補の画像類似度よりも低いか否かを判断し、第一候補の画像類似度が低ければS1203に進み、そうでなければS1209に進む。
S1203では、位置予測部213が第二候補に対して移動位置の予測を行い、S1204に進む。
S1204では、映像処理部210が第二候補に対する探索領域を更新し、S1205に進む。
S1205では、S1204で更新した探索領域において、テンプレートマッチングを行い、S1206に進む。
S1206では、S1205のテンプレートマッチングの結果、画像類似度が低いか否かを判断し、画像類似度が低ければS1209に進み、そうでなければS1208に進む。
S1207では、第二候補の画像をテンプレートに更新し、S1209に進む。
S1208では、処理カウントをインクリメントし、S1210に進む。
S1209では、処理カウントをクリアし、S1210に進む。
S1210では、処理を完了する。
以上より、映像処理部210は画像類似度の高い第二候補の被写体に対しても位置の予測を行うことで、類似の被写体が複数ある場合においても意図した被写体を追尾することが可能になる。
本実施例では、類似の被写体に対する処理において、画像類似度が第一候補を超える場合にのみ、位置の予測を行ったが、これに限らず第三候補以降に関して位置の予測を行っても良いし、その他条件を考慮して位置予測の対象を変更しても良い。また、第二候補のチェックを任意のn回としたが、これに限らず画像類似度によってテンプレートを更新するようにしても良いし、条件を変更できるようにしても良い。
本実施例によれば、被写体の予測位置との比較結果に基づき比較画像の設定および予測位置を再探索することにより、誤追尾を防止することを可能にした自動追尾装置を提供することができる。
以下、図4、6、図13〜15を参照して、本発明の第4の実施例による、撮影システム装置について説明する。実施例1〜3と同一の機能構成は、同一の符号を付け、説明は省く。本実施例では、映像処理部210の位置予測には図4を、比較画像の設定は図6を参照する点は実施例1〜3と同様であり、説明は省略する。
図13は本発明の実施形態を示したシステム図である。
図13の撮影システムは、カメラズームレンズ111とボックスカメラ112にて構成されており、これらは固定して設置されているものとする。カメラズームレンズ111の制御信号は、ボックスカメラ112からコネクタ113を介して入力される。ボックスカメラ112の映像信号は、コネクタ114を介して外部へ出力される。本実施例において、映像信号はHD−SDI信号である。また、ボックスカメラ112内には、図1の演算処理装置200内に構成していた映像処理部210を構成している。映像処理部210内には、図1と同様にテンプレート更新部211、比較画像設定部212、位置予測部213、位置比較部214を構成している。
本実施例では、ボックスカメラ112は、デジタルズーム機能を備えており、常にデジタルズーム機能がON状態であるものとする。
400はモニターであり、ボックスカメラ112が撮影した映像が映し出される。
次に図14を用いて、ボックスカメラ112で行うデジタルズーム機能を説明する。
1401は被写体である航空機、1402は被写体のサイズを矩形で示した被写体枠、1403は画面であり、本実施例での画素数は横1920、縦1080である。また、1404は画面左上座標、1405は被写体中心位置座標、1406は被写体枠1402の左上座標を示す枠左上座標、1407は被写体枠1402の右下座標を示す枠右下座標である。1405〜1407はいずれも画面左上座標1404を(0、0)とした座標系で表されている。本実施例において、枠左上座標1406、枠右下座標1407の座標は、映像処理部210のテンプレートマッチング処理により算出される。被写体中心位置座標1405は、枠左下座標1406と枠右下座標1407から算出される。本実施例では、デジタルズーム機能にて切り出し、拡大および縮小を行う画像を被写体枠1402内の画像とし、被写体枠1402を被写体1402に追尾させることで、画面1403内の被写体1401を常時デジタルズーム可能なシステムである。
次に、図15を用いて本実施例における映像処理部210の処理を説明する。
まず、被写体を検出して追尾を開始すると、S1501では追尾終了位置でないか否かを判断し、追尾終了位置でなければS1502に進み、そうでなければS1514に進む。
S1502では、映像処理部210にて、テンプレートマッチングを行い、S1503に進む。
S1503では、テンプレート更新部211によりテンプレートを更新し、S1504に進む。
S1504では、比較画像設定部212にてS1503で更新したテンプレートを比較画像に設定し、S1505に進む。
S1505では、位置予測部213にて、図4で示した方法で位置を予測し、S1506に進む。
S1506では、図14で示した被写体枠を制御し、S1507に進む。
S1507では、被写体枠の位置を算出し、S1508に進む。
S1508では、位置比較部214にて、S1505で予測した位置とS1507で算出した被写体枠の位置を比較し、S1509に進む。
S1509では、S1508の比較結果が閾値外であるか否かを判断し、閾値外であればS1510に進み、そうでなければS1501に進む。
S1510では、比較画像設定部212にて、図6に示した基準テンプレートを比較画像に設定し、S1511に進む。
S1511では、映像処理部210にて、テンプレートマッチングを行い、S1512に進む。
S1512では、S1511のテンプレートマッチングの結果、画像類似度が低いか否かを判断し、画像類似度が低ければS1513に進み、そうでなければS1501に進む。
S1513では、位置予測部213にて、S1505で予測した位置(領域)を探索領域に設定し、S1511に進む。
S1514では、処理を完了する。
以上より、映像処理部210は被写体の予測位置との比較結果と、設定した比較画像とのテンプレートマッチングから予測位置を探索領域として、追尾処理をやり直すことが可能になる。
本実施例によれば、被写体の予測位置との比較結果に基づき比較画像の設定および予測位置を再探索することにより、誤追尾を防止することを可能にした自動追尾装置を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 雲台カメラ、110 カメラハウジング、111 カメラズームレンズ、
112 ボックスカメラ、120 雲台ヘッド、121 CPU、130 台座、
200 演算処理装置、210 映像処理部、211 テンプレート更新部、
212 比較画像設定部、213 位置予測部、214 位置比較部、
220 雲台制御部、300 操作機、400 モニター

Claims (12)

  1. 予め記録してあるテンプレートパターンによりパターン認識を行う画像認識手段により
    被写体の位置を検出し、前記被写体の自動追尾撮影を行う自動追尾装置において、
    前記テンプレートパターンを時々刻々と入力される画像に更新するテンプレートパターン更新手段と、
    前記被写体の移動する位置を予測する移動位置予測手段と、
    前記移動位置予測手段で予測される位置と前記被写体の位置を比較する位置比較手段と、
    前記位置比較手段の比較結果に基づき、前記画像認識手段にて比較する画像を設定する比較画像設定手段と、
    前記位置比較手段の比較結果と前記画像認識手段の類似度により、前記被写体を探索する領域を設定する被写体探索領域設定手段と、
    前記被写体探索領域設定手段にて設定された領域内にて被写体を探索する設定領域探索手段を備えたことを特徴とする自動追尾装置。
  2. 前記比較画像設定手段は、前記位置比較手段の比較結果が閾値よりも大きい時、予め記憶している基準テンプレート、最初に検出した画像、任意の画像のうちいずれかを設定することを特徴とする請求項1に記載の自動追尾装置。
  3. 前記被写体探索領域設定手段は、前記画像認識手段の類似度が閾値よりも低い時は、前記移動位置予測手段で予測した位置を探索領域とすることを特徴とする請求項1又は請求項2に記載の自動追尾装置。
  4. 前記位置比較手段の比較結果を記憶しておく位置比較結果記憶手段を備え、前記被写体探索領域設定手段は、前記位置比較結果の変化の割合が閾値以上の時に、前記移動位置予測手段で予測した位置を探索領域とすることを特徴とする請求項1乃至請求項3の何れか一項に記載の自動追尾装置。
  5. 探索領域内に追尾被写体の予測位置とは異なる位置の前記画像認識手段の類似度が追尾被写体よりも高い少なくとも1つの被写体に対し、移動位置を予測する移動位置予測二次手段を備えることを特徴とする請求項1乃至請求項4の何れか一項に記載の自動追尾装置。
  6. 前記移動位置予測二次手段は、任意の時間内に被写体を検出できない時は、タイムアウトすることを特徴とする請求項5に記載の自動追尾装置。
  7. 追尾終了位置を予め記憶しておき、記憶している前記追尾終了位置と被写体の位置の比較を行う追尾終了位置比較手段を備えたことを特徴とする請求項1乃至請求項6の何れか一項に記載の自動追尾装置。
  8. 追尾終了位置を予め記憶しておき、記憶している前記追尾終了位置と前記移動位置予測手段にて予測した位置を比較して、前記移動位置予測手段で予測した位置の判定を行う予測位置判定手段を備えたことを特徴とする請求項1乃至請求項7の何れか一項に記載の自動追尾装置。
  9. 前記移動位置予測手段は、被写体の移動ベクトルであることを特徴とする請求項1乃至請求項8の何れか一項に記載の自動追尾装置。
  10. 前記移動位置予測手段は、被写体位置の軌跡をデータ化したトレースデータであることを特徴とする請求項1乃至請求項8の何れか一項に記載の自動追尾装置。
  11. 遠隔制御で上下左右に撮影手段を旋回させるリモートカメラシステムを有し、
    前記被写体の位置に基づいて前記リモートカメラシステムを旋回させ、
    前記被写体の自動追尾撮影を行うこと
    を特徴とする請求項1乃至請求項10の何れか一項に記載の自動追尾装置。
  12. 撮影画像内の前記被写体を含む被写体画像範囲を切り出して拡大、縮小を行うデジタルズーム機能を有し、前記被写体の位置に基づいて前記被写体画像範囲を移動させ、前記被写体画像範囲の自動追尾撮影を行うことを特徴とする請求項1乃至請求項10の何れか一項に記載の自動追尾装置。
JP2015213552A 2015-10-30 2015-10-30 追尾装置 Pending JP2017085439A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015213552A JP2017085439A (ja) 2015-10-30 2015-10-30 追尾装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015213552A JP2017085439A (ja) 2015-10-30 2015-10-30 追尾装置

Publications (1)

Publication Number Publication Date
JP2017085439A true JP2017085439A (ja) 2017-05-18

Family

ID=58713352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015213552A Pending JP2017085439A (ja) 2015-10-30 2015-10-30 追尾装置

Country Status (1)

Country Link
JP (1) JP2017085439A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695589A (zh) * 2020-04-22 2020-09-22 华南师范大学 智慧国土物联网云监测方法和人工智能机器人系统
WO2023007770A1 (ja) * 2021-07-29 2023-02-02 新明和工業株式会社 航空機の乗降部を検出するための検出システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695589A (zh) * 2020-04-22 2020-09-22 华南师范大学 智慧国土物联网云监测方法和人工智能机器人系统
CN111695589B (zh) * 2020-04-22 2023-05-26 华南师范大学 智慧国土物联网云监测方法和人工智能机器人系统
WO2023007770A1 (ja) * 2021-07-29 2023-02-02 新明和工業株式会社 航空機の乗降部を検出するための検出システム

Similar Documents

Publication Publication Date Title
JP5242938B2 (ja) ビデオ追跡システム及び方法
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP4498104B2 (ja) 監視装置、その制御方法、およびプログラム
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
CN112703533A (zh) 对象跟踪
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
US20070014432A1 (en) Moving-object tracking control apparatus, moving-object tracking system, moving-object tracking control method, and program
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP3440916B2 (ja) 自動追尾装置、自動追尾方法及び自動追尾プログラムを記録した記録媒体
US20160084932A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US20210329175A1 (en) Image processing system, image processing method, and program
JP7085812B2 (ja) 画像処理装置およびその制御方法
WO2013121215A1 (en) Video tracking apparatus and method
JP2010140425A (ja) 画像処理システム
CN107079098B (zh) 基于ptz摄像机的影像播放方法及装置
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
JP2017085439A (ja) 追尾装置
JP5084542B2 (ja) 自動追尾撮影装置、自動追尾撮影方法および自動追尾撮影プログラム
JP2007281961A (ja) 撮像装置、撮像装置制御方法及び撮像制御方法
EP4187912A1 (en) Camera control apparatus, camera control method, and non-transitory storage medium
JP2021022783A (ja) 制御装置、追尾システム、制御方法、及びプログラム
US20230177705A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP7325180B2 (ja) 追尾装置および方法
JP2020071614A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2022175854A (ja) 情報処理装置およびその制御方法ならびにプログラム