JP7001125B2 - 追跡システム、追跡方法および追跡プログラム - Google Patents

追跡システム、追跡方法および追跡プログラム Download PDF

Info

Publication number
JP7001125B2
JP7001125B2 JP2020102772A JP2020102772A JP7001125B2 JP 7001125 B2 JP7001125 B2 JP 7001125B2 JP 2020102772 A JP2020102772 A JP 2020102772A JP 2020102772 A JP2020102772 A JP 2020102772A JP 7001125 B2 JP7001125 B2 JP 7001125B2
Authority
JP
Japan
Prior art keywords
tracking
image
camera
visible light
detection process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020102772A
Other languages
English (en)
Other versions
JP2020141426A (ja
Inventor
拓也 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2020102772A priority Critical patent/JP7001125B2/ja
Publication of JP2020141426A publication Critical patent/JP2020141426A/ja
Priority to JP2021204825A priority patent/JP2022050430A/ja
Application granted granted Critical
Publication of JP7001125B2 publication Critical patent/JP7001125B2/ja
Priority to JP2024067336A priority patent/JP2024091808A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Cameras In General (AREA)

Description

本発明は、同一の対象物を複数のカメラで追跡する追跡システム、追跡方法および追跡プログラムに関する。
入力された画像列または映像において、その画像中の任意の物体をユーザが指定したときに、その物体を追跡する方法が各種提案されている。
特許文献1には動画像から運動物体を検出する運動物体検出装置が記載されている。特許文献1に記載された装置は、現時刻および過去の画像フレーム中の運動物体のオプティカルフローを用いて偽のオプティカルフローを除去する。
また、複数のカメラを用いて対象物を追跡する方法も知られている。特許文献2には、複数のカメラを連携させて、移動体を追跡監視する監視システムが記載されている。特許文献2に記載された監視システムは、複数の監視カメラが相互間で追跡対象の特徴情報を受け渡し、その特徴情報を用いて各監視カメラが追跡対象を追跡する。
特許文献3には、可視光画像を処理して対象エリアに進入したオブジェクトの検出や追跡等を行う画像処理装置が記載されている。特許文献3に記載された画像処理装置には、可視光カメラおよび遠赤外線カメラが接続され、両カメラは、略同じアングルで、且つ略同じ撮像倍率でオブジェクトの検出を行う対象エリアを撮像する。また、特許文献3に記載された画像処理装置は、オブジェクトの検出に適さない可視光画像の画像領域があった場合、遠赤外線背景画像を用いて、遠赤外線背景差分画像を生成し、撮像されているオブジェクトを検出する。
なお、特許文献4には、目標物を高速で検出する目標検出装置が記載されている。特許文献4に記載された目標検出装置は、レンズを介して入力される遠赤外線像と近赤外線像とをそれぞれ検出する検知器を備えている。
特許第3810657号公報 特開2003-324720号公報 特開2014-157452号公報 特開平6-174828号公報
特許文献1に記載された装置のように単カメラを用いて対象物を追跡する場合、カメラの特性によっては、適切に追跡できない環境も存在する。例えば、可視単カメラを用いて追跡する場合、対象物の色が追跡に有効な特徴と言える。しかし、追跡する環境が、暗闇など、色の差異が見つけにくい環境の場合、可視単カメラを用いて対象物を追跡することは困難である。また、例えば、遠赤外線単カメラを用いて追跡する場合、昼夜を問わず温度によって特徴が得られる一方、他の同温物体が存在していた場合、対象物の追跡は困難である。
また、特許文献2に記載された監視システムは、ある監視カメラ装置が追跡目標を見失うと、抽出された特徴情報を他の監視カメラ装置に伝送し、他の監視カメラ装置が、伝送された特徴情報に一致した場合に映像の伝送を開始する。しかし、各監視カメラ装置が撮影する位置や画角は通常異なるため、他の監視カメラ装置から受信した特徴情報をその後の追跡に精度よく利用できるとは言い難い。
一方、特許文献3に記載された画像処理装置のように、複数のカメラを用いて対象物を追跡することにより、追跡の信頼性を向上させることは可能である。しかし、複数カメラをステレオ視のように同時に用いて追跡する際には、画角の違いや、視差による見えのズレの問題が存在する。理想的には、画角が同じであれば、カメラ間で対象物の位置が変わらないため、非常に簡単に処理が可能である。しかし、カメラセンサの大きさや焦点距離、レンズ歪み等の微妙な差異によって画角は異なってしまうため、複数のカメラを用いることによる画角の違いをなくすことは困難である。
また、同じ品番のカメラを利用するなどして、画角を略同じに合わせたとしても、複数のカメラを用いる以上、視差は原理的になくすことができない。視差による見えのズレを考慮せず、かつ画角は略同じと仮定して画像処理を行うと、仮定に無理があるため、追跡対象を正確にとらえることができず、追跡精度の低下を招いてしまうという問題がある。
そこで、本発明は、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる追跡システム、追跡方法および追跡プログラムを提供することを目的とする。
本発明による追跡システムは、同一の対象物を少なくとも2台以上のカメラで追跡する追跡システムであって、第1の映像を撮像する第1の可視光カメラと、第1のカメラと視差のある画角で撮影される第2の映像を撮像する第2の可視光カメラと、処理部とを備え、処理部が、少なくとも、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理と、少なくとも第1の可視光カメラ及び第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で対象物を検出する検出処理を制御する制御処理とを実行することを特徴とする
本発明による他の追跡システムは、同一の対象物を少なくとも2台以上のカメラで追跡する追跡システムであって、少なくとも2台以上の可視光カメラから映像を入力する処理部を備え、処理部は、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理と、第1の可視光カメラ及び第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で対象物を検出する検出処理を制御する制御処理とを実行することを特徴とする
本発明による追跡方法は、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理と、第1の可視光カメラ及び第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で対象物を検出する検出処理を制御する制御処理とを実行することを特徴とする
本発明による追跡プログラムは、コンピュータに、第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理、第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で対象物を検出する第2の検出処理、および、第1の可視光カメラ及び第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る対象物の位置に基づいて、特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で対象物を検出する検出処理を制御する制御処理を実行させることを特徴とする
本発明によれば、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。
本発明による追跡システムの一実施形態を示すブロック図である。 2つの映像を並べて表示した例を示す説明図である。 追跡結果を表示した例を示す説明図である。 追跡システムの動作例を示す説明図である。 本発明による追跡システムの変形例を示すブロック図である。 本発明による追跡システムの概要を示すブロック図である。 本発明による追跡システムの他の概要を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。なお、本発明において対象物とは、追跡対象である任意の人物または物体を意味する。
図1は、本発明による追跡システムの一実施形態を示すブロック図である。本実施形態の追跡システムは、同一の対象物を複数のカメラで追跡するものであり、第1のカメラ10と、第2のカメラ20と、処理部30と、出力部40と、記憶部50とを備えている。
以下の説明では、追跡システムが2台のカメラ(第1のカメラ10および第2のカメラ20)を備えている場合を例示するが、追跡システムが備えるカメラの数は2台に限定されず、3台以上であってもよい。
本実施形態では、第1のカメラ10と第2のカメラ20とは、同一の対象物を追跡するために用いられる。具体的には、一方のカメラが他方のカメラと略同一の画角を範囲とする映像を撮像する。以下の説明では、第1のカメラが撮像する映像を第1の映像と記し、第2のカメラが撮像する映像を第2の映像と記す。また、第2の映像は、第1の映像と略同一の画角で撮影される。
第1のカメラ10と第2のカメラ20の位置関係は、例えば、ステレオ視によって対象物体を追跡できるように設定されてもよい。ここで、位置関係とは、上述するように略同一の画角で2つの映像が撮影されるように設定されたカメラの位置や向き、倍率のことを意味する。
なお、複数のカメラを用いて同一の対象物を追跡するという特性上、原理的に視差をなくすることはできない。そのため、一方のカメラの画角を基準として、他方の各カメラの画角(画像範囲や、ある距離での大きさなど)が、ほぼ同じになるように調節される。この設定は、カメラが3台以上になった場合でも同様である。
各カメラは、相互の位置関係を固定する装置を用いて設定されてもよい。また、相互の位置関係が変化しなければ、第1のカメラ10と第2のカメラ20とは、設置場所が固定されていなくてもよい。例えば、これらのカメラが同一の移動体に取り付けられて移動し、初期の状態からの画角が変化してもよい。
また、各カメラは、追跡開始時に画角内に対象物が存在するように設定される。ただし、追跡開始時以外、対象物が画角内に存在している必要はない。第1のカメラ10および第2のカメラ20は、撮影した映像を処理部30に入力する。
本実施形態で用いられるカメラは、対象物を撮影可能なカメラであれば、その内容は任意である。具体的には、第1のカメラ10と、第2のカメラ20とは、同種のセンサを備えたカメラで実現されていてもよく、異種のセンサを備えたカメラで実現されていてもよい。例えば、第1のカメラが可視光カメラで、第2のカメラが遠赤外線カメラであってもよい。なお、第1のカメラ10および第2のカメラ20の態様は、可視光カメラや遠赤外線カメラに限られず、例えば、近赤外線カメラなどであってもよい。
また、第1のカメラ10と、第2のカメラ20のフレームレートは、同一であってもよく、異なっていてもよい。例えば、第1のカメラ10が、第2のカメラ20に比べて低フレームレートで高解像度の画像を撮影してもよいし、第2のカメラ20が、第1のカメラ10に比べて高フレームレートで低解像度の画像を撮影してもよい。
記憶部50は、後述する処理部30が、各種処理に用いる情報を記憶する。記憶部50は、例えば、磁気ディスク装置などにより実現される。
出力部40は、処理部30に入力された映像を表示する。出力部40は、例えば、同じ時刻に撮影された2つの映像を比較できるように並べて表示してもよい。出力部40は、例えば、ディスプレイ装置やタッチパネル装置により実現される。図2は、2つの映像を並べて表示した例を示す説明図である。図2に示す例では、可視光カメラで撮影された映像が左側に表示され、遠赤外線カメラで撮影された映像が右側に表示されていることを示す。
処理部30は、第1のカメラ10で撮影された映像(すなわち、第1の映像)と、第2のカメラ20で撮影された映像(すなわち、第2の映像)を入力する。処理部30は、入力された映像のうち、一方の映像上の対象物の指定をユーザより受け付ける。本実施形態では、処理部30は、第1の映像上の対象物の指定を受け付けるものとする。
対象物の指定は、第1の映像上の対象物を含む範囲選択により行われる。対象物の指定方法は任意である。例えば、出力部40がディスプレイ装置により実現されている場合、出力部40に表示された第1の映像に対するポインティングデバイスを用いた範囲選択操作により対象物が指定されてもよい。また、例えば、出力部40がタッチパネルにより実現されている場合、出力部40に表示された第1の映像に対するユーザの範囲選択操作により対象物が指定されてもよい。
処理部30は、第1の映像上の対象物が指定されると、その対象物を含む指定範囲を探索範囲として特定する。以下、この探索範囲を第一の探索範囲と記すこともある。併せて、処理部30は、第2の映像上で同一の対象物が存在する範囲を探索範囲として特定する。以下、この探索範囲を第二の探索範囲と記すこともある。
ここで、探索範囲とは、対象物の検出処理が行われる領域である。検出処理は、学習された追跡対象と見えが同じものを探索して検出する処理であるため、探索範囲は、その探索が行われる画像上の範囲と言うこともできる。なお、探索とは、画像を所定の大きさ(例えば、5ピクセル×5ピクセルずつ、10ピクセル×10ピクセルずつ、など)に区切った全格子を候補とし、学習された追跡対象と見えが同じものをその候補の中から探して検出結果とする処理である。
上述するように、第1の映像と第2の映像との間には視差が存在する。そこで、処理部30は、視差(ズレ)を考慮して第二の探索範囲を特定する。処理部30は、例えば、第1の画像で指定された矩形の範囲を対象に、指定された時刻の1フレーム前と指定された時刻のフレームとを比較し、対象物の動きの大きさ及び向きを推定する。処理部30は、動きの大きさ及び向きを、例えば、オプティカルフローを用いて推定してもよい。次に、処理部30は、第1の画像で指定された矩形と同じ位置の矩形を第2の映像上で特定する。処理部30は、特定した第2の映像上の矩形について、第1の画像と同様、指定時の1フレーム前と指定時のフレームとを比較し、対象物の動きの大きさ及び向きを推定する。そして、処理部30は、推定した対象物の大きさ及び向きが類似する箇所を、第2の映像上で指定された対象物が存在する箇所と推定して、第二の探索範囲を特定する。
このように、一方の映像上の対象物の動きの大きさ及び向きに基づいて他の映像上の探索範囲を特定するため、両映像間に存在するズレを考慮して対象物を特定できる。また、対象物を指定していない他方の映像上の対象物を自動的に特定することで、対象物を指定する手間を軽減できる。すなわち、本実施形態では、ユーザが対象物の指定を1つの映像上でのみ行えばよく、他の映像上の対象物は自動推定されるため、複数異種カメラを用いた追跡技術にもかかわらず、入力にかかる手間が単一カメラの場合と比べて増加しないと言える。以降、処理部30は、各カメラで撮影された映像から対象物の探索範囲を並行して決定し、追跡処理を行う。
処理部30は、各探索範囲を特定すると、それぞれの映像ごとに、一定のフレーム間隔で対象物の信頼度を算出する。この信頼度は、対象物らしさを示す類似度であり、映像ごとに追跡開始からの追跡情報を基に算出される。ここで、追跡開始からの追跡情報は、追跡の際に取得された対象物を示す各画像や、その対象物の各位置を示す情報(以下、テンプレートと記す。)を含む。テンプレートは、映像ごと(撮影するカメラごと)に作成される。
処理部30は、テンプレートと比較したときの見た目の類似度や、移動に応じて推定される対象物の位置の近さや尤もらしさの度合いに基づいて、対象物の信頼度を算出する。このとき、処理部30は、対象物のテンプレートを随時更新しながら、各フレームにおける対象物の信頼度を算出してもよい。また、処理部30は、探索時に随時取得される画像や対象物の移動を示す情報に基づいて、対象物のモデル(見えモデル、移動モデル)を学習し、学習したモデルを用いて対象物の信頼度を算出してもよい。
なお、処理部30は、映像ごとに算出される信頼度に基づいて対象物のテンプレートを更新してもよく、各映像で算出される信頼度を比較した時の相対的な信頼度合い(相対的信頼度)に基づいて、対象物のテンプレートを更新してもよい。処理部30は、例えば、算出した信頼度が他の映像で算出された信頼度よりも低い場合、その画像で特定された対象物の更新重みを低く(または、0に)してもよい。また、例えば、いずれの信頼度も高く、相対的信頼度が高くない場合、処理部30は、この場合も、対象物の更新重みを低く(または、0に)してもよい。
なお、各映像上の対象物の追跡処理で取得される情報(具体的には、追跡開始からの追跡情報)に基づいて対象物の信頼度が算出できる方法であれば、その方法は任意である。すなわち、信頼度は、追跡対象らしさを示す度合いであって、値が高いほど類似度が高いと判断可能な式によって算出されればよい。
次に、処理部30は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映する。具体的には、処理部30は、各映像から算出される信頼度を比較し、同時刻において最も高い信頼度が算出された映像および対象物を特定する。そして、処理部30は、最も高い信頼度が算出された映像以外の他の映像の探索範囲を、特定した対象物の範囲(位置および大きさ)を示す情報を用いて決定する。すなわち、処理部30は、最も高い信頼度が算出された対象物の情報を、他の全ての映像に共有させているとも言える。以後、映像ごとに決定された探索範囲で追跡処理が引き続き行われる。
処理部30は、算出された信頼度や前フレームの追跡結果に応じて、探索範囲の決定方法を変化させてもよい。具体的には、処理部30は、前フレームの追跡結果が存在するか否か、また、信頼度が高いか低いかによって、探索範囲の決定方法を変更してもよい。例えば、前フレームの追跡結果が存在しない場合、または、信頼度が低い場合、処理部30は、画像全体を探索範囲として追跡対象を探索する。このとき、処理部30は、各画像全体の中から、過去の最新の追跡結果で特定された対象物の大きさに近いテンプレートのみを用いて対象物を特定してもよい。
このように、各カメラ映像の探索範囲を絞り、その範囲内で一定以上の信頼度かつ一番信頼度が高い候補を探索し採用することで、探索時間を短縮しつつ、追跡結果を調整できる。なお、処理部30は、被共有側のカメラ映像において、一定以上の信頼度がない場合、またはマッチするテンプレートがない場合、共有された追跡情報をそのまま採用してもよい。
また、本実施形態では、複数のカメラで相補的に対象物を追跡するため、各カメラで視差が生じる。この視差を生かし、処理部30は、カメラから対象物までの深度を用いて探索範囲を決定してもよい。
深度を用いて探索範囲を決定する場合、まず初めに、ユーザは、対象物までの距離について、ある深度範囲ならば、この程度のずれが発生するという知識を、実際にキャリブレーションして事前に算出し、算出結果を記憶部50に記憶しておく。すなわち、記憶部50は、キャリブレーションにより算出された対象までの距離および深度範囲に応じたズレ(差異)を記憶する。処理部30は、実際の追跡時に観測したズレに基づいて対象物までの深度を算出し、前フレームの画像で算出した深度から、現フレームの画像上の対象物の移動範囲を推定して探索範囲を特定する。このように探索範囲を狭めることで、画像上の一部の範囲のみにテンプレートを適用することが可能になるため、追跡処理の速度を向上できる。
他にも、記憶部50は、深度範囲と探索範囲を対応付けて記憶していてもよい。この場合、処理部30は、実際の追跡時に観測したズレに基づいて対象物の深度範囲を算出し、記憶部50に記憶された対応関係に基づいて、算出した深度範囲から他の追跡処理に設定する探索範囲を決定してもよい。
処理部30は、探索範囲を決定した後、再度追跡処理(対象物の検出処理)を行うとともに、出力部40に表示された映像上に、例えば、対象物を矩形で囲むなどして、追跡結果を随時表示してもよい。このような追跡結果を表示することにより、対象物を視覚的に追跡することが可能になる。
このとき、処理部30は、より信頼度の高い映像上の追跡結果を特定の態様で表示してもよい。処理部30は、例えば、信頼度の高い映像上の対象物を濃い色の太枠の矩形で囲むように表示し、信頼度の低い映像上の対象物を薄い色の細枠の矩形で囲む(または囲まず)表示してもよい。
図3は、追跡結果を表示した例を示す説明図である。図3に示す例では、図2に例示する映像に対して追跡処理を行った結果、第1のカメラで撮影された映像よりも第2のカメラで撮影された映像による追跡結果の信頼度が連続して高かったことを示す。このようにすることで、どの映像の対象物の追跡結果を利用して追跡処理が行われているかを視覚的に把握することが可能になる。
なお、処理部30は、プログラム(追跡プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、記憶部50に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、処理部30として動作してもよい。また、処理部30は、専用のハードウェアで実現されていてもよい。
次に、本実施形態の追跡システムの動作を説明する。図4は、本実施形態の追跡システムの動作例を示す説明図である。まず、予め、第1のカメラ10で撮影された映像(すなわち、第1の映像)と、第2のカメラ20で撮影された映像(すなわち、第2の映像)との間で映像調整が行われる(ステップS11)。具体的には、第1のカメラ10と第2のカメラ20とが略同一の画角を範囲とする映像を撮影できるように、両カメラの調整が行われる。
調整後、処理部30は、ユーザによる第1の映像上の対象物に対する指定を受け付ける(ステップS12)。処理部30は、第1の映像上の対象物が指定されると、第1の映像上の探索範囲(第一の探索範囲)を特定するとともに、第2の映像上の探索範囲(第二の探索範囲)を特定する(ステップS13)。
各映像上の探索範囲が特定されると、処理部30は、それぞれの映像上で対象物を追跡し(ステップS14,S15)、追跡した対象物の信頼度を一定のフレーム間隔で算出する(ステップS16,S17)。処理部30は、映像ごとに算出した信頼度を比較し、最も高い信頼度が算出された映像および対象物を特定する(ステップS18)。
処理部30は、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する(ステップS19,S20)。具体的には、処理部30は、追跡結果を調整することにより探索範囲を決定し、次フレームの画像に対してステップS14およびステップS15以降の処理を繰り返す。
以上のように、本実施形態では、第1のカメラ10が第1の映像を撮像し、第2のカメラ20が第1のカメラと略同一の画角で撮影される第2の映像を撮像する。そして、追跡システムに備えられた処理部30が、第1の映像上で対象物を追跡する第1の追跡処理と、第2の映像上で対象物を追跡する第2の追跡処理を実行する。また、処理部30は、第1の追跡処理で得られた対象物の信頼度(第1の信頼度)と、第2の追跡処理で得られた対象物の信頼度(第2の信頼度)とを算出する信頼度算出処理を実行する。そして、処理部30は、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理を実行する。よって、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。
また、本実施形態では、ステレオ視に代表される複数カメラを用いた場合の見えのズレ(視差)を考慮し、追跡結果を共有することにより探索範囲を微調整(補正)しているため、より頑健に対象物を追跡できる。
また、本実施形態では、映像ごとに独立して対象物の信頼度を算出し、信頼度の高い映像から特定される対象物の追跡情報を他の映像に反映させるため、追跡に用いるカメラのセンサやフレームレートの異同を問わない。そのため、異種のカメラで相補的に対象を追跡できるため、追跡精度を向上させることが可能になる。言い換えると、本発明では、複数のカメラの中で一番信頼度の高い追跡情報を基に追跡するため、各カメラの特性的に優位な場面を自動的に選択して追跡しているといえる。
具体的には、本実施形態では、画角を略同じにした複数の異種または同種のカメラ(例えば、遠赤外線カメラと可視光カメラ)の映像を用いて、同時並行的に対象物を追跡しつつ、高信頼度側の追跡情報を低信頼度側に共有して、追跡情報を補正する。例えば、異種センサを含むカメラを組み合わせた場合、一の種類のカメラの苦手な場面を、他の種類のカメラによって補完しながら追跡することが可能になる。
また、本実施形態では、既成の単カメラを組み合わせて各カメラの画角を略同一に合わせればよいため、特許文献4に記載されているような、特殊なレンズ機構を必要としない。また、カメラ間の位置関係(カメラの位置・向き・倍率などの関係)を変化させなければ、追跡途中にカメラを動かしたとしても対象物を追跡できる。そのため、本実施形態の追跡システムを移動カメラシステムに適用することも可能である。
次に、本実施形態の変形例を説明する。図1に示す例では、追跡システムが処理部30を備え、処理部30が第1のカメラ10から入力される映像(第1の映像)と第2のカメラから入力される映像(第2の映像)の両方に対して追跡処理および信頼度算出処理を行っていた。
本変形例では、各カメラで撮影した映像に対する処理が別々の手段で実現される場合の構成を説明する。図5は、本発明による追跡システムの変形例を示すブロック図である。図5に例示する追跡システムは、第1のカメラ10と、第2のカメラ20と、追跡部31と、追跡部32と、信頼度算出部33と、信頼度算出部34と、制御部35と、出力部40と、記憶部50とを備えている。
第1のカメラ10、第2のカメラ20、出力部40および記憶部50の内容は、上記実施形態と同様であるため、詳細な説明は省略する。また、追跡部31、追跡部32、信頼度算出部33、信頼度算出部34および制御部35で行われる内容は、上記実施形態の処理部30で行われる内容と同様である。
具体的には、追跡部31および信頼度算出部33は、第1のカメラ10で撮影された映像(第1の映像)に対する処理を行う。また、追跡部32および信頼度算出部34は、第2のカメラ20で撮影された映像(第2の映像)に対する処理を行う。なお、追跡部31が行う処理と追跡部32とが行う処理、および、信頼度算出部33が行う処理と信頼度算出部34とが行う処理は、対象とする映像または画像が異なる以外は、それぞれ同一である。
追跡部31は、第1の映像上で対象物を追跡する(第1の追跡処理)。また、追跡部32は、第2の映像上で対象物を追跡する(第2の追跡処理)。なお、対象物の追跡方法は、上述する処理部30が行う方法と同様である。
信頼度算出部33は、第1の追跡処理で得られた対象物の信頼度(第1の信頼度)を算出する。また、信頼度算出部34は、第2の追跡処理で得られた対象物の信頼度(第2の信頼度)を算出する。なお、信頼度の算出方法は、上述する処理部30が行う方法と同様である。
制御部35は、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する。具体的には、制御部35は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映する。なお、探索範囲の設定の反映方法は、上述する処理部30が行う方法と同様である。
追跡部31と、追跡部32と、信頼度算出部33と、信頼度算出部34と、制御部35とは、プログラム(通信情報参照プログラム)に従って動作するコンピュータのCPUによって実現される。また、また、追跡部31と、追跡部32と、信頼度算出部33と、信頼度算出部34と、制御部35とは、それぞれが専用のハードウェアで実現されていてもよい。
また、例えば、第1のカメラ10と、追跡部31と、信頼度算出部33とが一体の追跡装置として構成され、第2のカメラ20と、追跡部32と、信頼度算出部34とが一体の追跡装置として構成されていてもよい。そして、各追跡装置は、制御部35からの指示に応じて、各処理を実施してもよい。
このような構成によっても、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。
次に、本発明の概要を説明する。図6は、本発明による追跡システムの概要を示すブロック図である。本発明による追跡システムは、同一の対象物(例えば、追跡対象)を複数のカメラで追跡する追跡システムであって、第1の映像を撮像する第1のカメラ100(例えば、第1のカメラ10)と、第1のカメラ100と略同一の画角で撮影される第2の映像を撮像する第2のカメラ200(例えば、第2のカメラ20)と、処理部80(例えば、処理部30)とを備えている。
処理部80は、第1の映像上で対象物を追跡する第1の追跡処理と、第2の映像上で対象物を追跡する第2の追跡処理と、第1の追跡処理で得られた対象物の信頼度である第1の信頼度と、第2の追跡処理で得られた対象物の信頼度である第2の信頼度とを算出する信頼度算出処理と、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御処理とを実行する。
そのような構成により、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。
ここで、第1のカメラ100と第2のカメラ200とは、異種のセンサを備えたカメラで実現されてもよい。各カメラが異種のセンサを備えたカメラで実現された場合、各カメラで撮影される映像の内容は大きく異なる。しかし、本発明では、撮影された各映像の信頼度を算出し、より高い信頼度が算出された映像の追跡処理結果(例えば、探索範囲)に基づいて、他の映像の追跡処理を制御する。そのため、一の種類のカメラの苦手な場面を、他の種類のカメラによって補完しながら追跡することが可能になる。
具体的には、第1のカメラ100は可視光カメラであってもよく、第2のカメラ200は遠赤外線カメラであってもよい。この場合、特に相補的に対象を追跡が可能であり、各カメラの特性をより生かした追跡が可能になる。
また、第1のカメラ100は、第2のカメラ200よりも低フレームレートで高解像の映像を撮像し、第2のカメラ200は、第1のカメラ100よりも高フレームレートで低解像の映像を撮像してもよい。
また、処理部80は、信頼度が高いと判定された一方の追跡処理における対象物の位置及び大きさを、他方の追跡処理における対象物の探索範囲の設定に反映してもよい。すなわち、高信頼度の対象物の追跡結果から他の追跡処理の探索範囲が決定されるため、画角が完全に一致しない複数のカメラを用いた場合でも、探索範囲を補正しながら追跡できる。そのため、同一の対象物を精度よく追跡することが可能になる。すなわち、本発明では、複数のカメラを利用した際に生ずる画像上の見えのずれに対し、一方の追跡処理結果を反映することにより、他の画像の探索範囲を吸収可能に設定していると言える。
また、追跡システムは、深度範囲と探索範囲を対応付けて記憶する記憶部(例えば、記憶部50)を備えていてもよい。そして、処理部80は、記憶部を参照し、追跡時に観測された差異に基づいて算出される対象物の深度範囲から探索範囲を特定してもよい。
さらに、第1のカメラ100と第2のカメラ200とは、同一の移動体に取り付けられて同一の対象物を追跡してもよい。本発明では、両カメラが略同一の画角で撮影可能に設置されていれば、厳密な画角の一致は必要ないため、両カメラが同一の移動体に取り付けて行われる追跡処理の精度も向上できる。
また、処理部80は、信頼度の算出に用いられる対象物のテンプレート情報を一定のフレーム間隔で更新し、更新したテンプレート情報を用いて各フレームの信頼度を算出してもよい。
図7は、本発明による追跡システムの他の概要を示すブロック図である。図7に例示する追跡システムは、同一の対象物を複数のカメラで追跡する追跡システムであって、第1の映像を撮像する第1のカメラ100と、第1のカメラ100と略同一の画角で撮影される第2の映像を撮像する第2のカメラ200と、第1の映像上で対象物を追跡する第1の追跡部81(例えば、追跡部31、処理部30)と、第2の映像上で対象物を追跡する第2の追跡部82(例えば、追跡部32、処理部30)と、第1の追跡部81により得られた対象物の信頼度である第1の信頼度を算出する第1の信頼度算出部83(例えば、信頼度算出部33、処理部30)と、第2の追跡部82により得られた対象物の信頼度である第2の信頼度を算出する第2の信頼度算出部84(例えば、信頼度算出部34、処理部30)と、第1の信頼度と第2の信頼度とを比較して、信頼度がより高い追跡処理を特定し、特定された一方の追跡処理結果に基づいて、他方の追跡処理を制御する制御部85(例えば、制御部35、処理部30)とを備えている。
そのような構成によっても、複数のカメラで同一の対象物を追跡する際の追跡精度を向上させることできる。
10 第1のカメラ
20 第2のカメラ
30 処理部
31,32 追跡部
33,34 信頼度算出部
35 制御部
40 出力部
50 記憶部

Claims (7)

  1. 同一の対象物を少なくとも2台以上のカメラで追跡する追跡システムであって、
    第1の映像を撮像する第1の可視光カメラと、
    前記第1のカメラと視差のある画角で撮影される第2の映像を撮像する第2の可視光カメラと、
    処理部とを備え、
    前記処理部は、少なくとも、
    前記第1の可視光カメラで撮像された前記第1の映像上で前記対象物を検出する第1の検出処理と、
    前記第2の可視光カメラで撮像された前記第2の映像上で前記対象物を検出する第2の検出処理と、
    少なくとも前記第1の可視光カメラ及び前記第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る前記対象物の位置に基づいて、前記特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で前記対象物を検出する検出処理を制御する制御処理とを実行する
    ことを特徴とする追跡システム。
  2. さらに、前記処理部は、前記第1の検出処理及び前記第2の検出処理から得られた前記対象物の位置に基づいて設定された探索範囲内から、前記対象物を検出する検出処理を制御する制御処理を実行する
    請求項1記載の追跡システム。
  3. 同一の対象物を少なくとも2台以上のカメラで追跡する追跡システムであって、
    少なくとも2台以上の可視光カメラから映像を入力する処理部を備え、
    前記処理部は、
    第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、
    前記第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で前記対象物を検出する第2の検出処理と、
    前記第1の可視光カメラ及び前記第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る前記対象物の位置に基づいて、前記特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で前記対象物を検出する検出処理を制御する制御処理とを実行する
    ことを特徴とする追跡システム。
  4. 第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理と、
    前記第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で前記対象物を検出する第2の検出処理と、
    前記第1の可視光カメラ及び前記第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る前記対象物の位置に基づいて、前記特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で前記対象物を検出する検出処理を制御する制御処理とを実行する
    ことを特徴とする追跡方法。
  5. さらに、前記制御処理で、前記第1の検出処理及び前記第2の検出処理から得られた前記対象物の位置に基づいて設定された探索範囲内から、前記対象物を検出する検出処理を制御する
    請求項記載の追跡方法。
  6. コンピュータに、
    第1の可視光カメラで撮像された第1の映像上で対象物を検出する第1の検出処理、
    前記第1の可視光カメラと視差のある画角で撮像する第2の可視光カメラで撮像された第2の映像上で前記対象物を検出する第2の検出処理、および、
    前記第1の可視光カメラ及び前記第2の可視光カメラのそれぞれによって撮像された特定のフレームの画像に映る前記対象物の位置に基づいて、前記特定のフレームを撮像した時刻より後に一方の可視光カメラによって撮像された映像上で前記対象物を検出する検出処理を制御する制御処理
    を実行させるためのプログラム。
  7. コンピュータに、
    さらに、前記制御処理で、前記第1の検出処理及び前記第2の検出処理から得られた前記対象物の位置に基づいて設定された探索範囲内から、前記対象物を検出する検出処理を制御させる
    請求項記載のプログラム。
JP2020102772A 2020-06-15 2020-06-15 追跡システム、追跡方法および追跡プログラム Active JP7001125B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020102772A JP7001125B2 (ja) 2020-06-15 2020-06-15 追跡システム、追跡方法および追跡プログラム
JP2021204825A JP2022050430A (ja) 2020-06-15 2021-12-17 追跡システム、追跡方法および追跡プログラム
JP2024067336A JP2024091808A (ja) 2020-06-15 2024-04-18 追跡システム、追跡方法および追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020102772A JP7001125B2 (ja) 2020-06-15 2020-06-15 追跡システム、追跡方法および追跡プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019105526A Division JP6725041B2 (ja) 2019-06-05 2019-06-05 追跡システム、追跡方法および追跡プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021204825A Division JP2022050430A (ja) 2020-06-15 2021-12-17 追跡システム、追跡方法および追跡プログラム

Publications (2)

Publication Number Publication Date
JP2020141426A JP2020141426A (ja) 2020-09-03
JP7001125B2 true JP7001125B2 (ja) 2022-01-19

Family

ID=72265301

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020102772A Active JP7001125B2 (ja) 2020-06-15 2020-06-15 追跡システム、追跡方法および追跡プログラム
JP2021204825A Pending JP2022050430A (ja) 2020-06-15 2021-12-17 追跡システム、追跡方法および追跡プログラム
JP2024067336A Pending JP2024091808A (ja) 2020-06-15 2024-04-18 追跡システム、追跡方法および追跡プログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021204825A Pending JP2022050430A (ja) 2020-06-15 2021-12-17 追跡システム、追跡方法および追跡プログラム
JP2024067336A Pending JP2024091808A (ja) 2020-06-15 2024-04-18 追跡システム、追跡方法および追跡プログラム

Country Status (1)

Country Link
JP (3) JP7001125B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176504A (ja) 2007-01-17 2008-07-31 Toshiba Corp 物体検出装置及びその方法
WO2013005477A1 (ja) 2011-07-05 2013-01-10 富士フイルム株式会社 撮像装置、立体画像撮像方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103673A1 (ja) * 2012-12-28 2014-07-03 日本電気株式会社 情報処理システム、情報処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008176504A (ja) 2007-01-17 2008-07-31 Toshiba Corp 物体検出装置及びその方法
WO2013005477A1 (ja) 2011-07-05 2013-01-10 富士フイルム株式会社 撮像装置、立体画像撮像方法及びプログラム

Also Published As

Publication number Publication date
JP2020141426A (ja) 2020-09-03
JP2024091808A (ja) 2024-07-05
JP2022050430A (ja) 2022-03-30

Similar Documents

Publication Publication Date Title
JP6540330B2 (ja) 追跡システム、追跡方法および追跡プログラム
JP4699040B2 (ja) 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
US9396551B2 (en) Camera apparatus and method for tracking object in the camera apparatus
US8284257B2 (en) Image pick-up apparatus and tracking method therefor
JP4241742B2 (ja) 自動追尾装置及び自動追尾方法
KR101627185B1 (ko) 영상촬영장치의 제어방법
US20070236570A1 (en) Method and apparatus for providing motion control signals between a fixed camera and a ptz camera
JP5959923B2 (ja) 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US20060078162A1 (en) System and method for stabilized single moving camera object tracking
JP5001930B2 (ja) 動作認識装置及び方法
JP4459788B2 (ja) 顔特徴照合装置、顔特徴照合方法、及びプログラム
KR20070014058A (ko) 촬상 장치 및 촬상 방법
JP4452836B2 (ja) 瞳孔を検出する方法及び装置
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
JP6725041B2 (ja) 追跡システム、追跡方法および追跡プログラム
CN110944101A (zh) 摄像装置及图像记录方法
JP4578864B2 (ja) 自動追尾装置及び自動追尾方法
JP6833483B2 (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
JP7001125B2 (ja) 追跡システム、追跡方法および追跡プログラム
JP6799325B2 (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
JP5127692B2 (ja) 撮像装置及びその追尾方法
JP4452832B2 (ja) 瞳孔を検出する方法及び装置
JP4812099B2 (ja) カメラ位置検出方法
JP2580516B2 (ja) 実時間3次元運動測定装置およびその方法
JP2000175101A (ja) 自動追尾装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211207

R150 Certificate of patent or registration of utility model

Ref document number: 7001125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150