JP6847442B2 - 物体追跡装置、物体追跡方法、及び物体追跡プログラム - Google Patents

物体追跡装置、物体追跡方法、及び物体追跡プログラム Download PDF

Info

Publication number
JP6847442B2
JP6847442B2 JP2016113048A JP2016113048A JP6847442B2 JP 6847442 B2 JP6847442 B2 JP 6847442B2 JP 2016113048 A JP2016113048 A JP 2016113048A JP 2016113048 A JP2016113048 A JP 2016113048A JP 6847442 B2 JP6847442 B2 JP 6847442B2
Authority
JP
Japan
Prior art keywords
unit
tracking device
relative position
object tracking
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016113048A
Other languages
English (en)
Other versions
JP2017219389A (ja
Inventor
佳雅 中村
佳雅 中村
僚太 吉村
僚太 吉村
智典 佐々木
智典 佐々木
有志 武田
有志 武田
和広 坂下
和広 坂下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan Industrial Technology Research Instititute (TIRI)
Original Assignee
Tokyo Metropolitan Industrial Technology Research Instititute (TIRI)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan Industrial Technology Research Instititute (TIRI) filed Critical Tokyo Metropolitan Industrial Technology Research Instititute (TIRI)
Priority to JP2016113048A priority Critical patent/JP6847442B2/ja
Publication of JP2017219389A publication Critical patent/JP2017219389A/ja
Application granted granted Critical
Publication of JP6847442B2 publication Critical patent/JP6847442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体追跡装置、物体追跡方法、及び物体追跡プログラムに関する。
従来、人物等の移動物体を検出し追跡する方法として、カメラの画像情報やLRF(レーザーレンジファインダー)等の測距センサの測定情報等を利用した移動物体追跡技術が知られている。
これに関し、特許文献1には、レーザー測域センサによりエリア内の人物候補の実空間三次元座標検出と追跡を実行し、カメラによりレーザー測域センサからの人物候補の実空間三次元座標をカメラ画像座標に射影した画像位置から、レーザー測域センサからのそれぞれの人物候補に対応した人物を検出し、検出した人物を追跡するシステムが記載されている。
特開2013−156718号公報
特許文献1に記載のシステムにおいては、レーザー測域センサは、例えば、床面に固定された柱のような固定設備に設置され、カメラについても当該固定設備に設置されているので、レーザー測域センサ及びカメラが運動すること、つまり、物体を追跡する装置自らが運動することは全く想定されていない。
本発明はこのような事情に鑑みてなされたものであり、物体追跡装置が運動する場合であっても、正確に物体を追跡することを目的の一つとする。
本発明の一側面に係る物体追跡装置は、物体を追跡する物体追跡装置であって、物体を撮像する撮像部と、撮像部からの画像情報に基づいて、物体の位置を推定する位置推定部と、物体を含む所定の範囲に対して送信波を照射する照射部と、照射部から照射された送信波の反射波に基づいて、物体追跡装置と物体との距離を測定する距離測定部と、位置推定部の推定結果と距離測定部の測定結果とに基づいて、物体追跡装置の位置に対する物体の相対位置を決定する相対位置決定部と、物体追跡装置の運動量に基づいて、相対位置を更新する相対位置更新部と、を備え、物体追跡装置の位置と更新された相対位置とに基づいて、物体を追跡する。
本発明の一側面に係る物体追跡方法は、物体を追跡する物体追跡方法であって、物体を撮像することと、撮像された物体の画像情報に基づいて、物体の位置を推定することと、物体を含む所定の範囲に対して送信波を照射することと、照射された送信波の反射波に基づいて、物体追跡装置と物体との距離を測定することと、物体の位置の推定結果と、物体追跡装置と物体との距離の測定結果と、に基づいて、物体追跡装置の位置に対する物体の相対位置を決定することと、物体追跡装置の運動量に基づいて、相対位置を更新することと、を含み、物体追跡装置の位置と更新された相対位置とに基づいて、物体を追跡する。
本発明の一側面に係る物体追跡プログラムは、コンピュータを、撮像された物体の画像情報に基づいて、物体の位置を推定する位置推定部と、物体を含む所定の範囲に対して照射される送信波の反射波に基づいて、物体追跡装置と物体との距離を測定する距離測定部と、位置推定部の推定結果と距離測定部の測定結果とに基づいて、物体追跡装置の位置に対する物体の相対位置を決定する相対位置決定部と、物体追跡装置の運動量に基づいて、相対位置を更新する相対位置更新部と、して機能させ、物体追跡装置の位置と更新された相対位置とに基づいて、物体を追跡する。
本発明の一側面に係る記録媒体は、上記物体追跡プログラムを記録したコンピュータ読み取り可能な記録媒体である。
なお、本発明において、「部」、「装置」とは、単に物理的手段を意味するものではなく、その「部」、「装置」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」、「装置」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」、「装置」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、物体追跡装置が運動する場合であっても、正確に物体を追跡することができる。
本発明に係る一実施形態における物体追跡装置の構成図である。 本発明に係る一実施形態における物体追跡装置のハードウェア構成を概略的に示す構成図である。 本発明に係る一実施形態における物体追跡装置の機能的構成図である。 本発明に係る一実施形態における物体追跡制御処理のフローチャートの一例を示す図である。 本発明に係る一実施形態における物体追跡装置が物体を追跡する場合の一例を示した図である。 本発明に係る一実施形態における物体位置推定処理のフローチャートの一例を示す図である。 本発明に係る一実施形態における点群情報のクラスタ抽出処理のフローチャートの一例を示す図である。一例を示す図である。 本発明に係る一実施形態における物体追跡装置の位置に対する物体の相対位置の更新処理のフローチャートの一例を示す図である。 本発明の一実施形態における物体追跡装置の運動量を説明する図である。 本発明に係る一実施形態における物体追跡装置の位置に対する物体の相対位置の更新処理を説明する図である。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形(各実施例を組み合わせる等)して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付して表している。
[物体追跡装置の構成]
図1は、本発明に係る物体追跡装置の構成図である。図1に示すように、物体追跡装置1は、物体を撮像する撮像部14と、所定の範囲に対して送信波を照射する照射部16と、撮像部14と照射部16から取得した情報に基づき、対象となる物体を追跡する中央処理装置10と、物体追跡装置1の移動を実行する駆動部28からなる。
ここで撮像部14の一例であるカメラは、単眼カメラ、ステレオカメラ、赤外線カメラなど、物体の情報として大きさ、形を捉えるものである。また、照射部16は、例えば赤外線レーザー等を含む送信波を照射するレーザーレンジファインダ(以下、LRFという)などであり、人物や施設、壁、及び障害物等を含む反射物からの反射波を受信する装置である。さらに、駆動部28は、例えば、左右の車軸に指示された移動用車輪であり、移動用車輪を回転させることにより前後に移動でき、旋回することができる。
[実施形態例]
次に図2〜図11を用いて、物体追跡装置1が人物100を追跡する実施形態例を説明する。
図2は、本発明に係る一実施形態における物体追跡装置のハードウェア構成を概略的に示す構成図である。図2に示すように、物体追跡装置1は、例示的に、物体を撮像するカメラ14と、照射部の一例であるLRF16と、記録部26と、駆動部28と、電源部30と、を備え、各構成要素が内部の中央処理装置10に接続されている。
中央処理装置10は、例えば、CPU、MPU等であって、記録部26に格納されたプログラムに従って動作する。記憶部26は、例えば、ROMやRAM、ハードディスク等の情報記録媒体で構成され、中央処理装置10によって実行されるプログラムを保持する情報記録媒体である。また、中央処理装置10は、中央処理装置10のワークメモリとしても動作する。なお、当該プログラムは、例えば、ネットワークを介して、物体追跡装置1の外部からダウンロードされて提供されてもよいし、又は、CD−ROMやDVD−ROM等のコンピュータで読み取り可能な各種の情報記録媒体によって提供されてもよい。
カメラ14は、例えば、追跡対象である人物を少なくとも含む範囲を撮像し、撮像された画像に対応する画像情報を出力する。
LRF16は、人物を含む所定の範囲に対して、例えば赤外線レーザー等を含む送信波を照射し、人物、施設、壁、及び障害物等を含む反射物からの反射波を受信する装置である。LRF16は、例えば、送信波を照射する場合に各送信波の照射から反射波を受信するまでの時間に基づいて点群情報を生成し、中央処理装置10に当該点群情報を取得情報として出力する。
ここで、上記したとおり、カメラ14の水平方向の測定視野角は例えば60度と比較的狭い。しかしながら、カメラ14の撮像処理に基づく画像情報は、画像に含まれる人物の特徴点抽出等が可能であり、人物の検出処理や特定処理に、より好適に用いられる。他方、LRF16の水平方向の測定視野角は例えば270度であり比較的広範囲にわたるので、LRF16からの点群情報は、人物の追跡処理に、より好適に用いられる。このように、カメラ14とLRF16とを併用することで、ロバストネスな人物特定処理及び人物追跡処理が可能となる。
なお、本実施形態では、後述する図3に示す距離測定部44による、物体追跡装置1と物体との距離の測定処理に用いられる情報を提供する手段として、送信波を照射する場合に各送信波の照射から反射波を受信するまでの時間に基づいて点群情報を生成し、中央処理装置10に当該点群情報を出力するLRF16を例に挙げて説明したが、これに限られない。例えば、送信波を照射する場合に各送信波の反射波を受信し、反射波の強度に基づいて生成した情報を、中央処理装置10に出力する他のセンサを採用してもよい。
記録部26は、物体追跡装置1が実行する各種処理に必要な情報を記録する。記録部26は、例えば、物体追跡装置1が人物を追跡する所定エリアのLRF16からの取得情報であって、所定エリア内の施設、壁、障害物等を含む反射物の位置を少なくとも含む範囲の取得情報を記録する。ここで、取得情報は、所定エリア内の追跡対象である物体の位置を含まない場合もあれば、当該物体の位置を含む場合もある。また、記録部26は、物体の少なくとも一部の形状及び大きさを、後述するクラスタと関連づけて記録する。
また、記録部26は、マーカの一例であるQR(uick esponse)コード(登録商標)と、QRコードに対応づけられた人物の識別情報と、を関連づけて記録する。さらに、記録部26は、カメラ14により撮像された画像におけるQRコードの大きさと、カメラ14とQRコードとの間の距離と、を関連づけて記録する。なお、マーカは、上述したとおり、マトリックス型2次元コードであるQRコードを含む。しかしながら、マーカは、QRコードに限定されず、1次元コードや任意のマーカを用いてもよい。なお、任意のマーカは、特定形状のマーカ、例えば、星型形状のような多角形状のマーカを含んでもよい。また、人物の顔の形状または大きさの少なくとも一方をマーカとして利用してもよい。
電源部30は、物体追跡装置1を動作させるための電源を供給する。
図3は、本発明に係る一実施形態における物体追跡装置の機能的構成図である。図3に示すように、コンピュータの一例である、物体追跡装置1の中央処理装置10は、機能的に、図1及び2に示す、撮像部の一例であるカメラ14からの画像情報に基づいて、人物を特定する物体特定部40と、カメラ14からの画像情報に基づいて、人物の位置を推定する位置推定部42と、人物を含む所定の範囲に対して送信波を照射する場合に送信波の照射から反射波を受信するまでの時間に基づいて、物体追跡装置1と人物との距離を測定する距離測定部44と、位置推定部42の推定結果と距離測定部44の測定結果とに基づいて、物体追跡装置1の位置に対する人物の相対位置を決定する相対位置決定部46と、物体追跡装置1の運動量を測定する運動量測定部48と、物体追跡装置1の運動量に基づいて相対位置を更新する相対位置更新部50と、相対位置決定部46により決定された物体追跡装置1の位置に対する人物の相対位置に人物が位置するか否かを判定する判定部52と、物体追跡装置1の位置と更新された相対位置とに基づいて、人物を追跡するように図2に示す駆動部28を制御する追跡制御部54と、を含んで構成されている。
なお、中央処理装置10の上記各部は、例えば、メモリやハードディスク等を含む記録部26を用いたり、記録部26に格納されているプログラムをプロセッサが実行したりすることにより実現することができる。
[物体追跡処理]
図4及び図5を用いて、本発明に係る一実施形態における物体追跡制御処理の概略を説明する。図4は、本発明に係る一実施形態における物体追跡制御処理のフローチャートの一例を示す図である。図5は、本発明に係る一実施形態における物体追跡装置が物体を追跡する場合の一例を示した図である。特に、図5においては、物体追跡装置1が、QRコードCを備える人物100を、追跡しながら空間Rの位置P1から位置P3まで移動する一例を示している。
(ステップS1)
物体追跡装置1のカメラ14は、人物100を含む空間R内を撮像する。
(ステップS2)
図3に示す位置推定部42は、人物100を撮像するカメラ14からの画像情報に基づいて、人物の位置を推定する。位置推定部42は、例えば、カメラ14によって撮像されたQRコードCを含む画像におけるQRコードCの大きさに基づいて、人物100の位置を推定する。具体的に、位置推定部42は、カメラ14によって撮像されたQRコードCを含む画像におけるQRコードCの大きさに対して、図2に示す記録部26に互いに関連づけられて記録されているQRコードCの大きさと、カメラ14と2次元コードとの間の距離と、の関係を参照することで、人物100の位置を推定する。
また、物体特定部40は、位置推定部42の位置推定処理の前に、カメラ14からの画像情報に基づいて、人物100を特定する。物体特定部40は、例えば、物体100が備えるQRコードCに基づいて、人物100を特定する。具体的に、物体特定部40は、記録部26に互いに関連づけられて記録されているQRコードCと、QRコードCに対応づけられた人物の識別情報と、の関係を参照することにより、人物100を特定する。なお、本実施形態では、QRコードCが人物ごとに割り当てられている形態を説明したが、必ずしも、QRコードCが人物ごとに割り当てられていなくてもよい。
(ステップS3)
距離測定部44は、人物100を含む所定の範囲に対して照射された送信波の反射波に基づいて、物体追跡装置1と人物100との距離を測定する。また、距離測定部44は、物体追跡装置1と人物100との距離を測定する場合に、送信波を反射する反射物を含む所定の範囲に対して送信波を照射する場合に送信波による、前記反射物からの反射波と、反射物の位置を含む範囲の取得情報と、に基づいて物体追跡装置1の位置P1を測定するように構成されてもよい。
(ステップS4)
相対位置決定部46は、人物100の位置の推定結果と、物体追跡装置1と物体100との距離の測定結果と、に基づいて、物体追跡装置1の位置P1に対する物体の相対位置を決定する。
(ステップS5)
相対位置更新部50は、物体追跡装置1の運動量に基づいて相対位置を更新する。図5の例においては、空間R内の位置P1にいる物体追跡装置1は、位置P2にいる人物100を位置PXまで移動を開始する。例えば、矢印A1に示すように、まず、物体追跡装置1は、位置P3まで移動する。次に、位置P2にいる人物100は、最終的に位置P4まで移動する。この場合、物体追跡装置1は、人物100の位置P2からP4までの移動量と、物体追跡装置1自身の位置P1からP3までの移動量とに基づいて、物体追跡装置1の位置P3に対する人物100の相対位置を更新する。なお、運動量は、物体追跡装置1の移動量、及び、物体追跡装置1が物体追跡装置1の鉛直軸を中心として回転する場合の回転量の少なくとも一方を含む。
なお、相対位置更新部50の更新処理は、物体追跡装置1が位置P1からP3まで移動する途中において実行されてもよいし、人物100が位置P2からP4に移動する途中において実行されてもよい。つまり、相対位置更新部50は、物体追跡装置1が人物100を見失わないように、任意のタイミングで物体追跡装置1及び人物100の少なくとも一方の運動量を考慮して人物100の相対位置を更新するように構成される。
(ステップS6)
追跡制御部54は、物体追跡装置1の位置P3と、相対位置更新部50により更新された人物100の相対位置と、に基づいて、人物100を見失わないように追跡するように、図2に示す駆動部28を制御する。
[物体位置推定処理]
図6は、本発明に係る一実施形態における物体位置推定処理のフローチャートの一例を示す図である。図6は、図4に示すステップS2を詳細に説明するフローチャートである。なお、以下のステップS11〜19においては、図3に示す物体特定部40及び位置推定部42は、同様な処理を実行する。
(ステップS11)
物体特定部40は、図1及び2に示すカメラ14からの画像情報に対して、RGB→HSV色空間変換処理を実行する。
(ステップS13)
物体特定部40は、記録部26に記録されている追跡対象物体の色情報を参照することにより、画像情報に含まれる人物の色情報を抽出する。記録部26は、例えばQRコードの色を示す白色及び黒色の組合せを含む色情報を記録しており、物体特定部40は、当該色情報を参照することにより、人物が備えるQRコードの色情報を抽出するように構成されてもよい。また、記録部26は、例えば人物の顔の色を示す肌色等を含む色情報を記録し、物体特定部40は、当該色情報を参照することにより、人物の顔の色情報を抽出しても良い。
(ステップS15)
物体特定部40は、抽出した色情報を所定のサイズでクラスタリングし、クラスタごとに分割する。
(ステップS17)
物体特定部40は、分割したクラスタをラベリングする。物体特定部40(位置推定部42)は、例えば、分割したクラスタごとに、各クラスタの大きさや識別情報を付与する。
(ステップS19)
物体特定部40は、ラベリングしたクラスタを検出したか否かを判断する。物体特定部40は、ラベリングしたクラスタを検出できなかった場合(No)は、処理を終了する。
物体特定部40は、例えば、複数のクラスタのうちQRコードに対応するクラスタを検出したか否かを判断し、検出できた場合は、記録部26に互いに関連づけて記録されている、QRコードとQRコードに対応づけられた人物の識別情報とを参照することにより、QRコードに対応する人物を特定する。また、人物の顔の形状をマーカとして使用する場合は、物体特定部40は、複数のクラスタのうち人物の顔に対応するクラスタを検出したか否かを判断し、検出できた場合は、記録部26に互いに関連づけられて記録されている、人物の顔の形状または大きさの少なくとも一方と、クラスタの大きさと、の関係を参照することにより、人物を特定する。
(ステップS21)
位置推定部42は、カメラ14の視野領域における人物情報に基づいて人物の位置を推定し、その推定結果を出力する。位置推定部42は、例えば、記録部26に記録されている、カメラ14によって撮像された画像におけるQRコードの大きさに基づいて、人物の位置を推定する。ここで、人物の顔の形状をマーカとして使用する場合は、人物の両目の間隔などの人によってほとんど変化しない部位で位置を推定し、識別には目鼻口などの形状を利用する。位置推定部42は、複数のクラスタのうち人物の顔に対応するクラスタを検出した場合、記録部26に互いに関連づけられて記録されている、人物の両目の間隔と、人物とカメラとの間の距離と、の関係を参照することにより、人物の位置を推定してもよい。
[クラスタ抽出処理]
図7は、本発明に係る一実施形態における取得情報のクラスタ抽出処理のフローチャートの一例を示す図である。図7は、図4に示すステップS3を詳細に説明したフローチャートである。
(ステップS31)
図3に示す距離測定部44は、図2に示すLRF16からの取得情報をクラスタリングし、クラスタごとに分割する。
(ステップS33)
距離測定部44は、分割された各クラスタについて、記録部26に互いに関連づけられて記録されている、人物の少なくとも一部(例えば、足や足首等)の形状及び大きさと、取得情報をクラスタリングすることによって形成されるクラスタの大きさと、の関係を参照することにより、当該人物に対応するクラスタを抽出し、抽出結果を出力する。
[物体の相対位置の決定処理と更新処理]
図8〜10を用いて、本発明に係る一実施形態における物体追跡装置の位置に対する物体の相対位置の更新処理を説明する。図8は、本発明に係る一実施形態における物体追跡装置の位置に対する物体の相対位置の更新処理のフローチャートの一例を示す図である。図9は、本発明の一実施形態における物体追跡装置の運動量を説明する図である。図10は、本発明に係る一実施形態における物体追跡装置の位置に対する物体の相対位置の更新処理を説明する図である。以下、詳述するとおり、相対位置更新部50は、運動量測定部48による物体追跡装置1の運動量の入力、位置推定部42の推定結果の入力、及び、距離測定部44の測定結果の入力のタイミングにおいて、物体の相対位置を更新する。
(ステップS41)
まず、相対位置決定部46は、図10に示すX−Y相対移動座標系上における物体追跡装置1の位置Oに対する相対位置を示すターゲット領域R1がすでに設定されているか否かを判断する。ターゲット領域R1が設定されていないと判断した場合(No)は、ステップS51に進み、ターゲット領域R1が設定されていると判断した場合(Yes)は、ステップS43に進む。なお、図8において破線DL内のステップS41、S51、及びS53は、物体の相対位置の決定処理に関するものであり、図8において破線DL外におけるステップS41、S51、及びS53以外のステップは、物体の相対位置の更新処理に関するものである。
(ステップS43)
相対位置更新部50は、物体追跡装置の運動量の入力があるか否かを判断する。物体追跡装置の運動量の入力がある場合(Yes)は、ステップS45に進む。物体追跡装置の運動量の入力がない場合(No)は、ステップS47に進む。
図9に示すように、運動量測定部48は、物体追跡装置1が位置Ot(時刻t)から位置Ot+1(時刻t+1)に並進移動し、且つ、ベクトルU´t+1の向きからベクトルUt+1の向きへ、及び、ベクトルV´t+1の向きからベクトルVt+1の向きへ、つまり、角度θ分、物体追跡装置1が自身の鉛直軸を中心に回転した場合の運動量を測定する。
人物100が、物体追跡装置1のベクトルUtとベクトルVtとの和に基づく相対位置Pt(時刻t)から移動しない場合、相対位置更新部50は、物体追跡装置1が位置Ot(時刻t)から位置Ot+1(時刻t+1)に移動すると、物体追跡装置1が相対位置Ptを、P´t+1として認識する。
相対位置更新部50は、相対位置P´t+1から角度θ分減じて相対位置P´´t+1を決定し、さらに位置Ot+1(時刻t+1)から位置Ot(時刻t)を減じた並進移動量を減じて、相対位置Pt+1として更新する。
なお、図9は、物体追跡装置1が運動し、人物は運動しない場合の例であったが、物体追跡装置1及び人物の双方が運動する場合は、相対位置更新部50は、物体追跡装置1及び人物の双方の運動量を考慮して、ターゲット領域を更新する。
(ステップS45)
相対位置更新部50は、運動量測定部48によって入力された物体追跡装置1の運動量に基づいて既存のターゲット領域R1を更新する。
図10に示すように、相対位置更新部50は、例えば、入力された物体追跡装置1の運動量に基づいて既存のターゲット領域R1を更新し、既存のターゲット領域R1とは異なる位置に、更新されたターゲット領域R1´が配置される。また、既存のターゲット領域の更新は、入力された物体追跡装置1の運動量に応じて様々な態様を取りうる。例えば、更新後のターゲット領域は、既存のターゲット領域R1と同様な位置において異なる形状を持つターゲット領域が配置される場合もあるし、既存のターゲット領域R1とは異なる位置において異なる形状を持つターゲット領域が配置される場合もある。
なお、相対位置更新部50は、距離測定部44によって抽出された、取得情報(クラスタ)D2、及び、取得情報(クラスタ)D3について、記録部26に記録されている、人物の少なくとも一部(例えば、足や足首等)の形状及び大きさの少なくとも一方と合致しないので、追跡対象ではないと判断する。なお、相対位置決定算出部46は、例えば取得情報(クラスタ)D3は、一定の範囲に連なって存在するので、取得情報(クラスタ)D3に対応する物体は、壁であると判断するように構成されてもよい。
(ステップS47)
相対位置更新部50は、位置推定部42から人物の位置の推定結果の入力があるか否かを判断し、入力がないと判断した場合(No)の場合は、ステップS55に進み、入力があると判断した場合(Yes)の場合は、ステップS49に進む。
(ステップS49)
相対位置更新部50は、位置推定部42から人物の位置の推定結果の入力がある場合は、既存のターゲット領域を更新する。
(ステップS51)
相対位置決定部46は、ステップS41においてターゲット領域R1が設定されていないと判断した場合は、位置推定部42から人物の位置の推定結果の入力があるか否かを判断し、入力がないと判断した場合(No)の場合は、処理を終了し、入力があると判断した場合(Yes)の場合は、ステップS53に進む。
(ステップS53)
相対位置決定部46は、いまだターゲット領域R1が設定されておらず、位置推定部42から人物の位置の推定結果の入力がある場合は、ターゲット領域を生成する。
(ステップS55)
相対位置更新部50は、距離測定部44から物体追跡装置1と物体100との距離の測定結果の入力があるか否かを判断し、入力がないと判断した場合(No)の場合は、ステップS61に進み、入力があると判断した場合(Yes)の場合は、ステップS57に進む。
(ステップS57)
相対位置更新部50は、設定されているターゲット領域内に追跡対象である人物に対応するクラスタが存在するか否かを判断する。具体的には、相対位置更新部50は、すでに設定されているターゲット領域、又は、新たに生成されたターゲット領域の信頼性を判断している。相対位置更新部50は、設定されているターゲット領域内に追跡対象である人物に対応するクラスタが存在する場合(Yes)の場合、つまり、ターゲット領域の信頼性が高いと判断した場合は、ステップS59に進む。他方、相対位置更新部50は、設定されているターゲット領域内に追跡対象である人物に対応するクラスタが存在しない場合(No)の場合、つまり、ターゲット領域の信頼性が低いと判断した場合は、ステップS61に進む。
(ステップS59)
相対位置更新部50は、距離測定部44から物体追跡装置1と物体100との距離の測定結果の入力があり、且つ、ターゲット領域の信頼性が高いと判断した場合は、当該ターゲット領域を更に更新する。
(ステップS61)
判定部52は、相対位置更新部50により、ターゲット領域の信頼性が低いと判断された場合、実際に、ターゲット領域内に人物が位置しないか否かを判定する。判定部52が実際には、ターゲット領域内に人物が位置する、つまり、追跡対象の人物を見失っていないと判定した場合(No)は、処理を終了する。他方、判定部52が実際に、ターゲット領域内に人物が位置しない、つまり、追跡対象の人物を見失ったと判定した場合(Yes)は、ステップS63に進む。
(ステップS63)
相対位置決定部46は、判定部52が追跡対象の人物を見失ったと判定した場合に、すでに設定されているターゲット領域を削除する。また、相対位置決定部46は、判定部52が追跡対象の人物を見失ったと判定した場合に、例えばステップS41に戻り、削除されたターゲット領域とは異なるターゲット領域を決定してもよい。
(効果)
以上、本発明の実施形態によれば、物体追跡装置1が運動する場合であっても、物体追跡装置1は、位置推定部42の推定結果と距離測定部44の測定結果とに基づいて、物体追跡装置1の位置に対する物体のターゲット領域を決定し、物体追跡装置1の運動量に基づいて、当該ターゲット領域を更新し、物体追跡装置1の位置と更新されたターゲット領域とに基づいて、物体を追跡するように制御するので、正確に物体を追跡することができる。
(他の変形例)
上記各実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するものではない。本発明はその趣旨を逸脱することなく、変更/改良(たとえば、各実施形態を組み合わせること、各実施形態の一部の構成を省略すること)され得るとともに、本発明にはその等価物も含まれる。例えば、図4において説明した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更して又は並列に実行することができる。図4において、ステップS2とステップS3とは、並列に実行されてもよい。
1 :物体追跡装置
10 :中央処理装置
14 :カメラ
16 :LRF
26 :記録部
28 :駆動部
30 :電源部
40 :物体特定部
42 :位置推定部
44 :距離測定部
46 :相対位置決定部
48 :運動量測定部
50 :相対位置更新部
52 :判定部
54 :追跡制御部

Claims (8)

  1. 物体を追跡する物体追跡装置であって、
    前記物体を撮像する撮像部と、
    前記撮像部からの画像情報に基づいて、前記物体の位置を推定する位置推定部と、
    前記物体を含む所定の範囲に対して送信波を照射する照射部と、
    前記照射部から照射された前記送信波の反射波に基づいて、前記物体追跡装置と前記物体との距離を測定する距離測定部と、
    前記位置推定部の推定結果と前記距離測定部の測定結果とに基づいて、前記物体追跡装置の位置に対する前記物体の相対位置を決定する相対位置決定部と、
    前記物体追跡装置の運動量に基づいて、前記相対位置を更新する相対位置更新部と、
    前記物体追跡装置の位置と更新された前記相対位置とに基づいて、前記物体を追跡する追跡部と、を備え、
    前記相対位置更新部は、前記相対位置における追跡対象である前記物体に対する情報であって、前記反射波に応じた当該情報の存否に基づいて前記相対位置の信頼性を判断し、
    判断された前記信頼性に応じて、前記物体追跡装置の位置に対する前記物体の前記相対位置に追跡対象である前記物体が位置するか否かを判定する判定部を更に備える、
    物体追跡装置。
  2. 前記運動量は、前記物体追跡装置の移動量、及び、前記物体追跡装置が前記物体追跡装置の鉛直軸を中心として回転する場合の回転量の少なくとも一方を含む、
    請求項1に記載の物体追跡装置。
  3. 前記距離測定部は、前記送信波を反射する反射物を含む所定の範囲に対して照射される送信波の前記反射物からの反射波と、前記反射物の位置を含む範囲の取得情報と、に基づいて前記物体追跡装置の位置を測定する、
    請求項1又は2に記載の物体追跡装置。
  4. 前記相対位置決定部は、前記判定部が前記相対位置に前記物体が位置しないと判定する場合に、当該相対位置とは異なる相対位置を決定する、
    請求項1〜3のいずれか1項に記載の物体追跡装置。
  5. 前記撮像部からの画像情報に基づいて、前記物体を特定する物体特定部を更に備え、
    前記物体特定部は、前記物体が備えるマーカに基づいて、前記物体を特定する、
    請求項1〜4のいずれか1項に記載の物体追跡装置。
  6. 前記位置推定部は、前記撮像部によって撮像された、前記物体が備えるマーカを含む画像における前記マーカの大きさに基づいて、前記物体の位置を推定する、
    請求項1〜4のいずれか1項に記載の物体追跡装置。
  7. 物体を追跡する物体追跡方法であって、
    前記物体を撮像することと、
    撮像された前記物体の画像情報に基づいて、前記物体の位置を推定することと、
    前記物体を含む所定の範囲に対して送信波を照射することと、
    照射された前記送信波の反射波に基づいて、物体追跡装置と前記物体との距離を測定することと、
    前記物体の位置の推定結果と、前記物体追跡装置と前記物体との距離の測定結果と、に基づいて、前記物体追跡装置の位置に対する前記物体の相対位置を決定することと、
    前記物体追跡装置の運動量に基づいて、前記相対位置を更新することと、
    前記物体追跡装置の位置と更新された前記相対位置とに基づいて、前記物体を追跡することと、を含み、
    前記相対位置を更新することは、前記相対位置における追跡対象である前記物体に対する情報であって、前記反射波に応じた当該情報の存否に基づいて前記相対位置の信頼性を判断し、
    判断された前記信頼性に応じて、前記物体追跡装置の位置に対する前記物体の前記相対位置に追跡対象である前記物体が位置するか否かを判定することを更に含む、
    物体追跡方法。
  8. コンピュータを、
    撮像された物体の画像情報に基づいて、前記物体の位置を推定する位置推定部と、
    前記物体を含む所定の範囲に対して照射される送信波の反射波に基づいて、物体追跡装置と前記物体との距離を測定する距離測定部と、
    前記位置推定部の推定結果と前記距離測定部の測定結果とに基づいて、前記物体追跡装置の位置に対する前記物体の相対位置を決定する相対位置決定部と、
    前記物体追跡装置の運動量に基づいて、前記相対位置を更新する相対位置更新部と、
    前記物体追跡装置の位置と更新された前記相対位置とに基づいて、前記物体を追跡する追跡部と、して機能させ、
    前記相対位置更新部は、前記相対位置における追跡対象である前記物体に対する情報であって、前記反射波に応じた当該情報の存否に基づいて前記相対位置の信頼性を判断し、
    判断された前記信頼性に応じて、前記物体追跡装置の位置に対する前記物体の前記相対位置に追跡対象である前記物体が位置するか否かを判定する判定部としてさらに機能させる、
    物体追跡プログラム。
JP2016113048A 2016-06-06 2016-06-06 物体追跡装置、物体追跡方法、及び物体追跡プログラム Active JP6847442B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016113048A JP6847442B2 (ja) 2016-06-06 2016-06-06 物体追跡装置、物体追跡方法、及び物体追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016113048A JP6847442B2 (ja) 2016-06-06 2016-06-06 物体追跡装置、物体追跡方法、及び物体追跡プログラム

Publications (2)

Publication Number Publication Date
JP2017219389A JP2017219389A (ja) 2017-12-14
JP6847442B2 true JP6847442B2 (ja) 2021-03-24

Family

ID=60656970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016113048A Active JP6847442B2 (ja) 2016-06-06 2016-06-06 物体追跡装置、物体追跡方法、及び物体追跡プログラム

Country Status (1)

Country Link
JP (1) JP6847442B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3798986A1 (en) * 2019-09-27 2021-03-31 Apple Inc. Location aware visual markers
WO2021240623A1 (ja) * 2020-05-26 2021-12-02 三菱電機株式会社 予測追跡装置、予測追跡方法および予測追跡プログラム
WO2024189898A1 (ja) * 2023-03-16 2024-09-19 株式会社RedDotDroneJapan 撮影システム、撮影方法および撮影プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4245887B2 (ja) * 2002-09-30 2009-04-02 セコム株式会社 搬送ロボット
JP4817854B2 (ja) * 2006-01-27 2011-11-16 アルパイン株式会社 周辺物体追尾装置及び周辺物体位置予測方法
JP4552869B2 (ja) * 2006-02-10 2010-09-29 パナソニック株式会社 移動体の追従方法
JP2008210238A (ja) * 2007-02-27 2008-09-11 Osaka Prefecture Univ 歩行追尾装置およびこれを用いた歩行支援運搬装置
JP4650451B2 (ja) * 2007-04-16 2011-03-16 トヨタ自動車株式会社 ロボット装置及びその移動制御方法
JP4413957B2 (ja) * 2007-08-24 2010-02-10 株式会社東芝 移動物体検出装置および自律移動物体
JP2010160056A (ja) * 2009-01-08 2010-07-22 Fuji Xerox Co Ltd 位置計測装置およびプログラム
JP5071817B2 (ja) * 2009-03-31 2012-11-14 株式会社エクォス・リサーチ 車両制御装置、車両、及び車両制御プログラム

Also Published As

Publication number Publication date
JP2017219389A (ja) 2017-12-14

Similar Documents

Publication Publication Date Title
US12008778B2 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10133279B2 (en) Apparatus of updating key frame of mobile robot and method thereof
CN108986164B (zh) 基于图像的位置检测方法、装置、设备及存储介质
US9420265B2 (en) Tracking poses of 3D camera using points and planes
EP2671384B1 (en) Mobile camera localization using depth maps
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US11189042B2 (en) Information processing device, information processing method, and computer program
JP2010117230A (ja) 建設機械
JP6847442B2 (ja) 物体追跡装置、物体追跡方法、及び物体追跡プログラム
US11257177B2 (en) Moving object action registration apparatus, moving object action registration system, and moving object action determination apparatus
US20180231983A1 (en) Mobile unit control device and mobile unit
JP2010123019A (ja) 動作認識装置及び方法
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP2016517981A (ja) 基準方向に対する移動要素の角度偏差を推定する方法
KR101660703B1 (ko) 입체 영상 카메라와 로고를 이용한 광학 호밍 시스템 및 방법
JP2008309595A (ja) オブジェクト認識装置及びそれに用いられるプログラム
JP2018536494A5 (ja)
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
US8780116B2 (en) Object-shape generation method, object-shape generation apparatus, and program
KR20160125803A (ko) 영역 추출 장치, 물체 탐지 장치 및 영역 추출 방법
JP2020076714A (ja) 位置姿勢推定装置
Chin et al. Camera systems in human motion analysis for biomedical applications
US11758077B1 (en) Employing sequences of light patterns to synchronize cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210224

R150 Certificate of patent or registration of utility model

Ref document number: 6847442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250