JP2023096653A - 物体追跡の方法、プログラム、システムおよび記録媒体 - Google Patents

物体追跡の方法、プログラム、システムおよび記録媒体 Download PDF

Info

Publication number
JP2023096653A
JP2023096653A JP2021212552A JP2021212552A JP2023096653A JP 2023096653 A JP2023096653 A JP 2023096653A JP 2021212552 A JP2021212552 A JP 2021212552A JP 2021212552 A JP2021212552 A JP 2021212552A JP 2023096653 A JP2023096653 A JP 2023096653A
Authority
JP
Japan
Prior art keywords
information
tracked
tracking
tracked object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021212552A
Other languages
English (en)
Other versions
JP7187655B1 (ja
Inventor
敏博 法原
Toshihiro Hohara
▲邦▼明 秋間
Kuniaki Akima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A Link
A Link Co Ltd
Original Assignee
A Link
A Link Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A Link, A Link Co Ltd filed Critical A Link
Priority to JP2021212552A priority Critical patent/JP7187655B1/ja
Application granted granted Critical
Publication of JP7187655B1 publication Critical patent/JP7187655B1/ja
Publication of JP2023096653A publication Critical patent/JP2023096653A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

Figure 2023096653000001
【課題】位置情報による同定が困難であれば、追跡対象の特徴情報を以て同定処理を補完し、以て同定機能の強化を図る。
【解決手段】追跡対象(P)を撮像して画像情報(If)および深度情報(Di)を取得し、前記画像情報および前記深度情報により前記追跡対象を表す三次元の座標値を含む位置情報を算出し、該位置情報を時系列で取得する工程と、前記位置情報を用いて前記追跡対象を同定する工程とを含む。前記追跡対象の追跡中、現時点の位置情報と直近の位置情報を時系列で比較して前記追跡対象の移動距離を算出する工程と、前記移動距離が閾値以内であれば、現時点の前記追跡対象と直近の前記追跡対象を同定する。
【選択図】 図5

Description

本開示はたとえば、ポータブル多機能デバイスなどを使用し、ポータブル多機能デバイスで取得したカメラ画像上の追跡対象であるたとえば、人などの物体を追跡する追跡技術に関する。
追跡すべき物体をカメラ画像により検出し、この物体を画像上で追跡することは既に知られている。この物体追跡には連続する画像間で物体の同定が不可欠である。
この物体追跡に関し、深層学習による深層学習識別器と、深層学習識別器による特徴量を含んだマルチチャンネル特徴量を用いて、マルチチャンネル特徴量の位置情報とパーティクルの位置情報の距離に応じてパーティクルフィルタの尤度評価に適用することで物体を追跡するパーティクルフィルタ機能部とを備えることが知られている(たとえば、特許文献1)。
人の追跡に関し、複数のカメラにより取得した画像情報から認識対象を抽出するための特徴情報を選択し、重要度情報および信頼度情報に基づいて複数の特徴情報から画像認識処理に有効な特徴情報を選択することが知られている(たとえば、特許文献2)。
人の同定に関し、異なる方位から撮像して入力領域画像間の相対的な方位関係を取得し、少なくとも3つの方位から撮像して得た登録領域画像群に含まれる登録領域画像の特徴と入力領域画像の特徴を比較して同一の人物であるかを判定することが知られている(たとえば、特許文献3)。
また、人の同定に関し、顔画像データの顔角度範囲を表す顔角度範囲データを顔画像データに関係付ける顔角度範囲判定処理を行い、顔認識度の高い顔画像データを顔角度範囲ごとのベストショットと判定し、それ以外の顔画像データを削除するベストショット判定処理を行い、さらに、ベストショットと判定された顔画像データを集計して人物管理データを作成し、人物の特定を行うことが知られている(たとえば、特許文献4)。
特開2019-153112号公報 特開2011-60024号公報 特開2016-1447号公報 特開2016-157165号公報
カメラ画像上で人を追跡するには、その追跡対象を各フレームで認識しなければならない。現在のフレームと直前のフレームを比較し、追跡対象を同定する必要がある。つまり、フレーム間で追跡対象を同定することが不可欠である。
フレーム上に複数の人が存在した場合には画像中で人の重なりや接触の他、追跡対象の人がカメラの画角から外れ、再び画角内に入った場合など、人の骨格などの情報だけでの対比では追跡対象を同定することが困難になる。つまり、フレーム間の画像対比において、同定に必要な情報量が不足すれば、追跡対象を同定できず見失うことになる。
追跡対象が人であれば、顔認識を用いることができる。この顔認識には、対象者の登録顔情報と取得した顔情報とを対比し、特徴量の比較が必要である。これには追跡対象の登録情報として複数枚の正面画像の登録など、対比に必要な情報を登録しておくことが必要である。
しかしながら、追跡対象が自然に動作している人から顔画像を取得して登録し、その顔情報を対比して連続して追跡対象を同定することは厄介である。尤も、不特定な追跡対象について登録情報を予め取得しておくことは不可能であるし、追跡対象が歩行者、競技者、被介護者など、その動きが異なれば、追跡に必要な情報の取得が困難になる。
本開示の発明者は、画像情報および深度情報を時系列で取得してワールド空間(三次元空間)の座標値を含む位置情報を取得し、この位置情報を以て同定し、追跡対象の状態如何によって特徴情報を以て同定することが、多様な動きを伴う人などの物体を高精度に追跡可能であるとの知見を得た。
そこで、本開示の目的は、上記課題または上記知見に鑑み、少なくとも二次元の画像情報および深度情報を用いて座標値を含む追跡対象の位置情報を時系列で取得して追跡中の移動対象を同定し、物体追跡の高速化および高精度化を実現することにある。
また、本開示の他の目的は、位置情報による同定が困難であれば、追跡対象の特徴情報を以て同定処理の補完により同定機能の強化を図ることにある。
上記目的を達成するため、本開示の物体追跡方法の一側面によれば、追跡対象から撮像により画像情報と深度情報を時系列で取得し、前記画像情報および前記深度情報により三次元の座標値を含む位置情報を時系列で取得する工程と、前記位置情報を用いて前記追跡対象を同定する工程とを含む。
この物体追跡方法において、さらに、追跡中、前記追跡対象の現時点の位置情報と直近の位置情報を時系列で比較して前記追跡対象の移動距離を算出する工程と、前記移動距離が閾値以内であれば、前記追跡対象を同定する工程とを含んでもよい。
この物体追跡方法において、さらに、前記画像情報から前記追跡対象の特徴情報を時系列で取得する工程と、前記追跡対象を前記位置情報によって同定できない場合、前記特徴情報を用いて同定する工程とを含んでもよい。
この物体追跡方法において、さらに、追跡中の追跡対象と他の追跡対象の画像間に重なりを生じ、または追跡対象のバウンディングボックスと他の追跡対象のバウンディングボックスとの間に重なりを生じた場合、該重なりの直前の前記特徴情報と、前記重なりの解消時点の前記特徴情報とを対比して追跡対象を同定する工程を含んでもよい。
この物体追跡方法において、さらに、前記画像情報から顔領域情報を時系列で取得し、該顔領域情報から少なくとも目または耳の部位情報を取得する工程と、前記部位情報を用いて前記追跡対象の向き情報を取得し、該向き情報により特徴情報を分類する工程と、前記向き情報で分類された前記特徴情報により前記追跡対象を同定する工程とを含んでもよい。
この物体追跡方法において、さらに、前記バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記部位情報または前記位置情報を取得する工程を含んでもよい。
上記目的を達成するため、本開示のプログラムの一側面によれば、コンピュータによって実行するプログラムであって、追跡対象から撮像により画像情報と深度情報を時系列で取得し、前記画像情報および前記深度情報により三次元の座標値を含む位置情報を時系列で取得する機能と、前記位置情報を用いて前記追跡対象を同定する機能と、を前記コンピュータによって実行させる。
このプログラムにおいて、さらに、追跡中、前記追跡対象の現時点の位置情報と直近の位置情報を時系列で比較して前記追跡対象の移動距離を算出する機能と、前記移動距離が閾値以内であれば、前記追跡対象を同定する機能とを前記コンピュータによって実行させてもよい。
このプログラムにおいて、さらに、前記画像情報から前記追跡対象の特徴情報を時系列で取得する機能と、前記追跡対象を前記位置情報によって同定できない場合、前記特徴情報を用いて同定する機能とを前記コンピュータによって実行させてもよい。
このプログラムにおいて、さらに、追跡中の追跡対象と他の追跡対象の画像間に重なりを生じ、または追跡対象のバウンディングボックスと他の追跡対象のバウンディングボックスとの間に重なりを生じた場合、該重なりの直前の前記特徴情報と、前記重なりの解消時点の特徴情報とを対比して追跡対象を同定する機能を前記コンピュータによって実行させてもよい。
このプログラムにおいて、さらに、前記画像情報から顔領域情報を時系列で取得し、該顔領域情報から少なくとも目または耳の部位情報を取得する機能と、前記部位情報を用いて前記追跡対象の向き情報を取得し、該向き情報により特徴情報を分類する機能と、前記向き情報で分類された前記特徴情報により前記追跡対象を同定する機能とを前記コンピュータによって実行させてもよい。
このプログラムにおいて、さらに、前記バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記部位情報または前記位置情報を取得する機能を前記コンピュータによって実行させてもよい。
上記目的を達成するため、本開示の物体追跡システムの一側面によれば、追跡対象を表す少なくとも二次元の画像情報を時系列で取得する画像情報取得部と、前記追跡対象の深度情報を時系列で取得する深度情報取得部と、前記画像情報から前記追跡対象の特徴情報を取得する特徴情報取得部と、前記画像情報と前記深度情報を用いて前記追跡対象の位置情報を取得し、該位置情報を用いて前記追跡対象を同定し、該位置情報で同定できない場合、前記特徴情報を用いて前記追跡対象を同定する同定処理部と、前記追跡対象を表す画像情報とともに追跡情報を提示する情報提示部とを含む。
上記目的を達成するため、本開示の物体追跡システムの一側面によれば、少なくとも前記画像情報取得部、前記深度情報取得部、前記特徴情報取得部および前記同定処理部を備え、追跡対象の追跡情報を出力する二以上のデバイスと、各デバイスから前記追跡情報を取得し、前記追跡対象の追跡角度または追跡範囲を拡張させて前記追跡対象を追跡するサーバーとを備える。
上記目的を達成するため、本開示の物体追跡装置の一側面によれば、少なくとも追跡対象を撮像し、画像情報を時系列で出力する撮像部と、前記追跡対象に対して光を照射して測距し、前記追跡対象の深度情報を時系列で出力する光検出・測距部と、前記画像情報と前記深度情報を用いて前記追跡対象の位置情報を取得し、前記画像情報を用いて前記追跡対象の特徴情報を取得し、前記位置情報を用いて前記追跡対象を同定し、前記位置情報で同定できない場合、前記特徴情報を用いて前記追跡対象を同定する処理部と、前記追跡対象の画像を提示し、該画像に追跡表示を提示する情報提示部とを含む。
上記目的を達成するため、本開示の記録媒体の一側面によれば、前記物体追跡方法、前記プログラム、前記物体追跡システム、前記物体追跡装置の何れかで用いられる画像情報、深度情報、バウンディングボックス情報、位置情報、同定情報、追跡情報の何れかを格納し、または、該データベースを格納した記録媒体である。
本開示によれば、次の何れかの効果が得られる。
(1) 追跡対象から取得した二次元の画像情報と、深度情報を用いて三次元の位置情報を取得するので、この位置情報により人などの追跡対象の認識率および認識精度を向上させることができ、追跡対象の高精度かつ高速での同定ができ、追跡の信頼性を高め、追跡機能を強化することができる。
(2) 移動する人などの追跡対象を、カメラや光検出・測距部を備えるポータブルデバイスにより追跡でき、たとえば、ポータブルデバイス上の情報提示部に追跡中の追跡対象を画像表示して提示できる。
(3) 追跡対象である物体たとえば、運動中のプレーヤー、被介護者、施設における人の出入り、通行者など、各種物体の追跡に活用できる。
図1は、第一の実施の形態に係る物体追跡システムの一例を示す図である。 図2のAは、ポータブル多機能デバイスの背面部を示す図であり、図2のBは、ポータブル多機能デバイスの前面部を示す図である。 図3は、ポータブル多機能デバイスのハードウェアを示す図である。 図4は、追跡情報データベースの一例を示す図である。 図5は、物体追跡の処理手順を示すフローチャートである。 図6は、追跡対象の位置情報の取得処理を示すフローチャートである。 図7は、バウンディングボックスの処理を示すフローチャートである。 図8のAは、バウンディングボックスからグリッド点を示す図であり、図8のBは、バウンディングボックスおよび深度情報を示す図である。 図9のAは画像情報を示す図であり、図9のBは深度情報を示す図であり、図9のCは合成画像を示す図である。 図10は、向き判断の処理手順を示すフローチャートである。 図11は、取得部位と向きの関係を示す図である。 図12は、同定処理Iを示すフローチャートである。 図13のAは追跡中の画像情報を示す図であり、図13のBはバウンディングボックスの重なり状態を含む画像情報を示す図であり、図13のCはバウンディングボックスの分離状態を含む画像情報を示す図である。 図14のAは、バウンディングボックスの移動距離が閾値以下の場合を示す図であり、図14のBは、バウンディングボックスの移動距離が閾値を超える場合を示す図である。 図15のAは、追跡対象のフレームインを示す図であり、図15のBは、追跡対象のフレームアウトを示す図であり、図15のCは、追跡対象の再フレームインを示す図である。 図16は、同定処理IIを示すフローチャートである。 図17は、第二の実施の形態に係る物体追跡システムを示す図である。 図18は、2台のデバイスによる追跡範囲の拡大化を示す図である。 図19は、4台のデバイスによる追跡範囲の広域化および複合追跡を示す図である。
〔第一の実施の形態〕
図1は、第一の実施の形態に係る物体追跡システムを示している。図1に示す構成は一例であり、本開示が斯かる構成に限定されるものではない。
この物体追跡システム2は、追跡対象の画像情報および深度情報により取得した位置情報による同定処理Iで同定し、同定処理Iで同定できないとき、画像情報より取得した特徴情報を用いて追跡対象を同定処理IIで同定する。この物体追跡システム2はたとえば、Apple Inc.(アップル インコーポレイテッド)の製品などのポータブル多機能デバイスに搭載されて実施可能であるが、例示したポータブル多機能デバイスに限定されるものではない。
この物体追跡システム2には処理部4、カメラ6、光検出・測距部8、情報提示部10などが含まれる。処理部4は、追跡対象を情報処理によって追跡する情報処理やカメラ6や光検出・測距部8などの各種の機能部の制御を司る。
カメラ6は本開示の撮像部の一例である。このカメラ6は、追跡対象を含むエリアを処理部4の制御により撮像し、連続したたとえば、二次元の画像情報を時系列で出力する。
光検出・測距部8はポータブル多機能デバイスに搭載されるたとえば、光検出・測距機能ユニットの一例である。光検出・測距部8は、処理部4の制御によりカメラ6の撮像と同期して取得した深度情報を出力する。この光検出・測距部8はたとえば、LIDAR(Light Detection and Ranging )スキャナーなど、光検出・測距ユニットで構成される。このライダースキャナーユニットによれば、追跡対象に照射したレーザー光を走査し、追跡対象からの反射光を受光して追跡対象と光照射点との距離、つまり深度を表す深度情報を時系列で取得することができる。
情報提示部10はたとえば、LCD(Liquid Crystal Display)など、画像提示ユニットで構成し、追跡対象や追跡情報などを含む画像を提示する。
<処理部4>
処理部4には追跡制御部12、画像情報取得部14、深度情報取得部16、バウンディングボックス処理部18、追跡情報データベース生成部20、位置情報処理部22、特徴情報処理部24、状態情報処理部26、同定処理部28、同定情報提示部30、連係処理部32などの機能部が含まれている。
追跡制御部12はたとえば、移動する追跡対象を追跡するため、追跡対象から位置情報および特徴情報の取得を制御し、追跡対象の位置情報による同定制御と、位置情報による同定ができないとき、特徴情報による同定制御などを司る。
画像情報取得部14は、カメラ6から追跡対象を含む画像情報を取得する。画像情報取得部14は、追跡制御部12の制御に基づき、カメラ6から二次元の画像情報を時系列で取得し、この画像情報を追跡情報データベース生成部20に提供する。
深度情報取得部16は、光検出・測距部8がカメラ6の撮像と同期して取得した深度情報を時系列で取得する。
バウンディングボックス処理部18は、追跡対象の検出、バウンディングボックスの取得機能、分割機能、グリッド点の生成機能、座標値の取得機能などの処理を実行する。画像情報から追跡対象の骨格などを検出し、追跡対象を特定する。デバイスに搭載された既存のOS(Operating System)に含まれるAPI(Application Programming Interface )機能などでは、追跡対象の画像情報にバウンディングボックスが生成されるので、このバウンディングボックスを取得すればよい。バウンディングボックスは追跡対象の上半身を含む領域を表すたとえば、長方形の区画枠である。このバウンディングボックスの分割機能は、バウンディングボックスを複数の行線および列線で複数区画に分割し、行線および列線の交点でグリッド点gを生成させる。このグリッド点gの座標値を取得するとともに、深度情報を参照して追跡対象の特定に有効な位置情報を選択する。
追跡情報データベース生成部20は、追跡情報データベース(DB)66(図4)を生成し、処理部4が取得しまたは生成する画像情報、深度情報、バウンディングボックス情報、グリッド点情報、位置情報、特徴情報など、追跡情報に必要な情報をたとえば、フレーム単位で追跡情報DB66に格納する。この追跡情報DB66が追跡対象の同定に用いられる。
位置情報処理部22は、画像情報取得部14から提供された二次元の画像情報と、深度情報取得部16から提供された深度情報とを合成し、合成画像と既述のグリッド点gを用いて追跡対象を特定するための座標値を含む位置情報を生成する。
特徴情報処理部24は、画像情報から追跡対象の特徴情報と、特徴情報の分類情報の一例である向き情報を取得し、追跡対象の顔の向き判断と、特徴情報を顔の向きにカテゴライズする。特徴情報は、追跡制御部12の制御に基づき、画像情報から追跡対象の顔領域情報を取得し、この顔領域から特徴情報を取得する。この特徴情報はたとえば、目、耳などの部位を除く顔の画像情報から取得可能な特徴情報である。向き情報は、目、耳などの取得部位によって判定された「正面」、「左向き」および「右向き」などの分類情報である。顔認識による同定処理IIは、追跡対象から取得した特徴情報に含まれる特徴量の多少に応じて追跡対象を同定する。
状態情報処理部26は、追跡対象のバウンディングボックスを監視し、その状態情報としてバウンディングボックス間の重なり、バウンディングボックスの移動距離、バウンディングボックスのフレームアウト後の再フレームインなどの状態情報を取得する。この状態情報を取得することにより、追跡対象を位置情報で同定ができない場合において、その直前フレームにおける追跡対象の特徴情報、不定状態の解消後の直後フレームにおける追跡対象の特徴情報を取得する。
同定処理部28は、位置情報を用いて追跡対象の同定が可能である場合には、位置情報によって同定処理Iを実行し、位置情報を用いて追跡対象の同定ができない場合、追跡対象の特徴情報を用いた同定処理IIを実行する。具体的には同定処理部28では追跡制御部12の制御に基づき、時系列で取得した座標値を画像情報のフレームごとに時系列で取得し、フレーム単位で追跡対象を同定する。つまり、追跡対象の移動距離が所定の閾値を表すたとえば、0.5m以下であれば、追跡対象を同定し、同一対象と認定する。これに対し、追跡対象の移動距離が閾値以上であれば、座標値を含む位置情報による同定処理Iを回避し、顔認証による同定処理IIに委ねる。移動距離の閾値は、深度情報取得部16で取得可能な深度情報の精度に応じて設定すればよい。
同定情報提示部30は、追跡中の追跡対象について追跡表示を生成し、情報提示部10に提示する。この追跡表示は、追跡対象の追跡、同定などの追跡状態を表す追跡情報の一例である。この追跡表示には同定されている追跡対象を表す画像上にたとえば、同一色で提示され、他の追跡対象と峻別可能に設定される。バウンディングボックスが追跡対象を特定するための情報処理上の概念であるのに対し、この追跡表示はバウンディングボックスと異なり、追跡中の追跡対象のたとえば、頭部に表示される。
連係処理部32は、ネットワーク34を介して外部のサーバー36と連係して追跡対象の追跡処理を補完する。
この第一の実施の形態では、連係処理部32、ネットワーク34およびサーバー36が物体追跡システム2に含まれているが、この物体追跡システム2から連係処理部32、ネットワーク34およびサーバー36を除いたポータブル多機能デバイス(以下単に「デバイス」と称する)38のみで物体追跡システム2を構成してもよい。
<デバイス38>
図2のAは、デバイス38の背面部を示している。このデバイス38は、本開示の物体追跡装置の一例である。
このデバイス38の装置本体40の背面には情報取得部41が設定され、この情報取得部41にはカメラ6および光検出・測距部8が設置されている。
図2のBは、デバイス38の前面部を示している。このデバイス38の装置本体40の前面にはディスプレイ45の表示画面部46が設置され、この表示画面部46にはタッチパネル48が設置されている。このタッチパネル48は操作入力部56の一例である。この操作入力部56には図示しないキーボード装置やマウスなどのインターフェイス機器が含まれる。
この表示画面部46には一例として画像情報Ifが表示されている。この画像情報Ifには、追跡中の動画情報であり、複数の追跡対象P-1、P-2および追跡表示T-1、T-2が含まれている。追跡表示T-1は、追跡対象P-1の頭部に重ねられて同定状態を表し、追跡表示T-2は追跡対象P-2の頭部に重ねられて同定状態を表す。各追跡表示T-1、T-2は、異なる表示色で提示され、追跡対象P-1、P-2が追跡表示T-1、T-2によっても峻別可能である。情報処理上、追跡対象P-1にはバウンディングボックスB-1、追跡対象P-2にはバウンディングボックスB-2が形成されるが、これらは画像上に提示されない。以下、追跡対象P-1、P-2について、追跡対象を特定しない場合、単に追跡対象Pと表記し、追跡表示についても追跡対象を特定しない場合、単に追跡表示Tと表示し、同様に、バウンディングボックスB-1、B-2についても追跡対象を特定しない場合には単にバウンディングボックスBと表記する。
<デバイス38のハードウェア>
図3は、デバイス38のハードウェアの一例を示している。デバイス38には処理部4、カメラ6、光検出・測距部8、ディスプレイ45、タッチパネル48などが含まれる。
処理部4にはプロセッサ58、記憶部60、入出力部(I/O)62、通信部64が含まれる。プロセッサ58は、記憶部60にあるOS、物体追跡プログラムなどの各種プログラムを実行し、既述の機能部の制御を実行する。
記憶部60は、本開示の記録媒体の一例であり、OS、物体追跡プログラム、追跡情報DB66など、各種の情報を格納する。この記憶部60にはROM(Read-Only Memory)、RAM(Random-Access Memory)などの記憶素子が用いられる。RAMは、情報処理のワークエリアやフレームワークなどを構成する。
I/O62は、プロセッサ58の制御により情報の入出力を行う。このI/O62には情報入力手段としてカメラ6、光検出・測距部8、ディスプレイ45、タッチパネル48などが接続される。
情報提示部10には、ディスプレイ45以外の他の表示機器を用いてもよい。操作入力部56には、タッチパネル48以外の操作入力機器を用いてもよい。
通信部64は、プロセッサ58の制御によりネットワーク34を介してサーバー36と通信し、連係によって物体追跡に必要な情報交換を行う。
<追跡情報DB66>
図4は、物体追跡システム2に用いる追跡情報を格納する追跡情報DB66を示している。この追跡情報DB66には検出した追跡対象ごとに生成する追跡対象ファイル67-1、67-2、・・・、67-nが含まれる。
各追跡対象ファイル67-1、67-2、・・・、67-nには画像情報部68、深度情報部70、バウンディングボックス部72、グリッド点部74、位置情報部76、特徴情報部78、分類情報部80、向き情報部82、状態情報部84、同定情報部86、履歴情報部88が含まれる。
画像情報部68には、追跡対象Pからカメラ6で取得した二次元の画像情報が時系列で格納される。深度情報部70には、追跡対象Pから光検出・測距部8で取得した深度情報が時系列で格納される。バウンディングボックス部72には、画像情報から取得したバウンディングボックス情報が格納される。グリッド点部74には、バウンディングボックスに生成されたグリッド点の位置情報が格納される。位置情報部76には、追跡対象から取得した画像情報と深度情報から算出された位置情報が格納される。特徴情報部78には、画像情報から取得した追跡対象の特徴情報が格納される。分類情報部80には、顔認識に用いられる画像情報の分類情報が格納される。この分類情報部80には、左目、右目、左耳、右耳の各位置情報が含まれる。
向き情報部82には顔の向きを表す向き情報によって分類されて特徴情報が格納される。この向き情報部82には正面部82-1、左向き部82-2、右向き部82-3、不定部82-4が設定されている。正面部82-1には正面に分類された特徴情報が格納される。左向き部82-2には左向きに分類された特徴情報が格納される。右向き部82-3には右向きに分類された特徴情報が格納される。不定部82-4には何れにも分類されない特徴情報が格納される。
状態情報部84には、バウンディングボックスの状態情報が格納される。この状態情報には移動距離情報部84-1、重なり情報部84-2が設定されている。移動距離情報部84-1には、バウンディングボックス間の移動距離情報、フレームアウト情報などが格納される。
重なり情報部84-2には、バウンディングボックスの重なり情報などが格納される。同定情報部86には、追跡対象を同定した処理における同定処理I、同定処理II、同定結果を表す追跡表示の着色情報、同定カテゴリ情報などが格納される。履歴情報部88には、追跡対象の同定履歴、実績などの履歴情報が格納される。
<物体追跡の処理手順>
図5は、デバイス38を用いた物体追跡の処理手順を示している。この処理手順は、本開示の物体追跡システムを用いた物体追跡方法または物体追跡プログラムの一例である。図5において、Sは機能または処理の工程を示し、Sに付した番号は工程順を示している(図6、図7、図10、図12または図16に示すフローチャートにおいても同様である)。
この処理手順には図5に示すように、画像情報および深度情報の取得(S101)、追跡モードの開始判断(S102)、追跡対象の位置情報の取得および保存(S103)、追跡対象の向き情報・特徴情報の取得および保存(S104)、同定判断(S105、S106、S107、S108、S109)、追跡情報の提示(S110)などが含まれている。
画像情報および深度情報の取得(S101): デバイス38を起動すると、画像情報を取得するための画像取得モードが立ち上がる。この画像取得モードにおいて、カメラ6および光検出・測距部8が起動する。カメラ6が追跡制御部12の制御により画像情報を時系列で取得するとともに、光検出・測距部8が、追跡対象の深度情報を時系列で取得する。
画像情報はたとえば、ユーザ操作に基づき、追跡対象に向けられたカメラ6の撮像によって得られるたとえば、二次元の画像情報である。したがって、この画像情報は単一または複数の追跡対象の他、背景などを含んでいる。
深度情報は、ユーザ操作に基づき、カメラ6とともに追跡対象に向けられた光検出・測距部8に取得される深度を表す情報である。深度とは、画像情報を二次元とすれば、画像情報に対して奥行き方向を表す距離情報である。
追跡モードの開始判断(S102): この実施の形態では、画像情報の取得と追跡対象を追跡するための追跡モードは別個に設定されている。この追跡モードの開始には、開始条件を充足することが必要である。開始条件としては、画像取得モードにおいて、開始情報の取得を条件とする。たとえば、追跡対象に表示されているバウンディングボックスBへのタッチを感知し、これを開始情報に用いて追跡モードを開始させる。
追跡対象の位置情報の取得および保存(S103): 本開示の物体追跡には、追跡対象を特定し、バウンディングボックスB内の追跡対象の座標値を含む位置情報を取得する。この位置情報の取得には、カメラ6によって取得した画像情報から追跡対象を検出し、この追跡対象を表す二次元情報と、追跡対象から取得した深度情報とを合成し、追跡対象を表す三次元情報である座標値を含む位置情報を時系列で取得する。この位置情報は、画像情報および深度情報とともに追跡情報DB66に記録されて保存される。
追跡対象の向き情報・特徴情報の取得および保存(S104): 本開示の物体追跡には、追跡対象の位置情報の他、追跡対象の向き情報および特徴情報が用いられる。この特徴情報は、追跡対象が人であれば、顔画像から人の向き情報および特徴情報を取得する。向き情報は、人の顔の向きを表す情報であり、特徴情報をカテゴライズするために用いられる。顔の向きはたとえば、正面、左向きおよび右向きの3パターンが設定されている。特徴情報のカテゴライズは、対比するための特徴情報を特定する単位概念であり、顔画像における特徴情報は、顔の向きを単位として分類され、追跡情報DB66に記録されて保存される。
同定判断(S105、S106、S107、S108、S109): 同定判断は、移動する追跡対象が同一か否かの判断である。この同定判断には、第1の処理として同定処理I、第2の処理として同定処理IIが含まれる。同定処理Iは、追跡対象の位置情報を用いた同定であり、同定処理IIは、追跡対象の特徴情報を用いた同定である。つまり、追跡対象の位置情報による判断である三次元の座標値による判断を行ったとき、不定フレームなどの存在で座標値による同定ができないとき、同定処理Iを補完する処理である同定処理IIによる顔認証による同定が含まれている。
座標値による同定ができない場合には画像情報および深度情報が取得できた場合であってもたとえば、(1) バウンディングボックスB-1が他のバウンディングボックスB-2との間で重なりが生じた場合、(2) 現フレームのバウンディングボックスと直前フレームのバウンディングボックスの移動距離が閾値以上の場合、(3) 追跡対象が撮像の画角範囲から外れ、再び画角内に復帰した場合などのパターンが含まれる。
バウンディングボックスが重なった場合には、バウンディングボックスを基準に追跡対象を特定することから、バウンディングボックスが重なると、追跡対象を見失うことになる。
バウンディングボックスが重ならない場合であっても、現フレームのバウンディングボックスの直前フレームのバウンディングボックスからの移動距離が閾値以上である場合には座標値の精度が失われるので、同定しない。
また、カメラ6の撮像範囲から追跡対象が外れると、画像情報および深度情報を取得することができない。このため、撮像範囲内の追跡対象から位置情報を取得していても、再び撮像範囲以内に入った追跡対象の画像情報および深度情報から取得した位置情報との対比では追跡対象の同定ができない。
このように位置情報で追跡対象を同定できない場合には、特徴情報を用いて追跡対象を同定する。つまり、座標値で追跡対象を同定できた場合には、特徴情報を用いた同定は省略される。
したがって、この同定判断(S105)には、座標値を含む位置情報による同定処理Iでの同定判断(S106)、特徴情報による同定処理IIでの同定判断(S107)、追跡対象の同定(S108)、不定の判断(S109)が含まれる。同定処理Iでの同定判断(S106)では、同定処理Iで同定が可能かを判断し、同定処理Iで同定が可能であれば、位置情報のみで追跡対象を同定する(S108)。
同定処理Iで同定できない場合には(S106のNO)、同定処理IIによる同定かを判断する(S107)。同定処理IIで同定できれば(S107のYES)、追跡対象を同定する(S108)。これに対し、同定処理IIで同定できなければ(S107のNO)、追跡対象を不定と判断し(S109)、S103に戻る。つまり、特徴情報によっても同定できなければ、S103に戻る。
追跡情報の提示(S110): 追跡対象を同定すれば(S108)、追跡対象の追跡情報、つまり追跡中の追跡対象の画像情報とともに追跡表示を提示し(S110)、S103に戻る。同定された追跡対象の追跡表示は追跡対象ごとに異なる着色を以て表示する。つまり、同定中の追跡対象の追跡表示は同一色で提示され、他の追跡対象の追跡表示と異なる着色を以て提示される。つまり、同定が失われた追跡対象の追跡表示は同定中の着色と異ならせ、その状態を提示すればよい。
<位置情報の取得>
図6は、位置情報の取得の処理手順を示している。この処理手順は追跡対象の位置情報の取得および保存(図5のS103)のサブルーチンである。
この処理手順には、画像情報および深度情報の取得(S201)、追跡対象の検知およびバウンディングボックスの取得(S202)、追跡対象の座標値の取得(S203)、座標値の保存(S204)、座標値の取得の終了判断(S205)、次のフレームの処理(S206)が含まれる。
画像情報および深度情報の取得(S201): この画像情報および深度情報の取得は、追跡モード(S102)の開始後の取得である。
追跡対象Pの検知およびバウンディングボックスの取得(S202): この追跡対象Pの検知およびバウンディングボックスの取得は、追跡制御部12の制御により、カメラ6から得た画像情報から追跡対象を検知し、この追跡対象の座標値を取得する。追跡対象が人であれば、OSに搭載されている人検知機能(たとえば、Vision Framework - Request Human Detection)を用いて画像情報から人の検知を行い、二次元情報であるバウンディングボックスを取得する。
追跡対象Pの座標値の取得(S203): この追跡対象Pの座標値の取得は、バウンディングボックスBを単位として追跡対象Pを表す座標値を含む三次元情報として位置情報を取得する。この位置情報の取得にはたとえば、図9に示すように、二次元情報である画像情報と深度情報とを合成し、この合成によって得られる合成画像(三次元の座標情報)から座標値を時系列で取得する。つまり、この処理により、バウンディングボックス内の追跡対象Pを高精度に表す位置情報を取得できる。
座標値の保存(S204): 取得した座標値は、追跡制御部12の制御により追跡情報DB66に格納されて保存される。この座標値の保存はたとえば、画像情報のフレーム単位で行えばよい。
座標値の取得の終了判断(S205): この座標値の取得終了は、追跡制御部12の制御により、フレーム中の座標値の取得終了かを判断し(S205)、この座標値の取得終了まで、S203およびS204の処理を繰り返す(S205のNO)。
次のフレームの処理(S206): 追跡制御部12がフレーム中の座標値の取得を終了したと判断したとき(S205のYES)、次フレームの処理に移行し(S206)、S201~S206の処理を時系列で実行する。
<バウンディングボックスBの処理>
図7は、バウンディングボックスBの処理を示している。この処理手順には、追跡対象に表示されるバウンディングボックスBの分割および追跡対象の位置情報の取得の処理が含まれており、位置情報の取得処理(図6)のS202のサブルーチンである。
この処理手順にはバウンディングボックスBの幅wおよび高さhの取得(S301)、バウンディングボックスの分割(S302)、グリッド点gの生成(S303)、グリッド点gの位置判定(S304、S305)、グリッド点gの座標値の取得(S306)、座標値の信頼度のチェック(S307)、信頼度判定(S308)、グリッド点gの座標値の保存(S309)、処理の終了判定(S310)、座標値数の判定(S311)、中心Bnの座標値の取得(S312)、位置情報の設定(S313)、位置情報の不明判定(S314)などが含まれる。
バウンディングボックスBの幅wおよび高さhの取得(S301): このバウンディングボックスBの幅wおよび高さhは追跡制御部12の制御により、バウンディングボックス処理部18が取得したバウンディングボックスBから幅wおよび高さhを取得する。
バウンディングボックスBの分割(S302): バウンディングボックス処理部18が追跡制御部12の制御により、図8のAに示すように、複数の行線および列線によってたとえば、幅方向を8分割、高さ方向を8分割し、バウンディングボックスBを64区画に分割する。この分割数は一例であり、この分割数に本開示が限定されるものではない。バウンディングボックスBのX軸方向の幅wをw=x、Y軸方向の高さhをh=yとすれば、分割枠の大きさをステップ(Step)で表すと、式1、式2で表すことができる。
xStep=w/8 (式1)
yStep=h/8 (式2)
グリッド点gの生成(S303): このようにバウンディングボックスBを分割すると、図8のAに示すように、バウンディングボックスB内に8×8の分割によってグリッド点gを作成することができる。つまり、グリッド点gは、行線および列線の交点である。
グリッド点gの位置判定(S304): 作成された各グリッド点gについて、各位置を判定する。グリッド点gの位置が閾値として、バウンディングボックスBの中心Bnより+yStepより下であるか否かの判定である。
グリッド点gの位置判定(S305): グリッド点gの位置が閾値以下、つまりバウンディングボックスBの中心Bnより+yStepより下であれば(S305のYES)、S306に遷移し、グリッド点gの位置がバウンディングボックスBの中心Bnより+yStepより上であれば(S305のNO)、S304に遷移する。
グリッド点gの座標値の取得(S306): バウンディングボックスBの中心Bnより+yStepより下であるグリッド点gについて、三次元の座標値を取得する。この座標値の取得について、バウンディングボックスBは追跡対象の顔領域を含む上半身を包囲する領域である。このため、バウンディングボックスBの中心Bnより上のグリッド点gでは肩より上となり、身体以外の部分を含むこととなり、追跡対象以外の座標値が取得される可能性がある。これに対し、バウンディングボックスBの中心Bnより下のグリッド点gは追跡対象の中央部分、つまり、身体の中央部分となるので、有効なグリッド点gの三次元の座標値を取得できる可能性が高い。よって、バウンディングボックスBの中心Bnより下のグリッド点gを取得し、これを追跡対象の位置情報とする。
座標値の信頼度のチェック(S307): グリッド点gの座標値について、信頼度のチェックを行う。このチェックには図8のBに示すように、グリッド点gに重なる追跡対象Pの深度情報Diを参照する。深度情報Diには信頼度を表す情報(信頼度情報)として低信頼度low(=Depth-value accuracy in which the framework is less confident.)、中信頼度medium(=Depth-value accuracy in which the framework is moderately confident.)、高信頼度high(=Depth-value accuracy in which the framework is fairly confident.)が含まれている。したがって、各グリッド点gは、深度情報の信頼度を以てチェックすることができる。
グリッド点gの信頼度の判定(S308): グリッド点gの信頼度について、高信頼度highであるか否かの閾値を設定し、その判定を行う。つまり、グリッド点gの信頼度が高信頼度highであれば(S308のYES)、S309に遷移し、グリッド点gの信頼度が低信頼度lowまたは中信頼度mediumであれば(S308のNO)、S305に戻る。
座標値の保存(S309): グリッド点gの信頼度が高信頼度highであれば(S308のYES)、取得したグリッド点gの三次元の座標値を位置情報として追跡情報DB66に登録して保存する。
処理の終了判定(S310): バウンディングボックス処理部18は、取得した全グリッド点gの処理が終了したかを判定する(S310)。全グリッド点gの処理が終了していなければ(S310のNO)、S305~S310の処理を継続し、全グリッド点gの処理を行う。そして、グリッド点gの全部の処理が終了すれば(S310のYES)、S311に遷移する。
座標値数の判定(S311): バウンディングボックス処理部18は、保存したグリッド点gの座標値数が閾値以上かを判定する。座標値数の閾値は一定値としてたとえば、2×2を設定する。この場合、保存したグリッド点gの座標値数が閾値=2×2以上であれば(S311のYES)、S312に遷移し、保存したグリッド点gの座標値数が閾値=2×2未満であれば(S311のNO)、S314に遷移する。
中心の座標値の取得(S312): 保存したグリッド点gの座標値数が閾値=2×2以上であれば(S311のYES)、バウンディングボックス処理部18は、位置情報が確定している追跡対象として認識する。この認識の結果、バウンディングボックス処理部18は、バウンディングボックスBの中心Bnの座標値を取得する。
この場合、中心Bnの座標値の取得処理はたとえば、
Mid X and Mid Y is the midpoint of the X and Y edges of screen bounds
Mid X = screenBoundsd. Mid X
Mid Y = screenBoundsd. Mid Y
Center =(Mid X, Mid Y+ yStep)
からバウンディングボックスBの中心Bnの値が求められる。
位置情報の設定(S313): バウンディングボックス処理部18は取得した中心Bnの座標値を追跡対象の位置情報として設定し、この処理を終了する。
位置情報の不明判定(S314): 保存したグリッド点gの座標値数が閾値=2×2未満であれば(S311のNO)、グリッド点gの座標値が保存されないので、追跡対象の位置情報=不明として処理し、この場合、位置情報が不明な追跡対象となる。
<画像情報および深度情報の合成、位置情報の取得>
図9のAは、二次元の画像情報を示している。追跡対象Pをカメラ6で撮像すると、図9のAに示すように、追跡対象Pを表す画像情報Ifが得られる。この画像情報Ifは追跡制御部12の制御により、追跡情報DB66に記録される。
図9のBは、追跡対象Pの深度情報Diを示している。追跡対象Pを同一条件で光検出・測距部8で計測すると、撮影対象を表す深度情報Diが得られる。この深度情報Diは、光検出・測距部8からの追跡対象Pまでの距離(浮動小数点)と信頼度がペアでスクリーン(フレーム)の左上から右下に向かって格納されている。その距離を視覚化すると濃淡画像(二値化情報)で得られ、距離が近い方が暗く、遠い方が明るく表示される。つまり、この深度情報Diは、深度をコントラストで表す二値化情報であり、画像情報Ifと同様に追跡対象Pが濃淡情報で得られる。
図9のCは、合成画像Cmを示している。たとえば、画像情報Ifに深度情報Diを重ねて合成画像Cmを生成すると、画像情報Ifに深度情報Diが加わり、目視的には深みのある合成画像Cmに変換される。この合成画像Cmには、画像情報IfにあるバウンディングボックスBが提示されるので、追跡対象Pを表す位置情報として三次元の座標値をバウンディングボックス単位で取得する。
<二次元の画像情報から三次元の座標値への変換>
この二次元の画像情報から三次元の座標値への変換を座標値変換と称する。この座標値変換には、
A)グリッド点gのスクリーン座標(二次元)の最小値および最大値の取得
B)ワールド座標(三次元)の取得
C)有効なグリッド点gを頂点とするバウンディングボックスBの幅wと高さhの取得
D)スクリーン座標(sx,sy)からワールド座標(wx,wy,wz)の取得
などの処理が含まれる。以下、これらの処理について説明する。
A)の取得したグリッド点gについて、スクリーン座標(二次元)の最小値と最大値を取得する。
screen.min=グリッド点gの最小値(X,Y)
screen.max=グリッド点gの最大値(X,Y)
B)のグリッド点gのワールド座標(三次元)の取得では、バウンディングボックスBが相当するワールド座標(三次元)を取得する。
world.min=グリッド点の最小値(X,Y,Z)
world.max=グリッド点の最大値(X,Y,Z)
C)の有効なグリッド点gを頂点とするバウンディングボックスBの幅wと高さhの取得には、ワールド座標値を用いて、有効なグリッド点gを頂点とする四角形の幅と高さを取得する。
screen.w=screen.max.x-screen.min.x
screen.h=screen.max.y-screen.min.y
world.w=world.max.x-world.min.x
world.h=world.max.y-world.min.y
D)のスクリーン座標(sx,sy)からワールド座標(wx,wy,wz)の取得には、任意の点をスクリーン座標(sx,sy)からワールド座標(wx,wy,wz)を取得する場合、下記の式を使用して変換する。
wx=sx*(world.w/screen.w)
wy=sy*(world.h/screen.h)
wz=DepthBuffer[sx+sy*screen width]
<追跡対象Pの特徴情報>
追跡対象Pの画像情報から特徴情報を取得することができる。この特徴情報は、追跡対象が人であれば、顔情報から特徴情報を取得し、この特徴情報に含まれる特徴量を以て追跡対象を同定することができる。
顔情報には顔の向きを表す向き情報が含まれる。顔情報から取得した特徴情報は、向き情報によって分類すれば、同定処理の迅速化や高精度化を図ることができる。顔の向きは頭部の部位情報たとえば、左目、右目、左耳、右耳の各位置情報を以て判断することができる。
<部位情報の取得と特徴情報の分類>
図10は、顔の向き判断ロジックおよび特徴情報のカテゴライズ処理を示している。この処理手順は、S104(図5)のサブルーチンを示している。この処理手順には、顔情報の取得に基づき、特徴情報および部位情報を取得し、向きの判断とともに特徴情報の分類の処理が含まれる。
この処理手順において、左目とは表示画面に向かって左側に見える目、左耳とは表示画面に向かって左側に見える耳、右目とは表示画面に向かって右側に見える目、右耳とは表示画面に向かって右側に見える耳である。追跡対象P自身の左右とは異なる。図11に示す向き情報テーブル100も同様である。
この処理手順では、追跡対象Pの顔画像から部位情報として左目、右目、左耳、右耳の位置情報の取得を行うための処理を実行する(S401)。この処理において、左耳および右耳の双方の位置情報が取得した場合には(S402)、追跡対象Pの顔の向き=「正面」と判断し(S403)、特徴情報を正面にカテゴライズする(S404)。
S402の後、左目および右目の双方の位置情報が取得した場合であって(S405)、左耳の位置情報を取得でき、右耳の位置情報を取得できない場合には(S406)、追跡対象Pの顔の向き=「左向き」と判断し(S407)、特徴情報を左向きにカテゴライズする(S408)。
S405の後、右耳の位置情報が取得でき、左耳の位置情報を取得できない場合(S409)、追跡対象Pの顔の向き=「右向き」と判断し(S410)、特徴情報を右向きにカテゴライズする(S411)。
S405の後、右耳および左耳の双方の位置情報を取得できない場合(S412)、追跡対象Pの顔の向き=「正面」と判断し(S403)、特徴情報を正面にカテゴライズする(S404)。
S405の後、左耳の位置情報を取得でき、右耳および右目の位置情報を取得できない場合(S413)、追跡対象Pの顔の向き=「左向き」と判断し(S407)、特徴情報を左向きにカテゴライズする(S408)。
S405の後、右耳の位置情報を取得でき、左耳および左目の位置情報を取得できない場合(S414)、追跡対象Pの顔の向き=「右向き」と判断し(S410)、特徴情報を右向きにカテゴライズする(S411)。
S405の後、左目、右目、左耳、右耳の各位置情報を取得できない場合(S415)、追跡対象Pの顔の向き=「不明」と判断し(S416)、特徴情報をカテゴライズしない。
<追跡対象Pの向き判断>
図11は、取得部位および向き情報を示す向き情報テーブル100を示している。
この向き情報テーブル100には、取得部位情報部102および向き情報部104が設定されている。取得部位情報部102には移動する追跡対象Pについて、各取得部位の中心位置からの位置情報が格納される。この取得部位情報部102には左目部102-1、右目部102-2、左耳部102-3、右耳部102-4が設定されている。
左目部102-1には追跡対象Pの左目の位置情報が格納されている。右目部102-2には追跡対象Pの右目の位置情報が格納されている。左耳部102-3には追跡対象Pの左耳の位置情報が格納されている。右耳部102-4には追跡対象Pの右耳の位置情報が格納されている。
向き情報部104には、取得部位の組み合わせによる判断により追跡対象Pの向きを表す向き情報が格納される。
ア) 顔の向き=正面の場合
左耳および右耳の各位置情報が取得できれば、追跡対象Pの向きは「正面」と判断する。同様に、左目および右目の各位置情報が取得できれば、左耳または右耳の位置情報が取得できない場合であっても、追跡対象Pの向きは「正面」と判断する。
イ) 顔の向き=左向きの場合
左目および右目の各位置情報が取得でき、左耳の位置情報が取得できれば、追跡対象Pの向きは「左向き」と判断する。同様に、左目および右目の各位置情報が取得できない場合であっても、左耳の位置情報が取得できれば、追跡対象Pの向きは「左向き」と判断する。
ウ) 顔の向き=右向きの場合
左目および右目の各位置情報が取得でき、右耳の位置情報が取得できれば、追跡対象Pの向きは「右向き」と判断する。同様に、左目および右目の各位置情報が取得できない場合であっても、右耳の位置情報が取得できれば、追跡対象Pの向きは「右向き」と判断する。
エ) 向き=不明の場合
左目、右目、左耳および右耳の何れの位置情報も取得できなければ、追跡対象Pの向きは「不明」と判断する。
<追跡対象Pの同定処理>
追跡対象Pの追跡には移動する追跡対象Pの同定処理が必要である。この同定処理には、追跡対象Pから取得した位置情報を用いる同定処理Iと、追跡対象Pから取得した特徴情報を用いる同定処理IIが含まれる。
この実施の形態では、位置情報を用いる同定処理Iを先行して実施し、同定処理Iで同定できなかった場合には特徴情報による同定処理IIを実施し、同定処理の迅速化と高精度化を実現する。
移動中の追跡対象Pを追跡する場合には追跡対象Pの状態が刻々と変化する。この変化状態のひとつにバウンディングボックスB-1、B-2間の重なりが生じる場合がある。バウンディングボックスB-1が他のバウンディングボックスB-2と重なると、追跡対象Pを見失うことになる。
追跡対象Pの追跡中、その移動速度によってバウンディングボックスBの移動距離Mに変化を生じる。移動距離Mが延びると、位置情報に変化を来たし、この場合も追跡対象Pを見失うことになる。
追跡対象Pの追跡範囲には限界がある。この追跡範囲から追跡対象Pが外れ、再び追跡範囲に戻るといった場合にも、追跡対象Pの位置情報だけでは同定することができない。つまり、フレームアウトの場合も、追跡対象Pを見失うことになる。
このように、位置情報だけで追跡対象Pを同定できない場合には、予め取得した追跡対象Pの特徴情報を用いて同定処理IIを実行する。つまり、この実施の形態では、同定処理Iを同定処理IIで補完し、同定処理の迅速化とともに、高精度化を実現している。
<位置情報による同定処理I>
図12は、位置情報による同定処理Iを示している。この処理手順は図5に示す処理手順のS105のサブルーチンである。
この処理手順には追跡対象Pの位置情報の取得(S501)、バウンディングボックスBの重なりチェック(S502)、重なり判定(S503)、不定判断(S504)、移動距離Mの算出(S505)、移動距離Mの判定(S506)、追跡対象Pの同定(S507)、チェック終了判断(S508)などが含まれる。
追跡対象Pの位置情報の取得(S501): 同定処理Iでは、追跡制御部12が追跡対象Pから取得した位置情報を用いて同定する。
バウンディングボックスBの重なりチェック(S502): この同定中において、各追跡対象Pのそれぞれに付されているバウンディングボックスBに重なりがあるかをチェックする。バウンディングボックスBの重なりとは、画像上において、2以上のバウンディングボックスBの接触ないし重合した状態である。
重なり判定(S503): バウンディングボックスB間に重なりが生じた場合(S503のYES)、S504に遷移する。また、バウンディングボックスB間に重なりが生じていなければ(S503のNO)、S505に遷移する。
不定判断(S504): バウンディングボックスBに重なりが生じた場合(S503のYES)には、追跡制御部12は各バウンディングボックスBを不定と判断し、該当する追跡対象Pに対する同定処理Iによる同定を解除し、この処理を終了する。つまり、この場合、特徴情報による同定処理IIに移行する。
移動距離Mの算出(S505): バウンディングボックスB間に重なりが生じていなければ(S503のNO)、現フレームのバウンディングボックスBと直前フレームのバウンディングボックスBの移動距離Mの算出を行う(S505)。
移動距離Mの判定(S506): 算出した移動距離Mが閾値Mthとしてたとえば、0.5mを設定し、0.5m以下であれば(S506のYES)、S507に遷移する。移動距離Mが閾値Mthを超えていれば(S506のNO)、S504に遷移し、追跡制御部12は移動距離Mが閾値Mthを超えたバウンディングボックスBは不定とする。つまり、該当する追跡対象Pに対する同定処理Iによる同定を解除し、この処理を終了する。この場合、特徴情報による同定処理IIによって同定判断を行う。
追跡対象Pの同定(S507): 算出した移動距離Mが閾値Mth以下であれば(S506のYES)、追跡対象Pの位置情報による同定を行う。移動距離Mが閾値Mth以下であれば、追跡対象Pが同一であると判断し、同定する。
チェック終了判断(S508): 追跡制御部12は、S501ないしS507の処理について、全てのバウンディングボックスBの処理が終了したかを判断する(S508)。全てのバウンディングボックスBの処理が終了していなければ(S508のNO)、S501ないしS507の処理を継続し、バウンディングボックスBの処理をバウンディングボックス数だけ繰り返す。そして、全てのバウンディングボックスBについての処理が終了すれば(S508のYES)、同定判断(図5のS105)に遷移し、この処理を終了する。
<バウンディングボックスBの重なり判定動作および特徴情報の取得>
図13のAは追跡中の画像情報を示している。この画像情報内には3人の追跡対象P-1、P-2、P-3が存在し、追跡対象P-1にはバウンディングボックスB-1、追跡表示T-1、追跡対象P-2にはバウンディングボックスB-2、追跡表示T-2が存在している。
図13のBは、図13のAに続く追跡中の画像情報を示している。この画像情報は、バウンディングボックスB-1、B-2の重なり状態を表している。つまり、追跡対象P-1が追跡対象P-2と重なり、バウンディングボックスB-1、B-2が重なってひとつのバウンディングボックスBxに合体している。同様に追跡表示T-1、T-2が重なり、ひとつの追跡表示Txに合体している。この場合、バウンディングボックスB-1、B-2の双方が既述の不定の状態である。そこで、重なりの直前フレームから各追跡対象P-1、P-2の画像情報から特徴情報を取得しておく。
図13のCは、図13のBに続く追跡中の画像情報を示している。この画像情報は、バウンディングボックスB-1、B-2、追跡表示T―1、T-2の重なりからの分離状態を示している。つまり、追跡対象P-1が追跡対象P-2から離れ、各バウンディングボックスB-1、B-2が分離し、同様に追跡表示T-1、T-2が分離している。つまり、重なり状態が解消したことにより、追跡対象P-1、P-2の双方の位置情報を取得することができる。しかし、特徴情報による同定のために、不定状態の解消直後では、重なりが解除された直後フレームから各追跡対象P-1、P-2の画像情報から特徴情報を取得しておく。
<バウンディングボックスBの移動距離Mの判定動作および特徴情報の取得>
図14のAは、バウンディングボックスBの移動距離Mが閾値Mthより短い場合(M≦Mth)を示している。
追跡対象Pの追跡中、追跡制御部12は追跡対象P-1の移動距離Mを監視する。この移動距離MがM≦Mthであれば、追跡対象P-1を同一と判断し、同定する。
図14のBは、バウンディングボックスB-1の移動距離Mが閾値Mthより長い場合(M>Mth)を示している。
追跡対象P-1の追跡中、追跡制御部12は追跡対象P-1の移動距離Mが閾値Mthを超えると(M>Mth)、位置情報による追跡対象Pの同定精度が低下するので、不定とし、位置情報による同定を停止する。この場合、特徴情報による同定のために、不定状態に移行直前のフレームの画像情報から追跡対象P-1の特徴情報を取得しておく。
<フレームアウトの判定動作および特徴情報の取得>
図15のAは、追跡中の画像情報を示している。この画像情報には、フレームF1において、1人の追跡対象P-1の移動を示している。
図15のBは、追跡中、追跡対象P-1がフレームアウトした場合を示している。このフレームアウトとは矢印で示すように、追跡対象P-1が移動して追跡範囲を表すフレームF2から脱することである。この場合も不定状態とし、位置情報による同定を停止する。そこで、特徴情報による同定のために、不定状態に移行直前のフレームの画像情報から追跡対象P-1の特徴情報を取得しておく。
図15のCは、追跡対象P-1が再フレームインした場合を示している。この再フレームインとは矢印で示すように、フレームF3の外から追跡対象P-1が移動してフレームF3に再進入した場合である。この場合も、特徴情報による同定のために、再フレームインの直後フレームの画像情報から追跡対象P-1の特徴情報を取得しておく。
<特徴情報による同定処理II>
図16は、特徴情報による同定処理IIを示している。この処理手順は図5に示す処理手順のS105のサブルーチンである。
この処理手順には、不定バウンディングボックスBの判定(S601)、前フレームの判断(S602)、新規のバウンディングボックスBの特定(S603)、顔領域の画像情報の取得(S604)、向き情報および特徴情報の取得(S605)、特徴情報の比較(S606)、特徴情報の一致判断(S607)、バウンディングボックスBの同定処理(S608)などが含まれる。
不定バウンディングボックスBの判定(S601): 特徴情報による同定処理IIは、不定バウンディングボックスの存在が前提である。したがって、同定処理部28は、現フレームで不定とされたバウンディングボックスBが存在するかを判定する。不定とされたバウンディングボックスBがなければ(S601のNO)、この処理を終了して同定判断1(S105:図5)にリターンする。不定とされたバウンディングボックスBがあれば(S601のYES)、S602に遷移する。
前フレームの判断(S602): 前フレームで不定とされたバウンディングボックスBが存在するかを判定する。前フレームで不定とされたバウンディングボックスBが存在しなければ(S602のNO)、S603に遷移する。
新規バウンディングボックスの特定(S603): 前フレームで不定とされたバウンディングボックスBが存在しなければ(S602のNO)、現時点のフレームにおけるバウンディングボックスBを新規のバウンディングボックスBとし(S603)、この処理を終了して同定判断(S105:図5)にリターンする。また、前フレームで不定とされたバウンディングボックスBが存在すれば(S602のYES)、S604に遷移する。
顔領域の画像情報の取得(S604): 不定とされたバウンディングボックスBが存在すれば(S602のYES)、バウンディングボックスB内の画像情報から顔領域の画像情報を取得する。
向き情報および特徴情報の取得(S605): 取得した画像情報(顔画像)から向き情報および特徴情報を取得する。
特徴情報の比較(S606): 取得した特徴情報と、前フレームで不定とされたバウンディングボックスBの特徴情報とを、向き情報ごとにカテゴライズされている同士を比較する。
特徴情報の一致判断(S607): 特徴情報が一致したか否かを判断し、一致すれば(S607のYES)、S608に遷移し、一致しなければ(S607のNO)、この処理を終了して同定判断(S105:図5)にリターンする。この特徴情報の一致判断はたとえば、特徴量の一致数を以て判断すればよい。
バウンディングボックスBの同定処理(S608): 同定処理部28は、現フレームのバウンディングボックスBを前フレームのバウンディングボックスBの同定により、追跡対象Pを同定し、この処理を終了して同定判断(S105:図5)にリターンする。
<第一の実施の形態の効果>
この第一の実施の形態によれば、次の何れかの効果が得られる。
(1) 追跡対象Pから取得した二次元の画像情報と深度情報とを以て座標値を含む位置情報を用いて追跡対象Pの同定を行うので、高精度に同定できる。
(2) 位置情報を用いた同定処理Iで追跡対象Pの同定ができない場合には、追跡対象Pの画像情報から取得した特徴情報を以て同定処理IIを行うので、同定処理IIを以て同定機能を補完することができ、追跡対象Pの同定精度を高めることができる。
(3) バウンディングボックスを分割して位置情報を間引き、処理情報の軽量化を図ることができ、同定処理の高速化とともに同定のための処理負荷を軽減できる。
(4) 追跡対象の追跡状態を追跡表示によって提示できる。また、追跡表示Tは追跡対象の追跡中の同定状態を着色によって表すことができる。追跡表示Tの着色の変化を確認すれば、同定状態か同定不良か、追跡中か追跡失敗かを容易に認識できる。
〔第二の実施の形態〕
図17は、第二の実施の形態に係る物体追跡システム2を示している。図17において図3と同一部分には同一符号を付してある。
この物体追跡システム2は、図17に示すように、複数のデバイス38-1、38-2、・・・、38-nを備え、各デバイス38-1、38-2、・・・、38-nがネットワーク34を通して有線または無線によりサーバー36に接続されている。
デバイス38-1、38-2、・・・、38-nで得られた追跡情報は、サーバー36に集合し、必要に応じて合成し、追跡対象P、または複数の追跡対象P-1、P-2、・・・、P-nの追跡に用いられる。
<第二の実施の形態の効果>
この第二の実施の形態によれば、次の何れかの効果が得られる。
(1) 追跡範囲の拡大を図ることができる。
図18は、2台のデバイス38-1、38-2による追跡範囲の拡大化を示している。デバイス38-1の画角A-1(=追跡範囲)、デバイス38-2の画角A-2(=追跡範囲)とすれば、複数の追跡対象P-1、P-2、・・・、P-7のうち、追跡対象P-1、P-2が画角A-1で追跡でき、画角A-1から外れている追跡対象P-3、P-4は画角A-2で追跡が可能である。また、追跡対象P-5、P-6、P-7が画角A-2で追跡できる。したがって、画角A-1、A-2で画角が拡大され、追跡対象P-1、P-2、・・・、P-7が追跡可能である。そして、これらの追跡情報は、サーバー36で集合されるので、追跡範囲の拡大化とともに追跡の補完を行うことができる。
(2) 追跡範囲の広域化および追跡範囲の囲い込みができる。
図19は、4台のデバイス38-1、38-2、38-3、38-4による追跡範囲の広域化および複合追跡を示している。この場合、病院の待合室などの追跡エリア106では多数の追跡対象としてたとえば、追跡対象P-11、P-12、・・・、P-14、P-21、P-22、・・・、P-24、・・・、P-51、P-52、・・・、P-54が滞在している。
この追跡エリア106に対し、この追跡エリア106を包囲して4台のデバイス38-1、38-2、38-3、38-4が配置されている。デバイス38-1の画角をA-11、デバイス38-2の画角をA-12、デバイス38-3の画角をA-13、デバイス38-4の画角をA-14とすれば、複数の画角A-11、A-12、A-13、A-14を以て囲い込み、追跡エリア106が追跡範囲に設定されている。
このようにすれば、追跡エリア106に滞在または出入りする追跡対象P-11、P-12、・・・、P-14、P-21、P-22、・・・、P-24、・・・、P-51、P-52、・・・、P-54の全てを追跡することができる。
そして、追跡エリア106内での移動による追跡対象P-11、P-12、・・・、P-14、P-21、P-22、・・・、P-24、・・・、P-51、P-52、・・・、P-54間の重なりによる追跡不定をデバイス38-1、38-2、38-3、38-4間で解消できるとともに、サーバー36の追跡不定の回避処理を迅速に行うことができる。
〔他の実施の形態〕
(1) 上記実施の形態では、同定処理Iおよび同定処理IIを含み、同定処理Iで追跡対象を同定できない場合に同定処理IIを実行し、同定処理IIで同定処理Iを補完している。これに対し、同定処理Iおよび同定処理IIを同時に実行させ、何れか一方で同定できれば、同定処理IIを先行させてもよい。また、同定処理Iおよび同定処理IIを同時に実行させ、双方の同定を以て追跡対象を同定してもよい。
(2) 上記実施の形態では、追跡対象のバウンディングボックスと他の追跡対象のバウンディングボックスとの間に重なりを生じた場合、該重なりの直前の前記特徴情報と、前記重なりの解消時点の前記特徴情報とを対比して追跡対象を同定する処理を行っているが、追跡中の追跡対象と他の追跡対象の画像間に重なりを生じた場合にも同様の処理を行ってもよい。
(3) 上記実施の形態では、追跡対象Pとして人を例示したが、人以外の物体の追跡にも活用できる。追跡対象としては、ロボット、移動体、樹木の伐採などにも活用可能である。
(4) デバイス38には他の情報処理端末を用いてもよく、本開示の追跡プログラムは既存の特定のプログラムに限定されない。
(5) 追跡中、追跡対象Pや追跡表示Tを背景色と異なる着色を以て追跡情報を提示してもよい。
(6) 図1に示す物体追跡システム2には、ポータブル多機能デバイス38を含んだシステムを例示しているが、ポータブル多機能デバイス38を一体に備える必要はなく、カメラ6、光検出・測距部8などの機能部と処理部4とを別個に備えるシステムであってもよく、これらの設置場所を異ならせたシステムであってもよい。
以上説明したように、本開示は最も好ましい実施の形態について説明した。本開示は、上記記載に限定されるものではない。特許請求の範囲に記載され、または発明を実施するための形態に開示された要旨に基づき、当業者において様々な変形や変更が可能である。斯かる変形や変更が、本開示の範囲に含まれることは言うまでもない。
本開示によれば、追跡対象から取得した二次元の画像情報と深度情報とを以て座標値を含む位置情報で同定するとともに、画像情報から取得した追跡対象の特徴情報を以て同定するので、同定精度を高めることができるとともに、バウンディングボックスを分割して追跡情報の軽量化による同定の迅速化や処理負荷を軽減できる。
P 追跡対象
B バウンディングボックス
T 追跡表示
2 物体追跡システム
4 処理部
6 カメラ
8 光検出・測距部
10 情報提示部
12 追跡制御部
14 画像情報取得部
16 深度情報取得部
18 バウンディングボックス処理部
20 追跡情報データベース生成部
22 位置情報処理部
24 特徴情報処理部
26 状態情報処理部
28 同定処理部
30 同定情報提示部
32 連係処理部
34 ネットワーク
36 サーバー
38 デバイス
40 装置本体
41 情報取得部
45 ディスプレイ
46 表示画面部
48 タッチパネル
56 操作入力部
58 プロセッサ
60 記憶部
62 入出力部(I/O)
64 通信部
66 追跡情報データベース
67-1、67-2、・・・、67-n 追跡対象フアイル
68 画像情報部
70 深度情報部
72 バウンディングボックス部
74 グリッド点部
76 位置情報部
78 特徴情報部
80 分類情報部
82 向き情報部
82-1 正面部
82-2 左向き部
82-3 右向き部
82-4 不定部
84 状態情報部
84-1 移動距離情報部
84-2 重なり情報部
86 同定情報部
88 履歴情報部
100 向き情報テーブル
102 取得部位情報部
102-1 左目部
102-2 右目部
102-3 左耳部
102-4 右耳部
104 向き情報部
106 追跡エリア
上記目的を達成するため、本開示の物体追跡方法の一側面によれば、追跡対象から撮像により画像情報と深度情報を時系列で取得し、前記画像情報および前記深度情報により三次元の座標値を含む位置情報を時系列で取得する工程と、前記画像情報から前記追跡対象の向き情報と前記追跡対象の顔領域の特徴情報を時系列で取得し、取得した前記特徴情報を前記向き情報によって分類してデータベースに格納する工程と、前記位置情報を用いて前記追跡対象を同定する工程と、取得した前記画像情報と前記深度情報による前記位置情報で前記追跡対象を同定できない場合、該画像情報から前記追跡対象の向き情報と顔領域の前記特徴情報を取得し、この取得した前記特徴情報と前記データベースの前記向き情報によって分類された前記特徴情報とを比較して、前記追跡対象を同定する工程とを含む。
この物体追跡方法において、さらに、前記画像情報から顔領域情報を時系列で取得し、該顔領域情報から少なくとも目または耳の部位情報を取得する工程と、前記部位情報を用いて前記追跡対象の前記向き情報を取得し、該向き情報により前記特徴情報を分類して前記データベースに格納する工程と、前記位置情報で前記追跡対象を同定できない場合、前記画像情報から取得した前記部位情報を用いて前記追跡対象の前記向き情報を取得するとともに、前記画像情報から顔領域の前記特徴情報を取得し、この取得した前記特徴情報と前記データベースの前記向き情報によって分類された前記特徴情報とを比較して、前記追跡対象を同定する工程とを含んでもよい。
この物体追跡方法において、さらに、前記バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記位置情報を取得する工程を含んでもよい。
この物体追跡方法において、さらに、バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記部位情報を取得する工程を含んでもよい。
上記目的を達成するため、本開示のプログラムの一側面によれば、コンピュータによって実行するプログラムであって、追跡対象から撮像により画像情報と深度情報を時系列で取得し、前記画像情報および前記深度情報により三次元の座標値を含む位置情報を時系列で取得する機能と、前記画像情報から前記追跡対象の向き情報と前記追跡対象の顔領域の特徴情報を時系列で取得し、取得した前記特徴情報を前記向き情報によって分類してデータベースに格納する機能と、前記位置情報を用いて前記追跡対象を同定する機能と、取得した前記画像情報と前記深度情報による前記位置情報で前記追跡対象を同定できない場合、該画像情報から前記追跡対象の向き情報と顔領域の前記特徴情報を取得し、この取得した前記特徴情報と前記データベースの前記向き情報によって分類された前記特徴情報とを比較して、前記追跡対象を同定する機能とを前記コンピュータによって実行させる。
このプログラムにおいて、さらに、前記画像情報から顔領域情報を時系列で取得し、該顔領域情報から少なくとも目または耳の部位情報を取得する機能と、前記部位情報を用いて前記追跡対象の前記向き情報を取得し、該向き情報により前記特徴情報を分類して前記データベースに格納する機能と、前記位置情報で前記追跡対象を同定できない場合、前記画像情報から取得した前記部位情報を用いて前記追跡対象の前記向き情報を取得するとともに、前記画像情報から顔領域の前記特徴情報を取得し、この取得した前記特徴情報と前記データベースの前記向き情報によって分類された前記特徴情報とを比較して、前記追跡対象を同定する機能とを前記コンピュータによって実行させてもよい。
このプログラムにおいて、さらに、前記バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記位置情報を取得する機能を前記コンピュータによって実行させてもよい。
このプログラムにおいて、さらに、バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記部位情報を取得する機能を前記コンピュータによって実行させてもよい。
上記目的を達成するため、本開示の物体追跡システムの一側面によれば、追跡対象を表す少なくとも二次元の画像情報を時系列で取得する画像情報取得部と、前記追跡対象の深度情報を時系列で取得する深度情報取得部と、前記画像情報から前記追跡対象の向き情報と特徴情報を取得する特徴情報取得部と、取得した前記特徴情報を前記向き情報によって分類して格納するデータベースと、前記画像情報と前記深度情報を用いて前記追跡対象の位置情報を取得し、該位置情報を用いて前記追跡対象を同定し、該位置情報で同定できない場合、前記画像情報から前記追跡対象の向き情報と顔領域の前記特徴情報を取得し、この取得した前記特徴情報と前記データベースの前記向き情報によって分類された前記特徴情報比較して前記追跡対象を同定する同定処理部と、前記追跡対象を表す画像情報とともに追跡情報を提示する情報提示部とを含む。
上記目的を達成するため、本開示の記録媒体の一側面によれば、前記プログラムを格納し、または、該データベースを格納した記録媒体である。

Claims (16)

  1. 追跡対象から撮像により画像情報と深度情報を時系列で取得し、前記画像情報および前記深度情報により三次元の座標値を含む位置情報を時系列で取得する工程と、
    前記位置情報を用いて前記追跡対象を同定する工程と、
    を含む、物体追跡方法。
  2. さらに、追跡中、前記追跡対象の現時点の位置情報と直近の位置情報を時系列で比較して前記追跡対象の移動距離を算出する工程と、
    前記移動距離が閾値以内であれば、前記追跡対象を同定する工程と、
    を含む、請求項1に記載の物体追跡方法。
  3. さらに、前記画像情報から前記追跡対象の特徴情報を時系列で取得する工程と、
    前記追跡対象を前記位置情報によって同定できない場合、前記特徴情報を用いて同定する工程と、
    を含む、請求項1または請求項2に記載の物体追跡方法。
  4. さらに、追跡中の追跡対象と他の追跡対象の画像間に重なりを生じ、または追跡対象のバウンディングボックスと他の追跡対象のバウンディングボックスとの間に重なりを生じた場合、該重なりの直前の特徴情報と、前記重なりの解消時点の特徴情報とを対比して追跡対象を同定する工程を含む、請求項1ないし請求項3の何れかに記載の物体追跡方法。
  5. さらに、前記画像情報から顔領域情報を時系列で取得し、該顔領域情報から少なくとも目または耳の部位情報を取得する工程と、
    前記部位情報を用いて前記追跡対象の向き情報を取得し、該向き情報により特徴情報を分類する工程と、
    前記向き情報で分類された前記特徴情報により前記追跡対象を同定する工程と、
    を含む、請求項1ないし請求項4の何れかの請求項に記載の物体追跡方法。
  6. さらに、前記バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記部位情報または前記位置情報を取得する工程を含む、請求項4または請求項5に記載の物体追跡方法。
  7. コンピュータによって実行するプログラムであって、
    追跡対象から撮像により画像情報と深度情報を時系列で取得し、前記画像情報および前記深度情報により三次元の座標値を含む位置情報を時系列で取得する機能と、
    前記位置情報を用いて前記追跡対象を同定する機能と、
    を前記コンピュータによって実行させるためのプログラム。
  8. さらに、追跡中、前記追跡対象の現時点の位置情報と直近の位置情報を時系列で比較して前記追跡対象の移動距離を算出する機能と、
    前記移動距離が閾値以内であれば、前記追跡対象を同定する機能と、
    を前記コンピュータによって実行させるための請求項7に記載のプログラム。
  9. さらに、前記画像情報から前記追跡対象の特徴情報を時系列で取得する機能と、
    前記追跡対象を前記位置情報によって同定できない場合、前記特徴情報を用いて同定する機能と、
    を前記コンピュータによって実行させるための請求項7または請求項8に記載のプログラム。
  10. さらに、追跡中の追跡対象と他の追跡対象の画像間に重なりを生じ、または追跡対象のバウンディングボックスと他の追跡対象のバウンディングボックスとの間に重なりを生じた場合、該重なりの直前の特徴情報と、前記重なりの解消時点の特徴情報とを対比して追跡対象を同定する機能を前記コンピュータによって実行させるための請求項7ないし請求項9の何れかの請求項に記載のプログラム。
  11. さらに、前記画像情報から顔領域情報を時系列で取得し、該顔領域情報から少なくとも目または耳の部位情報を取得する機能と、
    前記部位情報を用いて前記追跡対象の向き情報を取得し、該向き情報により特徴情報を分類する機能と、
    前記向き情報で分類された前記特徴情報により前記追跡対象を同定する機能と、
    を前記コンピュータによって実行させるための請求項7ないし請求項10に記載のプログラム。
  12. さらに、前記バウンディングボックスを分割して複数行、複数列のグリッドを形成し、該グリッドの座標値で特定される前記部位情報または前記位置情報を取得する機能を前記コンピュータによって実行させるための請求項10または請求項11の何れかの請求項に記載のプログラム。
  13. 追跡対象を表す少なくとも二次元の画像情報を時系列で取得する画像情報取得部と、
    前記追跡対象の深度情報を時系列で取得する深度情報取得部と、
    前記画像情報から前記追跡対象の特徴情報を取得する特徴情報取得部と、
    前記画像情報と前記深度情報を用いて前記追跡対象の位置情報を取得し、該位置情報を用いて前記追跡対象を同定し、該位置情報で同定できない場合、前記特徴情報を用いて前記追跡対象を同定する同定処理部と、
    前記追跡対象を表す画像情報とともに追跡情報を提示する情報提示部と、
    を含む、物体追跡システム。
  14. 少なくとも前記画像情報取得部、前記深度情報取得部、前記特徴情報取得部および前記同定処理部を備え、追跡対象の追跡情報を出力する二以上のデバイスと、
    各デバイスから前記追跡情報を取得し、前記追跡対象の追跡角度または追跡範囲を拡張させて前記追跡対象を追跡するサーバーと、
    を備える、請求項13に記載の物体追跡システム。
  15. 少なくとも追跡対象を撮像し、画像情報を時系列で出力する撮像部と、
    前記追跡対象に対して光を照射して測距し、前記追跡対象の深度情報を時系列で出力する光検出・測距部と、
    前記画像情報と前記深度情報を用いて前記追跡対象の位置情報を取得し、前記画像情報を用いて前記追跡対象の特徴情報を取得し、前記位置情報を用いて前記追跡対象を同定し、前記位置情報で同定できない場合、前記特徴情報を用いて前記追跡対象を同定する処理部と、
    前記追跡対象の画像を提示し、該画像に追跡表示を提示する情報提示部と、
    を含む、物体追跡装置。
  16. 請求項1ないし請求項6に記載の物体追跡方法、請求項7ないし請求項12に記載のプログラム、請求項13または請求項14に記載の物体追跡システム、請求項15に記載の物体追跡装置の何れかで用いられる画像情報、深度情報、バウンディングボックス情報、位置情報、同定情報、追跡情報の何れかを格納し、または、該データベースを格納した、記録媒体。
JP2021212552A 2021-12-27 2021-12-27 物体追跡の方法、プログラム、システムおよび記録媒体 Active JP7187655B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021212552A JP7187655B1 (ja) 2021-12-27 2021-12-27 物体追跡の方法、プログラム、システムおよび記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021212552A JP7187655B1 (ja) 2021-12-27 2021-12-27 物体追跡の方法、プログラム、システムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP7187655B1 JP7187655B1 (ja) 2022-12-12
JP2023096653A true JP2023096653A (ja) 2023-07-07

Family

ID=84418210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021212552A Active JP7187655B1 (ja) 2021-12-27 2021-12-27 物体追跡の方法、プログラム、システムおよび記録媒体

Country Status (1)

Country Link
JP (1) JP7187655B1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111946A (ja) * 1996-10-04 1998-04-28 Matsushita Electric Ind Co Ltd 画像追跡装置
JP2004053278A (ja) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
JP2007310480A (ja) * 2006-05-16 2007-11-29 Toyota Motor Corp 認識装置および認識方法
JP2011039584A (ja) * 2009-08-06 2011-02-24 Secom Co Ltd 不審物検知装置
JP2016071830A (ja) * 2014-09-26 2016-05-09 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2018205870A (ja) * 2017-05-31 2018-12-27 Kddi株式会社 オブジェクト追跡方法および装置
JP2019101526A (ja) * 2017-11-29 2019-06-24 Kddi株式会社 オブジェクト識別装置および方法
JP2021012657A (ja) * 2019-07-09 2021-02-04 キヤノン株式会社 情報処理装置、情報処理方法、カメラ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111946A (ja) * 1996-10-04 1998-04-28 Matsushita Electric Ind Co Ltd 画像追跡装置
JP2004053278A (ja) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
JP2007310480A (ja) * 2006-05-16 2007-11-29 Toyota Motor Corp 認識装置および認識方法
JP2011039584A (ja) * 2009-08-06 2011-02-24 Secom Co Ltd 不審物検知装置
JP2016071830A (ja) * 2014-09-26 2016-05-09 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
JP2018205870A (ja) * 2017-05-31 2018-12-27 Kddi株式会社 オブジェクト追跡方法および装置
JP2019101526A (ja) * 2017-11-29 2019-06-24 Kddi株式会社 オブジェクト識別装置および方法
JP2021012657A (ja) * 2019-07-09 2021-02-04 キヤノン株式会社 情報処理装置、情報処理方法、カメラ

Also Published As

Publication number Publication date
JP7187655B1 (ja) 2022-12-12

Similar Documents

Publication Publication Date Title
JP6295645B2 (ja) 物体検出方法及び物体検出装置
US8577151B2 (en) Method, apparatus, and program for detecting object
US9117281B2 (en) Surface segmentation from RGB and depth images
EP2879022A1 (en) Three-dimensional user-interface device, and three-dimensional operation method
JP2013156718A (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
CA3094424A1 (en) Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
KR20100017212A (ko) 볼륨 인식 방법 및 시스템
KR20120019008A (ko) 복수의 객체를 추적하는 객체 추적 방법 및 장치
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
US11823394B2 (en) Information processing apparatus and method for aligning captured image and object
JP2016170610A (ja) 三次元モデル処理装置およびカメラ校正システム
JP2014071501A (ja) 画像処理装置、方法、及びプログラム
US20210348927A1 (en) Information processing apparatus, information processing method, and recording medium
US11222439B2 (en) Image processing apparatus with learners for detecting orientation and position of feature points of a facial image
US11423622B2 (en) Apparatus for generating feature positions in a virtual world, information processing method, and storage medium
WO2021250808A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7187655B1 (ja) 物体追跡の方法、プログラム、システムおよび記録媒体
US11989928B2 (en) Image processing system
JP6769859B2 (ja) 画像処理装置及び画像処理方法
JP7375806B2 (ja) 画像処理装置、及び画像処理方法
WO2022079794A1 (ja) 画像選択装置、画像選択方法、及びプログラム
US20220207832A1 (en) Method and apparatus for providing virtual contents in virtual space based on common coordinate system
JP2010113562A (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP7096176B2 (ja) 物体位置推定装置およびその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R150 Certificate of patent or registration of utility model

Ref document number: 7187655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150