JP6647134B2 - 被写体追跡装置及びそのプログラム - Google Patents

被写体追跡装置及びそのプログラム Download PDF

Info

Publication number
JP6647134B2
JP6647134B2 JP2016095717A JP2016095717A JP6647134B2 JP 6647134 B2 JP6647134 B2 JP 6647134B2 JP 2016095717 A JP2016095717 A JP 2016095717A JP 2016095717 A JP2016095717 A JP 2016095717A JP 6647134 B2 JP6647134 B2 JP 6647134B2
Authority
JP
Japan
Prior art keywords
image
subject
tracking
visible image
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016095717A
Other languages
English (en)
Other versions
JP2017204757A (ja
Inventor
真介 横澤
真介 横澤
高橋 正樹
正樹 高橋
山内 結子
結子 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2016095717A priority Critical patent/JP6647134B2/ja
Publication of JP2017204757A publication Critical patent/JP2017204757A/ja
Application granted granted Critical
Publication of JP6647134B2 publication Critical patent/JP6647134B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、可視画像と非可視画像とを用いて、被写体を追跡する被写体追跡装置及びそのプログラムに関する。
従来、可視画像及び赤外画像を同時に撮影する発明が提案されている(例えば、特許文献1〜3)。また、同時に撮影した可視画像及び赤外画像を組み合わせて、被写体を追跡することも可能である(以後、「従来技術」と呼ぶ)。すなわち、この従来技術は、被写体に貼り付けた赤外線マーカを検出できた場合には、赤外画像により被写体を追跡し、赤外線マーカを検出できない場合には、赤外画像から可視画像に切り替えて追跡を継続する。
特開2005−79773号公報 特開2006−270798号公報 特開2007−334311号公報
しかしながら、従来技術では、赤外画像による追跡から可視画像による追跡に切り替えたとき、被写体の追跡ができない場合がある。従来技術では、例えば、被写体の動きがフレームレートを超える場合や被写体が別の物体に隠れてしまう場合には、赤外画像の赤外線マーカと、被写体の追跡を切り替えた後の可視画像の被写体との位置ずれが大きくなってしまい、被写体の追跡ができない場合がある。
そこで、本発明は、被写体を頑健に追跡できる被写体追跡装置及びそのプログラムを提供することを課題とする。
前記した課題に鑑みて、本発明に係る被写体追跡装置は、可動域を有する被写体を可視光により撮影した可視画像と、可視画像と同一の光軸及び同一の画角で被写体を非可視光により撮影した非可視画像とを用いて、被写体を追跡する被写体追跡装置であって、非可視画像追跡部と、追跡制御部と、学習部と、可視画像追跡部と、を備える構成とした。
かかる構成によれば、被写体追跡装置は、非可視画像追跡部によって、非可視画像を入力し、入力した非可視画像から、被写体に付した非可視光マーカを検出し、検出した非可視光マーカを被写体として追跡する。
ここで、可視画像とは、可視光(肉眼で見える波長の光)で撮影した画像のことである。また、非可視画像とは、非可視光(肉眼で見えない波長の光)で撮影した画像のことである。
被写体追跡装置は、追跡制御部によって、非可視画像で被写体を追跡できたか否かを判定する。
被写体追跡装置は、学習部によって、非可視画像で被写体を追跡できた場合には、非可視画像の非可視光マーカに対応した位置にある可視画像の被写体の画像特徴量をオンライン学習することで、被写体の識別器を生成する。
被写体追跡装置は、可視画像追跡部によって、非可視画像で被写体を追跡できなかった場合には、識別器により可視画像から被写体を検出し、可視画像から検出した被写体を追跡する。
被写体追跡装置は、追跡制御部によって、非可視画像で被写体を追跡できた場合には、非可視画像で追跡した被写体の位置を出力し、非可視画像で被写体を追跡できなかった場合には、可視画像で追跡した被写体の位置を出力する。
つまり、被写体追跡装置は、非可視画像による追跡中に可視画像の被写体をオンライン学習し、非可視画像による追跡が行えない場合には、可視画像により被写体を追跡する。このとき、被写体追跡装置は、可視画像による追跡にオンライン学習した識別器を用いるので、例えば、被写体の動きが激しい場合や被写体が別の物体に隠れてしまう場合でも、可視画像で被写体を追跡することができる。
なお、被写体追跡装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる被写体追跡プログラムで実現することもできる。
本発明によれば、以下のような優れた効果を奏する。
本発明に係る被写体追跡装置は、非可視画像による追跡中に可視画像の被写体をオンライン学習し、非可視画像による追跡が行えない場合、オンライン学習した識別器を用いて、可視画像による追跡を行うので、頑健な被写体追跡を実現することができる。
実施形態における被写体追跡システムの概略構成図である。 赤外線マーカの説明図である。 図1の被写体追跡装置の構成を示すブロック図である。 図1の被写体追跡装置の動作を示すフローチャートである。 赤外画像の一例を示す図である。 図4の被写体検出処理を示すフローチャートである。 2値化した赤外画像の一例を示す図である。 可視画像の一例を示す図である。 図4のオンライン学習処理を示すフローチャートである。 可視画像に設定した正例及び負例のパッチの説明図である。 色ヒストグラムの説明図であり、(a)は可視画像の一例を示し、(b)はR画像の画素値のヒストグラムを示し、(c)はG画像の画素値のヒストグラムを示し、(d)はB画像の画素値のヒストグラムを示す。 LBPの説明図であり、(a)は画像領域内の画素値を示し、(b)は周辺画素への割当結果を示し、(c)は周辺画素の重みを示す。 SVMの説明図である。 確率的勾配降下法のアルゴリズムの説明図である。 確率的勾配降下法による線形SVMのアルゴリズムの説明図である。 図4の追跡処理を示すフローチャートである。 追跡対象領域の設定の説明図である。 (a)は可視画像の一例を示す画像であり、(b)は(a)の可視画像をグレースケール化した画像であり、(c)は赤外画像の一例を示す画像であり、(d)は(c)の赤外画像を2値化した画像である。 (a)は可視画像の一例を示す画像であり、(b)は(a)の可視画像をグレースケール化した画像であり、(c)は赤外画像の一例を示す画像であり、(d)は(c)の赤外画像を2値化した画像である。
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の手段には同一の符号を付し、説明を省略した。
[被写体追跡システムの構成]
図1を参照し、実施形態における被写体追跡システム1の構成について説明する。
被写体追跡システム1は、可視画像及び赤外画像を用いて、動いている被写体9を追跡するものであり、図1に示すように、赤外線投光部10と、撮影部20と、被写体追跡装置30とを備える。
本実施形態では、被写体追跡システム1は、非可視光として赤外線(赤外光)を利用することとする。また、被写体追跡システム1は、フェンシングの試合を撮影し、選手が使用する剣の先端が高速で可動な被写体9を追跡する。
赤外線投光部10は、被写体9が反射した赤外線を撮影して赤外画像(非可視画像)を生成するために、被写体9に赤外線を投光する。本実施形態では、赤外線投光部10は、後述する撮影部20と同一光軸であることが好ましいので、一般的な赤外線LED(Light Emitting Diode)を撮影部20のレンズの周囲に同心円状に配置した。赤外線は、人間の視覚で知覚されないため、赤外画像を撮影するために赤外線投光部10が常時投光したとしても、人間に不快感を与えることがない。
ここで、被写体9は、図2に示すように、赤外線投光部10が放射する赤外線を反射するため、赤外線を反射する赤外線マーカ(非可視光マーカ)12を付している。本実施形態では、1人の選手が持つフェンシングの剣の先端部に、赤外線マーカ12を貼り付けている。この赤外線マーカ12は、追跡対象となる被写体9を赤外画像で特定するためのマーカである。赤外線マーカ12は、例えば、この赤外線マーカ12に入射した赤外線を、その赤外線が入射してきた方向に反射する再帰性反射材である。これにより、被写体追跡システム1は、赤外画像を撮影する際、外乱となる赤外線の影響を低減することができる。
なお、赤外線マーカ12は、可視画像から被写体9を検出する基準となるので、被写体9の特徴部分(例えば、被写体9の先端)に付すことが好ましい。
また、赤外線マーカ12は、その形状や大きさが特に制限されず、被写体9の先端部を一周するように環状に貼り付けてもよい。
撮影部20は、被写体9の可視画像及び赤外画像を同時に撮影する。ここで、撮影部20は、単一のレンズに入射した光をプリズム(不図示)で分光し、同一光軸及び同一画角で同一画素数の可視画像及び赤外画像を撮影し、被写体追跡装置30に出力する。これにより、可視画像及び赤外画像は、座標変換等の演算を行うことなく、両画像間で画素位置を対応づけることができる。さらに、撮影部20は、可視画像の撮影素子の前段に、赤外線をカットするためのフィルタ(不図示)を備える。
なお、撮影部20の詳細は、例えば、特開2006−270798号公報に記載されているため、これ以上の説明を省略する。
ここで、可視画像とは、被写体9を可視光(例えば、360nm〜830nmの波長領域)で撮影した画像のことである。
また、赤外画像とは、被写体9を赤外線(例えば、0.7μm〜1mmの波長領域)で撮影した画像のことである。
被写体追跡装置30は、撮影部20から入力した可視画像及び赤外画像を用いて、被写体9を追跡する。つまり、被写体追跡装置30は、赤外画像による追跡に加え、可視画像による追跡を補助的に行う。具体的には、被写体追跡装置30は、赤外画像により追跡を行うと共に、赤外画像による追跡中、可視画像の被写体9をオンライン学習する。そして、被写体追跡装置30は、赤外画像による追跡が行えない場合には、オンライン学習した識別器を用いて、可視画像による追跡を行う。
[被写体追跡装置の構成]
図3を参照し、被写体追跡装置30の構成について説明する。
図3に示すように、被写体追跡装置30は、赤外画像追跡部(非可視画像追跡部)310と、追跡制御部320と、可視画像追跡部330と、学習部340と、出力部350とを備える。
赤外画像追跡部310は、撮影部20より入力した赤外画像から、被写体9に付した赤外線マーカ12を検出し、検出した赤外線マーカ12を被写体9として追跡する。
追跡制御部320は、赤外画像で被写体9(赤外線マーカ12)を追跡できたか否かを判定し、判定結果に基づいて、赤外画像又は可視画像の何れを用いて追跡するように、可視画像追跡部330及び学習部340の制御を行う。
可視画像追跡部330は、赤外画像で被写体9を追跡できなかった場合には、撮影部20より入力した可視画像から被写体9を検出し、検出した被写体9を追跡する。また、可視画像追跡部330は、後述する色ヒストグラム生成部331と、LBP(Local Binary Pattern)算出部333とを備える。
学習部340は、赤外画像の赤外線マーカ12に対応した位置にある可視画像の被写体9の多次元画像特徴量をオンライン学習することで、被写体9の識別器を生成する。
出力部350は、追跡制御部320から被写体9の追跡結果を入力し、任意の形式で出力する。例えば、出力部350は、被写体9の追跡結果を、画像内における被写体9の座標値で出力する。この他、出力部350は、被写体9の軌跡を可視画像にCG合成し、CG合成した画像を出力してもよい。
なお、被写体追跡装置30の各手段は、その詳細を後述する。
[被写体追跡装置の全体動作]
図3,図4を参照し、被写体追跡装置30の動作について説明する。
図4に示すように、追跡制御部320は、初期化処理を行う。この初期化処理は、可視画像追跡部330が行う被写体9の検出処理を初期化すると共に、撮影部20から可視画像及び赤外画像を入力可能な初期状態に戻す処理である(ステップS1)。
被写体追跡装置30は、撮影部20から赤外画像を入力し、後述する赤外画像による被写体検出処理を行う(ステップS2)。
追跡制御部320は、赤外画像から被写体9を検出できたか否かを判定する(ステップS3)。
ここで、追跡制御部320は、赤外画像追跡部310から入力した被写体9の位置が赤外画像内での座標である場合には、赤外画像から被写体9を検出できたと判定する。
一方、追跡制御部320は、赤外画像追跡部310から入力した被写体9の位置が赤外画像内での座標でない場合、又は、ヌルの場合には、赤外画像から被写体9を検出できなかったと判定する。
被写体9を検出できた場合には(ステップS3でYes)、赤外画像追跡部310は、検出した被写体9を追跡する(ステップS4)。
被写体追跡装置30は、後述する可視画像によるオンライン学習処理を行う(ステップS5)。
出力部350は、ステップS4又はステップS8における被写体9の追跡結果を出力する(ステップS6)。
追跡制御部320は、終了フラグの有無を判定する(ステップS7)。例えば、被写体追跡装置30のユーザがキーボードやマウス等の入力手段を操作することで、この終了フラグの有無を手動で設定できる。
終了フラグが無しの場合には(ステップS7でNo)、被写体追跡装置30は、ステップS2の処理に戻る。
終了フラグが有りの場合には(ステップS7でYes)、被写体追跡装置30は、処理を終了する。
被写体9を検出できない場合には(ステップS3でNo)、被写体追跡装置30は、後述する可視画像による追跡処理を行う(ステップS8)。
追跡制御部320は、可視画像で被写体9を追跡できたか否かを判定する(ステップS9)。
ここで、追跡制御部320は、可視画像追跡部330から入力した被写体9の位置が可視画像内での座標である場合には、可視画像で被写体9を追跡できたと判定する。
一方、追跡制御部320は、可視画像追跡部330から入力した被写体9の位置が可視画像内での座標でない場合、又は、ヌルの場合には、可視画像で被写体9を追跡できなかったと判定する。
可視画像で追跡できない場合には(ステップS9でNo)、被写体追跡装置30は、ステップS2の処理に戻る。
可視画像で追跡できた場合には(ステップS9でYes)、被写体追跡装置30は、ステップS6の処理を行う。
[赤外画像による被写体検出処理]
図3,図5〜図7を参照し、図4の赤外画像による被写体検出処理について説明する。
赤外画像は、図5に示すように、赤外線マーカ12の領域で反射光が強くなるので輝度が高くなる一方、赤外線マーカ12以外の領域では赤外線が散乱するので輝度が低くなる。従って、赤外画像では、この輝度差により赤外線マーカ12の領域と赤外線マーカ12以外の領域とを識別できる。なお、図5では、輝度が低くなる赤外線マーカ12以外の領域を破線で図示した。
図6に示すように、赤外画像追跡部310は、撮影部20から入力した赤外画像を予め設定した閾値により2値化する(ステップS20)。この閾値は、赤外画像における赤外線マーカ12からの反射光の検出感度に応じて設定する。
赤外画像追跡部310は、モルフォロジー処理によりノイズを除去する(ステップS21)。例えば、赤外画像を2値化し、注目画素の周辺に1画素でも白い画素があれば白に置き換え、逆に周辺に1画素でも黒い画素があれば黒に置き換える処理を行う。具体的には、図5の赤外画像に2値化処理及びモルフォロジー処理を施すと、図7のように、赤外線マーカ12の領域が高輝度なので白くなり、赤外線マーカ12以外の領域が低輝度なので黒くなる。これにより、赤外画像追跡部310は、ノイズによる赤外線マーカ12の誤検出を防ぎ、赤外線マーカ12からの反射光を安定して検出することができる。
赤外画像追跡部310は、赤外画像で被写体9の反射光を検出した領域に対し、後述するラベリング処理を施し、反射光を検出した領域毎の重心位置又は中心位置を算出する(ステップS22)。
なお、ラベリング処理とは、反射光を検出した各領域を一意に識別するラベル(例えば、1,2,…のような連番)を各領域に付加する処理のことである。
赤外画像追跡部310は、検出した領域数が1であるか否かを判定する(ステップS23)。つまり、検出した領域数が1の場合には、反射光を検出した領域を赤外線マーカ12の領域として扱う。一方、検出した領域数が0の場合には、赤外線マーカ12からの反射光が検出できなかったとして扱う。さらに、反射光を検出した領域数が2以上の場合には、赤外線の外乱等によるノイズの影響のため、赤外線マーカ12の領域を特定できないとして扱う。
検出した領域数が1の場合には(ステップS23でYes)、赤外画像追跡部310は、検出した領域の位置を被写体9の位置として追跡制御部320に出力し、処理を終了する(ステップS24)。
検出した領域数が1でない場合には(ステップS23でNo)、赤外画像追跡部310は、被写体9の位置を検出できなかった旨の通知(例えば、被写体9の位置がヌル)を追跡制御部320に出力し、処理を終了する(ステップS25)。
[可視画像によるオンライン学習処理]
図3,図8〜図10を参照し、図4の可視画像によるオンライン学習処理について説明する。
図8に示すように、撮影部20は、可視画像を赤外画像と同一光軸及び同一画角で同時に撮影する。これにより、追跡制御部320は、赤外画像から得た被写体9の位置を可視画像に対応付けることができる。また、赤外画像を得るために赤外線を被写体9に照射しているが、撮影部20が備えるフィルタによって可視画像には影響を与えないようになっている。
図9に示すように、可視画像追跡部330は、赤外画像で追跡した被写体9の位置を基準として、正例のパッチA(図10)を可視画像に設定する(ステップS50)。また、可視画像追跡部330は、図10に示すように、正例のパッチAを含まないように負例のパッチBを可視画像に設定する。例えば、可視画像追跡部330は、負例のパッチBを、可視画像で正例のパッチを含まない箇所にランダムに設定する。
ここで、正例のパッチA及び負例のパッチBは、予め設定したサイズを有する矩形領域である。また、正例のパッチA及び負例のパッチBは、その個数が特に制限されないが、例えば、1個ずつ設定できる。
可視画像追跡部330は、正例のパッチA及び負例のパッチBから、画像特徴量を算出する(ステップS51)。例えば、可視画像追跡部330は、正例のパッチA及び負例のパッチBについて、後述する色ヒストグラム及びLBPからなる多次元画像特徴量を算出する。
学習部340は、正例のパッチA及び負例のパッチBについての画像特徴量をオンライン学習し、後述する被写体9の識別器を生成する(ステップS52)。
<多次元画像特徴量>
図3,図11,図12を参照し、可視画像追跡部330が算出する多次元画像特徴量について詳細に説明する。
ここで、可視画像追跡部330は、被写体9の形状と色に注目し、色ヒストグラム及びLBPからなる多次元画像特徴量を算出する。
色ヒストグラム生成部331は、各原色の画像における画素値(輝度値)のヒストグラムを求める。
まず、色ヒストグラム生成部331は、図11(a)の可視画像から、赤色成分を抽出したR画像、緑色成分を抽出したG画像、及び、青色成分を抽出したB画像を生成する。そして、色ヒストグラム生成部331は、図11(b)〜(d)に示すように、R画像、G画像及びB画像において、それぞれの画素値の分布を表したヒストグラムを算出する。例えば、色ヒストグラム生成部331は、画素値が0〜255の範囲となる場合には、この範囲を4等分し、0〜63、64〜127、128〜191、192〜255のグループに分割する。そして、色ヒストグラム生成部331は、R画像、G画像及びB画像のそれぞれで、各グループに含まれる画素値の数を格納した配列を生成する。例えば、色ヒストグラム生成部331は、R画像について、0〜63のグループに対応したR[0]と、64〜127のグループに対応したR[1]と、128〜191のグループに対応したR[2]と、192〜255のグループに対応したR[3]とを格納した配列を生成する(G画像及びB画像も同様)。そして、色ヒストグラム生成部331は、R[0]〜R[3]、G[0]〜G[3]、B[0]〜B[3]を要素とする色ヒストグラムを生成する。
LBP算出部333は、所定サイズの画素領域において、中心画素と周辺画素との画素値(輝度値)の差を算出し、その正負に応じて、‘0’又は‘1’を割り当てる。
図12(a)に示すように、可視画像に含まれる3×3の画素領域を一例として考える。図12(a)の数値は、画素領域の各画素の画素値を表す。ここで、LBP算出部333は、中心画素の画素値‘6’を各周辺画素の画素値から減算した値を求め、図12(b)に示すように、その値が0以上なら‘1’、その値が負なら‘0’を割り当てる。ここで、LBP算出部333は、図12(c)に示すように、左上の周辺画素から時計回りで順番に2の重みを予め設定しておき(n=0,…,7)、図12(b)の値と図12(c)の重みを乗じ、その総和をLBP特徴量として求める。例えば、図12の例であれば、LBP特徴量は、1+16+32+64+128=241となる。
なお、LBPの詳細は、以下の参考文献に詳細に記載されているため、これ以上の説明を省略する。
参考文献:長谷川修,"Local Binary Patternとその周辺,"情処研報,Vol.2012-CG-149,no.3,pp.1-6,Dec,2012.
<オンライン学習>
図3,図13〜図15を参照し、学習部340が行うオンライン学習について詳細に説明する。
本実施形態では、学習部340は、例えば確率的勾配降下法(SGD:Stochastic Gradient Descent)による線形SVM(Support Vector Machine)を用いて、オンライン学習する。
SVMでは、クラスAとクラスBとの真ん中を定義すべく、サポートベクトルとマージンという2つの概念を導入する。図13に示すように、サポートベクトルとは、分離超平面Cから一番近い各クラスのデータのことであり、サポートベクトルから分離超平面Cまでの距離をマージンと呼ぶ。
2次元の特徴空間において、●で図示したクラスAの訓練サンプル(例えば、正例のパッチAから算出した画像特徴量)と、■で図示したクラスBの訓練サンプル(例えば、負例のパッチBから算出した画像特徴量)とを与えたこととする。この場合、SVMでは、マージンが最大となるように、クラスAとクラスBとの真ん中に分離超平面Cを引く。そして、SVMでは、分離超平面Cを境界として、クラスAとクラスBとの訓練サンプルを識別(分類)する。
確率的勾配降下法による線形SVMは、下記式(1)で定義したSVMの目的関数について、図14の確率的勾配降下法のアルゴリズムを適用する手法である。ここで、式(1)が、図14で3行目のl(x(t),y(t),w(t))に対応する。
図14の3行目において、▽l(x(t),y(t),w(t))で式(1)の勾配を算出する。このとき、式(1)がmax関数を含むため、場合分けが必要になる。また、1−y(t)(t)=0となる点で微分不可能になるため、劣勾配を用いる。従って、下記式(2)〜式(5)のように場合分けを行って、式(1)の勾配を算出することになる。
その後、算出した勾配を確率的勾配降下法に適用し、図15のような学習アルゴリズムを構築する。図15では、3〜7行目のif文が、勾配算出時の場合分けに相当する。また、図15では、3行目のy(t)T(t)(t)≦1が式(5)の右辺上段に相当し、5行目のelseが式(5)の右辺下段に相当する。
[可視画像による追跡処理]
図3,図16を参照し、可視画像による追跡処理について説明する。
図16に示すように、追跡制御部320は、可視画像追跡部330が初期化済みであるか否かを判定する(ステップS80)。
この可視画像追跡部330は、可視画像による追跡が実行中であるか否かを判定するために、初期化が行われる。具体的には、可視画像追跡部330が初期化済みでない場合には、現フレームの可視画像から追跡を開始する。一方、可視画像追跡部330が初期化済みの場合には、可視画像による追跡を継続する。
可視画像追跡部330が初期化済みでない場合には(ステップS80でNo)、追跡制御部320は、直前の被写体9の位置(つまり、1フレーム前の赤外画像で追跡した被写体9の位置)を表した被写体位置情報を生成する。そして、可視画像追跡部330は、図17に示すように、被写体位置情報を参照し、被写体9の位置を中心として、追跡対象領域Dを可視画像に設定する(ステップS81)。この追跡対象領域Dは、正例のパッチA(図10)と同一の形状及びサイズとなる。
可視画像追跡部330は、追跡対象領域Dについて、正例のパッチAと同一の画像特徴量を算出する。そして、可視画像追跡部330は、算出した画像特徴量を学習部340の識別器に入力する。すると、学習部340の識別器は、追跡対象領域Dが被写体9を含む場合に正値を出力し、追跡対象領域Dが被写体9を含まない場合に負値を出力する。従って、可視画像追跡部330は、この出力値に応じて、追跡対象領域Dが被写体9を含むか否かを判定できる(ステップS82)。
追跡対象領域Dが被写体9を含まない場合には(ステップS82でNo)、可視画像追跡部330は、コーナー検出アルゴリズムを可視画像に適用し、可視画像からコーナーを検出する(ステップS83)。このコーナー検出アルゴリズムは、物体が先端等の特徴を有するという前提に基づく手法であり、例えば、ShiとTomashiの手法を適用できる。このShiとTomashiの手法は、ウィンドウ領域内の画像を微小シフトさせたとき、画素値(輝度値)の差の二乗和(SSD:Sum of Squared difference)が大きくなる点を検出する。
なお、ShiとTomashiの手法は、以下の参考文献に詳細に記載されているため、これ以上の説明を省略する。
参考文献:J. Shi and C. Tomasi,"Good features to track,"Proc.CVPR'94,pp.593-600,Seattle,United States,June,1994.DOI:10.1109/CVPR.1994.323794
可視画像追跡部330は、検出した各コーナーを中心とした新たな追跡対象領域Dを設定し、この追跡対象領域Dの画像特徴量を算出する。そして、可視画像追跡部330は、算出した画像特徴量を学習部340の識別器に入力する。このようにして、可視画像追跡部330は、検出したコーナーの領域(追跡対象領域D)が被写体9を含むか否かを判定する(ステップS84)。
追跡対象領域Dが被写体9を含む場合(ステップS82でYes)、又は、コーナーの領域が被写体9を含む場合には(ステップS84でYes)、追跡制御部320は、可視画像追跡部330を初期化する(ステップS85)。
可視画像追跡部330が初期化済みの場合(ステップS80でYes)、又は、ステップS85の処理に続いて、可視画像追跡部330は、任意の追跡アルゴリズムを追跡対象領域Dに適用する(ステップS86)。例えば、追跡アルゴリズムとしては、特に高速な処理を実現したMOSSE(Minimum Output Sum of Squared Error)が挙げられる。このMOSSEは、単一のフレームで初期化した相関フィルタを用いる手法である。
なお、MOSSEは、以下の参考文献に詳細に記載されているため、これ以上の説明を省略する。
参考文献:D.S.Bolme,J.R.Beveridge,B.A.Draper and Y.M.Lui,"Visual object tracking using adaptive correlation filters,"Proc.CVPR 2010,pp.2544-2550,San Francisco,United States,June,2010.DOI:10.1109/CVPR.2010.5539960
可視画像追跡部330は、追跡結果として、追跡した被写体9の重心位置又は中心位置を出力する(ステップS87)。
なお、コーナーの領域が被写体9を含まない場合には(ステップS84でNo)、可視画像追跡部330は、ステップS87の処理において、追跡結果として、追跡失敗(例えば、被写体9の位置がヌル)を出力する。
以上のように、実施形態に係る被写体追跡システム1は、赤外線を効率よく反射する赤外線マーカ12を被写体9に貼り付け、赤外線を照射することで、赤外線マーカ12からの反射光を得ることができる。このとき、被写体追跡システム1は、赤外線マーカ12に再帰性反射材を用いることで赤外線を照射する撮影方向からの赤外線のみが効率よく反射するため、赤外画像中で赤外線マーカ12を容易に識別することが可能となる。
これにより、被写体追跡装置30は、赤外線マーカ12からの反射光を得られていれば、被写体9の頑健な追跡が可能となる。特に赤外画像による追跡は、可視画像による追跡では難しい被写体9の高速な移動や被写体9の変形に対して有効である。
また、被写体追跡装置30は、撮影部20が赤外線マーカ12からの反射光を得られない場合、又は、照明等の赤外線を発する物体が撮影範囲に入った場合には、正確な追跡が困難となる。そこで、被写体追跡装置30は、赤外画像だけでなく、これら要因に左右されない可視画像による追跡を併用する。このとき、被写体追跡装置30は、可視画像が含む被写体9の画像特徴量が刻々変化するため、赤外画像による追跡中に被写体9の画像特徴量をオンライン学習する。このオンライン学習の結果は、赤外画像による追跡から可視画像による追跡への切替判定や、可視画像による追跡中に追跡アルゴリズムが失敗した際の被写体9の再検出に利用できる。
以上、各実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した実施形態では、非可視光として赤外線を利用することとして説明したが、本発明は、赤外線以外の不可視光を利用することもできる。
前記した実施形態では、赤外線マーカに赤外線を投光することとして説明したが、本発明は、これに限定されない。例えば、被写体追跡システムでは、赤外線を能動的に発光する赤外線マーカを被写体に取り付けてもよい。この場合、被写体追跡システム1は、赤外線投光部が不要になると共に、赤外線マーカからより強い赤外光が得られるため、より頑健な被写体追跡を行うことができる。
前記した実施形態では、被写体の位置(座標)を出力することとして説明したが、本発明は、これに限定されない。例えば、被写体追跡システムでは、被写体の追跡結果を利用してCG描画することで、被写体の動きを可視化する映像表現を実現することができる。
前記した実施形態では、可視画像を1フレーム入力する毎にオンライン学習を行うこととして説明したが、本発明は、これに限定されない。可視画像において、被写体の見た目が変化する場合には、正例のパッチの画像特徴量も大きく変化することになる。従って、予め設定した範囲のフレームのみをオンライン学習の対象とすることで、オンライン学習の対象となる可視画像の間で被写体の見た目の変化が小さくなり、被写体をより正確に識別することができる。
前記した実施形態では、オンライン学習として、確率的勾配降下法による線形SVMを用いることとして説明したが、本発明は、これに限定されない。例えば、被写体追跡システムは、パーセプトロンやニューラルネットワークを用いて、オンライン学習を行ってもよい。
前記した実施形態では、被写体追跡装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、被写体追跡装置として協調動作させる被写体追跡プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
図18,図19を参照し、本発明の実施例について説明する。
図18は、被写体追跡装置における可視画像による追跡処理の実験結果例である。x及びyの数値が画像中の被写体の位置を表す。図18(a)の可視画像中の点は、赤外画像による追跡処理結果を表す。図18(a)の可視画像をグレースケール化すると、図18(b)のようになる。また、図18(c)の赤外画像を2値化すると、図18(d)のようになる。図18の場合、被写体に貼り付けた赤外線マーカから十分な反射光を得られるため、赤外画像による追跡処理を行うことができた。
図19(c)のように、赤外線マーカからの反射光の強度が弱い場合を考える。この場合、赤外画像を2値化すると、図19(d)のように、反射光から追跡対象の位置を特定できない。従って、図19(a)の可視画像による追跡処理を実行することになる。なお、図19(a)の可視画像中の点が可視画像による追跡処理結果を表し、四角形の領域が追跡対象領域を表す。
1 被写体追跡システム
10 赤外線投光部
20 撮影部
30 被写体追跡装置
310 赤外画像追跡部(非可視画像追跡部)
320 追跡制御部
330 可視画像追跡部
331 色ヒストグラム生成部
333 LBP算出部
340 学習部
350 出力部

Claims (5)

  1. 可動域を有する被写体を可視光により撮影した可視画像と、前記可視画像と同一の光軸及び同一の画角で前記被写体を非可視光により撮影した非可視画像とを用いて、前記被写体を追跡する被写体追跡装置であって、
    前記非可視画像を入力し、入力した前記非可視画像から、前記被写体に付した非可視光マーカを検出し、検出した前記非可視光マーカを前記被写体として追跡する非可視画像追跡部と、
    前記非可視画像で前記被写体を追跡できたか否かを判定する追跡制御部と、
    前記非可視画像で前記被写体を追跡できた場合、前記非可視画像の前記非可視光マーカに対応した位置にある前記可視画像の被写体の画像特徴量をオンライン学習することで、前記被写体の識別器を生成する学習部と、
    前記非可視画像で前記被写体を追跡できなかった場合、前記識別器により前記可視画像から前記被写体を検出し、前記可視画像から検出した前記被写体を追跡する可視画像追跡部と、を備え、
    前記追跡制御部は、前記非可視画像で前記被写体を追跡できた場合、前記非可視画像で追跡した前記被写体の位置を出力し、前記非可視画像で前記被写体を追跡できなかった場合、前記可視画像で追跡した前記被写体の位置を出力することを特徴とする被写体追跡装置。
  2. 前記学習部は、前記オンライン学習として、確率的勾配降下法による線形SVMを行うことを特徴とする請求項1に記載の被写体追跡装置。
  3. 前記可視画像追跡部は、前記非可視光マーカの位置を基準として所定サイズの正例画像領域を前記可視画像に設定し、前記正例画像領域と同一サイズで前記正例画像領域を含まない負例画像領域を前記可視画像に設定し、設定した前記正例画像領域及び前記負例画像領域の画像特徴量を算出し、
    前記学習部は、算出した前記正例画像領域及び前記負例画像領域の画像特徴量を前記オンライン学習することを特徴とする請求項1又は請求項2に記載の被写体追跡装置。
  4. 前記可視画像追跡部は、前記正例画像領域及び前記負例画像領域の画像特徴量として、色ヒストグラム及びLBPからなる多次元画像特徴量を算出することを特徴とする請求項3に記載の被写体追跡装置。
  5. コンピュータを、請求項1から請求項4の何れか一項に記載の被写体追跡装置として機能させるための被写体追跡プログラム。
JP2016095717A 2016-05-12 2016-05-12 被写体追跡装置及びそのプログラム Expired - Fee Related JP6647134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016095717A JP6647134B2 (ja) 2016-05-12 2016-05-12 被写体追跡装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016095717A JP6647134B2 (ja) 2016-05-12 2016-05-12 被写体追跡装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2017204757A JP2017204757A (ja) 2017-11-16
JP6647134B2 true JP6647134B2 (ja) 2020-02-14

Family

ID=60322447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016095717A Expired - Fee Related JP6647134B2 (ja) 2016-05-12 2016-05-12 被写体追跡装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6647134B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024035568A1 (en) * 2022-08-09 2024-02-15 The Johns Hopkins University Wide-angle monocular tracking using markers

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6983049B2 (ja) * 2017-12-06 2021-12-17 日本放送協会 オブジェクト追跡装置及びそのプログラム
CN115222776B (zh) * 2022-09-19 2022-12-27 中国人民解放军国防科技大学 匹配辅助视觉目标跟踪方法、装置、电子设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006050280A (ja) * 2004-08-05 2006-02-16 Sony Corp 撮像装置及び撮像方法
JP2011044871A (ja) * 2009-08-20 2011-03-03 Sony Corp シーンラベル生成装置、シーンラベル生成方法及びコンテンツ配信サーバ
JP2013025398A (ja) * 2011-07-15 2013-02-04 Tokyo Institute Of Technology 識別器生成装置、方法及びプログラム、並びにクラス認識器、方法及びプログラム
JP6459165B2 (ja) * 2013-11-20 2019-01-30 株式会社ニコン 焦点検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024035568A1 (en) * 2022-08-09 2024-02-15 The Johns Hopkins University Wide-angle monocular tracking using markers

Also Published As

Publication number Publication date
JP2017204757A (ja) 2017-11-16

Similar Documents

Publication Publication Date Title
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
KR102462818B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
Faro et al. Adaptive background modeling integrated with luminosity sensors and occlusion processing for reliable vehicle detection
JP2020107349A (ja) 物体追跡システム、物体追跡方法、プログラム
US9367758B2 (en) Feature extraction device, feature extraction method, and feature extraction program
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
CN110298297B (zh) 火焰识别方法和装置
AU2010338283B2 (en) Head recognition method
JP4825473B2 (ja) 顔向き判別装置
JP2008146539A (ja) 顔認証装置
US10489640B2 (en) Determination device and determination method of persons included in imaging data
JP6647134B2 (ja) 被写体追跡装置及びそのプログラム
KR20180020376A (ko) 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법
US9087231B2 (en) Object determination device
Ebihara et al. Efficient face spoofing detection with flash
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
JP2010002960A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Mousse et al. Fast moving object detection from overlapping cameras
GB2522259A (en) A method of object orientation detection
Kaichi et al. A hyperspectral approach for unsupervised spoof detection with intra-sample distribution
JP2007304732A (ja) 画像検出方法および画像検出装置
JP5172995B2 (ja) 顔向き判別装置およびコンピュータプログラム
CN113963391A (zh) 基于双目摄像头的静默活体检测方法及系统
Huerta et al. Multimodal feedback fusion of laser, image and temporal information
Mao Tracking a tennis ball using image processing techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R150 Certificate of patent or registration of utility model

Ref document number: 6647134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees