JP7283734B2 - 追跡装置、追跡方法、及びプログラム - Google Patents

追跡装置、追跡方法、及びプログラム Download PDF

Info

Publication number
JP7283734B2
JP7283734B2 JP2019024019A JP2019024019A JP7283734B2 JP 7283734 B2 JP7283734 B2 JP 7283734B2 JP 2019024019 A JP2019024019 A JP 2019024019A JP 2019024019 A JP2019024019 A JP 2019024019A JP 7283734 B2 JP7283734 B2 JP 7283734B2
Authority
JP
Japan
Prior art keywords
tracking
area
unit
image
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019024019A
Other languages
English (en)
Other versions
JP2020135078A (ja
Inventor
忠 関原
安利 深谷
将城 榊原
佑記 名和
圭吾 多田
久光 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Original Assignee
NEC Solution Innovators Ltd
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokai Rika Co Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2019024019A priority Critical patent/JP7283734B2/ja
Publication of JP2020135078A publication Critical patent/JP2020135078A/ja
Application granted granted Critical
Publication of JP7283734B2 publication Critical patent/JP7283734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、対象物を追跡する、追跡装置、追跡方法、及びプログラムに関する。
近年、ジェスチャにより機器を操作する、ジェスチャ操作が普及している。例えば、自動車の運転中において、運転者が、運転に支障がないように、音響映像機器を操作する、ジェスチャ操作などが知られている。
ところで、運転中のジェスチャ操作において、運転者のジェスチャを特定するためには、運転者の頭部、手などの部位を精度よく追跡する必要がある。
関連する技術として、動画像から高速に顔と当該顔の部位を追跡する技術が開示されている。その技術によれば、まず、最初のフレーム画像を用いて求めた顔領域に基づいて、顔の部位の位置を検出する。続いて、以降のフレーム画像に対して、検出した顔の部位の位置に基づいて設定された探索領域において顔の部位を追跡する。
特開2006-228061号公報
しかしながら、特許文献1に開示の技術では、顔の部位をノードとして生成した二次元グラフの変形に基づいて、顔の向き、位置を推定しているため、顔の部位にオクルージョン、ノイズなどが発生した場合、顔の部位を精度よく追跡することが困難となる。
本発明の目的の一例は、対象物の追跡を精度よく行う追跡装置、追跡方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における追跡装置は、
距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、設定部と、
前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、追跡部と、
を有することを特徴とする。
また、上記目的を達成するため、本発明の一側面における追跡方法は、
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を実行させることを特徴とする。
以上のように本発明によれば、対象物の追跡を精度よく行うことができる。
図1は、追跡装置の一例を示す図である。 図2は、追跡を説明するための図である。 図3は、追跡装置1を有するシステムの一例を示す図である。 図4は、追跡を説明するための図である。 図5は、特徴量の抽出を説明するための図である。 図6は、特徴量の抽出を説明するための図である。 図7は、追跡領域ごとの頻度分布(ヒストグラム)を示す図である。 図8は、対象物の位置の推定を説明するための図である。 図9は、対象物の向きの推定を説明するための図である。 図10は、追跡装置の動作の一例を示す図である。 図11は、追跡装置を実現するコンピュータの一例を示す図である。
(実施の形態)
以下、本発明の実施の形態について、図1から図11を参照しながら説明する。
[装置構成]
最初に、図1を用いて、本実施の形態における追跡装置1の構成について説明する。図1は、追跡装置の一例を示す図である。
図1に示す追跡装置1は、追跡を精度よく行う装置である。また、図1に示すように、追跡装置1は、設定部2と、追跡部3とを有する。
このうち、設定部2は、距離情報を有する画像(第一の画像:距離画像)を用いて生成された三次元情報に基づいて、撮像された対象物の画像に含まれる所定部位それぞれに対して三次元の追跡領域を設定する。追跡部3は、第一の画像が撮像された後、時系列に撮像された画像(第二の画像:距離画像)において、追跡領域それぞれの移動先となる領域を追跡する。
距離情報は、対象物と撮像装置との距離を示す情報である。また、距離情報は、例えば、画素に関連付けられている。
対象物は、例えば、人間の頭部、動物の頭部、ロボットの頭部などの追跡をする対象である。所定部位は、頭部の場合、頭部に含まれる部位である。例えば、耳、鼻、頭頂部、顎などである。ただし、所定部位は、上述した部位に限定されるものではない。
追跡について、図2を用いて具体的に説明する。
図2は、追跡を説明するための図である。例えば、距離画像20aに撮像された人間の頭部21aを追跡する場合、設定部2は、まず、鼻に対して追跡領域22a、頭頂部に対
して追跡領域23a、右耳に対して追跡領域24a、左耳に対して追跡領域25a、顎に対して追跡領域26aを設定する。追跡領域は、撮像された所定部位それぞれに対して設定する三次元の領域である。
続いて、追跡部3は、距離画像20aが撮像された後に撮像された距離画像20bにおいて、追跡領域22a、23a、24a、25a、26aそれぞれが移動したと考えられる領域を推定する。すなわち、追跡部3は、追跡領域22a、23a、24a、25a、26aそれぞれの移動先となる領域22b、23b、24b、25b、26bを追跡する。
このように、本実施の形態においては、距離画像を用いて追跡領域を設定し、設定した追跡領域の移動先となる領域を推定することで、撮像した対象物の追跡を精度よく行うことができる。
また、本実施の形態においては、追跡領域それぞれを用いることで、対象物の位置と向きを推定できる。更に、本実施の形態においては、追跡領域の一部がオクルージョン、ノイズにより設定できない場合でも、残りの追跡領域を用いることで、対象物の位置と向きを推定できる。
[システム構成]
続いて、図3を用いて、本実施の形態における追跡装置1の構成をより具体的に説明する。図3は、追跡装置1を有するシステムの一例を示す図である。
図3に示すように、本実施の形態におけるシステム30は、追跡装置1に加えて、撮像装置31、出力装置32を有する。また、追跡装置1は、設定部2、追跡部3に加え、推定部4、入力処理部33、出力処理部34を有する。設定部2は、部位識別器35、領域設定部36を有する。追跡部3は、基準特徴量抽出部37、周辺領域設定部38、領域検出部39を有する。
撮像装置31は、距離画像を生成する装置である。撮像装置31は、例えば、TOF(Time of Flight)カメラなどである。
出力装置32は、出力処理部34により出力可能な形式に変換された、後述する出力情報を取得し、その出力情報に基づいて、生成した画像及び音声などを出力する。出力装置22は、例えば、液晶、有機EL(Electro Luminescence)、CRT(Cathode Ray Tube)を用いた画像表示装置などである。更に、画像表示装置は、スピーカなどの音声出力装置などを備えていてもよい。なお、出力装置22は、プリンタなどの印刷装置でもよい。
追跡装置について具体的に説明する。
入力処理部33は、撮像装置31から距離画像を取得して、取得した距離画像を三次元情報に変換し、設定部2へ出力する。三次元情報は、対象物の表面の座標を表す情報で、例えば、3D(Three Dimensions)点群などである。
設定部2は、運用時において、オクルージョン、ノイズなどが発生していない時間(正常時)に撮像した基準となる距離画像(第一の距離画像)に基づいて生成された三次元情報を用いて、撮像された所定部位の画像それぞれに対して三次元の追跡領域を設定する。具体的には、設定部2が有する部位識別器35は、運用時において、まず、基準となるデータを入力とし、部位の領域を推定する。続いて、設定部2が有する領域設定部36は、推定した所定部位の領域それぞれに対して、推定した所定部位の領域の一部又は全体を含む三次元の追跡領域を設定する。
設定部2の詳細について説明する。
部位識別器35は、所定部位を推定するために用いる学習モデルである。具体的には、部位識別器35は、学習時において、あらかじめ用意した複数の距離画像を用いて抽出した所定部位の特徴量を入力とし、機械学習をさせる。
例えば、所定部位が耳、鼻、頭頂部、顎である場合、部位識別器35は、耳、鼻、頭頂部、顎に対応する領域を推定するために用いる学習モデルである。機械学習の方式としては、例えば、ニューラルネットワーク、線形判別分析法(Linear Discriminant Analysis:LDA)、サポートベクトルマシン(Support Vector Machine:SVM)、ブースティング、ランダムフォレスト(Random Forests:RFs)などがあげられる。なお、ブースティングとしては、例えば、AdaBoost(Adaptive Boosting)、又はReal AdaBoostなどがあげられる。なお、所定部位ごとに識別器を用意してもよい。
また、部位識別器35は、上述したように、直接、所定部位を推定してもよいが、最初に、頭部の領域を推定し、その後、推定した頭部の領域を用いて、耳、鼻、頭頂部、顎を推定してもよい。
領域設定部36は、推定した所定部位の領域の一部又は全体を含むように追跡領域を設定する。追跡領域は、例えば、図2に示した追跡領域22aから26aのような直方体、又は立方体などの形状をした三次元領域などである。なお、追跡領域の形状は、直方体、立方体に限定されるものでなく、三次元形状であればよい。
追跡部3は、追跡領域の移動先となる領域を追跡する。具体的には、追跡部3が有する基準特徴量抽出部37は、まず、基準となる距離画像(第一の距離画像)に基づいて設定部2により設定された追跡領域それぞれについて、特徴量を抽出する。
続いて、追跡部3が有する周辺領域設定部38は、基準となる距離画像が撮像された後に撮像された距離画像(第二の距離画像)に、基準となる距離画像に設定された追跡領域に基づいて、周辺領域を設定する。
続いて、追跡部3が有する領域検出部39は、周辺領域それぞれについて、特徴量を算出する。続いて、領域検出部39は、追跡領域の特徴量と、追跡領域に対応する周辺領域の特徴量とを比較し、比較した結果に基づいて追跡領域の移動先となる領域を検出し、検出した周辺領域を新たな追跡領域とする。
追跡部3の詳細について、図4、図5を用いて説明する。
図4は、追跡を説明するための図である。図5、図6は、特徴量の抽出を説明するための図である。
基準特徴量抽出部37は、基準となる距離画像を用いて設定された追跡領域から特徴量を抽出する。具体的には、基準特徴量抽出部37は、図4に示す時間t1において、追跡領域22aから26aそれぞれの特徴量を抽出する。
基準特徴量抽出部37は、まず、時間t1において、追跡領域に複数のボクセルを設定する。例えば、図5に示すように、追跡領域に複数のボクセル51を設定する。ボクセル51は、例えば、一つ以上の三次元座標を有する三次元領域である。
続いて、基準特徴量抽出部37は、ボクセル51を順次選択し、図6に示すように、選択したボクセル51を中心ボクセルPとした二つの三次元領域R、Sを設定する。三次元
領域Rは、例えば、ボクセルPを中心とした一辺がrの立方体で、複数のボクセル51により構成される。また、三次元領域Sは、例えば、ボクセルPを中心とした一辺がs(>r)の立方体で、三次元領域Rより多くのボクセルにより構成される。また、三次元領域R、Sの大きさは、実験又はシミュレーションなどにより決定する。
なお、三次元領域R、Sは、ボクセルPが追跡領域に含まれる場合に算出対象とする。対して、三次元領域R、Sが追跡領域からはみ出ている場合には、追跡領域の外側のボクセルを使用する。なお、ボクセルは、頭部を検出したい領域全体に設定するが、その領域から三次元領域R、Sがはみ出る場合は、追跡領域を無効化する。
続いて、基準特徴量抽出部37は、三次元領域R内にあるボクセル51に対して、分散共分散行列を生成し、生成した分散共分散行列の最小固有値λr0を算出する。また、基準特徴量抽出部37は、三次元領域S内にあるボクセル51に対して、分散共分散行列を生成し、生成した分散共分散行列の最小固有値λs0を算出する。
続いて、基準特徴量抽出部37は、最小固有値λr0、λs0の単位ベクトル、すなわち三次元領域R、Sそれぞれについて法線ベクトルNr、Nsを算出する。続いて、基準特徴量抽出部37は、法線ベクトルNr、Nsの内積を算出する。なお、内積を算出することにより、回転に対して不変とすることができる。また、内積を算出することにより、計算量(ベクトルの次元数)を減らすことができる。
続いて、基準特徴量抽出部37は、追跡領域に含まれる他のボクセル51を選択して、上述したように選択したボクセル51に対して内積を算出する。例えば、基準特徴量抽出部37は、追跡領域内のボクセル51の一部又は全てに対して、内積を算出する。
続いて、基準特徴量抽出部37は、算出した複数の内積を用いて特徴量を算出する。具体的には、基準特徴量抽出部37は、図4に示す時間t1において、追跡領域22aから26aそれぞれの特徴量を抽出する。特徴量は、例えば、ボクセル51ごとに算出した内積の頻度分布などである。図7は、追跡領域ごとの頻度分布(ヒストグラム)を示す図である。なお、頻度分布をボクセル数で正規化して、特徴量としてもよい。
周辺領域設定部38は、基準となる距離画像が撮像された後に撮像された距離画像を用いて、追跡領域それぞれに対応する位置に周辺領域を設定する。具体的には、周辺領域設定部38は、図4に示す時間t2において、基準となる距離画像が撮像された後に撮像された距離画像に、追跡領域22aに対応する位置に周辺領域42を設定し、追跡領域23aに対応する位置に周辺領域43を設定し、追跡領域24cに対応する位置に周辺領域44を設定し、追跡領域25aに対応する位置に周辺領域45を設定し、追跡領域26aに対応する位置に周辺領域46を設定する。
なお、周辺領域46の大きさは、例えば、フレーム間の経過時間を元に、静止状態から想定する最大の速度で移動した場合の移動距離とする。なお、単位はボクセルとする。また、周辺領域46の中心位置は、例えば、追跡中の対象物が移動中の場合、前々回、前回における顔位置から移動ベクトルを算出し、前回の顔位置に加算した位置を中心とする。
領域検出部39は、周辺領域を用いて移動先となる領域を検出する。具体的には、領域検出部39は、図4に示す時間t3において、周辺領域42、43、44、45、46それぞれから移動先となる領域42′、43′、44′、45′、46′を検出する。
領域検出部39は、まず、時間t3において、上述したボクセル51を設定したように、周辺領域に複数のボクセルを設定する。続いて、領域検出部39は、設定したボクセル
51を順次選択し、図6に示すように、選択したボクセルを中心ボクセルPとした二つの三次元領域R、Sを設定する。続いて、領域検出部39は、三次元領域R内にあるボクセル51に対して、分散共分散行列を生成し、生成した分散共分散行列の最小固有値λr0を算出する。また、領域検出部39は、三次元領域S内にあるボクセル51に対して、分散共分散行列を生成し、生成した分散共分散行列の最小固有値λs0を算出する。
続いて、領域検出部39は、最小固有値λr0、λs0の単位ベクトル、すなわち三次元領域R、Sそれぞれについて法線ベクトルNr、Nsを算出する。続いて、領域検出部39は、法線ベクトルNr、Nsの内積を算出する。
続いて、領域検出部39は、周辺領域に含まれる他のボクセル51を選択して、上述したように選択したボクセル51に対して内積を算出する。例えば、領域検出部39は、周辺領域内のボクセル51の一部又は全てに対して、内積を算出する。
続いて、領域検出部39は、時間t3において、周辺領域内に、追跡領域と同じ大きさの複数の領域を設定して、設定した領域ごとに、設定した領域に含まれる複数の内積を用いて特徴量を算出する。特徴量は、例えば、設定した領域内のボクセル51ごとの内積の頻度分布などである。なお、頻度分布をボクセル数で正規化して、特徴量としてもよい。
続いて、領域検出部39は、基準特徴量抽出部37で抽出した特徴量と、領域検出部39で抽出した複数の特徴量(設定した領域それぞれの特徴量)とを比較する。領域検出部39は、領域検出部39で抽出した複数の特徴量のうち、基準特徴量抽出部37を用いて抽出した特徴量に最も類似している特徴量に対応する設定した領域を検出する。なお、類似度は、例えば、カイ二乗検定、ヒストグラムインタセクション、バタチャリヤ距離などを用いる。
続いて、領域検出部39は、時間t4において、検出した領域42′、43′、44′、45′、46′それぞれを、新たな追跡領域22b、23b、24b、25b、26bに設定する。
推定部4は、時系列に撮像した二つの距離画像(第二の画像)それぞれの追跡領域を用いて、対象物の位置と向きを推定する。具体的には、推定部4は、時系列に撮像した二つの距離画像を用いて、対応する追跡領域間の移動ベクトルを算出し、算出した移動ベクトルに基づいて、対象物の位置を推定する。また、推定部4は、時系列に撮像した二つの距離画像それぞれにおいて、対象物の位置と追跡領域とを結ぶベクトルを算出し、算出した二つのベクトルがなす角度に基づいて、対象物の向きを推定する。
推定部4の詳細について説明する。
対象物を追跡する場合、オクルージョン、ノイズなどの発生により、対象物の位置又は向き又はその両方を推定できなくことがある。その理由は、従来の方法においては、対象物が頭部である場合、頭部に対応する領域を推定し、推定した頭部領域だけを用いて、頭部の位置又は向き又はその両方を推定しているからである。そのため、オクルージョン、ノイズの発生により頭部が推定できない場合、頭部の位置又は向き又はその両方を推定できなくなる。
しかし、本実施の形態における推定部4においては、オクルージョン、ノイズなどが発生した場合でも、上述したように、撮像した対象物に含まれる所定部位それぞれに追跡領域を設定するので、所定部位のいずれかに対して移動先となる領域が設定できなくても、有効な領域の位置を用いることで、頭部の位置を推定できる。
位置推定について、図8を用いて具体的に説明をする。
図8は、対象物の位置の推定を説明するための図である。推定部4は、図8に示すように領域25bが無効である場合、すなわちオクルージョン、ノイズなどの影響により領域25bが推定できなかった場合、追跡領域22a、23a、24a、25a、26aと、有効な領域22b、23b、24b、26bとを用いて、頭部位置71bを推定する。
なお、本実施の形態においては、頭部位置71a、71bは、図8に示す立体に含まれる三次元座標、又は三次元領域とする。ただし、頭部位置71a、71bは、立体の外部に頭部位置を設定してもよい。
推定部4は、まず、追跡領域22a、22bそれぞれに含まれる三次元座標を用いて追跡領域22a、22b間の移動ベクトルと、追跡領域23a、23bそれぞれに含まれる三次元座標を用いて追跡領域23a、23b間の移動ベクトルと、追跡領域24a、24bそれぞれに含まれる三次元座標を用いて追跡領域24a、24b間の移動ベクトルと、追跡領域26a、26bそれぞれに含まれる三次元座標を用いて追跡領域26a、26b間の移動ベクトルとを算出する。
続いて、推定部4は、算出した移動ベクトルの平均ベクトルを算出する。続いて、推定部4は、頭部位置71aに含まれる三次元座標に平均ベクトルを加算して、頭部位置71bを推定する。
向き推定について、図9を用いて具体的に説明をする。
図9は、対象物の向きの推定を説明するための図である。また、図9は、水平軸に対する頭部の向き(左右方向の頭部の向き)の推定を説明するための図である。そのため、図9には、頭頂部、顎に設定された追跡領域が示されていない。逆に、垂直軸に対する頭部の向き(上下方向の頭部の向き)を推定する場合には、鼻、頭頂部、顎を用いて、垂直軸に対する頭部の向きを推定する。
なお、図9のAは、二つの距離画像において、すべての追跡領域が有効である場合を示している。図9のBは、二つの距離画像において、鼻に対応する追跡領域が無効である場合を示している。なお、図9においては、前回撮像した距離画像に対応するものは破線を用いて表し、今回撮像した距離画像に対応するものは実線を用いて表す。
頭部の向きを推定する際に、鼻に対応する追跡領域が有効である場合(図9のAの場合)、推定部4は、まず、前回において推定した頭部位置81aと前回の鼻に対応する追跡領域22aに含まれる三次元座標とを結ぶベクトル82aを算出する。続いて、推定部4は、今回において推定した頭部位置81bと今回の鼻に対応する追跡領域22bに含まれる三次元座標とを結ぶベクトル82bを算出する。続いて、推定部4は、二つのベクトル82a、82bがなす角θ1を算出する。
続いて、推定部4は、算出した角θ1と、前回算出したベクトル82aと水平軸とがなす角θaとを用いて、今回算出したベクトル82bと水平軸とがなす角θbを算出し、水平軸に対する頭部の向きとする。
次に、頭部の向きを推定する際に、鼻に対応する追跡領域が無効である場合(図9のBの場合)、推定部4は、まず、前回において推定した頭部位置81aと前回の右耳に対応する追跡領域24aに含まれる三次元座標とを結ぶベクトル83aを算出する。続いて、推定部4は、今回において推定した頭部位置81bと今回の右耳に対応する追跡領域24bに含まれる三次元座標とを結ぶベクトル84bを算出する。続いて、推定部4は、二つのベクトル83a、84bがなす角θ1を算出する。
又は、推定部4は、前回において推定した頭部位置81aと前回の左耳に対応する追跡領域25aに含まれる三次元座標とを結ぶベクトル85aを算出する。続いて、推定部4は、今回において推定した頭部位置81bと今回の左耳に対応する追跡領域25bに含まれる三次元座標とを結ぶベクトル86bを算出する。続いて、推定部4は、二つのベクトル85a、86bがなす角θ1を算出する。
続いて、推定部4は、算出した角θ1と、前回算出したベクトル82aと水平軸とがなす角θaとを用いて、今回算出したベクトル82bと水平軸とがなす角θbを算出し、水平軸に対する頭部の向きとする。
なお、角θ1を算出する場合、ベクトル83a、84bを用いて算出した角と、ベクトル85a、86bを用いて算出した角との平均を用いて、角θ1としてもよい。
また、垂直軸に対する頭部の向きについては、推定部4は、鼻、頭頂部、顎に対応する追跡領域を用いて、垂直軸に対する頭部の向きを算出する。
更に、推定部4は、有効な追跡領域がない場合には、前回の頭部の向きを維持する。
出力処理部34は、推定した対象物の位置、向きなどを、出力装置32に出力するための出力情報に変換して、出力装置32へ出力する。具体的には、出力処理部34は、推定部4から頭部の位置、頭部の向きを表す情報を取得し、取得した情報を変換して出力情報を生成して、生成した出力情報を出力装置32へ出力する。
[装置動作]
次に、本発明の実施の形態における追跡装置の動作について図10を用いて説明する。図10は、追跡装置の動作の一例を示す図である。以下の説明においては、適宜図2から図9を参照する。また、本実施の形態では、追跡装置を動作させることによって、追跡方法が実施される。よって、本実施の形態における追跡方法の説明は、以下の追跡装置の動作説明に代える。
図10に示すように、最初に、入力処理部33は、撮像装置31から距離画像を取得して、取得した距離画像を三次元情報に変換し、設定部2へ出力する(ステップA1)。
続いて、設定部2は、運用時において、オクルージョンが発生していない時間に撮像した基準となる距離画像(第一の距離画像)に基づいて生成した三次元情報を用いて、撮像された所定部位の画像それぞれに対して三次元の追跡領域を設定する(ステップA2)。
具体的には、ステップA2において、設定部2が有する部位識別器35は、運用時において、まず、基準となる3D点群を入力とし、部位識別器35を適用して、人体部位の領域を推定する。なお、部位識別器35は、所定部位を推定するために用いる学習モデルである。具体的には、部位識別器35は、学習時において、あらかじめ用意した複数の距離画像を用いて抽出した所定部位の特徴量を入力とし、機械学習により生成された学習モデルである。
続いて、ステップA2において、設定部2が有する領域設定部36は、推定した所定部位の領域それぞれに対して、推定した所定部位の領域の一部又は全体を含む三次元の追跡領域を設定する。なお、領域設定部36は、推定した所定部位の領域の一部又は全体を含むように追跡領域を設定する。
追跡部3は、追跡領域の移動先となる領域を追跡する(ステップA3)。具体的には、ステップA3において、追跡部3が有する基準特徴量抽出部37は、まず、基準となる距離画像(第一の距離画像)に基づいて設定部2により設定された追跡領域それぞれについて、特徴量を抽出する。例えば、基準特徴量抽出部37は、図4に示す時間t1において、追跡領域22aから26aそれぞれの特徴量を抽出する。
続いて、ステップSA3において、追跡部3が有する周辺領域設定部38は、基準となる距離画像が撮像された後に撮像された距離画像(第二の距離画像)を取得し、基準となる距離画像に設定された追跡領域に基づいて、取得した距離画像(第二の距離画像)に周辺領域を設定する。
例えば、周辺領域設定部38は、図4に示す時間t2において、基準となる距離画像が撮像された後に撮像された距離画像に、追跡領域22aに対応する位置に周辺領域42を設定し、追跡領域23aに対応する位置に周辺領域43を設定し、追跡領域24cに対応する位置に周辺領域44を設定し、追跡領域25aに対応する位置に周辺領域45を設定し、追跡領域26aに対応する位置に周辺領域46を設定する。
続いて、ステップA3において、追跡部3が有する領域検出部39は、周辺領域それぞれについて、特徴量を算出する。続いて、領域検出部39は、追跡領域の特徴量と、追跡領域に対応する周辺領域の特徴量とを比較し、比較した結果に基づいて追跡領域の移動先となる領域を検出し、検出した周辺領域を新たな追跡領域とする。
例えば、領域検出部39は、図4に示す時間t3において、周辺領域42、43、44、45、46それぞれから移動先となる領域42′、43′、44′、45′、46′を検出する。その後、領域検出部39は、時間t4において、検出した領域42′、43′、44′、45′、46′それぞれを、新たな追跡領域22b、23b、24b、25b、26bに設定する。
続いて、推定部4は、時系列に撮像した二つの距離画像(第二の画像)それぞれの追跡領域を用いて、対象物の位置と向きを推定する(ステップA4)。
具体的には、ステップA4において、推定部4は、時系列に撮像した二つの距離画像を用いて、対応する追跡領域間の移動ベクトルを算出し、算出した移動ベクトルに基づいて、対象物の位置を推定する。
また、ステップA4において、推定部4は、時系列に撮像した二つの距離画像それぞれにおいて、対象物の位置と追跡領域とを結ぶベクトルを算出し、算出した二つのベクトルがなす角度に基づいて、対象物の向きを推定する。
出力処理部34は、推定した対象物の位置、向きなどを、出力装置32に出力するための出力情報に変換して、出力装置32へ出力する(ステップA5)。具体的には、ステップA5において、出力処理部34は、推定部4から頭部の位置、頭部の向きを表す情報を取得し、取得した情報を変換して出力情報を生成して、生成した出力情報を出力装置32へ出力する。
続いて、追跡装置1は、上述したステップA1からA5に示した追跡処理、推定処理を終了する指示を取得した場合、追跡処理、推定処理を終了する(ステップA6:Yes)。また、追跡処理、推定処理を継続する場合(ステップA6:No)、ステップA3に移行して、追跡処理、推定処理を継続する。
[本実施の形態の効果]
以上のように本実施の形態によれば、距離画像を用いて追跡領域を設定し、設定した追跡領域の移動先を推定することで、撮像した対象物の追跡を精度よく行うことができる。
また、本実施の形態においては、追跡領域それぞれを用いることで、対象物の位置と向きを推定できる。
更に、本実施の形態においては、追跡領域の一部がオクルージョン、ノイズなどにより設定できない場合でも、残りの追跡領域を用いることで、対象物の位置と向きを推定できる。
[プログラム]
本発明の実施の形態におけるプログラムは、コンピュータに、図10に示すステップA1からA6を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における追跡装置と追跡方法とを実現することができる。この場合、コンピュータのプロセッサは、入力処理部33、設定部2(部位識別器35、領域設定部36)、追跡部3(基準特徴量抽出部37、周辺領域設定部38、領域検出部39)、推定部4、出力処理部34として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、入力処理部33、設定部2(部位識別器35、領域設定部36)、追跡部3(基準特徴量抽出部37、周辺領域設定部38、領域検出部39)、推定部4、出力処理部34のいずれかとして機能してもよい。
[物理構成]
ここで、実施の形態におけるプログラムを実行することによって、追跡装置を実現するコンピュータについて図11を用いて説明する。図11は、本発明の実施の形態における追跡装置を実現するコンピュータの一例を示すブロック図である。
図11に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていてもよい。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)などの汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。
[付記]
以上の実施の形態に関し、更に以下の付記を開示する。上述した実施の形態の一部又は全部は、以下に記載する(付記1)から(付記15)により表現することができるが、以下の記載に限定されるものではない。
(付記1)
距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、設定部と、
前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、追跡部と、
を有することを特徴とする追跡装置。
(付記2)
付記1に記載の追跡装置であって、
時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、推定部を有する
ことを特徴とする追跡装置。
(付記3)
付記2に記載の追跡装置であって、
前記推定部は、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とする追跡装置。
(付記4)
付記2又は3に記載の追跡装置であって、
前記推定部は、二つの前記第二の画像それぞれにおいて、前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とする追跡装置。
(付記5)
付記1から4のいずれか一つに記載の追跡装置であって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とする追跡装置。
(付記6)
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像され
た対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を有することを特徴とする追跡方法。
(付記7)
付記6に記載の追跡方法であって、
(c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを有する
ことを特徴とする追跡方法。
(付記8)
付記7に記載の追跡方法であって、
前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とする追跡方法。
(付記9)
付記7又は8に記載の追跡方法であって、
前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とする追跡方法。
(付記10)
付記6から9のいずれか一つに記載の追跡方法であって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とする追跡方法。
(付記11)
コンピュータに、
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を実行させることを特徴とするプログラム。
(付記12)
付記11に記載のプログラムであって、
前記コンピュータに、
(c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを実行させる
ことを特徴とするプログラム。
(付記13)
付記12に記載のプログラムであって、
前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とするプログラム。
(付記14)
付記12又は13に記載のプログラムであって、
前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とするプログラム。
(付記15)
付記11から14のいずれか一つに記載のプログラムであって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とするプログラム。
以上のように本発明によれば、対象物の追跡を精度よく行うことができる。本発明は、対象物の追跡、対象物の位置、向きの推定が必要な分野において有用である。
1 追跡装置
2 設定部
3 追跡部
4 推定部
30 システム
31 撮像装置
32 出力装置
33 入力処理部
34 出力処理部
35 部位識別器
36 領域設定部
37 基準特徴量抽出部
38 周辺領域設定部
39 領域検出部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (9)

  1. 距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、設定部と、
    前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、追跡部と、
    時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、推定部と、を有し、
    前記推定部は、二つの前記第二の画像それぞれにおいて、推定した前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する、
    を有することを特徴とする追跡装置。
  2. 請求項に記載の追跡装置であって、
    前記推定部は、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
    ことを特徴とする追跡装置。
  3. 請求項1又は2に記載の追跡装置であって、
    前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
    ことを特徴とする追跡装置。
  4. (a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
    (b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
    (c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを有し、
    前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、推定した前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する、
    を有することを特徴とする追跡方法。
  5. 請求項に記載の追跡方法であって、
    前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
    ことを特徴とする追跡方法。
  6. 請求項4又は5に記載の追跡方法であって、
    前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
    ことを特徴とする追跡方法。
  7. コンピュータに、
    (a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
    (b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
    (c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップと、を実行させ、
    前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、推定した前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する、
    ことを特徴とするプログラム。
  8. 請求項に記載のプログラムであって、
    前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
    ことを特徴とするプログラム。
  9. 請求項7又は8に記載のプログラムであって、
    前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
    ことを特徴とするプログラム。
JP2019024019A 2019-02-13 2019-02-13 追跡装置、追跡方法、及びプログラム Active JP7283734B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024019A JP7283734B2 (ja) 2019-02-13 2019-02-13 追跡装置、追跡方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024019A JP7283734B2 (ja) 2019-02-13 2019-02-13 追跡装置、追跡方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020135078A JP2020135078A (ja) 2020-08-31
JP7283734B2 true JP7283734B2 (ja) 2023-05-30

Family

ID=72278618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024019A Active JP7283734B2 (ja) 2019-02-13 2019-02-13 追跡装置、追跡方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7283734B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7529260B2 (ja) 2020-11-12 2024-08-06 Necソリューションイノベータ株式会社 追跡装置、追跡方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257321A (ja) 2006-03-23 2007-10-04 Nissan Motor Co Ltd 顔部位追跡方法及びその装置
JP2015041383A (ja) 2013-08-23 2015-03-02 株式会社リコー 対象追跡方法及び対象追跡装置
JP2015195020A (ja) 2014-03-20 2015-11-05 国立研究開発法人産業技術総合研究所 ジェスチャ認識装置、システム及びそのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257321A (ja) 2006-03-23 2007-10-04 Nissan Motor Co Ltd 顔部位追跡方法及びその装置
JP2015041383A (ja) 2013-08-23 2015-03-02 株式会社リコー 対象追跡方法及び対象追跡装置
JP2015195020A (ja) 2014-03-20 2015-11-05 国立研究開発法人産業技術総合研究所 ジェスチャ認識装置、システム及びそのプログラム

Also Published As

Publication number Publication date
JP2020135078A (ja) 2020-08-31

Similar Documents

Publication Publication Date Title
JP7101255B2 (ja) 目標対象の運動の向きを予測するための方法、車両制御方法及び装置
JP6795930B2 (ja) 視点追跡方法及び装置
US10482656B2 (en) 3D face modeling methods and apparatuses
KR101534742B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP7345664B2 (ja) 不確実性を有するランドマーク位置推定のための画像処理システムおよび方法
KR20140034847A (ko) 관절로 연결된 모델의 전자동 동적 교정 기법
KR20170014491A (ko) 움직임 인식 방법 및 움직임 인식 장치
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
CN115699102A (zh) 使用遮挡感知单对象跟踪在视频流中跟踪多个对象
US10964046B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
WO2020062546A1 (zh) 目标跟踪处理方法、电子设备
JP2023068632A (ja) Slamを加速化させる装置、及びそれを含む電子装置
JP7283734B2 (ja) 追跡装置、追跡方法、及びプログラム
EP3866110A1 (en) Target detection method, target detection apparatus and unmanned aerial vehicle
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
JP2016513842A (ja) 異なる精度のソフトウェアアルゴリズム及びハードウェアアルゴリズムを実施する評価層を備えた画像プロセッサ
US11314968B2 (en) Information processing apparatus, control method, and program
JP7276968B2 (ja) 3次元データ更新装置、顔向き推定装置、3次元データ更新方法およびプログラム
JP7283735B2 (ja) 追跡装置、追跡方法、及びプログラム
JP6380523B2 (ja) 画像認識システムおよび半導体集積回路
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
JP7279893B2 (ja) 顔検出装置、顔検出方法、及びプログラム
US20220343536A1 (en) Three-dimensional map estimation apparatus and obstacle detection apparatus
WO2019168190A1 (ja) 操作推定装置、操作推定方法、及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7283734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150