JP2020135078A - 追跡装置、追跡方法、及びプログラム - Google Patents
追跡装置、追跡方法、及びプログラム Download PDFInfo
- Publication number
- JP2020135078A JP2020135078A JP2019024019A JP2019024019A JP2020135078A JP 2020135078 A JP2020135078 A JP 2020135078A JP 2019024019 A JP2019024019 A JP 2019024019A JP 2019024019 A JP2019024019 A JP 2019024019A JP 2020135078 A JP2020135078 A JP 2020135078A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- area
- image
- calculated
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims description 64
- 230000002093 peripheral effect Effects 0.000 description 37
- 238000001514 detection method Methods 0.000 description 26
- 238000000605 extraction Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 235000002597 Solanum melongena Nutrition 0.000 description 2
- 244000061458 Solanum melongena Species 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000000546 chi-square test Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、設定部と、
前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、追跡部と、
を有することを特徴とする。
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を有することを特徴とする。
コンピュータに、
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を実行させることを特徴とする。
以下、本発明の実施の形態について、図1から図11を参照しながら説明する。
最初に、図1を用いて、本実施の形態における追跡装置1の構成について説明する。図1は、追跡装置の一例を示す図である。
図2は、追跡を説明するための図である。例えば、距離画像20aに撮像された人間の頭部21aを追跡する場合、設定部2は、まず、鼻に対して追跡領域22a、頭頂部に対
して追跡領域23a、右耳に対して追跡領域24a、左耳に対して追跡領域25a、顎に対して追跡領域26aを設定する。追跡領域は、撮像された所定部位それぞれに対して設定する三次元の領域である。
続いて、図3を用いて、本実施の形態における追跡装置1の構成をより具体的に説明する。図3は、追跡装置1を有するシステムの一例を示す図である。
入力処理部33は、撮像装置31から距離画像を取得して、取得した距離画像を三次元情報に変換し、設定部2へ出力する。三次元情報は、対象物の表面の座標を表す情報で、例えば、3D(Three Dimensions)点群などである。
部位識別器35は、所定部位を推定するために用いる学習モデルである。具体的には、部位識別器35は、学習時において、あらかじめ用意した複数の距離画像を用いて抽出した所定部位の特徴量を入力とし、機械学習をさせる。
図4は、追跡を説明するための図である。図5、図6は、特徴量の抽出を説明するための図である。
領域Rは、例えば、ボクセルPを中心とした一辺がrの立方体で、複数のボクセル51により構成される。また、三次元領域Sは、例えば、ボクセルPを中心とした一辺がs(>r)の立方体で、三次元領域Rより多くのボクセルにより構成される。また、三次元領域R、Sの大きさは、実験又はシミュレーションなどにより決定する。
51を順次選択し、図6に示すように、選択したボクセルを中心ボクセルPとした二つの三次元領域R、Sを設定する。続いて、領域検出部39は、三次元領域R内にあるボクセル51に対して、分散共分散行列を生成し、生成した分散共分散行列の最小固有値λr0を算出する。また、領域検出部39は、三次元領域S内にあるボクセル51に対して、分散共分散行列を生成し、生成した分散共分散行列の最小固有値λs0を算出する。
対象物を追跡する場合、オクルージョン、ノイズなどの発生により、対象物の位置又は向き又はその両方を推定できなくことがある。その理由は、従来の方法においては、対象物が頭部である場合、頭部に対応する領域を推定し、推定した頭部領域だけを用いて、頭部の位置又は向き又はその両方を推定しているからである。そのため、オクルージョン、ノイズの発生により頭部が推定できない場合、頭部の位置又は向き又はその両方を推定できなくなる。
図8は、対象物の位置の推定を説明するための図である。推定部4は、図8に示すように領域25bが無効である場合、すなわちオクルージョン、ノイズなどの影響により領域25bが推定できなかった場合、追跡領域22a、23a、24a、25a、26aと、有効な領域22b、23b、24b、26bとを用いて、頭部位置71bを推定する。
図9は、対象物の向きの推定を説明するための図である。また、図9は、水平軸に対する頭部の向き(左右方向の頭部の向き)の推定を説明するための図である。そのため、図9には、頭頂部、顎に設定された追跡領域が示されていない。逆に、垂直軸に対する頭部の向き(上下方向の頭部の向き)を推定する場合には、鼻、頭頂部、顎を用いて、垂直軸に対する頭部の向きを推定する。
次に、本発明の実施の形態における追跡装置の動作について図10を用いて説明する。図10は、追跡装置の動作の一例を示す図である。以下の説明においては、適宜図2から図9を参照する。また、本実施の形態では、追跡装置を動作させることによって、追跡方法が実施される。よって、本実施の形態における追跡方法の説明は、以下の追跡装置の動作説明に代える。
以上のように本実施の形態によれば、距離画像を用いて追跡領域を設定し、設定した追跡領域の移動先を推定することで、撮像した対象物の追跡を精度よく行うことができる。
本発明の実施の形態におけるプログラムは、コンピュータに、図10に示すステップA1からA6を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における追跡装置と追跡方法とを実現することができる。この場合、コンピュータのプロセッサは、入力処理部33、設定部2(部位識別器35、領域設定部36)、追跡部3(基準特徴量抽出部37、周辺領域設定部38、領域検出部39)、推定部4、出力処理部34として機能し、処理を行なう。
ここで、実施の形態におけるプログラムを実行することによって、追跡装置を実現するコンピュータについて図11を用いて説明する。図11は、本発明の実施の形態における追跡装置を実現するコンピュータの一例を示すブロック図である。
以上の実施の形態に関し、更に以下の付記を開示する。上述した実施の形態の一部又は全部は、以下に記載する(付記1)から(付記15)により表現することができるが、以下の記載に限定されるものではない。
距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、設定部と、
前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、追跡部と、
を有することを特徴とする追跡装置。
付記1に記載の追跡装置であって、
時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、推定部を有する
ことを特徴とする追跡装置。
付記2に記載の追跡装置であって、
前記推定部は、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とする追跡装置。
付記2又は3に記載の追跡装置であって、
前記推定部は、二つの前記第二の画像それぞれにおいて、前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とする追跡装置。
付記1から4のいずれか一つに記載の追跡装置であって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とする追跡装置。
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像され
た対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を有することを特徴とする追跡方法。
付記6に記載の追跡方法であって、
(c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを有する
ことを特徴とする追跡方法。
付記7に記載の追跡方法であって、
前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とする追跡方法。
付記7又は8に記載の追跡方法であって、
前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とする追跡方法。
付記6から9のいずれか一つに記載の追跡方法であって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とする追跡方法。
コンピュータに、
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を実行させることを特徴とするプログラム。
付記11に記載のプログラムであって、
前記コンピュータに、
(c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを実行させる
ことを特徴とするプログラム。
付記12に記載のプログラムであって、
前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とするプログラム。
付記12又は13に記載のプログラムであって、
前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とするプログラム。
付記11から14のいずれか一つに記載のプログラムであって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とするプログラム。
2 設定部
3 追跡部
4 推定部
30 システム
31 撮像装置
32 出力装置
33 入力処理部
34 出力処理部
35 部位識別器
36 領域設定部
37 基準特徴量抽出部
38 周辺領域設定部
39 領域検出部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
Claims (15)
- 距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、設定部と、
前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、追跡部と、
を有することを特徴とする追跡装置。 - 請求項1に記載の追跡装置であって、
時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、推定部を有する
ことを特徴とする追跡装置。 - 請求項2に記載の追跡装置であって、
前記推定部は、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とする追跡装置。 - 請求項2又は3に記載の追跡装置であって、
前記推定部は、二つの前記第二の画像それぞれにおいて、推定した前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とする追跡装置。 - 請求項1から4のいずれか一つに記載の追跡装置であって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とする追跡装置。 - (a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を有することを特徴とする追跡方法。 - 請求項6に記載の追跡方法であって、
(c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを有する
ことを特徴とする追跡方法。 - 請求項7に記載の追跡方法であって、
前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とする追跡方法。 - 請求項7又は8に記載の追跡方法であって、
前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、推定した前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルが
なす角度に基づいて、前記対象物の向きを推定する
ことを特徴とする追跡方法。 - 請求項6から9のいずれか一つに記載の追跡方法であって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とする追跡方法。 - コンピュータに、
(a)距離情報を有する第一の画像を用いて生成された三次元情報に基づいて、撮像された対象物に含まれる所定部位それぞれに対して三次元の追跡領域を設定する、ステップと、
(b)前記第一の画像が撮像された後、時系列に撮像された第二の画像において、前記追跡領域それぞれの移動先となる領域を追跡する、ステップと、
を実行させることを特徴とするプログラム。 - 請求項11に記載のプログラムであって、
前記コンピュータに、
(c)時系列に撮像した二つの前記第二の画像それぞれの前記追跡領域を用いて、前記対象物の位置と向きを推定する、ステップを実行させる
ことを特徴とするプログラム。 - 請求項12に記載のプログラムであって、
前記(c)のステップにおいて、二つの前記第二の画像を用いて、対応する前記追跡領域間の移動ベクトルを算出し、算出した前記移動ベクトルに基づいて、前記対象物の位置を推定する
ことを特徴とするプログラム。 - 請求項12又は13に記載のプログラムであって、
前記(c)のステップにおいて、二つの前記第二の画像それぞれにおいて、推定した前記対象物の位置から前記追跡領域へのベクトルを算出し、算出した二つの前記ベクトルがなす角度に基づいて、前記対象物の向きを推定する
ことを特徴とするプログラム。 - 請求項11から14のいずれか一つに記載のプログラムであって、
前記対象物が頭部である場合、鼻、右耳、左耳、頭頂部、顎のうち一つ以上に対して前記追跡領域を設定する
ことを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024019A JP7283734B2 (ja) | 2019-02-13 | 2019-02-13 | 追跡装置、追跡方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019024019A JP7283734B2 (ja) | 2019-02-13 | 2019-02-13 | 追跡装置、追跡方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135078A true JP2020135078A (ja) | 2020-08-31 |
JP7283734B2 JP7283734B2 (ja) | 2023-05-30 |
Family
ID=72278618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019024019A Active JP7283734B2 (ja) | 2019-02-13 | 2019-02-13 | 追跡装置、追跡方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7283734B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7529260B2 (ja) | 2020-11-12 | 2024-08-06 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257321A (ja) * | 2006-03-23 | 2007-10-04 | Nissan Motor Co Ltd | 顔部位追跡方法及びその装置 |
JP2015041383A (ja) * | 2013-08-23 | 2015-03-02 | 株式会社リコー | 対象追跡方法及び対象追跡装置 |
JP2015195020A (ja) * | 2014-03-20 | 2015-11-05 | 国立研究開発法人産業技術総合研究所 | ジェスチャ認識装置、システム及びそのプログラム |
-
2019
- 2019-02-13 JP JP2019024019A patent/JP7283734B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257321A (ja) * | 2006-03-23 | 2007-10-04 | Nissan Motor Co Ltd | 顔部位追跡方法及びその装置 |
JP2015041383A (ja) * | 2013-08-23 | 2015-03-02 | 株式会社リコー | 対象追跡方法及び対象追跡装置 |
JP2015195020A (ja) * | 2014-03-20 | 2015-11-05 | 国立研究開発法人産業技術総合研究所 | ジェスチャ認識装置、システム及びそのプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7529260B2 (ja) | 2020-11-12 | 2024-08-06 | Necソリューションイノベータ株式会社 | 追跡装置、追跡方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7283734B2 (ja) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7101255B2 (ja) | 目標対象の運動の向きを予測するための方法、車両制御方法及び装置 | |
US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
US10572072B2 (en) | Depth-based touch detection | |
TWI649675B (zh) | Display device | |
US20230110116A1 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
KR102463169B1 (ko) | 시점 추적 방법 및 장치 | |
US10482656B2 (en) | 3D face modeling methods and apparatuses | |
JP7064257B2 (ja) | 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体 | |
WO2021114776A1 (en) | Object detection method, object detection device, terminal device, and medium | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
WO2021114777A1 (en) | Target detection method, terminal device, and medium | |
US10964046B2 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera | |
CN113052907A (zh) | 一种动态环境移动机器人的定位方法 | |
JP7283734B2 (ja) | 追跡装置、追跡方法、及びプログラム | |
JP2021144359A (ja) | 学習装置、推定装置、学習方法、及びプログラム | |
US11314968B2 (en) | Information processing apparatus, control method, and program | |
JP7276968B2 (ja) | 3次元データ更新装置、顔向き推定装置、3次元データ更新方法およびプログラム | |
JP7283735B2 (ja) | 追跡装置、追跡方法、及びプログラム | |
KR101844367B1 (ko) | 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치 | |
US12112502B2 (en) | Three-dimensional map estimation apparatus and obstacle detection apparatus | |
WO2024089855A1 (ja) | 点群移動推定装置、点群移動推定方法、及びプログラム | |
JP7279893B2 (ja) | 顔検出装置、顔検出方法、及びプログラム | |
Rezaei et al. | Driver Inattention Detection | |
JP2021144358A (ja) | 学習装置、推定装置、学習方法、及びプログラム | |
CN112711324A (zh) | 基于tof相机的手势交互方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7283734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |