JP7391150B1 - 同定装置、同定方法及び同定プログラム - Google Patents
同定装置、同定方法及び同定プログラム Download PDFInfo
- Publication number
- JP7391150B1 JP7391150B1 JP2022123031A JP2022123031A JP7391150B1 JP 7391150 B1 JP7391150 B1 JP 7391150B1 JP 2022123031 A JP2022123031 A JP 2022123031A JP 2022123031 A JP2022123031 A JP 2022123031A JP 7391150 B1 JP7391150 B1 JP 7391150B1
- Authority
- JP
- Japan
- Prior art keywords
- person
- target
- target person
- identification device
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000012545 processing Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 abstract description 11
- 230000006399 behavior Effects 0.000 description 16
- 210000003423 ankle Anatomy 0.000 description 13
- 210000002683 foot Anatomy 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 11
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 210000003127 knee Anatomy 0.000 description 8
- 238000012937 correction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】動画を構成するフレーム間で同一の人を適切に特定可能にする。【解決手段】方向推定部24は、動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、対象人の向きを推定する。範囲設定部25は、方向推定部24によって推定された向きに応じて探索範囲を設定する。同一人特定部27は、複数のフレームのうちの対象フレームよりも前の過去フレームに映った人のうち、範囲設定部25によって設定された探索範囲にいる人から対象人と同一の人を特定する。【選択図】図1
Description
本開示は、動画を構成するフレーム間で同一の人を特定する技術に関する。
動画を構成するフレーム間で同一の人を特定することが行われている。連続する複数のフレーム間で同一の人を特定することにより、人の行動等を特定することが可能になる。特許文献1には、人物画像が示す特徴である人物特徴量に基づきフレーム間で同一の人を特定することが記載されている。
同一の人を特定する際、対象フレームにおける人の位置と、対象フレームの前の過去フレームにおける人の位置とが考慮されることがある。例えば、対象フレームにおける対象人の位置を基準位置として、過去フレームにおける基準位置の周囲における基準範囲にいる人から対象人と同一の人を特定するといったことが行われている。
基準範囲を狭く設定した場合には、過去フレームにおいて対象人と同一の人は基準範囲外にいる可能性が高くなる。フレームレートが低いほど、この可能性が高くなる。その結果、対象人と同一の人を特定できない可能性が高くなる。一方、基準範囲を広く設定した場合には、対象人とは異なる人が基準範囲に入ってしまう可能性が高くなる。その結果、適切に対象人と同一の人を特定できない可能性が高くなる。
本開示は、動画を構成するフレーム間で同一の人を適切に特定可能にすることを目的とする。
本開示は、動画を構成するフレーム間で同一の人を適切に特定可能にすることを目的とする。
本開示に係る同定装置は、
動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定部と、
前記方向推定部によって推定された前記向きに応じて探索範囲を設定する範囲設定部と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定部によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定部と
を備える。
動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定部と、
前記方向推定部によって推定された前記向きに応じて探索範囲を設定する範囲設定部と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定部によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定部と
を備える。
本開示では、対象フレームに映った対象人の向きに応じて探索範囲が設定される。これにより、適切な範囲から対象人と同一の人が特定される。その結果、対象人と同一の人を適切に特定可能になる。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る同定装置10の構成を説明する。
同定装置10は、コンピュータである。
同定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
***構成の説明***
図1を参照して、実施の形態1に係る同定装置10の構成を説明する。
同定装置10は、コンピュータである。
同定装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うICである。ICはIntegrated Circuitの略である。プロセッサ11は、具体例としては、CPU、DSP、GPUである。CPUは、Central Processing Unitの略である。DSPは、Digital Signal Processorの略である。GPUは、Graphics Processing Unitの略である。
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM、DRAMである。SRAMは、Static Random Access Memoryの略である。DRAMは、Dynamic Random Access Memoryの略である。
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDDである。HDDは、Hard Disk Driveの略である。また、ストレージ13は、SD(登録商標)メモリカード、CompactFlash(登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、Blu-ray(登録商標)ディスク、DVDといった可搬記録媒体であってもよい。SDは、Secure Digitalの略である。DVDは、Digital Versatile Diskの略である。
通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB、HDMI(登録商標)のポートである。USBは、Universal Serial Busの略である。HDMIは、High-Definition Multimedia Interfaceの略である。
同定装置10は、通信インタフェース14を介して、カメラ41が接続されている。
同定装置10は、機能構成要素として、フレーム取得部21と、骨格抽出部22と、同定部23とを備える。同定部23は、方向推定部24と、範囲設定部25と、特徴量計算部26と、同一人特定部27と、ID付与部28とを備える。同定装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、同定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、同定装置10の各機能構成要素の機能が実現される。
ストレージ13には、同定装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、同定装置10の各機能構成要素の機能が実現される。
図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図2から図10を参照して、実施の形態1に係る同定装置10の動作を説明する。
実施の形態1に係る同定装置10の動作手順は、実施の形態1に係る同定方法に相当する。また、実施の形態1に係る同定装置10の動作を実現するプログラムは、実施の形態1に係る同定プログラムに相当する。
図2から図10を参照して、実施の形態1に係る同定装置10の動作を説明する。
実施の形態1に係る同定装置10の動作手順は、実施の形態1に係る同定方法に相当する。また、実施の形態1に係る同定装置10の動作を実現するプログラムは、実施の形態1に係る同定プログラムに相当する。
図2を参照して、実施の形態1に係る同定装置10の全体的な処理を説明する。
(ステップS11:終了判定処理)
フレーム取得部21は、カメラ41により得られた動画が終了したか否かを判定する。
フレーム取得部21は、動画が終了していない場合には、処理をステップS12に進める。一方、フレーム取得部21は、動画が終了した場合には、処理を終了する。
(ステップS11:終了判定処理)
フレーム取得部21は、カメラ41により得られた動画が終了したか否かを判定する。
フレーム取得部21は、動画が終了していない場合には、処理をステップS12に進める。一方、フレーム取得部21は、動画が終了した場合には、処理を終了する。
(ステップS12:フレーム取得処理)
フレーム取得部21は、カメラ41により得られた動画を構成する複数のフレームのうち、最新のフレームの画像データを対象フレームとして取得する。
フレーム取得部21は、カメラ41により得られた動画を構成する複数のフレームのうち、最新のフレームの画像データを対象フレームとして取得する。
ステップS13からステップS14の処理が、ステップS12で取得された対象フレームに映った1人以上の人それぞれを対象人として実行される。
(ステップS13:骨格抽出処理)
骨格抽出部22は、対象人の関節の位置を示す骨格情報を抽出する。骨格情報は、対象フレームにおける関節の座標値(X座標及びY座標)を示す。骨格情報の抽出には、既存の技術を用いればよい。なお、骨格情報は、関節の位置だけでなく、目、口、鼻、耳といった体の部位の位置も示していてもよい。骨格抽出部22は、抽出された骨格情報を、対象フレームと対応付けてメモリ12に書き込む。
骨格抽出部22は、対象人の関節の位置を示す骨格情報を抽出する。骨格情報は、対象フレームにおける関節の座標値(X座標及びY座標)を示す。骨格情報の抽出には、既存の技術を用いればよい。なお、骨格情報は、関節の位置だけでなく、目、口、鼻、耳といった体の部位の位置も示していてもよい。骨格抽出部22は、抽出された骨格情報を、対象フレームと対応付けてメモリ12に書き込む。
(ステップS14:同定処理)
同定部23は、ステップS12で取得された対象フレームに映った1人以上の人それぞれを順に対象人に設定する。同定部23は、動画を構成する複数のフレームのうちの対象フレームよりも1つ前のフレームである過去フレームから、対象人と同一の人を特定する。
同定部23は、ステップS12で取得された対象フレームに映った1人以上の人それぞれを順に対象人に設定する。同定部23は、動画を構成する複数のフレームのうちの対象フレームよりも1つ前のフレームである過去フレームから、対象人と同一の人を特定する。
図3を参照して、実施の形態1に係る同定処理(図2のステップS14)を説明する。
(ステップS21:フレーム判定処理)
同定部23は、対象フレームが動画の最初のフレームであるか否かを判定する。
同定部23は、対象フレームが最初のフレームでない場合には、処理をステップS22に進める。一方、同定部23は、対象フレームが最初のフレームである場合には、処理をステップS27に進める。
(ステップS21:フレーム判定処理)
同定部23は、対象フレームが動画の最初のフレームであるか否かを判定する。
同定部23は、対象フレームが最初のフレームでない場合には、処理をステップS22に進める。一方、同定部23は、対象フレームが最初のフレームである場合には、処理をステップS27に進める。
(ステップS22:方向推定処理)
方向推定部24は、対象人の向きを推定する。
実施の形態1では、方向推定部24は、骨格情報を入力として向きを推論する学習済モデルを用いて、対象人の向きを推定する。学習済モデルは、例えば、ニューラルネットワークを用いて構成される。具体的には、方向推定部24は、学習済モデルに対して、ステップS13で抽出された対象人の骨格情報を入力として与える。方向推定部24は、学習済モデルによって出力された向きを、対象人の向きとして推定する。ここでは、対象人の向きは、図4に示すように、対象人を中心としたX軸の正方向に対する、対象人が向いている方向の角度である。
学習済モデルは、対象人の骨格情報と、正解データである対象人の向きとの組を学習データとして与えることにより生成される。
方向推定部24は、対象人の向きを推定する。
実施の形態1では、方向推定部24は、骨格情報を入力として向きを推論する学習済モデルを用いて、対象人の向きを推定する。学習済モデルは、例えば、ニューラルネットワークを用いて構成される。具体的には、方向推定部24は、学習済モデルに対して、ステップS13で抽出された対象人の骨格情報を入力として与える。方向推定部24は、学習済モデルによって出力された向きを、対象人の向きとして推定する。ここでは、対象人の向きは、図4に示すように、対象人を中心としたX軸の正方向に対する、対象人が向いている方向の角度である。
学習済モデルは、対象人の骨格情報と、正解データである対象人の向きとの組を学習データとして与えることにより生成される。
向きの推定方法は、学習済モデルを用いた方法に限定されるものではない。例えば、方向推定部24は、ステップS13で抽出された対象人の骨格情報における右肩と左肩とを結ぶ線に対する法線を特定し、法線の向きを対象人の向きとして特定する等してもよい。なお、肩の骨格情報により対象人の肩が右か左かが分かるため、法線は正面方向の1方向に定まる。
(ステップS23:範囲設定処理)
範囲設定部25は、ステップS22で推定された対象人の向きに応じて、対象人についての探索範囲を設定する。探索範囲は、対象人と同一の人を探索する範囲である。
具体的には、図4に示すように、範囲設定部25は、対象人の周囲に設定された基準範囲を、向きの逆方向に拡張することにより、探索範囲を設定する。基準範囲は、対象人の位置を中心とする円Xであり、従来の探索範囲である。範囲設定部25は、対象人の位置を中心とし、中心角γかつ半径rの扇形Yを向きの逆方向に設定する。逆方向に設定するとは、扇形Yの中心角γを2等分する2等分線Zが向きの逆方向に重なるように扇形Yを設定することを意味する。そして、範囲設定部25は、円Xと扇形Yとの少なくともいずれかに含まれる領域を探索範囲に設定する。ここで、扇形Yの半径rは、円Xの半径よりも長い。
範囲設定部25は、ステップS22で推定された対象人の向きに応じて、対象人についての探索範囲を設定する。探索範囲は、対象人と同一の人を探索する範囲である。
具体的には、図4に示すように、範囲設定部25は、対象人の周囲に設定された基準範囲を、向きの逆方向に拡張することにより、探索範囲を設定する。基準範囲は、対象人の位置を中心とする円Xであり、従来の探索範囲である。範囲設定部25は、対象人の位置を中心とし、中心角γかつ半径rの扇形Yを向きの逆方向に設定する。逆方向に設定するとは、扇形Yの中心角γを2等分する2等分線Zが向きの逆方向に重なるように扇形Yを設定することを意味する。そして、範囲設定部25は、円Xと扇形Yとの少なくともいずれかに含まれる領域を探索範囲に設定する。ここで、扇形Yの半径rは、円Xの半径よりも長い。
扇形Yの中心角γは、カメラ41の俯角等によって最適な値が異なる。したがって、扇形Yの中心角γは、カメラ41の俯角等に応じて事前に設定される。
扇形Yの半径rは、(1)から(4)に応じて設定される。(1)対象人の向き。(2)対象フレームにおける対象人の奥行方向の位置。(3)対象人の足の長さ。(4)過去フレームから対象フレームまでの経過時間。つまり、(1)から(4)に応じた距離だけ、基準範囲を向きの逆方向に拡張して探索範囲が設定される。
なお、実施の形態1では、扇形Yの半径rは、(1)から(4)に応じて設定されるものとして説明する。しかし、扇形Yの半径rは、(1)から(4)のいずれか1つ以上だけに応じて設定されてもよい。
なお、実施の形態1では、扇形Yの半径rは、(1)から(4)に応じて設定されるものとして説明する。しかし、扇形Yの半径rは、(1)から(4)のいずれか1つ以上だけに応じて設定されてもよい。
具体的には、範囲設定部25は、式1により扇形Yの半径rを設定する。
(式1)
r=f(φ)・g(yf)・足の長さL・経過時間Δt
(式1)
r=f(φ)・g(yf)・足の長さL・経過時間Δt
f(φ)は、(1)の対象人の向きを考慮した補正関数である。つまり、f(φ)を用いて半径rが計算されるため、対象人の向きに応じて半径rが設定されることになる。カメラ41によって取得された画像データでは、奥行方向は圧縮される。そのため、画像データにおける上下方向に移動する場合よりも、左右方向に移動する場合の方が、同じ距離を移動しても画像データにおける移動量が多くなる。そこで、範囲設定部25は、上下方向に移動する場合よりも左右方向に移動する場合の方が半径rが大きくなるように、f(φ)により半径rを補正する。f(φ)は、式2に示す式である。
(式2)
f(φ)=max{|cos(φ)|,K}
φは、図4に示すように、画像データの横方向(対象人を中心にX軸の正の方向)に対する向きの角度である。|cos(φ)|は、向きが対象人の位置から画像データの上下方向(Y軸)に近くなるほど値が小さくなり、向きが対象人の位置から画像データの左右方向(X軸)に近くなるほど値が大きくなる。Kは定数であり、下限値を示す。Kの最適な値は、カメラの俯角等によって異なる。したがって、Kは、カメラ41の俯角等に応じて事前に設定される。
(式2)
f(φ)=max{|cos(φ)|,K}
φは、図4に示すように、画像データの横方向(対象人を中心にX軸の正の方向)に対する向きの角度である。|cos(φ)|は、向きが対象人の位置から画像データの上下方向(Y軸)に近くなるほど値が小さくなり、向きが対象人の位置から画像データの左右方向(X軸)に近くなるほど値が大きくなる。Kは定数であり、下限値を示す。Kの最適な値は、カメラの俯角等によって異なる。したがって、Kは、カメラ41の俯角等に応じて事前に設定される。
g(yf)は、(2)の対象フレームにおける対象人の奥行方向の位置を考慮した補正関数である。つまり、g(yf)を用いて半径rが計算されるため、対象フレームにおける対象人の奥行方向の位置に応じて半径rが設定されることになる。カメラ41から離れた位置に映っている人よりも、カメラ41に近い位置に映っている人の方が、同じ距離を移動しても画像データにおける移動量が多くなる。そこで、範囲設定部25は、カメラ41に近い位置に映っている人ほど半径rが大きくなるように、g(yf)により半径rを補正する。g(yf)は、式3に示す式である。
(式3)
g(yf)=αyf
αは、補正係数である。αの最適な値は、カメラの俯角等によって異なる。したがって、αは、カメラ41の俯角等に応じて事前に設定される。なお、αは正の値である。yfは、対象人の両足首のy座標の平均値である。実施の形態1では、図5に示すように、画像データの左上を原点とする座標系で対象人の位置が示されるものとする。そのため、画像データの下側ほどyfの値は大きくなる。その結果、g(yf)は足首のy座標が下側になるほど大きな値になる。足首のy座標が下側になることは、対象人の奥行方向の位置が手前側になることであり、対象人の位置がカメラ41に近づくことである。
(式3)
g(yf)=αyf
αは、補正係数である。αの最適な値は、カメラの俯角等によって異なる。したがって、αは、カメラ41の俯角等に応じて事前に設定される。なお、αは正の値である。yfは、対象人の両足首のy座標の平均値である。実施の形態1では、図5に示すように、画像データの左上を原点とする座標系で対象人の位置が示されるものとする。そのため、画像データの下側ほどyfの値は大きくなる。その結果、g(yf)は足首のy座標が下側になるほど大きな値になる。足首のy座標が下側になることは、対象人の奥行方向の位置が手前側になることであり、対象人の位置がカメラ41に近づくことである。
足の長さLは、(3)に対応している。足の長さLは、対象人の左右の足の長さの平均値である。実施の形態1では、範囲設定部25は、ステップS13で抽出された対象人の骨格情報から足の長さLを計算する。具体的には、図6に示すように、範囲設定部25は、左腰と左ひざの間の長さと、左ひざと左足首の間の長さとの和を左足の長さとして計算する。同様に、範囲設定部25は、右腰と右ひざの間の長さと、右ひざと右足首の間の長さとの和を右足の長さとして計算する。そして、範囲設定部25は、左足の長さと右足の長さとの平均値を足の長さLとして計算する。
足が長い人ほど移動速度が速くなる傾向がある。そこで、範囲設定部25は、足の長さLが長いほど半径rが大きくなるように、足の長さLにより半径rを補正する。
足が長い人ほど移動速度が速くなる傾向がある。そこで、範囲設定部25は、足の長さLが長いほど半径rが大きくなるように、足の長さLにより半径rを補正する。
経過時間は、(4)に対応している。経過時間は、過去フレームから対象フレームまでの時間である。つまり、経過時間は、フレーム間の時間である。したがって、経過時間は、フレームレートによって定まる時間である。経過時間が長いと、同じ移動速度でも移動量が多くなる。そこで、範囲設定部25は、経過時間が長いほど半径rが大きくなるように、経過時間により半径rを補正する。
(ステップS24:特徴量計算処理)
特徴量計算部26は、対象フレームに映った対象人の特徴量εと、過去フレームにおけるステップS23で設定された探索範囲に映った人である過去人との特徴量ε_とを計算する。
実施の形態1では、特徴量計算部26は、ステップS13で抽出された対象人の骨格情報から特徴量εを計算する。同様に、特徴量計算部26は、過去に実行されたステップS13で抽出された過去人の骨格情報から特徴量ε_を計算する。
具体的には、図6に示すように、特徴量計算部26は、左腰と左ひざの間の長さと、左ひざと左足首の間の長さとの和を左足の長さとして計算する。同様に、特徴量計算部26は、右腰と右ひざの間の長さと、右ひざと右足首の間の長さとの和を右足の長さとして計算する。そして、特徴量計算部26は、左足の長さと右足の長さとの合計値を特徴量ε(又はε_)として計算する。
人の奥行方向の位置によって画像データにおける足の長さは変化してしまう。そこで、特徴量計算部26は、対象人と過去人との奥行方向の位置の差異に基づき、過去人の特徴量ε_を補正する。具体的には、特徴量計算部26は、式4により、特徴量ε_を補正して特徴量ε_’を計算する。
(式4)
ε_’=ε_(1+β(yf+-yf-))
ここで、βは補正係数である。βの最適な値は、カメラの俯角等によって異なる。したがって、βは、カメラ41の俯角等に応じて事前に設定される。なお、βは、正の値である。yf+は、対象フレームにおける対象人の両足首のy座標の平均値である。yf-は、過去フレームにおける過去人の両足首のy座標の平均値である。画像データの下側ほどyf+及びyf-の値は大きくなる。したがって、対象人の位置が過去人の位置よりも下側にある場合には、特徴量ε_’は、特徴量ε_よりも大きな値に補正される。
特徴量計算部26は、対象フレームに映った対象人の特徴量εと、過去フレームにおけるステップS23で設定された探索範囲に映った人である過去人との特徴量ε_とを計算する。
実施の形態1では、特徴量計算部26は、ステップS13で抽出された対象人の骨格情報から特徴量εを計算する。同様に、特徴量計算部26は、過去に実行されたステップS13で抽出された過去人の骨格情報から特徴量ε_を計算する。
具体的には、図6に示すように、特徴量計算部26は、左腰と左ひざの間の長さと、左ひざと左足首の間の長さとの和を左足の長さとして計算する。同様に、特徴量計算部26は、右腰と右ひざの間の長さと、右ひざと右足首の間の長さとの和を右足の長さとして計算する。そして、特徴量計算部26は、左足の長さと右足の長さとの合計値を特徴量ε(又はε_)として計算する。
人の奥行方向の位置によって画像データにおける足の長さは変化してしまう。そこで、特徴量計算部26は、対象人と過去人との奥行方向の位置の差異に基づき、過去人の特徴量ε_を補正する。具体的には、特徴量計算部26は、式4により、特徴量ε_を補正して特徴量ε_’を計算する。
(式4)
ε_’=ε_(1+β(yf+-yf-))
ここで、βは補正係数である。βの最適な値は、カメラの俯角等によって異なる。したがって、βは、カメラ41の俯角等に応じて事前に設定される。なお、βは、正の値である。yf+は、対象フレームにおける対象人の両足首のy座標の平均値である。yf-は、過去フレームにおける過去人の両足首のy座標の平均値である。画像データの下側ほどyf+及びyf-の値は大きくなる。したがって、対象人の位置が過去人の位置よりも下側にある場合には、特徴量ε_’は、特徴量ε_よりも大きな値に補正される。
なお、特徴量は、左足の長さと右足の長さとの合計値に限定されるものではない。例えば、他の部分の長さが特徴量として用いられてもよい。また、骨格情報ではなく、人の画像データから得られる情報が特徴量として用いられてもよい。
(ステップS25:同一人特定処理)
同一人特定部27は、過去フレームに映った人のうち、ステップS23で設定された探索範囲にいる人から対象人と同一の人を特定する。
具体的には、同一人特定部27は、対象人の特徴量εと、補正した過去人の特徴量ε_’との差が閾値以内であれば、過去人を対象人と同一の人として特定する。差が閾値以内である過去人が複数存在する場合には、同一人特定部27は、差が最も小さい過去人を対象人と同一の人として特定する。差が閾値以内である過去人がいない場合には、同一人特定部27は、対象人と同一の人はいないと判定する。
同一人特定部27は、過去フレームに映った人のうち、ステップS23で設定された探索範囲にいる人から対象人と同一の人を特定する。
具体的には、同一人特定部27は、対象人の特徴量εと、補正した過去人の特徴量ε_’との差が閾値以内であれば、過去人を対象人と同一の人として特定する。差が閾値以内である過去人が複数存在する場合には、同一人特定部27は、差が最も小さい過去人を対象人と同一の人として特定する。差が閾値以内である過去人がいない場合には、同一人特定部27は、対象人と同一の人はいないと判定する。
(ステップS26:ID付与処理)
ID付与部28は、対象人にIDを付与する。IDは、IDentifierの略である。
この際、ID付与部28は、ステップS25で対象人と同一の人が特定された場合には、同一の人と特定された過去人のIDを対象人に付与する。一方、ID付与部28は、ステップS25で対象人と同一の人が特定されなかった場合には、新たなIDを対象人に付与する。
ID付与部28は、対象人にIDを付与する。IDは、IDentifierの略である。
この際、ID付与部28は、ステップS25で対象人と同一の人が特定された場合には、同一の人と特定された過去人のIDを対象人に付与する。一方、ID付与部28は、ステップS25で対象人と同一の人が特定されなかった場合には、新たなIDを対象人に付与する。
(ステップS27:ID付与処理)
ID付与部28は、新たなIDを対象人に付与する。
ID付与部28は、新たなIDを対象人に付与する。
図7から図10を参照して動作の具体例を説明する。
図7に示すように、対象フレームには、人aと人bとの2人が映っているとする。人aは、過去フレームでは人a-の位置にいたとする。人bは、過去フレームでは人b-の位置にいたとする。このとき、人a,b,a-,b-それぞれの特徴量と、両足首のy座標の平均値は、図8に示す値であるとする。また、閾値は10であり、式4における補正係数βは1/2000であるとする。
図7に示すように、対象フレームには、人aと人bとの2人が映っているとする。人aは、過去フレームでは人a-の位置にいたとする。人bは、過去フレームでは人b-の位置にいたとする。このとき、人a,b,a-,b-それぞれの特徴量と、両足首のy座標の平均値は、図8に示す値であるとする。また、閾値は10であり、式4における補正係数βは1/2000であるとする。
人aが対象人であるとする。この場合には、図9に示すように、人aの周囲の基準範囲である円Xと、人aの向きと逆方向に設定された扇形Yとを合わせた領域が探索範囲になる。なお、ここでは、各人の首の位置を、その人の位置としている。そのため、人aを対象人とした場合の探索範囲には、人a-及び人b-が入る。
そこで、人a-と人b-との特徴量ε_が補正される。人a-の場合には、補正後の特徴量ε_’=93×(1+1/2000(1800-1700))=97.65である。人b-の場合には、補正後の特徴量ε_’=80×(1+1/2000(1800-1700))=84である。そして、対象人である人aの特徴量ε=99との差が計算される。すると、差が閾値10以内である人a-が人aと同一の人として特定される。
そこで、人a-と人b-との特徴量ε_が補正される。人a-の場合には、補正後の特徴量ε_’=93×(1+1/2000(1800-1700))=97.65である。人b-の場合には、補正後の特徴量ε_’=80×(1+1/2000(1800-1700))=84である。そして、対象人である人aの特徴量ε=99との差が計算される。すると、差が閾値10以内である人a-が人aと同一の人として特定される。
人bが対象人であるとする。この場合には、図10に示すように、人bの周囲の基準範囲である円Xと、人bの向きと逆方向に設定された扇形Yとを合わせた領域が探索範囲になる。そのため、人bを対象人とした場合の探索範囲には、人b-だけが入る。
そこで、人b-の特徴量ε_が補正される。補正後の特徴量ε_’=80×(1+1/2000(1600-1700))=76である。そして、対象人である人aの特徴量ε=76との差が計算される。すると、差が閾値10以内であるため、人b-が人bと同一の人として特定される。
そこで、人b-の特徴量ε_が補正される。補正後の特徴量ε_’=80×(1+1/2000(1600-1700))=76である。そして、対象人である人aの特徴量ε=76との差が計算される。すると、差が閾値10以内であるため、人b-が人bと同一の人として特定される。
***実施の形態1の効果***
以上のように、実施の形態1に係る同定装置10は、対象フレームに映った対象人の向きに応じて探索範囲を設定する。
これにより、適切な範囲から対象人と同一の人が特定される。その結果、対象人と同一の人を適切に特定可能になる。
以上のように、実施の形態1に係る同定装置10は、対象フレームに映った対象人の向きに応じて探索範囲を設定する。
これにより、適切な範囲から対象人と同一の人が特定される。その結果、対象人と同一の人を適切に特定可能になる。
特に実施の形態1に係る同定装置10は(1)から(4)に応じた距離だけ、基準範囲を向きの逆方向に拡張して探索範囲を設定する。(1)対象人の向き。(2)対象フレームにおける対象人の奥行方向の位置。(3)対象人の足の長さ。(4)過去フレームから対象フレームまでの経過時間。
これにより、適切な範囲から対象人と同一の人が特定される。その結果、対象人と同一の人を適切に特定可能になる。
これにより、適切な範囲から対象人と同一の人が特定される。その結果、対象人と同一の人を適切に特定可能になる。
実施の形態1に係る同定装置10は、設定された探索範囲にいる人から、特徴量に基づき対象人と同一の人を特定する。つまり、同定装置10は、単に位置が近いというだけでなく、特徴量を考慮して対象人と同一の人を特定する。
これにより、対象人と同一の人を適切に特定可能になる。
これにより、対象人と同一の人を適切に特定可能になる。
特に実施の形態1に係る同定装置10は、対象人と過去人との奥行方向の位置の差異により過去人の特徴量を補正した上で、特徴量に基づき対象人と同一の人を特定する。
これにより、特徴量の比較を精度よく行うことが可能になる。その結果、対象人と同一の人を適切に特定可能になる。
これにより、特徴量の比較を精度よく行うことが可能になる。その結果、対象人と同一の人を適切に特定可能になる。
***他の構成***
<変形例1>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
<変形例1>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
図11を参照して、変形例1に係る同定装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、同定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素がハードウェアで実現される場合には、同定装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAが想定される。GAは、Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。FPGAは、Field-Programmable Gate Arrayの略である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
<変形例2>
変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
実施の形態2は、行動を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態2は、行動を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
***構成の説明***
図12を参照して、実施の形態2に係る同定装置10の構成を説明する。
同定装置10は、機能構成要素として、行動解析部29を備える点が図1に示す同定装置10と異なる。また、ストレージ13に行動解析ルール31が記憶されている点が図1に示す同定装置10と異なる。
図12を参照して、実施の形態2に係る同定装置10の構成を説明する。
同定装置10は、機能構成要素として、行動解析部29を備える点が図1に示す同定装置10と異なる。また、ストレージ13に行動解析ルール31が記憶されている点が図1に示す同定装置10と異なる。
***動作の説明***
図13を参照して、実施の形態2に係る同定装置10の動作を説明する。
ステップS31からステップS34の処理は、図2のステップS11からステップS14の処理と同じである。但し、ステップS33からステップS35の処理がステップS32で取得された対象フレームに映った1人以上の人それぞれを対象人として実行される。
図13を参照して、実施の形態2に係る同定装置10の動作を説明する。
ステップS31からステップS34の処理は、図2のステップS11からステップS14の処理と同じである。但し、ステップS33からステップS35の処理がステップS32で取得された対象フレームに映った1人以上の人それぞれを対象人として実行される。
(ステップS35:行動解析処理)
行動解析部29は、行動解析ルール31を参照して、対象人の行動内容を特定する。この際、行動解析部29は、ステップS34の同定処理で同一の人であると特定された結果を利用する。
行動解析ルール31は、行動内容毎に解析条件が設定されている。解析条件は、骨格情報に基づき定められている。解析条件は、関節間の位置関係と、関節の移動距離と等により定められている。関節間の位置関係は、ステップS33で抽出された骨格情報だけで特定可能である。一方、関節の移動距離は、ステップS34の同定処理で同一の人であると特定された結果を利用して特定される。例えば、対象フレームにおける対象人の足首の位置と、過去フレームにおける対象人と同一の人の足首の位置とから、足首の移動距離が特定される。
行動解析部29は、解析条件を満たす行動内容を対象人が行っていると特定する。
行動解析部29は、行動解析ルール31を参照して、対象人の行動内容を特定する。この際、行動解析部29は、ステップS34の同定処理で同一の人であると特定された結果を利用する。
行動解析ルール31は、行動内容毎に解析条件が設定されている。解析条件は、骨格情報に基づき定められている。解析条件は、関節間の位置関係と、関節の移動距離と等により定められている。関節間の位置関係は、ステップS33で抽出された骨格情報だけで特定可能である。一方、関節の移動距離は、ステップS34の同定処理で同一の人であると特定された結果を利用して特定される。例えば、対象フレームにおける対象人の足首の位置と、過去フレームにおける対象人と同一の人の足首の位置とから、足首の移動距離が特定される。
行動解析部29は、解析条件を満たす行動内容を対象人が行っていると特定する。
***実施の形態2の効果***
以上のように、実施の形態2に係る同定装置10は、同定処理で同一の人であると特定された結果を利用して、対象人の行動内容を特定する。
同定処理では適切に同一の人が特定されている。そのため、適切に対象人の行動内容を特定可能である。
以上のように、実施の形態2に係る同定装置10は、同定処理で同一の人であると特定された結果を利用して、対象人の行動内容を特定する。
同定処理では適切に同一の人が特定されている。そのため、適切に対象人の行動内容を特定可能である。
なお、以上の説明における「部」を、「回路」、「工程」、「手順」、「処理」又は「処理回路」に読み替えてもよい。
以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
以下、本開示の諸態様を付記としてまとめて記載する。
(付記1)
動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定部と、
前記方向推定部によって推定された前記向きの逆方向に探索範囲を設定する範囲設定部と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定部によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定部と
を備える同定装置。
(付記2)
前記範囲設定部は、前記対象人の周囲に設定された基準範囲を、前記向きの逆方向に拡張することにより、前記探索範囲を設定する
付記1に記載の同定装置。
(付記3)
前記範囲設定部は、前記向きに応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2に記載の同定装置。
(付記4)
前記範囲設定部は、前記対象フレームにおける前記対象人の奥行方向の位置に応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2又は3に記載の同定装置。
(付記5)
前記範囲設定部は、前記対象人の足の長さに応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2から4までのいずれか1項に記載の同定装置。
(付記6)
前記範囲設定部は、前記過去フレームから前記対象フレームまでの経過時間に応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2から5までのいずれか1項に記載の同定装置。
(付記7)
前記同一人特定部は、前記探索範囲にいる人のうち前記対象人と特徴量の差が閾値以内の人を、前記対象人と同一の人として特定する
付記1から6までのいずれか1項に記載の同定装置。
(付記8)
前記同一人特定部は、前記探索範囲にいる人である過去人について、前記過去フレームにおける過去人の位置と前記対象フレームにおける前記対象人の位置との奥行方向の差異により、前記過去人の特徴量を補正した上で、前記対象人と特徴量の差が閾値以内の人を、前記対象人と同一の人として特定する
付記7に記載の同定装置。
(付記9)
前記特徴量は、関節の位置を示す骨格情報から計算された
付記7又は8に記載の同定装置。
(付記10)
前記方向推定部は、関節の位置を示す骨格情報を入力として向きを推論する学習済モデルに対して、前記対象人の前記骨格情報を入力として与えることにより、前記向きを推定する
付記1から9までのいずれか1項に記載の同定装置。
(付記11)
コンピュータが、動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定し、
コンピュータが、前記向きの逆方向に探索範囲を設定し、
コンピュータが、前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記探索範囲にいる人から前記対象人と同一の人を特定する同定方法。
(付記12)
動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定処理と、
前記方向推定処理によって推定された前記向きの逆方向に探索範囲を設定する範囲設定処理と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定処理によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定処理と
を行う同定装置としてコンピュータを機能させる同定プログラム。
(付記1)
動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定部と、
前記方向推定部によって推定された前記向きの逆方向に探索範囲を設定する範囲設定部と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定部によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定部と
を備える同定装置。
(付記2)
前記範囲設定部は、前記対象人の周囲に設定された基準範囲を、前記向きの逆方向に拡張することにより、前記探索範囲を設定する
付記1に記載の同定装置。
(付記3)
前記範囲設定部は、前記向きに応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2に記載の同定装置。
(付記4)
前記範囲設定部は、前記対象フレームにおける前記対象人の奥行方向の位置に応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2又は3に記載の同定装置。
(付記5)
前記範囲設定部は、前記対象人の足の長さに応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2から4までのいずれか1項に記載の同定装置。
(付記6)
前記範囲設定部は、前記過去フレームから前記対象フレームまでの経過時間に応じた距離だけ、前記基準範囲を前記逆方向に拡張する
付記2から5までのいずれか1項に記載の同定装置。
(付記7)
前記同一人特定部は、前記探索範囲にいる人のうち前記対象人と特徴量の差が閾値以内の人を、前記対象人と同一の人として特定する
付記1から6までのいずれか1項に記載の同定装置。
(付記8)
前記同一人特定部は、前記探索範囲にいる人である過去人について、前記過去フレームにおける過去人の位置と前記対象フレームにおける前記対象人の位置との奥行方向の差異により、前記過去人の特徴量を補正した上で、前記対象人と特徴量の差が閾値以内の人を、前記対象人と同一の人として特定する
付記7に記載の同定装置。
(付記9)
前記特徴量は、関節の位置を示す骨格情報から計算された
付記7又は8に記載の同定装置。
(付記10)
前記方向推定部は、関節の位置を示す骨格情報を入力として向きを推論する学習済モデルに対して、前記対象人の前記骨格情報を入力として与えることにより、前記向きを推定する
付記1から9までのいずれか1項に記載の同定装置。
(付記11)
コンピュータが、動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定し、
コンピュータが、前記向きの逆方向に探索範囲を設定し、
コンピュータが、前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記探索範囲にいる人から前記対象人と同一の人を特定する同定方法。
(付記12)
動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定処理と、
前記方向推定処理によって推定された前記向きの逆方向に探索範囲を設定する範囲設定処理と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定処理によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定処理と
を行う同定装置としてコンピュータを機能させる同定プログラム。
10 同定装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 フレーム取得部、22 骨格抽出部、23 同定部、24 方向推定部、25 範囲設定部、26 特徴量計算部、27 同一人特定部、28 ID付与部、29 行動解析部、31 行動解析ルール、41 カメラ。
Claims (12)
- 動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定部と、
前記方向推定部によって推定された前記向きの逆方向に探索範囲を設定する範囲設定部と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定部によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定部と
を備える同定装置。 - 前記範囲設定部は、前記対象人の周囲に設定された基準範囲を、前記向きの逆方向に拡張することにより、前記探索範囲を設定する
請求項1に記載の同定装置。 - 前記範囲設定部は、前記向きに応じた距離だけ、前記基準範囲を前記逆方向に拡張する
請求項2に記載の同定装置。 - 前記範囲設定部は、前記対象フレームにおける前記対象人の奥行方向の位置に応じた距離だけ、前記基準範囲を前記逆方向に拡張する
請求項2に記載の同定装置。 - 前記範囲設定部は、前記対象人の足の長さに応じた距離だけ、前記基準範囲を前記逆方向に拡張する
請求項2に記載の同定装置。 - 前記範囲設定部は、前記過去フレームから前記対象フレームまでの経過時間に応じた距離だけ、前記基準範囲を前記逆方向に拡張する
請求項2に記載の同定装置。 - 前記同一人特定部は、前記探索範囲にいる人のうち前記対象人と特徴量の差が閾値以内の人を、前記対象人と同一の人として特定する
請求項1に記載の同定装置。 - 前記同一人特定部は、前記探索範囲にいる人である過去人について、前記過去フレームにおける過去人の位置と前記対象フレームにおける前記対象人の位置との奥行方向の差異により、前記過去人の特徴量を補正した上で、前記対象人と特徴量の差が閾値以内の人を、前記対象人と同一の人として特定する
請求項7に記載の同定装置。 - 前記特徴量は、関節の位置を示す骨格情報から計算された
請求項7に記載の同定装置。 - 前記方向推定部は、関節の位置を示す骨格情報を入力として向きを推論する学習済モデルに対して、前記対象人の前記骨格情報を入力として与えることにより、前記向きを推定する
請求項1に記載の同定装置。 - コンピュータが、動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定し、
コンピュータが、前記向きの逆方向に探索範囲を設定し、
コンピュータが、前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記探索範囲にいる人から前記対象人と同一の人を特定する同定方法。 - 動画を構成する複数のフレームのうちの対象フレームに映った人を対象人として、前記対象人の向きを推定する方向推定処理と、
前記方向推定処理によって推定された前記向きの逆方向に探索範囲を設定する範囲設定処理と、
前記複数のフレームのうちの前記対象フレームよりも前の過去フレームに映った人のうち、前記範囲設定処理によって設定された前記探索範囲にいる人から前記対象人と同一の人を特定する同一人特定処理と
を行う同定装置としてコンピュータを機能させる同定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022123031A JP7391150B1 (ja) | 2022-08-02 | 2022-08-02 | 同定装置、同定方法及び同定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022123031A JP7391150B1 (ja) | 2022-08-02 | 2022-08-02 | 同定装置、同定方法及び同定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7391150B1 true JP7391150B1 (ja) | 2023-12-04 |
JP2024020678A JP2024020678A (ja) | 2024-02-15 |
Family
ID=89023147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022123031A Active JP7391150B1 (ja) | 2022-08-02 | 2022-08-02 | 同定装置、同定方法及び同定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7391150B1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197463A (ja) | 2000-12-26 | 2002-07-12 | Matsushita Electric Ind Co Ltd | 挙動検出装置および挙動検出システム |
JP2018067755A (ja) | 2016-10-17 | 2018-04-26 | シャープ株式会社 | 検出データ管理装置 |
US20190138816A1 (en) | 2017-07-26 | 2019-05-09 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for segmenting video object, electronic device, and storage medium |
JP2022019339A (ja) | 2020-07-17 | 2022-01-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2022091335A1 (ja) | 2020-10-30 | 2022-05-05 | 日本電気株式会社 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
-
2022
- 2022-08-02 JP JP2022123031A patent/JP7391150B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197463A (ja) | 2000-12-26 | 2002-07-12 | Matsushita Electric Ind Co Ltd | 挙動検出装置および挙動検出システム |
JP2018067755A (ja) | 2016-10-17 | 2018-04-26 | シャープ株式会社 | 検出データ管理装置 |
US20190138816A1 (en) | 2017-07-26 | 2019-05-09 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for segmenting video object, electronic device, and storage medium |
JP2022019339A (ja) | 2020-07-17 | 2022-01-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2022091335A1 (ja) | 2020-10-30 | 2022-05-05 | 日本電気株式会社 | 物体追跡装置、物体追跡理方法、及び、記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2024020678A (ja) | 2024-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101169533B1 (ko) | 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 | |
JP5832116B2 (ja) | 3次元場面の分析 | |
JP4830650B2 (ja) | 追跡装置 | |
JP5873442B2 (ja) | 物体検出装置および物体検出方法 | |
US11037325B2 (en) | Information processing apparatus and method of controlling the same | |
CN108960045A (zh) | 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体 | |
KR20130073812A (ko) | 객체 포즈 추정을 위한 장치 및 방법 | |
US9727776B2 (en) | Object orientation estimation | |
CN113689503B (zh) | 目标对象的姿态检测方法、装置、设备及存储介质 | |
TWI763205B (zh) | 關鍵點檢測的方法和裝置、電子設備及記錄媒體 | |
JP7391150B1 (ja) | 同定装置、同定方法及び同定プログラム | |
US10964046B2 (en) | Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera | |
CN115280367A (zh) | 具有改进的姿态跟踪的运动学交互系统 | |
JP7327776B2 (ja) | 表情推定装置、感情判定装置、表情推定方法及びプログラム | |
JP7217820B1 (ja) | 移動量特定装置、移動量特定方法及び移動量特定プログラム | |
KR101844367B1 (ko) | 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치 | |
KR20170067398A (ko) | 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템 | |
WO2024004191A1 (ja) | 対応付け方法、装置、及びプログラム | |
WO2018191058A1 (en) | Image processing system with discriminative control | |
KR102562865B1 (ko) | 걸음걸이 인식 기반 객체 식별 및 추적 방법 및 컴퓨팅 장치 | |
US20230196593A1 (en) | High Density Markerless Tracking | |
Tran et al. | Human Face Tracking and Modeling using Active Appearance Model with Motion Estimation | |
US20220222962A1 (en) | Computing device, computing method, and computing program | |
US20210064886A1 (en) | Information processing device and computer program product | |
WO2020255645A1 (ja) | 3次元データ更新装置、顔向き推定装置、3次元データ更新方法およびコンピュータ読み取り可能な記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7391150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |