JP7374401B1 - 人物相関判定装置、人物相関判定方法および人物相関判定プログラム - Google Patents
人物相関判定装置、人物相関判定方法および人物相関判定プログラム Download PDFInfo
- Publication number
- JP7374401B1 JP7374401B1 JP2023554325A JP2023554325A JP7374401B1 JP 7374401 B1 JP7374401 B1 JP 7374401B1 JP 2023554325 A JP2023554325 A JP 2023554325A JP 2023554325 A JP2023554325 A JP 2023554325A JP 7374401 B1 JP7374401 B1 JP 7374401B1
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- people
- person
- skeletal information
- situation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000004364 calculation method Methods 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 238000012544 monitoring process Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000006073 displacement reaction Methods 0.000 claims description 35
- 230000036544 posture Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Abstract
Description
この技術では、関節位置の変位量が連動している二人に相関が有ると判定される。また、距離が近い二人に相関が有ると判定される。
しかし、関節位置の変位量が連動しない二人に相関が有る場合がある。また、距離が近い二人に相関が無い場合がある。このような場合、特許文献1の技術では、相関が有る二人組が正しく検出されない可能性がある。
監視領域を撮影して得られた監視映像から、前記監視映像に映った二人以上の人物のそれぞれの骨格情報を抽出する骨格情報抽出部と、
抽出された骨格情報の組に基づいて、前記骨格情報の前記組に対応する人物の組について複数種類の特徴量を算出する特徴量算出部と、
前記監視映像に基づいて、前記監視領域の特定の状況を示す状況値を算出する状況検出部と、
前記特徴量の種類ごとに、前記状況値に基づいて判定閾値を決定する閾値決定部と、
前記特徴量の種類ごとに前記特徴量を前記判定閾値と比較し、前記複数種類の特徴量の比較結果に基づいて前記人物の前記組について人物相関が有るか判定する人物相関判定部と、を備える。
人物相関判定装置100について、図1から図11に基づいて説明する。
図1に基づいて、人物相関判定装置100の構成を説明する。
人物相関判定装置100は、プロセッサ101とメモリ102と補助記憶装置103と通信装置104と入出力インタフェース105といったハードウェアを備えるコンピュータである。これらのハードウェアは、信号線を介して互いに接続されている。
ICは、Integrated Circuitの略称である。
CPUは、Central Processing Unitの略称である。
DSPは、Digital Signal Processorの略称である。
GPUは、Graphics Processing Unitの略称である。
RAMは、Random Access Memoryの略称である。
ROMは、Read Only Memoryの略称である。
HDDは、Hard Disk Driveの略称である。
人物相関判定装置100の通信は通信装置104を用いて行われる。例えば、人物相関判定装置100は通信装置104を用いてカメラ106と通信する。但し、カメラ106は入出力インタフェース105に接続されてもよい。
NICは、Network Interface Cardの略称である。
USBは、Universal Serial Busの略称である。
補助記憶装置103には、さらに、OSが記憶されている。OSの少なくとも一部は、メモリ102にロードされて、プロセッサ101によって実行される。
プロセッサ101は、OSを実行しながら、人物相関判定プログラムを実行する。
OSは、Operating Systemの略称である。
メモリ102は記憶部190として機能する。但し、補助記憶装置103、プロセッサ101内のレジスタおよびプロセッサ101内のキャッシュメモリなどの記憶装置が、メモリ102の代わりに、又は、メモリ102と共に、記憶部190として機能してもよい。
状況検出部130は、人数状況検出部131と人流状況検出部132と移動状況検出部133といった要素を備える。
特徴量算出部150は、変位特徴量算出部151と距離特徴量算出部152と位置特徴量算出部153と移動特徴量算出部154と向き特徴量算出部155といった要素を備える。
人物相関判定装置100の動作の手順は人物相関判定方法に相当する。また、人物相関判定装置100の動作の手順は人物相関判定プログラムによる処理の手順に相当する。
カメラ106は、監視領域を撮影し、各時刻の映像データを出力する。
監視領域は、監視される領域である。
映像データは、監視映像を示す。監視映像は、監視領域が映った映像である。
そして、映像取得部110は、取得された映像データを記憶部190に記憶する。これにより、各時刻の映像データが記憶部190に保存される。
そして、骨格情報抽出部120は、抽出された各骨格情報を記憶部190に記憶する。これにより、人物ごとに各時刻の骨格情報が記憶部190に保存される。
骨格情報は、人物の骨格における1つ以上の関節のそれぞれの位置を示す。さらに、骨格情報は、顔の各パーツの位置を示す。顔のパーツの具体例は目および鼻である。各関節の位置および顔の各パーツの位置は、監視映像における座標値で示される。
まず、骨格情報抽出部120は、監視映像に映った人物を検出する。
次に、骨格情報抽出部120は、検出された人物について監視映像に映った1つ以上の関節のそれぞれの位置を特定する。関節の位置は、従来技術を使って特定することができる。
そして、骨格情報抽出部120は、監視映像の二次元座標において特定された各位置の座標値を求める。
二人分以上の骨格情報が抽出された場合、処理はステップS140に進む。つまり、二人以上の人物が監視映像に映っている場合、処理はステップS140に進む。
骨格情報が抽出されなかった場合または一人分の骨格情報が抽出された場合、処理はステップS110に進む。つまり、人物が監視映像に映っていない場合または一人の人物が監視映像に映っている場合、処理はステップS110に進む。
具体的には、骨格情報の組は二人分の骨格情報から成る。つまり、骨格情報抽出部120は、二人分の骨格情報を選択する。
人物相関は、骨格情報の組に対応する人物の組について人物同士の相関を意味する。
ステップS150の詳細を後述する。
骨格情報の未選択の組が有る場合、処理はステップS140に進む。
骨格情報の未選択の組が無い場合、処理はステップS110に進む。
ステップS151において、状況検出部130は、監視映像に基づいて、監視領域の特定の状況を示す状況値を算出する。
人数状況値は、監視領域における人物の数(人数)に関する状況を示す。具体的には、人数状況値は、監視映像に映った二人以上の人物について人数を示す。
人流状況値は、監視領域における人物の流れ(人流)に関する状況を示す。具体的には、人流状況値は、時刻が異なる複数の監視映像における人流の等方性を示す。
移動状況値は、監視領域において人物が移動できる範囲(移動可能範囲)に関する状況を示す。具体的には、移動状況値は、監視領域において各人物が移動できる範囲の面積を示す。
人数状況検出部131は、映像データから抽出された骨格情報の数を人数として数える。
人数状況検出部131は、監視映像に映った人物を検出し、検出された人物の数を数えてもよい。
まず、人流状況検出部132は、今回までの複数の監視映像を解析することによって、監視映像に映った複数の人物のそれぞれの移動方向を算出する。移動方向は例えばオプティカルフローで示される。
そして、人流状況検出部132は、算出された移動方向の等方性を算出する。等方性は数値で示される。
図6に、ヒストグラム192を示す。ヒストグラム192は、移動方向のヒストグラムの例である。縦軸は人数を度数として示し、横軸は8つの方向を示す。破線は基準度数を示す。
まず、人流状況検出部132は、基準度数以上の人数を有する方向の数を数える。この数を等方性数と称する。ヒストグラム192において、等方性数は6である。
そして、人流状況検出部132は、等方性数を方向数で除算する。算出された商が人流状況値である。ヒストグラム192において、方向数は8である。この場合、人流状況値は0.75(=6/8)である。
移動状況値は以下のように算出される。
移動状況検出部133は、マスク画像191を解析することによって、移動可能範囲の面積を算出する。
マスク画像191は、記憶部190に予め記憶される。
マスク画像191は、監視領域の移動可能範囲を示す画像である。例えば、マスク画像191は、監視領域内の通路を示す。
マスク画像191は、人手で作成されてもよいし、監視映像を使って自動で作成されてもよい。例えば、マスク画像191は、領域検出技術によって自動で作成される。領域検出技術はセマンティックセグメンテーションとも呼ばれる。
つまり、閾値決定部140は、特徴量の種類ごとに、ステップS151で算出された状況値に基づいて判定閾値を決定する。
判定閾値は、人物相関の有無を判定するために特徴量と比較される閾値である。
変位特徴量は、人物同士の関節の変位量に関する特徴量である。具体的には、変位特徴量は、時刻が異なる複数の骨格情報に基づく関節の変位量について人物同士の相関度を示す。
距離特徴量は、人物間の距離に関する特徴量である。具体的には、距離特徴量は、人物間の関節の距離に基づく人物間の距離を示す。
位置特徴量は、人物同士の関節の位置に関する特徴量である。具体的には、位置特徴量は、各関節の位置に基づく姿勢または時刻が異なる複数の骨格情報に基づく関節の移動軌跡について人物同士の相関度を示す。
移動特徴量は、人物同士の移動方向に関する特徴量である。具体的には、移動特徴量は、時刻が異なる複数の骨格情報に基づく関節の移動方向について人物同士の類似度を示す。
向き特徴量は、人物同士の顔の向きに関する特徴量である。具体的には、向き特徴量は、骨格情報に基づく顔の向きについて人物同士の相関度を示す。
例えば、閾値決定部140は、特徴量の種類ごとに、数式を計算することによって判定閾値を算出する。数式は、特徴量の種類ごとに予め定義される。
数式は、以下のような形式で示される。
Thr = a * c1 + b * c2 + c * c3 + C
「Thr」は、判定閾値である。
「a」は、人数状況値である。
「c1」は、人数状況値に対する係数である。
「b」は、人流状況値である。
「c2」は、人流状況値に対する係数である。
「c」は、移動状況値である。
「c3」は、移動状況値に対する係数である。
「C」は、定数である。
学習済みモデルは、監視映像と適切な判定閾値の組を複数与えて機械学習を行うことによって生成されたモデルである。
機械学習の手法は、古典的な手法であってもよいし、深層学習手法であってもよい。
古典的な手法の具体例はSVMである。SVMはSupport vector machineの略称である。
深層学習手法の具体例はCNNおよびRNNである。CNNはConvolutional neural networksの略称である。RNNはRecurrent neural networksの略称である。
人流の等方性が高くて移動可能範囲が狭い場合、狭いエリアまたは周辺に他人が多く存在するエリアで群衆が同じ方向に移動していると考えられる。例えば、駅の改札口付近で多くの人物が同じ方向に同じ速度で移動する状況が想定される。
この場合、相関が無い人物同士が同じ速度で移動するため、人物同士に関節の変位量の相関(連動性または類似性)が見られることが多い。
そのため、変位特徴量用の判定閾値は、基準値よりも大きな値に補正される。これにより、関節の変位量に連動性があっても、人物相関が有ると判定され難くなる。
移動可能範囲が狭くて人数が多い場合、狭いエリア内に人物が多く存在していると考えられる。例えば、駅の改札口付近または小規模店舗(例えばコンビニエンスストア)で人物同士の距離が近くなる状況が想定される。
この場合、相関が無い人物同士の距離が近くなる。
そのため、距離特徴量用の判定閾値は、基準値よりも大きな値に補正される。これにより、人物同士の距離が近くても、人物相関が有ると判定され難くなる。
人数が多くて移動可能範囲が狭い場合、狭いエリア内に人物が多く存在していると考えられる。例えば、駅、空港または小規模店舗で人物が密集する状況が想定される。
この場合、監視映像において人物同士が重なり、各人物の姿勢を正しく判別できない可能性がある。
そのため、位置特徴量用の判定閾値は、基準値よりも大きな値に補正される。これにより、姿勢の組み合わせに相関があっても、人物相関が有ると判定され難くなる。
人数が多くて人流の等方性が高い場合、エリア内に人物が多く存在し、群衆が同じ方向に移動していると考えられる。例えば、駅の改札口付近または会社への通勤路において多くの人物が同じ方向に移動する状況が想定される。
この場合、相関が無い人物同士が同じ方向に移動する。
そのため、移動特徴量用の判定閾値は、基準値よりも大きな値に補正される。これにより、人物同士の移動方向が同じであっても、人物相関が有ると判定され難くなる。
人数が多くて人流の等方性が低い場合、エリア内に人物が多く存在し、各人物が自由に移動していると考えられる。例えば、駅または空港で人物同士がすれ違う状況が想定される。
この場合、相関が無い人物同士の顔が互いに向き合う。
そのため、向き特徴量用の判定閾値は、基準値よりも大きな値に補正される。これにより、人物同士の顔が互いに向き合っても、人物相関が有ると判定され難くなる。
まず、変位特徴量算出部151は、選択された組の骨格情報ごとに、今回の骨格情報と過去の骨格情報を記憶部190から取得する。具体的には、過去の骨格情報は前回の骨格情報である。但し、過去の骨格情報は前回より前の骨格情報であってもよい。
次に、変位特徴量算出部151は、選択された組の骨格情報ごとに、今回の骨格情報と過去の骨格情報に基づいて、各関節の変位量(速度)を算出する。
そして、変位特徴量算出部151は、選択された組における人物同士の変位量の相関度を算出する。算出された相関度が、変位特徴量である。相関度は例えば相関係数で示される。
各関節の変位量(運動量)は、各関節の変位量(速度)の連続する複数の値を合算して算出される。
距離特徴量算出部152は、選択された組の骨格情報に基づいて、一方の骨格情報に示される特定の関節の位置から他方の骨格情報に示される特定の関節の位置までの距離を算出する。算出される距離が、距離特徴量である。例えば、特定の関節は首の関節である。
まず、位置特徴量算出部153は、選択された組の骨格情報ごとに、骨格情報に示される各関節の位置に基づいて、人物の姿勢を特定する。
例えば、肩と肘と手首が同じ高さに並んでいる場合、人物は腕を前に伸ばした姿勢をとっていると考えられる。また、下から肩、肘、手首の順に並んでいる場合、人物は手を挙げた姿勢をとっていると考えられる。
例えば、人物の姿勢は次のように特定される。姿勢パターンデータが記憶部190に記憶される。姿勢パターンデータは、姿勢の種類ごとに骨格の形を示す。骨格の形は、複数の関節の位置のパターンで示される。位置特徴量算出部153は、骨格情報に示される各関節の位置に合致する骨格の形に対応する姿勢を姿勢パターンデータから見つける。
そして、位置特徴量算出部153は、特定された姿勢の相関度を算出する。相関度は例えば相関係数で示される。
例えば、一方の人物が他方の人物を凶器で脅す場合、一方の人物は腕を前に伸ばし、他の人物は手を挙げる。そのため、腕を前に伸ばすという姿勢と手を挙げるという姿勢の相関度は大きい。
例えば、姿勢の相関度は次のように算出される。姿勢相関データが記憶部190に記憶される。姿勢相関データは、姿勢の組み合わせごとに相関度を示す。位置特徴量算出部153は、特定された姿勢の組み合わせと同じ組み合わせに対応する相関度を姿勢相関データから取得する。
まず、移動特徴量算出部154は、選択された組の骨格情報ごとに、今回の骨格情報と過去の骨格情報を記憶部190から取得する。具体的には、過去の骨格情報は前回の骨格情報である。但し、過去の骨格情報は前回より前の骨格情報であってもよい。
次に、移動特徴量算出部154は、選択された組の骨格情報ごとに、今回の骨格情報と過去の骨格情報に基づいて、特定の関節の移動方向を求める。特定の関節の具体例は、首である。
そして、移動特徴量算出部154は、選択された組における特定の関節の移動方向の類似度を算出する。算出された類似度が、移動特徴量である。
まず、向き特徴量算出部155は、選択された組の骨格情報ごとに、骨格情報に示される顔の各パーツの位置に基づいて、人物の顔の向きを算出する。
そして、向き特徴量算出部155は、算出された顔の向きの相関度を算出する。算出された相関度が、向き特徴量である。
例えば、各人物の顔の向きはベクトルで示される。そして、向き特徴量算出部155は、ベクトルが成す角度に基づいて相関度を算出する。
映像における各人物の位置は、骨格情報に示される特定の関節位置(例えば首)を参照して得られる。
まず、人物相関判定部160は、判定閾値を超えた特徴量の個数を数える。求まる数を相関個数と称する。
次に、人物相関判定部160は、相関個数を基準個数と比較する。基準個数は予め決められる。
そして、人物相関判定部160は、相関個数と基準個数の比較結果に基づいて、人物相関の有無を判定する。
相関個数が基準個数以上である場合、人物相関判定部160は、人物相関が有ると判定する。
相関個数が基準個数未満である場合、人物相関判定部160は、人物相関が無いと判定する。
実施の形態1において、人物相関判定装置100は以下のような特徴を有する。
人物相関判定装置100は、2人分の骨格情報の時系列に基づいて、関節位置と移動方向と顔向きのそれぞれの特徴量を算出する。そして、人物相関判定装置100は、これらの特徴量を考慮することにより、関節位置の変位量と人物間の距離だけに依存せずに人物相関の有無を判定する。
人物相関判定装置100は、人数と人流方向と移動可能範囲といった状況を考慮して人物相関の判定用の閾値を自動で調整し、状況に応じた人物相関の有無を判定する。
従来技術は、関節位置の変位量と人物間の距離を考慮して人物相関の有無を判定していた。しかし、次のようなケースにおいて人物相関の有無は正しく判定されない。
図7に、監視映像193Aを示す。監視映像193Aは、第1のケースにおける監視映像の例である。
第1のケースは“関節位置の変位量の変化は連動しないが相関はある”というケースである。監視映像193Aにおいて、一方の人物は凶器を突き付け、他方の人物は後ずさりしている。この場合、二人の人物に相関が有るが、従来技術では人物相関が無いと判定される。
図8に、監視映像193Bを示す。監視映像193Bは、第2のケースにおける監視映像の例である。
第2のケースは“距離が近くて相関がない”というケースである。監視映像193Bにおいて、二人の人物が近い距離で横並びに直立している。この場合、二人の人物に相関が無いが、従来技術では人物相関が有ると判定される。
第3のケースは“距離が遠くて相関がある”というケースである。
実施の形態1は、関節位置の変位量と人物間の距離に加えて、関節位置と移動方向と顔向きといった特徴量を考慮する。
これにより、関節位置の変位量と人物間の距離だけに依存せずに人物相関の有無を正しく判定できる。
図9および図10に、監視映像の例(193C、193D)を示す。監視映像193Cでは、監視領域が混在しているため、相関が無い人物同士の距離が近い。監視映像193Dでは、通路が狭いため、相関が無い人物同士の距離が近い。この場合、従来技術では人物相関が有ると判定される。
実施の形態1は、人数と人流方向と移動可能範囲といった状況を考慮して人物相関の判定用の閾値を自動で補正する。
これにより、状況が変化するシーンにおいて人物相関の有無を正しく判定できる。
カメラ106は3Dカメラであってもよい。3Dカメラを用いることによって、監視領域内の奥行に関する情報も得られる。そのため、人の関節の位置を適切に特定することが可能となる。その結果、より高精度な人物相関判定が可能となる。3Dは三次元を意味する。
状況検出部130は、これら状況値の少なくともいずれかを算出しなくてもよいし、別の種類の状況値を算出してもよい。
特徴量算出部150は、これら特徴量の少なくともいずれかを算出しなくてもよいし、別の種類の特徴量を算出してもよい。
人物相関判定装置100は処理回路109を備える。
処理回路109は、映像取得部110と骨格情報抽出部120と状況検出部130と閾値決定部140と特徴量算出部150と人物相関判定部160とを実現するハードウェアである。
処理回路109は、専用のハードウェアであってもよいし、メモリ102に格納されるプログラムを実行するプロセッサ101であってもよい。
ASICは、Application Specific Integrated Circuitの略称である。
FPGAは、Field Programmable Gate Arrayの略称である。
Claims (6)
- 監視領域を撮影して得られた監視映像から、前記監視映像に映った二人以上の人物のそれぞれの骨格情報を抽出する骨格情報抽出部と、
抽出された骨格情報の組に基づいて、前記骨格情報の前記組に対応する人物の組について複数種類の特徴量を算出する特徴量算出部と、
前記監視映像に基づいて、前記監視領域の特定の状況を示す状況値を算出する状況検出部と、
前記特徴量の種類ごとに、前記状況値に基づいて判定閾値を決定する閾値決定部と、
前記特徴量の種類ごとに前記特徴量を前記判定閾値と比較し、前記複数種類の特徴量の比較結果に基づいて前記人物の前記組について人物相関が有るか判定する人物相関判定部と、
を備える人物相関判定装置。 - 前記骨格情報は、1つ以上の関節のそれぞれの位置を示し、
前記特徴量算出部は、変位特徴量と距離特徴量と位置特徴量と移動特徴量と向き特徴量の5種類の前記特徴量のうちの2種類以上の前記特徴量を算出し、
前記変位特徴量は、時刻が異なる複数の骨格情報に基づく前記関節の変位量について人物同士の相関度を示し、
前記距離特徴量は、人物間の前記関節の距離に基づく人物間の距離を示し、
前記位置特徴量は、各関節の位置に基づく姿勢または前記複数の骨格情報に基づく前記関節の移動軌跡について人物同士の相関度を示し、
前記移動特徴量は、前記複数の骨格情報に基づく前記関節の移動方向について人物同士の類似度を示し、
前記向き特徴量は、顔の各パーツの位置を示す前記骨格情報に基づく前記顔の向きについて人物同士の相関度を示す
請求項1に記載の人物相関判定装置。 - 前記状況検出部は、人数状況値と人流状況値と移動状況値のうちの1種類以上の前記状況値を算出し、
前記人数状況値は、前記監視映像に映った前記二人以上の人物について人数を示し、
前記人流状況値は、時刻が異なる複数の監視映像における人流の等方性を示し、
前記移動状況値は、前記監視領域において各人物が移動できる範囲の面積を示す
請求項1または請求項2に記載の人物相関判定装置。 - 前記人物相関判定部は、前記判定閾値を超えた前記特徴量の個数が基準個数以上である場合に前記人物相関が有ると判定する
請求項1から請求項3のいずれか1項に記載の人物相関判定装置。 - 監視領域を撮影して得られた監視映像から、前記監視映像に映った二人以上の人物のそれぞれの骨格情報を抽出し、
抽出された骨格情報の組に基づいて、前記骨格情報の前記組に対応する人物の組について複数種類の特徴量を算出し、
前記監視映像に基づいて、前記監視領域の特定の状況を示す状況値を算出し、
前記特徴量の種類ごとに、前記状況値に基づいて判定閾値を決定し、
前記特徴量の種類ごとに前記特徴量を前記判定閾値と比較し、前記複数種類の特徴量の比較結果に基づいて前記人物の前記組について人物相関が有るか判定する
人物相関判定方法。 - 監視領域を撮影して得られた監視映像から、前記監視映像に映った二人以上の人物のそれぞれの骨格情報を抽出する骨格情報抽出処理と、
抽出された骨格情報の組に基づいて、前記骨格情報の前記組に対応する人物の組について複数種類の特徴量を算出する特徴量算出処理と、
前記監視映像に基づいて、前記監視領域の特定の状況を示す状況値を算出する状況検出処理と、
前記特徴量の種類ごとに、前記状況値に基づいて判定閾値を決定する閾値決定処理と、
前記特徴量の種類ごとに前記特徴量を前記判定閾値と比較し、前記複数種類の特徴量の比較結果に基づいて前記人物の前記組について人物相関が有るか判定する人物相関判定処理と、
をコンピュータに実行させるための人物相関判定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/005726 WO2023152983A1 (ja) | 2022-02-14 | 2022-02-14 | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023152983A1 JPWO2023152983A1 (ja) | 2023-08-17 |
JP7374401B1 true JP7374401B1 (ja) | 2023-11-06 |
Family
ID=87564061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023554325A Active JP7374401B1 (ja) | 2022-02-14 | 2022-02-14 | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7374401B1 (ja) |
WO (1) | WO2023152983A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019021019A (ja) | 2017-07-18 | 2019-02-07 | パナソニック株式会社 | 人流分析方法、人流分析装置及び人流分析システム |
JP6887586B1 (ja) | 2020-07-03 | 2021-06-16 | 三菱電機株式会社 | 行動特定装置、行動特定方法及び行動特定プログラム |
-
2022
- 2022-02-14 JP JP2023554325A patent/JP7374401B1/ja active Active
- 2022-02-14 WO PCT/JP2022/005726 patent/WO2023152983A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019021019A (ja) | 2017-07-18 | 2019-02-07 | パナソニック株式会社 | 人流分析方法、人流分析装置及び人流分析システム |
JP6887586B1 (ja) | 2020-07-03 | 2021-06-16 | 三菱電機株式会社 | 行動特定装置、行動特定方法及び行動特定プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2023152983A1 (ja) | 2023-08-17 |
JPWO2023152983A1 (ja) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9330307B2 (en) | Learning based estimation of hand and finger pose | |
JP6525453B2 (ja) | オブジェクト位置推定システム、及びそのプログラム | |
Song et al. | Tracking revisited using RGBD camera: Unified benchmark and baselines | |
US11915518B2 (en) | Facial authentication device, facial authentication method, and program recording medium | |
JPWO2019064375A1 (ja) | 情報処理システム、制御方法、及びプログラム | |
CN109766796B (zh) | 一种面向密集人群的深度行人检测方法 | |
KR102338486B1 (ko) | 3d 골격 정보를 이용한 사용자 동작 인식 방법 및 시스템 | |
JP2014093023A (ja) | 物体検出装置、物体検出方法及びプログラム | |
US10991124B2 (en) | Determination apparatus and method for gaze angle | |
JP2014026429A (ja) | 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム | |
KR101681104B1 (ko) | 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법 | |
US20160063345A1 (en) | Pattern recognition apparatus, pattern recognition method, and storage medium | |
TWI768852B (zh) | 人體方向之偵測裝置及人體方向之偵測方法 | |
Lin et al. | Representative body points on top-view depth sequences for daily activity recognition | |
Pathak et al. | A framework for dynamic hand gesture recognition using key frames extraction | |
JP7374401B1 (ja) | 人物相関判定装置、人物相関判定方法および人物相関判定プログラム | |
Jiang et al. | Multi-person tracking-by-detection based on calibrated multi-camera systems | |
Lo et al. | Vanishing point-based line sampling for real-time people localization | |
Li et al. | Robust object tracking in crowd dynamic scenes using explicit stereo depth | |
CN113711274A (zh) | 增强现实的实现方法 | |
JP2022019339A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6851246B2 (ja) | 物体検出装置 | |
NL2004878C2 (en) | System and method for detecting a person's direction of interest, such as a person's gaze direction. | |
CN111160179A (zh) | 一种基于头部分割和卷积神经网络的摔倒检测方法 | |
WO2022249331A1 (ja) | 画像処理装置、画像処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230906 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7374401 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |