JP2018013851A - 行動認識装置、および、行動認識方法 - Google Patents

行動認識装置、および、行動認識方法 Download PDF

Info

Publication number
JP2018013851A
JP2018013851A JP2016141476A JP2016141476A JP2018013851A JP 2018013851 A JP2018013851 A JP 2018013851A JP 2016141476 A JP2016141476 A JP 2016141476A JP 2016141476 A JP2016141476 A JP 2016141476A JP 2018013851 A JP2018013851 A JP 2018013851A
Authority
JP
Japan
Prior art keywords
sensor
person
sensor data
data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016141476A
Other languages
English (en)
Other versions
JP6577424B2 (ja
Inventor
剛 永吉
Takeshi Nagayoshi
剛 永吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016141476A priority Critical patent/JP6577424B2/ja
Publication of JP2018013851A publication Critical patent/JP2018013851A/ja
Application granted granted Critical
Publication of JP6577424B2 publication Critical patent/JP6577424B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとする。【解決手段】行動認識装置30は、第1のセンサ10のセンサデータおよび第2のセンサ20のセンサデータを用いて人物の行動を認識する。この第1のセンサ10は、複数の映像センサにより、単一の映像センサでは追跡できなかった範囲、向き、位置の人物を検知する。また、行動認識装置30は、訓練データに基づき、第1のセンサ10の任意のセンサデータに対する第2のセンサ20のセンサデータの推定値として、第1のセンサ10の映像センサにより撮影された映像をセル分割したセルごとに計算した、当該セルに対する第2のセンサ20のセンサデータの代表値を用いる。【選択図】図1

Description

本発明は、行動認識装置、および、行動認識方法に関する。
従来、複数のカメラを用いた人物の監視技術が提案されている。例えば、複数のカメラの撮影映像から移動体を抽出し、カメラ間で映像を照合し、その移動体の移動経路を求める。そして、移動体の所定エリアへの侵入の有無を判定し、監視員にアラーム表示する技術が提案されている。この技術において、カード認証等、個人特定手段を用いることで、移動体(人物)の所定エリアへのアクセス権限の有無を判断する。また、移動体(人物)の移動経路や移動軌跡を分析することで、映像にうつった移動体(人物)が不審者であるか否かを判定し、アラーム表示する(技術1)。
また、ステレオカメラの映像を利用して、人物の不審行動を検知する技術も提案されている。この技術は、監視対象となる人物の移動軌跡を取得し、この移動軌跡に基づいて当該人物の行動状態を識別し、不審行動を検知する(技術2、特許文献1参照)。
特開2012-128877号公報
しかし、上記の技術1は、カード認証手段等、人物特定が明確な個人特定手段を用いることが前提となる。したがって、例えば、映像トラッキングシステムとビーコン受信システム等、人物特定が曖昧な技術のみを用い、上記のような人物特定が明確な個人特定手段を用いない場合、映像トラッキングシステムで検知した人物の所定エリアへのアクセス権限の有無を判定したり、当該人物が不審者であるか否かを判定したりすることは困難である。
例えば、ビーコン受信システムの位置検知精度は、数10m程度であり、誤差も多い。このため、映像トラッキングシステムで検知した人物について所定エリアへのアクセス権限が有るか否かを判定したり、当該人物が不審者であるか否かを判定したりすることも困難である。また、上記の技術2は、不審者(部外者)の行動パターンを事前に登録しておく必要があり、手間がかかるという問題がある。
そこで、本発明は、前記した問題を解決し、人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとすることを課題とする。
前記した課題を解決するため、本発明は、第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置であって、前記第1のセンサは、複数の異なる場所に配置された映像センサで同時に所定エリアの映像を撮影し、前記映像センサそれぞれの映像にうつる人物を時間的に連続して検知するセンサであり、前記行動認識装置は、同じ人物について、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとのペアの集合である訓練データを記憶する記憶部と、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知した前記人物のセンサデータとを収集する収集部と、前記第1のセンサの任意のセンサデータに対する、前記第2のセンサのセンサデータの推定値として、前記映像センサそれぞれが撮影した映像のピクセル空間を複数のセルに分割し、前記第1のセンサの任意のセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算する推定部と、前記第2のセンサのセンサデータの推定値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合部と、前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定部と、を備えることを特徴とする。
本発明によれば、人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとすることができる。
図1は、行動認識システムの構成例を示す図である。 図2は、行動認識装置の概要を説明するための図である。 図3は、各映像センサの映像における同じ人物のピクセル位置の対応付けを説明するための図である。 図4は、第1のセンサの構成例を示す図である。 図5は、第1のセンサで撮影した映像のピクセル空間のセル分割の例を示す図である。 図6は、ピクセル位置ベクトルとセルベクトルとの対応を説明するための図である。 図7は、あるセル位置に属する任意のピクセル位置に対応する、第2のセンサのセンサデータの推定値の計算例を説明するための図である。 図8は、行動認識装置による人物判定処理の例を示すフローチャートである。 図9は、サブセット位置ベクトルの生成に用いられるピクセル位置ベクトル、セルベクトルおよび第2のセンサのセンサデータの例を示す図である。 図10は、サブセット位置ベクトルと、サブセット位置ベクトルに対応する第2のセンサのセンサデータとを説明するための図である。 図11は、映像センサの配置例を示す図である。 図12は、映像センサの配置例を示す図である。 図13は、映像センサの配置例を示す図である。 図14は、行動認識装置の表示映像の例を示す図である。 図15は、行動認識プログラムを実行するコンピュータを示す図である。
以下、図面を参照しながら、本発明を実施するための形態(実施形態)を第1の実施形態および第2の実施形態に分けて説明する。本発明は各実施形態に限定されない。
[第1の実施形態]
(構成)
まず、図1を用いて第1の実施形態の行動認識システム(システム)の構成例を説明する。例えば、システムは、第1のセンサ10と、第2のセンサ20と、行動認識装置30とを備える。このシステムは、第1のセンサ10および第2のセンサ20それぞれのセンサデータを用いて、人物の行動の認識と、部外者の検知を行う。
第1のセンサ10は、複数の映像センサにより所定エリアの映像を撮影し、撮影した映像に映る人物を時間的に連続して検知する。
また、第2のセンサ20は、例えば、所定エリアに複数個設置され、無線信号(例えば、BLE(Bluetooth(登録商標) Low Energy)ビーコン信号等のビーコン信号)を発する装置と、所定の人物に所持され、無線信号の受信機能を有する端末(例えば、モバイル端末)とにより実現される。無線信号がビーコン信号である場合、第2のセンサ20は、例えば、ビーコン信号を発するビーコン装置と、ビーコン信号の受信機能を有する端末とにより実現される。なお、この端末の端末IDと、端末の所持者のID(例えば、社員ID)とは予め対応づけられているものとする。
行動認識装置30は、事前に、同じ人物の同じ時刻における、第1のセンサ10からのセンサデータ(例えば、映像センサそれぞれにおける人物のピクセル位置のデータ)と、第2のセンサ20からのセンサデータ(例えば、端末における各ビーコン信号の受信強度を示すデータ)とを対応付けた訓練データを用意しておく。
そして、行動認識装置30は、行動認識の対象である第1のセンサ10からのセンサデータおよび第2のセンサ20からのセンサデータを取得すると、上記の訓練データを用いて、第1のセンサ10で検知した人物が、第2のセンサ20で検知したどの端末の所持者かを判定する。
例えば、行動認識装置30は、図2に示すように、第1のセンサ10のセンサ種別が複数の監視カメラ(映像センサ)による人物検知を行うセンサである場合、第1のセンサ10で検知される人物の属性(Ax)は各監視カメラにより撮影された映像におけるピクセル位置により特定する。また、検知される人物の人物ID(i=1,2,…)は、例えば、当該映像におけるトラッキングIDを用いる。さらに、センサデータ(Xi=X1,X2,…)は、例えば、当該映像における人物のピクセル位置を用いる。
なお、第1のセンサ10のセンサデータXは、同じ時刻に、各映像センサで撮影された映像における人物の位置情報(例えば、ピクセル位置)を示したデータである。このセンサデータXは、例えば、各映像センサで撮影された映像における人物の位置情報をベクトルの成分とする位置ベクトルにより表される。この位置ベクトルは、例えば、物理位置1の人物について、(映像センサ1の映像におけるピクセル位置,映像センサ2の映像におけるピクセル位置,…)というように、人物ごとに各映像センサで撮影された映像における当該人物のピクセル位置を対応付けた情報である。
また、第2のセンサ20のセンサ種別がビーコン(ビーコン装置)と端末(モバイル端末)である場合、第2のセンサ20で検知される人物の属性(Ay)は、例えば、端末IDに対応する社員IDにより特定する。また、検知される人物の人物ID(j=1,2,…)は、例えば、端末IDを用いる。さらに、センサデータ(Yj=Y1,Y2,…)は、例えば、当該端末におけるビーコンの受信電波強度を用いる。
そして、行動認識装置30の制御部33は、訓練データを用いて、第1のセンサ10で検知した人物iと第2のセンサ20で検知した人物jとの対応付けを行う。
換言すると、行動認識装置30の制御部33は、第1のセンサ10で検知した人物iが第2のセンサ20で検知したどの端末(端末を所持する人物j)と対応するかを判定する。このような判定により、行動認識装置30は、例えば、図2に示すように、第1のセンサ10の撮影映像におけるピクセル位置:X1の人物が社員ID:j3であり、ピクセル位置:X2の人物が端末不所持であり、ピクセル位置:X3の人物が社員ID:j2である等の判定結果を得る。これにより、行動認識装置30は、人物の行動の認識や、部外者の検知を行うことができる。
また、前記したとおり、システムは、第1のセンサ10に複数の映像センサを備える。これにより、システムは、所定エリアにおける人物の行動認識や、部外者の検知の精度を向上させることができる。
例えば、図3に示すように、第1のセンサ10は、物理位置1〜物理位置3の人物を撮影する際に、映像センサ1と映像センサ2という複数の映像センサで撮影するので、いずれかの映像センサで撮影できなかった人物(例えば、映像センサ1では撮影できなかった物理位置3の人物)について、他の映像センサ(例えば、映像センサ2)で撮影できる可能性を高くすることができる。
なお、この第1のセンサ10は、映像センサそれぞれの映像にうつる人物映像について、例えば、人物映像訓練データ(詳細は後記)を用いて、それぞれがどの人物の人物映像であるかを対応付ける。この第1のセンサ10の構成例を、図4を用いて説明する。
例えば、この第1のセンサ10は、図4に示すように入出力部11と、記憶部12と、制御部13と、複数の映像センサとを備える。
入出力部11は、各種データの入出力を司る。ここでは、主に第1のセンサ10の各映像センサによるセンサデータXを行動認識装置30へ出力する。また、記憶部12は、人物映像訓練データを記憶する。この人物映像訓練データは、同じ人物について、同じ時刻に、各映像センサにより撮影された映像における当該人物の位置情報の組み合わせを示したデータである。
また、制御部13は、識別部131を備える。この識別部131は、同時刻に各映像センサで撮影された所定エリアの映像を取得すると、人物映像訓練データを用いて、それぞれの映像内の人物映像がどの人物の人物映像であるかを対応付ける。
このような第1のセンサ10によれば、同じ時刻に、異なる場所に配置された映像センサそれぞれの映像にうつる人物映像について、同じ人物の人物映像を対応付けることができる。対応付けの例を、図3を用いて説明する。
例えば、第1のセンサ10は、図3に示す映像1の人物映像11および映像2の人物映像22を、同じ物理位置1の人物の人物映像として対応付け、人物映像IDベクトルとしてH(11,22)を生成する。
この人物映像IDベクトルは、映像センサそれぞれにおける人物映像IDを示した情報である。この人物映像IDベクトルは、例えば、H(映像1における人物映像ID,映像2における人物映像ID,…)というように記述される。
また、映像1の人物映像21および映像2の人物映像12を、同じ物理位置2の人物の映像として対応付け、人物映像IDベクトルとしてH(21,12)を生成する。
また、第1のセンサ10は、図3に示す映像1のピクセル位置x11および映像2のピクセル位置x22を、同じ物理位置1の人物の人物映像のピクセル位置として対応付け、人物ピクセル位置ベクトルとしてX(x11,x22)を生成する。
このピクセル位置ベクトルは、映像センサそれぞれにおける人物映像のピクセル位置を示した情報である。このピクセル位置ベクトルは、例えば、X(映像1における人物映像のピクセル位置,映像2における人物映像のピクセル位置,…)というように記述される。
また、第1のセンサ10は、図3に示す映像1のピクセル位置x21および映像2のピクセル位置x12を、同じ物理位置2の人物のピクセル位置ベクトルとしてX(x21,x12)を生成する。
なお、図3に示す映像1には含まれないが、映像2に含まれる人物映像32については、第1のセンサ10は、例えば、物理位置3の人物の人物映像IDベクトルとしてH(null,32)を生成し、ピクセル位置ベクトルとしてX(null,x32)を生成する。つまり、第1のセンサ10は、映像にうつっていない人物については、人物映像IDベクトル、ピクセル位置ベクトルにおける当該映像に関する成分の値をnullとする。
図1に戻り、行動認識装置30の構成を詳細に説明する。行動認識装置30は、入出力部31と、記憶部32と、制御部33とを備える。
入出力部31は、各種データの入出力を司り、例えば、第1のセンサ10および第2のセンサ20からのセンサデータの入力を受け付ける。
記憶部32は、制御部33において、人物の行動の認識や、部外者の検知を行うための各種データを記憶する。記憶部32は、例えば、第1のセンサ10および第2のセンサ20から収集したセンサデータ、訓練データ、照合スコア、判定結果等を記憶する領域を備える。
訓練データは、前記したとおり、同一人物(人物p)について、同時刻において、第1のセンサ10で検知したセンサデータXpおよび第2のセンサ20で検知したセンサデータYpのペア(Xp,Yp)の集合である。
この訓練データは、例えば、事前に、第1のセンサ10で検知される人物と第2のセンサ20で検知される人物とが同一であることが分かっている環境で収集される。照合スコア、判定結果の詳細については、後記する。
制御部33は、センサデータ収集部331と、推定部332と、センサデータ照合部333と、人物判定部334とを備える。
センサデータ収集部331は、同じ時刻に、第1のセンサ10で検知した人物(例えば、人物i)のセンサデータXと、第2のセンサ20で検知した人物(例えば、人物j)のセンサデータYとを収集する。このセンサデータXは、例えば、人物iについて、同じ時刻に、第1のセンサ10の映像センサそれぞれで撮影された映像における位置情報をベクトルの成分とする位置ベクトルXである。
推定部332は、訓練データに基づき、任意のセンサデータXp´に対する第2のセンサ20のセンサデータYp´の推定値Ye(Xp´)を計算する。
つまり、推定部332は、映像センサそれぞれの映像をセル分割する(図5参照)。そして、推定部332は、訓練データに基づき、訓練データにおける第1のセンサ10の位置ベクトルXpの属するセルごとに、当該セルに対する、第2のセンサ20のセンサデータYの代表値を計算する。
そして、推定部332は、第1のセンサ10の任意のセンサデータXp´について、このセンサデータXp´の属するセルと、計算したセルぞれぞれの第2のセンサ20のセンサデータYの代表値とに基づき、センサデータXp´に対するセンサデータYの推定値Ye(Xp´)を計算する。具体的には、推定部332は、センサデータXp´の属するセルに対する、第2のセンサ20のセンサデータYの代表値を、センサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)と推定する。
例えば、まず、推定部332は、第1のセンサ10の撮影した映像のピクセル空間を複数のセル(図5参照)に分割する。そして、推定部332は、訓練データにおける位置ベクトルXpの成分であるピクセル位置を、当該ピクセル位置に属するセル位置に変換したセルベクトルcvを生成する。
上記の位置ベクトル(ピクセル位置ベクトル)とセルベクトルとの対応を、図6を参照しながら説明する。ここでは、例えば、図6に示すように、第1のセンサ10の映像センサが撮影した映像(映像1および映像2)それぞれのピクセル空間を、c1〜c80のセルに分割した場合を考える。
この場合、映像1におけるピクセル位置x11はセル位置c46に属し、ピクセル位置x21はセル位置c38に属する。また、映像2におけるピクセル位置x22はセル位置c22に属し、ピクセル位置x12のセル位置c14に属し、ピクセル位置x32のセル位置c26に属する。
したがって、ピクセル位置ベクトルX(x11,x22)に対応するセルベクトルはcv(c46,c22)であり、ピクセル位置ベクトルX(x21,x12)に対応するセルベクトルはcv(c38,c14)であり、ピクセル位置ベクトルX(null,x32)に対応するセルベクトルはcv(null,c26)である。
次に、推定部332は、訓練データから、セルベクトルcvに属する位置ベクトルXp(センサデータXp)に対する第2のセンサ20のセンサデータYp群を取得し、このセンサデータYp群の代表値(例えば、平均値)を計算する。
そして、推定部332は、任意のセンサデータXp´に対する第2のセンサ20のセンサデータYp´の推定値Ye(Xp´)として、この任意のセンサデータXp´の属するセルベクトルcv´に対する第2のセンサ20のセンサデータYpの代表値Ye(cv´)を用いる。つまり、推定部332は、[Ye(Xp´)=Ye(cv´)|Xp´⊂cv´]とする。
例えば、図7に示すように、セル位置cに、ピクセル位置xp1、ピクセル位置xp2、ピクセル位置xp3が属する場合、推定部332は、訓練データからピクセル位置xp1、ピクセル位置xp2、ピクセル位置xp3それぞれに対応する第2のセンサ20のセンサデータYp(センサデータYp1、センサデータYp2、センサデータYp3)を取得する。そして、推定部332は、取得したセンサデータYp1、センサデータYp2、センサデータYp3に基づき、セル位置cに対応する第2のセンサ20のセンサデータYの代表値Ye(c)を計算する。この代表値Ye(c)は、例えば、上記のセンサデータYp1、センサデータYp2およびセンサデータYp3の平均値(Yp1+Yp2+Yp3)/3である。このようにして計算された代表値Ye(c)は、セル位置cに属する任意のピクセル位置xに対応するセンサデータYの推定値Ye(x)と考えることができる。
よって、推定部332は、図7の下の図に示すように、セル位置c´に属する任意のピクセル位置x´に対応する、第2のセンサ20のセンサデータの推定値Ye(x´)は、セル位置c´に対応する第2のセンサ20のセンサデータYの代表値Ye(c´)と推定する。つまり、Ye(x´)=Ye(c´)と推定する。
上記の例は一次元ベクトルであるが、この考え方は、多次元ベクトルであるピクセル位置ベクトルおよびセルベクトルにも適用できる。
すなわち、任意の位置ベクトルXp´に対するセンサデータYの推定値Ye(Xp´)は、この任意の位置ベクトルXp´の属するセルベクトルcv´に対応するセンサデータYの代表値Y(cv´)と考えることができる。よって、推定部332は、セルベクトルcv´に対応するセンサデータYの代表値Y(cv´)を、位置ベクトルXp´のセンサデータYの推定値Ye(Xp´)として用いる。
なお、セル内部の訓練データの数が充実するほど、上記の代表値(cv´)の推定精度は高くなる。
また、上記の代表値Ye(cv´)の計算において、推定部332が分割するセルのサイズは、例えば、訓練データの数や、代表値Ye(cv´)の計算量やメモリ使用量、求められる人物判定精度の高さ等を考慮して、システムの管理者等が適宜設定してよい。
さらに、推定部332は、上記の代表値Ye(cv´)を計算するとき、セルベクトルcv´外のセンサデータXpに対応する第2のセンサ20のセンサデータYも用いた回帰分析等を行ってもよい。このようにすることで、推定部332は、上記の代表値Ye(cv´)を精度よく計算することができる。
センサデータ照合部333は、任意の位置ベクトルXp´の推定値Ye(Xp´)、つまり、位置ベクトルXp´の属するセルベクトルcv´の代表値Ye(cv´)に基づき、位置ベクトルXiに対するセンサデータYiの推定値Ye(Xi)を計算する。そして、センサデータ照合部333は、収集したセンサデータYj(つまり、人物jのセンサデータYの実測値)とセンサデータYiの推定値Ye(Xi)との類似度Cijを計算する。
センサデータ照合部333は、このような類似度Cijの計算を各時刻のセンサデータXiおよびセンサデータYiについて行い、計算した類似度Cijの時間的推移に基づき、人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算する。
なお、推定部332が、事前に、任意の位置ベクトルXp´に対するセンサデータYp´の推定値Ye(Xp´)、つまり、位置ベクトルXp´の属するセルベクトルcv´の代表値Ye(cv´)を計算しておくことで、センサデータ照合部333は、センサデータXiに対するセンサデータYiの推定値Ye(Xi)を迅速に求めることができる。
人物判定部334は、センサデータ照合部333で計算した照合スコアPijに基づき、人物iと人物jとが同一人物である(true)か否(false)かを判定する。
例えば、人物判定部334は、照合スコアPijが所定値を超える場合、人物iと人物jとが同一人物であると判定し、照合スコアPijが所定値以下の場合、人物iと人物jとが同一人物ではないと判定する。さらに、人物判定部334は、人物iについて同一人物と判定される人物jがいなかった場合、人物iが部外者であると判定する。そして、その判定結果を、記憶部32に記録する。
例えば、人物判定部334は、図2に示すように、同一人物と判定された人物iと人物jについて、人物iのセンサデータXi(映像におけるピクセル位置)と人物jのセンサデータYj(端末に紐付く社員ID)とを対応付けた情報を判定結果として、記憶部32に記録する。なお、上記の制御部33の各部の詳細は、処理手順の説明で後記する。
(処理手順)
次に、図8を用いて、行動認識装置30の処理手順を説明する。行動認識装置30が行う処理は、事前フェーズの処理(S1)と、その後の行動フェーズの処理(S2)とに分けられる。事前フェーズ(S1)では、行動認識装置30は、同一人物pについての同時刻におけるセンサデータ(Xp,Yp)を収集し(S11)、訓練データを作成しておく。その後、推定部332は、任意のセンサデータXp´(位置ベクトルXp´)に対するセンサデータYp´(=Ye(Xp´))を推定する(S12)。そして、推定部332は、推定結果(Xp´,Ye(Xp´))を訓練データに追加する。なお、ここでのYe(Xp´)は、前記したとおり、任意の位置ベクトルXp´の属するセルベクトルcv´に対する、センサデータYの代表値Ye(cv´)を用いる。
その後の行動フェーズ(S2)では、センサデータ収集部331がセンサデータ(Xi,Yj)を収集する(S21)。なお、このセンサデータ(Xi,Yj)は、同時刻に第1のセンサ10および第2のセンサ20で検知した人物(人物iおよび人物j)のセンサデータである。センサデータ照合部333は、訓練データ内の(Xp´,Ye(Xp´))に基づき、S21で収集したセンサデータXi(位置ベクトルXi)の値に対するセンサデータYiの推定値Ye(Xi)を求める。
その後、センサデータ照合部333は、センサデータYiの推定値Ye(Xi)と、収集したセンサデータYjとの類似度Cijに基づき人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算する(S22:センサデータの照合スコアPijを計算)。
例えば、センサデータ照合部333は、訓練データ内の(Xp´,Ye(Xp´))に基づき、人物i(i=1,2,…)のセンサデータXiについてのセンサデータYiの推定値Ye(Xi)を求める。その後、センサデータ照合部333は、人物i(i=1,2,…)のセンサデータYiの推定値Ye(Xi)と、人物j(j=1,2,…)のセンサデータYjとの類似度Cijを計算する。
例えば、センサデータ照合部333は、推定値Ye(X1)とY1,Y2,…との類似度であるC11,C12,C13,…を計算し、また、推定値Ye(X2)とY1,Y2,…との類似度であるC21,C22,C23,…を計算する。
そして、センサデータ照合部333は、計算した類似度Cijそれぞれの時間的推移を指標として照合スコアPijを計算する。例えば、センサデータ照合部333は、所定期間における人物iと人物jのセンサデータYの類似度Cijの平均値を照合スコアPijとする。
図8に戻る。S22の後、人物判定部334は、S22で計算した照合スコアPijに基づき人物判定を行う(S23)。例えば、人物判定部334は、S22で計算した照合スコアPijが所定値を超える場合、人物iと人物jとが同一人物であると判定し、照合スコアPijが所定値以下の場合、人物iと人物jとが同一人物ではないと判定する。なお、人物iについて同一人物と判定される人物jがいなかった場合、人物判定部334は、人物iは部外者であると判定する。人物判定部334は、上記の判定をすべての人物iと人物jとの組み合わせについて実行する。そして、その判定結果を記憶部32に記録する。
以上の処理により、行動認識装置30は、第1のセンサ10および第2のセンサ20のセンサデータを用いた人物の行動の認識および部外者の検知を精度よく行うことができる。
また、システムは、第1のセンサ10の複数の映像センサにより、映像にうつる人物を時間的に連続して検知する(トラッキングする)ので、行動認識装置30における人物の行動の認識および部外者の検知の精度を向上させることができる。
さらに、行動認識装置30は、任意の位置ベクトルXp´に対するセンサデータYの推定値Ye(Xp´)を計算する際、この位置ベクトルXp´の属するセルベクトルcv´に対するセンサデータYの代表値Ye(cv´)を用いるので、上記の推定値Ye(Xp´)を効率よく計算することができる。
また、システムは、第2のセンサ20として、例えば、ビーコン受信システムを用いることで、例えば、物理的な認証ゲートを設置するよりも、人物の行動に対する制約を低くし、かつ、設備コストも低くすることができる。
また、システムは、部外者(不審者)の検知にあたり、行動パターンを事前に登録する必要がない。よって、例えば、行動パターンを予測できないオフィス空間等においても、部外者の検知を容易に行うことができる。
[第2の実施形態]
なお、行動認識装置30は、訓練データにおけるセンサデータについて一部の位置情報の値をnullとしたサブセット位置ベクトルを生成し、このサブセット位置ベクトルを追加した訓練データを用いて人物の行動認識、部外者の検知を行ってもよい。
つまり、推定部332は、訓練データにおける位置ベクトルXpを成分である位置情報のうち、一部の位置情報の値をnullとしたサブセット位置ベクトルXpsを生成する。そして、推定部332は、このサブセット位置ベクトルXpsと、当該サブセット位置ベクトルXpsの元となった位置ベクトルXpに対するセンサデータYpとのペア(Xps,Yp)の集合を訓練データに追加する。
行動認識装置30が、このようなサブセット位置ベクトルを含む訓練データを用いることで、例えば、第1のセンサ10の一部の映像センサで人物が撮影できなかった等、センサデータXにノイズが含まれていた場合でも、人物の行動認識、部外者の検知を精度よく行うことができる。
このサブセット位置ベクトルXpsと、このサブセット位置ベクトルXpsに対応する第2のセンサ20のセンサデータYpについて、図9および図10を用いて説明する。
ここでは、図9に示す訓練データに基づきサブセット位置ベクトルを生成する場合を例に説明する。図9に示す訓練データは、映像センサ1〜映像センサ3で同時に物理位置a〜物理位置cの人物それぞれを撮影したときの人物映像のピクセル位置(ピクセル位置ベクトルXp)と、同時刻における物理位置a〜物理位置cの人物それぞれの第2のセンサ20のセンサデータYpとを対応付けたデータである。
この訓練データにおける物理位置aの人物のセルベクトルは(c15,c24,c37)であり、物理位置bの人物のセルベクトルは(c15,c25,c35)であり、物理位置cの人物のセルベクトルは(c15,c29,c37)であるものとする。訓練データにおける物理位置aの人物の第2のセンサ20のセンサデータYpはYaであり、物理位置bの人物の第2のセンサ20のセンサデータYpはYbであり、物理位置cの人物の第2のセンサ20のセンサデータYpはYcであるものとする。
図9の訓練データに示す物理位置a〜物理位置cの人物それぞれのピクセル位置ベクトルXpに対し、サブセット(subset)のピクセル位置ベクトルXpを生成すると、図10に示すようになる。つまり、推定部332は、図10に示すように、オリジナル(origin)のピクセル位置ベクトルXpの3つの成分のうち、任意の1つまたは2つの成分についてnullとしたサブセット(subset)のピクセル位置ベクトルXpを生成する。
例えば、図10に示すように、物理位置aの人物のオリジナル(origin)のピクセル位置ベクトルXpは(x1a,x2a,x3a)である。よって、推定部332は、オリジナルのピクセル位置ベクトルXpの(x1a,x2a,x3a)の3つの成分のうち、1つまたは2つの成分についてnullとしたサブセット(subset)のピクセル位置ベクトルXp群を生成する。例えば、推定部332は、符号901に示す6つのサブセット(subset)のピクセル位置ベクトルXp群を生成する。
また、推定部332は、サブセット(subset)のピクセル位置ベクトルXpそれぞれについてセルベクトルも生成する。なお、サブセット(subset)のピクセル位置ベクトルXpにおいて、nullとなっている成分の値については、セルベクトルの値もnullとする。例えば、推定部332は、符号901に示す6つのサブセット(subset)のピクセル位置ベクトルXp群に対し、符号902に示すセルベクトル群を生成する。
さらに、推定部332は、サブセット(subset)のピクセル位置ベクトルXpそれぞれについて、第2のセンサ20のセンサデータYpの推定値を計算する。ここでの推定値の計算は、サブセット(subset)のピクセル位置ベクトルXpのうち、セルベクトルが同じであるサブセット(subset)のピクセル位置ベクトルXpを抽出することにより行われる。
例えば、推定部332は、セルベクトルが同じであるサブセット(subset)のピクセル位置ベクトルXpとして、図10において、*2の付された2つのサブセット(subset)のピクセル位置ベクトルXpを抽出した場合を考える。
この場合、まず、推定部332は、*2のサブセット(subset)のピクセル位置ベクトルXpのオリジナル(origin)のピクセル位置ベクトルXpに対する第2のセンサ20のセンサデータYpであるYaおよびYcを取得する。
そして、推定部332は、取得したセンサデータYpの値(YaおよびYc)の代表値を、*2のサブセット(subset)のピクセル位置ベクトルXpそれぞれに対する、第2のセンサ20のセンサデータYpとする。例えば、代表値を、センサデータYpの値(YaおよびYc)の平均値とする場合、推定部332は、(Ya+Yc)/2を、*2のサブセット(subset)のピクセル位置ベクトルXpそれぞれに対する、第2のセンサ20のセンサデータYpとする。
推定部332は、*1および*3のサブセット(subset)のピクセル位置ベクトルXpに対しても、上記と同様に第2のセンサ20のセンサデータYpを計算し、図10の第2のセンサ20のセンサデータYpの欄に示す各値を得る。その後、推定部332は、*1、*2および*3それぞれのサブセット(subset)のピクセル位置ベクトルXpと、計算した第2のセンサ20のセンサデータYpとを対応付けたデータを訓練データに追加する。
例えば、推定部332は、*1のサブセット(subset)のピクセル位置ベクトルXpについて、((x1a,null,null),(Ya+Yb+Yc)/3)と、((x1b,null,null),(Ya+Yb+Yc)/3)と、((x1c,null,null),(Ya+Yb+Yc)/3)とを訓練データに追加する。また、推定部332は、*2のサブセット(subset)のピクセル位置ベクトルXpについて、((x1a,null,x3a),(Ya+Yc)/2)と、((x1c,null,x3c),(Ya+Yc)/2)とを訓練データに追加する。さらに、推定部332は、*3のサブセット(subset)のピクセル位置ベクトルXpについて、((null,null,x3a),(Ya+Yc)/2)と、((null,null,x3c),(Ya+Yc)/2)とを訓練データに追加する。
その後、推定部332は、上記のサブセットのピクセル位置ベクトルと、このサブセットのピクセル位置ベクトルに対応する第2のセンサ20のセンサデータとが追加された訓練データを用いて、任意の位置ベクトルXp´の推定値Ye(Xp´)、つまり、代表値Ye(cv´)を計算する。
これにより、行動認識装置30は、第1のセンサ10の一部の映像センサで当該人物が撮影できなかったため、収集したセンサデータXiがノイズを含む場合でも、人物の行動認識、部外者の検知を精度よく行うことができる。
[その他の実施形態]
なお、第1のセンサ10における複数の映像センサはそれぞれ異なる場所に配置されるが、例えば、図11に示す映像センサ1および映像センサ2のように、所定エリアをそれぞれ異なる角度から撮影するように配置するのが好ましい。
例えば、図11に示す所定エリア内の人物が移動方向aに移動することにより、映像センサ1と人物との距離lが近くなると、映像センサ1における当該人物のピクセル平面上での移動速度も大きくなり、映像センサ1における当該人物のトラッキング精度が低くなるおそれがある。また、図11に示すように、映像センサ1の光軸方向と人物の移動方向aとが同じである場合、映像センサ1は人物移動を検知するのに必要な解像度のセンサデータを得ることができないため、映像センサ1における当該人物のトラッキング精度が低くなるおそれがある。
そこで、図11に示す映像センサ1および映像センサ2のように、複数の映像センサについて、所定エリアをそれぞれ異なる角度から撮影するよう配置することで、いずれかの映像センサの人物のトラッキング精度が低かった場合でも、他の映像センサから当該人物についてトラッキング精度の高いセンサデータを得やすくなる。
また、このように複数の映像センサを異なる角度い配置することで、例えば、図12に示すように、映像センサ1と所定エリア内の人物との間に障害物があるため、映像センサ1の当該人物のトラッキング精度が低かった場合でも、第1のセンサ10は、他の映像センサ(映像センサ2)から当該人物についてトラッキング精度の高いセンサデータを得やすくなる。
さらに、第1のセンサ10は、例えば、図13に示す映像センサ1、映像センサ2および映像センサ3のように、各映像センサの撮影範囲が重なるよう(オーバーラップ範囲が生じるよう)に配置してもよい。
すなわち、第1のセンサ10が各映像センサにより撮影したい範囲が、図13に示す所定エリアである場合を考える。この場合、この所定エリアを各映像センサの撮影範囲の組み合わせでカバーし、かつ、各映像センサの撮影範囲間でオーバーラップ範囲が生じるように映像センサ群を配置する。つまり、各映像センサの撮影範囲の少なくとも一部が他のいずれかの映像センサの撮影範囲と重複するように映像センサ群を配置する。
これにより、例えば、第1のセンサ10は、人物がいずれかの映像センサで撮影できないエリアにいる場合でも、他の映像センサにより当該人物を撮影することができる。なお、当該人物がオーバーラップ範囲にいる場合には、このオーバーラップ範囲を撮影範囲に含む複数の映像センサにより当該人物を撮影する。
つまり、上記のように映像センサ群を配置することで、例えば、第1のセンサ10で人物のトラッキングを行いたいエリア(所定アリア)が広い場合でも、人物のトラッキングを行うことができる。また、各映像センサの撮影範囲間でオーバーラップ範囲が生じるよう配置することで、映像センサ間で同じ人物映像IDを維持することができる。つまり、第1のセンサ10は、複数の映像センサで撮影した人物映像について、同じ人物の人物映像を特定することができる。
なお、推定部332が分割するセルのサイズは、第1のセンサ10による撮影対象の空間の奥行きに応じて、手前側の空間のセルのサイズよりも奥側の空間のセルのサイズを小さくしてもよい。このようにすることで、推定部332は、前記したセルベクトルcv´におけるセルのサイズを実際の撮影対象の空間の広さ(大きさ)に応じたセルのサイズとすることができる。よって、推定部332は、このセルベクトルcv´を用いた第2のセンサ20のセンサデータYの推定値Ye(Xp´)の計算を精度よく行うことができる。
また、第2のセンサ20によるセンサデータYが、端末におけるK個のビーコンからのビーコン信号の電波受信強度である場合、センサデータ照合部333は、以下のようにして類似度Cijを計算してもよい。
例えば、まず、センサデータ照合部333は、訓練データに基づき、センサデータXiについてのK個のビーコンそれぞれのセンサデータYiの推定値Yek(Xi)[k=1,2,…,K]を計算する。次に、センサデータ照合部333は、計算したセンサデータYiの推定値Yek(Xi)[k=1,2,…,K]と、収集したK個のビーコンについてのセンサデータYk[k=1,2,…,K]との類似度Cijを、K次元空間における、センサデータYiの推定値Ye(Xi)とセンサデータYjとの距離として計算する。
例えば、上記の距離としてユークリッド距離を用いる場合、センサデータ照合部333は、以下の式(1)により類似度Cijを計算する。
Figure 2018013851
上記の式(1)において、K次元空間における、センサデータYiの推定値Ye(Xi)とセンサデータYjとのユークリッド距離が近いほど、類似度Cijの値は1に近づく。
さらに、センサデータYpがビーコン信号の電波受信強度である場合、推定部332は、例えば、Gaussian Processes(Gaussian Processes for Signal Strength-Based Location Estimation proc. of robotics science and systems, 2006)等を用いて、ビーコン信号の電波受信強度がセンサデータYpである端末の、撮影映像におけるピクセル位置を推定し、その推定値を訓練データに追加してもよい。
このようにすることで、行動認識装置30は第1のセンサ10で検知した人物iに対して人物jが同一人物か否か、また、人物iについて部外者か否かを精度よく判定することができる。
さらに、行動認識装置30は、行動フェーズにおいてセンサデータ収集部331がセンサデータXi(位置ベクトルXi)を収集すると、訓練データに基づき、直接(つまり、事前にセンサデータYp´の推定値Ye(Xp´)を計算することなく)、センサデータXiの値に対するセンサデータYiの推定値Ye(Xi)を計算してもよい。
また、第1のセンサ10で用いるセンサは、映像センサの他、温度センサや、赤外線センサ等を用いてもよい。さらに、第2のセンサ20で用いる無線信号は、空間を伝搬する信号であれば、電磁波の他、音波等であってもよい。
さらに、行動認識装置30は、人物判定部334による判定結果を、第1のセンサ10で撮影した映像上に表示してもよい。例えば、行動認識装置30は、図14に示すように、第1のセンサ10の撮影した映像上に、第1のセンサ10で検知した人物と、当該人物がゲスト(部外者)か社員か、また社員である場合、社員ID等を表示してもよい。
(プログラム)
また、各実施形態で述べた行動認識装置30の機能を実現する行動認識プログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実現できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記の行動認識プログラムを情報処理装置に実行させることにより、情報処理装置を行動認識装置30として機能させることができる。ここで言う情報処理装置は、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)であってもよい。
以下に、行動認識プログラムを実行するコンピュータの一例を説明する。図15は、行動認識プログラムを実行するコンピュータを示す図である。図15に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU(Central Processing Unit)1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図15に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した各実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、行動認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、行動認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 第1のセンサ
20 第2のセンサ
30 行動認識装置
31,11 入出力部
32,12 記憶部
33,13 制御部
131 識別部
331 センサデータ収集部
332 推定部
333 センサデータ照合部
334 人物判定部

Claims (7)

  1. 第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置であって、
    前記第1のセンサは、
    複数の異なる場所に配置された映像センサで同時に所定エリアの映像を撮影し、前記映像センサそれぞれの映像にうつる人物を時間的に連続して検知するセンサであり、
    前記行動認識装置は、
    同じ人物について、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知した前記人物のセンサデータとのペアの集合である訓練データを記憶する記憶部と、
    同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとを収集する収集部と、
    前記第1のセンサの任意のセンサデータに対する、前記第2のセンサのセンサデータの推定値として、前記映像センサそれぞれが撮影した映像のピクセル空間を複数のセルに分割し、前記第1のセンサの任意のセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算する推定部と、
    計算した前記代表値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合部と、
    前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定部と、
    を備えることを特徴とする行動認識装置。
  2. 前記推定部は、さらに、
    前記訓練データにおける前記第1のセンサのセンサデータのうち、一部の映像センサのセンサデータの値をnullとしたセンサデータを生成し、前記訓練データを用いて、前記一部の映像センサのセンサデータの値をnullとしたセンサデータに対する、前記第2のセンサのセンサデータの推定値を計算し、前記一部の映像センサのセンサデータの値をnullとしたセンサデータと、前記第2のセンサのセンサデータの推定値とのペアを前記訓練データに追加することを特徴とする請求項1に記載の行動認識装置。
  3. 前記第2のセンサは、
    前記所定エリアに複数個設置されるビーコン装置と、前記人物に所持され、前記ビーコン装置からのビーコン信号を受信する端末装置とを備え、
    前記第2のセンサのセンサデータは、
    前記人物が所持する端末装置が受信したビーコン信号の受信強度を示すデータであることを特徴とする請求項1に記載の行動認識装置。
  4. 前記映像センサはそれぞれ、
    前記所定エリアを異なる角度から撮影するよう配置されていることを特徴とする請求項1〜請求項3のいずれか1項に記載の行動認識装置。
  5. 前記映像センサはそれぞれ、
    前記映像センサの映像撮影範囲が重なるよう配置されていることを特徴とする請求項1〜請求項4のいずれか1項に記載の行動認識装置。
  6. 前記第1のセンサは、
    複数の映像センサと、
    同じ人物について、同じ時刻に、前記映像センサそれぞれにより撮影された映像における前記人物の位置情報の組み合わせを人物映像訓練データとして記憶する記憶部と、
    前記人物映像訓練データと、前記映像センサそれぞれで同時に撮影された映像とに基づき、前記映像それぞれにうつる人物の対応付けを行う識別部と、
    を備えることを特徴とする請求項1〜請求項5のいずれか1項に記載の行動認識装置。
  7. 第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置を用いた行動認識方法であって、
    前記第1のセンサは、
    複数の異なる場所に配置された映像センサで同時に所定エリアの映像を撮影し、前記映像センサそれぞれの映像にうつる人物を時間的に連続して検知するセンサであり、
    前記行動認識装置が、
    同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知した前記人物のセンサデータとを収集する収集ステップと、
    前記映像センサそれぞれの映像をセル分割し、同じ人物について、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとのペアの集合である訓練データに基づき、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとを収集する収集ステップと、
    前記第1のセンサの任意のセンサデータに対する、前記第2のセンサのセンサデータの推定値として、前記映像センサそれぞれが撮影した映像のピクセル空間を複数のセルに分割し、前記第1のセンサの任意のセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算する推定ステップと、
    計算した前記代表値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合ステップと、
    前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定ステップと、
    を含んだことを特徴とする行動認識方法。
JP2016141476A 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法 Active JP6577424B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016141476A JP6577424B2 (ja) 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016141476A JP6577424B2 (ja) 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法

Publications (2)

Publication Number Publication Date
JP2018013851A true JP2018013851A (ja) 2018-01-25
JP6577424B2 JP6577424B2 (ja) 2019-09-18

Family

ID=61019351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016141476A Active JP6577424B2 (ja) 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法

Country Status (1)

Country Link
JP (1) JP6577424B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111671602A (zh) * 2019-03-11 2020-09-18 本田技研工业株式会社 传感器配置形态的获取装置及传感器配置形态的获取方法
WO2021033463A1 (ja) * 2019-08-19 2021-02-25 株式会社エクサウィザーズ コンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システム
WO2022050183A1 (ja) 2020-09-02 2022-03-10 株式会社ヴァレオジャパン 可変容量斜板式圧縮機

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127240A (ja) * 2004-10-29 2006-05-18 Secom Co Ltd 不審者検出システム及び不審者検出プログラム
JP2006311111A (ja) * 2005-04-27 2006-11-09 Daikin Ind Ltd 位置検知システムおよび位置検知方法
WO2008149507A1 (ja) * 2007-06-04 2008-12-11 Nec Corporation 対象同定装置、データ処理方法、コンピュータプログラム
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2011186751A (ja) * 2010-03-08 2011-09-22 Takenaka Komuten Co Ltd 位置推定装置およびプログラム
JP2011211687A (ja) * 2010-03-25 2011-10-20 Nec (China) Co Ltd データ関連付けのための方法と装置
JP2015040749A (ja) * 2013-08-21 2015-03-02 日本電信電話株式会社 位置推定装置及び位置推定プログラム
JP2016001875A (ja) * 2009-12-03 2016-01-07 国立研究開発法人産業技術総合研究所 移動体の測位装置
JP2016103690A (ja) * 2014-11-27 2016-06-02 キヤノン株式会社 監視システム、監視装置、および監視方法
WO2016098457A1 (ja) * 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127240A (ja) * 2004-10-29 2006-05-18 Secom Co Ltd 不審者検出システム及び不審者検出プログラム
JP2006311111A (ja) * 2005-04-27 2006-11-09 Daikin Ind Ltd 位置検知システムおよび位置検知方法
WO2008149507A1 (ja) * 2007-06-04 2008-12-11 Nec Corporation 対象同定装置、データ処理方法、コンピュータプログラム
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2016001875A (ja) * 2009-12-03 2016-01-07 国立研究開発法人産業技術総合研究所 移動体の測位装置
JP2011186751A (ja) * 2010-03-08 2011-09-22 Takenaka Komuten Co Ltd 位置推定装置およびプログラム
JP2011211687A (ja) * 2010-03-25 2011-10-20 Nec (China) Co Ltd データ関連付けのための方法と装置
JP2015040749A (ja) * 2013-08-21 2015-03-02 日本電信電話株式会社 位置推定装置及び位置推定プログラム
JP2016103690A (ja) * 2014-11-27 2016-06-02 キヤノン株式会社 監視システム、監視装置、および監視方法
WO2016098457A1 (ja) * 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111671602A (zh) * 2019-03-11 2020-09-18 本田技研工业株式会社 传感器配置形态的获取装置及传感器配置形态的获取方法
US11035703B2 (en) 2019-03-11 2021-06-15 Honda Motor Co., Ltd. Sensor arrangement mode acquisition device and sensor arrangement mode acquisition method
CN111671602B (zh) * 2019-03-11 2021-10-15 本田技研工业株式会社 传感器配置形态的获取装置及传感器配置形态的获取方法
WO2021033463A1 (ja) * 2019-08-19 2021-02-25 株式会社エクサウィザーズ コンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システム
JP2021033430A (ja) * 2019-08-19 2021-03-01 株式会社エクサウィザーズ コンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システム
WO2022050183A1 (ja) 2020-09-02 2022-03-10 株式会社ヴァレオジャパン 可変容量斜板式圧縮機

Also Published As

Publication number Publication date
JP6577424B2 (ja) 2019-09-18

Similar Documents

Publication Publication Date Title
CN108470332B (zh) 一种多目标跟踪方法及装置
JP7040463B2 (ja) 解析サーバ、監視システム、監視方法及びプログラム
CN103699905B (zh) 一种车牌定位方法及装置
Liao et al. A localized approach to abandoned luggage detection with foreground-mask sampling
US11205276B2 (en) Object tracking method, object tracking device, electronic device and storage medium
EP3761222B1 (en) Living body detection method and apparatus, electronic device, storage medium and related system using living body detection method
US11321945B2 (en) Video blocking region selection method and apparatus, electronic device, and system
JP6588413B2 (ja) 監視装置および監視方法
WO2016025713A1 (en) Three-dimensional hand tracking using depth sequences
CN109766755A (zh) 人脸识别方法及相关产品
US20220180534A1 (en) Pedestrian tracking method, computing device, pedestrian tracking system and storage medium
JP2013232181A (ja) 画像処理装置、画像処理方法
CN112287868B (zh) 一种人体动作识别方法及装置
JP6577424B2 (ja) 行動認識装置、および、行動認識方法
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
CN108710841B (zh) 一种基于MEMs红外阵列传感器的人脸活体检测装置及方法
CN111767879A (zh) 一种活体检测方法
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
Zhou et al. Multi-modal face authentication using deep visual and acoustic features
JP6611257B2 (ja) 行動認識装置、および、行動認識方法
CN109858308B (zh) 视频检索装置、视频检索方法和存储介质
CN110728249A (zh) 目标行人的跨摄像机识别方法、装置及系统
JP2006277146A (ja) 照合方法および照合装置
CN115457595A (zh) 人脸与人体的关联方法、电子设备以及存储介质
CN112257617B (zh) 多模态目标识别方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190822

R150 Certificate of patent or registration of utility model

Ref document number: 6577424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150