JP2018013855A - 行動認識装置、および、行動認識方法 - Google Patents

行動認識装置、および、行動認識方法 Download PDF

Info

Publication number
JP2018013855A
JP2018013855A JP2016141480A JP2016141480A JP2018013855A JP 2018013855 A JP2018013855 A JP 2018013855A JP 2016141480 A JP2016141480 A JP 2016141480A JP 2016141480 A JP2016141480 A JP 2016141480A JP 2018013855 A JP2018013855 A JP 2018013855A
Authority
JP
Japan
Prior art keywords
sensor
person
sensor data
detected
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016141480A
Other languages
English (en)
Other versions
JP6611257B2 (ja
Inventor
剛 永吉
Takeshi Nagayoshi
剛 永吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016141480A priority Critical patent/JP6611257B2/ja
Publication of JP2018013855A publication Critical patent/JP2018013855A/ja
Application granted granted Critical
Publication of JP6611257B2 publication Critical patent/JP6611257B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】2つのセンサを用いた場合の、部外者の検知を容易なものとし、かつ人物の行動の認識の精度を向上させる。【解決手段】行動認識装置30は、人物pについて、第1のセンサ10で検知したセンサデータXpおよび第2のセンサ20で検知したセンサデータYpとのペア(Xp,Yp)の集合である訓練データを記憶する記憶部32と、訓練データに基づき、任意のセンサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)を計算する推定部332と、推定値Ye(Xp´)と、収集したセンサデータYjとの類似度Cijを計算し、計算した類似度Cijの時間的推移に基づき、人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算するセンサデータ照合部333と、照合スコアPijの値に基づき人物iと人物jとが同一人物であるか否かを判定する人物判定部334とを備える。【選択図】図1

Description

本発明は、行動認識装置、および、行動認識方法に関する。
セキュリティ等の用途で、部外者の検知や、人物の行動を認識する技術が提案されている。例えば、映像センサを用いて人物の位置や動線を認識する技術や、人物に付されたICタグ等を検知するセンサを用いて、認証センサの周辺の人物のIDを検知する技術が提案されている。また、どの人物がどのような行動をとったかの認識の精度を向上させるため、2つのセンサの組み合わせにより人物の行動を認識する技術も提案されている(特許文献1参照)。さらに、所定エリア内の部外者を検知するため、予め部外者(不審者)の行動パターンを登録しておき、この行動パターンに合致する人物を検知する技術も提案されている(特許文献2参照)。
特開2009−015412号公報 特開2011−004050号公報
しかし、特許文献1に記載の技術のように2つのセンサを組み合わせて人物の行動を認識する場合、第1のセンサ(例えば、映像センサ)で検知する人物と、第2のセンサ(例えば、ビーコン受信システム)で検知する人物との対応付けが曖昧だと、人物の行動の認識の精度が低くなる。例えば、ビーコン受信システムの位置検知精度は、数10mずれる場合もあり、誤差も多い。このため、映像センサで撮影された人物と、ビーコン受信システムで検知した人物との対応付けが曖昧になる場合が多い。また、特許文献2に記載の技術により、所定エリアにおける部外者の検知を行うことも考えられるが、部外者の行動パターンを事前に登録しておく必要があり、手間がかかる。
そこで、本発明は、前記した問題を解決し、2つのセンサを組み合わせて人物の行動を検知する場合において、部外者の検知を容易なものとし、かつ、人物の行動の認識の精度を向上させることを課題とする。
前記した課題を解決するため、本発明は、第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置であって、同じ人物について、同じ時刻に、前記第1のセンサで検知したセンサデータおよび前記第2のセンサで検知したセンサデータとのペアの集合である訓練データを記憶する記憶部と、同じ時刻に、前記第1のセンサで検知した人物のセンサデータと、前記第2のセンサで検知した人物のセンサデータとを収集する収集部と、前記訓練データに基づき、任意の前記第1のセンサのセンサデータに対する、前記第2のセンサのセンサデータの推定値を計算する推定部と、前記第2のセンサのセンサデータの推定値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合部と、前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定部と、を備えることを特徴とする。
本発明によれば、2つのセンサを組み合わせて人物の行動を検知する場合において、部外者の検知を容易なものとし、かつ、人物の行動の認識の精度を向上させることができる。
図1は、行動認識システムの構成例を示す図である。 図2は、第1のセンサが撮影する映像の例を示す図である。 図3は、第2のセンサとして用いられるビーコン装置および端末の例を示す図である。 図4は、端末D1,D2それぞれの電波受信強度の例を示す図である。 図5は、行動認識装置の概要を説明するための図である。 図6は、行動認識装置による人物のトラッキングデータと、端末の受信電波強度との照合を説明するための図である。 図7は、端末D1,D2のビーコンの受信電波強度の実測値と、人物1〜人物3のセンサデータYiの推定値Ye(Xi)とを示したグラフである。 図8は、行動認識装置の処理手順を示すフローチャートである。 図9は、行動認識装置における人物1のセンサデータYの推定値Ye(X1)と、端末D1,D2の受信電波強度との照合を説明するための図である。 図10は、第1のセンサで撮影した映像のピクセル空間のセル分割の例を示す図である。 図11は、セル位置cそれぞれのセンサデータYcの推定値Ye(c)の例を示す図である。 図12は、人物i=1〜3それぞれに対する端末D1,D2の照合スコアPijの時間的推移の例を示す図である。 図13は、行動認識装置による人物判定処理の例を示すフローチャートである。 図14は、行動認識装置の表示映像の例を示す図である。 図15は、行動認識プログラムを実行するコンピュータを示す図である。
以下、図面を参照しながら、本発明を実施するための形態(実施形態)を第1の実施形態から第3の実施形態に分けて説明する。本発明は各実施形態に限定されない。
[第1の実施形態]
(構成)
まず、図1を用いて第1の実施形態の行動認識システム(システム)の構成例を説明する。例えば、システムは、第1のセンサ10と、第2のセンサ20と、行動認識装置30とを備え、第1のセンサ10および第2のセンサ20を用いて、人物の行動の認識と、部外者の検知を行う。
第1のセンサ10は、例えば、監視カメラにより所定エリアの映像(図2参照)を撮影し、撮影した映像に映る人物を時間的に連続して検知する。一例を挙げると、第1のセンサ10は、撮影された映像において人物の頭部から肩らしき部分が連続的に移動することを検知すると、この部分を人物として検知し、人物IDを付与し、トラッキングする。なお、映像における人物のピクセル位置は、例えば、人物の頭部と推定される部分の重心のピクセル位置を用いる。
また、第2のセンサ20は、例えば、所定エリアに複数個設置され、無線信号(例えば、BLE(Bluetooth(登録商標) Low Energy)ビーコン信号等のビーコン信号)を発する装置と、所定の人物に所持され、無線信号の受信機能を有する端末(例えば、モバイル端末)とにより実現される。無線信号がビーコン信号である場合、第2のセンサ20は、例えば、ビーコン信号を発するビーコン装置と、ビーコン信号の受信機能を有する端末とにより実現される。なお、この端末の端末IDと、端末の所持者のID(例えば、社員ID)とは予め対応づけられているものとする。
一例を挙げると、第2のセンサ20は、図3に示すように、社内の所定エリアに設置される複数個のビーコン装置(B1〜B9)と、ビーコン信号を受信する端末D1,D2とにより実現される。この端末D1,D2は、ビーコン装置(B1〜B9)からのビーコン信号の電波受信強度(例えば、図4の受信電波強度Y1,Y2)を時間ごとに記録する。
行動認識装置30は、事前に、同じ人物の同じ時刻における、第1のセンサ10からのセンサデータ(例えば、映像における当該人物のピクセル位置のデータ)と、第2のセンサ20からのデータ(例えば、当該人物の保持する端末における各ビーコン信号の受信強度を示すデータ)とを対応付けた訓練データを用意しておく。
そして、行動認識装置30は、行動認識の対象である第1のセンサ10からのセンサデータおよび第2のセンサ20からのセンサデータを取得すると、上記の訓練データを用いて、第1のセンサ10で検知した人物が、第2のセンサ20で検知したどの端末の所持者かを判定する。
例えば、社員はビーコン信号を受信できる端末を所持するが、部外者は当該端末を所持しない場合を考える。この場合、行動認識装置30が、上記のような判定を行うことで、第1のセンサ10で撮影した映像にうつった人物が社員か部外者かを識別することができる。また、映像にうつった人物が社員である場合、行動認識装置30はその人物のID(例えば、端末IDに紐付く社員ID)を特定することができる。したがって、行動認識装置30は、所定エリア内でどの社員がどのような行動をとったか、また、所定エリア内に部外者がいたか否か、部外者がいた場合、その部外者がどのような行動をとったかを認識することができる。
例えば、図3に示すように、行動認識装置30は、映像にうつった人物1,2は社員であり、人物3はゲスト(部外者)であることを識別することができる。また、人物1,2についてその人物のID(例えば、端末D1,D2に紐付く社員ID)を特定することができる。その結果、行動認識装置30は、所定エリア内で社員(例えば、社員ID=1の人物1および社員ID=2の人物2)がどのような行動をとったか、また、部外者(人物3)がどのような行動をとったかを認識することができる。
つまり、行動認識装置30は、例えば、図5に示すように、第1のセンサ10のセンサ種別が監視カメラによる人物検知を行うセンサである場合、第1のセンサ10で検知される人物の属性(Ax)は監視カメラにより撮影された映像におけるピクセル位置により特定できる。また、検知される人物の人物ID(i=1,2,…)は、例えば、当該映像におけるトラッキングIDを用いる。さらに、センサデータ(Xi=X1,X2,…)は、例えば、当該映像におけるピクセル位置を用いる。
また、第2のセンサ20のセンサ種別がビーコン(ビーコン装置)と端末(モバイル端末)である場合、第2のセンサ20で検知される人物の属性(Ay)は、例えば、端末IDに対応する社員IDにより特定できる。また、検知される人物の人物ID(j=1,2,…)は、例えば、端末IDを用いる。さらに、センサデータ(Yj=Y1,Y2,…)は、例えば、当該端末におけるビーコンの受信電波強度を用いる。
そして、行動認識装置30の制御部33は、訓練データを用いて、第1のセンサ10で検知した人物iと第2のセンサ20で検知した人物jとの対応付けを行う。例えば、行動認識装置30は、図6に示すように、第1のセンサ10による人物1〜人物3のトラッキングデータ(人物映像1〜人物映像3)と、第2のセンサ20による端末D1〜端末D3におけるビーコン(B1,B2,B3,…)の受信電波強度とを用いて、人物iと端末(端末のを所持する人物j)との対応付けを行う。
換言すると、行動認識装置30の制御部33は、第1のセンサ10で検知した人物iが第2のセンサ20で検知したどの端末(端末を所持する人物j)と対応するかを判定する。このような判定により、行動認識装置30は、例えば、図5に示すように、第1のセンサ10の撮影映像におけるピクセル位置:X1の人物が社員ID:j3であり、ピクセル位置:X2の人物が端末不所持であり、ピクセル位置:X3の人物が社員ID:j2である等の判定結果を得る。これにより、行動認識装置30は、人物の行動の認識や、部外者の検知を行うことができる。
なお、第1のセンサ10で検知した人物iと第2のセンサ20で検知した人物jとの対応付けには具体的には以下のようにして行う。
例えば、訓練データに基づき計算した、図6に示す人物映像1〜人物映像3それぞれに対するセンサデータYiの推定値Ye(Xi)と、端末D1,D2それぞれのビーコンB1〜B9の受信電波強度(Y1,Y2)の実測値とが、図7に示す値であった場合を考える。
この場合、行動認識装置30は、人物映像1〜人物映像3それぞれに対するセンサデータYiの推定値Ye(Xi)と、端末D1,D2それぞれのビーコンB1〜B9の受信電波強度(Y1,Y2)の実測値とがどの程度似ているかに基づき、人物1〜人物3と、端末D1,D2の所持者(人物j)との対応付けを行う。
例えば、行動認識装置30は、図6に示す人物映像1の人物(人物1)は端末D2の所持者と同一人物であり、人物映像2の人物(人物2)は端末D1の所持者と同一人物であり、人物映像3の人物(人物3)についてはいずれの端末の所持者でもない(部外者)と判定する。
図1に戻り、行動認識装置30の構成を詳細に説明する。行動認識装置30は、入出力部31と、記憶部32と、制御部33とを備える。
入出力部31は、各種データの入出力を司り、例えば、第1のセンサ10および第2のセンサ20からのセンサデータの入力を受け付ける。
記憶部32は、制御部33において、人物の行動の認識や、部外者の検知を行うための各種データを記憶する。記憶部32は、例えば、第1のセンサ10および第2のセンサ20から収集したセンサデータ、訓練データ、照合スコア、判定結果等を記憶する領域を備える。
訓練データは、前記したとおり、同一人物(人物p)について、同時刻において、第1のセンサ10で検知したセンサデータXpおよび第2のセンサ20で検知したセンサデータYpのペア(Xp,Yp)の集合である。この訓練データは、例えば、事前に、第1のセンサ10で検知される人物と第2のセンサ20で検知される人物とが同一であることが分かっている環境で収集される。照合スコア、判定結果の詳細については、後記する。
制御部33は、センサデータ収集部331と、推定部332と、センサデータ照合部333と、人物判定部334とを備える。
センサデータ収集部331は、第1のセンサ10で検知した人物(例えば、人物i)のセンサデータXと、第2のセンサ20で検知した人物(例えば、人物j)のセンサデータYとを収集する。
推定部332は、訓練データに基づき、任意のセンサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)を計算する。そして、推定部332は、任意のセンサデータXp´と、センサデータYp´の推定値Ye(Xp´)とを対応付けた情報を訓練データに追加する。
センサデータ照合部333は、訓練データにおける、センサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)に基づき、センサデータ収集部331で収集したセンサデータXiに対するセンサデータYiの推定値Ye(Xi)を計算する。次に、センサデータ照合部333は、収集したセンサデータYj(つまり、人物jのセンサデータYの実測値)とセンサデータYiの推定値Ye(Xi)との類似度Cijを計算する。センサデータ照合部333は、このような類似度Cijの計算を各時刻のセンサデータXiおよびセンサデータYiついて行い、計算した類似度Cijの時間的推移に基づき、人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算する。
なお、推定部332が、事前に、任意のセンサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)を計算しておくことで、センサデータ照合部333は、センサデータXiに対するセンサデータYiの推定値Ye(Xi)を迅速に求めることができる。
人物判定部334は、センサデータ照合部333で計算した照合スコアPijに基づき、人物iと人物jとが同一人物である(true)か否(false)かを判定する。
例えば、人物判定部334は、照合スコアPijが所定値を超える場合、人物iと人物jとが同一人物であると判定し、照合スコアPijが所定値以下の場合、人物iと人物jとが同一人物ではないと判定する。さらに、人物判定部334は、人物iについて同一人物と判定される人物jがいなかった場合、人物iが部外者であると判定する。そして、その判定結果を、記憶部32に記録する。
例えば、人物判定部334は、図5に示すように、同一人物と判定された人物iと人物jについて、人物iのセンサデータXi(映像におけるピクセル位置)と人物jのセンサデータYj(端末に紐付く社員ID)とを対応付けた情報を判定結果として、記憶部32に記録する。なお、上記の制御部33の各部の詳細は、処理手順の説明で後記する。
(処理手順)
次に、図8を用いて、行動認識装置30の処理手順を説明する。行動認識装置30が行う処理は、事前フェーズの処理(S1)と、その後の行動フェーズの処理(S2)とに分けられる。事前フェーズ(S1)では、行動認識装置30は、同一人物pについての同時刻におけるセンサデータ(Xp,Yp)を収集し(S11)、訓練データを作成しておく。その後、推定部332は、任意のXp´に対するセンサデータYp´(=Ye(Xp´))を推定する(S12)。そして、推定部332は、推定結果(Xp´,Ye(Xp´))を訓練データに追加する。
その後の行動フェーズ(S2)では、センサデータ収集部331がセンサデータ(Xi,Yj)を収集する(S21)。なお、このセンサデータ(Xi,Yj)は、同時刻に第1のセンサ10および第2のセンサ20で検知した人物(人物iおよび人物j)のセンサデータである。センサデータ照合部333は、訓練データ内の(Xp´,Ye(Xp´))に基づき、S21で収集したセンサデータXiの値に対するセンサデータYiの推定値Ye(Xi)を求める。その後、センサデータ照合部333は、センサデータYiの推定値Ye(Xi)と、収集したセンサデータYjとの類似度Cijに基づき人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算する(S22:センサデータの照合スコアPijを計算)。
例えば、センサデータ照合部333は、訓練データ内の(Xp´,Ye(Xp´))に基づき、人物i(i=1,2,…)のセンサデータXiについてのセンサデータYiの推定値Ye(Xi)を求める。その後、センサデータ照合部333は、人物i(i=1,2,…)のセンサデータYiの推定値Ye(Xi)と、人物j(j=1,2,…)のセンサデータYjとの類似度Cijを計算する。
例えば、センサデータ照合部333は、推定値Ye(X1)とY1,Y2,…との類似度であるC11,C12,C13,…を計算し、また、推定値Ye(X2)とY1,Y2,…との類似度であるC21,C22,C23,…を計算する。そして、センサデータ照合部333は、計算した類似度Cijそれぞれの時間的推移を指標として照合スコアPijを計算する。例えば、センサデータ照合部333は、所定期間における人物iと人物jのセンサデータYの類似度Cijの平均値を照合スコアPijとする。
例えば、センサデータ照合部333は、人物1のセンサデータYの時系列での推定値Ye(X1)が図9の符号501に示す値であり、端末D1のセンサデータY1の時系列での実測値が符号502に示す値であり、端末D2のセンサデータY2の時系列での実測値が符号503に示す値である場合を考える。この場合、符号501に示す人物1の時系列での推定値Ye(X1)の推移に対し、符号503に示すセンサデータY2の推移よりも、符号502に示すセンサデータY1の推移の方が似ている。よって、端末D2よりも端末D1の方が、各時刻での人物1のセンサデータYの推定値Ye(X1)との類似度C1jも高くなり、これに伴い照合スコアP1jも、端末D2よりも端末D1の方が高くなる。
図8に戻る。S22の後、人物判定部334は、S22で計算した照合スコアPijに基づき人物判定を行う(S23)。例えば、人物判定部334は、S22で計算した照合スコアPijが所定値を超える場合、人物iと人物jとが同一人物であると判定し、照合スコアPijが所定値以下の場合、人物iと人物jとが同一人物ではないと判定する。なお、人物iについて同一人物と判定される人物jがいなかった場合、人物判定部334は、人物iは部外者であると判定する。人物判定部334は、上記の判定をすべての人物iと人物jとの組み合わせについて実行する。そして、その判定結果を記憶部32に記録する。
以上の処理により、行動認識装置30は、第1のセンサ10および第2のセンサ20のセンサデータを用いた人物の行動の認識および部外者の検知を精度よく行うことができる。
[第2の実施形態]
なお、行動認識装置30は、任意のセンサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)を以下のようにして計算してもよい。
例えば、推定部332は、第1のセンサ10で撮影した映像をセル分割し(図10参照)、セル位置ごとに当該セル位置に属するセンサデータXpに対するセンサデータYpの代表値Ye(c)を計算しておく。例えば、推定部332は、訓練データ(センサデータ(Xp,Yp))を参照して、同じセル位置に属するセンサデータXpに対するセンサデータYpの平均値を計算しておく。そして、推定部332は、任意のセンサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)として、このセンサデータXp´の属するセル位置(セル位置c´)のセンサデータYpの代表値Ye(c´)を用いる。
つまり、推定部332は、[Ye(Xp´)=Ye(c´)|Xp´⊂c´]とする。そして、推定部332は、このようにして計算した任意のセンサデータXp´の値に対するセンサデータYp´の推定値Ye(Xp´)、つまりセンサデータ(Xp´,Ye(Xp´))を、例えば、訓練データに追加しておく。例えば、推定部332は、任意のセンサデータXp´の値に対する9つのビーコン(B1〜B9)のセンサデータYp´の推定値Ye(Xp´)として、図11に示す値を計算し、訓練データに追加しておく。
このようにすることで、推定部332は、任意のセンサデータXp´の値に対するセンサデータYp´の推定値Ye(Xp´)を効率よく計算することができる。
[第3の実施形態]
なお、人物判定部334は、第1のセンサ10で検知した人物iが第2のセンサ20で検知した人物jと同一人物であるか否かを判定する際、以下のようにして判定してもよい。
例えば、第1のセンサ10で検知した人物i=1〜3それぞれに対する第2のセンサ20で検知した端末D1,D2の照合スコアPij(つまり、人物1〜人物3が端末D1,D2を所持している確度)の時間的推移がそれぞれ、図12の(a)、(b)、(c)に示す値である場合を考える。
まず、人物判定部334は、図12の(a)に示す人物1の照合スコアPijを参照して、この照合スコアPijが最高値となっている端末(端末D2)を選択する。次に、人物判定部334は、端末D2が、他のいずれの人物の照合スコアPijでも最高値となっていないか否かを判断する。例えば、図12の(b)および(c)の照合スコアPijを参照すると、端末D2が、他のいずれの人物の照合スコアPijでも最高値となっていない。よって、人物判定部334は、人物1は端末D2の所持者と同一人物であると判定する。
次に、人物判定部334は、図12の(b)に示す人物2の照合スコアPijを参照して、この照合スコアPijが最高値となっている端末(端末D1)を選択する。次に、人物判定部334は、端末D1が、他のいずれかの人物の照合スコアPijで最高値となっているか否かを判断する。例えば、図12の(a)および(c)の照合スコアPijを参照すると、端末D1は、人物3の照合スコアPijでも最高値となっている。ここで、人物判定部334が、人物2の端末D1についての照合スコアPij(P21)と、人物3の端末D1についての照合スコアPij(P31)とを比較すると、P21>P31である。よって、人物判定部334は、人物2は端末D1の所持者と同一人物であると判定する。
次に、人物判定部334は、図12の(c)に示す人物3の照合スコアPijを参照して、この照合スコアPijが最高値となっている端末(端末D1)を選択する。そして、人物判定部334は、端末D1が、他のいずれかの人物の照合スコアPijで最高値となっているか否かを判断する。
例えば、図12の(a)および(b)の照合スコアPijを参照すると、端末D1は、人物2の照合スコアPijでも最高値となっている。ここで、人物判定部334が、人物2の端末D1についての照合スコアPij(P21)と、人物3の端末D1についての照合スコアPij(P31)とを比較すると、P21>P31である。よって、人物判定部334は、端末D1を人物3の所持者の候補から外す。
次に、人物判定部334は、図12の(c)に示す人物3の照合スコアPijを参照して、この照合スコアPijが次点となっている端末(端末D2)を選択する。そして、人物判定部334は、端末D2が、他のいずれかの人物の照合スコアPijで最高値となっているか否かを判断する。例えば、図12の(a)および(b)の照合スコアPijを参照すると、端末D2は、人物1の照合スコアPijで最高値となっている。
ここで、人物判定部334が、人物1の端末D2についての照合スコアPij(P12)と、人物3の端末D2についての照合スコアPij(P32)とを比較すると、P12>P32である。よって、人物判定部334は、端末D2を人物3の所持者の候補から外す。すると、人物3の照合スコアPijの中で有効なスコアを持つ端末は他にないことになる。
このような場合、人物判定部334が、訓練データにおける、人物3についてのセンサデータYの推定値Ye(X3)の個数、および、センサデータYの推定値Ye(X3)の値を参照して、人物3についてのセンサデータYの推定値Ye(X3)の累積値が所定値以上か否かを判定する。ここで累積値が所定値以上となっていれば、人物3は必要なセンサデータXが充分に蓄積された人物であり、所定エリア内に存在した可能性が極めて高いと考えることができる。よって、人物判定部334は、人物3は端末を所持しない人物(部外者)と判定する。
以上の人物判定処理を図13にまとめる。まず、人物判定部334は、第1のセンサ10で検知した人物iに対する、第2のセンサ20で検知した人物j(端末の所持者)それぞれの照合スコアPijを参照して、人物jの中から照合スコアPijが最高値となっている人物jを人物iの同一人物候補として選択する(図13のS101)。
次に、人物判定部334は、選択した人物jが、他のいずれかの人物iについて照合スコアPijが最高値となっている人物jか否かを判定する(S102)。そして、選択した人物jが、他のいずれの人物iについても照合スコアPijが最高値となっている人物jではない場合(S102でNo)、人物判定部334は、当該人物iと、同一人物候補として選択した人物jとが同一人物であると判定する(S105)。
一方、人物判定部334は、同一人物候補として選択した人物jが、他の人物iについて照合スコアPijが最高値となっている人物jである場合(S102でYes)、人物iについて同一人物候補として選択した人物jの照合スコアPijと、他の人物iについての人物jの照合スコアPijとを比較する(S103)。
S103による比較の結果、人物iについて同一人物候補として選択した人物jの照合スコアPijの方が、他の人物iについての人物jの照合スコアPijよりも大きい場合(S104でYes)、人物判定部334は、当該人物iと同一人物候補として選択した人物jとが同一人物であると判定する(S105)。
一方、S103による比較の結果、人物iについて同一人物候補として選択した人物jの照合スコアPijが、他の人物iについての人物jの照合スコアPij以下の場合(S104でNo)、人物判定部334は、人物jの中に、同一人物候補として選択した人物jの次に照合スコアPijが高い人物jがいれば(S106でYes)、当該人物jを新たな同一人物候補として選択する(S107)。そして、S102の処理へ戻る。
一方、人物判定部334は、人物jの中に、同一人物候補として選択した人物jの次に照合スコアPijが高い人物jがいない場合(S106でNo)、人物iについてのセンサデータYiの推定値Ye(Xi)の累積値が所定値以上か否かを判定する(S108)。ここで、人物iについてのセンサデータYiの推定値Ye(Xi)の累積値が所定値以上である場合(S108でYes)、人物判定部334は、当該人物iを第2のセンサ20で検知された人物jのいずれでもないと判定する。例えば、人物判定部334は、当該人物iを部外者と判定する(S109)。一方、人物iについてのセンサデータYiの推定値Ye(Xi)の累積値が所定値未満の場合(S108でNo)、人物判定部334は、当該人物iが誰か判定不能と判断する(S110)。
このようにすることで行動認識装置30は、第1のセンサ10で検知した人物iに対して人物jが同一人物か否か、また、部外者か否かを精度よく判定することができる。
[その他の実施形態]
また、第2のセンサ20によるセンサデータYが、端末におけるK個のビーコンからのビーコン信号の電波受信強度である場合、センサデータ照合部333は、以下のようにして類似度Cijを計算してもよい。
例えば、まず、センサデータ照合部333は、訓練データに基づき、センサデータXiについてのK個のビーコンそれぞれのセンサデータYiの推定値Yek(Xi)[k=1,2,…,K]を計算する。次に、センサデータ照合部333は、計算したセンサデータYiの推定値Yek(Xi)[k=1,2,…,K]と、収集したK個のビーコンについてのセンサデータYk[k=1,2,…,K]との類似度Cijを、K次元空間における、センサデータYiの推定値Ye(Xi)とセンサデータYjとの距離として計算する。
例えば、上記の距離としてユークリッド距離を用いる場合、センサデータ照合部333は、以下の式(1)により類似度Cijを計算する。
Figure 2018013855
上記の式(1)において、K次元空間における、センサデータYiの推定値Ye(Xi)とセンサデータYjとのユークリッド距離が近いほど、類似度Cijの値は1に近づく。
また、推定部332は、任意のセンサデータXp´についてのセンサデータYp´の推定値Ye(Xp´)を計算する際、線形や多項式モデル等を用いた回帰分析により計算してもよい。
さらに、センサデータYpがビーコン信号の電波受信強度である場合、推定部332は、例えば、Gaussian Processes(Gaussian Processes for Signal Strength-Based Location Estimation proc. of robotics science and systems, 2006)等を用いて、ビーコン信号の電波受信強度がセンサデータYpである端末の、撮影映像におけるピクセル位置を推定し、その推定値を訓練データに追加してもよい。このようにすることで、行動認識装置30は第1のセンサ10で検知した人物iに対して人物jが同一人物か否か、また、人物iについて部外者か否かを精度よく判定することができる。
さらに、行動認識装置30は、行動フェーズにおいてセンサデータ収集部331がセンサデータXiを収集すると、訓練データに基づき、直接(つまり、事前にセンサデータYp´の推定値Ye(Xp´)を計算することなく)、センサデータXiの値に対するセンサデータYiの推定値Ye(Xi)を計算してもよい。
また、第1のセンサ10で用いるセンサは、映像センサの他、温度センサや、赤外線センサ等を用いてもよい。さらに、第2のセンサ20で用いる無線信号は、空間を伝搬する信号であれば、電磁波の他、音波等であってもよい。
さらに、行動認識装置30は、人物判定部334による判定結果を、第1のセンサ10で撮影した映像上に表示してもよい。例えば、行動認識装置30は、図14に示すように、第1のセンサ10の撮影した映像上に、第1のセンサ10で検知した人物と、当該人物がゲスト(部外者)か社員か、また社員である場合、社員ID等を表示してもよい。
(プログラム)
また、各実施形態で述べた行動認識装置30の機能を実現する行動認識プログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実現できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記の行動認識プログラムを情報処理装置に実行させることにより、情報処理装置を行動認識装置30として機能させることができる。ここで言う情報処理装置は、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)であってもよい。
以下に、行動認識プログラムを実行するコンピュータの一例を説明する。図15は、行動認識プログラムを実行するコンピュータを示す図である。図15に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU(Central Processing Unit)1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図15に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した各実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、行動認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、行動認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 第1のセンサ
20 第2のセンサ
30 行動認識装置
31 入出力部
32 記憶部
33 制御部
331 センサデータ収集部
332 推定部
333 センサデータ照合部
334 人物判定部

Claims (8)

  1. 第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置であって、
    同じ人物について、同じ時刻に、前記第1のセンサで検知したセンサデータおよび前記第2のセンサで検知したセンサデータとのペアの集合である訓練データを記憶する記憶部と、
    同じ時刻に、前記第1のセンサで検知した人物のセンサデータと、前記第2のセンサで検知した人物のセンサデータとを収集する収集部と、
    前記訓練データに基づき、任意の前記第1のセンサのセンサデータに対する、前記第2のセンサのセンサデータの推定値を計算する推定部と、
    前記第2のセンサのセンサデータの推定値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合部と、
    前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定部と、
    を備えることを特徴とする行動認識装置。
  2. 前記判定部は、
    前記第1のセンサで検知した人物に対する、前記第2のセンサで検知した人物それぞれの照合スコアを参照して、前記第2のセンサで検知した人物の中から前記照合スコアが最高値となっている人物を前記第1のセンサで検知した人物の同一人物候補として選択し、前記同一人物候補として選択した人物が、前記第1のセンサで検知した他のいずれの人物についても前記照合スコアが最高値となっている人物ではない場合、前記第1のセンサで検知した人物と前記同一人物候補として選択した人物とが同一人物であると判定することを特徴とする請求項1に記載の行動認識装置。
  3. 前記判定部は、
    前記同一人物候補として選択した人物が、前記第1のセンサで検知した他のいずれかの人物について前記照合スコアが最高値となっている人物である場合において、前記第1のセンサで検知した人物に対する前記同一人物候補として選択した人物の照合スコアが、前記第1のセンサで検知した他の人物に対する前記選択した人物の照合スコアよりも大きいとき、前記第1のセンサで検知した人物と前記同一人物候補として選択した人物とが同一人物であると判定することを特徴とする請求項2に記載の行動認識装置。
  4. 前記判定部は、
    前記同一人物候補として選択した人物が、前記第1のセンサで検知した他のいずれかの人物について前記照合スコアが最高値となっている人物である場合において、前記第1のセンサで検知した人物に対する前記同一人物候補として選択した人物の照合スコアが、前記第1のセンサで検知した他の人物に対する前記選択した人物の照合スコア以下のとき、前記第2のセンサで検知した人物の中から、前記同一人物候補として選択した人物の次に前記照合スコアが高い人物を新たな同一人物候補として選択することを特徴とする請求項3に記載の行動認識装置。
  5. 前記判定部は、
    前記第2のセンサで検知した人物の中に、前記同一人物候補として選択した人物の次に前記照合スコアが高い人物がいない場合において、前記第1のセンサで検知した人物に対する前記第2のセンサのセンサデータの推定値の累積値が所定値以上であるとき、前記第1のセンサで検知した人物は前記第2のセンサで検知された人物のいずれでもないと判定することを特徴とする請求項4に記載の行動認識装置。
  6. 前記第1のセンサは、
    所定エリアの映像を撮影し、前記映像に映る人物を時間的に連続して検知するセンサであり、
    前記第1のセンサのセンサデータは、
    前記第1のセンサで検知された人物のピクセル位置を示すデータであり、
    前記第2のセンサは、
    前記所定エリアに複数個設置されるビーコン装置と、前記人物に所持され、前記ビーコン装置からのビーコン信号を受信する端末装置とを備え、
    前記第2のセンサのセンサデータは、
    前記人物が所持する端末装置が受信したビーコン信号の受信強度を示すデータであることを特徴とする請求項1に記載の行動認識装置。
  7. 前記推定部は、
    前記第1のセンサが撮影した映像のピクセル空間を複数のセルに分割し、任意の前記第1のセンサのセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算し、前記代表値を、前記第2のセンサのセンサデータの推定値として用いることを特徴とする請求項6に記載の行動認識装置。
  8. 第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置を用いた行動認識方法であって、
    同じ時刻に、前記第1のセンサで検知した人物のセンサデータと、前記第2のセンサで検知した人物のセンサデータとを収集する収集ステップと、
    同じ人物について、同じ時刻に、前記第1のセンサで検知したセンサデータおよび前記第2のセンサで検知したセンサデータとのペアの集合である訓練データに基づき、任意の前記第1のセンサのセンサデータに対する、前記第2のセンサのセンサデータの推定値を計算する推定ステップと、
    前記第2のセンサのセンサデータの推定値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合ステップと、
    前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定ステップと、
    を含んだことを特徴とする行動認識方法。
JP2016141480A 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法 Active JP6611257B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016141480A JP6611257B2 (ja) 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016141480A JP6611257B2 (ja) 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法

Publications (2)

Publication Number Publication Date
JP2018013855A true JP2018013855A (ja) 2018-01-25
JP6611257B2 JP6611257B2 (ja) 2019-11-27

Family

ID=61021183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016141480A Active JP6611257B2 (ja) 2016-07-19 2016-07-19 行動認識装置、および、行動認識方法

Country Status (1)

Country Link
JP (1) JP6611257B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033672A (ja) * 2019-08-26 2021-03-01 沖電気工業株式会社 物体認識装置、プログラムおよび物体認識システム
DE112020001776T5 (de) 2019-05-13 2022-01-27 Hitachi Astemo, Ltd. Fahrzeugsteuersystem

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127240A (ja) * 2004-10-29 2006-05-18 Secom Co Ltd 不審者検出システム及び不審者検出プログラム
JP2006311111A (ja) * 2005-04-27 2006-11-09 Daikin Ind Ltd 位置検知システムおよび位置検知方法
WO2008149507A1 (ja) * 2007-06-04 2008-12-11 Nec Corporation 対象同定装置、データ処理方法、コンピュータプログラム
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2011113411A (ja) * 2009-11-27 2011-06-09 Sogo Keibi Hosho Co Ltd 警備装置およびセンサ反応要因の推定方法
JP2011186751A (ja) * 2010-03-08 2011-09-22 Takenaka Komuten Co Ltd 位置推定装置およびプログラム
JP2011211687A (ja) * 2010-03-25 2011-10-20 Nec (China) Co Ltd データ関連付けのための方法と装置
JP2015040749A (ja) * 2013-08-21 2015-03-02 日本電信電話株式会社 位置推定装置及び位置推定プログラム
JP2016001875A (ja) * 2009-12-03 2016-01-07 国立研究開発法人産業技術総合研究所 移動体の測位装置
WO2016098457A1 (ja) * 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017154530A (ja) * 2016-02-29 2017-09-07 株式会社オートネットワーク技術研究所 車載機及び車両保安システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127240A (ja) * 2004-10-29 2006-05-18 Secom Co Ltd 不審者検出システム及び不審者検出プログラム
JP2006311111A (ja) * 2005-04-27 2006-11-09 Daikin Ind Ltd 位置検知システムおよび位置検知方法
WO2008149507A1 (ja) * 2007-06-04 2008-12-11 Nec Corporation 対象同定装置、データ処理方法、コンピュータプログラム
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2011113411A (ja) * 2009-11-27 2011-06-09 Sogo Keibi Hosho Co Ltd 警備装置およびセンサ反応要因の推定方法
JP2016001875A (ja) * 2009-12-03 2016-01-07 国立研究開発法人産業技術総合研究所 移動体の測位装置
JP2011186751A (ja) * 2010-03-08 2011-09-22 Takenaka Komuten Co Ltd 位置推定装置およびプログラム
JP2011211687A (ja) * 2010-03-25 2011-10-20 Nec (China) Co Ltd データ関連付けのための方法と装置
JP2015040749A (ja) * 2013-08-21 2015-03-02 日本電信電話株式会社 位置推定装置及び位置推定プログラム
WO2016098457A1 (ja) * 2014-12-17 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2017154530A (ja) * 2016-02-29 2017-09-07 株式会社オートネットワーク技術研究所 車載機及び車両保安システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020001776T5 (de) 2019-05-13 2022-01-27 Hitachi Astemo, Ltd. Fahrzeugsteuersystem
US11891086B2 (en) 2019-05-13 2024-02-06 Hitachi Astemo, Ltd. Vehicle control system
JP2021033672A (ja) * 2019-08-26 2021-03-01 沖電気工業株式会社 物体認識装置、プログラムおよび物体認識システム
JP7375371B2 (ja) 2019-08-26 2023-11-08 沖電気工業株式会社 物体認識装置、プログラムおよび物体認識システム

Also Published As

Publication number Publication date
JP6611257B2 (ja) 2019-11-27

Similar Documents

Publication Publication Date Title
US9819677B2 (en) Supplementing biometric identification with device identification
Mahbub et al. Active user authentication for smartphones: A challenge data set and benchmark results
US20220148217A1 (en) Multi-channel spatial positioning system
US8989438B2 (en) Mobile body track identification system
JP4924607B2 (ja) 不審行動検知装置および方法、プログラムおよび記録媒体
WO2016107482A1 (zh) 确定人脸图像中人脸的身份标识的方法、装置和终端
CN102831385B (zh) 多相机监控网络中的目标识别设备和方法
US20150379366A1 (en) Article management system, information processing apparatus, and control method and control program of information processing apparatus
CN106559749B (zh) 一种基于射频层析成像的多目标被动式定位方法
US8472670B2 (en) Target detection device and target detection method
WO2016025713A1 (en) Three-dimensional hand tracking using depth sequences
US11106901B2 (en) Method and system for recognizing user actions with respect to objects
US20130121535A1 (en) Detection device and method for transition area in space
JP6588413B2 (ja) 監視装置および監視方法
Wang et al. TMicroscope: Behavior perception based on the slightest RFID tag motion
CN109766755A (zh) 人脸识别方法及相关产品
CN116129350B (zh) 数据中心安全作业的智能监控方法、装置、设备及介质
JP6611257B2 (ja) 行動認識装置、および、行動認識方法
CN102855635A (zh) 确定人体动作周期及识别人体动作的方法和装置
JP2018013851A (ja) 行動認識装置、および、行動認識方法
Teng et al. EV: Efficient visual surveillance with electronic footprints
US8248233B2 (en) Location filtering based on device mobility classification
CN106971169B (zh) 交易行为识别方法和交易行为识别系统
KR101150944B1 (ko) 매칭 가능성에 기반한 타겟 탐색 장치, 그 방법, 및 그 기록매체
JP5907162B2 (ja) 移動体属性推定システム、移動体属性推定方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191025

R150 Certificate of patent or registration of utility model

Ref document number: 6611257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150