JP5450089B2 - 対象検出装置および対象検出方法 - Google Patents

対象検出装置および対象検出方法 Download PDF

Info

Publication number
JP5450089B2
JP5450089B2 JP2009543302A JP2009543302A JP5450089B2 JP 5450089 B2 JP5450089 B2 JP 5450089B2 JP 2009543302 A JP2009543302 A JP 2009543302A JP 2009543302 A JP2009543302 A JP 2009543302A JP 5450089 B2 JP5450089 B2 JP 5450089B2
Authority
JP
Japan
Prior art keywords
feature information
unit
identifier
association
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009543302A
Other languages
English (en)
Other versions
JPWO2010016175A1 (ja
Inventor
幹夫 森岡
雅貴 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009543302A priority Critical patent/JP5450089B2/ja
Publication of JPWO2010016175A1 publication Critical patent/JPWO2010016175A1/ja
Application granted granted Critical
Publication of JP5450089B2 publication Critical patent/JP5450089B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Alarm Systems (AREA)

Description

本発明は、撮影画像内に検出された人物等の移動物体と無線端末の識別子とを対応付ける対象検出装置および対象検出方法に関する。
従来、入口が明確でなく入出門ゲートのないオープンスペースなどの空間において、撮影された人物等の移動物体とこの移動物体が保持する無線端末の識別子とを対応付ける方法として、特許文献1に開示された技術が知られている。
従来の移動物体検出システムでは、移動物体の位置の検出開始時刻と無線端末の識別子の受信開始時刻との差が所定時間以内である場合に、移動物体の位置履歴(以下、適宜「位置履歴」という)と無線端末の識別子(以下、適宜「識別子」という)とを対応付ける。位置履歴とは、カメラ等によって撮影された移動物体の位置とその検出開始時刻の履歴である。
さらに、従来の移動物体検出システムは、識別子の受信開始時刻から所定時間以内に、検出開始された位置履歴が複数存在する場合には、検出開始時刻が識別子の受信開始時刻に最も近い位置履歴を、識別子と対応付ける。
例えば、従来の移動物体検出システムが、図1に示すように、2つの位置履歴P1,P2と1つの識別子ID1を取得したとする。この場合、従来の移動物体検出システムは、それぞれの位置履歴の検出開始時刻TP1、TP2と識別子の受信開始時刻TID1との差|TP1−TID1|、|TP2−TID1|を計算する。図1の例では、|TP1−TID1|>|TP2−TID1|であるので、従来の移動物体検出システムは、位置履歴P2を識別子T1と対応付ける。
特開2006−98214号公報
しかしながら、従来の移動物体検出システムは、時間差だけを基準に対応付けを行っているため、以下の(1)、(2)の場合においては対応付けを正しく行うことができない。
(1)短時間に複数の識別子が受信開始された場合
複数の移動物体が近距離を保ちながら移動している場合には、各移動物体の検出開始時刻と、各移動物体が保持する無線端末の識別子の受信開始時刻とが、それぞれほぼ同時(誤差の範囲内)となる。
例えば、2つの移動物体A、Bが近距離を保って移動する場合である。図2に示すように、2つの位置履歴P1、P2の検出開始時刻TP1、TP2と、2つの識別子ID1、ID2の受信開始時刻TID1、TID2とが、それぞれほぼ同時となる。このように、受信開始時刻が同時である複数の識別子が存在する場合には、従来の移動物体検出システムは、位置履歴を識別子と対応付けることができない。
(2)検出された位置履歴の数よりも受信された識別子の数が多い場合
例えば、移動物体の位置の検出範囲と識別子の受信範囲は異なる場合がある。そのため、例えば2つの移動物体A、Bのうち、移動物体Aは、位置検出範囲外だが識別子受信範囲内であるエリアを移動し、移動物体Bは、位置検出範囲と識別子受信範囲の両方の範囲内であるエリアを移動する場合がある。
この場合には、図3に示すように、1つの位置履歴P1と2つの識別子ID1,ID2が取得される。従来の移動物体検出システムは、2つの識別子ID1,ID2の受信開始時刻TID1、TID2のいずれにおいても対応付けを行うことができない。その理由は、位置履歴P1の検出開始時刻TP1が最も近いため、位置履歴P1を、どちらの識別子と対応付けるべきかを判別することができないからである。
このように、従来技術では、短時間に複数の識別子が受信開始された場合や、検出された位置履歴の数よりも受信された識別子の数が多い場合において、撮影画像内の移動物体と識別子の対応付けを行うことができないという課題がある。
本発明の目的は、短時間に複数の識別子が受信開始された場合、あるいは、検出された位置履歴の数よりも受信された識別子の数が多い場合においても、撮影画像内の移動物体と識別子の対応付けを行うことができる対象検出装置および対象検出方法を提供することである。
本発明に係る対象検出装置は、撮影画像に映っている少なくとも1つの移動物体の特徴情報を抽出する特徴情報抽出部と、前記移動物体が保持する無線端末の識別子を読み取る読み取り部と、前記特徴情報と前記識別子とを時刻毎に関連付けて保存する履歴管理部と、前記履歴管理部に保存された前記特徴情報と前記識別子とを、前記特徴情報間の類似度と、前記特徴情報と前記識別子との間の前記関連付けとに基づいて対応付ける対応付け部と、を具備する構成を採る。
本発明に係る対象検出方法は、撮影画像に映っている少なくとも1つの移動物体の特徴情報を抽出する特徴情報抽出工程と、前記移動物体が保持する無線端末の識別子を読み取る読み取り工程と、前記特徴情報と前記識別子とを時刻毎に関連付けてメモリに保存する履歴管理工程と、前記メモリに保存された前記特徴情報と前記識別子とを、前記メモリに保存された特徴情報間の類似度と、前記特徴情報と前記識別子との間の前記関連付けとに基づいて対応付ける対応付け工程と、を具備する。
本発明によれば、特徴情報間の類似度に基づいて、特徴情報に対応する識別子を求めることにより、短時間に複数の識別子が受信開始された場合、あるいは、検出された位置履歴の数よりも受信された識別子の数が多い場合においても、撮影画像内の移動物体と識別子との対応付けを容易に行うことができる。
従来技術の位置履歴と識別子の対応付けを説明する図 従来技術における課題を説明する図 従来技術における課題を説明する図 本発明の実施の形態1に係る対象検出装置の構成を示すブロック図 本発明の実施の形態1に係る対象検出装置を含むシステム構成を示す図 本発明の実施の形態1に係る履歴管理部に管理される履歴情報の一例を示す図 本発明の実施の形態1に係る対応付け部の動作手順を示すフロー図 本発明の実施の形態1に係るクラスタリングを説明する図 本発明の実施の形態1に係る履歴管理部に管理される履歴情報の一例を示す図 本発明の実施の形態1に係る表示画像の一例を示す図 本発明の実施の形態1に係る対象検出装置の構成を示すブロック図 本発明の実施の形態1に係る対象検出装置の構成を示すブロック図 本発明の実施の形態1に係る履歴管理部に管理される履歴情報の一例を示す図 本発明の実施の形態2に係る対象検出装置の構成を示すブロック図 本発明の実施の形態2に係る対応付け部の動作手順を示すフロー図 本発明の実施の形態2に係る表示画像の一例を示す図 本発明の実施の形態3に係る対象検出装置の構成を示すブロック図 本発明の実施の形態3に係る対象検出装置の構成を示すブロック図 本発明の実施の形態3に係る対象検出装置を含むシステム構成を示す図 本発明の実施の形態3に係る履歴管理部に管理される履歴情報の一例を示す図
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。なお、各実施の形態では、移動物体が人物である場合について説明する。また、各人物は、固有の識別子を無線によって送信可能な無線端末を保持する。無線端末は、RFID(Radio Frequency Identification)、非接触ICカード、無線タグ、Bluetooth(登録商標)、無線LAN(local area network)、ミリ波タグなどである。
(実施の形態1)
図4は、本発明の実施の形態1に係る対象検出装置の構成を示すブロック図である。図5は、本発明の実施の形態1に係る対象検出装置を含むシステム構成を示す図である。
対象検出装置100は、撮影部101、人物切り出し部102、特徴情報抽出部103、読み取り部104、履歴管理部105、対応付け部106、異常出力部107、画像記憶部108および表示部109から主に構成される。また、対応付け部106は、対応付け判定部151、クラスタリング部152、類似度計算部153およびクラスタ対応付け部154を有する。
撮影部101は、カメラを用いて所定の領域を撮影し、撮影画像を、人物切り出し部102、特徴情報抽出部103および画像記憶部108に出力する。
人物切り出し部102は、所定のタイミングで、撮影部101から出力された撮影画像から人物201が映っている領域(以下、「人物領域」という)を検出する。そして、人物切り出し部102は、撮影画像に映っている人物201の数が増加又は減少した場合には、その旨を示す情報を、読み取り部104に通知する。また、人物切り出し部102は、人物領域の位置を示す情報を、特徴情報抽出部103に出力する。なお、人物領域の検出は、既存の方法を用いることにより実現される。例えば、人物切り出し部102は、入力した撮影画像を用いて、過去フレームの画像情報(背景情報)と現フレームの画像情報との差分に基づいて、人物領域を検出する。
特徴情報抽出部103は、人物切り出し部102から出力された情報を参照し、撮影部101から出力された撮影画像に映っている人物201の特徴情報を全て抽出し、抽出された特徴情報を、履歴管理部105に出力する。特徴情報の表現方法としては、例えば、色特徴量や輝度勾配特徴量などを用いた、N次元データがある。画像認識の分野では、数百次元からなる特徴ベクトルに主成分分析を施して、百次元程度に縮減したベクトルを、特徴情報として使用することが一般的である。しかし、本実施の形態では、特徴ベクトルを2次元(例えばN次元ベクトルを主成分分析して得られた第1主成分と第2主成分)で
あるとして説明する。特徴情報は、例えば、人物の顔の特徴を示す特徴情報や、人物の形状の特徴を示す特徴情報である。
読み取り部104は、受信アンテナを有し、人物切り出し部102からの通知のタイミングで、人物201が保持する無線端末202から発信された電波を受信する。人物切り出し部102からの通知とは、上述の通り、撮影画像に映っている人物201の数が増加又は減少したことを示す情報の通知である。この際、読み取り部104は、人物切り出し部102からの通知を受けて、無線端末202に対して識別子を問い合わせてもよい。具体的には、読み取り部104は、無線端末202に対して問い合わせ信号を発信し、それに対する返答として無線端末202が発信した電波を受信し、受信した電波に重畳された識別子を読み取るようにすればよい。読み取り部104は、取得したすべての識別子を、履歴管理部105に出力する。なお、図5に示すように、例えば、読み取り部104の受信範囲203は、撮影部101の撮影範囲204と等しいかそれより広く設定される。
履歴管理部105は、特徴情報抽出部103が抽出した特徴情報と、読み取り部104が読み取った識別子とを入力し、時刻毎に特徴情報と識別子とを対応付け、履歴情報として管理する。
対応付け部106は、履歴管理部105に履歴情報として管理されている特徴情報と識別子との対応付けを行う。そして、対応付け部106は、対応付けの結果を示す情報を表示部109に出力する。
異常出力部107は、対応付け部106が異常を判断した場合に、その結果を示す情報を表示部109に出力する。
画像記憶部108は、撮影部101から出力された撮影画像を、時刻情報を付与して記憶する。表示部109は、画像記憶部108に記憶された撮影画像を、撮影画像内に映っている人物の特徴情報に対応する識別子を重ねた状態で表示する。なお、表示部109は、異常出力部107から異常を示す情報を入力した場合に、撮影画像にこの異常を示す情報を重ねて表示しても良い。
対応付け判定部151は、履歴情報の特徴情報と識別子とを1対1に対応付けることができるか否かを判定する。
具体的には、対応付け判定部151は、所定の時刻において、履歴情報の特徴情報の数および識別子の数が各々1つずつである場合には、特徴情報と識別子とを1対1に対応付ける。一方、対応付け判定部151は、所定の時刻において、履歴情報の特徴情報の数、あるいは識別子の数の少なくとも一方が複数である場合には、特徴情報と識別子とを1対1に対応付けることができないと判定する。さらに、対応付け判定部151は、クラスタリング部152に対してクラスタリング処理を行うようトリガーを発する。なお、対応付け判定部151は、過去のクラスタリング処理(部分集合に分類する処理)において、対象の特徴情報の対応付けが取られている場合には、その結果を利用して、特徴情報と識別子とを1対1に対応付けてもよい。
また、クラスタ対応付け部154において、クラスタと識別子が1対1に対応付けられた場合、対応付け判定部151は、その結果に基づいて特徴情報と識別子とを対応付ける。
そして、対応付け判定部151は、対応付けの結果を示す情報を表示部109に出力する。
クラスタリング部152は、対応付け判定部151からトリガーを受けると、履歴管理部105が管理する履歴情報の特徴情報を入力し、特徴情報を類似度に基づいてクラスタリングする。なお、クラスタリング部152の具体的な処理は後述する。
類似度計算部153は、クラスタリング部152にてクラスタリングを行う際に、特徴情報同士の類似度を計算する。本実施の形態では、類似度としてベクトル間距離を用いる。なお、本発明では、類似度の計算方法について限定されない。
クラスタ対応付け部154は、クラスタリング部152によって生成されたクラスタと識別子との対応付けを行う。そして、クラスタ対応付け部154は、クラスタと識別子が1対1に対応付けられた場合には、その結果を示す情報を対応付け判定部151に出力する。一方、クラスタ対応付け部154は、クラスタと識別子が1対1に対応付けられない場合には、その結果を示す情報を異常出力部107に出力する。
次に、対応付け部106が、履歴管理部105に管理されている特徴情報と識別子との対応付けを行う処理について、図6の例を用いて具体的に説明する。図6は、履歴管理部105において管理される履歴情報の一例を示す図である。
本例では、時刻t1において、2人の人物が検出され、各人物の特徴情報が(100、10)と(15、150)であり、その時に検知された無線端末の識別子がID11とID22であったとする。また、時刻t2において、2人の人物が検出され、各人物の特徴情報が(95、15)と(80、90)であり、その時に検知された無線端末の識別子がID22とID33であったとする。
対応付け部106は、同一時刻に複数の人物の特徴情報と識別子が検知された場合、当該時刻における履歴情報のみでは特徴情報と識別子とを対応付けることができない。従って、図6の場合、対応付け部106は、時刻t1と時刻t2での両方の履歴情報を用いて、図7に示す動作手順に従って、特徴情報と識別子との対応付けを行う。図7は、本実施の形態に係る対応付け部106の動作手順を示すフロー図である。
ステップ11:特徴情報をクラスタリングする。
クラスタリング部152は、類似度計算部153が計算したベクトル間距離が所定の閾値よりも短い特徴情報を、同じクラスタに分類するようにクラスタリングを行う。なお、本実施の形態では、一定の閾値以下の距離にある特徴情報を1つのクラスタとして分類する方法を用いているが、本発明では、クラスタリングの手法についてこの方法に限定されない。他のクラスタリングの手法として、最短距離法などの階層的手法やk-means法などの分割最適化手法が知られている。
本例では、図8に示すように、時刻t1における特徴情報(100、10)と時刻t2における特徴情報(95、15)のベクトル間距離が所定の閾値よりも短い。したがって、クラスタリング部152は、これらの特徴情報をクラスタ1に分類する。また、クラスタリング部152は、時刻t1における特徴情報(15、150)をクラスタ2に分類し、時刻t2における特徴情報(80、90)をクラスタ3に分類する。
ステップ12:論理式を作成する。
クラスタ対応付け部154は、クラスタを変数として、各クラスタと各時刻における識別子との割り当て状況を表現する論理式を作成する。
本例では、クラスタ対応付け部154は、下記式(1)から式(4)を作成する。
時刻t1における特徴情報(100、10)は、クラスタ1に属し、ID11とID22の可能性がある。これを、以下の式(1)と表現することができる。
クラスタ1 = {ID11、ID22} …(1)
また、時刻t1における特徴情報(15、150)は、クラスタ2に属し、ID11とID22の可能性がある。これを、以下の式(2)と表現することができる。
クラスタ2 = {ID11、ID22} …(2)
同様に、時刻t2における特徴情報(95、15)は、クラスタ1に属し、ID22とID33の可能性があり、特徴情報(80、90)は、クラスタ3に属し、ID22とID33の可能性がある。これを、以下の式(3)、(4)と表現することができる。
クラスタ1 = {ID22、ID33} …(3)
クラスタ3 = {ID22、ID33} …(4)
ステップ13:論理式を解く。
クラスタ対応付け部154は、論理式の変換を用いて、ステップ12で作成した論理式を解く。なお、本発明は、論理式を解く手法に制限はない。論理式を解く手法として、制約充足問題の解法(バックトラッキング法など)、その近似アルゴリズム、全探索等が知られている。
本例では、クラスタ対応付け部154は、上記式(1)から式(4)を解いて各クラスタに対応する識別子を求める。まず、式(1)と式(3)から、クラスタ1の取り得る識別子は、ID22に限定される。これを、以下の式(5)と表現することができる。
クラスタ1 = {ID22} …(5)
次に、式(2)と式(5)から、クラスタ2の取り得る識別子は、ID11に限定される。また、式(4)と式(5)から、クラスタ3の取り得る識別子は、ID33に限定される。
ステップ14:クラスタと識別子とを対応付ける。
クラスタ対応付け部154は、論理式を解いた結果に基づいて、クラスタと識別子との対応付けを行う。
本例では、ステップ13で説明したように、各クラスタの取り得る識別子は1つに限定されるので、クラスタと識別子が1対1に対応付けられる(ステップ14;YES)。
一方、無線端末を持たない人物が撮影範囲に入った場合、あるいは、無線端末を交換した場合には、履歴情報から作成された論理式は矛盾する。このような場合は、論理式を解いた場合にクラスタに識別子を対応付けられない(ステップ14;NO)。
ステップ15:特徴情報と識別子とを対応付ける。
ステップ14において、クラスタと識別子が1対1に対応付けられた場合(ステップ14;YES)、対応付け判定部151は、クラスタと識別子の対応関係から、特徴情報に識別子を対応付ける。さらに、対応付け判定部151は、対応付けの結果を示す情報を表示部109に出力する。
本例では、ステップ13の結果より、クラスタ対応付け部154は、クラスタ1に属する特徴情報(100、10)と特徴情報(95、15)にID22を対応付ける。さらに、クラスタ対応付け部154は、クラスタ2に属する特徴情報(15、150)にID1
1を対応付け、クラスタ3に属する特徴情報(80、90)にID33を対応付ける。
ステップ16:異常発生時の処理を行う。
ステップ14において、クラスタに識別子を対応付けられない場合(ステップ14;NO)、異常出力部107は、異常であると判断し、判断結果を表示部109に出力する。これにより、無線端末の不所持や交換といった異常を検知することができる。
次に、特定の特徴情報に対する表示を行うための方法について説明する。
特徴情報抽出部103は、撮影画像から人物オブジェクトの特徴情報を抽出する際に、特徴ベクトルに加えて、画像内のオブジェクトの位置も抽出する。そして、特徴情報抽出部103は、特徴ベクトルとオブジェクトの位置とを、履歴管理部105に登録する。図9は、画像内のオブジェクト位置情報を含む特徴情報の一例を示す図である。
図9の例では、時刻t1における撮影画像から、特徴情報((100,10),(300,400))と、特徴情報((15,150),(600,450))の2つのオブジェクトが検知されたことを表す。なお、特徴情報((100,10),(300,400))の意味は、(100,10)がオブジェクトの特徴ベクトルであり、(300,400)が画像内のオブジェクトの位置である。
表示部109は、特定の特徴情報に対する表示を行う際は下記の処理を行う
(1)表示部109は、特徴情報に対応する時刻の画像を画像記憶部108から取得する。
(2)表示部109は、特徴情報から取得したオブジェクトの位置座標情報に、画像記憶部108から取得した画像を重ねて表示する。
図10は、図6の時刻t1の撮影画像に識別子を重ねて表示した表示画像の一例を示す図である。表示部109は、対応付け部106が求めた結果を用いて、撮影画像内に撮影されている人物領域の周辺に、その人物が保持する無線端末の識別子が分かるような表示を行う。図10の例では、表示部109は、特徴情報(15、150)に対応する人物領域の周辺に「ID11」および矢印を表示し、特徴情報(100、10)に対応する人物領域の周辺に「ID22」および矢印を表示する。
以上のように、本実施の形態では、特徴情報をクラスタリングし、各クラスタと対応する識別子を求めるようにした。このことにより、同時刻に複数の識別子が受信開始された場合、あるいは、検出された位置履歴の数よりも受信された識別子の数が多い場合においても、移動物体との識別子との対応付けを容易に行うことができる。
また、従来技術では、位置履歴を把握するために無線端末が常に電波を送信しなければならず、消費電力が大きくなってしまうという課題がある。しかし、本実施の形態では、人物切り出し部102が撮影画像に映っている人物数の増減を検知した場合にのみ、読み取り部104は無線端末202と通信を行えばよいため、無線端末202は常に電波を送信する必要がない。そのため、無線端末202は、通常時において読み取り部104と通信を行わず、読み取り部104からの電波を受けて起動する。したがって、無線端末202には、起動後に自らの電力を用いて、識別子を電波に重畳させて送信するセミパッシブ型無線端末(セミパッシブタグ)を用いることが可能になる。あるいは、無線端末202は、読み取り部104からの電波の一部を反射させた電波に識別子を重畳させる、パッシブ型無線端末(パッシブタグ)を用いることが可能となる。これにより、従来技術と比較して無線端末の消費電力を抑えることができる。
なお、本実施の形態において、対応付け部106は、図11に示すように、対応付け部106の内部にクラスタ数決定部155を有する構成にしてもよい。クラスタ数決定部155は、履歴管理部105に管理された履歴情報の識別子の総数を求め、その結果を最大クラスタ数としてクラスタリング部152に出力する。図6の例では、識別子が、ID11、ID22、ID33の3個であるため、最大クラスタ数は「3」と設定される。なお、クラスタ数決定部155は、履歴管理部105に管理された履歴情報の一部期間のみをクラスタリングの対象とする場合、該当期間に検出された識別子の総数を求め、求めた総数を、最大クラスタ数としてクラスタリング部152に出力してもよい。
この場合、クラスタリング部152は、図7のステップ11におけるクラスタリングの際に、クラスタ数の上限を最大クラスタ数に設定する。これにより、クラスタリング処理の際の探索範囲を削減することが可能となり、クラスタリングの計算量を削減し、クラスタリングの精度を向上させることができる。
また、人物切り出し部102は、図12に示すように、人物切り出し部102の代わりに識別子変化検知部111を用いるようにしても良い。識別子変化検知部111は、読み取り部104の読み取り結果を監視し、識別子の数が増加又は減少した場合に、特徴情報抽出部103と読み取り部104に対して、特徴情報と識別子とを履歴管理部105に登録するよう指示を出す。その際に撮影部101が常時撮影を行っていない場合には、識別子変化検知部111は、撮影部101に対しても撮影開始の指示を出す。ただし、識別子変化検知部111は、特徴情報抽出部103に対する指示を出す前に、撮影開始の指示を出す。
また、本実施の形態において、対応付け部106は、対応付けの結果を対応付け情報として履歴管理部105に出力し、対応付け情報を管理してもよい。これにより、対応付け部106は、2回目以降の対応付けを行う際に、対応付け情報を利用することでクラスタリングや対応付けの計算量を減らすことができる。以下、この場合について説明する。
図13は、履歴管理部105において管理される履歴データの一例を示す図である。本例では、対応付け部106によって対応付けが行われた結果が反映されたデータとなっている。データテーブルの1行目は、特徴情報(100,10)がID22に対応付けられていることを表す。同様に、特徴情報(15、150)はID11に、特徴情報(95、15)はID22に、特徴情報(80,90)はID33に対応付けられていることを表す。
これにより、例えば時刻t1における特徴情報(100,10)に対応する識別子を求めることを要求された場合に、対応付け判定部151は、すでに時刻t1における特徴情報(100,10)がID22と対応付けられていることがわかる。このため、クラスタリング部152以降の処理を行わずに、識別子はID22であるという対応付け結果を出すことができる。
また、クラスタリング部152以降の処理においても、論理式が単純化されるため計算量が少なくて済む。
また、本実施の形態では、対応付け判定部151が、単一の時間で特徴情報と識別子とを対応付けることができるか否かをまず判定する場合について説明した。しかし、本発明は、これに限られず、図4から対応付け判定部151を削除し、全ての場合においてクラスタリングを行うようにしても良い。
(実施の形態2)
図14は、本発明の実施の形態2に係る対象検出装置の構成を示すブロック図である。なお、図14に示す対象検出装置300において、図4に示した対象検出装置100と共通する構成部分には、図4と同一符号を付して詳しい説明を省略する。
実施の形態2は、特定情報と識別子との対応付けの手順が、実施の形態1のものと異なる。図14に示す対象検出装置300は、図4に示した対象検出装置100と比較して、対応付け部306の内部構成が対応付け部106と異なる。
対応付け部306は、対応付け判定部351、近傍特徴情報追加部352および類似度計算部153を有し、指定された特徴情報に対応付けられる識別子を求める。
対応付け判定部351は、判定の対象としている1つ以上の特徴情報が共通して対応付けられる可能性のある識別子が1つに限定できるかどうかを判定し、その結果を出力する。
近傍特徴情報追加部352は、指定された特徴情報に対して、類似度が近傍の特徴情報を求め、対応付け判定部351に出力する。
次に、対応付け部306が、履歴管理部105に管理されている特徴情報の中から、指定された特徴情報に対応付けられる識別子を求める場合について、具体的に説明する。
ここでは、履歴管理部105において管理されている履歴情報が、実施の形態1で例に挙げた図6と同様であるとし、対応付け部306が、特徴情報(100、10)の識別子を求めることを要求されたものとする。
この場合、対応付け部306は、図15に示す動作手順に従って、指定された特徴情報(100、10)と識別子との対応付けを行う。図15は、本実施の形態に係る対応付け部306の動作手順を示すフロー図である。
ステップ21:対応付けの可否を判定する。
対応付け判定部351は、特徴情報が対応付けられる可能性のある識別子の数が1個に限定することができるかどうかを判断する。
本例では、特徴情報(100、10)に対応する可能性がある識別子は、ID11とID22の2つあり、対応付け判定部351は、識別子を1個に限定することができない(ステップ21;NO)。
ステップ22:近傍特徴情報を選択する。
ステップ21において、識別子を1つに限定することができない場合(ステップ21;NO)、近傍特徴情報追加部352は、類似度計算部153が計算した類似度に基づく近傍の特徴情報を選択する。
本例では、近傍特徴情報追加部352は、特徴情報(100、10)の最も近傍の特徴情報(95、15)を選択する。
ステップ23:対応付けの可否を判定
対応付け判定部351は、近傍特徴情報追加部352が選択した特徴情報を判定の対象として加えて、判定の対象となっている全ての特徴情報に共通する識別子が1個に限定されるかどうかを判断する。
本例では、特徴情報(95、15)に対応する可能性がある識別子は、ID22とID33である。よって、特徴情報(100、10)および特徴情報(95、15)がともに対応する可能性がある識別子はID22のみであるの、対応付け判定部351は、識別子を1個に限定することができる(ステップ23;YES)。
ステップ24:特徴情報と識別子とを対応付ける。
ステップ21またはステップ23において、識別子を1つに限定することができた場合(ステップ21;YES、ステップ23;YES)、対応付け判定部351は、求めた識別子を、指定された特徴情報に対応付ける。更に、対応付け判定部351は、対応付けの結果を示す情報を、表示部109に出力する。
本例では、対応付け判定部351は、特徴情報(100、10)と特徴情報(95、15)とに、ID22をそれぞれ対応付ける。
ステップ25:異常判定を行う。
ステップ23において、識別子を1つに限定することができない場合(ステップ23;NO)、対応付け判定部351は、ステップ5で1つ以上の特徴情報に共通する識別子が0個になるかどうかを判断する。
そして、共通する識別子が0個にならない場合、近傍特徴情報追加部352および対応付け判定部351は、ステップ22,23の処理を繰り返す(ステップ25;NO)。
ステップ26:異常発生時の処理を行う。
無線端末を持たない人物が撮影範囲に入った場合や、無線端末を交換した場合には、共通する識別子が存在しない場合がある(ステップ25;YES)。この場合、異常出力部107は、異常であると判断し、判断結果を表示部109に出力する。これにより、無線端末の不所持や交換といった異常を検知することができる。
図16は、図6の時刻t1の撮影画像に、指定された特徴情報の識別子を重ねて表示した表示画像の一例を示す図である。表示部109は、対応付け部306が求めた結果を用いて、撮影画像内に撮影されている、指定された特徴情報の人物領域の周辺に、その人物が保持する無線端末の識別子が分かるような表示を行う。図16の例では、表示部109は、特徴情報(100、10)に対応する人物領域の周辺に「ID22」および矢印を表示する。
以上のように、本実施の形態によれば、特定の特徴情報に対応する識別子だけを求めることができる。これにより、実施の形態1で示した、一括で特徴情報と識別子とを対応付ける方法と比較して、計算量を低減させることができる。また、状況に応じて実施の形態1と実施の形態2の手法を使い分けることができる。
なお、本発明では、実施の形態1あるいは実施の形態2で挙げた、特徴情報と識別子の対応付けの手法を、適宜切り換えて用いてもよい。
(実施の形態3)
図17、図18は、本発明の実施の形態3に係る対象検出装置の構成を示すブロック図である。図19は、本発明の実施の形態3に係る対象検出装置を含むシステム構成を示す図である。なお、図17に示す対象検出装置400において、図4に示した対象検出装置100と共通する構成部分には、図4と同一符号を付して詳しい説明を省略する。また、図18に示す対象検出装置500において、図14に示した対象検出装置300と共通する構成部分には、図14と同一符号を付して詳しい説明を省略する。図19において、一
つの対象検出装置400が、複数の撮影部1001〜1003、複数の読み取り部1011〜1013および対象検出装置100を有する構成を示している。対象検出装置100は、複数の撮影部1001〜1003および複数の読み取り部1011〜1013からの特徴情報と識別子との対応付けを行う。
図17に示す対象検出装置400は、図4に示した対象検出装置100と比較して、対応付け部106の内部に類似度重み付け部156を追加した構成をとる。図18に示す対象検出装置500は、図14に示した対象検出装置300と比較して、対応付け部306の内部に類似度重み付け部156を追加した構成をとる。
類似度重み付け部156は、重み付け係数を算出し、類似度計算部153に出力する。
類似度計算部153は、算出した特徴情報のベクトル間距離に、類似度重み付け部156から出力された重み付け係数を乗算することにより、ベクトル間距離を補正する。
以下、類似度重み付け部156における重み付け係数の算出方法について、その一例を挙げて説明する。
異なる時間帯に撮影された画像は、光の当たり具合や服装、髪型の変化など撮影条件が異なる。したがって、同一人物の特徴情報であっても、異なる時間帯の撮影画像から抽出された特徴情報である場合には、ベクトル間距離が大きくなってしまうことがある。
そこで、類似度重み付け部156は、ベクトル間距離の計算の対象となる特徴情報が撮影された時間帯が離れているほど、ベクトル間距離が小さくなるように、重み付け係数を算出する。
これにより、異なる時間帯に撮影された画像から抽出された同一人物の特徴情報の類似度を、より正確に判定することができる。
また、異なるカメラで撮影された撮影画像は、光の当たり具合の変化など撮影条件が異なる。したがって、同一人物の特徴情報であっても、異なるカメラの撮影画像から抽出された特徴情報である場合には、ベクトル間距離が大きくなってしまう場合がある。
そこで、類似度重み付け部156は、撮影条件に基づいて、重み付け係数を算出する。撮影条件は、例えば、カメラIDや撮影時のホワイトバランス情報などがある。この場合、特徴情報抽出部103は、撮影部101からカメラIDやホワイトバランス情報を取得し、特徴情報と一緒に履歴管理部105に登録する。カメラIDやホワイトバランス情報を含めて履歴管理部105が管理するデータ形式の例を図20に示す。
これにより、異なるカメラで撮影された画像から抽出された同一人物の特徴情報の類似度を、より正確に判定することができる。
また、数日も経過した場合には人物の外見が大幅に変化し、特徴情報のベクトル間距離が大きくなってしまう場合がある。
そこで、類似度重み付け部156は、人物の外見が大幅に変化しない一定の時間帯の履歴情報のみを用いて、推測を行うことができるようにする。このために、類似度重み付け部156は、ベクトル間距離の計算の対象となる特徴情報が撮影された時間の差が、所定の閾値より離れている場合には、重み付け係数を最大に設定する。
これにより、同一人物の外見が大幅に変化したことに起因して類似度の精度が下がることを防ぐことができる。
なお、上記各実施の形態では、撮影部101と、当該撮影部101の撮影範囲を含む範囲において電波を受信する読み取り部104と、を複数組用いてもよい。この場合、履歴管理部105は、同じ範囲を撮影、受信する撮影部101と読み取り部104によるデータであることを付加情報として付加した上で、1つ以上の特徴情報と1つ以上の識別子を履歴情報として管理する。
また、上記各実施の形態では、移動物体が人物の場合について説明したが、本発明はこれに限られず、人物以外の移動物体にも適用することができる。
また、本発明は、デジタルカメラに適用することができる。この場合、上記各実施の形態で用いられる対象検出装置の機能をデジタルカメラに併せ持たせることによって、写真撮影した際に写っている人物のIDを特定することが可能となる。これにより、本発明は、撮影した写真を写っている人物のIDに対応するアドレスへ自動的に送るアプリケーションと組み合わせることにより、デジタルカメラの付加価値を高めることができる。
また、本発明は、スーパーやデパートなどにおけるマーケティング活動に利用する、といったマーケティング・アプリケーションにも適用することができる。マーケティング・アプリケーションの適用例は、例えば、ユーザのIDとその行動履歴とを対応付けて検出する対象検出装置を、店内に配置することである。
なお、上記各実施の形態で用いられる対象検出装置は、パソコン等の汎用コンピュータによって実施可能である。この場合、対応付け部の処理を含む各処理は、例えば、CPUがコンピュータのメモリに格納された対応するソフトウェアプログラムを読み出して実行処理することにより実現される。また、対応付け部の処理を含む各処理は、対応するLSIチップを搭載した専用機器によって実現してもよい。
2008年8月8日出願の特願2008−206111の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明は、撮影画像内に検出された人物等の移動物体と無線端末の識別子とを対応付ける対象検出装置に用いるに好適である。
100、300、400、500 対象検出装置
101、1001、1003 撮影部
102 人物切り出し部
103 特徴情報抽出部
104、1011、1013 読み取り部
105 履歴管理部
106、306 対応付け部
107 異常出力部
108 画像記憶部
109 表示部
151、351 対応付け判定部
152 クラスタリング部
153 類似度計算部
154 クラスタ対応付け部
155 クラスタ数決定部
156 類似度重み付け部
352 近傍特徴情報追加部

Claims (15)

  1. 撮影画像に映っている少なくとも1つの移動物体の特徴情報を抽出する特徴情報抽出部と、
    前記移動物体が保持する無線端末の識別子を読み取る読み取り部と、
    前記特徴情報と前記識別子とを関連付けて保存する履歴管理部と、
    前記履歴管理部に保存された前記特徴情報と前記識別子とを、前記特徴情報間の類似度と、前記特徴情報と前記識別子との間の前記関連付けとに基づいて対応付ける対応付け部と、
    を具備する対象検出装置。
  2. 前記対応付け部は、
    前記履歴管理部に保存された複数の前記特徴情報を、前記特徴情報間の類似度に基づいて部分集合に分類し、
    前記特徴情報と前記識別子との間の前記関連付けに基づいて、前記部分集合と前記識別子とを対応付ける、
    請求項1記載の対象検出装置。
  3. 前記対応付け部は、
    前記部分集合に対応付けられた識別子が1つである場合には、前記部分集合の要素である全ての特徴情報と前記識別子とを対応付ける、
    請求項2記載の対象検出装置。
  4. 前記対応付け部は、
    複数の識別子に対応付けられた部分集合が存在する場合、あるいは、1つも識別子に対応付けられない部分集合が存在する場合に、異常であると判定する、
    請求項2に記載の対象検出装置。
  5. 前記履歴管理部に保存されている異なる識別子の数を、前記部分集合の数の上限として設定する部分集合数決定部をさらに備える、
    請求項2に記載の対象検出装置。
  6. 前記対応付け部は、
    指定された特徴情報が属する前記部分集合に対応付けられた識別子が1つである場合には、前記指定された特徴情報と前記識別子とを対応付け、
    前記指定された特徴情報が属する前記部分集合に対応付けられた識別子が複数存在する場合には、前記履歴管理部に保存された他の特徴情報から前記指定された特徴情報との類似度が最も高い特徴情報を抽出し、
    前記指定された特徴情報と前記抽出された特徴情報との間で共通する識別子を求めることにより、前記指定された特徴情報に対応する識別子を特定する、
    請求項1記載の対象検出装置。
  7. 前記対応付け部が、前記抽出された特徴情報が含む1つ以上の識別子と共通する識別子が求められた際に、前記共通する識別子が存在しなかった場合に、異常であると判定する、
    請求項6記載の対象検出装置。
  8. 前記対応付け部は、
    特徴情報間の類似度を算出する際に、特徴情報に対応する移動物体を撮影した時刻の差が離れているほど類似度が小さくなるように、類似度に対して重み付けを行う、
    請求項1に記載の対象検出装置。
  9. 前記対応付け部は、
    特徴情報同士の類似度を算出する際に、特徴情報に対応する移動物体を撮影した撮影部の撮影状況や撮影環境を表す撮影パラメータの差に応じて類似度に重み付けを行う、
    請求項1に記載の対象検出装置。
  10. 前記対応付け部は、
    前記履歴管理部に保存された全ての前記特徴情報および前記識別子のうち、特定の時間帯の前記特徴情報および前記識別子のみを用いて対応付けを行う、
    請求項1に記載の対象検出装置。
  11. 前記撮影画像に映っている移動物体の数を検知する画像状況検知部をさらに備え、
    前記読み取り部は、前記画像状況検知部が前記撮影画像に映っている移動物体の増加又は減少を検知した場合に読み取りを行う、
    請求項1に記載の対象検出装置。
  12. 前記読み取り部が読み取る識別子の数を検知する識別子状況検知部をさらに備え、
    前記特徴情報抽出部は、前記識別子状況検知部が識別子の増加又は減少を検知した場合に特徴情報の抽出を行う、
    請求項1に記載の対象検出装置。
  13. 前記撮影部によって撮影画像内に撮影されている移動物体の特徴情報に対応する識別子を前記撮影画像内に重ねて表示する表示部をさらに備える、
    請求項1に記載の対象検出装置。
  14. 前記特徴情報は、画像中の移動物体の特徴を示すn個の成分値からなるn次元ベクトルで表現され、
    前記対応付け部は、前記特徴情報間の類似度を、n次元ベクトルとして表現された特徴情報のベクトル間距離として算出する、
    請求項1に記載の対象検出装置。
  15. 撮影画像に映っている少なくとも1つの移動物体の特徴情報を抽出する特徴情報抽出工程と、
    前記移動物体が保持する無線端末の識別子を読み取る読み取り工程と、
    前記特徴情報と前記識別子とを関連付けてメモリに保存する履歴管理工程と、
    前記メモリに保存された前記特徴情報と前記識別子とを、前記メモリに保存された特徴情報間の類似度と、前記特徴情報と前記識別子との間の前記関連付けとに基づいて対応付ける対応付け工程と、
    を具備する対象検出方法。
JP2009543302A 2008-08-08 2009-05-26 対象検出装置および対象検出方法 Expired - Fee Related JP5450089B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009543302A JP5450089B2 (ja) 2008-08-08 2009-05-26 対象検出装置および対象検出方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008206111 2008-08-08
JP2008206111 2008-08-08
JP2009543302A JP5450089B2 (ja) 2008-08-08 2009-05-26 対象検出装置および対象検出方法
PCT/JP2009/002315 WO2010016175A1 (ja) 2008-08-08 2009-05-26 対象検出装置および対象検出方法

Publications (2)

Publication Number Publication Date
JPWO2010016175A1 JPWO2010016175A1 (ja) 2012-01-12
JP5450089B2 true JP5450089B2 (ja) 2014-03-26

Family

ID=41663404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009543302A Expired - Fee Related JP5450089B2 (ja) 2008-08-08 2009-05-26 対象検出装置および対象検出方法

Country Status (4)

Country Link
US (1) US8472670B2 (ja)
JP (1) JP5450089B2 (ja)
CN (1) CN102119343B (ja)
WO (1) WO2010016175A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113355A (ja) * 2010-11-19 2012-06-14 Japan Research Institute Ltd 宣伝情報提供システム、宣伝情報提供方法および宣伝情報提供プログラム
US20150116202A1 (en) * 2012-03-07 2015-04-30 Sony Corporation Image processing device and method, and program
US9092675B2 (en) 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8660307B2 (en) 2012-03-29 2014-02-25 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US8761442B2 (en) * 2012-03-29 2014-06-24 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9275285B2 (en) 2012-03-29 2016-03-01 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9658897B2 (en) 2014-06-23 2017-05-23 International Business Machines Corporation Flexible deployment and migration of virtual machines
US9473353B2 (en) 2014-06-23 2016-10-18 International Business Machines Corporation Cluster reconfiguration management
JP6374757B2 (ja) * 2014-10-21 2018-08-15 アズビル株式会社 人検知システムおよび方法
CN107064917A (zh) * 2017-03-30 2017-08-18 上海斐讯数据通信技术有限公司 一种微波定位方法及系统
JP6921317B2 (ja) * 2018-05-18 2021-08-18 三菱電機株式会社 情報収集装置
JP7068595B1 (ja) * 2020-11-09 2022-05-17 ダイキン工業株式会社 管理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1515152A1 (de) * 2003-09-12 2005-03-16 Leica Geosystems AG Verfahren zur Richtungsbestimmung zu einem zu vermessenden Objekt
JP4258459B2 (ja) * 2004-09-29 2009-04-30 三菱電機株式会社 移動物体検出システム
JP4728662B2 (ja) * 2005-02-28 2011-07-20 Necエンジニアリング株式会社 入退場管理システム
JP2006268577A (ja) * 2005-03-24 2006-10-05 Fuji Xerox Co Ltd 認証装置、認証システムおよび画像形成装置
US7843471B2 (en) * 2006-03-09 2010-11-30 International Business Machines Corporation Persistent authenticating mechanism to map real world object presence into virtual world object awareness
US8064655B2 (en) * 2007-04-20 2011-11-22 Panasonic Corporation Face image detection device, face image detection method and imaging apparatus

Also Published As

Publication number Publication date
CN102119343B (zh) 2013-04-03
JPWO2010016175A1 (ja) 2012-01-12
WO2010016175A1 (ja) 2010-02-11
US8472670B2 (en) 2013-06-25
US20110216940A1 (en) 2011-09-08
CN102119343A (zh) 2011-07-06

Similar Documents

Publication Publication Date Title
JP5450089B2 (ja) 対象検出装置および対象検出方法
JP7317919B2 (ja) 外観検索のシステムおよび方法
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP5740210B2 (ja) 顔画像検索システム、及び顔画像検索方法
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019109709A (ja) 画像処理装置、画像処理方法およびプログラム
JP6568476B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10664523B2 (en) Information processing apparatus, information processing method, and storage medium
JPWO2009142098A1 (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
US20190147251A1 (en) Information processing apparatus, monitoring system, method, and non-transitory computer-readable storage medium
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP6289308B2 (ja) 情報処理装置およびプログラム
JP2022003526A (ja) 情報処理装置、検出システム、情報処理方法、及びプログラム
JP7020567B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2011090410A (ja) 画像処理装置、画像処理システムおよび画像処理装置の制御方法
JP7104523B2 (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
KR102300500B1 (ko) 제품 입체컷 이미지 처리 방법, 장치 및 시스템
EP3989105B1 (en) Embedded device based detection system
JP2022058833A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
US11659273B2 (en) Information processing apparatus, information processing method, and non-transitory storage medium
JP6658402B2 (ja) フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム
JP6112346B2 (ja) 情報収集システム、プログラムおよび情報収集方法
JP2017005582A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7371806B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131225

R150 Certificate of patent or registration of utility model

Ref document number: 5450089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees