JP7374855B2 - 人物識別装置、人物識別システム、人物識別方法、及びプログラム - Google Patents

人物識別装置、人物識別システム、人物識別方法、及びプログラム Download PDF

Info

Publication number
JP7374855B2
JP7374855B2 JP2020105556A JP2020105556A JP7374855B2 JP 7374855 B2 JP7374855 B2 JP 7374855B2 JP 2020105556 A JP2020105556 A JP 2020105556A JP 2020105556 A JP2020105556 A JP 2020105556A JP 7374855 B2 JP7374855 B2 JP 7374855B2
Authority
JP
Japan
Prior art keywords
information
target person
person
unit
imaged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020105556A
Other languages
English (en)
Other versions
JP2021197094A (ja
Inventor
隆司 峯邑
孝明 榎原
和浩 税所
宏昌 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020105556A priority Critical patent/JP7374855B2/ja
Publication of JP2021197094A publication Critical patent/JP2021197094A/ja
Application granted granted Critical
Publication of JP7374855B2 publication Critical patent/JP7374855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、人物識別装置、人物識別システム、人物識別方法、及びプログラムに関する。
従来から、画像撮像装置で撮像された画像データによる物体認識が提案されている。さらには、画像データにより人物識別する技術が提案されている。
当該人物識別においては、1つの画像データに映っている人物の特徴量に基づいて、人物を同定することが多い。
特許第6474687号公報 特許第6180682号公報
ところで、建物の中で個人の同定をするには、監視カメラを、例えば天井コーナに設置して、顔が写る形での撮像がされてきた。広いエリアを撮影するために天井埋め込み形の監視カメラを用いた場合に、真下を中心に撮像するために、頭頂部や肩、荷物の一部は撮影できるが、顔全体や足元まで写りにくい。
このような監視カメラで撮影された、所定の方向から撮影された画像データでは、対象人物の写っている特徴が限られるため、対象人物の同定精度が低いという問題がある。
実施形態の人物識別装置は、取得部と、記憶部と、処理部と、を備える。取得部は、対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得し、第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する。記憶部は、前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶する。処理部は、前記取得部によって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する。
図1は、第1の実施形態の人物識別システムの構成の一例を示す図である。 図2は、第1の実施形態に複数の第1の画像撮像装置の配置例を示した図である。 図3は、第1の実施形態の複数の第1の画像撮像装置による、ゲート通過時の撮像例を示した図である。 図4は、第1の実施形態の画像分析部で生成される形態情報を例示した図である。 図5は、第1の実施形態の人物識別システムにおける被測定者を同定するまでの概念を例示した図である。 図6は、第1の実施形態の人物識別システムにおける全体的な処理を示したフローチャートである。 図7は、第1の実施形態の人物識別システムで行われる登録フェーズの処理手順を示したフローチャートである。 図8は、第1の実施形態の人物識別システムで行われる撮像フェーズの処理手順を示したフローチャートである。 図9は、2個の第2の画像撮像装置に基づいて被測定者の位置座標の算出手法を例示した図である。 図10は、2個の第2の画像撮像装置と、被測定者とによる位置の例を示した図である。 図11は、第1の実施形態における、障害物が存在する場合における、2個の第2の画像撮像装置と、被測定者とが存在する場合の例を示した図である。 図12は、2台の第2の画像撮像装置と、被測定者が2人存在する場合の例を示した図である。 図13は、3台の第2の画像撮像装置と、被測定者が2人存在する場合の例を示した図である。 図14は、3台の第2の画像撮像装置と、被測定者が3人存在する場合の例を示した図である。 図15は、3台の第2の画像撮像装置と、3人の被測定者とが存在する場合のXY座標系における位置を例示した図である。 図16は、第1の実施形態の人物識別システムで行われる形態情報抽出フェーズの処理手順を示したフローチャートである。 図17は、第1の実施形態の人物識別システムで行われる形態情報抽出フェーズの処理手順を示したフローチャートである。 図18は、3台の第2の画像撮像装置と、2人の被測定者とが存在する場合のXY座標系における位置を例示した図である。 図19は、3台の第2の画像撮像装置と、2人の被測定者とが存在する場合のXY座標系における位置を例示した図である。 図20は、第1の実施形態の人物識別システムで行われる身長情報抽出フェーズの処理手順を示したフローチャートである。 図21は、第1の実施形態の特定部による身長情報の算出処理手順を示したフローチャートである。 図22は、第2の実施形態に係る人物識別システムの構成の一例を示す図である。
以下、実施形態に係る人物識別装置、人物識別システム、人物識別方法、及びプログラムを、図面を参照して説明する。
(第1の実施形態)
図1は、第1の実施形態に係る人物識別システムの構成の一例を示す図である。図1に示されるように、人物識別システムは、複数の第1の画像撮像装置100a1、100a2、…、100cn、100dと、複数の第2の画像撮像装置110a1、110a2、…、110cnと、サーバ150とで構成されている。
複数の第1の画像撮像装置100a1、100a2、…、100cn(後述する図2に示す例では、n=8とする)、100dは、撮像センサ101と、バッファ102と、制御部103と、通信インタフェース104と、を備え、複数の第1の画像撮像装置100a1、100a2、…、100cn、100dの各々で撮像した人物に関する情報を、サーバ150に登録する際に用いられる。
図2は、複数の第1の画像撮像装置100a1、100a2、…、100c8、100dの配置例を示した図である。図2に示される例は、天頂方向(Z方向)から見下ろした場合の第1の画像撮像装置100a1、100a2、…、100c8、100dの配置を示している。図2に示される例では、ゲート201a、201bとの間を通る第1の被測定者(第1の対象人物の一例)210を撮像するために設けられている。具体的には、ゲート201aに設けられた、第1の被測定者210の顔を撮像するための第1の画像撮像装置100dが設けられている。
ゲート201a、201bは、通路を狭くすることで、測定対象となる第1の被測定者210を制限するために設けられている。第1の被測定者210が、ゲート201a、201bの中心を通過する際に、第1の画像撮像装置100dと、第1の画像撮像装置100a1~100a8、100b1~100b8、100c1~100c8のうち複数の画像撮像装置と、が同時に第1の被測定者210を撮影する。
さらには、第1の被測定者210の位置を中心とした同心円状に、第1の画像撮像装置100a1~100a8、100b1~100b8、100c1~100c8が設けられている。具体的には、第1の円に沿うように、第1の画像撮像装置100a1~100a8が等間隔に設けられている。さらに、第1の円より外側に存在する第2の円に沿うように、第1の画像撮像装置100b1~100b8が等間隔に設けられている。さらに、第2の円より外側に存在する第3の円に沿うように、第1の画像撮像装置100c1~100c8が等間隔に設けられている。
第1の画像撮像装置100a1~100a8、100b1~100b8、100c1~100c8(以下、第1の画像撮像装置100a1~100a8、100b1~100b8、100c1~100c8のうち任意の第1の画像撮像装置を示す場合、第1の画像撮像装置100と称する)は、第1の被測定者210より高い位置として、例えば天井に設置されている。
図3は、本実施形態の複数の第1の画像撮像装置100a1、100c1、100a5、100c5による、ゲート201a、201b通過時の撮像例を示した図である。図3に示されるように、ゲート201a、201bとの間の第1の被測定者210を撮影する。本実施形態にかかるゲート201a、201bは、施設や建物の出入り口に設置されているセキュリティゲートを想定しているが、セキュリティゲートに制限するものではなく、一度に一人しか通過できない狭隘通路であればよい。座標軸は、第1の被測定者210が前に進む方向をプラスX軸方向、それに直交する方向をY軸方向、鉛直方向で、第1の被測定者210の頭頂部方向をプラスZ軸方向とする。
そして、サーバ150は、複数の第1の画像撮像装置100a1、100c1、100a5、100c5の各々が撮影した複数の画像データに基づいた情報(本実施形態では形態情報とする)を対応付けて、後述する被測定者データベース168に登録する。このように第1の被測定者210の頭頂部の前(おでこ)側の画像データと、後ろ側(つむじ)側の画像データと、を対応付けて登録できる。本実施形態においては、ゲート201a、201b通過時に第1の被測定者210を撮影することで、撮影方向が異なるため、共通する特徴を有さない複数の画像データの各々に基づいた被測定者に関する情報を対応付けて登録することができる。
図3に示されるセキュリティゲートには、被測定者を認証する手段として、第1の画像撮像装置100dの撮影を用いた顔認証を行う。このために、第1の画像撮像装置100dは、セキュリティゲート近傍に設置されている。本実施形態では、第1の画像撮像装置100dが、第1の被測定者210の認証を行うだけでなく、サーバ150が、第1の画像撮像装置100dが設置された高さを示す高さ情報と、撮像された画像データに映っている第1の被測定者210と、に基づいて、第1の被測定者210の身長(高さ)を示す身長情報を算出してもよい。また、サーバ150は、日によって髪のセットした状態が変わるため、第1の被測定者210に関する情報として、顔認証を行う毎に、測定された身長情報や、髪形などの形状、テクスチャ情報を更新することが望ましい。
図1に戻り、第1の画像撮像装置100の撮像センサ101は、第1の被測定者210を含む周囲の環境を撮像する。
バッファ102は、撮像センサ101で撮像された画像データを一時的に蓄積しておくための記憶部として機能する。
制御部103は、画像分析部105を備え、第1の画像撮像装置100の全体的な制御を行う。
第1の画像撮像装置100a1~100a8、100b1~100b8、100c1~100c8の画像分析部105は、バッファ102に格納された画像データを分析する。本実施形態の画像分析部105は、バッファ102に格納された画像データに基づいて、撮像された第1の被測定者210の頭頂部を含む第1の形態情報(第1の対象人物に関する第1の情報の一例)を生成する。
図4は、本実施形態の画像分析部105で生成される第1の形態情報を例示した図である。
図4に示される例では、第1の画像撮像装置100の各々が撮像した画像データ401~404とする。そして、第1の画像撮像装置100の各々の画像分析部105は、画像データ401~404の各々から、第1の形態情報411~414を抽出する。
図4に示される例では、第1の形態情報411~414は、第1の被測定者210の特徴を表したHOG(Histograms of Oriented Gradients)又はCoHOG(Co-Occurrence Histograms of. Oriented Gradients:輝度こう配方向共起ヒストグラム)データとする。図4に例示するように、輪郭検出により検出された形状にかかわる情報として扱ってもよいし、被測定者の服の色や柄などのテクスチャ情報を含む、輝度勾配情報としてもよい。以降、形態情報は、これらいずれかまたは両方を含む情報を意味する。なお、HOG、及びCoHOGは、当業者が認識可能なデータであるため、説明を省略する。
第1の形態情報を生成する際に、画像処理において特徴量を抽出する必要がある。特徴量を算出する際には、画素毎に、周辺画像との違いに基づいて、コーナ、エッジ、平坦のいずれの領域であるのか分類される。そして、これらの領域に基づいた特徴量の抽出手法としては、様々な抽出手法があるが、一例としてはコーナの検出手法が提案されている。コーナの検出方法にとしては、一般的には、Chris HarrisとMike Stephensによる1988年の論文「A Combined Corner and Edge Detector」による、画像の特徴量の抽出に関する論文がある。
本実施形態においては、例えば、このような手法を用いることで、画像データ中のコーナを検出できる。コーナは画像の中で最も検出しやすく、特徴量を得る有効な手段となる。このようにして、画像データの境界領域を検出することで、被測定者の頭頂部および足元等の位置座標を求めることができる。
図4に示される例は、複数の画像撮像装置が撮像した画像データのうち、第1の被測定者210の頭頂部を4方向から撮像した撮像画像を表したものである。図4に示される例では、「つむじ」を頭頂部として、当該頭頂部を含んだ第1の被測定者210の特徴を抽出している。
また、画像データに、「つむじ」および足元が含まれている場合には、当該1枚の画像データから、第1の被測定者210の鉛直方向における長さ(身長)を算出することが可能である。しかしながら、「つむじ」のみ写っている場合でも、第1の画像撮像装置100の位置に基づいて、「つむじ」の鉛直方向の位置を算出できる。本実施形態においては、第1の被測定者210の身長情報を算出する手法としていずれの手法を用いてもよい。なお、画像分析部105は、画像データにおいて「つむじ」等の検出率を上げるために、背景を引き算し、被測定者のみを抽出する処理を加えてもよい。
さらには、顔撮影用の第1の画像撮像装置100dの画像分析部105で生成される第1の形態情報は、第1の被測定者210の顔を表した情報を表したHOG又はCoHOGデータとし、第1の被測定者に関する第1の情報の一例とする。
通信インタフェース104は、サーバ150との通信が可能なインタフェースとする。例えば、通信インタフェース104は、画像分析部105によって生成された第1の形態情報を、サーバ150に送信する。本実施形態では、画像データの代わりに、形態情報を送信することで、第1の被測定者(第1の対象人物の一例)210の個人情報の漏洩を抑止できる。
第2の画像撮像装置110a1、110a2、…、110cnは、撮像センサ101と、バッファ102と、制御部103と、通信インタフェース104と、を備え、ゲート201a、201bを通過した後の第1の被測定者210の同定を行うために用いられる。第2の画像撮像装置110a1、110a2、…、110cnは、第1の被測定者210より高い位置として、例えば天井に設置されている。なお、撮像センサ101、バッファ102、制御部103、及び通信インタフェース104は、第1の画像撮像装置100と同様の構成として説明を省略する。
第2の画像撮像装置110a1、110a2、…、110cnの配置は、第1の画像撮像装置100と異なっていてもよい。例えば、第2の画像撮像装置110a1、110a2、…、110cnは、天井などの水平面において、少なくとも三角以上の多角形を構成するように配置されることが考えられる。
第2の画像撮像装置110a1、110a2、…、110cn(以下、第2の画像撮像装置110a1、110a2、…、110cnのうち、任意の第2の画像撮像装置を示す場合、第2の画像撮像装置110と称する)は、撮像画像に基づいて生成された第2の形態情報を、サーバ150に送信する。
第2の形態情報は、第2の画像撮像装置110によって撮像された、第2の被測定者(第2の対象者の一例)の頭頂部又は顔を含んだ部位を表した形態情報とする。第2の形態情報は、第1の被測定者210の特徴を表したHOG又はCoHOGデータとし、第2の被測定者に関する第2の情報の一例とする。
本実施形態では、説明を容易にするために、登録時の被測定者を第1の被測定者とし、認証時の被測定者を第2の被測定者とする。なお、第1の被測定者と、第2の被測定者と、は同一人物であってもよいし、異なる人物であってもよい。
サーバ150は、通信インタフェース151と、制御部152と、記憶部153と、を備える。
通信インタフェース151は、第1の画像撮像装置100、100d及び第2の画像撮像装置110と通信可能とするためのインタフェースとする。
記憶部153は、画像撮像装置情報データベース167と、被測定者データベース168と、を備える。記憶部153は、読み書き可能な記憶媒体であって、例えば、不揮発性のメモリ又はHDDである。
画像撮像装置情報データベース167は、第1の画像撮像装置100、100d及び第2の画像撮像装置110の各々が設けられた三次元空間上の位置座標を示す位置情報を保持するデータベースとする。
被測定者データベース168は、複数の第1の画像撮像装置100、100dの各々から取得された第1の被測定者に関する、撮影方向の異なる複数の第1の形態情報を対応付けて記憶する。
本実施形態の被測定者データベース168は、撮影方向の異なる複数の第1の形態情報に、第1の被測定者の鉛直方向の長さを示した第1の身長情報も対応付けて記憶されている。
また、本実施形態の被測定者データベース168に記憶された複数の第1の形態情報のうち、第1の被測定者の頭頂部を含んだ部位を表した第1の形態情報は、顔撮影用の第1の画像撮像装置100dによって撮像された、第1の被測定者の顔を表した第1の形態情報と比べて、更新頻度が高くなるよう設定する。例えば、第1の被測定者の頭頂部を含んだ部位を表した第1の形態情報は1日ごとに更新し、第1の被測定者の顔を表した第1の形態情報は一月や一年ごとに更新する等が考えられる。例えば、第1の被測定者の頭頂部を含んだ部位を表した第1の形態情報を1日ごとに更新することで、髪形等が変わっても、被測定人物の同定が可能となる。
制御部152は、取得部161と、装置制御部162と、特定部163と、妥当性判定部164と、閾値処理部165と、出力部166と、を備える。例えば、制御部152に含まれる、図示しないプロセッサが、記憶部153に記憶されている、図示しないプログラムを実行することで、取得部161と、装置制御部162と、特定部163と、妥当性判定部164と、閾値処理部165と、出力部166と、を実現する。
装置制御部162は、第1の画像撮像装置100、100d及び第2の画像撮像装置110を制御する。なお、サーバ150自身を制御する制御部については図示していない。
取得部161は、第1の被測定者を異なる方向から撮像するために異なる位置に設けられた複数の第1の画像撮像装置100の各々によって撮像された第1の被測定者に関する複数の第1の形態情報を取得する。
また、取得部161は、第2の被測定者を異なる方向から撮像するために異なる位置に設けられた複数の第2の画像撮像装置110の各々によって撮像された第2の被測定者に関する複数の第2の形態情報を取得する。
本実施形態の取得部161は、略同一時間に一人しか通過できないゲート201a、201b(所定空間の一例)に第1の被測定者が存在する場合に、複数の第1の画像撮像装置100の各々によって撮像された第1の被測定者210に関する、複数の第1の形態情報を、通信インタフェース151を介して取得する。
本実施形態の人物識別システムは、第1の画像撮像装置100、100d及び第2の画像撮像装置110以外の検出部が設けられていてもよい。検出部としては、例えば、レーザ光、超音波、赤外線を出力するセンサが考えられる。そして、取得部161は、さらに、当該検出部が出力するレーザ光、超音波、赤外線に基づいた、第1の被測定者210の鉛直方向の座標に関する身長情報を取得する。
さらに、取得部161は、他の検出部によって、第1の被測定者210の表面温度情報、身長、体重、顔認証による表情、又は脈拍を含む身体情報を取得してもよい。
特定部163は、複数の第1の形態情報に基づいて、第1の被測定者210の鉛直方向の座標に関する身長情報を特定する。
特定部163は、顔認証用の第1の画像撮像装置100dが設けられていない場合に、第1の被測定者210がゲート201a、201bを通過する際に、天井に設置された、第1の画像撮像装置100a1~100a8、100b1~100b8、100c1~100c8を用いて、第1の被測定者210の身長情報を算出してもよい。
例えば、特定部163は、第1の形態情報に、第1の被測定者210のつむじが含まれている場合には、つむじを測定点として、第1の身長情報を算出し、第1の被測定者210のつむじが含まれていない場合には、第1の被測定者の全体を表すシルエットから、第1の身長情報を算出する。
図3に示される例では、第1の画像撮像装置100c5と第1の画像撮像装置100c1とを結ぶ線分から、垂直方向の距離dを隔てて被測定点P210があるとする。被測定点P210は、第1の被測定者210の頭頂部の最も高い点とする。被測定点P210から、第1の画像撮像装置100c5と第1の画像撮像装置100c1とを結ぶ線分に直交する点Wとする。この場合に、第1の画像撮像装置100c1と点Wとの間の距離Lb1とし、第1の画像撮像装置100c5と点Wとの間の距離Lb2とする。距離Lb1及び距離Lb2は、画像撮像装置情報データベース167に記憶されている位置情報から導出できる。
そして、第1の画像撮像装置100c1を基準として、線分と被測定点P210とのなす各θ(Lb1、P210)とし、第1の画像撮像装置100c5を基準として、線分と被測定点P210とのなす各θ(Lb5、P210)とする。そして、特定部163は、三角測量の以下に示す式(1)から、距離dを導出する。
d=(Lb1+Lb2)sinθ(Lb1、P210)*sinθ(Lb2、P210)/sin(θ(Lb1、P210)+θ(Lb2、P210))…(1)
当該距離dの導出は、第1の画像撮像装置100c1と第1の画像撮像装置100c5を用いるだけではなく、第1の画像撮像装置100a1と第1の画像撮像装置100a5を用いる等とする。そして、特定部163は、複数の測定結果から距離dを算出することで、測定精度を向上させる。そして、特定部163は、第1の画像撮像装置100の高さh_100から距離dを減算することで、被測定点P210の高さ、換言すれば、第1の被測定者210の身長情報h_P210を算出する。当該算出手法は、第1の被測定者210の頭頂部が写っているだけで身長情報を算出できるため、第1の被測定者210の下部が遮蔽物で遮られていても算出できる。
なお、本実施形態は、第1の画像撮像装置100a1及び100c1と、第1の画像撮像装置100a5及び100c5と、はそれぞれ第1の被測定者210の位置を中心として等間隔に配置されているが、等間隔に配置する例に制限するものではない。また、説明を簡単にするために、1軸上(X軸)で、被測定者(例として、第1の被測定者210)の進行方向の真上に並んだ画像撮像装置として説明をした。進行方向から斜めの方向で撮影、保存された画像があれば、進行方向と異なる方向上に配置された画像撮像装置を用いることもできるし、後述のように、画像撮像装置を頂点とする多角形の内側に被測定者がいるときに同定するようにしてもよい。
さらに、本実施形態においては、顔認証用の第1の画像撮像装置100dで算出された身長情報と、上述した手法で算出された身長情報と、を組み合わせてもよい。例えば、上述した手法で算出された身長情報が、顔認証用の第1の画像撮像装置100dで算出された身長情報と比べて妥当であるか否かを判定してもよい。
なお、身長情報は、第1の形態情報と同時刻に収集する必要はなく、事前あるいは別の既知の情報として、被測定者データベースに保存しておいてもよい。
なお、特定部163により特定される被測定者の身長情報は、赤外領域のレーザ光、赤外線検知器、超音波などの身長測定手段、個人IDに登録された身長情報、または、画像センサによる測定のうちどの手法を用いて取得してもよい。他には、建物、施設などへの入退出時に通過するゲートの通過時や、顔認証の際に身長情報を取得してもよい。
そして、取得部161は、第1の画像撮像装置100による第1の被測定者210を異なる方向から撮像した複数の第1の形態情報と、特定部163により特定された第1の身長情報と、を対応付けて、被測定者データベース168に登録する。
図5は、本実施形態の人物識別システムにおける被測定者を同定するまでの概念を例示した図である。
図5の登録ステップ501に示されるように、第1の画像撮像装置100、100dが、ゲート通過時に、第1の被測定者210を撮影する(511)。
そして、サーバ150の制御部152は、第1の被測定者の所定方向毎の複数の第1の形態情報及び第1の身長情報を取得する(512)。なお、取得手法は、上述した通りとして説明を省略する。
そして、制御部152は、複数の第1の形態情報及び第1の身長情報を、被測定者データベース168に登録する。
そして、撮影ステップ502で示されるように、第1の被測定者210がゲートを通過した後、第2の画像撮像装置110を用いた被測定者の検知が行われる。
図1に戻り、取得部161は、複数の第2の画像撮像装置110の各々によって撮像された第2の被測定者に関する第2の形態情報を取得する。なお、第2の形態情報は、第1の形態情報と同様のフォーマットとして説明を省略する。
そして、特定部163は、複数の第2の画像撮像装置110の各々によって撮像された第2の被測定者の第2の身長情報を取得する。第2の身長情報の取得手法は、上述した手法と同様とする。
さらに、特定部163は、第2の被測定者のXY座標平面上の位置座標を算出する。位置座標の算出手法はどのような手法を用いてもよい。
特定部163が第2の身長情報を特定する際に、複数の第2の画像撮像装置110のうちいずれの組み合わせを用いるのかは、どのような組み合わせを用いてもよいが、例えば、第2の被測定者と第2の画像撮像装置110の距離が、第2の画像撮像装置110間の設置間隔より、近いものを選択するなどが考えられる。
そして、妥当性判定部164は、特定部163により算出された第2の被測定者の位置座標等に基づいて、第2の被測定者が同定可能な位置に存在するか否かを判定する。例えば、妥当性判定部164は、複数の第2の画像撮像装置110で構成された多角形内に第2の被測定者が存在する場合に、当該第2の被測定者の同定を行う等が考えられる。
閾値処理部165は、妥当性判定部164により同定可能な位置に存在すると判定された場合に、被測定者データベース168に記憶された第1の形態情報及び第1の身長情報と、第2の画像撮像装置110から取得した第2の形態情報及び第2の身長情報と、予め定められた閾値と、に基づいて、第2の被測定者に対応する候補者の抽出処理を行い、第2の被測定者の同定を行う。なお、本実施形態は、形態情報と身長情報を用いる例について説明するが、形態情報のみ用いて第2の被測定者を同定してもよいし、他の情報(例えば、被測定者の表面温度情報、身長、体重、顔認証による表情、又は脈拍を含む身体情報)と組み合わせて第2の被測定者を同定してもよい。
図5の形態情報による候補の抽出ステップ503においては、方向毎に、第2の被測定者の候補を抽出する。例えば、閾値処理部165が、第2の画像撮像装置110に基づいた複数の第2の形態情報のうち一方(おでこ側の形態情報)と、第1の方向(例えばおでこ側)の第1の形態情報と、の間の類似度が所定の閾値以上となる、第2の被測定者の候補を抽出する(531)。図5に示される例では、第2の被測定者の候補として、ID=1,2,4,6,7の被測定者の候補が抽出されたものとする。類似度の判定手法はどのような手法を用いてもよいが、例えば、特徴量のマハラノビス距離が所定の距離より近いものを、候補者として抽出する等が考えられる。
さらに、閾値処理部165が、第2の画像撮像装置110に基づいた複数の第2の形態情報のうち他方(後頭部側の形態情報)と、第2の方向(例えば後頭部側)の第1の形態情報と、の間の類似度が所定の閾値以上となる、第2の被測定者の候補を抽出する(532)。図5に示される例では、第2の被測定者の候補として、ID=1,5,7,9の被測定者の候補が抽出されたものとする。
次に、閾値処理部165は、特定部163が特定したXY座標上の位置情報により、複数の第2の形態情報で示される被測定者が同一であることを認識した場合に、候補者の絞り込みを行う。
そこで、候補間の論理和ステップ504においては、閾値処理部165は、異なる方向の各々の特徴情報から抽出された候補者群の論理和をとることで、さらなる候補者の絞り込みを行う。例えば、閾値処理部165は、S531で抽出された第1の方向の第1の形態情報による候補者(ID=1,2,4,6,7)と、S532で抽出された第2の方向の第1の形態情報による候補者(ID=1,5,7,9)から、被測定者の候補者(ID=1,7)を抽出する。
そして、閾値処理部165は、第2の形態情報と、複数の第1の形態情報と、による類似度に基づいた判定を行った後に、第2の形態情報から算出された第2の身長情報と、第1の形態情報から算出された第1の身長情報と、に基づいて被測定者を同定する。
身長情報による抽出ステップ505においては、被測定者データベース168に記憶されている、被測定者の候補者(ID=1,7)の身長情報と、第2の形態情報から算出された身長情報と、の類似度に基づいて、被測定者(ID=7)を抽出する。換言すれば、被測定者の候補者(ID=1,7)の身長情報と、第2の形態情報から算出された第2の身長情報と、が閾値の範囲内、すなわち誤差範囲内で一致する場合に、一致した対象者の候補が、被測定者であると同定される。
このように、本実施形態においては、複数の方向の形態情報と身長情報とを組み合わせることで、被測定者を同定する。当該手法を用いることで、第2の画像撮像装置110が撮像した画像データに、被測定者の顔が写っていない場合であっても、複数の情報を組み合わせることで、精度の高い被測定者の同定が可能となる。
なお、本実施形態においては、形態情報に顔が含まれていない場合に制限するものではなく、形態情報に顔が含まれていてもよい。このような場合、閾値処理部165は、第2の形態情報に第2の被測定者の頭頂部が含まれている場合に同定に用いる閾値と比べて、第2の形態情報に第2の被測定者の顔が含まれている場合に同定に用いる閾値が高い値が設定されている。また、候補の抽出ステップ503で第2の形態情報による候補の抽出をする際に、第1方向および第2方向の2つから候補間の論理和を求める方法を説明したが、第3の方向、第4の方向と、候補群が増えていってもよい。候補群を増やした場合でも、上記と同様の論理和をとることで、被測定者の候補を絞り込むことができる。
出力部166は、閾値処理部165による第2の被測定者の同定結果を出力する。出力先について制限するものではなく、被測定者データベース168の他に、他の情報処理装置や、表示装置等であってもよい。
次に、人物識別システムにおける全体的な処理について説明する。図6は、本実施形態の人物識別システムにおける全体的な処理を示したフローチャートとする。
まず、登録フェーズにおいては、第1の被測定者のゲート通過時に、取得部161が、複数の第1の画像撮像装置100の各々によって撮像された第1の被測定者の複数の第1の形態情報を取得した際に、出力部166は、特定部163によって算出された第1の身長情報と、当該複数の第1の形態情報とを対応付けて被測定者データベースに登録する(S601)。
図7は、図6のS601で示した登録フェーズの処理手順を示したフローチャートである。まず、制御部152は、合計時間Tに初期値T0(例えば、“0”)を設定する(S701)。
そして、第1の画像撮像装置100の各々は、ゲート通過時の第1の被測定者を検知したか否かを判定する(S702)。検知しなかった場合(S702:No)、再びS701から処理を行う。
顔認証用の第1の画像撮像装置100dが、ゲート通過時の第1の被測定者を検知した場合(S702:Yes)、当該第1の画像撮像装置100dが顔認証を行い、認証結果をサーバ150に送信する。そして、当該制御部152は、認証結果で示された第1の被測定者が、被測定者データベース168に登録済みか否かを判定する(S703)。登録済みと判定した場合(S703:Yes)、処理を終了する。
一方、登録済みでないと判定した場合(S703:No)、制御部152は、複数の第1の画像撮像装置100の各々に対して、撮像を指示する(S704)。
そして、複数の第1の画像撮像装置100が、第1の被測定者の画像取得が完了したか否かを判定する(S705)。第1の被測定者の画像取得が完了しなかった場合(S705:No)、合計時間TにΔTを追加して(S706)、再びS702から処理を行う。なお、合計時間Tが、Tmaxを超えた場合には、図6の処理に失敗したものとして終了する。
一方、複数の第1の画像撮像装置100が、第1の被測定者の画像取得が完了した場合(S705:Yes)、複数の第1の画像撮像装置100の各々画像分析部105が、バッファ102に格納された画像データを分析し、第1の形態情報を算出する(S707)。そして、複数の第1の画像撮像装置100の各々が、算出した第1の形態情報を、サーバ150に送信する(S708)。
そして、サーバ150の取得部161が、複数の第1の画像撮像装置100の各々から、第1の形態情報を取得した場合に、特定部163が、当該複数の第1の形態情報から、第1の被測定者の第1の身長情報を算出し、出力部166が、第1の身長情報と複数の第1の形態情報とを対応付けて、被測定者データベース168に登録する(S709)。
図6に戻り、撮像フェーズにおいては、人物識別システムが、第2の画像撮像装置110による、ゲート通過した後における第2の被測定者の撮像を継続的に実施する(S602)。つまり、第1の被測定者の登録が完了したものとして、第2の被測定者のトレースに関する処理に移ったことになる。
図8は、図6のS602で示した撮像フェーズの処理手順を示したフローチャートである。
まず、サーバ150の取得部161は、第2の画像撮像装置110から送信される第2の形態情報を取得し、妥当性判定部164が、当該第2の形態情報に基づいて、第2の被測定者が検知されたか否かを判定する(S801)。第2の被測定者が検知されなかったと判定した場合(S801:No)、時間ΔTだけ待機(S802)してからS801から処理を開始する。
一方、第2の被測定者を検知したと判定した場合(S801:Yes)、妥当性判定部164が、第2の形態情報に写っている第2の被測定者の位置に基づいて、複数の第2の画像撮像装置110による位置測定の撮像条件を満たしているか否かを判定する(S803)。
図9は、2個の第2の画像撮像装置110に基づいて第2の被測定者Qの位置座標の算出手法を例示した図である。
図9に示される例では、第2の画像撮像装置110a1、及び第2の画像撮像装置110c1で形成される相対座標系をUV座標系とし、グローバル座標系をXY座標系とする。
第2の画像撮像装置110a1の位置座標A(Xa,Ya)とし、第2の画像撮像装置110c1の位置座標B(Xb,Yb)とする。線分ABをU軸、U軸と直交する軸をV軸とする。
そして、妥当性判定部164は、第2の画像撮像装置110a1の第2の形態情報に基づいて、UV座標系における、第2の被測定者Qの方向(U軸からの角度α)を認識できる。妥当性判定部164は、第2の画像撮像装置110c1の第2の形態情報に基づいて、UV座標系における、第2の被測定者Qの方向を認識できる。これにより、妥当性判定部164は、第2の被測定者QのUV座標系における位置座標Quvを認識できる。
そして、妥当性判定部164は、UV座標系とXY座標系との間の原点のズレ(Xa,Ya)及び回転角θに基づくことで、位置座標Quvから、第2の被測定者QのXY座標系における位置座標(Xq、Yq)を算出できる。
本実施形態では、相対的なUV座標系と、グローバルなXY座標系とは、座標変換が一意に変換できるため、第2の被測定者Qの連続的なトレースが可能となる。
本実施形態では、第2の被測定者の第2の身長情報を、複数の第2の画像撮像装置110を用いて測定する。しかしながら、1個の画像撮像装置で頭頂部を示す点Pと足元を示す点Qの2点が撮像した画像に写っていれば、グローバル座標における身長が求められるとも考えられる。そこで、身長情報を算出するために複数の第2の画像撮像装置110を用いる理由について説明する。
図10は、2個の第2の画像撮像装置110と、第2の被測定者1001とによる位置の例を示した図である。図10に示されるように、第2の画像撮像装置110a1によって撮像された画像データにおいては、撮像方向1011上に第2の被測定者1001の頭頂部が存在する場合、立位姿勢の第2の被測定者1001の頭頂部P1001Tであるのか、背の低い子供が転倒している場合の頭頂部P1001Fなのか区別をするのが難しい。
さらには、第2の画像撮像装置110が天井に設置されている場合に、真下周辺は、足元が映らないことが多い。真下周辺から離れても什器や手前にいる別の被測定者の影にはいり、上半身は写っても、足元まで映らないことが多く発生する。このため、1台の第2の画像撮像装置110では、第2の被測定者1001の身長を推定することができない場合が多く発生する。
そこで、本実施形態では、第2の画像撮像装置110a1の撮像方向1011と、第2の画像撮像装置110c1の撮像方向1021と、を組み合わせることで、立位姿勢の第2の被測定者1001の頭頂部P1001Tの位置を特定することとした。このように、撮像方向1011と撮像方向1021との交点である、頭頂部P1001Tの位置を特定できる。図10に示されるように、第2の画像撮像装置110a1と、第2の画像撮像装置110c1と、を組み合わせることで、転倒姿勢の第2の被測定者は、正しい測定座標でないことを認識可能となる。
図11は、遮蔽物1102が存在する場合における、2個の第2の画像撮像装置110と、第2の被測定者1101とが存在する場合の例を示した図である。
図11で示される例では、2個の第2の画像撮像装置110間の距離Lと、2個の第2の画像撮像装置110の高さHとする。高さHは、第2の被測定者1101の足元の床から、第2の画像撮像装置110が設置された高さである。本実施形態では、事前に当該高さHを、画像撮像装置情報データベース167に格納しておくとよい。図10で示したように、2個の第2の画像撮像装置110を用いることで、撮像方向1111と撮像方向1121との交点から、頭頂部P1101の位置を特定できる。これにより、角度θ1と角度θ2とを特定できる。そして、角度θ1と角度θ2と、距離Lと、に基づいて、特定部163は、天井から頭頂部P1101までの距離dを算出できる。
そして、特定部163は、以下に示す式(2)から、頭頂部P1101までの第2の身長情報hを算出できる。このように、本実施形態においては、複数の第2の画像撮像装置110を用いることで、遮蔽物1102等で足下が撮影されていなくとも、第2の被測定者1100の第2の身長情報を特定できる。
第2の身長情報h=第2の画像撮像装置110の高さH-頭頂部P1101の距離d……(2)
図12は、2台の第2の画像撮像装置110と、被測定者が2人存在する場合の例を示した図である。図12で示される例では、遮蔽物(例えば什器)1102で足下が見えない場合であるが、遮蔽物1102に制限するものではなく、他の人の影や、天井設置の第2の画像撮像装置110の真下周辺にいて、足元が見えない場合等であってもよい。
図12に示されるように、2台の第2の画像撮像装置110の撮像方向の交点を、頭頂部と推定する場合、第2の画像撮像装置110a1で頭頂部が検出された撮像方向1211及び撮像方向1212と、第2の画像撮像装置110c1で頭頂部が検出された撮像方向1221及び撮像方向1222と、の組み合わせ毎に、頭頂部の位置を特定できる。つまり、特定部163は、正しい頭頂部P1202T、P1201Tのみならず、P1202F、P1201Fも存在する可能性があると認識する。2台の第2の画像撮像装置110では、いずれのペアが実際の頭頂部に相当するのか認識できない。換言すれば、被測定者が二人存在する場合には、3台以上の第2の画像撮像装置110が必要となる。後述するが、望ましくは、3台目の第2の画像撮像装置110は、2台の第2の画像撮像装置110と第2の被測定者が形成する平面の法線方向に設置されていることが望ましい。
図13は、3台の第2の画像撮像装置110と、第2の被測定者が2人存在する場合の例を示した図である。図13で示される例では、遮蔽物(例えば什器)1102で足下が見えない場合であるが、遮蔽物1102に制限するものではなく、他の人の影や、天井設置の第2の画像撮像装置110の真下周辺にいて、足元が見えない場合等であってもよい。
図13に示されるように、第2の画像撮像装置110a1で頭頂部が検出された撮像方向1311及び撮像方向1312と、第2の画像撮像装置110b1で頭頂部が検出された撮像方向1321及び撮像方向1322と、第2の画像撮像装置110c1で頭頂部が検出された撮像方向1331及び撮像方向1332と、の組み合せから、第2の被測定者1301の頭頂部P1301と、第2の被測定者1302の頭頂部P1302と、を特定できる。これにより、特定部163は、2人の第2の被測定者1301、1302の身長情報を特定できる。
図14は、3台の第2の画像撮像装置110と、第2の被測定者が3人存在する場合の例を示した図である。図14で示される例では、遮蔽物(例えば什器)1102で足下が見えない場合であるが、遮蔽物1102に制限するものではなく、他の人の影や、天井設置の第2の画像撮像装置110の真下周辺にいて、足元が見えない場合等であってもよい。
図14に示されるように、第2の画像撮像装置110a1で頭頂部が検出された撮像方向1411、撮像方向1412及び撮像方向1413と、第2の画像撮像装置110b1で頭頂部が検出された撮像方向1431、撮像方向1432及び撮像方向1433と、第2の画像撮像装置110c1で頭頂部が検出された撮像方向1421、撮像方向1422及び撮像方向1423と、の組み合せから、第2の被測定者1401、1402、1403の頭頂部を特定する。この場合、実際の頭頂部P1401T、P1402T、P1403Tのみならず、誤った頭頂部P1401F、P1402F等も特定される可能性がある。これは、同一平面内にある、3台の第2の画像撮像装置110のうち1台を、平面の法線方向にずらして配置すれば回避可能であるが、丸い頭頂部を測定する場合には、測定方向により1点に定まらず、点でなく小さな領域が頭頂部として認識される。そのため、潜在的に、誤った頭頂部が特定される可能性がある。
同様のことは、XY平面内での位置測定においても発生する。図15は、3台の第2の画像撮像装置110と、3人の第2の被測定者とが存在する場合のXY座標系における位置を例示した図である。図15に示される例では、第2の画像撮像装置110a1で頭頂部が検出された撮像方向1511、撮像方向1512及び撮像方向1513と、第2の画像撮像装置110c1で頭頂部が検出された撮像方向1521、撮像方向1522及び撮像方向1523と、第2の画像撮像装置110c8で頭頂部が検出された撮像方向1531、撮像方向1532及び撮像方向1533と、の組み合せに基づいて、3人の第2の被測定者の位置P1501、P1502、P1503を特定することとなる。しかしながら、第2の画像撮像装置110の数をN台とした場合に、第2の被測定者がN人の場合には、測定ばらつきや点の測定がエリア測定になるなど、誤差要因が増えるにつれて、XY座標の測定精度が悪くなる可能性がある。
そこで、本実施形態においては、より確実に被測定者の身長やXY座標平面内の位置を求める場合、第2の画像撮像装置110の数をN台とした場合に、N-1人以下の被測定者数の場合に、測定することとした。
つまり、図8のS803においては、第2の画像撮像装置110の数をN台とした場合に、N-1人以下の被測定者を検知した時に、撮像条件を満たすこととした。
図8に戻り、妥当性判定部164が、複数の第2の画像撮像装置110による位置測定の撮像条件を満たしていないと判定した場合(S803:No)、第2の画像撮像装置110単位による位置の撮影条件を満たしているか否かを判定する(S804)。第2の画像撮像装置110単位による位置測定の撮影条件とは、例えば、第2の画像撮像装置110単体の1枚の画像データで被測定者を特定できるための条件とする。当該撮像条件としては、例えば、被測定者の頭頂部から足下まで写っている上で、当該被測定者の顔が写っている場合等が考えられる。
妥当性判定部164が、第2の画像撮像装置110単位による位置測定の撮影条件を満たしていないと判定した場合(S804:No)、再びS801から処理を行う。
一方、妥当性判定部164が、複数の第2の画像撮像装置110による位置測定の撮像条件を満たしていると判定した場合(S803:Yes)、又は、第2の画像撮像装置110単位による位置測定の撮影条件を満たしていると判定した場合(S804:Yes)、妥当性判定部164は、通信インタフェース151を介して、第2の被測定者を撮像可能な一つ以上の第2の画像撮像装置110に対して撮像指示を行う。これにより、指示を受け付けた第2の画像撮像装置110は、撮像センサ101を用いて、第2の被測定者を撮像する(S805)。
第2の画像撮像装置110の各々は、第2の被測定者の画像データの取得を完了したか否かを判定する(S806)。判定していない場合(S806:No)、再びS803から処理を行う。
一方、第2の画像撮像装置110の各々は、第2の被測定者の画像データの取得を完了したと判定した場合(S806:Yes)、画像分析部105が、撮像された画像データに対して画像分析し、第2の形態情報を生成する(S807)。そして、第2の画像撮像装置110の各々は、通信インタフェース104を介して、第2の形態情報をサーバ150に送信する(S808)。
図8で示される様に、複数の第2の画像撮像装置110による測定が可能な場合は、複数の第2の画像撮像装置110で高精度の測定を行い、単独の第2の画像撮像装置110でしか測定可能でない場合は、単独の第2の画像撮像装置110による測定を行うこととした。このように条件に応じて、測定に用いる第2の画像撮像装置110を異ならせることとした。したがって、複数の第2の画像撮像装置110の測定エリアが重畳する場所に被測定者が滞在した場合には、より高精度の測定が可能となる。
図6に戻り、形態情報抽出フェーズにおいては、人物識別システムが、第2の画像撮像装置110の各々から送信された第2の形態情報毎に、第2の被測定者の候補を抽出する(S603)。
図16は、図6のS603で示した形態情報抽出フェーズの処理手順を示したフローチャートである。
閾値処理部165は、第2の画像撮像装置110が撮像した画像データの第2の形態情報に基づいた第2の被測定者の候補が、被測定者データベース168にあるか否かを判定する(S1001)。具体的には、被測定者データベース168に、第2の画像撮像装置110が撮像した画像データの第2の形態情報と所定の閾値以上類似している第1の形態情報が存在する場合に、当該第1の形態情報で示された第1の被測定者を、第2の被測定者の候補とする。
閾値処理部165は、第2の被測定者の候補が、被測定者データベース168にあると判定した場合(S1001:Yes)、候補として判定された被測定者を候補者グループとして抽出する(S1003)。第2の被測定者の候補が、被測定者データベース168にないと判定した場合(S1001:No)、S1004の処理に移行する。
閾値処理部165は、撮像した画像データの第2の形態情報毎の候補者グループを抽出完了したか否か判定する(S1004)。抽出完了していないと判定した場合(S1004:No)、閾値処理部165は、撮像した他の画像データの第2の形態情報を選択して(S1002)、再びS1001から処理を行う。
一方、閾値処理部165は、抽出完了したと判定した場合(S1004:Yes)、処理を終了する。
なお、S801で候補を抽出する際に用いた所定の閾値は、被測定者データベース168から、完全に一致する唯一の被測定者を抽出することが目的ではない。これは、天井に設置された第2の画像撮像装置110が撮像した画像データに基づいた類似度判定では、顔認証と比べて、完全一致するような特徴を有していないことが多いためである。また、髪型は時間の経過と共に変化する可能性もある。このように、本実施形態においては、高い個人の識別性能がそもそも得られにくいことを想定している。
このため、所定の閾値は、被測定者データベース168から抽出される被測定者候補の母集団に、対象とする被測定者が少なくとも含まれているように設定されればよい。したがって被測定者が複数検出されることは、許容される。
図6に戻り、水平面内位置測定フェーズフェーズにおいては、人物識別システムが、第2の被測定者の水平面(XY座標平面)の位置に基づいた第2の被測定者の抽出を行う(S604)。
図17は、図6のS604で示した水平面内位置測定フェーズの処理手順を示したフローチャートである。
妥当性判定部164が、第2の形態情報に写っている第2の被測定者の撮像方向に基づいて、水平面内座標推定条件を満たしているか否かを判定する(S1201)。以下に、水平面内座標推定条件について説明する。
図18は、3台の第2の画像撮像装置110と、2人の被測定者とが存在する場合のXY座標系における位置を例示した図である。図18に示される例では、第2の画像撮像装置110a1で頭頂部が検出された撮像方向1611及び撮像方向1612と、第2の画像撮像装置110c1で頭頂部が検出された撮像方向1621及び撮像方向1622と、第2の画像撮像装置110c8で頭頂部が検出された撮像方向1631及び撮像方向1632と、の組み合せに基づいて、2人の第2の被測定者の位置P1601、P1602を特定する場合である。
図18で示される例では、XY座標平面において、第2の画像撮像装置110a1、110c1、110c8を頂点とした3角形1650の外でありかつ近接した範囲に、2人の第2の被測定者の位置P1601、P1602が存在する。このような場合、第2の画像撮像装置110a1、110c1、110c8による撮像方向が重なるため、精度良く2人の第2の被測定者の位置P1601、P1602を特定するのが難しい。
図19は、3台の第2の画像撮像装置110と、2人の第2の被測定者とが存在する場合のXY座標系における位置を例示した図である。図19に示される例では、第2の画像撮像装置110a1で頭頂部が検出された撮像方向1711及び撮像方向1712と、第2の画像撮像装置110c1で頭頂部が検出された撮像方向1721及び撮像方向1722と、第2の画像撮像装置110c8で頭頂部が検出された撮像方向1731及び撮像方向1732と、の組み合せに基づいて、2人の第2の被測定者の位置P1701、P1702を特定する場合である。
図19で示される例では、XY座標平面において、第2の画像撮像装置110a1、110c1、110c8を頂点とした3角形1750内でありかつ近接した範囲に、2人の第2の被測定者の位置P1701、P1702が存在する。このような場合、3個の撮像方向が近接する位置座標が発生しないため、誤検出が生じることを抑止できる。
そこで、本実施形態においては、第2の被測定者が複数存在する(又は複数の第2の被測定者が近接する)場合、妥当性判定部164が、第2の形態情報に写っている第2の被測定者の撮像方向に基づいて、3台以上の第2の画像撮像装置で形成される多角形内に、第2の被測定者が存在すると推測される場合に水平面内座標推定条件を満たすこととした。
妥当性判定部164が、水平面内座標推定条件を満たしていないと判定した場合(S1201:No)、被測定者のトレースは難しいものとして水平面に基づいた処理が失敗した旨を設定して処理終了する。
そして、妥当性判定部164が、水平面内座標推定条件を満たしていると判定した場合(S1201:Yes)、特定部163は、第2の形態情報の各々に写っている第2の被測定者の撮像方向に基づいて、第2の被測定者の水平面内に存在する推定される位置座標を算出する(S1202)。
閾値処理部165は、複数の第2の形態情報から推定される第2の被測定者毎の位置座標が、所定の閾値の範囲内で1カ所に特定されたか否かを判定する(S1203)。1カ所に特定できなかった場合(S1203:No)、被測定者のトレースは難しいものとして水平面に基づいた処理が失敗した旨を設定して処理終了する。
一方、閾値処理部165は、第2の被測定者毎の位置座標が、所定の閾値の範囲内で1カ所に特定された場合(S1203:Yes)、1カ所に特定された被測定者を示す、複数の第2の形態情報から抽出された候補者グループ間で、被測定者の論理和を取ることで、被測定者の絞り込みを行う(S1204)。
閾値処理部165は、水平面内の位置情報の処理が完了したか否かを判定する(S1205)。完了していないと判定した場合(S1205:No)、水平面に基づいた処理が失敗した旨を設定して処理を終了する。
一方、閾値処理部165は、水平面内の位置情報の処理が完了したと判定した場合(S1205:Yes)、水平面に基づいた処理が成功した旨を設定して処理を終了する。
図6に戻り、サーバ150の制御部152は、水平面内位置測定フェーズにおいて水平面に基づいた処理が成功したか否かを判定する(S605)。処理が成功していないと判定した場合(S605:No)、再びS602の撮像フェーズから処理を行う。
一方、水平面内位置測定フェーズにおいて水平面に基づいた処理が成功したと判定した場合(S605:Yes)、身長情報抽出フェーズに移行する。
身長情報抽出フェーズにおいては、人物識別システムが、身長情報に基づいた被測定者の抽出を行う(S607)。
図20は、図6のS606で示した身長情報抽出フェーズの処理手順を示したフローチャートである。
まず、特定部163は、第2の被測定者の第2の身長情報を算出する(S1401)。図21は、S1401で示した第2の身長情報の算出処理手順を示したフローチャートである。
特定部163は、第2の形態情報から、「つむじ」が抽出できるか否かを判定する(S1601)。「つむじ」が抽出できると判定した場合(S1601:Yes)、「つむじ」中心点を頭頂部に設定する(S1602)。
一方、第2の形態情報から、「つむじ」が抽出できないと判定した場合(S1601:No)、特定部163は、被測定者の「輪郭」から、Z軸上の最大点を抽出できるか否かを判定する(S1603)。最大点を抽出できないと判定した場合(S1603:No)、処理を終了する。
第2の形態情報から、Z軸上の最大点(=頭頂部)を抽出できると判定した場合(S1603:Yes)、特定部163は、Z軸上の最大点を頭頂部として設定する(S1604)。
そして、特定部163は、身長推定に必要な値が揃っているか否かを判定する(S1605)。例えば、身長推定に必要な値は、例えば、複数の第2の画像撮像装置110で生成された複数の第2の形態情報に頭頂部が写っている、又は第2の形態情報に頭頂部から足下まで写っている等が考えられる。具体的な情報は、上述した通りのため、説明を省略する。
特定部163は、身長推定に必要な値が揃っていないと判定した場合(S1605:No)、処理を終了する。
一方、特定部163は、身長推定に必要な値が揃っていると判定した場合(S1605:Yes)、第2の形態情報に基づいて第2の身長情報を算出する(S1606)。
図20に戻り、閾値処理部165は、第2の身長情報が算出された場合、水平面内位置測定フェーズにおいて水平面に基づいた処理で抽出された候補者グループの中に、身長情報が一致する候補者が存在するか否かを判定する(S1402)。身長情報が一致する候補者が存在しない場合(S1402:No)、処理を終了する。
一方、閾値処理部165は、身長情報が一致する候補者が存在する場合(S1402:Yes)、閾値処理部165は、候補者グループから、身長情報が一致する候補者を抽出する(S1403)。必要に応じて抽出された候補者の表示等を行ってもよい。
そして、閾値処理部165は、S1403によって抽出された身長情報が一致する候補者が、一人か否かを判定する(S1404)。一人ではないと判定した場合(S1404:No)、処理を終了する。
一方、閾値処理部165は、一人であると判定した場合(S1404:Yes)、出力部166は、一致する候補者の情報(例えば、現在の位置座標)を、被測定者データベース168に追加登録する(S1405)。
なお、上述した一連の処理手順のうち、具体的には図7で、一定時間ΔT経過した後、同じ処理を繰り返す箇所があるが、合計時間Tが、予め設定された最大値Tmaxより大きくなった場合には、エラー処理として、合計時間=T0(例えば、“0”)と設定した後に、図6の撮像フェーズから処理を介してもよい。
また、被測定者の距離を測定するために、第2の画像撮像装置110が撮像した画像データに基づいた第2の形態情報を用いた例を説明したが、赤外領域のレーザ光、超音波、赤外線検知器などを測距に用いてもよい。
本実施形態においては、画像撮像装置から出力される情報が、形態情報のため、被測定者の個人的な情報が画像撮像装置から出力されることを抑止できる。これにより個人情報の漏洩を抑止できる。本実施形態においては、被測定者の特徴を示した形態情報に基づいて被測定者を同定する例について説明したが、形態情報で同定する手法に制限するものではない。画像データに基づく情報で同定すればよく、例えば、撮像された画像データに基づいた同定であってもよい。
(第2の実施形態)
上述した実施形態においては、画像撮像装置において形態情報を生成する場合について説明した。しかしながら、画像撮像装置において形態情報を生成する手法に制限するものではない。そこで第2の実施形態では、形態情報の代わりに画像データを出力する場合について説明する。
図22は、第2の実施形態に係る人物識別システムの構成の一例を示す図である。図22に示されるように、人物識別システムは、複数の第1の画像撮像装置2300a1、2300a2、…2300cn、2300dと、複数の第2の画像撮像装置2310a1、2310a2、…2310cnと、サーバ2350とで構成されている。
複数の第1の画像撮像装置2300a1、2300a2、…2300cn、2300dと、複数の第2の画像撮像装置2310a1、2310a2、…2310cnと、は、撮像した画像データを、サーバ2350に出力する。
サーバ2350は、第1の実施形態のサーバ150の構成に加えて、バッファ2351と、制御部2352に画像分析部2361と、が追加されている。これにより、第2の実施形態においては、サーバ2350が、複数の第1の画像撮像装置2300a1、2300a2、…2300cn、2300d、及び複数の第2の画像撮像装置2310a1、2310a2、…2310cnから送信された画像データをバッファ2351に一時的に蓄積し、当該バッファ2351に蓄積された画像データから、形態情報を生成する。形態情報の生成手法は、第1の実施形態と同様とし、さらには、形態情報を生成した後の処理も第1の実施形態と同様とする。これにより、第1の実施形態と同様の効果を得られる。
なお、上述した実施形態は、人物識別システムの構成の一例を示したものであって、人物識別システムにさらなる装置が追加されていてもよい。そして追加された構成が、画像データから形態情報を生成する等の処理を行ってもよい。
なお、上述した実施形態は、第1の画像撮像装置100と、第2の画像撮像装置110とは、配置場所が異なる画像撮像装置群としたが、異なる種類または異なる類似度判定基準を有する画像撮像装置群としてもよい。
上述した実施形態においては、登録フェーズにおいて、異なる方向から撮像した画像データに基づいた複数の第1の形態情報を対応付けて登録することで、被測定者を認識する際に、複数の形態情報を組み合わせて被測定者の同定ができる。これにより、例えば、正面からの撮像データでなくても被測定者を同定できる。
さらに、上述した実施形態においては、複数の形態情報に、身長情報を対応付けて登録することとした。これにより、被測定者の同定精度を向上させることができる。
上述した実施形態においては、被測定者の身長情報を対応付けることで、天井に設置された複数の第2の画像撮像装置110で撮像した際に外観が似ている被測定者2人であっても、身長情報の違いに基づいて被測定者の各々を同定できる。
上述した実施形態においては、人物を識別する際に、複数の形態情報及び身長情報に基づいて認証を行うことで、体型、髪型、つむじ、髪の色などの被測定者の複数の特徴を組み合わせて同定することとした。これにより、被測定者の顔等が写っていなくとも被測定者を同定することが可能となる。
上述した実施形態においては、XY平面上で被測定者が存在する位置座標を特定した後、被測定者の位置座標が、水平面内座標推定条件を満たした場合に、被測定者の同定を行うこととした。これにより、被測定者の同定精度を向上させることができる。
上述した実施形態においては、複数の第1の画像撮像装置と、複数の第2の画像撮像装置と、を施設の天井部分、または建物の天井部分に設置した例について説明した。そして、光軸中心を真下近傍とした上で、所定の画角のレンズで撮影することで、被測定者を複数の画像撮像装置で撮影することができる。これにより、複数の形態情報に基づいて、被測定者を同定することができる。
さらには、天井設置形の複数の第1の画像撮像装置と、複数の第2の画像撮像装置と、を用いることで、頭頂部方向から撮像した画像データに基づいた形態情報であっても、被測定者の同定が可能となる。
上述した実施形態においては、ゲート通過時に被測定者の情報を登録することとした。これにより、施設や建物に設置された、同一時刻に1人しか通過できない狭隘通路において、被測定者の2つ以上の撮像データに基づいた形態情報を登録することとした。
その際に、異なる方位または仰角から撮影した異なる複数の画像データに基づいた複数の形態情報を同一人物のものとして対応付けて登録できる。これにより、人物識別する際に、利用可能な情報が増えるため、被測定者の動線のトレースも可能となる。
また、上述した実施形態においては、顔認証を行う際の閾値と、頭頂部の認証を行う際の閾値と、を異ならせることとした。これにより、特徴に応じた閾値が設定されているため、認証が容易となり、動体のトレースが可能となる。
また、上述した実施形態においては、顔認証と比べて、頭頂部の認証を行う形態情報の更新頻度が多くなるように設定した。これにより、顔と比べて変化する特徴であっても追従することができる。
上述した実施形態においては、登録する際に、被測定者の表面温度情報、身長、体重、顔認証による表情、腕時計による脈波など、他の生体情報も収集し、登録することつぃた。これにより、被測定者の体調を含めた健康状態を把握できる。
本実施形態においては、HOG又はCoHOGなどの形態情報を被測定者データベース168に登録することとした。これにより、個人の肖像権に係る情報を抽出することなく、統計量と数値のみによる値を特徴量として、被測定者を同定できる。
上述した実施形態においては、被測定者の身長情報の測定をする際に、頭頂部のつむじが撮像されている場合は、身長を測定する際の測定点として使用し、つむじが撮像されていない場合にはエッジ情報から頭頂部を検出することとした。これにより、算出される身長情報の誤差を抑止できる。
上述した実施形態においては、形態情報に基づいて被測定者の候補を抽出した後、身長情報に基づいてさらなる絞り込みを行うこととした。これにより、形態情報だけでは、同定が困難な被測定者であっても同定を実現できる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100a1~100a8、100b1~100b8、100c1~100c8、100d…第1の画像撮像装置、110a1~110a8、110b1~110b8、110c1~110c8…第2の画像撮像装置、101…撮像センサ、102…バッファ、103、2352…制御部、104…通信インタフェース、105…画像分析部、150、2350…サーバ、151…通信インタフェース、152…制御部、153…記憶部、161…取得部、162…装置制御部、163…特定部、164…妥当性判定部、165…閾値処理部、166…出力部、167…画像撮像装置情報データベース、168…被測定者データベース、2351…バッファ、2361…画像分析部。

Claims (16)

  1. 対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得し、第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する取得部と、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶する記憶部と、
    前記取得部によって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理部と、
    を備え、
    前記第1の情報は、前記第1の対象人物より高い位置に設けられた前記第1の複数の撮像部の各々によって撮像された、前記第1の対象人物の頭頂部を含んだ部位を表した情報と、顔撮影用の撮像部によって撮像された、前記第1の対象人物の顔を表した情報と、を含み、
    前記第2の情報は、前記第2の対象人物より高い位置に設けられた前記第2の撮像部によって撮像された、前記第2の対象人物の頭頂部、又は前記第2の対象人物の顔を含んだ部位を表し、
    前記処理部は、前記第2の情報に前記第2の対象人物の頭頂部が含まれている場合に同定に用いる閾値と比べて、前記第2の情報に前記第2の対象人物の顔が含まれている場合に同定に用いる閾値が高い、人物識別装置。
  2. 前記記憶部に記憶された前記第1の情報のうち、前記第1の対象人物の頭頂部を含んだ部位を表した情報は、顔撮影用の撮像部によって撮像された、前記第1の対象人物の顔を表した情報と比べて、更新頻度が高い、
    請求項1に記載の人物識別装置。
  3. 対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得し、第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する取得部と、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶する記憶部と、
    前記取得部によって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理部と、
    前記複数の第1の情報に基づいて、前記第1の対象人物の鉛直方向の座標に関する第1の身長情報を特定し、前記第2の情報に基づいて、前記第2の対象人物の第2の身長情報を特定する特定部と、を備え、
    前記記憶部は、前記複数の第1の情報と、前記第1の身長情報と、を対応付けて記憶し、
    前記処理部は、前記第2の情報及び前記第2の身長情報と、前記記憶部に記憶された前記複数の第1の情報及び前記第1の身長情報と、に基づいて人物を同定する、人物識別装置。
  4. 前記特定部は、前記第1の情報又は前記第2の情報に、前記第1の対象人物又は前記第2の対象人物のつむじが含まれている場合には、当該つむじを測定点として、前記第1の身長情報又は前記第2の身長情報を算出し、前記第1の対象人物又は前記第2の対象人物のつむじが含まれていない場合には、前記第1の対象人物又は前記第2の対象人物の全体を表すシルエットから、前記第1の身長情報又は前記第2の身長情報を算出する、
    請求項3に記載の人物識別装置。
  5. 前記処理部は、前記第2の情報と、前記記憶部に記憶された前記複数の第1の情報と、による類似度に基づいた判定を行った後に、前記第2の身長情報と、前記第1の身長情報と、に基づいて対象人物を同定する、
    請求項3又は4に記載の人物識別装置。
  6. 前記取得部は、略同一時間に一人しか通過できない所定空間に前記第1の対象人物が存在する場合に、前記第1の複数の撮像部の各々によって撮像された第1の対象人物に関する、前記複数の第1の情報を取得する、
    請求項1乃至5のいずれか一つに記載の人物識別装置。
  7. 前記取得部は、さらに、前記第1の対象人物の表面温度情報、身長、体重、顔認証による表情、又は脈拍を含む身体情報を取得する、
    請求項3に記載の人物識別装置。
  8. 前記取得部は、前記第1の情報として、さらに、検出部が出力するレーザ光、超音波、赤外線に基づいた、前記第1の対象人物の鉛直方向の座標に関する第1の身長情報を取得し、
    前記記憶部は、前記複数の第1の情報と、前記第1の身長情報と、を対応付けて記憶し、
    前記処理部は、前記第2の情報と、前記複数の第1の情報及び前記第1の身長情報と、に基づいて対象人物を同定する、
    請求項3に記載の人物識別装置。
  9. 前記複数の第1の情報は、前記第1の対象人物の特徴を表したHOG(Histograms of Oriented Gradients)又はCoHOG(Co-Occurrence Histograms of Oriented Gradients:輝度こう配方向共起ヒストグラム)データであり、
    前記第2の情報は、前記第2の対象人物の特徴を表したHOG又はCoHOGデータである、
    請求項1乃至8のいずれか1つに記載の人物識別装置。
  10. 第1の対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部と、
    前記第1の複数の撮像部と異なる領域に設けられた、第2の撮像部と、
    前記第1の複数の撮像部の各々によって撮像された前記第1の対象人物に関する複数の第1の情報を取得し、前記第2の撮像部によって撮像された第2の対象人物に関する第2の情報を取得する取得部と、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶する記憶部と、
    前前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理部と、
    を備え、
    前記第1の情報は、前記第1の対象人物より高い位置に設けられた前記第1の複数の撮像部の各々によって撮像された、前記第1の対象人物の頭頂部を含んだ部位を表した情報と、顔撮影用の撮像部によって撮像された、前記第1の対象人物の顔を表した情報と、を含み、
    前記第2の情報は、前記第2の対象人物より高い位置に設けられた前記第2の撮像部によって撮像された、前記第2の対象人物の頭頂部、又は前記第2の対象人物の顔を含んだ部位を表し、
    前記処理部は、前記第2の情報に前記第2の対象人物の頭頂部が含まれている場合に同定に用いる閾値と比べて、前記第2の情報に前記第2の対象人物の顔が含まれている場合に同定に用いる閾値が高い、人物識別システム。
  11. 第1の対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部と、
    前記第1の複数の撮像部と異なる領域に設けられた、第2の撮像部と、
    前記第1の複数の撮像部の各々によって撮像された前記第1の対象人物に関する複数の第1の情報を取得し、前記第2の撮像部によって撮像された第2の対象人物に関する第2の情報を取得する取得部と、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶する記憶部と、
    前前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理部と、
    前記複数の第1の情報に基づいて、前記第1の対象人物の鉛直方向の座標に関する第1の身長情報を特定し、前記第2の情報に基づいて、前記第2の対象人物の第2の身長情報を特定する特定部と、を備え、
    前記記憶部は、前記複数の第1の情報と、前記第1の身長情報と、を対応付けて記憶し、
    前記処理部は、前記第2の情報及び前記第2の身長情報と、前記記憶部に記憶された前記複数の第1の情報及び前記第1の身長情報と、に基づいて人物を同定する、人物識別システム。
  12. 前記第2の撮像部は複数設けられ、
    複数の前記第2の撮像部は、少なくとも三角以上の多角形を構成するように配置され、
    前記処理部は、複数の前記第2の撮像部で構成された多角形内に存在する前記第2の対象人物に対して、対象人物の同定を行う、
    請求項10又は11に記載の人物識別システム。
  13. 対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得する第1の取得ステップと、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶部に記憶する記憶ステップと、
    第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する第2の取得ステップと、
    前記第2の取得ステップによって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理ステップと、
    を含み、
    前記第1の情報は、前記第1の対象人物より高い位置に設けられた前記第1の複数の撮像部の各々によって撮像された、前記第1の対象人物の頭頂部を含んだ部位を表した情報と、顔撮影用の撮像部によって撮像された、前記第1の対象人物の顔を表した情報と、を含み、
    前記第2の情報は、前記第2の対象人物より高い位置に設けられた前記第2の撮像部によって撮像された、前記第2の対象人物の頭頂部、又は前記第2の対象人物の顔を含んだ部位を表し、
    前記処理ステップは、前記第2の情報に前記第2の対象人物の頭頂部が含まれている場合に同定に用いる閾値と比べて、前記第2の情報に前記第2の対象人物の顔が含まれている場合に同定に用いる閾値が高い、人物識別方法。
  14. 対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得する第1の取得ステップと、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶部に記憶する記憶ステップと、
    第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する第2の取得ステップと、
    前記第2の取得ステップによって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理ステップと、
    前記複数の第1の情報に基づいて、前記第1の対象人物の鉛直方向の座標に関する第1の身長情報を特定し、前記第2の情報に基づいて、前記第2の対象人物の第2の身長情報を特定する特定ステップと、
    を含み、
    前記記憶部は、前記複数の第1の情報と、前記第1の身長情報と、を対応付けて記憶しており、
    前記処理ステップは、前記第2の情報及び前記第2の身長情報と、前記記憶部に記憶された前記複数の第1の情報及び前記第1の身長情報と、に基づいて人物を同定する、人物識別方法。
  15. 対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得する第1の取得ステップと、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶部に記憶する記憶ステップと、
    第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する第2の取得ステップと、
    前記第2の取得ステップによって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理ステップと、
    を実行させるためのプログラムであって、
    前記第1の情報は、前記第1の対象人物より高い位置に設けられた前記第1の複数の撮像部の各々によって撮像された、前記第1の対象人物の頭頂部を含んだ部位を表した情報と、顔撮影用の撮像部によって撮像された、前記第1の対象人物の顔を表した情報と、を含み、
    前記第2の情報は、前記第2の対象人物より高い位置に設けられた前記第2の撮像部によって撮像された、前記第2の対象人物の頭頂部、又は前記第2の対象人物の顔を含んだ部位を表し、
    前記処理ステップは、前記第2の情報に前記第2の対象人物の頭頂部が含まれている場合に同定に用いる閾値と比べて、前記第2の情報に前記第2の対象人物の顔が含まれている場合に同定に用いる閾値が高い、プログラム。
  16. 対象人物を異なる方向から撮像するために異なる位置に設けられた第1の複数の撮像部の各々によって撮像された第1の対象人物に関する複数の第1の情報を取得する第1の取得ステップと、
    前記第1の複数の撮像部の各々から取得された、前記第1の対象人物に関する複数の第1の情報を対応付けて記憶部に記憶する記憶ステップと、
    第2の撮像部によって撮像された、第2の対象人物に関する第2の情報を取得する第2の取得ステップと、
    前記第2の取得ステップによって取得された前記第2の情報と、前記記憶部に記憶された、前記第1の情報と、に基づいて対象人物を同定する処理ステップと、
    前記複数の第1の情報に基づいて、前記第1の対象人物の鉛直方向の座標に関する第1の身長情報を特定し、前記第2の情報に基づいて、前記第2の対象人物の第2の身長情報を特定する特定ステップと、
    を実行させるためのプログラムであって、
    前記記憶部は、前記複数の第1の情報と、前記第1の身長情報と、を対応付けて記憶しており、
    前記処理ステップは、前記第2の情報及び前記第2の身長情報と、前記記憶部に記憶された前記複数の第1の情報及び前記第1の身長情報と、に基づいて人物を同定する、プログラム。
JP2020105556A 2020-06-18 2020-06-18 人物識別装置、人物識別システム、人物識別方法、及びプログラム Active JP7374855B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020105556A JP7374855B2 (ja) 2020-06-18 2020-06-18 人物識別装置、人物識別システム、人物識別方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020105556A JP7374855B2 (ja) 2020-06-18 2020-06-18 人物識別装置、人物識別システム、人物識別方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021197094A JP2021197094A (ja) 2021-12-27
JP7374855B2 true JP7374855B2 (ja) 2023-11-07

Family

ID=79195813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020105556A Active JP7374855B2 (ja) 2020-06-18 2020-06-18 人物識別装置、人物識別システム、人物識別方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7374855B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187115A (ja) 2002-12-05 2004-07-02 Casio Comput Co Ltd 監視システムおよびプログラム
JP2007213369A (ja) 2006-02-10 2007-08-23 Matsushita Electric Ind Co Ltd 生体認証装置および生体認証方法
WO2010098024A1 (ja) 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2017068627A (ja) 2015-09-30 2017-04-06 株式会社東芝 画像処理端末及び画像処理サーバ
JP2017174259A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 動体計数装置及びプログラム
JP2019149061A (ja) 2018-02-28 2019-09-05 パナソニックIpマネジメント株式会社 施設内監視システムおよび施設内監視方法
JP2021002105A (ja) 2019-06-20 2021-01-07 Kddi株式会社 情報処理装置及び組合せ特定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187115A (ja) 2002-12-05 2004-07-02 Casio Comput Co Ltd 監視システムおよびプログラム
JP2007213369A (ja) 2006-02-10 2007-08-23 Matsushita Electric Ind Co Ltd 生体認証装置および生体認証方法
WO2010098024A1 (ja) 2009-02-24 2010-09-02 三菱電機株式会社 人物追跡装置及び人物追跡プログラム
JP2017068627A (ja) 2015-09-30 2017-04-06 株式会社東芝 画像処理端末及び画像処理サーバ
JP2017174259A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 動体計数装置及びプログラム
JP2019149061A (ja) 2018-02-28 2019-09-05 パナソニックIpマネジメント株式会社 施設内監視システムおよび施設内監視方法
JP2021002105A (ja) 2019-06-20 2021-01-07 Kddi株式会社 情報処理装置及び組合せ特定方法

Also Published As

Publication number Publication date
JP2021197094A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
JP6904421B2 (ja) 店舗装置、店舗管理方法、プログラム
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
JP3584334B2 (ja) 人間検出追跡システムおよび人間検出追跡方法
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
JP6601513B2 (ja) 情報処理装置
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
JP2013156718A (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP2009143722A (ja) 人物追跡装置、人物追跡方法及び人物追跡プログラム
JP5554726B2 (ja) データ関連付けのための方法と装置
US20120092680A1 (en) Methods and apparatus for real-time digitization of three-dimensional scenes
JP4288428B2 (ja) 映像解析システムおよび映像解析方法
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
JPWO2012020591A1 (ja) 個体識別システム、特徴量特定装置、特徴量特定方法およびプログラム
KR20020022295A (ko) 3차원 정보를 이용한 얼굴 인식 장치 및 방법
KR100775005B1 (ko) 사용자 인식 시스템 및 그 방법
JP2020077399A (ja) 情報処理装置
JP2015230616A (ja) 画像処理方法および画像処理装置
CN111652018A (zh) 一种人脸注册方法和认证方法
JP7374855B2 (ja) 人物識別装置、人物識別システム、人物識別方法、及びプログラム
JP2010262527A (ja) 通行者計数装置、通行者計数方法および通行者計数プログラム
KR101919138B1 (ko) 원거리 멀티 생체 인식 방법 및 장치
KR101733657B1 (ko) 거리영상 기반 카메라를 이용한 객체 카운터 시스템 및 그 카운트 방법
JP5796523B2 (ja) 生体情報取得装置、生体情報取得方法、生体情報取得制御プログラム
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231025

R150 Certificate of patent or registration of utility model

Ref document number: 7374855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150