JP7218795B2 - 照合装置、制御方法、及びプログラム - Google Patents

照合装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP7218795B2
JP7218795B2 JP2021508535A JP2021508535A JP7218795B2 JP 7218795 B2 JP7218795 B2 JP 7218795B2 JP 2021508535 A JP2021508535 A JP 2021508535A JP 2021508535 A JP2021508535 A JP 2021508535A JP 7218795 B2 JP7218795 B2 JP 7218795B2
Authority
JP
Japan
Prior art keywords
registered
information
detected
area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021508535A
Other languages
English (en)
Other versions
JPWO2020194585A1 (ja
Inventor
紫穂野 望月
哲 寺澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020194585A1 publication Critical patent/JPWO2020194585A1/ja
Application granted granted Critical
Publication of JP7218795B2 publication Critical patent/JP7218795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は撮像画像に含まれる物体を特定する技術に関する。
カメラから得られる撮像画像に含まれる物体を特定する技術が開示されている。例えば特許文献1は、生体照合装置から所定範囲内にある携帯端末に関連づけられた登録生体画像を抽出し、抽出した登録生体画像を利用者の入力生体情報と照合する技術を開示している。各携帯端末の位置情報は、定期的に生体照合装置に送信されている。
特開2017-59060号公報
特許文献1の発明では、携帯端末を保持する人が生体照合装置から所定範囲内に多く存在すると、多くの登録生体画像が照合対象として抽出される。そのため、利用者の特定に要する時間が長くなってしまう。
本発明は、上述の課題に鑑みてなされたものであり、その目的の一つは、撮像画像に含まれる物体の特定に要する時間を短くする技術を提供することである。
本発明の照合装置は、1)カメラによって生成された撮像画像を取得し、取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出部と、2)抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、検出物体の特定を行う特定部と、を有する。
各登録物体の物体情報は、登録物体の画像特徴を含む。
特定部は、各登録物体の位置情報に基づいて各物体情報の照合順序を決定し、決定した照合順序が早い物体情報から順に、その物体情報に含まれる画像特徴を抽出された画像特徴と照合することで、検出物体の特定を行う。
本発明の制御方法はコンピュータによって実行される。当該制御方法は、1)カメラによって生成された撮像画像を取得し、取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出ステップと、2)抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、検出物体の特定を行う特定ステップと、を有する。
各登録物体の物体情報は、登録物体の画像特徴を含む。
特定ステップにおいて、各登録物体の位置情報に基づいて各物体情報の照合順序を決定し、決定した照合順序が早い物体情報から順に、その物体情報に含まれる画像特徴を抽出された画像特徴と照合することで、検出物体の特定を行う。
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。
本発明によれば、撮像画像に含まれる物体の特定に要する時間を短くする技術が提供される。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本実施形態の照合装置の動作の概要を例示する図である。 実施形態1の照合装置の構成を例示する図である。 照合装置を実現するための計算機を例示する図である。 実施形態1の照合装置によって実行される処理の流れを例示するフローチャートである。 物体が移動する場所が複数のエリアに分けられているケースを例示する図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
<概要>
図1は、本実施形態の照合装置2000の動作の概要を例示する図である。図1は、照合装置2000の動作についての理解を容易にするための概念的な説明を表す図であり、照合装置2000の動作を具体的に限定するものではない。
照合装置2000は、カメラ10から得られる撮像画像12を用いて、カメラ10によって撮像された物体の特定を行う装置である。例えばカメラ10は、空港やスタジアムなどといった施設に設置される監視カメラである。ただし、カメラ10が設置される場所は、屋内に限定されず、屋外であってもよい。
ここでいう「物体の特定」とは、複数の既知の物体(以下、登録物体)の中から、撮像画像12から検出された物体(検出物体20)と合致する登録物体を特定することを意味する。また、ここでいう「登録物体」とは、その物体の識別子と、その物体の画像上の特徴量である画像特徴とを対応付けた情報(後述する物体情報30)が、検出物体20の特定を行う際に存在している物体のことを意味する。
照合装置2000は、撮像画像12から検出された検出物体20について、その検出物体20の画像上の特徴量(画像特徴22)を抽出する。画像特徴としては、画像から抽出することができる種々の特徴量を利用することができる。ここで、検出物体20は、例えば人物である。検出物体20が人物である場合、照合装置2000が行う処理は、「既知の人物の中から、撮像画像12から検出された人物と合致する人物を特定する」という処理となる。ただし、検出物体20は人物に限定されない。例えば検出物体20は、動物や機械(自動車やロボット)などであってもよい。
照合装置2000は、複数の物体情報30を利用して、検出物体20の特定を行う。各物体情報30は、登録物体の識別子(物体識別子32)と、その登録物体の画像特徴(画像特徴34)とを対応づけた情報である。物体情報30は、物体情報記憶装置60に記憶されている。
照合装置2000は、撮像画像12から得られた検出物体20の画像特徴22と、各物体情報30が示す画像特徴34とを照合することで、画像特徴22とマッチする画像特徴34(例えば、画像特徴22との類似度が閾値以上である画像特徴34)を特定する。そして、特定した画像特徴34に対応づけられている物体識別子32を、検出物体20の識別子として特定する。これにより、検出物体20が特定される。
ここで、照合装置2000は、画像特徴22と画像特徴34との照合について、照合に利用する物体情報30の順序(照合順序)を、各登録物体の位置情報40に基づいて決定する。位置情報40は、登録物体の識別子(物体識別子42)、その登録物体の位置(位置44)、及びその位置が検出された時刻(検出時刻46)を対応づけている。ただし、検出時刻46については、必ずしも位置情報40に含まれていなくてもよい。照合装置2000は、例えば、位置情報40に示されている位置44がカメラ10の位置に近い登録物体の物体情報30ほど早く照合に利用する。位置情報40は、位置情報記憶装置70に記憶されている。
<代表的な作用効果>
本実施形態の照合装置2000によれば、各登録物体の位置情報40に基づく照合順序で、物体情報30に示される画像特徴34と画像特徴22とを照合することにより、検出物体20の特定を行う。このように登録物体の位置を考慮した順序で照合行うことにより、検出物体20と一致する確率が高いと推測される登録物体の物体情報30が、より早く照合に利用される。そのため、検出物体20の特定に要する時間を短くすることができる。
また、本実施形態の照合装置2000によれば、各物体情報30を順に照合に利用していくため、各登録物体の物体情報30はいずれかのタイミングで照合に利用される。そのため、仮に位置情報40の更新の頻度を低くした結果、検出物体20と一致する登録物体の位置情報40によって示される位置がその登録物体の実際の現在位置と大きくずれていたとしても、その登録物体の物体情報30が照合に利用されずに検出物体20の特定ができなくなるという結果にはならない。そのため、位置情報40の更新の頻度は、照合装置2000の処理負荷などを考慮して柔軟に決めることができる。
以下、本実施形態の照合装置2000についてさらに詳細に説明する。
<照合装置2000の機能構成の例>
図2は、実施形態1の照合装置2000の構成を例示する図である。照合装置2000は、抽出部2020及び特定部2040を有する。抽出部2020は、カメラ10によって生成された撮像画像12から画像特徴22(検出物体20の画像特徴)を抽出する。特定部2040は、画像特徴22及び複数の物体情報30を利用して、検出物体20の特定を行う。ここで、特定部2040は、各登録物体の位置情報40に基づいて、物体情報30の照合順序を決定する。そして、特定部2040は、決定した照合順序が早い物体情報30から順に、その物体情報30に示されている画像特徴34を画像特徴22と照合することにより、検出物体20の特定を行う。
<照合装置2000のハードウエア構成>
照合装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、照合装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図3は、照合装置2000を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、照合装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は FPGA(Field-Programmable Gate Array)などのプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスクドライブ、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。ただし、ストレージデバイス1080は、RAM など、主記憶装置を構成するハードウエアと同様のハードウエアで構成されてもよい。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。図3において、計算機1000は、ネットワークインタフェース1120を介して、カメラ10と接続されている。
ストレージデバイス1080は、照合装置2000の機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
<カメラ10について>
カメラ10は、撮像を行ってその結果を表す画像データ(撮像画像12)を生成する機能を有する任意の装置である。カメラ10は、動画を生成するビデオカメラであってもよいし、静止画を生成するスチルカメラであってもよい。カメラ10が動画を生成する場合、撮像画像12は、その動画を構成する動画フレームである。
照合装置2000は、複数のカメラ10を扱ってもよい。この場合、照合装置2000は、複数のカメラ10それぞれから得られる各撮像画像12について、その中に含まれる登録物体を特定する処理を行う。
<物体情報記憶装置60と位置情報記憶装置70について>
物体情報記憶装置60及び位置情報記憶装置70は、照合装置2000からアクセス可能な任意の記憶装置である。なお、物体情報30と位置情報40は、1つの記憶装置に記憶されてもよい。すなわち、1つの記憶装置に、物体情報記憶装置60としての機能と位置情報記憶装置70としての機能の双方を持たせてもよい。ここで、1つの記憶装置に物体情報30と位置情報40の双方を記憶させる場合、物体情報30と位置情報40は、これらを併合した1つの情報(例えば、1つのテーブル)で実現されてもよいし、個々の情報(例えば、それぞれ異なるテーブル)で実現されてもよい。
<処理の流れ>
図4は、実施形態1の照合装置2000によって実行される処理の流れを例示するフローチャートである。抽出部2020は撮像画像12を取得する(S102)。抽出部2020は、撮像画像12から画像特徴22を抽出する(S104)。
S106からS112は、各物体情報30を対象として実行されるループ処理Aである。S106において、特定部2040は、まだ照合に利用していない物体情報30が存在するか否かを判定する。既に全ての物体情報30を対象として照合が実行された場合、ループ処理Aは終了する。これにより、図4の処理は、検出物体20が特定されることなく終了する。
一方、まだ照合の対象としていない物体情報30が存在する場合、図4の処理はS108に進む。特定部2040は、各登録物体の位置情報40に基づいて、まだ照合に利用していない物体情報30の中から、次の照合に利用する物体情報30を決定する(S108)。特定部2040は、決定した物体情報30が示す画像特徴34がS104で抽出した画像特徴22にマッチするか否かの判定(画像特徴34と画像特徴22の照合)を行う(S110)。
画像特徴34と画像特徴22とがマッチしないと判定された場合(S110:NO)、図4の処理はS112に進む(S112)。S112はループ処理Aの終端であるため、図4の処理はS106に戻る。
画像特徴34と画像特徴22とがマッチすると判定された場合(S110:YES)、特定部2040は、検出物体20を、画像特徴34に対応する物体識別子32を持つ登録物体として特定する(S114)。そして、図4の処理は終了する。
なお、図4に示すフローチャートは、照合装置2000が実行する処理の流れの一例であり、照合装置2000が実行する処理の流れは、図4に示す流れに限定されない。例えば図4では、ループ処理Aの中で、次の照合に利用する物体情報30を逐次決定している。しかしながら、例えば、ループ処理Aに入る前に各物体情報30の照合順序を決定し、決定された照合順序が早い順に物体情報30を照合に利用してもよい。
<撮像画像12の取得:S102>
抽出部2020は、カメラ10から撮像画像12を取得する(S102)。ここで、カメラによって生成された撮像画像を取得する技術には、既存の技術を利用することができる。例えばカメラ10は、新たな撮像画像12を生成する度に、その撮像画像12を照合装置2000へ送信するように構成されている。照合装置2000は、カメラ10から送信された撮像画像12を受信することにより、撮像画像12を取得する。
その他にも例えば、カメラ10は、照合装置2000からアクセス可能な記憶装置に、生成した撮像画像12を格納していってもよい。この場合、例えば照合装置2000は、定期的にこの記憶装置にアクセスし、未取得の撮像画像12を取得するようにする。
なお、抽出部2020は、カメラ10によって生成された全ての撮像画像12ではなく、一部の撮像画像12を取得するようにしてもよい。例えば、カメラ10は、所定の期間の中で生成した複数の撮像画像12のうちの1つを、照合装置2000へ送信する。その他にも例えば、照合装置2000は、撮像画像12が記憶されている記憶装置に定期的にアクセスし、その時点の最新の撮像画像12のみを取得する。
<画像特徴22の抽出:S104>
抽出部2020は、撮像画像12から画像特徴22を抽出する(S104)。その前提として、抽出部2020は、撮像画像12から物体を検出する処理を行う。この処理によって検出された物体を、検出物体20と呼ぶ。なお、画像から物体を検出する具体的な技術については、既存の技術を利用することができる。例えば抽出部2020は、撮像画像12から、背景領域に含まれない画像領域(いわゆる前景領域)を検出し、検出した前景領域を検出物体20として検出する。
抽出部2020は、撮像画像12から検出された検出物体20について、画像特徴22を抽出する処理を行う。ここで、物体を表す画像領域から画像特徴を抽出する技術には、既存の技術を利用することができる。なお、検出物体20が人物である場合、顔を表す画像領域から画像特徴を抽出することが特に好適である。
<物体情報30について>
物体情報30は、登録物体の識別子とその登録物体の画像特徴とを対応づけた情報である。登録物体について物体情報30を生成する方法は様々である。例えばカメラ10が施設に設置される場合、その施設の利用者が、その施設の利用登録を事前に行うようにする。以下、利用登録に利用される装置を、登録装置と呼ぶ。登録装置は、以下に示す利用登録の結果に基づいて物体情報30を生成し、生成した物体情報30を物体情報記憶装置60に格納する。
登録装置を施設に設置する場合、例えば登録装置は、施設の入り口や受付(例えば空港におけるチェックインカウンター)の付近などに設置される。この場合、利用者は、登録装置を操作することで、利用登録を行う。
その他にも例えば、登録装置は、ネットワークを介して利用者の端末から利用登録のリクエストを受け付けるサーバマシンとして実現されてもよい。この場合、例えば登録装置は、利用登録のための web サイトを提供する web サーバとして実現される。利用者は、自身の端末(PC や検体端末など)からこの web サイトにアクセスすることで、施設の利用登録を行うことができる。
登録装置は、施設の利用者から、氏名や住所などの個人情報の登録を受け付ける。この際、利用者は、自身が含まれる画像(例えば顔写真)の登録も行う。登録装置は、登録された画像から利用者の画像特徴を抽出し、その画像特徴(画像特徴34に相当)を、利用者の識別子(物体識別子32に相当)と対応づけて、物体情報30を生成する。利用者の識別子には、登録装置によって生成される値が設定されてもよいし、利用者によって入力された値(例えば、パスポート番号など)が設定されてもよい。
利用者の画像の登録は、利用者が用意した画像データを登録することによって実現されてもよいし、登録装置に併設されたカメラを利用して実現されてもよい。後者の場合、このカメラが利用者を撮像することで画像データを生成し、その画像データが利用者の画像として登録される。
ここで、検出物体20として人物以外を扱うとする。この場合、物体の管理者等が、前述した利用登録と同様にして、その物体を施設内で利用するための登録を行う。例えば検出物体20としてロボットなどの機械を扱う場合、その機械の管理者が、その機械を施設内で利用するための登録を行う。この際、利用者の個人情報に加え、その機械の画像の登録を行う。検出物体20が動物などである場合についても同様である。
<位置情報40について>
位置情報40は、登録物体の識別子に対応づけて登録物体の位置を示す。また、位置情報40は、その登録物体をその位置で検出した時刻(検出時刻46)をさらに示してもよい。
ここで、物体の位置の表し方は様々である。例えば登録物体の位置は、GPS(Global Positioning System)やビーコンシステムなど、物体の位置を特定するために利用されるシステムにおける座標で表される。この場合、座標を特定するためのセンサ(GPS センサやビーコン受信機など)が利用される。例えば検出物体20として人物を扱う場合には、人物が所持している携帯端末に設けられている GPS センサや、その人物が所持しているビーコン受信機などを用いて、その人物の座標が特定される。検出物体20として人物以外を扱う場合、例えば、これらのセンサを登録物体に備え付けておく。なお、GPS やビーコンを利用して登録物体の位置を座標で表す技術には、既存の技術を利用することができる。
GPS センサやビーコン受信機によって定まる座標を位置情報40が示す位置44として利用する場合、例えば、これらのセンサが設けられている携帯端末において、その携帯端末の識別子(アドレスなど)を物体識別子42とし、座標を位置44とし、その座標の検出時刻を検出時刻46とする位置情報40が生成される。各携帯端末は、例えば、位置情報40の収集を行う装置(以下、位置情報収集装置)に対して、定期的に位置情報40を送信する。位置情報装置は、受信した位置情報40を位置情報記憶装置70に格納する。
その他にも例えば、登録物体の位置は、その登録物体に関連づけられた携帯端末が受信する電波の電波強度を利用して特定されてもよい。より具体的には、人物などの登録物体が、携帯端末を所持するようにする。また、照合装置2000が利用される施設には、無線 LAN のアクセスポイントなど、所定の電波を送信する送信機が設けられているとする。この場合、携帯端末の位置は、その携帯端末が各送信機から受信する電波の強度に基づいて推測することができる。そこで例えば、登録物体の位置は、その登録物体に所持されている携帯端末から得られる「送信機の識別子、その送信機から受信した電波の強度」という組み合わせによって定めることができる。この場合、物体識別子42としては、携帯端末の識別子を利用することができる。また、検出時刻46としては、携帯端末が電波を受信した時刻を利用することができる。このケースでも、位置情報40は、各携帯端末によって生成される。
また、携帯端末の位置は、各送信機の位置及び各送信機から携帯端末が受信した電波の電波強度に基づき、施設内の位置を表す座標として算出されてもよい。なお、複数の送信機それぞれの位置、及びそれら複数の送信機から受信機が受信した電波の強度に基づいて、その受信機の位置を算出する技術には、既存の技術を利用することができる。
前述した通り、各携帯端末は、生成した位置情報40を位置情報収集装置に送信する。位置情報装置は、受信した位置情報40を位置情報記憶装置70に格納する。
その他にも例えば、登録物体の位置は、その登録物体に関連づけられた携帯端末がアクセスしたアクセスポイントによって定められてもよい。アクセスポイントでは、そのアクセスポイントにアクセスした携帯端末のアドレス(例えば、MAC アドレス)とそのアクセス日時との組み合わせを記録することができる。そこで、アドレスを物体識別子42とし、アクセスポイントの識別子(アドレスや SSID など)を位置44とし、アクセス日時を検出時刻46とする位置情報40を生成することができる。
このケースでは、アクセスポイントが、そのアクセスポイントにアクセスした各携帯端末についての位置情報40を生成し、生成した各位置情報40を位置情報収集装置に送信する。位置情報装置は、受信した位置情報40を位置情報記憶装置70に格納する。
また、登録物体の位置は、その登録物体を含む撮像画像12を生成したカメラ10の識別子によって定められてもよい。例えば、或る時刻 t1 においてカメラ c1 が生成した撮像画像12から、検出物体20が検出されたとする。そして、照合装置2000がこの検出物体20の特定を行った結果、その検出物体20の識別子が obj1 として特定されたとする。この場合、obj1 で特定される登録物体の時刻 t1 における位置は、カメラ c1 の撮像範囲内であると言える。そこで例えば、物体識別子42に obj1 を示し、位置44に c1 を示し、検出時刻46に t1 を示す位置情報40を生成することができる。
このケースでは、照合装置2000によって、検出物体20として特定した登録物体についての位置情報40が生成される。照合装置2000は、生成した位置情報40を位置情報記憶装置70に格納する。
<物体情報30と位置情報40との対応付け>
物体識別子32と物体識別子42には、同種類の情報が利用されてもよいし、異なる種類の情報が利用されてもよい。例えば後者の場合、物体識別子32としては、利用登録の際に入力されたパスポート番号などを利用し、物体識別子42としては、携帯端末の識別子などを利用する。この場合、物体情報30には、物体識別子32に加えて、物体識別子42と同種の識別子も含めておく。
例えば利用者が登録装置を利用して利用登録を行うことで、その利用者についての物体情報30が生成されるとする。この場合、利用者は、利用登録の際に、物体識別子42として利用される情報の登録も行う。例えば、物体識別子42として携帯端末の識別子が利用される場合、利用者は、自身が所有する携帯端末の識別子を登録する。こうすることで、物体情報30に、物体識別子42に相当する情報が含まれるようになる。この情報を利用することで、物体情報30と位置情報40とを対応づけることができる。
例えば或る物体情報30についての照合順序を決定する場合、特定部2040は、その物体情報30に示されている物体識別子42に相当する情報を利用して、位置情報40の検索を行う。こうすることで、その物体情報30で特定される登録物体についての位置情報40を取得することができる。
<照合順序の決定>
特定部2040は、各登録物体の位置情報40が示す登録物体の位置と、取得した撮像画像12を生成したカメラ10の位置との関係に基づいて、物体情報30の照合順序を決定する。例えば特定部2040は、カメラ10に近い位置に存在すると推測される登録物体の物体情報30ほど、照合順序を早くする。ただし後述するように、登録物体が移動すべき方向などを考慮することにより、必ずしも、カメラ10に近い位置に存在すると推測される登録物体の物体情報30ほど、照合順序が早くなるわけではない。
例えば特定部2040は、複数の物体情報30それぞれによって表されている登録物体について、その登録物体についての位置情報40を取得し、位置情報40によって示されている登録物体の位置とカメラ10の位置との間の距離を算出する。そして、特定部2040は、算出された距離が小さい登録物体の物体情報30ほど、照合順序を早くする。
位置情報40が示す登録物体の位置とカメラ10の位置とを間の距離を算出する方法は様々である。例えば、登録物体の位置とカメラ10の位置がいずれも座標で表されている場合、登録物体の位置とカメラ10の位置との間の距離は、これらの座標の間の距離として算出することができる。その他にも例えば、登録物体の位置が、無線 LAN のアクセスポイントなどといった電波の送信機の識別子で表されているとする。この場合、登録物体の位置とカメラ10の位置との間の距離は、その登録物体の位置として示されている送信機が、カメラ10から何番目に近い送信機であるかによって表されてもよい。具体的には、カメラ10からn番目に近い送信機とカメラ10との間の距離をnとする(nは自然数)。
ここで、カメラ10からの距離が等しい登録物体が複数あることも考えられる。例えば、2つの登録物体についての位置情報40がいずれも、カメラ10から2番目に近い送信機の識別子を示しているようなケースである。この場合、例えば特定部2040は、検出時刻46がより遅い(現在時刻と検出時刻46との差分がより小さい)位置情報40に対応する登録物体ほど、カメラ10に近いものとして扱ってもよい。これは、検出時刻46が遅い位置情報40ほど情報が正確である(実際の現在位置との誤差が小さい)と考えられるためである。
また、位置情報40に示されている情報が古い場合(検出時刻46と現在時刻との差が大きい場合)、登録物体の実際の現在位置は、位置44によって表される位置から離れてしまっている可能性がある。そこで特定部2040は、位置44、及び検出時刻46と現在時刻との差分に基づいて、登録物体の現在の推定位置を算出してもよい。この場合、特定部2040は、算出した推定位置に基づいて、物体情報30の照合順序を決定する。
例えば特定部2040は、各登録物体について、その登録物体についての位置情報40が生成されてからの経過時間(現在時刻と検出時刻46との差分)に、登録物体の速さを掛けることで、登録物体の推定移動距離を算出する。そして、特定部2040は、登録物体の位置を、登録物体の移動方向に沿って位置44から推定移動距離だけ動かした位置を、その登録物体の推定位置として算出する。
ここで、登録物体の速さと移動方向について説明する。登録物体の速さには、登録物体にかかわらず固定の値が用いられてもよいし、登録物体ごとに異なる値が用いられてもよい。後者の場合、例えば登録物体の速さは、登録物体の属性に基づいて算出される。例えば、性別や年齢層などといった各属性の値に対応づけて、登録物体の速さを定めておく。また、各登録物体の属性値は、物体情報30に含めておく。登録物体の属性値は、過去にその登録物体を撮像することで得られた画像を画像解析することで得てもよいし、利用登録の際に利用者によって入力されてもよい。特定部2040は、或る登録物体の推定位置を算出する際、その登録物体について物体情報30を参照することでその登録物体の属性値を取得し、取得した属性値に対応づけて定められている登録物体の速さを利用する。
その他にも例えば、登録物体の速さは、その登録物体の過去の位置の変化に基づいて算出されてもよい。例えば、各登録物体について位置情報40が更新されていく場合、登録物体の位置44及び検出時刻46の組み合わせを複数用いることで、登録物体の位置の時間変化を把握することができる。そこで特定部2040は、1つの登録物体についてこれまでに生成された複数の位置情報40(すなわち、位置情報40の履歴)を用いて、その登録物体の速さを算出する。
登録物体の推定位置を算出するケースでは、カメラ10が設置されている場所において登録物体が移動すべき方向(以下、既定方向)を予め定めておき、この既定方向を、登録物体の移動方向として扱う。例えば、既定方向は、照合装置2000が運用される施設の構成に基づいて予め定めておく。例えば空港では、保安検査場の入り口以降の移動方向は、搭乗口に向かう方向であると考えられる。
また、特定部2040は、カメラ10の位置と上述した既定方向に基づき、登録物体の照合順序を決めてもよい。具体的には、特定部2040は、カメラ10の位置から既定方向に進んだ場所に位置する各登録物体の照合順序を、カメラ10の位置から既定方向と逆方句に進んだ場所に位置する各登録物体の照合順序よりも早くする。
<<エリアに区切られているケース>>
登録物体が移動する場所を複数のエリアに区分することが考えられる。図5は、登録物体が移動する場所が複数のエリアに分けられているケースを例示する図である。図5は、照合装置2000が利用されている施設内の通路を示している。この通路は、5つのエリア50(50-1から50-5)に分けられている。ここで、照合装置2000によって検出物体20を特定する処理は、各エリアにおいて行われるとする。そのために、各エリアにカメラ10が設けられている。
以下、説明を簡単にするため、S102で取得した撮像画像12を生成したカメラ10が設置されているエリアを、基準エリアと呼ぶ。例えば、照合装置2000がエリア50-3に設置されているカメラ10-3から得られた撮像画像12について、検出物体20を特定する処理を行うとする。この場合、エリア50-3が基準エリアとなる。
このように複数のエリアが設けられている場合、特定部2040は、エリアの順序づけを行い、その順序に基づいて物体情報30の照合順序を決定してもよい。例えば特定部2040は、基準エリアに近いエリア50ほど早い順序を設定する。そして、順序が早いエリアの中に位置する物体情報30ほど、照合順序を早くする。
例えば図5の例において、基準エリアが50-3であるとする。この場合、例えば特定部2040は、基準エリア50-3の中に位置する各登録物体の物体情報30、エリア50-2及びエリア50-4の中に位置する各登録物体の物体情報30、エリア50-1及びエリア50-5の中に位置する各登録物体の物体情報30という順序で、物体情報30を利用する。
ここで、基準エリアからの距離が等しいエリア50が複数存在する場合、特定部2040は、それら複数のエリア50の順序を決定する。例えば前述したように、登録物体が移動すべき方向である既定方向を予め定めておく。特定部2040は、基準エリアからの距離が等しい複数のエリア50について、基準エリアから既定方向に進んだエリア50の順序を、基準エリアから既定方向とは逆に進んだエリア50の順序よりも先にする。例えば、図5の例において、基準エリアがエリア50-3であるとする。エリア50-4の順序は、エリア50-2よりも先になる。また、エリア50-5の順序は、エリア50-1の順序よりも先になる。よって、エリアの順序が、基準エリア、エリア50-4、エリア50-2、エリア50-5、及びエリア50-1という順序となる。
その他にも例えば、特定部2040は、基準エリアから既定方向へ進んだ全てのエリア50の順序をいずれも、基準エリアから既定方向とは逆方向へ進んだ各エリア50の順序よりも早くしてもよい。例えば前述の例では、エリアの順序が、基準エリア、エリア50-4、エリア50-5、エリア50-2、及びエリア50-1という順序となる。
<<<同一エリア内の複数の登録物体について>>>
ここで、同一エリア内に複数の登録物体が位置することがある。この場合、例えば特定部2040は、各登録物体の位置の検出時刻46に基づいて、各登録物体の順序づけを行ってもよい。例えば特定部2040は、検出時刻46がより遅い(検出時刻46が現在時刻により近い)登録物体の物体情報30ほど、照合順序を早くする。
<<<現在エリアの推定>>>
特定部2040は、位置情報40を利用して、登録物体が現在位置するエリアを推定してもよい。具体的には、特定部2040は、各登録物体について、位置44、登録物体の速さ、及び登録物体の移動方向を用いて、登録物体の現在位置を推定する。そして、特定部2040は、その現在位置が含まれるエリアを、登録物体が現在位置するエリアとして扱う。この場合、特定部2040は、各登録物体が位置するエリアとして、推定によって得られたエリアを利用する。なお、検出時刻46等を利用して登録物体の現在位置を推定する方法については、前述した通りである。
<照合について:S110>
特定部2040は、物体情報30が示す画像特徴34と画像特徴22とがマッチするか否かの判定を行う。ここで、画像特徴同士がマッチするか否かの判定を行う具体的な方法には、既存の技術を利用することができる。例えば特定部2040は、画像特徴34と画像特徴22との間の類似度を算出する。そして、その類似度が閾値以上であれば、特定部2040は、これらの画像特徴がマッチすると判定する。一方で、その類似度が閾値未満であれば、特定部2040は、これらの画像特徴がマッチしないと判定する。
<特定の結果について>
特定部2040は、物体情報30が示す画像特徴34と画像特徴22とがマッチしたら、その物体情報30が示す物体識別子32を持つ登録物体として、検出物体20を特定する(S114)。この際、特定部2040は、特定結果を表す情報(以下、出力情報)を出力してもよい。ここで、出力情報の出力態様は様々である。例えば特定部2040は、出力情報を照合装置2000に接続されたディスプレイ装置に表示させたり、他の装置に送信したり、記憶装置に格納したりする。
出力情報の内容は様々である。例えば特定部2040は、検出物体20として特定された登録物体の物体情報30を、出力情報として出力する。この際、特定部2040は、撮像画像12をさらに出力してもよい。こうすることで、照合装置2000のユーザ(例えば、施設の管理者や警備員など)は、検出物体20を含む撮像画像12と物体情報30とを対応づけて把握することができる。なお、物体情報30の全てを出力する必要はなく、その一部のみが出力されてもよい。物体情報30に含まれる情報のうち、どの情報を出力情報に含めるのかについては、予め設定しておく。
ここで、物体情報30には、登録物体の画像特徴に加え、その登録物体の画像を含めておくことが好適である。この場合、例えば特定部2040は、物体情報30に含まれる登録物体の画像と共に、撮像画像12を出力する。こうすることで、照合装置2000のユーザは、検出物体20の画像と、その検出物体20と一致すると判定された登録物体の画像とを視覚的に比較することが可能となる。
撮像画像12から複数の物体が検出される場合、照合装置2000は、出力情報に含める撮像画像12において、検出物体20として扱った物体について強調表示を行う(例えば枠で囲む)ことが好適である。こうすることで、照合装置2000のユーザが、検出物体20と一致すると判定された登録物体を容易に把握することができる。
なお、照合装置2000は、検出物体20を特定できなかった場合(画像特徴22とマッチする画像特徴34が無かった場合)、その旨を表す出力情報を出力することが好適である。この出力情報には、検出物体20を特定できなかった旨、及びその検出物体20を含む撮像画像12を含める。こうすることで、照合装置2000のユーザは、照合装置2000によって特定できなかった物体を視覚的に把握することができる。
例えば事前に施設の利用登録が行われる場合、照合装置2000によって特定できなかった物体は、事前の利用登録が行われていない人物などである蓋然性が高い。そのため、施設のセキュリティ上、注意を要する物体であると言える。よって、上述した出力情報を提供することで、要注意の人物等を容易に把握することができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出部と、
前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定部と、を有し、
各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、
前記特定部は、各前記登録物体の位置情報に基づいて各前記物体情報の照合順序を決定し、前記決定した照合順序が早い前記物体情報から順に、その物体情報に含まれる画像特徴を前記抽出された画像特徴と照合することで、前記検出物体の特定を行う、照合装置。
2. 前記登録物体が移動可能な場所が複数のエリアを含み、
前記登録物体の前記位置情報は、その登録物体が検出されたエリアを示し、
前記特定部は、前記登録物体の前記位置情報に基づいて定まるその登録物体が位置するエリアと、前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、1.に記載の照合装置。
3. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記特定部は、前記カメラが設置されているエリアから前記既定方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序よりも早くする、2.に記載の照合装置。
4. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定部は、前記位置情報に同一のエリアが示されている複数の前記登録物体それぞれの前記物体情報の照合順序を、前記位置情報に示されている検出時刻が遅いほど早くする、2.に記載の照合装置。
5. 前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体が現在位置するエリアを推定し、前記推定したエリアと前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、2.乃至4.いずれか一つに記載の照合装置。
6. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記カメラが設置されている場所から前記既定方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されている場所から前記既定方向とは逆の方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序よりも早くする、1.に記載の照合装置。
7. 前記特定部は、各前記登録物体の位置情報を用いて、前記登録物体の位置と前記カメラの位置との間の距離を算出し、算出された距離が小さい前記登録物体の前記物体情報ほど、照合順序を早くする、1.に記載の照合装置。
8. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体の現在位置を推定し、前記推定した現在位置と前記カメラの位置との間の距離を算出する、7.に記載の照合装置。
9. 前記特定部は、前記登録物体の速さを、その登録物体についてこれまでに生成された複数の前記位置情報を用いて算出する、5.又は8.に記載の制御方法。
10. コンピュータによって実行される制御方法であって、
カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出ステップと、
前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定ステップと、を有し、
各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、
前記特定ステップにおいて、各前記登録物体の位置情報に基づいて各前記物体情報の照合順序を決定し、前記決定した照合順序が早い前記物体情報から順に、その物体情報に含まれる画像特徴を前記抽出された画像特徴と照合することで、前記検出物体の特定を行う、制御方法。
11. 前記登録物体が移動可能な場所が複数のエリアを含み、
前記登録物体の前記位置情報は、その登録物体が検出されたエリアを示し、
前記特定ステップにおいて、前記登録物体の前記位置情報に基づいて定まるその登録物体が位置するエリアと、前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、10.に記載の制御方法。
12. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記特定ステップにおいて、前記カメラが設置されているエリアから前記既定方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序よりも早くする、11.に記載の制御方法。
13. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定ステップにおいて、前記位置情報に同一のエリアが示されている複数の前記登録物体それぞれの前記物体情報の照合順序を、前記位置情報に示されている検出時刻が遅いほど早くする、11.に記載の制御方法。
14. 前記特定ステップにおいて、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体が現在位置するエリアを推定し、前記推定したエリアと前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、11.乃至13.いずれか一つに記載の制御方法。
15. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記カメラが設置されている場所から前記既定方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されている場所から前記既定方向とは逆の方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序よりも早くする、10.に記載の制御方法。
16. 前記特定ステップにおいて、各前記登録物体の位置情報を用いて、前記登録物体の位置と前記カメラの位置との間の距離を算出し、算出された距離が小さい前記登録物体の前記物体情報ほど、照合順序を早くする、10.に記載の制御方法。
17. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定ステップにおいて、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体の現在位置を推定し、前記推定した現在位置と前記カメラの位置との間の距離を算出する、16.に記載の制御方法。
18. 前記特定ステップにおいて、前記登録物体の速さを、その登録物体についてこれまでに生成された複数の前記位置情報を用いて算出する、14.又は17.に記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。

Claims (10)

  1. カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出部と、
    前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定部と、を有し、
    各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、前記登録物体毎に前記物体情報は物体情報記憶装置に記憶されており、
    前記特定部は、前記物体情報記憶装置に記憶されている前記物体情報の中から、前記検出物体との照合に利用する前記物体情報の順序を決定する際、各前記登録物体の位置情報を取得し、取得した各前記登録物体の前記位置情報に基づいて、前記検出物体との照合に利用する前記物体情報の順序を決定し、前記決定した序が早い前記物体情報から順に、その物体情報に含まれる前記画像特徴を用いて前記検出物体の前記画像特徴と照合することで、前記検出物体の特定を行う、照合装置。
  2. 前記登録物体が移動可能な場所が複数のエリアを含み、
    前記登録物体の前記位置情報は、その登録物体が検出されたエリアを示し、
    前記特定部は、前記物体情報記憶装置に記憶されている前記物体情報の中から、各前記登録物体が検出された前記エリア毎に、そのエリアに位置する各前記登録物体の前記物体情報を特定し、
    前記特定部は、前記登録物体の前記位置情報に基づいて定まるその登録物体が位置する前記エリアと、前記カメラが設置されているエリアとの近さに基づいて、前記検出物体との照合に利用する前記物体情報に対応する前記エリアの順序を決定し、前記決定した順序が早い前記エリアから順に、そのエリアに位置すると特定された前記登録物体の前記物体情報に含まれる前記画像特徴を用いて前記検出物体の前記画像特徴と照合することで、前記検出物体の特定を行う、請求項1に記載の照合装置。
  3. 前記カメラが設置されている場所において、複数の前記エリアについて前記登録物体が移動すべき既定方向が定められており、
    前記特定部は、前記カメラが設置されているエリアから前記既定方向へ進んだエリアを前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアより早い順序に決定し、前記カメラが設置されているエリアから前記既定方向へ進んだエリアに位置すると特定された各前記登録物体の前記エリアに対応する前記物体情報、前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアに位置すると特定された各前記登録物体の前記エリアに対応する前記物体情報りも早く前記検出物体との照合に利用する、請求項2に記載の照合装置。
  4. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
    前記特定部は、前記位置情報に同一のエリアが示されている複数の前記登録物体それぞれの前記物体情報を前記検出物体との照合に利用する前記順序を、前記位置情報に示されている検出時刻が遅いほど早くする、請求項2に記載の照合装置。
  5. 前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体が現在位置するエリアを推定し、前記推定したエリアと前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報を前記検出物体との照合に利用する前記順序を決定する、請求項2乃至4いずれか一項に記載の照合装置。
  6. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
    前記カメラが設置されている場所から前記既定方向へ進んだ場所に位置すると特定された各前記登録物体の前記物体情報、前記カメラが設置されている場所から前記既定方向とは逆の方向へ進んだ場所に位置すると特定された各前記登録物体の前記物体情報りも早く前記検出物体との照合に利用する、請求項1に記載の照合装置。
  7. 前記特定部は、各前記登録物体の位置情報を用いて、前記登録物体の位置と前記カメラの位置との間の距離を算出し、算出された距離が小さい前記登録物体の前記物体情報ほど、前記検出物体との照合に利用する前記順序を早くする、請求項1に記載の照合装置。
  8. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
    前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体の現在位置を推定し、前記推定した現在位置と前記カメラの位置との間の距離を算出する、請求項7に記載の照合装置。
  9. コンピュータによって実行される制御方法であって、
    カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出ステップと、
    前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定ステップと、を有し、
    各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、前記登録物体毎に前記物体情報は物体情報記憶装置に記憶されており、
    前記特定ステップにおいて、前記物体情報記憶装置に記憶されている前記物体情報の中から、前記検出物体との照合に利用する前記物体情報の順序を決定する際、各前記登録物体の位置情報を取得し、取得した各前記登録物体の前記位置情報に基づいて、前記検出物体との照合に利用する前記物体情報の順序を決定し、前記決定した序が早い前記物体情報から順に、その物体情報に含まれる前記画像特徴を用いて前記検出物体の前記画像特徴と照合することで、前記検出物体の特定を行う、制御方法。
  10. 請求項9に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
JP2021508535A 2019-03-27 2019-03-27 照合装置、制御方法、及びプログラム Active JP7218795B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/013243 WO2020194585A1 (ja) 2019-03-27 2019-03-27 照合装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020194585A1 JPWO2020194585A1 (ja) 2020-10-01
JP7218795B2 true JP7218795B2 (ja) 2023-02-07

Family

ID=72609665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508535A Active JP7218795B2 (ja) 2019-03-27 2019-03-27 照合装置、制御方法、及びプログラム

Country Status (5)

Country Link
US (1) US20220189046A1 (ja)
JP (1) JP7218795B2 (ja)
AR (1) AR118429A1 (ja)
TW (1) TW202040422A (ja)
WO (1) WO2020194585A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158678A (ja) 2006-12-21 2008-07-10 Toshiba Corp 人物認証装置および人物認証方法および入退場管理システム
JP2010079609A (ja) 2008-09-26 2010-04-08 Brother Ind Ltd 個人認証装置、個人認証プログラム、および個人認証装置を備えたインターホンシステム
JP2014241578A (ja) 2013-05-17 2014-12-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
WO2017146160A1 (ja) 2016-02-26 2017-08-31 日本電気株式会社 顔照合システム、顔照合方法、及び記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015978A1 (en) * 2012-07-16 2014-01-16 Cubic Corporation Barrierless gate
JP2018186397A (ja) * 2017-04-26 2018-11-22 キヤノン株式会社 情報処理装置、映像監視システム、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158678A (ja) 2006-12-21 2008-07-10 Toshiba Corp 人物認証装置および人物認証方法および入退場管理システム
JP2010079609A (ja) 2008-09-26 2010-04-08 Brother Ind Ltd 個人認証装置、個人認証プログラム、および個人認証装置を備えたインターホンシステム
JP2014241578A (ja) 2013-05-17 2014-12-25 キヤノン株式会社 カメラシステム及びカメラ制御装置
WO2017146160A1 (ja) 2016-02-26 2017-08-31 日本電気株式会社 顔照合システム、顔照合方法、及び記録媒体

Also Published As

Publication number Publication date
TW202040422A (zh) 2020-11-01
JPWO2020194585A1 (ja) 2020-10-01
WO2020194585A1 (ja) 2020-10-01
AR118429A1 (es) 2021-10-06
US20220189046A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
US10643062B2 (en) Facial recognition pet identifying system
JP5994397B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN110363076B (zh) 人员信息关联方法、装置及终端设备
CN111238466B (zh) 一种室内导航方法、装置、介质及终端设备
CN106303599B (zh) 一种信息处理方法、系统及服务器
US20210287472A1 (en) Attendance management system and method, and electronic device
WO2016199662A1 (ja) 画像情報処理システム
US11875569B2 (en) Smart video surveillance system using a neural network engine
CN109829381A (zh) 一种犬只识别管理方法、装置、系统及存储介质
US9854208B2 (en) System and method for detecting an object of interest
JP2012088944A5 (ja)
CN108846912A (zh) 考勤方法、终端及服务器
CN113962673B (zh) 信息查验系统、移动终端、查验机具和信息查验方法
JP6645655B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN106255966A (zh) 使用店面辨识来识别待考察实体
CN109189960A (zh) 信息获取方法、信息获取装置及计算机存储介质
Radaelli et al. Using cameras to improve wi-fi based indoor positioning
JP2017151832A (ja) 待ち時間算出システム
US20230410220A1 (en) Information processing apparatus, control method, and program
JP7218795B2 (ja) 照合装置、制御方法、及びプログラム
CN112926491A (zh) 用户识别方法、装置、电子设备及存储介质
CN113283410B (zh) 基于数据关联分析的人脸增强识别方法、装置和设备
US11659273B2 (en) Information processing apparatus, information processing method, and non-transitory storage medium
CN106547881A (zh) 在电子设备中管理图片的方法和设备
JPWO2022014061A5 (ja) 価値譲渡装置、価値譲渡システム、価値譲渡方法及び価値譲渡プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230109

R151 Written notification of patent or utility model registration

Ref document number: 7218795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151