JP7218795B2 - 照合装置、制御方法、及びプログラム - Google Patents
照合装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7218795B2 JP7218795B2 JP2021508535A JP2021508535A JP7218795B2 JP 7218795 B2 JP7218795 B2 JP 7218795B2 JP 2021508535 A JP2021508535 A JP 2021508535A JP 2021508535 A JP2021508535 A JP 2021508535A JP 7218795 B2 JP7218795 B2 JP 7218795B2
- Authority
- JP
- Japan
- Prior art keywords
- registered
- information
- detected
- area
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/36—User authentication by graphic or iconic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Description
各登録物体の物体情報は、登録物体の画像特徴を含む。
特定部は、各登録物体の位置情報に基づいて各物体情報の照合順序を決定し、決定した照合順序が早い物体情報から順に、その物体情報に含まれる画像特徴を抽出された画像特徴と照合することで、検出物体の特定を行う。
各登録物体の物体情報は、登録物体の画像特徴を含む。
特定ステップにおいて、各登録物体の位置情報に基づいて各物体情報の照合順序を決定し、決定した照合順序が早い物体情報から順に、その物体情報に含まれる画像特徴を抽出された画像特徴と照合することで、検出物体の特定を行う。
図1は、本実施形態の照合装置2000の動作の概要を例示する図である。図1は、照合装置2000の動作についての理解を容易にするための概念的な説明を表す図であり、照合装置2000の動作を具体的に限定するものではない。
本実施形態の照合装置2000によれば、各登録物体の位置情報40に基づく照合順序で、物体情報30に示される画像特徴34と画像特徴22とを照合することにより、検出物体20の特定を行う。このように登録物体の位置を考慮した順序で照合行うことにより、検出物体20と一致する確率が高いと推測される登録物体の物体情報30が、より早く照合に利用される。そのため、検出物体20の特定に要する時間を短くすることができる。
図2は、実施形態1の照合装置2000の構成を例示する図である。照合装置2000は、抽出部2020及び特定部2040を有する。抽出部2020は、カメラ10によって生成された撮像画像12から画像特徴22(検出物体20の画像特徴)を抽出する。特定部2040は、画像特徴22及び複数の物体情報30を利用して、検出物体20の特定を行う。ここで、特定部2040は、各登録物体の位置情報40に基づいて、物体情報30の照合順序を決定する。そして、特定部2040は、決定した照合順序が早い物体情報30から順に、その物体情報30に示されている画像特徴34を画像特徴22と照合することにより、検出物体20の特定を行う。
照合装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、照合装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
カメラ10は、撮像を行ってその結果を表す画像データ(撮像画像12)を生成する機能を有する任意の装置である。カメラ10は、動画を生成するビデオカメラであってもよいし、静止画を生成するスチルカメラであってもよい。カメラ10が動画を生成する場合、撮像画像12は、その動画を構成する動画フレームである。
物体情報記憶装置60及び位置情報記憶装置70は、照合装置2000からアクセス可能な任意の記憶装置である。なお、物体情報30と位置情報40は、1つの記憶装置に記憶されてもよい。すなわち、1つの記憶装置に、物体情報記憶装置60としての機能と位置情報記憶装置70としての機能の双方を持たせてもよい。ここで、1つの記憶装置に物体情報30と位置情報40の双方を記憶させる場合、物体情報30と位置情報40は、これらを併合した1つの情報(例えば、1つのテーブル)で実現されてもよいし、個々の情報(例えば、それぞれ異なるテーブル)で実現されてもよい。
図4は、実施形態1の照合装置2000によって実行される処理の流れを例示するフローチャートである。抽出部2020は撮像画像12を取得する(S102)。抽出部2020は、撮像画像12から画像特徴22を抽出する(S104)。
抽出部2020は、カメラ10から撮像画像12を取得する(S102)。ここで、カメラによって生成された撮像画像を取得する技術には、既存の技術を利用することができる。例えばカメラ10は、新たな撮像画像12を生成する度に、その撮像画像12を照合装置2000へ送信するように構成されている。照合装置2000は、カメラ10から送信された撮像画像12を受信することにより、撮像画像12を取得する。
抽出部2020は、撮像画像12から画像特徴22を抽出する(S104)。その前提として、抽出部2020は、撮像画像12から物体を検出する処理を行う。この処理によって検出された物体を、検出物体20と呼ぶ。なお、画像から物体を検出する具体的な技術については、既存の技術を利用することができる。例えば抽出部2020は、撮像画像12から、背景領域に含まれない画像領域(いわゆる前景領域)を検出し、検出した前景領域を検出物体20として検出する。
物体情報30は、登録物体の識別子とその登録物体の画像特徴とを対応づけた情報である。登録物体について物体情報30を生成する方法は様々である。例えばカメラ10が施設に設置される場合、その施設の利用者が、その施設の利用登録を事前に行うようにする。以下、利用登録に利用される装置を、登録装置と呼ぶ。登録装置は、以下に示す利用登録の結果に基づいて物体情報30を生成し、生成した物体情報30を物体情報記憶装置60に格納する。
位置情報40は、登録物体の識別子に対応づけて登録物体の位置を示す。また、位置情報40は、その登録物体をその位置で検出した時刻(検出時刻46)をさらに示してもよい。
物体識別子32と物体識別子42には、同種類の情報が利用されてもよいし、異なる種類の情報が利用されてもよい。例えば後者の場合、物体識別子32としては、利用登録の際に入力されたパスポート番号などを利用し、物体識別子42としては、携帯端末の識別子などを利用する。この場合、物体情報30には、物体識別子32に加えて、物体識別子42と同種の識別子も含めておく。
特定部2040は、各登録物体の位置情報40が示す登録物体の位置と、取得した撮像画像12を生成したカメラ10の位置との関係に基づいて、物体情報30の照合順序を決定する。例えば特定部2040は、カメラ10に近い位置に存在すると推測される登録物体の物体情報30ほど、照合順序を早くする。ただし後述するように、登録物体が移動すべき方向などを考慮することにより、必ずしも、カメラ10に近い位置に存在すると推測される登録物体の物体情報30ほど、照合順序が早くなるわけではない。
登録物体が移動する場所を複数のエリアに区分することが考えられる。図5は、登録物体が移動する場所が複数のエリアに分けられているケースを例示する図である。図5は、照合装置2000が利用されている施設内の通路を示している。この通路は、5つのエリア50(50-1から50-5)に分けられている。ここで、照合装置2000によって検出物体20を特定する処理は、各エリアにおいて行われるとする。そのために、各エリアにカメラ10が設けられている。
ここで、同一エリア内に複数の登録物体が位置することがある。この場合、例えば特定部2040は、各登録物体の位置の検出時刻46に基づいて、各登録物体の順序づけを行ってもよい。例えば特定部2040は、検出時刻46がより遅い(検出時刻46が現在時刻により近い)登録物体の物体情報30ほど、照合順序を早くする。
特定部2040は、位置情報40を利用して、登録物体が現在位置するエリアを推定してもよい。具体的には、特定部2040は、各登録物体について、位置44、登録物体の速さ、及び登録物体の移動方向を用いて、登録物体の現在位置を推定する。そして、特定部2040は、その現在位置が含まれるエリアを、登録物体が現在位置するエリアとして扱う。この場合、特定部2040は、各登録物体が位置するエリアとして、推定によって得られたエリアを利用する。なお、検出時刻46等を利用して登録物体の現在位置を推定する方法については、前述した通りである。
特定部2040は、物体情報30が示す画像特徴34と画像特徴22とがマッチするか否かの判定を行う。ここで、画像特徴同士がマッチするか否かの判定を行う具体的な方法には、既存の技術を利用することができる。例えば特定部2040は、画像特徴34と画像特徴22との間の類似度を算出する。そして、その類似度が閾値以上であれば、特定部2040は、これらの画像特徴がマッチすると判定する。一方で、その類似度が閾値未満であれば、特定部2040は、これらの画像特徴がマッチしないと判定する。
特定部2040は、物体情報30が示す画像特徴34と画像特徴22とがマッチしたら、その物体情報30が示す物体識別子32を持つ登録物体として、検出物体20を特定する(S114)。この際、特定部2040は、特定結果を表す情報(以下、出力情報)を出力してもよい。ここで、出力情報の出力態様は様々である。例えば特定部2040は、出力情報を照合装置2000に接続されたディスプレイ装置に表示させたり、他の装置に送信したり、記憶装置に格納したりする。
1. カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出部と、
前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定部と、を有し、
各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、
前記特定部は、各前記登録物体の位置情報に基づいて各前記物体情報の照合順序を決定し、前記決定した照合順序が早い前記物体情報から順に、その物体情報に含まれる画像特徴を前記抽出された画像特徴と照合することで、前記検出物体の特定を行う、照合装置。
2. 前記登録物体が移動可能な場所が複数のエリアを含み、
前記登録物体の前記位置情報は、その登録物体が検出されたエリアを示し、
前記特定部は、前記登録物体の前記位置情報に基づいて定まるその登録物体が位置するエリアと、前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、1.に記載の照合装置。
3. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記特定部は、前記カメラが設置されているエリアから前記既定方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序よりも早くする、2.に記載の照合装置。
4. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定部は、前記位置情報に同一のエリアが示されている複数の前記登録物体それぞれの前記物体情報の照合順序を、前記位置情報に示されている検出時刻が遅いほど早くする、2.に記載の照合装置。
5. 前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体が現在位置するエリアを推定し、前記推定したエリアと前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、2.乃至4.いずれか一つに記載の照合装置。
6. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記カメラが設置されている場所から前記既定方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されている場所から前記既定方向とは逆の方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序よりも早くする、1.に記載の照合装置。
7. 前記特定部は、各前記登録物体の位置情報を用いて、前記登録物体の位置と前記カメラの位置との間の距離を算出し、算出された距離が小さい前記登録物体の前記物体情報ほど、照合順序を早くする、1.に記載の照合装置。
8. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体の現在位置を推定し、前記推定した現在位置と前記カメラの位置との間の距離を算出する、7.に記載の照合装置。
9. 前記特定部は、前記登録物体の速さを、その登録物体についてこれまでに生成された複数の前記位置情報を用いて算出する、5.又は8.に記載の制御方法。
10. コンピュータによって実行される制御方法であって、
カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出ステップと、
前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定ステップと、を有し、
各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、
前記特定ステップにおいて、各前記登録物体の位置情報に基づいて各前記物体情報の照合順序を決定し、前記決定した照合順序が早い前記物体情報から順に、その物体情報に含まれる画像特徴を前記抽出された画像特徴と照合することで、前記検出物体の特定を行う、制御方法。
11. 前記登録物体が移動可能な場所が複数のエリアを含み、
前記登録物体の前記位置情報は、その登録物体が検出されたエリアを示し、
前記特定ステップにおいて、前記登録物体の前記位置情報に基づいて定まるその登録物体が位置するエリアと、前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、10.に記載の制御方法。
12. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記特定ステップにおいて、前記カメラが設置されているエリアから前記既定方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアに位置する各前記登録物体の前記物体情報の照合順序よりも早くする、11.に記載の制御方法。
13. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定ステップにおいて、前記位置情報に同一のエリアが示されている複数の前記登録物体それぞれの前記物体情報の照合順序を、前記位置情報に示されている検出時刻が遅いほど早くする、11.に記載の制御方法。
14. 前記特定ステップにおいて、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体が現在位置するエリアを推定し、前記推定したエリアと前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報の照合順序を決定する、11.乃至13.いずれか一つに記載の制御方法。
15. 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記カメラが設置されている場所から前記既定方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序を、前記カメラが設置されている場所から前記既定方向とは逆の方向へ進んだ場所に位置する各前記登録物体の前記物体情報の照合順序よりも早くする、10.に記載の制御方法。
16. 前記特定ステップにおいて、各前記登録物体の位置情報を用いて、前記登録物体の位置と前記カメラの位置との間の距離を算出し、算出された距離が小さい前記登録物体の前記物体情報ほど、照合順序を早くする、10.に記載の制御方法。
17. 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定ステップにおいて、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体の現在位置を推定し、前記推定した現在位置と前記カメラの位置との間の距離を算出する、16.に記載の制御方法。
18. 前記特定ステップにおいて、前記登録物体の速さを、その登録物体についてこれまでに生成された複数の前記位置情報を用いて算出する、14.又は17.に記載の制御方法。
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Claims (10)
- カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出部と、
前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定部と、を有し、
各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、前記登録物体毎に前記物体情報は物体情報記憶装置に記憶されており、
前記特定部は、前記物体情報記憶装置に記憶されている前記物体情報の中から、前記検出物体との照合に利用する前記物体情報の順序を決定する際、各前記登録物体の位置情報を取得し、取得した各前記登録物体の前記位置情報に基づいて、前記検出物体との照合に利用する前記物体情報の順序を決定し、前記決定した順序が早い前記物体情報から順に、その物体情報に含まれる前記画像特徴を用いて前記検出物体の前記画像特徴と照合することで、前記検出物体の特定を行う、照合装置。 - 前記登録物体が移動可能な場所が複数のエリアを含み、
前記登録物体の前記位置情報は、その登録物体が検出されたエリアを示し、
前記特定部は、前記物体情報記憶装置に記憶されている前記物体情報の中から、各前記登録物体が検出された前記エリア毎に、そのエリアに位置する各前記登録物体の前記物体情報を特定し、
前記特定部は、前記登録物体の前記位置情報に基づいて定まるその登録物体が位置する前記エリアと、前記カメラが設置されているエリアとの近さに基づいて、前記検出物体との照合に利用する前記物体情報に対応する前記エリアの順序を決定し、前記決定した順序が早い前記エリアから順に、そのエリアに位置すると特定された前記登録物体の前記物体情報に含まれる前記画像特徴を用いて前記検出物体の前記画像特徴と照合することで、前記検出物体の特定を行う、請求項1に記載の照合装置。 - 前記カメラが設置されている場所において、複数の前記エリアについて前記登録物体が移動すべき既定方向が定められており、
前記特定部は、前記カメラが設置されているエリアから前記既定方向へ進んだエリアを前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアより早い順序に決定し、前記カメラが設置されているエリアから前記既定方向へ進んだエリアに位置すると特定された各前記登録物体の前記エリアに対応する前記物体情報を、前記カメラが設置されているエリアから前記既定方向と逆方向へ進んだエリアに位置すると特定された各前記登録物体の前記エリアに対応する前記物体情報よりも早く前記検出物体との照合に利用する、請求項2に記載の照合装置。 - 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定部は、前記位置情報に同一のエリアが示されている複数の前記登録物体それぞれの前記物体情報を前記検出物体との照合に利用する前記順序を、前記位置情報に示されている検出時刻が遅いほど早くする、請求項2に記載の照合装置。 - 前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体が現在位置するエリアを推定し、前記推定したエリアと前記カメラが設置されているエリアとの近さに基づいて、各前記物体情報を前記検出物体との照合に利用する前記順序を決定する、請求項2乃至4いずれか一項に記載の照合装置。
- 前記カメラが設置されている場所において、前記登録物体が移動すべき既定方向が定められており、
前記カメラが設置されている場所から前記既定方向へ進んだ場所に位置すると特定された各前記登録物体の前記物体情報を、前記カメラが設置されている場所から前記既定方向とは逆の方向へ進んだ場所に位置すると特定された各前記登録物体の前記物体情報よりも早く前記検出物体との照合に利用する、請求項1に記載の照合装置。 - 前記特定部は、各前記登録物体の位置情報を用いて、前記登録物体の位置と前記カメラの位置との間の距離を算出し、算出された距離が小さい前記登録物体の前記物体情報ほど、前記検出物体との照合に利用する前記順序を早くする、請求項1に記載の照合装置。
- 前記登録物体の前記位置情報は、その登録物体が検出された位置及びその検出時刻を示し、
前記特定部は、前記登録物体の前記位置情報によって示される位置及び検出時刻、並びにその登録物体の速さに基づいて、その登録物体の現在位置を推定し、前記推定した現在位置と前記カメラの位置との間の距離を算出する、請求項7に記載の照合装置。 - コンピュータによって実行される制御方法であって、
カメラによって生成された撮像画像を取得し、前記取得した撮像画像から検出された検出物体の画像特徴を抽出する抽出ステップと、
前記抽出された画像特徴、及び複数の登録物体それぞれの物体情報を利用して、前記検出物体の特定を行う特定ステップと、を有し、
各前記登録物体の前記物体情報は、登録物体の画像特徴を含み、前記登録物体毎に前記物体情報は物体情報記憶装置に記憶されており、
前記特定ステップにおいて、前記物体情報記憶装置に記憶されている前記物体情報の中から、前記検出物体との照合に利用する前記物体情報の順序を決定する際、各前記登録物体の位置情報を取得し、取得した各前記登録物体の前記位置情報に基づいて、前記検出物体との照合に利用する前記物体情報の順序を決定し、前記決定した順序が早い前記物体情報から順に、その物体情報に含まれる前記画像特徴を用いて前記検出物体の前記画像特徴と照合することで、前記検出物体の特定を行う、制御方法。 - 請求項9に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/013243 WO2020194585A1 (ja) | 2019-03-27 | 2019-03-27 | 照合装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020194585A1 JPWO2020194585A1 (ja) | 2020-10-01 |
JP7218795B2 true JP7218795B2 (ja) | 2023-02-07 |
Family
ID=72609665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508535A Active JP7218795B2 (ja) | 2019-03-27 | 2019-03-27 | 照合装置、制御方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220189046A1 (ja) |
JP (1) | JP7218795B2 (ja) |
AR (1) | AR118429A1 (ja) |
TW (1) | TW202040422A (ja) |
WO (1) | WO2020194585A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158678A (ja) | 2006-12-21 | 2008-07-10 | Toshiba Corp | 人物認証装置および人物認証方法および入退場管理システム |
JP2010079609A (ja) | 2008-09-26 | 2010-04-08 | Brother Ind Ltd | 個人認証装置、個人認証プログラム、および個人認証装置を備えたインターホンシステム |
JP2014241578A (ja) | 2013-05-17 | 2014-12-25 | キヤノン株式会社 | カメラシステム及びカメラ制御装置 |
WO2017146160A1 (ja) | 2016-02-26 | 2017-08-31 | 日本電気株式会社 | 顔照合システム、顔照合方法、及び記録媒体 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140015978A1 (en) * | 2012-07-16 | 2014-01-16 | Cubic Corporation | Barrierless gate |
JP2018186397A (ja) * | 2017-04-26 | 2018-11-22 | キヤノン株式会社 | 情報処理装置、映像監視システム、情報処理方法及びプログラム |
-
2019
- 2019-03-27 WO PCT/JP2019/013243 patent/WO2020194585A1/ja active Application Filing
- 2019-03-27 US US17/439,928 patent/US20220189046A1/en active Pending
- 2019-03-27 JP JP2021508535A patent/JP7218795B2/ja active Active
-
2020
- 2020-03-03 TW TW109106875A patent/TW202040422A/zh unknown
- 2020-03-18 AR ARP200100759A patent/AR118429A1/es unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158678A (ja) | 2006-12-21 | 2008-07-10 | Toshiba Corp | 人物認証装置および人物認証方法および入退場管理システム |
JP2010079609A (ja) | 2008-09-26 | 2010-04-08 | Brother Ind Ltd | 個人認証装置、個人認証プログラム、および個人認証装置を備えたインターホンシステム |
JP2014241578A (ja) | 2013-05-17 | 2014-12-25 | キヤノン株式会社 | カメラシステム及びカメラ制御装置 |
WO2017146160A1 (ja) | 2016-02-26 | 2017-08-31 | 日本電気株式会社 | 顔照合システム、顔照合方法、及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
TW202040422A (zh) | 2020-11-01 |
JPWO2020194585A1 (ja) | 2020-10-01 |
WO2020194585A1 (ja) | 2020-10-01 |
AR118429A1 (es) | 2021-10-06 |
US20220189046A1 (en) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643062B2 (en) | Facial recognition pet identifying system | |
JP5994397B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN110363076B (zh) | 人员信息关联方法、装置及终端设备 | |
CN111238466B (zh) | 一种室内导航方法、装置、介质及终端设备 | |
CN106303599B (zh) | 一种信息处理方法、系统及服务器 | |
US20210287472A1 (en) | Attendance management system and method, and electronic device | |
WO2016199662A1 (ja) | 画像情報処理システム | |
US11875569B2 (en) | Smart video surveillance system using a neural network engine | |
CN109829381A (zh) | 一种犬只识别管理方法、装置、系统及存储介质 | |
US9854208B2 (en) | System and method for detecting an object of interest | |
JP2012088944A5 (ja) | ||
CN108846912A (zh) | 考勤方法、终端及服务器 | |
CN113962673B (zh) | 信息查验系统、移动终端、查验机具和信息查验方法 | |
JP6645655B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN106255966A (zh) | 使用店面辨识来识别待考察实体 | |
CN109189960A (zh) | 信息获取方法、信息获取装置及计算机存储介质 | |
Radaelli et al. | Using cameras to improve wi-fi based indoor positioning | |
JP2017151832A (ja) | 待ち時間算出システム | |
US20230410220A1 (en) | Information processing apparatus, control method, and program | |
JP7218795B2 (ja) | 照合装置、制御方法、及びプログラム | |
CN112926491A (zh) | 用户识别方法、装置、电子设备及存储介质 | |
CN113283410B (zh) | 基于数据关联分析的人脸增强识别方法、装置和设备 | |
US11659273B2 (en) | Information processing apparatus, information processing method, and non-transitory storage medium | |
CN106547881A (zh) | 在电子设备中管理图片的方法和设备 | |
JPWO2022014061A5 (ja) | 価値譲渡装置、価値譲渡システム、価値譲渡方法及び価値譲渡プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7218795 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |