JP7314959B2 - 人物認証装置、制御方法、及びプログラム - Google Patents
人物認証装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7314959B2 JP7314959B2 JP2020563040A JP2020563040A JP7314959B2 JP 7314959 B2 JP7314959 B2 JP 7314959B2 JP 2020563040 A JP2020563040 A JP 2020563040A JP 2020563040 A JP2020563040 A JP 2020563040A JP 7314959 B2 JP7314959 B2 JP 7314959B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- image sequence
- image
- matching
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 45
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000005021 gait Effects 0.000 claims description 74
- 239000000284 extract Substances 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Hardware Design (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Description
<概要>
図1は、本実施形態に係る人物認証装置20の概要を例示する図である。図1は、人物認証装置20の理解を容易にするための例示であり、人物認証装置20の内容を限定するものではない。
本実施形態では、所定の時系列操作によって、第1画像シーケンス40から1つ以上の第2画像シーケンス50が生成され、いずれか2つ以上の画像シーケンスそれぞれから、人物の歩容特徴が抽出される。そして、抽出された複数の歩容特徴と、照合データベース30に記憶されている照合特徴とを比較することで、人物の認証が行われる。このように、人物認証装置20では、1つの画像シーケンスに基づいて複数の画像シーケンスが得られ、各画像シーケンスから得られる人物の歩容特徴を用いて人物認証が行われるため、カメラ10から得られる画像シーケンスのみを用いて人物認証を行うケースと比較し、人物認証の精度を高くすることができる。
図2は、人物認証装置20の機能構成を例示するブロック図である。人物認証装置20は、生成部22、特徴抽出部23、及び照合部24を有する。生成部22は、第1画像シーケンス40に対して所定の時系列操作を加えることで1つ以上の第2画像シーケンス50を生成する。特徴抽出部23は、第1画像シーケンス40及び第2画像シーケンス50のうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する。照合部24は、抽出した複数の歩容特徴と、照合データベース30に記憶されている照合特徴とを比較することにより、人物認証を行う。
図3は、人物認証装置20を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)やサーバマシンなどの据え置き型の計算機である。その他にも例えば、計算機1000は、スマートフォンやタブレット端末などの可搬型の計算機である。なお、計算機1000は、人物認証装置20を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
カメラ10は、繰り返し撮像を行って時系列の画像42を生成することにより、第1画像シーケンス40を生成する任意のカメラである。例えばカメラ10は、特定の施設や道路などを監視するために設けられている監視カメラである。カメラ10の設置場所は、屋内であってもよいし、屋外であってもよい。
図4は、人物認証装置20が実行する処理の流れを例示するフローチャートである。生成部22は、カメラ10によって生成された第1画像シーケンス40を取得する(S1)。生成部22は、第1画像シーケンス40に対して所定の時系列操作を施すことで第2画像シーケンス50を生成する(S2)。特徴抽出部23は、複数の画像シーケンス(第1画像シーケンス40及び第2画像シーケンス50のうちのいずれか2つ以上)それぞれから、歩容特徴を抽出する(S3)。照合部24は、抽出された複数の歩容特徴及び照合データベース30に記憶されている照合特徴を用いて、人物認証を行う(S4)。人物認証装置20は、認証結果を出力する(S5)。
生成部22は第1画像シーケンス40を取得する(S1)。ここで、第1画像シーケンス40を取得する方法には様々な方法を利用できる。例えば生成部22は、カメラ10から送信される第1画像シーケンス40を受信することで、第1画像シーケンス40を取得する。その他にも例えば、生成部22は、カメラ10によって記憶装置に記憶された第1画像シーケンス40をその記憶装置から読み出すことで、第1画像シーケンス40を取得する。
生成部22は、第1画像シーケンス40に対して所定の時系列操作を加えることで、1つ以上の第2画像シーケンス50を生成する(S2)。以下、所定の時系列操作の具体例を説明する。
上述の例では、第2画像シーケンス50を構成する画像52として、第1画像シーケンス40を構成する画像42をそのまま用いている。しかし、生成部22は、画像42に対して所定の加工(画像処理)を加え、当該加工後の画像42を用いて、第2画像シーケンス50を生成してもよい。
特徴抽出部23は、複数の画像シーケンスそれぞれから、歩容特徴を抽出する(S3)。少なくとも、特徴抽出部23は、生成部22によって生成された第2画像シーケンス50からは、歩容特徴を抽出する。一方、第1画像シーケンス40からは、歩容特徴を抽出してもよいし、しなくてもよい。
照合部24は、特徴抽出部23で抽出した歩容特徴と、照合データベース30に記憶されている照合特徴とを比較する(照合する)ことで、人物認証を行う。例えば照合部24は、特徴抽出部23で抽出した各歩容特徴について、照合データベース30に記憶されている各照合特徴との間で照合スコアを計算する。例えば照合データベース30に m 個の照合特徴が記憶されている場合、各画像シーケンスから抽出された歩容特徴について、照合スコアが m 個ずつ算出される。照合スコアは、歩容特徴と照合特徴との類似度の高さを表す指標値である。
人物認証装置20は、認証結果を出力する(S5)。認証結果の出力方法は様々である。例えば、人物認証として、「第1画像シーケンス40に含まれる人物が照合データベース30に登録されているか否かを判定する」という処理を行うとする。この場合、例えば人物認証装置20は、第1画像シーケンス40に含まれる人物が照合データベース30に登録されている人物であるか否かを表す出力を行う。例えばこの出力は、「照合データベース30に登録されている人物である」又は「照合データベース30に登録されている人物でない」旨を表すテキストメッセージや音声メッセージである。その他にも例えば、判定結果に応じた色を出力するランプなどを用いた出力を行ってもよい。
1. 第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成部と、
前記第1画像シーケンス及び前記第2画像シーケンスのうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出部と、
前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合部と、を有する人物認証装置。
2. 前記生成部は、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する、1.に記載の人物認証装置。
3. 前記生成部は、前記第1画像シーケンスの一部の期間から複数の画像を抽出し、抽出した複数の画像で構成される前記第2画像シーケンスを生成する、1.に記載の人物認証装置。
4. 前記生成部は、前記第1画像シーケンスに含まれる第1期間から第1の前記第2画像シーケンスを生成し、前記第1画像シーケンスに含まれる第2期間から第2の前記第2画像シーケンスを生成し、
前記第1期間と前記第2期間は互いに一部が重複する、3.に記載の人物認証装置。
5. 前記生成部は、前記第1画像シーケンスを構成する各画像から人物を検出し、検出した人物のシルエット画像を生成し、前記生成したシルエット画像を用いて前記第2画像シーケンスを生成する、1.~4.のいずれか1つに記載の人物認証装置。
6. 前記抽出部は、画像シーケンスから抽出される前記歩容特徴として、画像シーケンスから検出される人物についての時空間画像特徴を抽出する、1.~5.のいずれか1つに記載の人物認証装置。
7. 前記抽出部は、画像シーケンスを畳み込みニューラルネットワークに入力することで、前記歩容特徴を抽出する、1.~5.のいずれか1つに記載の人物認証装置。
8. 前記畳み込みニューラルネットワークは、入力層、中間層、及び出力層を有し、
前記抽出部は、前記中間層を構成するいずれかの層からの出力を前記歩容特徴として抽出する、7.に記載の人物認証装置。
9. 前記照合部は、
前記記憶部に記憶されている複数の照合特徴それぞれについて、各画像シーケンスから抽出された歩容特徴との類似度を表す照合スコアを算出し、
前記照合特徴ごとに、算出された複数の照合スコアの統計値である統計スコアを算出し、
前記照合特徴ごとの統計スコアを用いて、前記第1画像シーケンスに含まれる人物の認証を行う、1.~8.のいずれか1つに記載の人物認証装置。
10. 前記照合部は、いずれかの前記統計スコアが所定のしきい値以上である場合に、前記第1画像シーケンスが登録済みの人物であると特定する、9.に記載の人物認証装置。
11. 前記記憶部は、人物の識別子とその人物の照合特徴とを対応づけて記憶しており、
前記照合部は、
複数の照合特徴の中から、前記統計スコアが最大であり、なおかつその統計スコアが所定のしきい値以上である照合特徴を特定し、
前記記憶部において前記特定された照合特徴と対応づけられている識別子を持つ人物を、前記第1画像シーケンスに含まれる人物として特定する、9.に記載の人物認証装置。
第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成ステップと、
前記第1画像シーケンス及び前記第2画像シーケンスのうちのいずれか2つ以上それぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出ステップと、
前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合ステップと、を有する制御方法。
13. 前記生成ステップにおいて、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する、12.に記載の制御方法。
14. 前記生成ステップにおいて、前記第1画像シーケンスの一部の期間から複数の画像を抽出し、抽出した複数の画像で構成される前記第2画像シーケンスを生成する、12.に記載の制御方法。
15. 前記生成ステップにおいて、前記第1画像シーケンスに含まれる第1期間から第1の前記第2画像シーケンスを生成し、前記第1画像シーケンスに含まれる第2期間から第2の前記第2画像シーケンスを生成し、
前記第1期間と前記第2期間は互いに一部が重複する、14.に記載の制御方法。
16. 前記生成ステップにおいて、前記第1画像シーケンスを構成する各画像から人物を検出し、検出した人物のシルエット画像を生成し、前記生成したシルエット画像を用いて前記第2画像シーケンスを生成する、12.~15.のいずれか1つに記載の制御方法。
17. 前記抽出ステップにおいて、画像シーケンスから抽出される前記歩容特徴として、画像シーケンスから検出される人物についての時空間画像特徴を抽出する、12.~16.のいずれか1つに記載の制御方法。
18. 前記抽出ステップにおいて、画像シーケンスを畳み込みニューラルネットワークに入力することで、前記歩容特徴を抽出する、12.~16.のいずれか1つに記載の制御方法。
19. 前記畳み込みニューラルネットワークは、入力層、中間層、及び出力層を有し、
前記抽出ステップにおいて、前記中間層を構成するいずれかの層からの出力を前記歩容特徴として抽出する、18.に記載の制御方法。
20. 前記照合ステップにおいて、
前記記憶部に記憶されている複数の照合特徴それぞれについて、各画像シーケンスから抽出された歩容特徴との類似度を表す照合スコアを算出し、
前記照合特徴ごとに、算出された複数の照合スコアの統計値である統計スコアを算出し、
前記照合特徴ごとの統計スコアを用いて、前記第1画像シーケンスに含まれる人物の認証を行う、12.~19.のいずれか1つに記載の制御方法。
21. 前記照合ステップにおいて、いずれかの前記統計スコアが所定のしきい値以上である場合に、前記第1画像シーケンスが登録済みの人物であると特定する、20.に記載の制御方法。
22. 前記記憶部は、人物の識別子とその人物の照合特徴とを対応づけて記憶しており、
前記照合ステップにおいて、
複数の照合特徴の中から、前記統計スコアが最大であり、なおかつその統計スコアが所定のしきい値以上である照合特徴を特定し、
前記記憶部において前記特定された照合特徴と対応づけられている識別子を持つ人物を、前記第1画像シーケンスに含まれる人物として特定する、20.に記載の制御方法。
20 人物認証装置
22 生成部
23 特徴抽出部
24 照合部
30 照合データベース
40 第1画像シーケンス
42 画像
50 第2画像シーケンス
52 画像
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
Claims (10)
- 第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成部と、
前記第1画像シーケンス及び1つ以上の前記第2画像シーケンスのそれぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出部と、
前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合部と、を有し、
前記生成部は、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する、人物認証装置。 - 前記生成部は、前記第1画像シーケンスを構成する各画像から人物を検出し、検出した人物のシルエット画像を生成し、前記生成したシルエット画像を用いて前記第2画像シーケンスを生成する、請求項1に記載の人物認証装置。
- 前記抽出部は、画像シーケンスから抽出される前記歩容特徴として、画像シーケンスから検出される人物についての時空間画像特徴を抽出する、請求項1または2に記載の人物認証装置。
- 前記抽出部は、画像シーケンスを畳み込みニューラルネットワークに入力することで、前記歩容特徴を抽出する、請求項1~3のいずれか1項に記載の人物認証装置。
- 前記畳み込みニューラルネットワークは、入力層、中間層、及び出力層を有し、
前記抽出部は、前記中間層を構成するいずれかの層からの出力を前記歩容特徴として抽出する、請求項4に記載の人物認証装置。 - 前記照合部は、
前記記憶部に記憶されている複数の照合特徴それぞれについて、各画像シーケンスから抽出された歩容特徴との類似度を表す照合スコアを算出し、
前記照合特徴ごとに、算出された複数の照合スコアの統計値である統計スコアを算出し、
前記照合特徴ごとの統計スコアを用いて、前記第1画像シーケンスに含まれる人物の認証を行う、請求項1~5のいずれか1項に記載の人物認証装置。 - 前記照合部は、いずれかの前記統計スコアが所定のしきい値以上である場合に、前記第1画像シーケンスに含まれる人物が登録済みの人物であると特定する、請求項6に記載の人物認証装置。
- 前記記憶部は、人物の識別子とその人物の照合特徴とを対応づけて記憶しており、
前記照合部は、
複数の照合特徴の中から、前記統計スコアが最大であり、なおかつその統計スコアが所定のしきい値以上である照合特徴を特定し、
前記記憶部において前記特定された照合特徴と対応づけられている識別子を持つ人物を、前記第1画像シーケンスに含まれる人物として特定する、請求項6に記載の人物認証装置。 - コンピュータによって実行される制御方法であって、
第1画像シーケンスに対して所定の時系列操作を加えることで1つ以上の第2画像シーケンスを生成する生成ステップと、
前記第1画像シーケンス及び1つ以上の前記第2画像シーケンスのうちのそれぞれから、その画像シーケンスに含まれる人物の歩容特徴を抽出する抽出ステップと、
前記抽出した複数の歩容特徴と、記憶部に記憶されている歩容特徴である照合特徴とを比較することにより、人物の認証を行う照合ステップと、を有し、
前記生成ステップでは、前記第1画像シーケンスに含まれる画像を時系列で逆順に並べることにより、前記第2画像シーケンスを生成する制御方法。 - 請求項9に記載の制御方法の各ステップをコンピュータに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018248213 | 2018-12-28 | ||
JP2018248213 | 2018-12-28 | ||
PCT/JP2019/048414 WO2020137536A1 (ja) | 2018-12-28 | 2019-12-11 | 人物認証装置、制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020137536A1 JPWO2020137536A1 (ja) | 2021-10-28 |
JP7314959B2 true JP7314959B2 (ja) | 2023-07-26 |
Family
ID=71127217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020563040A Active JP7314959B2 (ja) | 2018-12-28 | 2019-12-11 | 人物認証装置、制御方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US12020510B2 (ja) |
JP (1) | JP7314959B2 (ja) |
CN (1) | CN113544735A (ja) |
WO (1) | WO2020137536A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023535231A (ja) * | 2020-08-20 | 2023-08-16 | ラモット・アット・テル・アビブ・ユニバーシテイ・リミテッド | 動的アイデンティティ認証 |
US11961333B2 (en) * | 2020-09-03 | 2024-04-16 | Board Of Trustees Of Michigan State University | Disentangled representations for gait recognition |
CN116311524A (zh) * | 2023-03-22 | 2023-06-23 | 凯通科技股份有限公司 | 基于摄像机组的步态特征确定方法、装置和终端设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014125882A1 (ja) | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2014196134A1 (ja) | 2013-06-06 | 2014-12-11 | 日本電気株式会社 | 解析処理システム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101398891B (zh) | 2004-08-03 | 2010-12-08 | 松下电器产业株式会社 | 人物判定装置 |
JP5478928B2 (ja) | 2009-03-31 | 2014-04-23 | 綜合警備保障株式会社 | 人物同定装置、人物同定方法、及び人物同定プログラム |
JP4849181B2 (ja) | 2010-04-12 | 2012-01-11 | 日本電気株式会社 | 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム |
JP5937823B2 (ja) | 2011-12-28 | 2016-06-22 | グローリー株式会社 | 画像照合処理装置、画像照合処理方法及び画像照合処理プログラム |
JP2013210845A (ja) | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 移動物体照合装置 |
JP2017205135A (ja) | 2014-08-25 | 2017-11-24 | ノーリツプレシジョン株式会社 | 個人識別装置、個人識別方法、及び、個人識別プログラム |
CN105335725B (zh) * | 2015-11-05 | 2019-02-26 | 天津理工大学 | 一种基于特征融合的步态识别身份认证方法 |
US9460557B1 (en) * | 2016-03-07 | 2016-10-04 | Bao Tran | Systems and methods for footwear fitting |
CN105975932B (zh) * | 2016-05-04 | 2019-07-23 | 广东工业大学 | 基于时间序列shapelet的步态识别分类方法 |
JP6786098B2 (ja) | 2016-08-10 | 2020-11-18 | 公立大学法人大阪 | 歩容解析装置 |
CN108681689B (zh) * | 2018-04-02 | 2021-06-04 | 中国科学院自动化研究所 | 基于生成对抗网络的帧率增强步态识别方法及装置 |
US11768504B2 (en) * | 2020-06-10 | 2023-09-26 | AI Incorporated | Light weight and real time slam for robots |
-
2019
- 2019-12-11 CN CN201980093096.1A patent/CN113544735A/zh active Pending
- 2019-12-11 JP JP2020563040A patent/JP7314959B2/ja active Active
- 2019-12-11 WO PCT/JP2019/048414 patent/WO2020137536A1/ja active Application Filing
- 2019-12-11 US US17/417,939 patent/US12020510B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014125882A1 (ja) | 2013-02-15 | 2014-08-21 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
WO2014196134A1 (ja) | 2013-06-06 | 2014-12-11 | 日本電気株式会社 | 解析処理システム |
Non-Patent Citations (2)
Title |
---|
守脇 幸佑,外2名,人物属性を考慮した歩容認証,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2018-CVIM-21,日本,情報処理学会,2018年05月11日 |
森 敦史,外2名,低フレームレート映像のための歩行周期に基づく位相同期による歩容認証,電子情報通信学会論文誌 (J94-D) 第8号,日本,社団法人電子情報通信学会,2011年,pp.1290-1299 |
Also Published As
Publication number | Publication date |
---|---|
WO2020137536A1 (ja) | 2020-07-02 |
JPWO2020137536A1 (ja) | 2021-10-28 |
CN113544735A (zh) | 2021-10-22 |
US12020510B2 (en) | 2024-06-25 |
US20220076005A1 (en) | 2022-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10102421B2 (en) | Method and device for face recognition in video | |
US10275672B2 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
JP7314959B2 (ja) | 人物認証装置、制御方法、及びプログラム | |
EP2864930B1 (en) | Self learning face recognition using depth based tracking for database generation and update | |
US10509957B2 (en) | System and method for human pose estimation in unconstrained video | |
CN108009466B (zh) | 行人检测方法和装置 | |
CN104933414A (zh) | 一种基于wld-top的活体人脸检测方法 | |
Qiang et al. | SqueezeNet and fusion network-based accurate fast fully convolutional network for hand detection and gesture recognition | |
Barnich et al. | Frontal-view gait recognition by intra-and inter-frame rectangle size distribution | |
CN110728188B (zh) | 图像处理方法、装置、系统和存储介质 | |
KR102261054B1 (ko) | 카메라에 연결되는 고속 얼굴 인식 장치 | |
Sajid et al. | VSig: Hand-gestured signature recognition and authentication with wearable camera | |
Chen et al. | Gradient local auto-correlations and extreme learning machine for depth-based activity recognition | |
Yuan et al. | Ear detection based on improved adaboost algorithm | |
Guo | Impact on Biometric Identification Systems of COVID‐19 | |
Naik et al. | LBPH algorithm for frontal and side profile face recognition on GPU | |
Iwashita et al. | Gait recognition robust to speed transition using mutual subspace method | |
CN109241952B (zh) | 拥挤场景下人物计数方法及装置 | |
Jabberi et al. | Generative data augmentation applied to face recognition | |
JP2013218605A (ja) | 画像認識装置、画像認識方法及びプログラム | |
Bharadi et al. | Multi-instance iris recognition | |
Park et al. | A study on the design and implementation of facial recognition application system | |
Aouto et al. | Pose-Based Identification Using Deep Learning for Military Surveillance Systems | |
Nguyen et al. | Development of a Human Daily Action Recognition System for Smart-Building Applications | |
Akhter et al. | Human-based interaction analysis via automated key point detection and neural network model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230510 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230626 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7314959 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |