JP6934564B2 - 偽装防止の検出方法および装置、電子機器、記憶媒体 - Google Patents
偽装防止の検出方法および装置、電子機器、記憶媒体 Download PDFInfo
- Publication number
- JP6934564B2 JP6934564B2 JP2020517577A JP2020517577A JP6934564B2 JP 6934564 B2 JP6934564 B2 JP 6934564B2 JP 2020517577 A JP2020517577 A JP 2020517577A JP 2020517577 A JP2020517577 A JP 2020517577A JP 6934564 B2 JP6934564 B2 JP 6934564B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- result
- lip
- subsequence
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 141
- 238000000034 method Methods 0.000 claims description 143
- 230000004927 fusion Effects 0.000 claims description 111
- 238000013528 artificial neural network Methods 0.000 claims description 66
- 239000013598 vector Substances 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 26
- 230000001815 facial effect Effects 0.000 claims description 25
- 230000002265 prevention Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 19
- 238000012790 confirmation Methods 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 description 29
- 238000012795 verification Methods 0.000 description 27
- 230000009471 action Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000005242 forging Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Description
例えば、本願は以下の項目を提供する。
(項目1)
画像シーケンスから少なくとも一つの画像サブシーケンスを取得することであって、前記画像シーケンスが、指定内容を読むようにユーザに促した後に画像収集装置により収集されたものであり、画像サブシーケンスが前記画像シーケンス内の少なくとも一つの画像を含むことと、
前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得ることと、
前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定することと、を含むことを特徴とする偽装防止の検出方法。
(項目2)
画像シーケンスから少なくとも一つの画像サブシーケンスを取得する前記ステップは、
前記画像シーケンスに対応するオーディオの分割結果から、前記画像シーケンスから前記少なくとも一つの画像サブシーケンスを取得することを含むことを特徴とする項目1に記載の方法。
(項目3)
前記オーディオの分割結果は、前記指定内容に含まれる少なくとも一つの文字の各々に対応するオーディオクリップを含み、
前記画像シーケンスに対応するオーディオの分割結果に基づき、画像シーケンスから前記少なくとも一つの画像サブシーケンスを取得する前記ステップは、
前記指定内容における各文字に対応するオーディオクリップの時間情報に基づき、前記画像シーケンスから前記各文字の対応する画像サブシーケンスを取得することを含むことを特徴とする項目2に記載の方法。
(項目4)
前記オーディオクリップの時間情報は、前記オーディオクリップの時間長、前記オーディオクリップの開始時刻、前記オーディオクリップの終了時刻のうちの一つまたは任意の複数を含むことを特徴とする項目3に記載の方法。
(項目5)
さらに、
前記画像シーケンスの対応するオーディオを取得することと、
前記オーディオを分割し、少なくとも一つのオーディオクリップを得ることであって、前記少なくとも一つのオーディオクリップの各々が前記指定内容における一つの文字に対応することと、を含むことを特徴とする項目2から4のいずれか一項に記載の方法。
(項目6)
前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得る前記ステップは、
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像から唇部領域画像を取得することと、
前記少なくとも二つのターゲット画像の唇部領域画像に基づき、前記画像サブシーケンスの読唇結果を得ることと、を含むことを特徴とする項目1から5のいずれか一項に記載の方法。
(項目7)
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像から唇部領域画像を取得する前記ステップは、
前記ターゲット画像のキーポイント検出を行い、唇部キーポイントの位置情報を含む顔面部キーポイントの情報を得ることと、
前記唇部キーポイントの位置情報に基づき、前記ターゲット画像から唇部領域画像を取得することと、を含むことを特徴とする項目6に記載の方法。
(項目8)
さらに、
前記ターゲット画像の位置合わせ処理を行い、位置合わせ処理後のターゲット画像を得ることと、
前記位置合わせ処理に基づき、前記位置合わせ処理後のターゲット画像における前記唇部キーポイントの位置情報を確定することと、を含み、
前記唇部キーポイントの位置情報に基づき、前記ターゲット画像から唇部領域画像を取得する前記ステップは、
前記位置合わせ処理後のターゲット画像における前記唇部キーポイントの位置情報に基づき、前記位置合わせ処理後のターゲット画像から唇部領域画像を取得することを含むことを特徴とする項目6または7に記載の方法。
(項目9)
前記少なくとも二つのターゲット画像の唇部領域画像に基づき、前記画像サブシーケンスの読唇結果を得る前記ステップは、
前記少なくとも二つのターゲット画像の唇部領域画像を第一ニューラルネットワークに入力して認識処理し、前記画像サブシーケンスの読唇結果を出力することを含むことを特徴とする項目6から8のいずれか一項に記載の方法。
(項目10)
前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得る前記ステップは、
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像の唇部形状情報を取得することと、
前記少なくとも二つのターゲット画像の唇部形状情報に基づき、前記画像サブシーケンスの読唇結果を得ることと、を含むことを特徴とする項目1から9のいずれか一項に記載の方法。
(項目11)
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像の唇部形状情報を取得する前記ステップは、
前記少なくとも二つのターゲット画像内の各ターゲット画像から取得した唇部領域画像に基づき、前記各ターゲット画像の唇部形状情報を確定することを含むことを特徴とする項目10に記載の方法。
(項目12)
前記少なくとも二つのターゲット画像内の各ターゲット画像から取得した唇部領域画像に基づき、前記各ターゲット画像の唇部形状情報を確定する前記ステップは、
前記唇部領域画像の特徴抽出処理を行い、前記唇部領域画像の唇部形状特徴を得ることを含み、ここで、前記ターゲット画像の唇部形状情報は前記唇部形状特徴を含むことを特徴とする項目11に記載の方法。
(項目13)
さらに、
前記画像サブシーケンスから前記少なくとも二つのターゲット画像を選択することを含むことを特徴とする項目6から12のいずれか一項に記載の方法。
(項目14)
前記画像サブシーケンスから前記少なくとも二つのターゲット画像を選択する前記ステップは、
前記画像サブシーケンスから、予め設定された品質指標を満たす第一画像を選択することと、
前記第一画像および前記第一画像に隣接する少なくとも一つの第二画像を前記ターゲット画像として確定することと、を含むことを特徴とする項目13に記載の方法。
(項目15)
前記予め設定された品質指標は、画像が完全な唇部エッジを含むこと、唇部の解像度が第一条件に達すること、画像の光強度が第二条件に達することのうちの一つまたは任意の複数を含むことを特徴とする項目14に記載の方法。
(項目16)
前記少なくとも一つの第二画像は、前記第一画像の前に位置しかつ前記第一画像に隣接する少なくとも一つの画像、および前記第一画像の後ろに位置しかつ前記第一画像に隣接する少なくとも一つの画像を含むことを特徴とする項目14または15に記載の方法。
(項目17)
前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスは前記指定内容における一つの文字に対応することを特徴とする項目1から16のいずれか一項に記載の方法。
(項目18)
前記指定内容における文字は、数字、英文字、英単語、漢字、符号のいずれか一つまたは複数を含むことを特徴とする項目17に記載の方法。
(項目19)
前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定する前記ステップは、
前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得ることと、
前記融合認識結果と前記画像シーケンスの対応するオーディオの音声認識結果とがマッチングするかどうかを確定することと、
前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定することと、を含むことを特徴とする項目1から18のいずれか一項に記載の方法。
(項目20)
前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得る前記ステップは、
前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得ることを含むことを特徴とする項目19に記載の方法。
(項目21)
前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得る前記ステップは、
前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を、順位付けし、前記各画像サブシーケンスの対応する特徴ベクトルを得ることと、
前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの特徴ベクトルを連結し、連結結果を得ることと、を含み、ここで、前記融合認識結果は前記連結結果を含むことを特徴とする項目20に記載の方法。
(項目22)
前記融合認識結果と前記画像シーケンスの対応するオーディオの音声認識結果とがマッチングするかどうかを確定する前記ステップは、
前記融合認識結果および前記音声認識結果を第二ニューラルネットワークに入力して処理し、前記読唇結果と前記音声認識結果とのマッチング確率を得ることと、
前記読唇結果と前記音声認識結果とのマッチング確率に基づき、前記読唇結果と前記音声認識結果とがマッチングするかどうかを確定することと、を含むことを特徴とする項目19から21のいずれか一項に記載の方法。
(項目23)
さらに、
前記画像シーケンスの対応するオーディオの音声認識処理を行い、音声認識結果を得ることと、
前記音声認識結果と前記指定内容とが一致するかどうかを確定することと、を含み、
前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定する前記ステップは、
前記画像シーケンスの対応するオーディオの音声認識結果と前記指定内容とが一致し、かつ前記画像シーケンスの読唇結果と前記オーディオの音声認識結果とがマッチングしていることに応答し、偽装防止検出結果を本人であると確定することを含むことを特徴とする項目19から22のいずれか一項に記載の方法。
(項目24)
前記画像サブシーケンスの読唇結果は、前記画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を含むことを特徴とする項目1から23のいずれか一項に記載の方法。
(項目25)
さらに、
前記指定内容をランダムに生成することを含むことを特徴とする項目1から24のいずれか一項に記載の方法。
(項目26)
さらに、
前記偽装防止検出結果が本人であることに応答し、予め設定された顔画像テンプレートに基づいて顔による本人確認を行うことを含むことを特徴とする項目1から25のいずれか一項に記載の方法。
(項目27)
さらに、予め設定された顔画像テンプレートに基づいて顔による本人確認を行うことを含み、
画像シーケンスから少なくとも一つの画像サブシーケンスを取得する前記ステップは、前記顔による本人確認が通ったことに応答し、画像シーケンスから少なくとも一つの画像サブシーケンスを取得することを含むことを特徴とする項目1から25のいずれか一項に記載の方法。
(項目28)
さらに、
前記偽装防止検出結果が本人でありかつ前記顔による本人確認が通ったことに応答し、入退室許可動作、デバイスロック解除動作、決済動作、アプリケーションまたはデバイスのログイン動作、およびアプリケーションまたはデバイスの関連動作を許可する動作のうちの一つまたは任意の組み合わせを実行することを含むことを特徴とする項目26または27に記載の方法。
(項目29)
画像シーケンスから少なくとも一つの画像サブシーケンスを取得するための第一取得モジュールであって、前記画像シーケンスが、指定内容を読むようにユーザに促した後に画像収集装置により収集されたものであり、画像サブシーケンスが前記画像シーケンス内の少なくとも一つの画像を含む第一取得モジュールと、
前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得るための読唇モジュールと、
前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定するための第一確定モジュールと、を含むことを特徴とする偽装防止の検出装置。
(項目30)
前記第一取得モジュールは、前記画像シーケンスに対応するオーディオの分割結果から、前記画像シーケンスから前記少なくとも一つの画像サブシーケンスを取得するために用いられることを特徴とする項目29に記載の装置。
(項目31)
前記オーディオの分割結果は、前記指定内容に含まれる少なくとも一つの文字の各々に対応するオーディオクリップを含み、
前記第一取得モジュールは、前記指定内容における各文字に対応するオーディオクリップの時間情報に基づき、前記画像シーケンスから前記各文字の対応する画像サブシーケンスを取得するために用いられることを特徴とする項目30に記載の装置。
(項目32)
前記オーディオクリップの時間情報は、前記オーディオクリップの時間長、前記オーディオクリップの開始時刻、前記オーディオクリップの終了時刻のうちの一つまたは任意の複数を含むことを特徴とする項目31に記載の装置。
(項目33)
さらに、
前記画像シーケンスの対応するオーディオを取得するための第二取得モジュールと、
前記オーディオを分割し、少なくとも一つのオーディオクリップを得るためのオーディオ分割モジュールであって、前記少なくとも一つのオーディオクリップの各々が前記指定内容における一つの文字に対応するオーディオ分割モジュールと、を含むことを特徴とする項目30から32のいずれか一項に記載の装置。
(項目34)
前記読唇モジュールは、
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像から唇部領域画像を取得するための第一取得サブモジュール、および
前記少なくとも二つのターゲット画像の唇部領域画像に基づき、前記画像サブシーケンスの読唇結果を得るための第一読唇サブモジュールに用いられることを特徴とする項目29から33のいずれか一項に記載の装置。
(項目35)
前記第一取得サブモジュールは、
前記ターゲット画像のキーポイント検出を行い、唇部キーポイントの位置情報を含む顔面部キーポイントの情報を得て、
前記唇部キーポイントの位置情報に基づき、前記ターゲット画像から唇部領域画像を取得するために用いられることを特徴とする項目34に記載の装置。
(項目36)
さらに、
前記ターゲット画像の位置合わせ処理を行い、位置合わせ処理後のターゲット画像を得るための位置合わせモジュールと、
前記位置合わせ処理に基づき、前記位置合わせ処理後のターゲット画像における前記唇部キーポイントの位置情報を確定するための位置確定モジュールと、を含み、
前記第一取得サブモジュールは、前記位置合わせ処理後のターゲット画像における前記唇部キーポイントの位置情報に基づき、前記位置合わせ処理後のターゲット画像から唇部領域画像を取得するために用いられることを特徴とする項目34または35に記載の装置。
(項目37)
前記第一読唇サブモジュールは、
前記少なくとも二つのターゲット画像の唇部領域画像を第一ニューラルネットワークに入力して認識処理し、前記画像サブシーケンスの読唇結果を出力するために用いられることを特徴とする項目34から36のいずれか一項に記載の装置。
(項目38)
前記読唇モジュールは、
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像の唇部形状情報を取得するための形状取得サブモジュールと、
前記少なくとも二つのターゲット画像の唇部形状情報に基づき、前記画像サブシーケンスの読唇結果を得るための第二読唇サブモジュールと、を含むことを特徴とする項目29から37のいずれか一項に記載の装置。
(項目39)
前記形状取得サブモジュールは、
前記少なくとも二つのターゲット画像内の各ターゲット画像から取得した唇部領域画像に基づき、前記各ターゲット画像の唇部形状情報を確定するために用いられることを特徴とする項目38に記載の装置。
(項目40)
前記形状取得サブモジュールは、
前記唇部領域画像の特徴抽出処理を行い、前記唇部領域画像の唇部形状特徴を得るために用いられ、ここで、前記ターゲット画像の唇部形状情報は前記唇部形状特徴を含むことを特徴とする項目39に記載の装置。
(項目41)
さらに、
前記画像サブシーケンスから前記少なくとも二つのターゲット画像を選択するための画像選択モジュールを含むことを特徴とする項目34から40のいずれか一項に記載の装置。
(項目42)
前記画像選択モジュールは、
前記画像サブシーケンスから、予め設定された品質指標を満たす第一画像を選択するための選択サブモジュールと、
前記第一画像および前記第一画像に隣接する少なくとも一つの第二画像を前記ターゲット画像として確定するための第一確定サブモジュールと、を含むことを特徴とする項目41に記載の装置。
(項目43)
前記予め設定された品質指標は、画像が完全な唇部エッジを含むこと、唇部の解像度が第一条件に達すること、画像の光強度が第二条件に達することのうちの一つまたは任意の複数を含むことを特徴とする項目42に記載の装置。
(項目44)
前記少なくとも一つの第二画像は、前記第一画像の前に位置しかつ前記第一画像に隣接する少なくとも一つの画像、および前記第一画像の後ろに位置しかつ前記第一画像に隣接する少なくとも一つの画像を含むことを特徴とする項目42または43に記載の装置。
(項目45)
前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスは前記指定内容における一つの文字に対応することを特徴とする項目29から44のいずれか一項に記載の装置。
(項目46)
前記指定内容における文字は、数字、英文字、英単語、漢字、符号のいずれか一つまたは複数を含むことを特徴とする項目45に記載の装置。
(項目47)
前記第一確定モジュールは、
前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得るための融合サブモジュールと、
前記融合認識結果と前記画像シーケンスの対応するオーディオの音声認識結果とがマッチングするかどうかを確定するための第二確定サブモジュールと、
前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定するための第三確定サブモジュールと、を含むことを特徴とする項目29から46のいずれか一項に記載の装置。
(項目48)
前記融合サブモジュールは、前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得るために用いられることを特徴とする項目47に記載の装置。
(項目49)
前記融合サブモジュールは、
前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を、順位付けし、前記各画像サブシーケンスの対応する特徴ベクトルを得て、
前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの特徴ベクトルを連結し、連結結果を得るために用いられ、ここで、前記融合認識結果は前記連結結果を含むことを特徴とする項目48に記載の装置。
(項目50)
前記第二確定サブモジュールは、前記融合認識結果および前記音声認識結果を第二ニューラルネットワークに入力して処理し、前記読唇結果と前記音声認識結果とのマッチング確率を得て、
前記読唇結果と前記音声認識結果とのマッチング確率に基づき、前記読唇結果と前記音声認識結果とがマッチングするかどうかを確定するために用いられることを特徴とする項目47から49のいずれか一項に記載の装置。
(項目51)
さらに、
前記画像シーケンスの対応するオーディオの音声認識処理を行い、音声認識結果を得るための音声認識モジュールと、
前記音声認識結果と前記指定内容とが一致するかどうかを確定するための第四確定モジュールと、を含み、
前記第三確定サブモジュールは、前記画像シーケンスの対応するオーディオの音声認識結果と前記指定内容とが一致し、かつ前記画像シーケンスの読唇結果と前記オーディオの音声認識結果とがマッチングする場合、偽装防止検出結果を本人であると確定するために用いられることを特徴とする項目47から50のいずれか一項に記載の装置。
(項目52)
前記画像サブシーケンスの読唇結果は、前記画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を含むことを特徴とする項目29から51のいずれか一項に記載の装置。
(項目53)
さらに、
前記指定内容をランダムに生成するための生成モジュールを含むことを特徴とする項目29から52のいずれか一項に記載の装置。
(項目54)
さらに、
前記偽装防止検出結果が本人であることに応答し、予め設定された顔画像テンプレートに基づいて顔による本人確認を行うための第一本人確認モジュールを含むことを特徴とする項目29から53のいずれか一項に記載の装置。
(項目55)
さらに、
予め設定された顔画像テンプレートに基づいて顔による本人確認を行うための第二本人確認モジュールを含み、
前記第一取得モジュールは、前記顔による本人確認が通ったことに応答し、画像シーケンスから少なくとも一つの画像サブシーケンスを取得するために用いられることを特徴とする項目29から53のいずれか一項に記載の装置。
(項目56)
さらに、
前記偽装防止検出結果が本人でありかつ前記顔による本人確認が通ったことに応答し、入退室許可動作、デバイスロック解除動作、決済動作、アプリケーションまたはデバイスのログイン動作、およびアプリケーションまたはデバイスの関連動作を許可する動作のうちの一つまたは任意の組み合わせを実行するための制御モジュールを含むことを特徴とする項目54または55に記載の装置。
(項目57)
コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶された、実行される時に上記項目1から28のいずれか一項に記載の方法を実現するコンピュータプログラムを実行するためのプロセッサと、を含むことを特徴とする電子機器。
(項目58)
コンピュータプログラムが記憶されているコンピュータ読み取り可能記憶媒体であって、該コンピュータプログラムはプロセッサにより実行される時、上記項目1から28のいずれか一項に記載の方法を実現することを特徴とするコンピュータ読み取り可能記憶媒体。
前記ターゲット画像のキーポイント検出を行い、唇部キーポイントの位置情報を含む顔面部キーポイントの情報を得ることと、
前記唇部キーポイントの位置情報に基づき、前記ターゲット画像から唇部領域画像を取得することと、を含む。
前記ターゲット画像の位置合わせ処理を行い、位置合わせ処理後のターゲット画像を得ることと、
前記位置合わせ処理に基づき、前記位置合わせ処理後のターゲット画像における前記唇部キーポイントの位置情報を確定することと、を含み、
それに対して、前記位置合わせ処理後のターゲット画像における前記唇部キーポイントの位置情報に基づき、前記位置合わせ処理後のターゲット画像から唇部領域画像を取得する。
前記唇部領域画像の特徴抽出処理を行い、前記唇部領域画像の唇部形状特徴を得ることを含む。
上記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得ることを含む。例えば、オーディオの音声認識結果に基づき、少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得る。
前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を、順位付けし、前記各画像サブシーケンスの対応する特徴ベクトルを得ることと、
前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの特徴ベクトルを連結し、連結結果を得ることと、を含み、ここで、前記融合認識結果は前記連結結果を含む。
前記融合認識結果および前記音声認識結果を第二ニューラルネットワークに入力して処理し、前記読唇結果と前記音声認識結果とのマッチング確率を得ることと、
前記読唇結果と前記音声認識結果とのマッチング確率に基づき、前記読唇結果と前記音声認識結果とがマッチングするかどうかを確定することと、を含む。
前記画像シーケンスの対応するオーディオの音声認識処理を行い、音声認識結果を得ることと、
前記音声認識結果と前記指定内容とが一致するかどうかを確定することと、を含み、
前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定する前記ステップは、
前記画像シーケンスの対応するオーディオの音声認識結果と前記指定内容とが一致し、かつ前記画像シーケンスの読唇結果と前記オーディオの音声認識結果とがマッチングしていることに応答し、偽装防止検出結果を本人であると確定することを含む。
動作102で画像シーケンスから少なくとも一つの画像サブシーケンスを取得するステップは、前記顔による本人確認が通ったことに応答し、画像シーケンスから少なくとも一つの画像サブシーケンスを取得することを含む。
混同行列を取得してから、例えば、上記例で、10×10の混同行列を1×100の連結ベクトル(即ち連結結果)に変換するように、混同行列をベクトルに変換し、第二ニューラルネットワークの入力とし、第二ニューラルネットワークによって読唇結果と音声認識結果とのマッチング度を判断するようにしてもよい。
画像シーケンスから少なくとも一つの画像サブシーケンスを取得するための第一取得モジュールであって、前記画像シーケンスが、指定内容を読むようにユーザに促した後に画像収集装置により収集されたものであり、画像サブシーケンスが前記画像シーケンス内の少なくとも一つの画像を含む第一取得モジュールと、前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得るための読唇モジュールと、前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定するための第一確定モジュールと、を含む。
Claims (19)
- 電子機器が実行する、偽装防止の検出方法であって、
画像シーケンスから少なくとも一つの画像サブシーケンスを取得することであって、前記画像シーケンスは、指定内容を読むようにユーザに促した後に画像収集装置により収集されたものであり、前記画像サブシーケンスは、前記画像シーケンス内の少なくとも一つの画像を含む、ことと、
前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得ることと、
前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定することと
を含み、
前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定することは、
前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得ることと、
前記融合認識結果と前記画像シーケンスの対応するオーディオの音声認識結果とがマッチングするかどうかを確定することと、
前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定することと
を含み、
前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得ることは、
前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を順位付けし、前記各画像サブシーケンスの対応する特徴ベクトルを得ることと、
前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの特徴ベクトルを連結し、連結結果を得ることと
を含み、
前記融合認識結果は、前記連結結果を含む、偽装防止の検出方法。 - 画像シーケンスから少なくとも一つの画像サブシーケンスを取得することは、
前記画像シーケンスに対応するオーディオの分割結果に基づき、前記画像シーケンスから前記少なくとも一つの画像サブシーケンスを取得することを含む、請求項1に記載の方法。 - 前記オーディオの分割結果は、前記指定内容に含まれる少なくとも一つの文字の各々に対応するオーディオクリップを含み、
前記画像シーケンスに対応するオーディオの分割結果に基づき、前記画像シーケンスから前記少なくとも一つの画像サブシーケンスを取得することは、
前記指定内容における各文字に対応するオーディオクリップの時間情報に基づき、前記画像シーケンスから前記各文字の対応する画像サブシーケンスを取得することを含む、請求項2に記載の方法。 - 前記方法は、
前記画像シーケンスの対応するオーディオを取得することと、
前記オーディオを分割し、少なくとも一つのオーディオクリップを得ることであって、前記少なくとも一つのオーディオクリップの各々は、前記指定内容における一つの文字に対応する、ことと
をさらに含む、請求項2または請求項3に記載の方法。 - 前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得ることは、
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像から唇部領域画像を取得することと、
前記少なくとも二つのターゲット画像の唇部領域画像に基づき、前記画像サブシーケンスの読唇結果を得ることと
を含む、請求項1から4のいずれか一項に記載の方法。 - 前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像から唇部領域画像を取得することは、
前記ターゲット画像のキーポイント検出を行い、唇部キーポイントの位置情報を含む顔面部キーポイントの情報を得ることと、
前記唇部キーポイントの位置情報に基づき、前記ターゲット画像から唇部領域画像を取得することと
を含む、請求項5に記載の方法。 - 前記少なくとも二つのターゲット画像の唇部領域画像に基づき、前記画像サブシーケンスの読唇結果を得ることは、
前記少なくとも二つのターゲット画像の唇部領域画像を第一ニューラルネットワークに入力して認識処理し、前記画像サブシーケンスの読唇結果を出力することを含む、請求項5または請求項6に記載の方法。 - 前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得ることは、
前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像の唇部形状情報を取得することと、
前記少なくとも二つのターゲット画像の唇部形状情報に基づき、前記画像サブシーケンスの読唇結果を得ることと
を含む、請求項1から7のいずれか一項に記載の方法。 - 前記画像サブシーケンスに含まれる少なくとも二つのターゲット画像の唇部形状情報を取得することは、
前記少なくとも二つのターゲット画像内の各ターゲット画像から取得した唇部領域画像に対して、特徴抽出処理を行い、前記各ターゲット画像の唇部形状特徴を得ることを含み、前記ターゲット画像の唇部形状情報は、前記唇部形状特徴を含む、請求項8に記載の方法。 - 前記方法は、
前記画像サブシーケンスから、予め設定された品質指標を満たす第一画像を選択することと、
前記第一画像および前記第一画像に隣接する少なくとも一つの第二画像を前記ターゲット画像として確定することと
をさらに含む、請求項5から9のいずれか一項に記載の方法。 - 前記少なくとも一つの第二画像は、前記第一画像の前に位置し、かつ、前記第一画像に隣接する少なくとも一つの画像、および、前記第一画像の後ろに位置し、かつ、前記第一画像に隣接する少なくとも一つの画像を含む、請求項10に記載の方法。
- 前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスは、前記指定内容における一つの文字に対応する、請求項1から11のいずれか一項に記載の方法。
- 前記融合認識結果と前記画像シーケンスの対応するオーディオの音声認識結果とがマッチングするかどうかを確定することは、
前記融合認識結果および前記音声認識結果を第二ニューラルネットワークに入力して処理し、前記読唇結果と前記音声認識結果とのマッチング確率を得ることと、
前記読唇結果と前記音声認識結果とのマッチング確率に基づき、前記読唇結果と前記音声認識結果とがマッチングするかどうかを確定することと
を含む、請求項1に記載の方法。 - 前記方法は、
前記画像シーケンスの対応するオーディオの音声認識処理を行い、音声認識結果を得ることと、
前記音声認識結果と前記指定内容とが一致するかどうかを確定することと
をさらに含み、
前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定することは、
前記画像シーケンスの対応するオーディオの音声認識結果と前記指定内容とが一致し、かつ、前記画像シーケンスの読唇結果と前記オーディオの音声認識結果とがマッチングしていることに応答し、偽装防止検出結果を本人であると確定することを含む、請求項1から13のいずれか一項に記載の方法。 - 前記画像サブシーケンスの読唇結果は、前記画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を含む、請求項1から14のいずれか一項に記載の方法。
- 画像シーケンスから少なくとも一つの画像サブシーケンスを取得するための第一取得モジュールであって、前記画像シーケンスは、指定内容を読むようにユーザに促した後に画像収集装置により収集されたものであり、前記画像サブシーケンスは、前記画像シーケンス内の少なくとも一つの画像を含む、第一取得モジュールと、
前記少なくとも一つの画像サブシーケンスから読唇を行い、前記少なくとも一つの画像サブシーケンスの読唇結果を得るための読唇モジュールと、
前記少なくとも一つの画像サブシーケンスの読唇結果に基づき、偽装防止検出結果を確定するための第一確定モジュールと
を含み、
前記第一確定モジュールは、前記少なくとも一つの画像サブシーケンスの読唇結果を融合し、融合認識結果を得るための融合サブモジュールと、前記融合認識結果と前記画像シーケンスの対応するオーディオの音声認識結果とがマッチングするかどうかを確定するための第二確定サブモジュールと、前記融合認識結果と前記オーディオの音声認識結果とのマッチング結果に基づき、偽装防止検出結果を確定するための第三確定サブモジュールとを含み、
前記融合サブモジュールは、さらに、前記少なくとも一つの画像サブシーケンス内の各画像サブシーケンスが前記指定内容に対応する複数の所定文字内の各所定文字に分類される確率を順位付けし、前記各画像サブシーケンスの対応する特徴ベクトルを得て、前記画像シーケンスの対応するオーディオの音声認識結果に基づき、前記少なくとも一つの画像サブシーケンスの特徴ベクトルを連結し、連結結果を得るために用いられ、前記融合認識結果は、前記連結結果を含む、偽装防止の検出装置。 - コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶された、実行される時に請求項1から15のいずれか一項に記載の方法を実現するコンピュータプログラムを実行するためのプロセッサと
を含む、電子機器。 - コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムは、プロセッサにより実行される時、請求項1から15のいずれか一項に記載の方法を前記プロセッサに実現させる、コンピュータ読み取り可能な記憶媒体。
- コンピュータ実行可能な命令を含み、前記コンピュータ実行可能な命令がコンピュータにより実行される時に、請求項1から15のいずれか一項に記載の方法を前記コンピュータに実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811044838.5 | 2018-09-07 | ||
CN201811044838.5A CN109409204B (zh) | 2018-09-07 | 2018-09-07 | 防伪检测方法和装置、电子设备、存储介质 |
PCT/CN2019/089493 WO2020048168A1 (zh) | 2018-09-07 | 2019-05-31 | 防伪检测方法和装置、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020535538A JP2020535538A (ja) | 2020-12-03 |
JP6934564B2 true JP6934564B2 (ja) | 2021-09-15 |
Family
ID=65464664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020517577A Active JP6934564B2 (ja) | 2018-09-07 | 2019-05-31 | 偽装防止の検出方法および装置、電子機器、記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20200218916A1 (ja) |
JP (1) | JP6934564B2 (ja) |
KR (1) | KR102370694B1 (ja) |
CN (1) | CN109409204B (ja) |
SG (1) | SG11202002741VA (ja) |
WO (1) | WO2020048168A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN109409204B (zh) * | 2018-09-07 | 2021-08-06 | 北京市商汤科技开发有限公司 | 防伪检测方法和装置、电子设备、存储介质 |
KR20200056754A (ko) * | 2018-11-15 | 2020-05-25 | 삼성전자주식회사 | 개인화 립 리딩 모델 생성 방법 및 장치 |
CN109905764B (zh) * | 2019-03-21 | 2021-08-24 | 广州国音智能科技有限公司 | 一种视频中目标人物语音截取方法及装置 |
CN110895693B (zh) * | 2019-09-12 | 2022-04-26 | 华中科技大学 | 一种证件的防伪信息的鉴别方法及鉴别系统 |
US11580727B2 (en) * | 2020-01-06 | 2023-02-14 | Orcam Technologies Ltd. | Systems and methods for matching audio and image information |
CN111242029A (zh) * | 2020-01-13 | 2020-06-05 | 湖南世优电气股份有限公司 | 设备控制方法、装置、计算机设备和存储介质 |
CN113743160A (zh) * | 2020-05-29 | 2021-12-03 | 北京中关村科金技术有限公司 | 活体检测的方法、装置以及存储介质 |
CN111881726B (zh) * | 2020-06-15 | 2022-11-25 | 马上消费金融股份有限公司 | 一种活体检测方法、装置及存储介质 |
CN112435653A (zh) * | 2020-10-14 | 2021-03-02 | 北京地平线机器人技术研发有限公司 | 语音识别方法、装置和电子设备 |
CN112733636A (zh) * | 2020-12-29 | 2021-04-30 | 北京旷视科技有限公司 | 活体检测方法、装置、设备和存储介质 |
CN112749657A (zh) * | 2021-01-07 | 2021-05-04 | 北京码牛科技有限公司 | 一种租房管理方法及系统 |
CN112712066B (zh) * | 2021-01-19 | 2023-02-28 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
US11967307B2 (en) * | 2021-02-12 | 2024-04-23 | Oracle International Corporation | Voice communication analysis system |
KR102352304B1 (ko) | 2021-10-14 | 2022-01-17 | (주)이온케어스 | 휴대용 음이온 발생장치 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997009683A1 (fr) * | 1995-09-01 | 1997-03-13 | Hitachi, Ltd. | Systeme de mediatisation d'informations multimedia contenant des informations audio |
US6567775B1 (en) * | 2000-04-26 | 2003-05-20 | International Business Machines Corporation | Fusion of audio and video based speaker identification for multimedia information access |
US7076429B2 (en) * | 2001-04-27 | 2006-07-11 | International Business Machines Corporation | Method and apparatus for presenting images representative of an utterance with corresponding decoded speech |
US20060206724A1 (en) * | 2005-02-16 | 2006-09-14 | David Schaufele | Biometric-based systems and methods for identity verification |
JP5655668B2 (ja) * | 2011-03-31 | 2015-01-21 | 株式会社Jvcケンウッド | 撮像装置、画像処理方法及びプログラム |
US9202105B1 (en) * | 2012-01-13 | 2015-12-01 | Amazon Technologies, Inc. | Image analysis for user authentication |
US9159321B2 (en) * | 2012-02-27 | 2015-10-13 | Hong Kong Baptist University | Lip-password based speaker verification system |
CN103324918B (zh) * | 2013-06-25 | 2016-04-27 | 浙江中烟工业有限责任公司 | 一种人脸识别与唇形识别相配合的身份认证方法 |
US9495586B1 (en) * | 2013-09-18 | 2016-11-15 | IDChecker, Inc. | Identity verification using biometric data |
CN104598796B (zh) * | 2015-01-30 | 2017-08-25 | 科大讯飞股份有限公司 | 身份识别方法及系统 |
CN104834900B (zh) * | 2015-04-15 | 2017-12-19 | 常州飞寻视讯信息科技有限公司 | 一种联合声像信号进行活体检测的方法和系统 |
US10275672B2 (en) * | 2015-04-29 | 2019-04-30 | Beijing Kuangshi Technology Co., Ltd. | Method and apparatus for authenticating liveness face, and computer program product thereof |
CN106203235B (zh) * | 2015-04-30 | 2020-06-30 | 腾讯科技(深圳)有限公司 | 活体鉴别方法和装置 |
JP2017044778A (ja) * | 2015-08-25 | 2017-03-02 | 大阪瓦斯株式会社 | 認証装置 |
CN106529379A (zh) * | 2015-09-15 | 2017-03-22 | 阿里巴巴集团控股有限公司 | 一种活体识别方法及设备 |
CN106572049B (zh) * | 2015-10-09 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 一种身份验证方法及装置 |
US10026417B2 (en) * | 2016-04-22 | 2018-07-17 | Opentv, Inc. | Audio driven accelerated binge watch |
CN107404381A (zh) * | 2016-05-19 | 2017-11-28 | 阿里巴巴集团控股有限公司 | 一种身份认证方法和装置 |
JP6876941B2 (ja) * | 2016-10-14 | 2021-05-26 | パナソニックIpマネジメント株式会社 | バーチャルメイクアップ装置、バーチャルメイクアップ方法及びバーチャルメイクアッププログラム |
CN106778496A (zh) * | 2016-11-22 | 2017-05-31 | 重庆中科云丛科技有限公司 | 活体检测方法及装置 |
CN107437019A (zh) * | 2017-07-31 | 2017-12-05 | 广东欧珀移动通信有限公司 | 唇语识别的身份验证方法和装置 |
CN109271915B (zh) * | 2018-09-07 | 2021-10-08 | 北京市商汤科技开发有限公司 | 防伪检测方法和装置、电子设备、存储介质 |
CN109409204B (zh) * | 2018-09-07 | 2021-08-06 | 北京市商汤科技开发有限公司 | 防伪检测方法和装置、电子设备、存储介质 |
-
2018
- 2018-09-07 CN CN201811044838.5A patent/CN109409204B/zh active Active
-
2019
- 2019-05-31 JP JP2020517577A patent/JP6934564B2/ja active Active
- 2019-05-31 KR KR1020207009383A patent/KR102370694B1/ko active IP Right Grant
- 2019-05-31 WO PCT/CN2019/089493 patent/WO2020048168A1/zh active Application Filing
- 2019-05-31 SG SG11202002741VA patent/SG11202002741VA/en unknown
-
2020
- 2020-03-23 US US16/826,515 patent/US20200218916A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2020535538A (ja) | 2020-12-03 |
KR102370694B1 (ko) | 2022-03-04 |
US20200218916A1 (en) | 2020-07-09 |
SG11202002741VA (en) | 2020-04-29 |
KR20200047650A (ko) | 2020-05-07 |
CN109409204B (zh) | 2021-08-06 |
CN109409204A (zh) | 2019-03-01 |
WO2020048168A1 (zh) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6934564B2 (ja) | 偽装防止の検出方法および装置、電子機器、記憶媒体 | |
US10992666B2 (en) | Identity verification method, terminal, and server | |
CN109271915B (zh) | 防伪检测方法和装置、电子设备、存储介质 | |
KR101494874B1 (ko) | 사용자 인증 방법, 이를 실행하는 장치 및 이를 저장한 기록 매체 | |
US10552698B2 (en) | System for multiple algorithm processing of biometric data | |
Giot et al. | A new soft biometric approach for keystroke dynamics based on gender recognition | |
CN113366487A (zh) | 基于表情组别的操作确定方法、装置及电子设备 | |
EP2704052A1 (en) | Transaction verification system | |
US20060158307A1 (en) | System and method for face recognition | |
KR101464446B1 (ko) | 얼굴 인식과 자세 추정을 이용한 개인 인증 방법 및 그 장치 | |
US20210406351A1 (en) | Non-face-to-face authentication system | |
KR20190122206A (ko) | 신분 인증 방법 및 장치, 전자 기기, 컴퓨터 프로그램 및 저장 매체 | |
JP6792986B2 (ja) | 生体認証装置 | |
US20230012235A1 (en) | Using an enrolled biometric dataset to detect adversarial examples in biometrics-based authentication system | |
WO2022244357A1 (ja) | 生体の認証システムおよび認証方法 | |
JP4468756B2 (ja) | 画像の相関ベース類似度を演算する類似度演算装置、認識装置、類似度演算方法、認識方法、照合用プログラム及びそれを記録した記録媒体 | |
TWI325568B (en) | A method for face varification | |
CN117853103A (zh) | 基于智能手环的支付系统激活方法 | |
Gonzalez et al. | Improving presentation attack detection for ID cards on remote verification systems | |
KR101116737B1 (ko) | 요주의 인물 식별 시스템 | |
EP3885944A1 (en) | Authentication system, authentication device, authentication method, and program | |
KR20090119127A (ko) | 얼굴 인식을 이용한 인증 방법 및 장치 | |
KR102158320B1 (ko) | 사용자 인증 방법, 사용자 인증 장치, 그리고 사용자 인증 프로그램 | |
Kumar et al. | An Advance Approach of Face Recognition using PCA and Region Base Color Segmentation | |
Sinha et al. | Implementing Levels of Security using Multimodal Architecture. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210812 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934564 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |