JP2020504360A - 顔活動検出方法および装置、ならびに電子デバイス - Google Patents

顔活動検出方法および装置、ならびに電子デバイス Download PDF

Info

Publication number
JP2020504360A
JP2020504360A JP2019524077A JP2019524077A JP2020504360A JP 2020504360 A JP2020504360 A JP 2020504360A JP 2019524077 A JP2019524077 A JP 2019524077A JP 2019524077 A JP2019524077 A JP 2019524077A JP 2020504360 A JP2020504360 A JP 2020504360A
Authority
JP
Japan
Prior art keywords
face image
deep learning
learning model
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019524077A
Other languages
English (en)
Other versions
JP2020504360A5 (ja
JP6732317B2 (ja
Inventor
チェングァン・マ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Publication of JP2020504360A publication Critical patent/JP2020504360A/ja
Publication of JP2020504360A5 publication Critical patent/JP2020504360A5/ja
Application granted granted Critical
Publication of JP6732317B2 publication Critical patent/JP6732317B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Abstract

全体的な顔画像に基づいて第1の深層学習モデルがトレーニングされる。全体的な顔画像からクロップされた、抽出された顔画像に基づいて、第2の深層学習モデルがトレーニングされる。第1の予測スコアを取得するために、トレーニングされた第1の深層学習モデルに基づいて、および第2の予測スコアを取得するために、トレーニングされた第2の深層学習モデルに基づいて、顔活動検出が実施される。第1の予測スコアと第2の予測スコアとに基づいて予測スコア結果が生成され、予測スコア結果は、抽出された顔画像についての顔活動検出結果を判定するためにしきい値と比較される。

Description

本出願は、その全体が参照により本明細書に組み込まれる、2017年6月7日に出願された中国特許出願第201710421333.5号の優先権を主張する。
本出願は、コンピュータソフトウェア技術の分野に関し、特に顔活動(liveness)検出方法、装置、および電子デバイスに関する。
顔活動検出技術は、スクリーンリプレイ攻撃、プリント写真攻撃、および3次元モデリング攻撃などのなりすまし攻撃(spoofing attack)を遮断するように、顔認識技法を使用することによって現在のユーザが真正のユーザであるかどうかを判定するために使用される。
現在、顔活動検出技術は、介入的な(intrusive)顔活動検出技術と非介入的な(non-intrusive)顔活動検出技術とに分類されることが可能である。介入的な顔活動検出技術では、ユーザは、まばたき、頭部の回転、または開口などのいくつかの特定の生体(live)行為を協働的に完了する必要がある。所与の命令に基づいて顔認識を実施するとき、活動検出モジュールは、オペレータが生体動作を正確に完了するかどうかと、オペレータが真正のユーザであるかどうかとを判定することができる。非介入的な顔活動検出技術では、ユーザは生体行為を協働的に完了する必要がなく、したがってユーザエクスペリエンスがより良くなるが、技術的複雑さはより高くなる。さらに、活動検出は、主に入力単一フレーム画像に関する情報または他のデバイスセンサに関する情報に応じて実施される。
既存の技術における説明された非介入的な顔活動検出技術では、通常生体および非生体(non-live)顔画像を使用することによって単一深層学習モデル上で教師ありトレーニングが実施され、次いでトレーニングされたモデルを使用することによって入力単一フレーム画像上で顔活動予測が実施される。
しかしながら、そのような技術的解決策は、顔なりすまし攻撃(spoofing face attack)タイプのトレーニングデータに大きく依存し、不十分なトレーニングデータの客観的条件によって制限される。生体顔画像特徴を完全に抽出することは困難である。その結果、このモデルは生体顔特徴を完全に表すことができるとは限らず、顔活動検出結果の精度が低減される。
本出願の実施形態は、既存の技術における以下の技術的問題を解決するための顔活動検出方法、装置、および電子デバイスを提供する。単一深層学習モデルに基づく技術的解決策では、生体顔画像特徴を完全に抽出することは困難である。その結果、このモデルは生体顔特徴を完全に表すことができるとは限らず、顔活動検出結果の精度が低減される。
説明された技術的問題を解決するため、本出願の実施形態は以下のように実装される。
本出願の一実施形態は、全体的な顔画像(general facial image)に基づいて第1の深層学習モデルをトレーニングするステップと、全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングするステップと、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施するステップとを含む、顔活動検出方法を提供する。
本出願の一実施形態は、全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすることと、全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすることとを行うように構成される、トレーニングモジュールと、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施するように構成される、検出モジュールとを含む、顔活動検出装置を提供する。
本出願の実施形態において使用される少なくとも1つの技術的解決策は、以下の有益な効果を達成することができる。1つのそのような利益は、より多くの生体顔画像特徴が抽出されることである。既存の技術におけるモデルと比較して、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとは、共同で生体顔特徴をより良く表し、それにより顔活動検出結果の精度を改善する。したがって、既存の技術における問題の一部または全部が解決されることが可能である。
本出願の実施形態におけるまたは既存の技術における技術的解決策についてより明確に説明するために、以下は、実施形態または既存の技術について説明するために必要とされる添付の図面を手短に紹介する。明らかに、以下の説明における添付の図面は、本出願のいくつかの実施形態を示すにすぎず、当業者は、依然として創造的努力なしにこれらの添付の図面から他の図面を導出することができる。
本出願の解決策におけるモデルトレーニング段階の一例を示す概略フローチャートである。 本出願の解決策における活動検出段階の一例を示す概略フローチャートである。 本出願の一実施形態による、顔活動検出方法を示す概略フローチャートである。 本出願の一実施形態による、全体的な顔画像と抽出された顔画像との間の比較を示す概略図である。 本出願の一実施形態による、図3に対応する顔活動検出装置を示す概略構造図である。 本開示の一実装形態による、顔活動検出を用いてユーザ真正性を判定するためのコンピュータ実装方法の一例を示すフローチャートである。
本出願の実施形態は、顔活動検出方法、装置、および電子デバイスを提供する。
本出願における技術的解決策を当業者により良く理解させるために、以下は、本出願の実施形態における添付の図面を参照しながら、本出願の実施形態における技術的解決策について明確におよび完全に説明する。明らかに、説明される実施形態は、本出願の実施形態の全部ではなく一部であるにすぎない。創造的努力なしに本出願の実施形態に基づいて当業者によって取得されるすべての他の実施形態が、本出願の保護範囲内に入るものとする。
本出願の解決策におけるすべての深層学習モデルはニューラルネットワークに基づく。説明しやすいように、本出願の解決策の核となるアイデアが、一例に基づいて、ならびに図1および図2を参照しながら最初に説明される。
この例では、本出願の解決策は、モデルトレーニング段階と活動検出段階とに分類されることが可能である。
図1は、本出願の解決策におけるモデルトレーニング段階の一例を示す概略フローチャートである。モデルトレーニング段階では、顔画像における(トレーニングデータセットに属する)生体および非生体サンプルを使用することによって、2つの依存しない深層学習モデル、すなわち第1の深層学習モデルおよび第2の深層学習モデルがトレーニングされる。第1の深層学習モデルの入力画像は、収集された全体的な顔画像であり、第2の深層学習モデルの入力画像は、全体的な顔画像からクロップされた、抽出された顔画像であることが可能である。第1の深層学習モデルと第2の深層学習モデルとは、異なる深層学習ネットワーク構造(すなわち、モデルが基づくニューラルネットワークの構造)を使用することができる。異なるネットワーク構造は、異なる画像特徴に異なるように反応する。生体および非生体トレーニングデータセットは、深層学習方法に基づいて第1の深層学習モデルおよび第2の深層学習モデルのトレーニングを完了するために使用される。
図2は、本出願の解決策における活動検出段階の一例を示す概略フローチャートである。活動検出段階では、ユーザの顔スキャン画像がユーザの全体的な顔画像として収集され、第1の深層学習モデルが入力されて、予測スコアPAが取得される。さらに、顔検出がユーザの顔スキャン画像上で実施され、検出結果に基づいて、抽出された顔画像がユーザの顔スキャン画像からクロップされ、抽出された顔画像に第2の深層学習モデルが入力されて、予測スコアPBが取得される。その後、たとえば(PA+PB)の予測スコア結果は、ユーザの顔スキャン画像についての顔活動検出結果を判定するための共同決定を行うために、判定されたしきい値(たとえば、しきい値は1であることが可能である)と比較されることが可能である。
説明された核となるアイデアに基づいて、以下は、本出願の解決策について詳細に説明する。
図3は、本出願の一実施形態による、顔活動検出方法を示す概略フローチャートである。プログラムの観点から、プロシージャは、サーバまたは端末上のプログラム、たとえば識別情報認証プログラムまたはeコマースアプリケーションによって実行されることが可能である。デバイスの観点から、プロシージャは、サーバまたは端末として使用されることが可能である以下のデバイス、すなわちアクセス制御デバイス、パーソナルコンピュータ、媒体コンピュータ、コンピュータクラスタ、モバイルフォン、タブレットコンピュータ、インテリジェントウェアラブルデバイス、自動車機械、またはポイントオブセール(POS)のうちの少なくとも1つによって実行される。
図3中のプロシージャは、以下のステップを含むことができる。
S301。全体的な顔画像に基づいて第1の深層学習モデルをトレーニングする。
本出願のこの実施形態では、第1の深層学習モデルをトレーニングするために使用される全体的な顔画像は、複数のサンプルを含むことができる。複数のサンプルにおいて、いくつかは、生体顔を撮影することによって収集され、正のサンプルとして使用されることが可能である生体顔画像であり、いくつかは、顔ピクチャまたは顔モデルなどの非生体顔を撮影することによって収集され、負のサンプルとして使用されることが可能である非生体顔画像である。
本出願のこの実施形態では、第1の深層学習モデルは分類モデルであり、全体的な顔画像は、分類モデルの入力として使用される。モデル処理の後に、全体的な顔画像は、少なくとも生体顔画像カテゴリーまたは非生体顔画像カテゴリーに分類されることが可能である。第1の深層学習モデルをトレーニングする目的は、第1の深層学習モデルの分類精度を改善することである。
S302。全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングする。
本出願のこの実施形態では、顔領域全体に加えて、全体的な顔画像は、全体的に背景領域および顔を除く人体などのいくつかの無関係の領域を含む。抽出された顔画像は、無関係の領域を除外することができ、少なくとも抽出された顔領域、たとえば顔領域全体、眼領域、または鼻領域を含むことができる。1つまたは複数の第2の深層学習モデルがあることが可能であり、各第2の深層学習モデルは、顔領域のタイプに対応することができる。
図4は、本出願の一実施形態による、全体的な顔画像と抽出された顔画像との間の比較を示す概略図である。
図4では、(a)は全体的な顔画像である。理解しやすいように、抽出された顔画像が、破線を使用することによって(a)においてマークされ、(a)は、(b)に示される抽出された顔画像を取得するために、対応してクロップされることが可能である。
さらに、抽出された顔画像が部分的な顔領域のみを含む画像であるとき、全体的な顔画像もまた顔領域全体を含み、無関係の領域を基本的に除外する画像であることが可能である。
本出願のこの実施形態では、第2の深層学習モデルをトレーニングするために使用される抽出された顔画像もまた様々なサンプルを含むことができる。様々なサンプルにおいて、いくつかは、正のサンプルとして使用されることが可能である生体顔画像であり、いくつかは、負のサンプルとして使用されることが可能である非生体顔画像である。
本出願のこの実施形態では、第2の深層学習モデルも分類モデルであり、抽出された顔画像は、分類モデルの入力として使用される。モデル処理の後に、抽出された顔画像は、少なくとも生体顔画像カテゴリーまたは非生体顔画像カテゴリーに分類されることが可能である。第2の深層学習モデルをトレーニングする目的は、第2の深層学習モデルの分類精度を改善することである。
全体的な顔画像からクロップされることに加えて、抽出された顔画像は、全体的な顔画像に依存することなしに特殊な収集によって取得されることが可能である。
本出願のこの実施形態では、第1の深層学習モデルと第2の深層学習モデルとは、トレーニングの前に異なるモデルまたは同じモデルであることが可能である。
ステップS301およびステップS302の実行順序は本出願において制限されず、ステップS301とステップS302とは同時にまたは連続的に実施されることが可能である。
S303。トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施する。
図3中の各ステップは、同じデバイスまたは同じプログラムによって実施されることが可能であるか、あるいは異なるデバイスまたは異なるプログラムによって実施されることが可能である。たとえば、ステップS301〜ステップS303は、デバイス1によって実施される。別の例では、ステップS301とステップS302の両方はデバイス1によって実施され、ステップS303はデバイス2によって実施されるなどである。
図3中の方法によれば、より多くの生体顔画像特徴が抽出される。既存の技術におけるモデルと比較して、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとは、共同で生体顔特徴をより良く表し、それにより顔活動検出結果の精度を改善する。したがって、既存の技術における問題の一部または全部が解決されることが可能である。
図3中の方法に基づいて、本出願のこの実施形態は、以下で説明される方法のいくつかの特定の実装解決策と拡張解決策とをさらに提供する。
本出願のこの実施形態では、画像特徴に対する第1の深層学習モデルの感度と画像特徴に対する第2の深層学習モデルの感度との間の差を実装するために、第1の深層学習モデルと第2の深層学習モデルとは、好ましくは異なる深層学習ネットワーク構造を使用することができる。
2つの深層学習モデルの異なるネットワーク構造は、2つの深層学習モデルが1つまたは複数の異なるネットワーク構造パラメータを含むことを示すことができる。ネットワーク構造パラメータは、たとえば隠れ可変層(hidden variable layer)の量、隠れ可変層のタイプ、ニューロンノードの量、入力層ノードの量、または出力層ノードの量を含むことができる。
確実に、いくつかの特定の深層学習モデルはまた、対応する特定のパラメータを含むことができる。たとえば、画像分野において現在広く使用されている畳み込みニューラルネットワークに基づく深層学習モデルでは、畳み込みユニットの畳み込みカーネルのサイズもまたこの深層学習モデルの特定のネットワーク構造パラメータである。
本出願の解決策では、概して、異なる深層学習ネットワーク構造は、以下のパラメータ、すなわち隠れ可変層の量、隠れ可変層のタイプ、ニューロンノードの量、または畳み込みユニットの畳み込みカーネルのサイズのうちの少なくとも1つを含む。
本出願のこの実施形態では、モデルトレーニング効率とモデルトレーニング信頼性とを改善するために、モデルトレーニングは、教師ありトレーニング様式で実施されることが可能である。
たとえば、教師ありトレーニング様式では、ステップS301について、全体的な顔画像は第1のラベルを含み、第1のラベルは、第1のラベルに対応する全体的な顔画像が生体顔画像であるかどうかを示す。
全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすることは、第1の深層学習モデルを全体的な顔画像に入力することであって、第1の深層学習モデルは、全体的な顔画像の特徴を抽出し、抽出された特徴に基づいて、全体的な顔画像が生体顔画像であるかどうかを予測する、入力することと、予測結果と全体的な顔画像の第1のラベルとに基づいて第1の深層学習モデルを調整することとを含むことができる。概して、予測結果が第1のラベルと矛盾するとき、第1の深層学習モデルは調整され、したがって調整された第1の深層学習モデルは、再予測によって、第1のラベルに矛盾しない予測結果を取得することができる。
トレーニングプロセスにおいて第1の深層学習モデルによって抽出された特徴は、好ましくは全体的な顔画像の画像構造特徴、たとえば全体的な顔画像におけるスクリーン写真エッジまたは顔歪みを含むことができる。
別の例では、同様に、教師ありトレーニング様式では、ステップS302について、抽出された顔画像は第2のラベルを含み、第2のラベルは、第2のラベルに対応する抽出された顔画像が生体顔画像であるかどうかを示す。
全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすることは、全体的な顔画像からクロップされた、抽出された顔画像を取得することと、第2の深層学習モデルを取得された抽出された顔画像に適用することであって、第2の深層学習モデルは、抽出された顔画像の特徴を抽出し、抽出された特徴に基づいて、抽出された顔画像が生体顔画像であるかどうかを予測する、適用することと、予測結果と抽出された顔画像の第2のラベルとに基づいて第2の深層学習モデルを調整することとを含むことができる。概して、予測結果が第2のラベルと矛盾するとき、第2の深層学習モデルは調整され、したがって調整された第2の深層学習モデルは、再予測によって、第2のラベルに矛盾しない予測結果を取得することができる。
トレーニングプロセスにおいて第2の深層学習モデルによって抽出された特徴は、好ましくは抽出された顔画像の画像素材特徴、たとえば抽出された顔画像におけるぼけ、テクスチャ、または色歪みを含むことができる。
上記で説明された2つの例では、第1の深層学習モデルと第2の深層学習モデルとは、異なる画像特徴に異なるように反応する。第1の深層学習モデルは、画像構造特徴により反応し、第2の深層学習モデルは、画像素材特徴により反応する。顔画像では、画像構造特徴は、相対的に全般的で一般化された特徴であり、画像素材特徴は、相対的に局所的で微細な特徴である。
したがって、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとは、より正確な顔活動検出結果を取得するための共同決定を行うように、共同でより階層的におよび豊富に顔画像特徴を抽出することができる。
本出願のこの実施形態では、対応するトレーニングデータセットおよび/または対応する深層学習ネットワーク構造は異なり、したがって第1の深層学習モデルと第2の深層学習モデルとは、異なる画像特徴に異なるように反応することができる。
たとえば、第1の深層学習モデルと第2の深層学習モデルとが畳み込みニューラルネットワークに基づく場合、第1の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルは、相対的に大きくなることが可能であり、したがって第1の深層学習モデルは、全体的な顔画像の画像構造特徴を抽出する。対応して、第2の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルは、相対的に小さくなることが可能であり、したがって第2の深層学習モデルは、抽出された顔画像の画像素材特徴を抽出する。したがって、この例では、第1の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルは、第2の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルよりも大きい。
畳み込みカーネルのサイズは感度に影響を及ぼすことができるパラメータの一例にすぎず、別のネットワーク構造パラメータも感度に影響を及ぼすことができることに留意されたい。
本出願のこの実施形態では、ステップS303について、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとは、共同で顔活動検出を実施するための決定を行う。様々な特定の決定様式がある。たとえば、第1の深層学習モデルと第2の深層学習モデルとを別個に使用することによって別個の決定が行われ、次いですべての別個の決定結果を合成することによって最終決定結果が判定される。別の例では、最初に第1の深層学習モデルおよび第2の深層学習モデルのうちのいずれかを使用することによって別個の決定が行われることが可能である。別個の決定結果が特定の条件を満たすとき、別個の決定結果は、最終決定結果として直接使用されることが可能であり、他の場合、決定は別の残りのモデルと組み合わせて包括的に行われて最終決定結果が取得されるなどである。
前の段落において説明された第1の様式が使用される場合、一例は以下の通りである。
たとえば、ステップS303について、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施することは、顔活動検出のために収集された(概してユーザの顔スキャン画像である)全体的な顔画像を取得することと、対応する第1の予測データを取得するために、トレーニングされた第1の深層学習モデルを、処理のために、収集された全体的な顔画像に入力することと、収集された全体的な顔画像からクロップされた、抽出された顔画像を取得すること、および対応する第2の予測データを取得するために、トレーニングされた第2の深層学習モデルを処理のために入力することと、ユーザの顔スキャン画像についての顔活動検出結果を取得するために、第1の予測データと第2の予測データとに基づいて共同決定を行うこととを含むことができる。
第1の予測データは、たとえば説明された予測スコアPAであることが可能であり、第2の予測データは、たとえば説明された予測スコアPBであることが可能である。確実に、予測スコアが第1の予測データおよび第2の予測データの表現形式の一例にすぎず、あるいは別の表現形式、たとえば確率値またはブール値があることが可能である。
上記は、本出願のこの実施形態において提供される顔活動検出方法である。図5に示されるように、本開示の同じアイデアに基づいて、本出願の一実施形態は、対応する装置をさらに提供する。
図5は、本出願の一実施形態による、図3に対応する顔活動検出装置を示す概略構造図である。装置は、図3中のプロシージャの実行主体上にあることが可能であり、全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすることと、全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすることとを行うように構成される、トレーニングモジュール501と、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施するように構成される、検出モジュール502とを含む。
オプションで、第1の深層学習モデルと第2の深層学習モデルとは、異なる深層学習ネットワーク構造を使用する。
オプションで、異なる深層学習ネットワーク構造は、以下のパラメータ、すなわち隠れ可変層の量、隠れ可変層のタイプ、ニューロンノードの量、または畳み込みユニットの畳み込みカーネルのサイズのうちの少なくとも1つを含む。
オプションで、全体的な顔画像は第1のラベルを含み、第1のラベルは、第1のラベルに対応する全体的な顔画像が生体顔画像であるかどうかを示す。
トレーニングモジュール501によって、全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすることは、トレーニングモジュール501によって、第1の深層学習モデルを全体的な顔画像に入力することであって、第1の深層学習モデルは、全体的な顔画像の画像構造特徴に基づいて、全体的な顔画像が生体顔画像であるかどうかを予測する、入力することと、予測結果と全体的な顔画像の第1のラベルとに基づいて第1の深層学習モデルを調整することとを含む。
オプションで、抽出された顔画像は第2のラベルを含み、第2のラベルは、第2のラベルに対応する抽出された顔画像が生体顔画像であるかどうかを示す。
トレーニングモジュール501によって、全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすることは、トレーニングモジュール501によって、全体的な顔画像からクロップされた、抽出された顔画像を取得すること、および第2の深層学習モデルを抽出された顔画像に入力することであって、第2の深層学習モデルは、抽出された顔画像の画像素材特徴に基づいて、抽出された顔画像が生体顔画像であるかどうかを予測する、入力することと、予測結果と抽出された顔画像の第2のラベルとに基づいて第2の深層学習モデルを調整することとを含む。
オプションで、第1の深層学習モデルと第2の深層学習モデルとは、畳み込みニューラルネットワークに基づく。
第1の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルは、第2の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルよりも大きく、したがって第1の深層学習モデルは、全体的な顔画像の画像構造特徴を抽出し、第2の深層学習モデルは、抽出された顔画像の画像素材特徴を抽出する。
オプションで、検出モジュール502によって、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施することは、検出モジュール502によって、顔活動検出のために収集された全体的な顔画像を取得することと、対応する第1の予測データを取得するために、トレーニングされた第1の深層学習モデルを、処理のために、収集された全体的な顔画像に入力することと、収集された全体的な顔画像からクロップされた、抽出された顔画像を取得すること、および対応する第2の予測データを取得するために、トレーニングされた第2の深層学習モデルを処理のために入力することと、ユーザの顔スキャン画像についての顔活動検出結果を取得するために、第1の予測データと第2の予測データとに基づいて共同決定を行うこととを含む。
本開示の同じアイデアに基づいて、本出願の一実施形態は、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続されるメモリとを含む、対応する電子デバイスをさらに提供する。
メモリは、少なくとも1つのプロセッサによって実行されることが可能である命令を記憶し、命令は、少なくとも1つのプロセッサが、全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすることと、全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすることと、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施することとを可能にするために、少なくとも1つのプロセッサによって実行される。
本開示の同じアイデアに基づいて、本出願の一実施形態は、対応する不揮発性コンピュータ記憶媒体をさらに提供し、不揮発性コンピュータ記憶媒体はコンピュータ実行可能命令を記憶し、コンピュータ実行可能命令は、全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすることと、全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすることと、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施することとを行うように設定される。
本明細書における実施形態はすべて漸進的な様式で説明され、実施形態における同じまたは同様の部分について、これらの実施形態が参照されることが可能であり、各実施形態は、他の実施形態との差異に焦点を当てる。特に、装置実施形態、電子デバイス実施形態、不揮発性コンピュータ記憶媒体実施形態は、基本的に方法実施形態と同様であり、したがって手短に説明され、関係する部分について、方法実施形態における部分的な説明が参照される。
本出願の実施形態において提供される装置、電子デバイス、および不揮発性コンピュータ記憶媒体は、方法に対応する。したがって、装置、電子デバイス、および不揮発性コンピュータ記憶媒体もまた、対応する方法の有益な技術的効果と同様の有益な技術的効果を有する。方法の有益な技術的効果は上記で詳細に説明され、したがって対応する装置、電子デバイス、および不揮発性コンピュータ記憶媒体の有益な技術的効果は、ここで再び説明されない。
1990年代には、技術改善がハードウェア改善(たとえば、ダイオード、トランジスタ、またはスイッチなどの回路構造の改善)であるのかソフトウェア改善(方法プロシージャの改善)であるのかは、はっきりと区別されることが可能である。しかしながら、技術が発達するにつれて、多くの現在の方法プロシージャの改善は、ハードウェア回路構造の直接的改善と見なされることが可能である。設計者は、通常改善された方法プロシージャをハードウェア回路にプログラムして、対応するハードウェア回路構造を取得する。したがって、方法プロシージャは、ハードウェアエンティティモジュールによって改善されることが可能である。たとえば、プログラマブル論理デバイス(PLD)(たとえば、フィールドプログラマブルゲートアレイ(FPGA))がそのような集積回路であり、プログラマブル論理デバイスの論理機能が、デバイスプログラミングによってユーザによって判定される。設計者は、特定用途向け集積回路チップを設計および製作することをチップ製造業者に要求することなしにデジタルシステムをPLDに「統合する」ためのプログラミングを実施する。さらに、プログラミングは、大部分が、集積回路チップを手作業で作る代わりに、「論理コンパイラ」ソフトウェアを修正することによって実装される。これは、プログラムを開発および構成するために使用されるソフトウェアコンパイラと同様である。しかしながら、コンパイルの前に取得された元のコードもまた、特定のプログラミング言語で書かれ、これは、ハードウェア記述言語(Hardware Description Language、HDL)と呼ばれる。しかしながら、ABEL(Advanced Boolean Expression Language:高度ブール表現言語)、AHDL(Alteraハードウェア記述言語)、Confluence、CUPL(コーネル大学プログラミング言語)、HDCal、JHDL(Java(登録商標)ハードウェア記述言語)、Lava、Lola、MyHDL、PALASM、およびRHDL(Rubyハードウェア記述言語)などの様々なHDLがある。現在、VHDL(超高速集積回路ハードウェア記述言語)およびVerilogが最も普及している。また、論理プログラミングのみが、説明されたいくつかのハードウェア記述言語を使用することによって方法プロシージャ上で実施される必要があり、いくつかのハードウェア記述言語は集積回路にプログラムされ、したがって論理方法プロシージャを実装するハードウェア回路が容易に取得されることが可能であることを、当業者は理解されよう。
コントローラが、任意の適切な様式で実装されることが可能である。たとえば、コントローラは、マイクロプロセッサまたはプロセッサを使用することができ、(マイクロ)プロセッサによって実行されることが可能であるコンピュータ可読プログラムコードのものである、コンピュータ可読媒体、論理ゲート、スイッチ、特定用途向け集積回路(ASIC)、プログラマブル論理コントローラ、および組込みマイクロコントローラの形態(たとえば、ソフトウェアまたはハードウェア)を記憶することができる。コントローラの例は、限定はしないが、以下のマイクロコントローラ、すなわちARC625D、Atmel AT91SAM、Microchip PIC18F26K20、またはSilicone Labs C8051F320を含む。また、メモリコントローラは、メモリの制御論理の一部として実装されることが可能である。当業者はまた、純粋なコンピュータ可読プログラムコード様式でコントローラを実装することに加えて、方法ステップを使用することによって論理プログラミングが完全に実施されることが可能であり、したがってコントローラが、論理ゲート、スイッチ、特定用途向け集積回路、プログラマブル論理コントローラ、組込みマイクロコントローラなどの形態で同じ機能を実装することを知っている。したがって、コントローラはハードウェア構成要素と見なされることが可能であり、コントローラにおいて様々な機能を実装するための装置もまた、ハードウェア構成要素における構造と見なされることが可能である。代替的に、様々な機能を実装するように構成される装置は、ソフトウェアモジュール、または方法を実装することができるハードウェア構成要素における構造と見なされることが可能である。
説明された実施形態において説明されたシステム、装置、モジュール、またはユニットは、コンピュータチップまたはエンティティによって実装されるか、あるいは機能をもつ製品によって実装されることが可能である。典型的な実装デバイスはコンピュータである。詳細には、コンピュータは、たとえばパーソナルコンピュータ、ラップトップコンピュータ、セルラーフォン、カメラフォン、スマートフォン、携帯情報端末、メディアプレーヤ、ナビゲーションデバイス、電子メールデバイス、ゲーム機、タブレットコンピュータ、またはウェアラブルデバイス、あるいはこれらのデバイスのうちのいずれかの組合せであることが可能である。
説明しやすいように、説明された装置は、機能を様々なユニットに分割することによって説明される。確実に、本出願が実装されるとき、各ユニットの機能は、ソフトウェアおよび/またはハードウェアのうちの1つまたは複数において実装されることが可能である。
本開示の実施形態が、方法、システム、またはコンピュータプログラム製品として提供されることが可能であることを、当業者は理解されよう。したがって、本開示は、ハードウェアのみの実施形態、ソフトウェアのみの実施形態、またはソフトウェアとハードウェアとの組合せをもつ実施形態の形態を使用することができる。さらに、本開示は、コンピュータ使用可能プログラムコードを含む(限定はしないが、ディスクメモリ、CD-ROM、光メモリなどを含む)1つまたは複数のコンピュータ使用可能記憶媒体上で実装されるコンピュータプログラム製品の形態を使用することができる。
本開示は、本開示の実施形態による方法、デバイス(システム)、およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら説明される。コンピュータプログラム命令が、フローチャートおよび/またはブロック図中の各プロセスおよび/または各ブロック、ならびにフローチャートおよび/またはブロック図中のプロセスおよび/またはブロックの組合せを実装するために使用されることが可能であることを理解されたい。これらのコンピュータプログラム命令は、機械を生成するために、汎用コンピュータ、専用コンピュータ、組込みプロセッサ、または任意の他のプログラマブルデータ処理デバイスのプロセッサのために提供されることが可能であり、したがってコンピュータまたは任意の他のプログラマブルデータ処理デバイスのプロセッサによって実行される命令は、フローチャート中の1つまたは複数のプロセスにおいて、またはブロック図中の1つまたは複数のブロックにおいて特定の機能を実装するための装置を生成する。
コンピュータまたは任意の他のプログラマブルデータ処理デバイスに特定の様式で動作するように命令することができるこれらのコンピュータプログラム命令は、コンピュータ可読メモリに記憶されることが可能であり、したがってコンピュータ可読メモリに記憶された命令は、命令装置を含むアーティファクトを生成する。命令装置は、フローチャート中の1つまたは複数のプロセスにおいて、および/またはブロック図中の1つまたは複数のブロックにおいて特定の機能を実装する。
これらのコンピュータプログラム命令は、コンピュータまたは別のプログラマブルデータ処理デバイスにロードされることが可能であり、したがって一連の動作およびステップが、コンピュータまたは別のプログラマブルデバイス上で実施され、それによりコンピュータ実装処理を生成する。したがって、コンピュータまたは別のプログラマブルデバイス上で実行される命令は、フローチャート中の1つまたは複数のプロセスにおいて、またはブロック図中の1つまたは複数のブロックにおいて特定の機能を実装するためのステップを提供する。
典型的な構成では、コンピューティングデバイスは、1つまたは複数のプロセッサ(CPU)と、入出力インターフェースと、ネットワークインターフェースと、メモリとを含む。
メモリは、読取り専用メモリ(ROM)またはフラッシュメモリ(フラッシュRAM)などのコンピュータ可読媒体における、揮発性メモリ、ランダムアクセスメモリ(RAM)および/または不揮発性メモリなどの形態を含むことができる。メモリはコンピュータ可読媒体の一例である。
コンピュータ可読媒体は、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体を含み、任意の方法または技術を使用することによって情報を記憶することができる。情報は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータであることが可能である。コンピュータ記憶媒体の例は、限定はしないが、相変化ランダムアクセスメモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、別のタイプのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュメモリまたは別のメモリ技術、コンパクトディスク読取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)または別の光ストレージ、磁気テープ、磁気ディスクストレージ、別の磁気ストレージデバイス、あるいは任意の他の非伝送媒体を含む。コンピュータ記憶媒体は、コンピューティングデバイスによってアクセスされることが可能である情報を記憶するために使用されることが可能である。本明細書で説明されたように、コンピュータ可読媒体は、一時的媒体(一時的媒体)、たとえば変調データ信号および搬送波を含まない。
「含む(include)」、「含んでいる(contain)」という用語、またはそれらの任意の他の変形態は非排他的包含をカバーするものとし、したがって一連の要素を含むプロセス、方法、物品、またはデバイスがまた、まさにこれらの要素を含むだけでなく、明確にリストされない他の要素を含むか、あるいはそのようなプロセス、方法、物品、またはデバイスに固有の要素をさらに含むことにさらに留意されたい。「を含む(includes a ...)」の前にある要素は、さらなる制約がなければ、その要素を含むプロセス、方法、物品、またはデバイス中の追加の同等の要素の存在を妨げない。
本出願は、プログラムモジュールなどのコンピュータによって実行されるコンピュータ実行可能命令の共通のコンテキストにおいて説明されることが可能である。概して、プログラムモジュールは、特定のタスクを実行するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。本出願はまた、分散コンピューティング環境において実施されることが可能である。これらの分散コンピューティング環境では、タスクは、通信ネットワークを使用することによって接続されるリモート処理デバイスによって実行される。分散コンピューティング環境では、プログラムモジュールは、ストレージデバイスを含むローカルおよびリモートコンピュータ記憶媒体中にあることが可能である。
本明細書における実施形態はすべて漸進的な様式で説明され、実施形態における同じまたは同様の部分について、これらの実施形態が参照されることが可能であり、各実施形態は、他の実施形態との差異に焦点を当てる。特に、システム実施形態は、基本的に方法実施形態と同様であり、したがって手短に説明され、関係する部分について、方法実施形態における部分的な説明が参照されることが可能である。
前述の説明は、本出願の実施形態にすぎず、本出願を限定するものではない。当業者のために、本出願は、様々な修正および変更を有することができる。本出願の趣旨および原理内で行われるいかなる修正、等価な置換、改善などもまた、本出願の保護範囲内に入るものとする。
図6は、本開示の一実装形態による、顔活動検出を用いてユーザ真正性を判定するためのコンピュータ実装方法600の一例を示すフローチャートである。提示を明快にするために、以下の説明は、概して、本明細書中の他の図のコンテキストにおいて方法600について説明する。ただし、方法600が、適宜に、たとえば任意のシステム、環境、ソフトウェア、およびハードウェア、またはシステム、環境、ソフトウェア、およびハードウェアの組合せによって実施されることが可能であることを理解されよう。いくつかの実装形態では、方法600の様々なステップは、並行して、組合せで、ループで、または任意の順序で実行されることが可能である。
602において、全体的な顔画像を分類するために第1の深層学習モデルをトレーニングする。全体的な顔画像は、少なくとも生体顔画像および非生体顔画像に分類される。いくつかの実装形態では、生体顔画像は正のサンプルであると見なされ、非生体顔画像は負のサンプルであると見なされる。いくつかの実装形態では、第1の深層学習モデルは分類モデルであり、全体的な顔画像は、第1の深層学習モデルの入力として使用される。第1の深層学習モデルをトレーニングすることは、全体的な顔画像に関する分類精度を改善する。
いくつかの実装形態では、特定の全体的な顔画像が、第1のラベルに対応する特定の全体的な顔画像が生体顔画像であるかどうかを示す第1のラベルを含む。いくつかの実装形態では、第1の深層学習モデルをトレーニングすることは、1)特定の全体的な顔画像の画像構造特徴に基づく、特定の全体的な顔画像が生体顔画像であるかどうかの第1の予測結果を生成するために、特定の全体的な顔画像を第1の深層学習モデルに入力することと、2)第1の予測結果と第1のラベルとに基づいて第1の深層学習モデルを調整することとを含む。602から、方法600は604に進む。
604において、全体的な顔画像から、クロップされた顔画像を抽出する。いくつかの実装形態では、特定のクロップされた顔画像は第2のラベルを含み、第2のラベルは、第2のラベルに対応する特定のクロップされた顔画像が生体顔画像であるかどうかを示す。いくつかの実装形態では、クロップされた顔画像に基づいて第2の深層学習モデルをトレーニングすることは、1)特定のクロップされた顔画像を取得することと、2)特定のクロップされた顔画像の画像素材特徴に基づく、特定のクロップされた顔画像が生体顔画像であるかどうかの第2の予測結果を生成するために、特定のクロップされた顔画像を第2の深層学習モデルに入力することと、3)第2の予測結果と第2のラベルとに基づいて第2の深層学習モデルを調整することとを含む。604から、方法600は606に進む。
606において、クロップされた顔画像に基づいて第2の深層学習モデルをトレーニングする。606から、方法600は608に進む。
608において、トレーニングされた第1の深層学習モデルとトレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施する。いくつかの実装形態では、第1の深層学習モデルと第2の深層学習モデルとが畳み込みニューラルネットワークに基づき、第1の深層学習モデルの畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルは、第2の深層学習モデルの畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルよりも大きい。608の後、方法600は終了する。
いくつかの実装形態では、顔活動検出は、1)全体的な顔画像を取得することと、2)対応する第1の予測データを取得するために、全体的な顔画像をトレーニングされた第1の深層学習モデルに入力することと、3)全体的な顔画像から、クロップされた顔画像を取得することと、4)対応する第2の予測データを取得するために、クロップされた顔画像をトレーニングされた第2の深層学習モデルに入力することと、5)顔活動検出結果を取得するために、第1の予測データと第2の予測データとに基づいて共同決定を行うこととを含む。608から、方法600は610に進む。
本明細書において説明される主題の実装形態は、特定の利点または技術的効果を実現するように実装されることが可能である。説明された顔活動検出は、認証プロセスを向上させ、データセキュリティを保証するために使用されることが可能である。たとえば、説明された方法は、生体人間顔の画像と非生体人間顔の画像とを区別してセキュアなデータに関する不正および悪意のある挙動を回避するのを助けるために使用されることが可能である。説明された方法は、(モバイルコンピューティングデバイスおよびデジタルイメージングデバイスなどの)コンピューティングデバイスに組み込まれることが可能である。
顔活動結果は、グラフィカルユーザインターフェース上に表示されることが可能である。顔活動結果に基づいて、後続の行為(たとえば、セキュアなデータをロック解除すること、ソフトウェアアプリケーションを動作させること、データを記憶すること、ネットワークにわたってデータを送信すること、またはグラフィカルユーザインターフェース上にデータを表示すること)を実施すべきかどうかの判定が行われる。
説明された方法論は、様々なモバイルコンピューティングデバイストランザクションおよび全般的なトランザクション/データセキュリティの向上を可能にする。モバイルコンピューティングデバイスを使用するトランザクションの参加者は、モバイルコンピューティングデバイスをロック解除するかまたはトランザクションを許可するために使用される顔画像が有効であることと、それらが不正の被害にあわないこととを確信することができる。
説明された方法論は、データ/トランザクションの効率的な検証を通して、コンピュータリソースの効率的な使用(たとえば、処理サイクル、ネットワーク帯域幅、およびメモリ使用)を保証することができる。少なくともこれらの行為は、望ましくない/不正なトランザクションを防ぐことによって、モバイルコンピューティングトランザクションにおける複数の当事者に関する利用可能なコンピュータリソースの浪費を最小限に抑えるかまたは防ぐことができる。ユーザが追加の調査またはトランザクションを用いてデータを検証することを必要とせずに、トランザクションが有効なものとして信頼されることが可能である。
いくつかの実装形態では、グラフィカルユーザインターフェースは、顔活動検出動作(たとえば、モバイルコンピューティングデバイスを用いた人間の顔の活動のスキャンおよび検証)において使用されるグラフィカル要素が、ユーザにとってなるべく邪魔にならないように(たとえば、なるべく少ない量のデータを不明瞭にし、重要なまたはしばしば使用されるグラフィカルユーザインターフェース要素を隠すことを回避するように)グラフィカルユーザインターフェース上に配置されることが可能であることを保証するために分析されることが可能である。
本明細書において説明された実施形態および動作は、本明細書において開示される構造を含む、デジタル電子回路において、またはコンピュータソフトウェア、ファームウェア、もしくはハードウェアにおいて、あるいはそれらのうちの1つまたは複数の組合せにおいて実装されることが可能である。動作は、1つまたは複数のコンピュータ可読ストレージデバイスに記憶されたまたは他のソースから受信されたデータ上で、データ処理装置によって実施される動作として実装されることが可能である。データ処理装置、コンピュータ、またはコンピューティングデバイスは、例としてプログラマブルプロセッサ、コンピュータ、システムオンチップ、あるいは上記のものの複数、または組合せを含む、データを処理するための装置、デバイス、およびマシンを包含してもよい。装置は、専用論理回路、たとえば中央処理ユニット(CPU)、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC)を含むことができる。装置はまた、当該のコンピュータプログラムのための実行環境を作成するコード、たとえばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム(たとえば、オペレーティングシステムまたはオペレーティングシステムの組合せ)、クロスプラットフォームランタイム環境、仮想マシン、またはそれらのうちの1つまたは複数の組合せを構成するコードを含むことができる。装置および実行環境は、ウェブサービス、分散コンピューティングおよびグリッドコンピューティングインフラストラクチャなどの様々な異なるコンピューティングモデルインフラストラクチャを実現することができる。
(たとえば、プログラム、ソフトウェア、ソフトウェアアプリケーション、ソフトウェアモジュール、ソフトウェアユニット、スクリプト、またはコードとしても知られている)コンピュータプログラムは、コンパイル型言語またはインタープリタ型言語、宣言型言語または手続き型言語を含む任意の形態のプログラミング言語で書かれることが可能であり、それは、スタンドアロンプログラムとして、あるいはモジュール、コンポーネント、サブルーチン、オブジェクト、またはコンピューティング環境において使用するのに好適な他のユニットとしてを含む任意の形態において展開されることが可能である。プログラムは、他のプログラムまたはデータ(たとえば、マークアップ言語ドキュメントに記憶された1つまたは複数のスクリプト)を保持するファイルの一部分に、当該のプログラムに専用の単一のファイルに、あるいは複数の協調ファイル(coordinated file)(たとえば、1つまたは複数のモジュール、サブプログラム、またはコードの部分を記憶するファイル)に記憶されることが可能である。コンピュータプログラムは、1つのコンピュータ上で実行されることが可能であり、あるいは1つのサイトに位置するかまたは複数のサイトにわたって分散され、通信ネットワークによって相互接続される複数のコンピュータ上で実行されることが可能である。
コンピュータプログラムの実行のためのプロセッサは、例として汎用マイクロプロセッサと専用マイクロプロセッサの両方、および任意の種類のデジタルコンピュータのいずれか1つまたは複数のプロセッサを含む。概して、プロセッサは、読取り専用メモリまたはランダムアクセスメモリ、あるいはその両方から命令およびデータを受信することになる。コンピュータの必須の要素は、命令に従って行為を実施するためのプロセッサと、命令およびデータを記憶するための1つまたは複数のメモリデバイスとである。概して、コンピュータはまた、データを記憶するための1つまたは複数の大容量ストレージデバイスを含むことになり、あるいはそれらからデータを受信するように、もしくはそれらにデータを転送するように、またはその両方を行うように動作可能に結合されることになる。コンピュータは、別のデバイス、たとえばモバイルデバイス、携帯情報端末(PDA)、ゲーム機、全地球測位システム(GPS)レシーバ、またはポータブルストレージデバイス中に埋め込まれることが可能である。コンピュータプログラム命令およびデータを記憶するのに好適なデバイスは、例として半導体メモリデバイス、磁気ディスク、および光磁気ディスクを含む、不揮発性メモリ、媒体およびメモリデバイスを含む。プロセッサおよびメモリは、専用論理回路によって増補されるか、または専用論理回路に組み込まれることが可能である。
モバイルデバイスは、ハンドセット、ユーザ機器(UE)、携帯電話(たとえば、スマートフォン)、タブレット、ウェアラブルデバイス(たとえば、スマートウォッチおよびスマート眼鏡)、人体内の移植されたデバイス(たとえば、バイオセンサ、人工内耳)、または他のタイプのモバイルデバイスを含むことができる。モバイルデバイスは、(以下で説明される)様々な通信ネットワークに(たとえば、無線周波数(RF)信号を使用して)ワイヤレス通信することができる。モバイルデバイスは、モバイルデバイスの現在の環境の特性を判定するためのセンサを含むことができる。センサは、カメラ、マイクロフォン、近接度センサ、GPSセンサ、動きセンサ、加速度計、周辺光センサ、湿度センサ、ジャイロスコープ、コンパス、気圧計、指紋センサ、顔認識システム、RFセンサ(たとえば、Wi-Fiおよびセルラー無線機)、熱センサ、または他のタイプのセンサを含むことができる。たとえば、カメラは、可動または固定レンズ、フラッシュ、画像センサ、および画像プロセッサをもつ前面または後面カメラを含むことができる。カメラは、顔および/または虹彩認識のための細部をキャプチャすることが可能なメガピクセルカメラであることが可能である。カメラは、データプロセッサ、およびメモリに記憶されるかまたはリモートでアクセスされる認証情報とともに、顔認識システムを形成することができる。顔認識システム、あるいは1つまたは複数のセンサ、たとえばマイクロフォン、動きセンサ、加速度計、GPSセンサ、またはRFセンサは、ユーザ認証のために使用されることが可能である。
ユーザとの対話を提供するために、実施形態は、ユーザに情報を表示するためのディスプレイデバイスおよび入力デバイス、たとえば液晶ディスプレイ(LCD)または有機発光ダイオード(OLED)/仮想現実(VR)/拡張現実(AR)ディスプレイ、ならびにユーザがそれによってコンピュータに入力を与えることができるタッチスクリーン、キーボード、およびポインティングデバイスを有するコンピュータ上に実装されることが可能である。他の種類のデバイスもまた、ユーザとの対話を提供するために使用されることが可能であり、たとえばユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、たとえば視覚フィードバック、聴覚フィードバック、または触覚フィードバックであることが可能であり、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態において受信されることが可能である。さらに、コンピュータは、ユーザによって使用されるデバイスにドキュメントを送信することと、そのデバイスからドキュメントを受信することとによって、たとえばウェブブラウザから受信された要求に応答してユーザのクライアントデバイス上のウェブブラウザにウェブページを送信することによってユーザと対話することができる。
実施形態は、任意の形態または媒体のワイヤラインデジタルデータ通信またはワイヤレスデジタルデータ通信(またはそれらの組合せ)、たとえば通信ネットワークによって相互接続されるコンピューティングデバイスを使用して実装されることが可能である。相互接続されるデバイスの例は、一般に通信ネットワークを通して対話する、概して互いからリモートにあるクライアントおよびサーバである。クライアント、たとえばモバイルデバイスは、それ自体で、サーバと、またはサーバを通してトランザクションを行うことができ、たとえば購入する、販売する、支払いをする、贈る、送信する、または貸すトランザクションを実施するか、あるいはそれを許可する。そのようなトランザクションはリアルタイムであってもよく、したがって行為と応答とは時間的に近接し、たとえば個人が、行為および応答が実質的に同時に行われていると知覚するか、個人の行為に続く応答についての時間差が1ミリ秒(ms)よりも小さいまたは1秒(s)よりも小さいか、あるいは応答はシステムの処理限界を考慮に入れた意図的な遅延がない。
通信ネットワークの例は、ローカルエリアネットワーク(LAN)、無線アクセスネットワーク(RAN)、メトロポリタンエリアネットワーク(MAN)、およびワイドエリアネットワーク(WAN)を含む。通信ネットワークは、インターネット、別の通信ネットワーク、または通信ネットワークの組合せの全部または一部分を含むことができる。情報は、ロングタームエボリューション(LTE)、5Q IEEE 802、インターネットプロトコル(IP)、または他のプロトコル、あるいはプロトコルの組合せを含む様々なプロトコルおよび規格に従って通信ネットワーク上で伝送されることが可能である。通信ネットワークは、ボイス、ビデオ、バイオメトリック、または認証データ、あるいは他の情報を接続されるコンピューティングデバイス間で伝送することができる。別個の実装形態として説明された特徴は、組合せで、単一の実装形態で、実装されてもよく、単一の実装形態として説明された特徴は、複数の実装形態で、別個に、または任意の好適な部分組合せで、実装されてもよい。特定の順序で説明され、請求された動作は、特定の順序もすべての図示の動作も実施されなくてはならないことを必要とするものとして理解されるべきでない(いくつかの動作はオプションであることが可能である)。適宜に、マルチタスキングまたは並列処理(またはマルチタスキングおよび並列処理の組合せ)が実施されることが可能である。
501 トレーニングモジュール
502 検出モジュール

Claims (12)

  1. 全体的な顔画像に基づいて第1の深層学習モデルをトレーニングするステップ(S301)と、
    前記全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングするステップ(S302)と、
    第1の予測スコアを取得するために、前記トレーニングされた第1の深層学習モデルに基づいて、および第2の予測スコアを取得するために、前記トレーニングされた第2の深層学習モデルに基づいて、顔活動検出を実施するステップ(S303)と、
    前記第1の予測スコアと前記第2の予測スコアとに基づいて予測スコア結果を生成するステップと、
    前記抽出された顔画像についての顔活動検出結果を判定するために、前記予測スコア結果をしきい値と比較するステップと
    を含む、方法。
  2. 前記第1の深層学習モデルと前記第2の深層学習モデルとが、異なる深層学習ネットワーク構造を使用する、請求項1に記載の方法。
  3. 前記異なる深層学習ネットワーク構造が、隠れ可変層の量、隠れ可変層のタイプ、ニューロンノードの量、または畳み込みユニットの畳み込みカーネルのサイズのうちの少なくとも1つであるパラメータを備える、請求項2に記載の方法。
  4. 前記全体的な顔画像が第1のラベルを備え、前記第1のラベルは、前記第1のラベルに対応する全体的な顔画像が生体顔画像かまたは非生体顔画像かを示し、前記生体顔画像が生体顔を撮影することによって収集され、前記非生体顔画像が少なくとも1つの顔ピクチャまたは顔モデルを備える非生体顔を撮影することによって収集される、請求項1から3のいずれか一項に記載の方法。
  5. 前記全体的な顔画像に基づいて前記第1の深層学習モデルをトレーニングするステップは、
    前記第1の深層学習モデルを前記全体的な顔画像に入力するステップであって、前記第1の深層学習モデルは、前記全体的な顔画像の画像構造特徴に基づいて、前記全体的な顔画像が前記生体顔画像であるのか前記非生体顔画像であるのかを予測する、ステップと、
    予測結果と前記全体的な顔画像の前記第1のラベルとに基づいて前記第1の深層学習モデルを調整するステップと
    を含む、請求項4に記載の方法。
  6. 前記抽出された顔画像が第2のラベルを備え、前記第2のラベルは、前記第2のラベルに対応する抽出された顔画像が生体顔画像であるのか非生体顔画像であるのかを示す、請求項1から5のいずれか一項に記載の方法。
  7. 前記全体的な顔画像からクロップされた、抽出された顔画像に基づいて前記第2の深層学習モデルをトレーニングするステップは、
    前記全体的な顔画像からクロップされた、抽出された顔画像を取得するステップと、
    前記第2の深層学習モデルを前記抽出された顔画像に入力するステップであって、前記第2の深層学習モデルは、前記抽出された顔画像の画像素材特徴に基づいて、前記抽出された顔画像が前記生体顔画像であるのか前記非生体顔画像であるのかを予測する、ステップと、
    予測結果と前記抽出された顔画像の前記第2のラベルとに基づいて前記第2の深層学習モデルを調整するステップと
    を含む、請求項6に記載の方法。
  8. 前記第1の深層学習モデルと前記第2の深層学習モデルとが、畳み込みニューラルネットワークに基づき、
    前記第1の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルが、前記第2の深層学習モデルが基づく畳み込みニューラルネットワークにおける畳み込みユニットの畳み込みカーネルよりも大きい、
    請求項1から7のいずれか一項に記載の方法。
  9. 前記トレーニングされた第1の深層学習モデルと前記トレーニングされた第2の深層学習モデルとに基づいて顔活動検出を実施するステップが、
    前記顔活動検出のために収集された前記全体的な顔画像を取得するステップと、
    対応する第1の予測データを取得するために、前記トレーニングされた第1の深層学習モデルを、処理のために、前記収集された全体的な顔画像に入力するステップと、
    前記収集された全体的な顔画像からクロップされた、抽出された顔画像を取得するステップ、および対応する第2の予測データを取得するために、前記トレーニングされた第2の深層学習モデルを処理のために入力するステップと、
    ユーザの顔スキャン画像についての顔活動検出結果を取得するために、前記第1の予測データと前記第2の予測データとに基づいて共同決定を行うステップと
    を含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記第1の予測スコアと前記第2の予測スコアとが、確率値およびブール値のうちの1つを含む、請求項1から7のいずれか一項に記載の方法。
  11. 請求項1から10のいずれか一項の方法を実施するように構成される複数のモジュールを備える、装置。
  12. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリであって、前記メモリは、前記少なくとも1つのプロセッサによって実行されることが可能である命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが、
    全体的な顔画像に基づいて第1の深層学習モデルをトレーニングすること(S301)と、
    前記全体的な顔画像からクロップされた、抽出された顔画像に基づいて第2の深層学習モデルをトレーニングすること(S302)と、
    第1の予測スコアを取得するために、前記トレーニングされた第1の深層学習モデルに基づいて、および第2の予測スコアを取得するために、前記トレーニングされた第2の深層学習モデルに基づいて、顔活動検出を実施すること(S303)と、
    前記第1の予測スコアと前記第2の予測スコアとに基づいて予測スコア結果を生成することと、
    前記抽出された顔画像についての顔活動検出結果を判定するために、前記予測スコア結果をしきい値と比較することと
    を行うことを可能にするために、前記少なくとも1つのプロセッサによって実行される、メモリと
    を備える、電子デバイス。
JP2019524077A 2017-06-07 2018-06-07 顔活動検出方法および装置、ならびに電子デバイス Active JP6732317B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710421333.5 2017-06-07
CN201710421333.5A CN107358157B (zh) 2017-06-07 2017-06-07 一种人脸活体检测方法、装置以及电子设备
PCT/US2018/036505 WO2018226990A1 (en) 2017-06-07 2018-06-07 Face liveness detection method and apparatus, and electronic device

Publications (3)

Publication Number Publication Date
JP2020504360A true JP2020504360A (ja) 2020-02-06
JP2020504360A5 JP2020504360A5 (ja) 2020-03-19
JP6732317B2 JP6732317B2 (ja) 2020-07-29

Family

ID=60272274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524077A Active JP6732317B2 (ja) 2017-06-07 2018-06-07 顔活動検出方法および装置、ならびに電子デバイス

Country Status (18)

Country Link
US (1) US10671870B2 (ja)
EP (2) EP3872699B1 (ja)
JP (1) JP6732317B2 (ja)
KR (1) KR102142232B1 (ja)
CN (2) CN107358157B (ja)
AU (2) AU2018280235B2 (ja)
BR (1) BR112019009219A2 (ja)
CA (1) CA3043230C (ja)
ES (1) ES2878374T3 (ja)
MX (1) MX2019005352A (ja)
MY (1) MY196557A (ja)
PH (1) PH12019501009A1 (ja)
PL (1) PL3523754T3 (ja)
RU (1) RU2714096C1 (ja)
SG (1) SG10202005728SA (ja)
TW (1) TWI714834B (ja)
WO (1) WO2018226990A1 (ja)
ZA (1) ZA201902833B (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860837B2 (en) * 2015-07-20 2020-12-08 University Of Maryland, College Park Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition
CN107358157B (zh) * 2017-06-07 2020-10-02 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
US10375050B2 (en) 2017-10-10 2019-08-06 Truepic Inc. Methods for authenticating photographic image data
US10516830B2 (en) * 2017-10-11 2019-12-24 Adobe Inc. Guided image composition on mobile devices
US10497122B2 (en) 2017-10-11 2019-12-03 Adobe Inc. Image crop suggestion and evaluation using deep-learning
CN107832735A (zh) * 2017-11-24 2018-03-23 百度在线网络技术(北京)有限公司 用于识别人脸的方法和装置
CN108280418A (zh) * 2017-12-12 2018-07-13 北京深醒科技有限公司 脸部图像的欺骗识别方法及装置
KR102455633B1 (ko) 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN108205708A (zh) * 2018-01-02 2018-06-26 安徽大学 一种新型可扩展的深度学习系统及数据识别方法
CN110298212B (zh) * 2018-03-21 2023-04-07 腾讯科技(深圳)有限公司 模型训练方法、情绪识别方法、表情显示方法及相关设备
US11030486B2 (en) 2018-04-20 2021-06-08 XNOR.ai, Inc. Image classification through label progression
CN108805024B (zh) * 2018-04-28 2020-11-24 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN110502961B (zh) * 2018-05-16 2022-10-21 腾讯科技(深圳)有限公司 一种面部图像检测方法及装置
CN110728147B (zh) * 2018-06-28 2023-04-28 阿里巴巴集团控股有限公司 一种模型训练方法及命名实体识别方法
US11741568B2 (en) 2018-06-29 2023-08-29 Baidu Usa Llc Systems and methods for low-power, real-time object detection
CN108985228A (zh) * 2018-07-16 2018-12-11 百度在线网络技术(北京)有限公司 应用于终端设备的信息生成方法和装置
CN109034059B (zh) * 2018-07-25 2023-06-06 深圳市中悦科技有限公司 静默式人脸活体检测方法、装置、存储介质及处理器
US10699150B2 (en) * 2018-10-23 2020-06-30 Polarr, Inc. Machine guided photo and video composition
CN109460733A (zh) * 2018-11-08 2019-03-12 北京智慧眼科技股份有限公司 基于单摄像头的人脸识别活体检测方法及系统、存储介质
CN109657557A (zh) * 2018-11-22 2019-04-19 珠海研果科技有限公司 一种基于深度学习的球面图像人脸检测方法及系统
CN109784148A (zh) * 2018-12-06 2019-05-21 北京飞搜科技有限公司 活体检测方法及装置
CN109800648B (zh) * 2018-12-18 2021-09-28 北京英索科技发展有限公司 基于人脸关键点校正的人脸检测识别方法及装置
CN111382612A (zh) * 2018-12-28 2020-07-07 北京市商汤科技开发有限公司 动物面部检测方法及装置
CN109753938B (zh) * 2019-01-10 2021-11-05 京东方科技集团股份有限公司 图像识别方法和设备及应用、神经网络的训练方法
US11403884B2 (en) * 2019-01-16 2022-08-02 Shenzhen GOODIX Technology Co., Ltd. Anti-spoofing face ID sensing
CN109961006A (zh) * 2019-01-30 2019-07-02 东华大学 一种低像素多目标人脸检测和关键点定位方法以及对齐方法
CN111507131B (zh) * 2019-01-31 2023-09-19 北京市商汤科技开发有限公司 活体检测方法及装置、电子设备和存储介质
CN111723626B (zh) * 2019-03-22 2024-05-07 北京地平线机器人技术研发有限公司 用于活体检测的方法、装置和电子设备
CN111767760A (zh) * 2019-04-01 2020-10-13 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备及存储介质
CN110348385B (zh) * 2019-07-12 2023-07-07 深圳小阳软件有限公司 活体人脸识别方法和装置
EP4022474A2 (en) 2019-08-29 2022-07-06 PXL Vision AG Id verification with a mobile device
CN110569826B (zh) * 2019-09-18 2022-05-24 深圳市捷顺科技实业股份有限公司 一种人脸识别方法、装置、设备及介质
CN110728215A (zh) * 2019-09-26 2020-01-24 杭州艾芯智能科技有限公司 基于红外图像的人脸活体检测方法、装置
CN110838109A (zh) * 2019-11-04 2020-02-25 上海眼控科技股份有限公司 一种三角架识别方法、装置、移动终端及存储介质
CN113642466B (zh) * 2019-11-27 2022-11-01 马上消费金融股份有限公司 活体检测和模型训练方法、设备及介质
CN110942033B (zh) * 2019-11-28 2023-05-26 重庆中星微人工智能芯片技术有限公司 用于推送信息的方法、装置、电子设备和计算机介质
CN111062019A (zh) * 2019-12-13 2020-04-24 支付宝(杭州)信息技术有限公司 用户攻击检测方法、装置、电子设备
KR102307671B1 (ko) * 2020-01-02 2021-10-01 주식회사 블루프린트랩 얼굴 인증을 수행하기 위한 방법
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111241989B (zh) * 2020-01-08 2023-06-13 腾讯科技(深圳)有限公司 图像识别方法及装置、电子设备
CN111274879B (zh) * 2020-01-10 2023-04-25 北京百度网讯科技有限公司 检测活体检验模型可靠性的方法以及装置
US11037284B1 (en) * 2020-01-14 2021-06-15 Truepic Inc. Systems and methods for detecting image recapture
US11670069B2 (en) 2020-02-06 2023-06-06 ID R&D, Inc. System and method for face spoofing attack detection
CN111291685B (zh) * 2020-02-10 2023-06-02 支付宝实验室(新加坡)有限公司 人脸检测模型的训练方法及装置
CN111339933A (zh) * 2020-02-25 2020-06-26 北京国网富达科技发展有限责任公司 基于深度学习的变电站安全监控方法及装置
CN113496442A (zh) * 2020-03-19 2021-10-12 荷盛崧钜智财顾问股份有限公司 图表征产生系统,图表征产生方法与其图表征智能模块
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN111768286B (zh) * 2020-05-14 2024-02-20 北京旷视科技有限公司 风险预测方法、装置、设备及存储介质
CN111340014B (zh) * 2020-05-22 2020-11-17 支付宝(杭州)信息技术有限公司 活体检测方法、装置、设备和存储介质
CN111814574B (zh) * 2020-06-12 2023-09-15 浙江大学 应用双分支三维卷积模型的人脸活体检测系统、终端及存储介质
US11694480B2 (en) * 2020-07-27 2023-07-04 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
CN112085701A (zh) * 2020-08-05 2020-12-15 深圳市优必选科技股份有限公司 一种人脸模糊度检测方法、装置、终端设备及存储介质
US11947626B2 (en) * 2020-11-10 2024-04-02 Nec Corporation Face recognition from unseen domains via learning of semantic features
CN112580454B (zh) * 2020-12-08 2024-03-26 上海明略人工智能(集团)有限公司 基于图片材质分割标记的人脸防伪方法及系统
CN112257685A (zh) * 2020-12-08 2021-01-22 成都新希望金融信息有限公司 人脸翻拍识别方法、装置、电子设备及存储介质
CN112434647A (zh) * 2020-12-09 2021-03-02 浙江光珀智能科技有限公司 一种人脸活体检测方法
CN112597885A (zh) * 2020-12-22 2021-04-02 北京华捷艾米科技有限公司 人脸活体检测方法、装置、电子设备及计算机存储介质
CN112613471B (zh) * 2020-12-31 2023-08-01 中移(杭州)信息技术有限公司 人脸活体检测方法、装置及计算机可读存储介质
CN112926559B (zh) * 2021-05-12 2021-07-30 支付宝(杭州)信息技术有限公司 人脸图像处理方法及装置
RU2758966C1 (ru) * 2021-05-13 2021-11-03 Общество с ограниченной ответственностью "ВижнЛабс" Способ определения подлинности лица по маскам сегментации
CN113657154A (zh) * 2021-07-08 2021-11-16 浙江大华技术股份有限公司 活体检测方法、装置、电子装置和存储介质
CN113361487A (zh) * 2021-07-09 2021-09-07 无锡时代天使医疗器械科技有限公司 异物检测方法、装置、设备及计算机可读存储介质
CN113483851B (zh) * 2021-07-13 2023-05-16 天津万峰环保科技有限公司 路面积水监测设备和方法
CN113610071B (zh) * 2021-10-11 2021-12-24 深圳市一心视觉科技有限公司 人脸活体检测方法、装置、电子设备及存储介质
CN114140851B (zh) * 2021-12-01 2023-08-11 北京百度网讯科技有限公司 图像检测方法和用于训练图像检测模型的方法
KR20240041716A (ko) * 2022-09-23 2024-04-01 삼성전자주식회사 모바일 장치 및 그 동작 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6959109B2 (en) * 2002-06-20 2005-10-25 Identix Incorporated System and method for pose-angle estimation
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
CN100514353C (zh) 2007-11-26 2009-07-15 清华大学 一种基于人脸生理性运动的活体检测方法及系统
JP2010035048A (ja) 2008-07-30 2010-02-12 Fujifilm Corp 撮像装置及び撮像方法
US8675926B2 (en) 2010-06-08 2014-03-18 Microsoft Corporation Distinguishing live faces from flat surfaces
TWI556194B (zh) * 2012-06-29 2016-11-01 希科母股份有限公司 對象檢出裝置、對象檢出方法及對象檢出用電腦程式
US8437513B1 (en) * 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
CN104166835A (zh) 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置
CN103440479B (zh) 2013-08-29 2016-12-28 湖北微模式科技发展有限公司 一种活体人脸检测方法与系统
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
KR102257897B1 (ko) 2014-05-09 2021-05-28 삼성전자주식회사 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치
US9396537B2 (en) * 2014-09-09 2016-07-19 EyeVerify, Inc. Systems and methods for liveness analysis
CN105844202A (zh) * 2015-01-12 2016-08-10 芋头科技(杭州)有限公司 一种影像识别系统及方法
CN105117695B (zh) 2015-08-18 2017-11-24 北京旷视科技有限公司 活体检测设备和活体检测方法
CN105740779B (zh) * 2016-01-25 2020-11-13 北京眼神智能科技有限公司 人脸活体检测的方法和装置
CN105740780B (zh) * 2016-01-25 2020-07-28 北京眼神智能科技有限公司 人脸活体检测的方法和装置
CN105956572A (zh) * 2016-05-15 2016-09-21 北京工业大学 一种基于卷积神经网络的活体人脸检测方法
CN106203373B (zh) * 2016-07-19 2019-04-16 中山大学 一种基于深度视觉词袋模型的人脸活体检测方法
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition
CN106599772B (zh) * 2016-10-31 2020-04-28 北京旷视科技有限公司 活体验证方法和装置及身份认证方法和装置
US11003988B2 (en) * 2016-11-23 2021-05-11 General Electric Company Hardware system design improvement using deep learning algorithms
CN106778525B (zh) * 2016-11-25 2021-08-10 北京旷视科技有限公司 身份认证方法和装置
CN106709458A (zh) * 2016-12-27 2017-05-24 深圳市捷顺科技实业股份有限公司 一种人脸活体检测方法及装置
CN106780482A (zh) * 2017-01-08 2017-05-31 广东工业大学 一种医学图像分类方法
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN107358157B (zh) * 2017-06-07 2020-10-02 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
CN107480725A (zh) * 2017-08-23 2017-12-15 京东方科技集团股份有限公司 基于深度学习的图像识别方法、装置和计算机设备

Also Published As

Publication number Publication date
KR20190072563A (ko) 2019-06-25
CN107358157A (zh) 2017-11-17
CA3043230C (en) 2020-06-23
CN113095124A (zh) 2021-07-09
ZA201902833B (en) 2021-08-25
TWI714834B (zh) 2021-01-01
US10671870B2 (en) 2020-06-02
AU2018280235A1 (en) 2019-05-23
TW201903652A (zh) 2019-01-16
EP3872699A1 (en) 2021-09-01
BR112019009219A2 (pt) 2019-08-13
CN113095124B (zh) 2024-02-06
MX2019005352A (es) 2019-08-05
EP3523754B1 (en) 2021-04-14
PL3523754T3 (pl) 2021-10-04
EP3872699B1 (en) 2023-11-15
MY196557A (en) 2023-04-19
AU2020201662B2 (en) 2020-04-16
PH12019501009A1 (en) 2019-12-02
CN107358157B (zh) 2020-10-02
ES2878374T3 (es) 2021-11-18
RU2714096C1 (ru) 2020-02-11
AU2020201662A1 (en) 2020-03-26
SG10202005728SA (en) 2020-07-29
JP6732317B2 (ja) 2020-07-29
US20180357501A1 (en) 2018-12-13
AU2018280235B2 (en) 2020-01-23
KR102142232B1 (ko) 2020-08-07
WO2018226990A1 (en) 2018-12-13
CA3043230A1 (en) 2018-12-13
EP3523754A1 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
JP6732317B2 (ja) 顔活動検出方法および装置、ならびに電子デバイス
US10691794B2 (en) Method, apparatus, and electronic device for detecting model security
US10693872B1 (en) Identity verification system
US10789343B2 (en) Identity authentication method and apparatus
US10691929B2 (en) Method and apparatus for verifying certificates and identities
US20190332758A1 (en) Virtual reality environment-based identity authentication method and apparatus
US10956714B2 (en) Method and apparatus for detecting living body, electronic device, and storage medium
TWI766201B (zh) 活體檢測方法、裝置以及儲存介質
US10885178B2 (en) Methods and devices for generating security questions and verifying identities
US20160342851A1 (en) Computerized system and method for determining authenticity of users via facial recognition
US20220172518A1 (en) Image recognition method and apparatus, computer-readable storage medium, and electronic device
US20180260643A1 (en) Verification method and system
CN112036331A (zh) 活体检测模型的训练方法、装置、设备及存储介质
CN106169075A (zh) 身份验证方法及装置
CN114882437A (zh) 一种识别模型的训练方法、装置、电子设备和存储介质
US20220130019A1 (en) Electronic device and method for processing image by same
OA19067A (en) Face liveness detection method and apparatus, and electronic device.
CN117576245B (zh) 一种图像的风格转换方法、装置、电子设备及存储介质
US20200401788A1 (en) Distinguishing an image of a three-dimensional object from an image of a two-dimensional rendering of an object
Dixit et al. SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People)
Chen Cloud-assisted mobile sensing systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R150 Certificate of patent or registration of utility model

Ref document number: 6732317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250