JP7262884B2 - 生体顔検出方法、装置、設備及びコンピュータプログラム - Google Patents
生体顔検出方法、装置、設備及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7262884B2 JP7262884B2 JP2022515568A JP2022515568A JP7262884B2 JP 7262884 B2 JP7262884 B2 JP 7262884B2 JP 2022515568 A JP2022515568 A JP 2022515568A JP 2022515568 A JP2022515568 A JP 2022515568A JP 7262884 B2 JP7262884 B2 JP 7262884B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- detection
- light irradiation
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Description
目標検出対象の第1の光照射条件での第1の顔画像と、前記目標検出対象の第2の光照射条件での第2の顔画像とを取得するステップと、
前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するステップと、
前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するステップであって、前記物体反射率は、テクスチャ情報を特徴付けるために用いられ、前記物体法線ベクトルは、深度情報を特徴付けるために用いられる、ステップと、
前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するステップと、を含む。
トレーニングデータセットを取得するステップであって、前記トレーニングデータセットにおける各グループのトレーニングデータは、サンプル差分画像、前記サンプル差分画像のマーキングラベル、並びに、前記サンプル差分画像に対応する深度マップ、及びマテリアルマップとを含み、前記サンプル差分画像は、異なる光照射条件で収集されたサンプル検出対象の顔画像に対して画像差分を行って得られたものであり、前記サンプル差分画像のマーキングラベルは、前記サンプル差分画像の属するサンプル検出対象が生体であるか否かを識別するために用いられ、前記深度マップは、前記サンプル差分画像における各画素位置の深度情報を識別するために用いられ、前記マテリアルマップは、前記サンプル差分画像における各画素位置のマテリアルタイプを識別するために用いられ、前記マテリアルタイプは、画素位置のテクスチャ情報に基づいて決定される、ステップと、
前記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するステップであって、前記第1のニューラルネットワークモデルは、畳み込み層及び2つの逆畳み込み層、グローバルプーリング層、及び全結合分類層を含む、ステップと、
前記収束状態にある第1のニューラルネットワークモデルに対してトリミングを行って生体顔検出モデルを得るステップであって、前記生体顔検出モデルは、前記畳み込み層、前記グローバルプーリング層、及び前記全結合分類層を含む、ステップと、を含む。
目標検出対象の第1の光照射条件での第1の顔画像と、前記目標検出対象の第2の光照射条件での第2の顔画像とを取得するために用いられる顔画像取得モジュールと、
前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するために用いられる差分画像決定モジュールと、
前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するために用いられる特徴抽出モジュールであって、前記物体反射率は、テクスチャ情報を特徴付けるために用いられ、前記物体法線ベクトルは、深度情報を特徴付けるために用いられる、特徴抽出モジュールと、
前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するために用いられる生体検出モジュールと、を含む。
トレーニングデータセットを取得するために用いられるサンプルセット取得モジュールであって、前記トレーニングデータセットにおける各グループのトレーニングデータは、サンプル差分画像、前記サンプル差分画像のマーキングラベル、並びに前記サンプル差分画像に対応する深度マップ、及びマテリアルマップとを含み、前記サンプル差分画像は、異なる光照射条件で収集されたサンプル検出対象の顔画像に対して画像差分を行って得られたものであり、前記サンプル差分画像のマーキングラベルは、前記サンプル差分画像の属するサンプル検出対象が生体であるか否かを識別するために用いられ、前記深度マップは、前記サンプル差分画像における各画素位置の深度情報を識別するために用いられ、前記マテリアルマップは、前記サンプル差分画像における各画素位置のマテリアルタイプを識別するために用いられ、前記マテリアルタイプは、画素位置のテクスチャ情報に基づいて決定される、サンプルセット取得モジュールと、
前記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するために用いられるトレーニングモジュールであって、前記第1のニューラルネットワークモデルは、畳み込み層、2つの逆畳み込み層、グローバルプーリング層、及び全結合分類層を含む、トレーニングモジュールと、
前記収束状態にある第1のニューラルネットワークモデルに対してトリミングを行って生体顔検出モデルを得るために用いられるトリミングモジュールであって、前記生体顔検出モデルは、前記畳み込み層、前記グローバルプーリング層、及び前記全結合分類層を含む、トリミングモジュールと、を含む。
プロセッサと、メモリとを含み、
前記メモリは、コンピュータプログラムを記憶するために用いられ、
前記プロセッサは、前記コンピュータプログラムに基づいて、上記第1の態様に記載の生体顔検出方法又は第2の態様に記載の生体顔検出モデルのトレーニング方法のステップを実行するために用いられる。
目標検出対象の第1の光照射条件での第1の顔画像と、上記目標検出対象の第2の光照射条件での第2の顔画像とを取得するために用いられる顔画像取得モジュール910と、
上記第1の顔画像及び上記第2の顔画像に基づいて差分画像を決定するために用いられる差分画像決定モジュール920と、
上記差分画像から特徴マップを抽出し、上記特徴マップから、上記目標検出対象に対応する物体反射率と、上記目標検出対象に対応する物体法線ベクトルとを分離するために用いられる特徴抽出モジュール930であって、ここで、上記物体反射率は、テクスチャ情報を特徴付けるために用いられ、上記物体法線ベクトルは、深度情報を特徴付けるために用いられる、特徴抽出モジュール930と、
上記物体反射率及び上記物体法線ベクトルに基づいて、上記目標検出対象が生体であるか否かを決定するために用いられる生体検出モジュール940と、を含む。
上記第1の顔画像の顔中心領域をトリミングして第1の顔中心領域画像を取得し、上記第2の顔画像の顔中心領域をトリミングして第2の顔中心領域画像を取得するステップと、
上記第1の顔中心領域画像と上記第2の顔中心領域画像とに対して画像差分処理を行って顔中心領域の差分画像を取得するステップと、を実行するために用いられる。
上記第1の顔画像における顔ローカル器官領域をトリミングして第1の顔ローカル領域画像を取得し、上記第2の顔画像における顔ローカル器官領域をトリミングして第2の顔ローカル領域画像を取得するステップと、
上記第1の顔ローカル領域画像と上記第2の顔ローカル領域画像とに対して画像差分処理を行って、顔ローカル領域の差分画像を取得するステップと、を実行するために用いられる。
上記第1の顔画像の顔中心領域をトリミングして第1の顔中心領域画像を取得し、上記第2の顔画像の顔中心領域をトリミングして第2の顔中心領域画像を取得するステップと、
上記第1の顔中心領域画像と上記第2の顔中心領域画像とに対して画像差分処理を行って顔中心領域の差分画像を取得するステップと、
上記第1の顔画像における顔ローカル器官領域をトリミングして第1の顔ローカル領域画像を取得し、上記第2の顔画像における顔ローカル器官領域をトリミングして第2の顔ローカル領域画像を取得するステップと、
上記第1の顔ローカル領域画像と上記第2の顔ローカル領域画像とに対して画像差分処理を行って、顔ローカル領域の差分画像を取得するステップと、を実行するために用いられる。
予めトレーニングされた生体顔検出モデルにより、上記差分画像から特徴マップを抽出し、上記特徴マップから、上記目標検出対象に対応する物体反射率と、上記目標検出対象に対応する物体法線ベクトルとを分離するステップを実行するために用いられ、
上記生体検出モジュール940は、具体的に、
上記生体顔検出モデルにより、かつ上記物体反射率及び上記物体法線ベクトルに基づいて、目標検出対象が生体であるか否かを決定するステップを実行するために用いられる。
上記差分画像を予めトレーニングされた生体顔検出モデルに入力し、上記生体顔検出モデルにおける畳み込み層により、画像特徴を抽出して特徴マップを取得して、かつ上記特徴マップから、上記目標検出対象に対応する物体反射率と、上記目標検出対象に対応する物体法線ベクトルとを分離するステップを実行するために用いられ、
上記生体検出モジュール940は、具体的に、
上記生体顔検出モデルにおけるグローバルプーリング層及び全結合分類層により、上記物体反射率及び上記物体法線ベクトルに基づいて、上記目標検出対象が生体であるか否かを決定するステップを実行するために用いられる。
生体検出要求に応答して、光照射指令を生成するステップであって、上記光照射指令は、第1の光照射条件に対応する第1の光照射パラメータと、第2の光照射条件に対応する第2の光照射パラメータとを含む、ステップと、
上記光照射指令に基づいて、発光素子が光線を発射するように制御し、かつ上記目標検出対象の顔面反射光線を収集して、上記第1の顔画像と、上記第2の顔画像とを順に形成するステップと、を実行するために用いられる。
生体検出要求に応答して、二種類の異なる色標識をランダムに選択して、上記二種類の異なる色標識を持つ光照射指令を生成するステップを実行するために用いられる。
生体検出要求に応答して、顔の画像収集領域に対する角度を決定するステップと、
上記光照射指令及び上記角度に基づいて、上記発光素子が上記第1の光照射パラメータ及び上記第2の光照射パラメータに基づいて上記角度の光線を順に発射するように制御するステップと、を実行するために用いられる。
トレーニングデータセットを取得するために用いられるサンプルセット取得モジュール1010であって、上記トレーニングデータセットにおける各グループのトレーニングデータは、サンプル差分画像、上記サンプル差分画像のマーキングラベル、並びに上記サンプル差分画像に対応する深度マップ、及びマテリアルマップとを含み、上記サンプル差分画像は、異なる光照射条件で収集されたサンプル検出対象の顔画像に対して画像差分を行って得られたものであり、上記サンプル差分画像のマーキングラベルは、上記サンプル差分画像の属するサンプル検出対象が生体であるか否かを識別するために用いられ、上記深度マップは、上記サンプル差分画像における各画素位置の深度情報を識別するために用いられ、上記マテリアルマップは、上記サンプル差分画像における各画素位置のマテリアルタイプを識別するために用いられ、上記マテリアルタイプは、画素位置のテクスチャ情報に基づいて決定される、サンプルセット取得モジュール1010と、
上記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するために用いられるトレーニングモジュール1020であって、上記第1のニューラルネットワークモデルは、畳み込み層及び2つの逆畳み込み層、グローバルプーリング層、並びに全結合分類層を含む、トレーニングモジュール1020と、
上記収束状態にある第1のニューラルネットワークモデルに対してトリミングを行って生体顔検出モデルを取得するために用いられるトリミングモジュール1030であって、上記生体顔検出モデルは、上記畳み込み層、上記グローバルプーリング層、及び上記全結合分類層を含む、トリミングモジュール1030と、を含む。
上記トレーニングデータセットにおける各グループのトレーニングデータに含まれるサンプル差分画像を、上記予め構築された第1のニューラルネットワークモデルに入力するステップと、
上記第1のニューラルネットワークモデルにおける畳み込み層により、上記サンプル差分画像に対して特徴抽出を行って1グループの特徴マップを取得して、上記1グループの特徴マップを第1のサブグループの特徴マップと第2のサブグループの特徴マップとに分離するステップであって、上記第1のサブグループの特徴マップは、上記サンプル検出対象の物体法線ベクトルを特徴付け、上記第2のサブグループの特徴マップは、上記サンプル検出対象の物体反射率を特徴付ける、ステップと、
上記第1のニューラルネットワークモデルにおける上記畳み込み層により、上記第1のサブグループの特徴マップを上記第1のニューラルネットワークモデルにおける第1の逆畳み込み層に入力し、かつ上記第2のサブグループの特徴マップを上記第1のニューラルネットワークモデルにおける第2の逆畳み込み層に入力し、上記1グループの特徴マップを上記第1のニューラルネットワークモデルにおけるグローバルプーリング層に入力し、上記グローバルプーリング層により処理した後に全結合分類層に入力するステップと、
上記第1の逆畳み込み層が出力する予測特徴マップと、上記サンプル差分画像に対応する深度マップとに基づいて深度マップの損失を決定し、かつ上記第2の逆畳み込み層が出力する予測特徴マップと、上記サンプル差分画像に対応するマテリアルマップとに基づいてマテリアルマップの損失を決定し、上記全結合分類層が出力する予測ラベルと、上記サンプル差分画像に対応するマーキングラベルとに基づいて分類の損失を決定するステップと、
毎回の反復更新周期における、決定された上記深度マップの損失、上記マテリアルマップの損失及び上記分類の損失に基づいてモデルの損失を決定し、上記モデルの損失に基づいて第1のニューラルネットワークモデルのパラメータを更新し、上記第1のニューラルネットワークモデルが収束状態になるまで反復更新するステップと、を実行するために用いられる。
第1のトレーニングデータセットを取得するステップであって、上記第1のトレーニングデータセットにおける各グループのトレーニングデータに含まれる上記サンプル差分画像は、上記サンプル検出対象の異なる光照射条件での対応する2枚の画像の顔中心領域に対して画像差分処理を行って得られたものである、ステップと、
第2のトレーニングデータセットを取得するステップであって、上記第2のトレーニングデータセットにおける各グループのトレーニングデータに含まれる上記サンプル差分画像は、上記サンプル検出対象の異なる光照射条件での対応する2枚の画像の顔ローカル器官領域に対して画像差分処理を行って得られたものである、ステップと、を実行するために用いられ、
上記トレーニングモジュール1020は、具体的に、
上記第1のトレーニングデータセット及び上記第2のトレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルを並列トレーニングして、収束状態にある2つの第1のニューラルネットワークモデルを取得するステップを実行するために用いられる。
予め構築された第1のニューラルネットワークモデルに対して、エンドツーエンドのトレーニング方式により、上記トレーニングデータセットに基づいて、収束状態にある第1のニューラルネットワークモデルを取得するまで第1のニューラルネットワークモデルのネットワークパラメータをトレーニングするステップを実行するために用いられる。
予め構築された第1のニューラルネットワークモデルに対して、第1の段階では、上記予め構築された第1のニューラルネットワークモデルにおけるグローバルプーリング層及び全結合分類層を固定し、上記トレーニングデータセットに基づいて、上記畳み込み層及び上記2つの逆畳み込み層をトレーニングするステップと、
第2の段階では、上記第1のニューラルネットワークモデルにおける上記畳み込み層及び上記2つの逆畳み込み層を固定し、上記トレーニングデータセットに基づいて、上記グローバルプーリング層及び上記全結合分類層をトレーニングするステップと、
上記第1の段階及び上記第2の段階でクロストレーニングされた、収束状態にある第1のニューラルネットワークモデルを取得するステップと、を実行するために用いられる。
目標検出対象の第1の光照射条件での第1の顔画像と、上記目標検出対象の第2の光照射条件での第2の顔画像とを取得するステップと、
上記第1の顔画像及び上記第2の顔画像に基づいて差分画像を決定するステップと、
上記差分画像から特徴マップを抽出し、上記特徴マップから、上記目標検出対象に対応する物体反射率と、上記目標検出対象に対応する物体法線ベクトルとを分離するステップであって、ここで、上記物体反射率は、テクスチャ情報を特徴付けるために用いられ、上記物体法線ベクトルは、深度情報を特徴付けるために用いられる、ステップと、
上記物体反射率及び上記物体法線ベクトルに基づいて、上記目標検出対象が生体であるか否かを決定するステップと、を実行するために用いられる。
トレーニングデータセットを取得するステップであって、上記トレーニングデータセットにおける各グループのトレーニングデータは、サンプル差分画像、上記サンプル差分画像のマーキングラベル、並びに上記サンプル差分画像に対応する深度マップ、及びマテリアルマップと含み、上記サンプル差分画像は、異なる光照射条件で収集されたサンプル検出対象の顔画像に対して画像差分を行って得られたものであり、上記サンプル差分画像のマーキングラベルは、上記サンプル差分画像の属するサンプル検出対象が生体であるか否かを識別するために用いられ、上記深度マップは、上記サンプル差分画像における各画素位置の深度情報を識別するために用いられ、上記マテリアルマップは、上記サンプル差分画像における各画素位置のマテリアルタイプを識別するために用いられ、上記マテリアルタイプは、画素位置のテクスチャ情報に基づいて決定される、ステップと、
上記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するステップであって、上記第1のニューラルネットワークモデルは、畳み込み層及び2つの逆畳み込み層、グローバルプーリング層、並びに全結合分類層を含む、ステップと、
上記収束状態にある第1のニューラルネットワークモデルに対してトリミングを行って生体顔検出モデルを取得するステップであって、上記生体顔検出モデルは、上記畳み込み層、上記グローバルプーリング層、及び上記全結合分類層を含む、ステップと、を実行するために用いられる。
102 サーバ
810 端末
820 トレーニングサーバ
830 サーバ
900 生体顔検出装置
910 顔画像取得モジュール
920 差分画像決定モジュール
930 特徴抽出モジュール
940 生体検出モジュール
1000 トレーニング装置
1010 サンプルセット取得モジュール
1020 トレーニングモジュール
1030 トリミングモジュール
1100 サーバ
1122 中央処理装置
1126 電源
1130 記憶媒体
1132 メモリ
1141 操作システム
1142 アプリケーションプログラム
1144 データ
1150 無線ネットワークインタフェース
1158 入出力インタフェース
Claims (15)
- 画像処理機能を有する処理設備により実行される生体顔検出方法であって、
目標検出対象の第1の光照射条件での第1の顔画像と、前記目標検出対象の第2の光照射条件での第2の顔画像とを取得するステップと、
前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するステップと、
前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するステップであって、前記物体反射率は、テクスチャ情報を特徴付けるために用いられ、前記物体法線ベクトルは、深度情報を特徴付けるために用いられる、ステップと、
前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するステップと、を含む、生体顔検出方法。 - 前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するステップは、
前記第1の顔画像の顔中心領域をトリミングして第1の顔中心領域画像を取得し、前記第2の顔画像の顔中心領域をトリミングして第2の顔中心領域画像を取得するステップと、
前記第1の顔中心領域画像と前記第2の顔中心領域画像とに対して画像差分処理を行って顔中心領域の差分画像を取得するステップと、を含む、請求項1に記載の方法。 - 前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するステップは、
前記第1の顔画像における顔ローカル器官領域をトリミングして第1の顔ローカル器官領域画像を取得し、前記第2の顔画像における顔ローカル器官領域をトリミングして第2の顔ローカル器官領域画像を取得するステップと、
前記第1の顔ローカル器官領域画像と前記第2の顔ローカル器官領域画像とに対して画像差分処理を行って、顔ローカル器官領域の差分画像を取得するステップと、を含む、請求項1に記載の方法。 - 前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するステップは、
前記第1の顔画像の顔中心領域をトリミングして第1の顔中心領域画像を取得し、前記第2の顔画像の顔中心領域をトリミングして第2の顔中心領域画像を取得するステップと、
前記第1の顔中心領域画像と前記第2の顔中心領域画像とに対して画像差分処理を行って顔中心領域の差分画像を取得するステップと、
前記第1の顔画像における顔ローカル器官領域をトリミングして第1の顔ローカル器官領域画像を取得し、前記第2の顔画像における顔ローカル器官領域をトリミングして第2の顔ローカル器官領域画像を取得するステップと、
前記第1の顔ローカル器官領域画像と前記第2の顔ローカル器官領域画像とに対して画像差分処理を行って、顔ローカル器官領域の差分画像を取得するステップと、を含む、請求項1に記載の方法。 - 前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するステップと、前記目標検出対象に対応する前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するステップとは、
予めトレーニングされた生体顔検出モデルにより、前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するステップと、前記生体顔検出モデルにより、前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するステップと、を含む、請求項1~4のいずれか1項に記載の方法。 - 予めトレーニングされた生体顔検出モデルにより、前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するステップと、前記生体顔検出モデルにより、前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するステップとは、
前記差分画像を前記生体顔検出モデルに入力し、前記生体顔検出モデルにおける畳み込み層により、画像特徴を抽出して特徴マップを取得して、かつ前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離し、前記生体顔検出モデルにおけるグローバルプーリング層及び全結合分類層により、前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するステップを含む、請求項5に記載の方法。 - 目標検出対象の第1の光照射条件での第1の顔画像と、前記目標検出対象の第2の光照射条件での第2の顔画像とを取得するステップは、
生体検出要求に応答して、光照射指令を生成するステップであって、前記光照射指令は、第1の光照射条件に対応する第1の光照射パラメータと、第2の光照射条件に対応する第2の光照射パラメータとを含む、ステップと、
前記光照射指令に基づいて、発光素子が光線を発射するように制御し、かつ前記目標検出対象の顔面反射光線を収集して、前記第1の顔画像と、前記第2の顔画像とを順に形成するステップと、を含む、請求項1~4のいずれか一項に記載の方法。 - 前記生体検出要求に応答して、光照射指令を生成するステップは、
生体検出要求に応答して、二種類の異なる色標識をランダムに選択して、前記二種類の異なる色標識を持つ光照射指令を生成するステップを含む、請求項7に記載の方法。 - 前記光照射指令に基づいて、発光素子が光線を発射するように制御し、かつ前記目標検出対象の顔面反射光線を収集して、前記第1の顔画像と、前記第2の顔画像とを順に形成するステップは、
生体検出要求に応答して、顔の画像収集領域に対する角度を決定するステップと、
前記光照射指令及び前記角度に基づいて、前記発光素子が前記第1の光照射パラメータ及び前記第2の光照射パラメータに基づいて前記角度の光線を順に発射するように制御するステップと、
前記目標検出対象の顔面反射光線を収集して、前記第1の顔画像と、前記第2の顔画像とを順に形成するステップと、を含む、請求項7に記載の方法。 - 画像処理機能を有する処理設備により実行される生体顔検出モデルのトレーニング方法であって、
トレーニングデータセットを取得するステップであって、前記トレーニングデータセットにおける各グループのトレーニングデータは、サンプル差分画像と、前記サンプル差分画像のマーキングラベルと、前記サンプル差分画像に対応する深度マップ及びマテリアルマップと、を含み、前記サンプル差分画像は、異なる光照射条件で収集されたサンプル検出対象の顔画像に対して画像差分を行って得られたものであり、前記サンプル差分画像のマーキングラベルは、前記サンプル差分画像の属するサンプル検出対象が生体であるか否かを識別するために用いられ、前記深度マップは、前記サンプル差分画像における各画素位置の深度情報を識別するために用いられ、前記マテリアルマップは、前記サンプル差分画像における各画素位置のマテリアルタイプを識別するために用いられ、前記マテリアルタイプは、画素位置のテクスチャ情報に基づいて決定される、ステップと、
前記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するステップであって、前記第1のニューラルネットワークモデルは、畳み込み層及び2つの逆畳み込み層、グローバルプーリング層、並びに全結合分類層を含む、ステップと、
前記収束状態にある第1のニューラルネットワークモデルに対してトリミングを行って生体顔検出モデルを取得するステップであって、前記生体顔検出モデルは、前記畳み込み層、前記グローバルプーリング層、及び前記全結合分類層を含む、ステップと、を含む、生体顔検出モデルのトレーニング方法。 - 前記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するステップは、
前記トレーニングデータセットにおける各グループのトレーニングデータに含まれるサンプル差分画像を、前記予め構築された第1のニューラルネットワークモデルに入力するステップと、
前記第1のニューラルネットワークモデルにおける畳み込み層により、前記サンプル差分画像に対して特徴抽出を行って1グループの特徴マップを取得して、前記1グループの特徴マップを第1のサブグループの特徴マップと第2のサブグループの特徴マップとに分離するステップであって、前記第1のサブグループの特徴マップは、前記サンプル検出対象の物体法線ベクトルを特徴付け、前記第2のサブグループの特徴マップは、前記サンプル検出対象の物体反射率を特徴付ける、ステップと、
前記第1のニューラルネットワークモデルにおける前記畳み込み層により、前記第1のサブグループの特徴マップを前記第1のニューラルネットワークモデルにおける第1の逆畳み込み層に入力し、かつ前記第2のサブグループの特徴マップを前記第1のニューラルネットワークモデルにおける第2の逆畳み込み層に入力し、前記1グループの特徴マップを前記第1のニューラルネットワークモデルにおけるグローバルプーリング層に入力し、前記グローバルプーリング層により処理した後に全結合分類層に入力するステップと、
前記第1の逆畳み込み層が出力する予測特徴マップと、前記サンプル差分画像に対応する深度マップとに基づいて深度マップの損失を決定し、かつ前記第2の逆畳み込み層が出力する予測特徴マップと、前記サンプル差分画像に対応するマテリアルマップとに基づいてマテリアルマップの損失を決定し、前記全結合分類層が出力する予測ラベルと、前記サンプル差分画像に対応するマーキングラベルとに基づいて分類の損失を決定するステップと、
毎回の反復更新周期における、決定された前記深度マップの損失、前記マテリアルマップの損失及び前記分類の損失に基づいてモデルの損失を決定し、前記モデルの損失に基づいて第1のニューラルネットワークモデルのパラメータを更新し、前記第1のニューラルネットワークモデルが収束状態になるまで反復更新するステップと、を含む、請求項10に記載の方法。 - 画像処理機能を有する処理設備に配備された生体顔検出装置であって、
目標検出対象の第1の光照射条件での第1の顔画像と、前記目標検出対象の第2の光照射条件での第2の顔画像とを取得するために用いられる顔画像取得モジュールと、
前記第1の顔画像及び前記第2の顔画像に基づいて差分画像を決定するために用いられる差分画像決定モジュールと、
前記差分画像から特徴マップを抽出し、前記特徴マップから、前記目標検出対象に対応する物体反射率と、前記目標検出対象に対応する物体法線ベクトルとを分離するために用いられる特徴抽出モジュールであって、前記物体反射率は、テクスチャ情報を特徴付けるために用いられ、前記物体法線ベクトルは、深度情報を特徴付けるために用いられる、特徴抽出モジュールと、
前記物体反射率及び前記物体法線ベクトルに基づいて、前記目標検出対象が生体であるか否かを決定するために用いられる生体検出モジュールと、を含む、生体顔検出装置。 - 画像処理機能を有する処理設備に配備された生体顔検出モデルのトレーニング装置であって、
トレーニングデータセットを取得するために用いられるサンプルセット取得モジュールであって、前記トレーニングデータセットにおける各グループのトレーニングデータは、サンプル差分画像、前記サンプル差分画像のマーキングラベル、並びに前記サンプル差分画像に対応する深度マップ、及びマテリアルマップと含み、前記サンプル差分画像は、異なる光照射条件で収集されたサンプル検出対象の顔画像に対して画像差分を行って得られたものであり、前記サンプル差分画像のマーキングラベルは、前記サンプル差分画像の属するサンプル検出対象が生体であるか否かを識別するために用いられ、前記深度マップは、前記サンプル差分画像における各画素位置の深度情報を識別するために用いられ、前記マテリアルマップは、前記サンプル差分画像における各画素位置のマテリアルタイプを識別するために用いられ、前記マテリアルタイプは、画素位置のテクスチャ情報に基づいて決定される、サンプルセット取得モジュールと、
前記トレーニングデータセットに基づいて、予め構築された第1のニューラルネットワークモデルをトレーニングして、収束状態にある第1のニューラルネットワークモデルを取得するために用いられるトレーニングモジュールであって、前記第1のニューラルネットワークモデルは、畳み込み層及び2つの逆畳み込み層、グローバルプーリング層、並びに全結合分類層を含む、トレーニングモジュールと、
前記収束状態にある第1のニューラルネットワークモデルに対してトリミングを行って生体顔検出モデルを取得するために用いられるトリミングモジュールであって、前記生体顔検出モデルは、前記畳み込み層、前記グローバルプーリング層、及び前記全結合分類層を含む、トリミングモジュールと、を含む生体顔検出モデルのトレーニング装置。 - プロセッサと、メモリとを含み、
前記メモリは、コンピュータプログラムを記憶するために用いられ、
前記プロセッサは、前記コンピュータプログラムに基づいて請求項1~11のいずれか1項に記載の方法を実行するために用いられる、処理設備。 - 実行されると、請求項1~11のいずれか1項に記載の方法を実施するように構成された、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996055.5A CN110765923A (zh) | 2019-10-18 | 2019-10-18 | 一种人脸活体检测方法、装置、设备及存储介质 |
CN201910996055.5 | 2019-10-18 | ||
PCT/CN2020/116507 WO2021073364A1 (zh) | 2019-10-18 | 2020-09-21 | 一种人脸活体检测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022547183A JP2022547183A (ja) | 2022-11-10 |
JP7262884B2 true JP7262884B2 (ja) | 2023-04-24 |
Family
ID=69332390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022515568A Active JP7262884B2 (ja) | 2019-10-18 | 2020-09-21 | 生体顔検出方法、装置、設備及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11972638B2 (ja) |
EP (1) | EP3995989A4 (ja) |
JP (1) | JP7262884B2 (ja) |
CN (1) | CN110765923A (ja) |
WO (1) | WO2021073364A1 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110765923A (zh) | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
KR20210108082A (ko) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | 위상 차를 이용하는 라이브니스 검출 방법 및 장치 |
CN111523438B (zh) * | 2020-04-20 | 2024-02-23 | 支付宝实验室(新加坡)有限公司 | 一种活体识别方法、终端设备和电子设备 |
CN113591517A (zh) * | 2020-04-30 | 2021-11-02 | 华为技术有限公司 | 一种活体检测方法及相关设备 |
CN111597938B (zh) * | 2020-05-07 | 2022-02-22 | 马上消费金融股份有限公司 | 活体检测、模型训练方法及装置 |
CN111582381B (zh) * | 2020-05-09 | 2024-03-26 | 北京市商汤科技开发有限公司 | 确定性能参数的方法及装置、电子设备和存储介质 |
EP3939011A1 (en) * | 2020-05-20 | 2022-01-19 | Google LLC | Learning illumination from diverse portraits |
CN111683273A (zh) * | 2020-06-02 | 2020-09-18 | 中国联合网络通信集团有限公司 | 视频卡顿信息的确定方法及装置 |
CN113761983B (zh) * | 2020-06-05 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 更新人脸活体检测模型的方法、装置及图像采集设备 |
CN112085701A (zh) * | 2020-08-05 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种人脸模糊度检测方法、装置、终端设备及存储介质 |
CN111914775B (zh) * | 2020-08-06 | 2023-07-28 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN112149578A (zh) * | 2020-09-24 | 2020-12-29 | 四川川大智胜软件股份有限公司 | 基于人脸三维模型的人脸皮肤材质计算方法、装置及设备 |
CN112232152B (zh) * | 2020-09-30 | 2021-12-03 | 墨奇科技(北京)有限公司 | 非接触式指纹识别方法、装置、终端和存储介质 |
CN112036386A (zh) * | 2020-11-05 | 2020-12-04 | 中科创达软件股份有限公司 | Tee环境下使用相机相近帧进行活体检测的方法及装置 |
CN112465717A (zh) * | 2020-11-25 | 2021-03-09 | 北京字跳网络技术有限公司 | 脸部图像处理模型训练方法、装置、电子设备和介质 |
CN112580454B (zh) * | 2020-12-08 | 2024-03-26 | 上海明略人工智能(集团)有限公司 | 基于图片材质分割标记的人脸防伪方法及系统 |
CN112966562A (zh) * | 2021-02-04 | 2021-06-15 | 深圳市街角电子商务有限公司 | 人脸活体检测方法、系统及存储介质 |
US11663775B2 (en) * | 2021-04-19 | 2023-05-30 | Adobe, Inc. | Generating physically-based material maps |
CN113239743A (zh) * | 2021-04-23 | 2021-08-10 | 普联国际有限公司 | 一种人群密度检测方法、装置、设备及存储介质 |
CN113221766A (zh) * | 2021-05-18 | 2021-08-06 | 北京百度网讯科技有限公司 | 训练活体人脸识别模型、识别活体人脸的方法及相关装置 |
CN113361349B (zh) * | 2021-05-25 | 2023-08-04 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备和存储介质 |
CN113409056B (zh) * | 2021-06-30 | 2022-11-08 | 深圳市商汤科技有限公司 | 支付方法、装置、本地识别设备、人脸支付系统及设备 |
CN115690918A (zh) * | 2021-07-22 | 2023-02-03 | 京东科技控股股份有限公司 | 构建活体识别模型和活体识别的方法、装置、设备及介质 |
CN113642428B (zh) * | 2021-07-29 | 2022-09-27 | 北京百度网讯科技有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113422982B (zh) * | 2021-08-23 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 数据处理方法、装置、设备及存储介质 |
US20230091381A1 (en) * | 2021-09-17 | 2023-03-23 | Jumio Corporation | Spoof detection using eye boundary analysis |
CN114333078A (zh) * | 2021-12-01 | 2022-04-12 | 马上消费金融股份有限公司 | 活体检测方法、装置、电子设备及存储介质 |
WO2023221996A1 (zh) * | 2022-05-16 | 2023-11-23 | 北京旷视科技有限公司 | 一种活体检测方法、电子设备、存储介质及程序产品 |
CN115147705B (zh) * | 2022-09-06 | 2023-02-03 | 平安银行股份有限公司 | 人脸翻拍检测方法、装置、电子设备及存储介质 |
CN115601818B (zh) * | 2022-11-29 | 2023-04-07 | 海豚乐智科技(成都)有限责任公司 | 一种轻量化可见光活体检测方法及装置 |
CN116994343B (zh) * | 2023-09-27 | 2023-12-15 | 睿云联(厦门)网络通讯技术有限公司 | 基于标签平滑的扩散标签深度学习模型训练方法及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018200640A (ja) | 2017-05-29 | 2018-12-20 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US10360464B1 (en) | 2016-03-04 | 2019-07-23 | Jpmorgan Chase Bank, N.A. | Systems and methods for biometric authentication with liveness detection |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11074495B2 (en) * | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
WO2017000116A1 (zh) * | 2015-06-29 | 2017-01-05 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
CN105320947B (zh) * | 2015-11-04 | 2019-03-01 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105574509B (zh) * | 2015-12-16 | 2019-01-15 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN107169405B (zh) * | 2017-03-17 | 2020-07-03 | 上海云从企业发展有限公司 | 基于双目摄像机活体识别的方法及装置 |
JP7346401B2 (ja) * | 2017-11-10 | 2023-09-19 | エヌビディア コーポレーション | 安全で信頼できる自動運転車両のためのシステム及び方法 |
CN110765923A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
-
2019
- 2019-10-18 CN CN201910996055.5A patent/CN110765923A/zh active Pending
-
2020
- 2020-09-21 JP JP2022515568A patent/JP7262884B2/ja active Active
- 2020-09-21 WO PCT/CN2020/116507 patent/WO2021073364A1/zh unknown
- 2020-09-21 EP EP20876546.1A patent/EP3995989A4/en active Pending
-
2021
- 2021-10-28 US US17/513,731 patent/US11972638B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10360464B1 (en) | 2016-03-04 | 2019-07-23 | Jpmorgan Chase Bank, N.A. | Systems and methods for biometric authentication with liveness detection |
JP2018200640A (ja) | 2017-05-29 | 2018-12-20 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
Non-Patent Citations (2)
Title |
---|
Patrick P. K. Chan et al.,Face Liveness Detection Using a Flash Against 2D Spoofing Attack,IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, VOL. 13, NO. 2,2017年10月02日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8055588,IEL Online(IEEE Xplore) |
海老原 章記 外2名,フラッシュ反射光を利用した単眼可視光カメラによるなりすまし検知,映像情報メディア学会技術報告 情報センシング Vol.42 No.14,2018年05月17日 |
Also Published As
Publication number | Publication date |
---|---|
EP3995989A4 (en) | 2022-09-14 |
JP2022547183A (ja) | 2022-11-10 |
WO2021073364A1 (zh) | 2021-04-22 |
US20220083795A1 (en) | 2022-03-17 |
CN110765923A (zh) | 2020-02-07 |
US11972638B2 (en) | 2024-04-30 |
EP3995989A1 (en) | 2022-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7262884B2 (ja) | 生体顔検出方法、装置、設備及びコンピュータプログラム | |
US20180012411A1 (en) | Augmented Reality Methods and Devices | |
CN105518744B (zh) | 行人再识别方法及设备 | |
CN103383723B (zh) | 用于生物特征验证的电子欺骗检测的方法和系统 | |
CN108427871A (zh) | 3d人脸快速身份认证方法与装置 | |
CN111274928B (zh) | 一种活体检测方法、装置、电子设备和存储介质 | |
Viraktamath et al. | Face detection and tracking using OpenCV | |
Medioni et al. | Identifying noncooperative subjects at a distance using face images and inferred three-dimensional face models | |
WO2019176235A1 (ja) | 画像生成方法、画像生成装置及び画像生成システム | |
CN112639846A (zh) | 一种训练深度学习模型的方法和装置 | |
CN112232155B (zh) | 非接触指纹识别的方法、装置、终端及存储介质 | |
CN109214366A (zh) | 局部目标重识别方法、装置及系统 | |
CN110059579B (zh) | 用于活体检验的方法和装置,电子设备和存储介质 | |
WO2020079741A1 (ja) | 虹彩認証装置、虹彩認証方法および記録媒体 | |
CN110909634A (zh) | 可见光与双红外线相结合的快速活体检测方法 | |
CN112016525A (zh) | 非接触式指纹采集方法和装置 | |
CN112232163A (zh) | 指纹采集方法及装置、指纹比对方法及装置、设备 | |
CN108846343B (zh) | 基于三维视频的多任务协同分析方法 | |
Roth et al. | Deep end-to-end 3d person detection from camera and lidar | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
KR102639187B1 (ko) | 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치 | |
Wang et al. | Digital twin: Acquiring high-fidelity 3D avatar from a single image | |
Satapathy et al. | A lite convolutional neural network built on permuted Xceptio-inception and Xceptio-reduction modules for texture based facial liveness recognition | |
Liu et al. | Attack-Agnostic Deep Face Anti-Spoofing | |
CN108596019B (zh) | 一种基于对角之势的摄像头监控方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7262884 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |