JP7286208B2 - 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム - Google Patents
生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7286208B2 JP7286208B2 JP2022521013A JP2022521013A JP7286208B2 JP 7286208 B2 JP7286208 B2 JP 7286208B2 JP 2022521013 A JP2022521013 A JP 2022521013A JP 2022521013 A JP2022521013 A JP 2022521013A JP 7286208 B2 JP7286208 B2 JP 7286208B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- facial
- initial
- light irradiation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/63—Static or dynamic means for assisting the user to position a body part for biometric acquisition by static guides
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Description
本願は、2020年1月17日に中国国家知識産権局に提出された、出願番号が第202010055343.3号で、出願の名称が「生体顔検出方法、関連装置、機器及び記憶媒体」である中国特許出願の優先権を主張するものであり、その全ての内容は、参照により本願に組み込まれるものとする。
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するステップであって、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数である、ステップと、
初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するステップと、
N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成するステップであって、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、ステップと、
N個の差分画像、法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するステップと、を含む。
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュールであって、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
取得モジュールがさらに、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するために用いられ、N個の差分画像のうちの各差分画像は、初期顔画像及び顔画像に基づいて取得されたものである、取得モジュールと、
取得モジュールにより取得されたN個の差分画像に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュールであって、法線マップは、各画素点に対応する法線が異なるチャネルを表す画像であり、反射率マップは、各画素点に対応する反射率が異なるチャネルを表す画像である、生成モジュールと、
取得モジュールにより取得されたN個の差分画像、生成モジュールにより生成された法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュールと、を含む。
メモリは、プログラムを記憶するために用いられ、
プロセッサは、メモリにおけるプログラムを実行することにより、上記各態様の方法を実現するために用いられ、
バスシステムは、メモリ及びプロセッサを接続することにより、メモリ及びプロセッサに通信させるために用いられる。
初期顔画像を取得するステップと、
目標時間内の第1の時刻に、第1の顔画像を取得するステップと、
目標時間内の第2の時刻に、第2の顔画像を取得するステップであって、ここで、第2の時刻は第1の時刻とは異なる時刻である、ステップと、
目標時間内の第3の時刻に、第3の顔画像を取得するステップであって、ここで、第3の時刻は第1の時刻とは異なる時刻であり、かつ第3の時刻は第2の時刻とは異なる時刻である、ステップと、を含んでよい。
初期顔画像を取得するステップと、
第1の光照射方向で第1の顔画像を取得するステップと、
第2の光照射方向で第2の顔画像を取得するステップと、
第3の光照射方向で第3の顔画像を取得するステップと、を含んでよい。
端末機器の第1の画面領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップを含んでよく、ここで、第1の画面領域は、第1の光源位置に位置し、第1の光照射方向は、第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で第2の顔画像を取得するステップは、
端末機器の第2の画面領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップを含んでよく、ここで、第2の画面領域は、第2の光源位置に位置し、第2の光照射方向は、第2の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第3の光照射方向で第3の顔画像を取得するステップは、
端末機器の第3の画面領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップを含んでよく、ここで、第3の画面領域は、第3の光源位置に位置し、第3の光照射方向は、第3の画面領域が点灯するときに認識対象の顔を照射する対応する方向である。
第1の発光ダイオードの発光領域が点灯するときに、第1の光照射方向で第1の顔画像を収集するステップを含み、ここで、第1の発光領域は、第1の光源位置に位置し、第1の光照射方向は、第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で第2の顔画像を取得するステップは、
第2の発光領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップを含み、ここで、第2の発光領域は、第2の光源位置に位置し、第2の光照射方向は、第2の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第3の光照射方向で第3の顔画像を取得するステップは、
第3の発光領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップを含み、ここで、第3の発光領域は、第3の光源位置に位置し、第3の光照射方向は、第3の発光領域が点灯するときに認識対象の顔を照射する対応する方向である。
初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、第1の顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、第2の顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、第3の顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を含んでよい。
初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を含んでよい。
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するステップと、
第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するステップと、
第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するステップと、をさらに含んでよい。
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の変換行列を決定するステップと、
第1の変換行列及び初期顔画像に基づいて、第1の顔画像をアラインメントし、アラインメント後の第1の顔画像を取得するステップと、
アラインメント後の第1の顔画像と初期顔画像とに基づいて、第1の差分画像を生成するステップと、を含んでよく、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップは、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の変換行列を決定するステップと、
第2の変換行列及び初期顔画像に基づいて、第2の顔画像をアラインメントし、アラインメント後の第2の顔画像を取得するステップと、
アラインメント後の第2の顔画像と初期顔画像とに基づいて、第2の差分画像を生成するステップと、を含んでよく、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップは、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の変換行列を決定するステップと、
第3の変換行列及び初期顔画像に基づいて、第3の顔画像をアラインメントし、アラインメント後の第3の顔画像を取得するステップと、
アラインメント後の第3の顔画像と初期顔画像とに基づいて、第3の差分画像を生成するステップと、を含んでよい。
第1の差分画像、第2の差分画像及び第3の差分画像に基づいて、法線及び反射率を計算して取得するステップと、
法線に基づいて法線マップを生成するステップと、
反射率に基づいて反射率マップを生成するステップと、を含んでよい。
第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、ここで、第1の差分画像における目標画素点、第2の差分画像における目標画素点及び第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
第1の方程式、第2の方程式、第3の方程式及び第4の方程式に基づいて、目標画素点の法線及び目標画素点の反射率を計算して取得するステップであって、ここで、第4の方程式は法線に対応する3つの方向分類の関係を表す、ステップと、を含んでよく、
法線に基づいて法線マップを生成するステップは、
目標画素点の法線に基づいて、目標画素点に対応する法線マップを生成するステップを含んでよく、
反射率に基づいて反射率マップを生成するステップは、
目標画素点の反射率に基づいて、目標画素点に対応する反射率マップを生成するステップを含んでよい。
N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップと、を含んでよい。
サーバにN個の差分画像、法線マップ及び反射率マップを送信することにより、サーバが、N個の差分画像、法線マップ及び反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップであって、ここで、認識対象の顔は初期顔画像及び顔画像集合に含まれる、ステップと、
サーバから送信される生体顔検出結果を受信するステップと、を含んでよい。
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュール201であって、ここで、顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の光照射方向は互いに異なる光照射方向であり、かつN個の光照射方向はN個の光源位置に対応し、N個の光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
取得モジュール201がさらに、初期顔画像及び顔画像集合に基づいて、N個の差分画像を取得するために用いられる、取得モジュール201と、
N個の差分画像及びN個の光照射方向に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュール202であって、ここで、法線マップは、各画素点に対応する法線に基づいて構成された画像であり、反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、生成モジュール202と、
取得モジュールにより取得されたN個の差分画像、生成モジュールにより生成された法線マップ及び反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュール203と、を含む。
取得モジュール201は、具体的に、初期顔画像を取得するステップと、
目標時間内の第1の時刻に、第1の顔画像を取得するステップと、
目標時間内の第2の時刻に、第2の顔画像を取得するステップであって、ここで、第2の時刻は第1の時刻とは異なる時刻である、ステップと、
目標時間内の第3の時刻に、第3の顔画像を取得するステップであって、ここで、第3の時刻は第1の時刻とは異なる時刻であり、かつ第3の時刻は第2の時刻とは異なる時刻である、ステップと、を実行するために用いられる。
N個の光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ第1の光照射方向、第2の光照射方向及び第3の光照射方向は、異なる方向における光照射であり、
取得モジュール201は、具体的に、初期顔画像を取得するステップと、
第1の光照射方向で第1の顔画像を取得するステップと、
第2の光照射方向で第2の顔画像を取得するステップと、
第3の光照射方向で第3の顔画像を取得するステップと、を実行するために用いられる。
端末機器の第2の画面領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップであって、ここで、第2の画面領域は、第2の光源位置に位置し、第2の光照射方向は、第2の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
端末機器の第3の画面領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップであって、ここで、第3の画面領域は、第3の光源位置に位置し、第3の光照射方向は、第3の画面領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、を実行するために用いられる。
第2の発光領域が点灯するときに、第2の光照射方向で第2の顔画像を収集するステップであって、ここで、第2の発光領域は、第2の光源位置に位置し、第2の光照射方向は、第2の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、
第3の発光領域が点灯するときに、第3の光照射方向で第3の顔画像を収集するステップであって、ここで、第3の発光領域は、第3の光源位置に位置し、第3の光照射方向は、第3の発光領域が点灯するときに認識対象の顔を照射する対応する方向である、ステップと、を実行するために用いられる。
取得モジュール201は、具体的に、初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、ここで、初期顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、ここで、第1の差分画像はN個の差分画像のうちの1つの差分画像である、ステップと、
初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、ここで、第2の差分画像はN個の差分画像のうちの、第1の差分画像とは異なる1つの差分画像である、ステップと、
初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、ここで、第3の差分画像はN個の差分画像のうちの、第1の差分画像及び第2の差分画像とは異なる1つの差分画像である、ステップと、を実行するために用いられる。
計算モジュール204は、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するために用いられ、
計算モジュール204は、さらに、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するために用いられ、
計算モジュール204は、さらに、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するために用いられ、
表示モジュール205は、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するために用いられ、
実行モジュール206は、第1のキーポイントオフセット量、第2のキーポイントオフセット量及び第3のキーポイントオフセット量がいずれもオフセット閾値より小さければ、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するために用いられる。
取得モジュール201は、具体的に、初期顔キーポイント集合及び第1の顔キーポイント集合に基づいて、第1の変換行列を決定し、
第1の変換行列及び初期顔画像に基づいて、第1の顔画像をアラインメントし、アラインメント後の第1の顔画像を取得し、
アラインメント後の第1の顔画像と初期顔画像とに基づいて、第1の差分画像を生成するために用いられ、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第2の顔キーポイント集合に基づいて、第2の変換行列を決定し、
第2の変換行列及び初期顔画像に基づいて、第2の顔画像をアラインメントし、アラインメント後の第2の顔画像を取得し、
アラインメント後の第2の顔画像と初期顔画像とに基づいて、第2の差分画像を生成するために用いられ、
取得モジュール201は、具体的に、初期顔キーポイント集合及び第3の顔キーポイント集合に基づいて、第3の変換行列を決定し、
第3の変換行列及び初期顔画像に基づいて、第3の顔画像をアラインメントし、アラインメント後の第3の顔画像を取得し、
アラインメント後の第3の顔画像と初期顔画像とに基づいて、第3の差分画像を生成するために用いられる。
法線に基づいて法線マップを生成し、
反射率に基づいて反射率マップを生成するために用いられる。
第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、ここで、第1の差分画像における目標画素点、第2の差分画像における目標画素点及び第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
第1の方程式、第2の方程式、第3の方程式及び第4の方程式に基づいて、目標画素点の法線及び目標画素点の反射率を計算して取得するステップであって、ここで、第4の方程式は法線に対応する3つの方向分類の関係を表す、ステップと、を実行するために用いられ、
生成モジュール202は、具体的に、目標画素点の法線に基づいて、目標画素点に対応する法線マップを生成するために用いられ、
生成モジュール202は、具体的に、目標画素点の反射率に基づいて、目標画素点に対応する反射率マップを生成するために用いられる。
認識対象の顔に対応する生体確率に基づいて、認識対象の顔に対応する生体顔検出結果を決定するステップと、を実行するために用いられる。
サーバから送信される生体顔検出結果を受信するステップと、を実行するために用いられる。
メモリ内のプログラムを実行することにより、前述の図3~図13に示される実施例に説明された生体顔検出方法を実現する機能をさらに有する。
201 取得モジュール
202 生成モジュール
203 決定モジュール
204 計算モジュール
205 表示モジュール
206 実行モジュール
310 RF回路
320 メモリ
330 入力ユニット
331 タッチパネル
332 入力装置
340 表示ユニット
341 表示パネル
350 センサー
360 オーディオ回路
361 スピーカ
362 マイクロホン
370 WiFiモジュール
380 プロセッサ
390 電源
Claims (15)
- 端末機器又はサーバにより実行される生体顔検出方法であって、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するステップであって、前記顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の前記光照射方向は互いに異なる光照射方向であり、かつN個の前記光照射方向はN個の光源位置に対応し、N個の前記光源位置は同一の直線上に位置せず、Nは3以上の整数である、ステップと、
前記初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得するステップと、
N個の前記差分画像及びN個の前記光照射方向に基づいて、法線マップ及び反射率マップを生成するステップであって、前記法線マップは、各画素点に対応する法線に基づいて構成された画像であり、前記反射率マップは、各画素点に対応する反射率に基づいて構成された画像である、ステップと、
N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップと、を含む方法。 - 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する前記ステップは、
前記初期顔画像を取得するステップと、
目標時間内の第1の時刻に、前記第1の顔画像を取得するステップと、
前記目標時間内の第2の時刻に、前記第2の顔画像を取得するステップであって、前記第2の時刻は前記第1の時刻とは異なる時刻である、ステップと、
前記目標時間内の第3の時刻に、前記第3の顔画像を取得するステップであって、前記第3の時刻は前記第1の時刻とは異なる時刻であり、かつ前記第3の時刻は前記第2の時刻とは異なる時刻である、ステップと、を含む請求項1に記載の方法。 - 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
N個の前記光照射方向は、少なくとも第1の光照射方向、第2の光照射方向及び第3の光照射方向を含み、かつ前記第1の光照射方向、前記第2の光照射方向及び前記第3の光照射方向は、異なる方向における光照射であり、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得する前記ステップは、
前記初期顔画像を取得するステップと、
前記第1の光照射方向で前記第1の顔画像を取得するステップと、
前記第2の光照射方向で前記第2の顔画像を取得するステップと、
前記第3の光照射方向で前記第3の顔画像を取得するステップと、を含む請求項1に記載の方法。 - N個の前記光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ前記第1の光源位置、前記第2の光源位置及び前記第3の光源位置は、同一の直線上に位置せず、
第1の光照射方向で前記第1の顔画像を取得する前記ステップは、
端末機器の第1の画面領域が点灯するときに、前記第1の光照射方向で前記第1の顔画像を収集するステップを含み、前記第1の画面領域は、前記第1の光源位置に位置し、前記第1の光照射方向は、前記第1の画面領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で前記第2の顔画像を取得する前記ステップは、
前記端末機器の第2の画面領域が点灯するときに、前記第2の光照射方向で前記第2の顔画像を収集するステップを含み、前記第2の画面領域は、前記第2の光源位置に位置し、前記第2の光照射方向は、前記第2の画面領域が点灯するときに前記認識対象の顔を照射する対応する方向であり、
第3の光照射方向で前記第3の顔画像を取得する前記ステップは、
前記端末機器の第3の画面領域が点灯するときに、前記第3の光照射方向で前記第3の顔画像を収集するステップを含み、前記第3の画面領域は、前記第3の光源位置に位置し、前記第3の光照射方向は、前記第3の画面領域が点灯するときに前記認識対象の顔を照射する対応する方向である、請求項3に記載の方法。 - N個の前記光源位置は、少なくとも第1の光源位置、第2の光源位置及び第3の光源位置を含み、かつ前記第1の光源位置、前記第2の光源位置及び前記第3の光源位置は、同一の直線上に位置せず、
第1の光照射方向で前記第1の顔画像を取得する前記ステップは、
第1の発光領域が点灯するときに、前記第1の光照射方向で前記第1の顔画像を収集するステップを含み、前記第1の発光領域は、前記第1の光源位置に位置し、前記第1の光照射方向は、前記第1の発光領域が点灯するときに認識対象の顔を照射する対応する方向であり、
第2の光照射方向で前記第2の顔画像を取得する前記ステップは、
第2の発光領域が点灯するときに、前記第2の光照射方向で前記第2の顔画像を収集するステップを含み、前記第2の発光領域は、前記第2の光源位置に位置し、前記第2の光照射方向は、前記第2の発光領域が点灯するときに前記認識対象の顔を照射する対応する方向であり、
第3の光照射方向で前記第3の顔画像を取得する前記ステップは、
第3の発光領域が点灯するときに、前記第3の光照射方向で前記第3の顔画像を収集するステップを含み、前記第3の発光領域は、前記第3の光源位置に位置し、前記第3の光照射方向は、前記第3の発光領域が点灯するときに前記認識対象の顔を照射する対応する方向である、請求項3に記載の方法。 - 前記顔画像集合は、少なくとも第1の顔画像、第2の顔画像及び第3の顔画像を含み、
初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得する前記ステップは、
前記初期顔画像に対して顔キーポイント検出を行って、初期顔キーポイント集合を取得するステップであって、前記初期顔キーポイント集合は複数の初期顔キーポイントを含む、ステップと、
前記第1の顔画像に対して顔キーポイント検出を行って、第1の顔キーポイント集合を取得するステップであって、前記第1の顔キーポイント集合は複数の第1の顔キーポイントを含む、ステップと、
前記第2の顔画像に対して顔キーポイント検出を行って、第2の顔キーポイント集合を取得するステップであって、前記第2の顔キーポイント集合は複数の第2の顔キーポイントを含む、ステップと、
前記第3の顔画像に対して顔キーポイント検出を行って、第3の顔キーポイント集合を取得するステップであって、前記第3の顔キーポイント集合は複数の第3の顔キーポイントを含む、ステップと、
前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成するステップであって、前記第1の差分画像はN個の前記差分画像のうちの1つの差分画像である、ステップと、
前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成するステップであって、前記第2の差分画像はN個の前記差分画像のうちの、前記第1の差分画像とは異なる1つの差分画像である、ステップと、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップであって、前記第3の差分画像はN個の前記差分画像のうちの、前記第1の差分画像及び前記第2の差分画像とは異なる1つの差分画像であるステップと、を含む請求項1に記載の方法。 - 前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1のキーポイントオフセット量を計算して取得するステップと、
前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2のキーポイントオフセット量を計算して取得するステップと、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3のキーポイントオフセット量を計算して取得するステップと、
前記第1のキーポイントオフセット量、前記第2のキーポイントオフセット量及び前記第3のキーポイントオフセット量のうちの少なくとも1つがオフセット閾値以上であれば、再収集という提示メッセージを表示するステップと、
前記第1のキーポイントオフセット量、前記第2のキーポイントオフセット量及び前記第3のキーポイントオフセット量がいずれも前記オフセット閾値より小さければ、前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成し、前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成し、前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップを実行するステップと、をさらに含む請求項6に記載の方法。 - 初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の差分画像を生成する前記ステップは、
前記初期顔キーポイント集合及び前記第1の顔キーポイント集合に基づいて、第1の変換行列を決定するステップと、
前記第1の変換行列及び前記初期顔画像に基づいて、前記第1の顔画像を位置合わせして、アラインメント後の第1の顔画像を取得するステップと、
前記アラインメント後の第1の顔画像と前記初期顔画像とに基づいて、前記第1の差分画像を生成するステップと、を含み、
初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の差分画像を生成する前記ステップは、
前記初期顔キーポイント集合及び前記第2の顔キーポイント集合に基づいて、第2の変換行列を決定するステップと、
前記第2の変換行列及び前記初期顔画像に基づいて、前記第2の顔画像を位置合わせして、アラインメント後の第2の顔画像を取得するステップと、
前記アラインメント後の第2の顔画像と前記初期顔画像とに基づいて、前記第2の差分画像を生成するステップと、を含み、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の差分画像を生成するステップは、
前記初期顔キーポイント集合及び前記第3の顔キーポイント集合に基づいて、第3の変換行列を決定するステップと、
前記第3の変換行列及び前記初期顔画像に基づいて、前記第3の顔画像を位置合わせして、アラインメント後の第3の顔画像を取得するステップと、
前記アラインメント後の第3の顔画像と前記初期顔画像とに基づいて、前記第3の差分画像を生成するステップと、を含む請求項6に記載の方法。 - N個の前記差分画像に基づいて、法線マップ及び反射率マップを生成する前記ステップは、
前記第1の差分画像、前記第2の差分画像及び前記第3の差分画像に基づいて、法線及び反射率を計算して取得するステップと、
前記法線に基づいて、前記法線マップを生成するステップと、
前記反射率に基づいて、前記反射率マップを生成するステップと、を含む請求項6に記載の方法。 - 前記第1の差分画像、前記第2の差分画像及び前記第3の差分画像に基づいて、法線及び反射率を計算して取得する前記ステップは、
前記第1の差分画像における目標画素点に基づいて、第1の方程式を決定するステップと、
前記第2の差分画像における目標画素点に基づいて、第2の方程式を決定するステップと、
前記第3の差分画像における目標画素点に基づいて、第3の方程式を決定するステップであって、前記第1の差分画像における目標画素点、前記第2の差分画像における目標画素点及び前記第3の差分画像における目標画素点はいずれも同じ画素点位置に対応する、ステップと、
前記第1の方程式、前記第2の方程式、前記第3の方程式及び第4の方程式に基づいて、前記目標画素点の法線及び前記目標画素点の反射率を計算して取得するステップであって、前記第4の方程式は前記法線に対応する3つの方向分類の関係を表す、ステップと、を含み、
前記法線に基づいて、前記法線マップを生成する前記ステップは、
前記目標画素点の法線に基づいて、前記目標画素点に対応する法線マップを生成するステップを含み、
前記反射率に基づいて、前記反射率マップを生成する前記ステップは、
前記目標画素点の反射率に基づいて、前記目標画素点に対応する反射率マップを生成するステップを含む請求項9に記載の方法。 - N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップは、
N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得するステップであって、前記認識対象の顔は前記初期顔画像及び前記顔画像集合に含まれる、ステップと、
前記認識対象の顔に対応する生体確率に基づいて、前記認識対象の顔に対応する前記生体顔検出結果を決定するステップと、を含む請求項1~10のいずれか一項に記載の方法。 - N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するステップは、
サーバにN個の前記差分画像、前記法線マップ及び前記反射率マップを送信することにより、前記サーバが、N個の前記差分画像、前記法線マップ及び前記反射率マップに基づいて、生体検出モデルにより認識対象の顔に対応する生体確率を取得し、かつ前記認識対象の顔に対応する生体確率に基づいて、前記認識対象の顔に対応する前記生体顔検出結果を決定するステップであって、前記認識対象の顔は前記初期顔画像及び前記顔画像集合に含まれる、ステップと、
前記サーバから送信される前記生体顔検出結果を受信するステップと、を含む請求項1~10のいずれか一項に記載の方法。 - 生体顔検出装置であって、
初期顔画像及びN個の光照射方向に対応する顔画像集合を取得するために用いられる取得モジュールであって、前記顔画像集合はN個の顔画像を含み、かつ各顔画像は1つの光照射方向に対応し、N個の前記光照射方向は互いに異なる光照射方向であり、かつN個の前記光照射方向はN個の光源位置に対応し、N個の前記光源位置は同一の直線上に位置せず、Nは3以上の整数であり、
前記取得モジュールがさらに、前記初期顔画像及び前記顔画像集合に基づいて、N個の差分画像を取得するために用いられる、取得モジュールと、
N個の前記差分画像及びN個の前記光照射方向に基づいて、法線マップ及び反射率マップを生成するために用いられる生成モジュールであって、前記法線マップは各画素点に対応する法線に基づいて構成された画像であり、前記反射率マップは各画素点に対応する反射率に基づいて構成された画像である、生成モジュールと、
前記取得モジュールにより取得されたN個の前記差分画像、前記生成モジュールにより生成された前記法線マップ及び前記反射率マップに基づいて、生体顔検出結果を決定するために用いられる決定モジュールと、を含む生体顔検出装置。 - メモリ、送受信機、プロセッサ及びバスシステムを含み、
前記メモリは、プログラムを記憶するために用いられ、
前記プロセッサは、前記メモリにおけるプログラムを実行することにより、上記請求項1~12のいずれか一項に記載の方法を実現するために用いられ、
前記バスシステムは、前記メモリ及び前記プロセッサを接続することにより、前記メモリ及び前記プロセッサに通信させるために用いられる、電子機器。 - コンピュータ上で実行されると、前記コンピュータに請求項1~12のいずれか一項に記載の方法を実行させる、命令を含むコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010055343.3 | 2020-01-17 | ||
CN202010055343.3A CN111310575B (zh) | 2020-01-17 | 2020-01-17 | 一种人脸活体检测的方法、相关装置、设备及存储介质 |
PCT/CN2020/120105 WO2021143216A1 (zh) | 2020-01-17 | 2020-10-10 | 一种人脸活体检测的方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022551139A JP2022551139A (ja) | 2022-12-07 |
JP7286208B2 true JP7286208B2 (ja) | 2023-06-05 |
Family
ID=71156332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521013A Active JP7286208B2 (ja) | 2020-01-17 | 2020-10-10 | 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11854310B2 (ja) |
EP (1) | EP4012607A4 (ja) |
JP (1) | JP7286208B2 (ja) |
CN (1) | CN111310575B (ja) |
WO (1) | WO2021143216A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310575B (zh) | 2020-01-17 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测的方法、相关装置、设备及存储介质 |
CN111680675B (zh) * | 2020-08-14 | 2020-11-17 | 腾讯科技(深圳)有限公司 | 人脸活体检测方法、系统、装置、计算机设备和存储介质 |
CN112804447B (zh) * | 2020-12-30 | 2023-01-17 | 北京石头创新科技有限公司 | 一种检测近场物体的方法、装置、介质和电子设备 |
CN113849314A (zh) * | 2021-09-30 | 2021-12-28 | 支付宝(杭州)信息技术有限公司 | 一种数据处理模型部署方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170046563A1 (en) | 2015-08-10 | 2017-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for face recognition |
US20180173979A1 (en) | 2015-06-29 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system, and computer program product |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9123116B2 (en) * | 2011-04-19 | 2015-09-01 | University Of Southern California | Multiview face capture using polarized spherical gradient illumination |
US8224018B2 (en) * | 2006-01-23 | 2012-07-17 | Digimarc Corporation | Sensing data from physical objects |
US8493178B2 (en) * | 2008-12-02 | 2013-07-23 | Electronics And Telecommunications Research Institute | Forged face detecting method and apparatus thereof |
CN105320947B (zh) * | 2015-11-04 | 2019-03-01 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105488486B (zh) * | 2015-12-07 | 2018-10-30 | 清华大学 | 防止照片攻击的人脸识别方法及装置 |
CN105574509B (zh) * | 2015-12-16 | 2019-01-15 | 天津科技大学 | 一种基于光照的人脸识别系统回放攻击检测方法及应用 |
CN106203305B (zh) * | 2016-06-30 | 2020-02-04 | 北京旷视科技有限公司 | 人脸活体检测方法和装置 |
CN106778518B (zh) * | 2016-11-24 | 2021-01-08 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
CN107992794B (zh) * | 2016-12-30 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置和存储介质 |
US10922395B2 (en) * | 2018-01-05 | 2021-02-16 | Stmicroelectronics, Inc. | Facial authentication systems and methods utilizing time of flight sensing |
WO2019196559A1 (zh) * | 2018-04-12 | 2019-10-17 | Oppo广东移动通信有限公司 | 人脸识别方法、装置及移动终端、存储介质 |
CN110110597B (zh) | 2019-04-02 | 2021-08-27 | 北京旷视科技有限公司 | 活体检测方法、装置及活体检测终端 |
CN111310575B (zh) * | 2020-01-17 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测的方法、相关装置、设备及存储介质 |
-
2020
- 2020-01-17 CN CN202010055343.3A patent/CN111310575B/zh active Active
- 2020-10-10 WO PCT/CN2020/120105 patent/WO2021143216A1/zh unknown
- 2020-10-10 EP EP20914529.1A patent/EP4012607A4/en active Pending
- 2020-10-10 JP JP2022521013A patent/JP7286208B2/ja active Active
-
2022
- 2022-01-20 US US17/580,548 patent/US11854310B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180173979A1 (en) | 2015-06-29 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system, and computer program product |
US20170046563A1 (en) | 2015-08-10 | 2017-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for face recognition |
Non-Patent Citations (1)
Title |
---|
J. Matias Di Martino et al.,Liveness Detection Using Implicit 3D Features,[online],2018年04月18日,internet,[retrievd on 2023.04.18], <https://arxiv.org/pdf/1804.06702v1.pdf> |
Also Published As
Publication number | Publication date |
---|---|
EP4012607A4 (en) | 2022-12-07 |
CN111310575B (zh) | 2022-07-08 |
EP4012607A1 (en) | 2022-06-15 |
CN111310575A (zh) | 2020-06-19 |
US20220148336A1 (en) | 2022-05-12 |
JP2022551139A (ja) | 2022-12-07 |
WO2021143216A1 (zh) | 2021-07-22 |
US11854310B2 (en) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7286208B2 (ja) | 生体顔検出方法、生体顔検出装置、電子機器、及びコンピュータプログラム | |
CN110163048B (zh) | 手部关键点的识别模型训练方法、识别方法及设备 | |
CN110348543B (zh) | 眼底图像识别方法、装置、计算机设备及存储介质 | |
WO2019101021A1 (zh) | 图像识别方法、装置及电子设备 | |
CN111079576B (zh) | 活体检测方法、装置、设备及存储介质 | |
CN108594997B (zh) | 手势骨架构建方法、装置、设备及存储介质 | |
WO2020224479A1 (zh) | 目标的位置获取方法、装置、计算机设备及存储介质 | |
CN109947886B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN107833219B (zh) | 图像识别方法及装置 | |
CN112036331B (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN111541907B (zh) | 物品显示方法、装置、设备及存储介质 | |
CN111242090B (zh) | 基于人工智能的人脸识别方法、装置、设备及介质 | |
CN110570460B (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN110544272A (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
CN112749613B (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN113591517A (zh) | 一种活体检测方法及相关设备 | |
CN111597922A (zh) | 细胞图像的识别方法、系统、装置、设备及介质 | |
CN111598896A (zh) | 图像检测方法、装置、设备及存储介质 | |
CN114333031A (zh) | 活体检测模型的漏洞检测方法、装置及存储介质 | |
CN112818733B (zh) | 信息处理方法、装置、存储介质及终端 | |
CN112115748B (zh) | 证件图像识别方法、装置、终端及存储介质 | |
CN114140839B (zh) | 用于人脸识别的图像发送方法、装置、设备及存储介质 | |
CN111310701B (zh) | 手势识别方法、装置、设备及存储介质 | |
CN113743186A (zh) | 医学图像的处理方法、装置、设备及存储介质 | |
CN113298040A (zh) | 关键点检测方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220406 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220406 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286208 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |