JP2021516831A - 生体検知方法、装置及び記憶媒体 - Google Patents
生体検知方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP2021516831A JP2021516831A JP2020552736A JP2020552736A JP2021516831A JP 2021516831 A JP2021516831 A JP 2021516831A JP 2020552736 A JP2020552736 A JP 2020552736A JP 2020552736 A JP2020552736 A JP 2020552736A JP 2021516831 A JP2021516831 A JP 2021516831A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- biometric
- neural network
- feature data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
本出願は、出願番号が201811654149.6であり、出願日が2018年12月29日である中国特許出願に基づく優先権を主張するものであり、該中国特許出願の全内容を参照として本出願に援用する。
サーバと端末装置は、インターネットを経由して通信することができる。具体的には、端末装置にクロスモーダルの双眼カメラが設けられている。端末装置は、双眼カメラにより、画像ペア又はビデオシーケンスを取得し、取得された画像ペア又はビデオシーケンスからフレーム選択により得られた画像ペアをサーバに送信する。又は、画像ペアに対して、特徴抽出などのような更なる処理を行い、処理結果をサーバに送信する。サーバは、端末装置からの画像ペア又は画像ペアの処理結果を受信してから、受信された情報に基づいて生体検知を行い、生体検知結果又は生体検知結果に基づいて得られた操作命令を端末装置に送信することができる。
ただし、xncwhは、入力画像を表し、Yncwhは、正規化処理後の入力画像を表し、nは、一括して入力された画像の数を表し、cは、画像のチャネル数を表し、例えば、RGB画像のチャネル数は、3である。w、hはそれぞれ画像の幅と高さを表し、μncwhは、入力画像の平均値を表し、σncwh 2は、入力画像の標準偏差を表す。従って、上記正規化処理を行ってから、重みを共有する特徴抽出サブネットワーク(即ち、同一の特徴抽出サブネットワーク)を利用して第1目標領域画像及び第2目標領域画像に対して特徴抽出を行うことで、ネットワークの複雑さを低下させることができる。
第1画像及び/又は第2画像においていずれも前記目標対象が検出されたという要件、第1画像において検出された目標対象が前記第1画像の設定領域に位置し、及び/又は前記第2画像において検出された目標対象が前記第2画像の設定領域に位置するという要件、前記第1画像及び/又は前記第2画像において検出された目標対象の完全度が所定の要件を満たしているという要件、前記第1画像において検出された目標対象が前記第1画像において占める割合が割合閾値より大きく、及び/又は前記第2画像において検出された目標対象が前記第2画像において占める割合が前記割合閾値より大きいという要件、第1画像及び/又は第2画像の解像度が解像度閾値より大きいという要件、第1画像及び/又は第2画像の
露出が露出閾値より大きいという要件のうちの1つ又は任意の組み合わせを含む。
生体検知モジュール600は、サンプル画像ペアから得られた視差情報に基づいてトレーニングして得られた生体検知ニューラルネットワークにより、前記第1画像及び前記第2画像に対して生体検知処理を行い、生体検知結果を得るように構成される。
前記第1画像から目標対象の第1目標領域画像を取得し、前記第2画像から前記目標対象の第2目標領域画像を取得するように構成される両眼マッチングモジュールとを更に備え、
前記生体検知モジュール600は、前記第1目標領域画像及び前記第2目標領域画像を前記生体検知ニューラルネットワークに入力して生体検知処理し、生体検知結果を得るように構成される。
前記生体検知ニューラルネットワークにより、前記第1画像から抽出された第1生体特徴データ及び前記第2画像から抽出された第2生体特徴データに対してフュージョン処理を行い、第3フュージョン特徴データを得るように構成される第3特徴フュージョンモジュールと、
前記第3フュージョン特徴データ及び前記視差情報に基づいて、ネットワーク損失を決定するように構成されるネットワーク損失決定モジュールとを更に備え、
生体検知モジュール600は、前記ネットワーク損失に基づいて、前記生体検知ニューラルネットワークのパラメータを調整するように構成される。本出願の実施例における生体検知装置10は、上記図2から図10に示した実施例における生体検知装置であり、該生体検知装置10における各ユニットの機能は、上記各方法の実施例における図2から図10に示した実施例の具体的な実現形態を参照することができ、ここで詳細な説明を省略する。
顔検知を行い、クロスモーダルの双眼カメラにより取得された左右の2枚の画像からそれぞれ顔領域位置を検出し、顔領域の矩形枠の座標を返送し、少なくとも1枚の画像において顔が検出されていない場合、引き続きフレーム選択を行って顔検知を実行し、限定された期間を経過しても左右の2枚の画像において同時に顔領域が検出されていないと、偽造顔と直接判定するか、又は、検知にタイムアウトしたという提示を出力し、顔領域を同時に検出した場合、後続のプロセスを引き続き実行するという操作、
顔キーポイント検出を行い、上記顔検知で取得された左右の2枚の顔画像からそれぞれ顔の106個のキーポイントの座標を抽出するという操作、
顔領域分割を行い、左右の2組の顔キーポイントの座標を利用して、左右の2つの顔を含む最小矩形を決定し、該矩形顔領域を最終の顔領域とし、左右の2枚の画像において位置が同じであってサイズが同じである2つの顔画像を切り出すという操作、
切り出されたサイズが同じである2枚の画像を生体検知するという操作のうちの少なくとも1つを実行することもできる。
Claims (39)
- 生体検知方法であって、
双眼カメラの第1画像センサにより取得された第1画像及び前記双眼カメラの第2画像センサにより取得された第2画像を取得することと、
前記第1画像及び前記第2画像に対して両眼マッチング処理を行い、前記第1画像と前記第2画像の視差情報を得ることと、
前記視差情報に基づいて、生体検知結果を得ることとを含む、
生体検知方法。 - 前記第1画像と前記第2画像は、異なるモーダルを有することを含むことを特徴とする
請求項1に記載の方法。 - 前記第1画像及び前記第2画像に対して両眼マッチング処理を行い、前記第1画像と前記第2画像の視差情報を得ることは、
前記第1画像から目標対象の第1目標領域画像を取得し、前記第2画像から前記目標対象の第2目標領域画像を取得することと、
前記第1目標領域画像及び前記第2目標領域画像に基づいて、前記第1画像と前記第2画像の視差情報を得ることとを含むことを特徴とする
請求項1又は2に記載の方法。 - 前記第1画像から目標対象の第1目標領域画像を取得することは、
前記第1画像に対してキーポイント検出を行い、前記目標対象の第1キーポイント情報を得ることと、
前記目標対象の第1キーポイント情報に基づいて、前記第1画像から前記目標対象の第1目標領域画像を切り出すこととを含むことを特徴とする
請求項3に記載の方法。 - 前記第1目標領域画像及び前記第2目標領域画像に基づいて、前記第1画像と前記第2画像の視差情報を得ることは、
前記第1目標領域画像に対して特徴抽出処理を行い、第1特徴データを得て、前記第2目標領域画像に対して特徴抽出処理を行い、第2特徴データを得ることと、
前記第1特徴データ及び前記第2特徴データに基づいて、前記視差情報を得ることとを含むことを特徴とする
請求項3−4のいずれか一項に記載の方法。 - 前記第1目標領域画像に対して特徴抽出処理を行い、第1特徴データを得て、前記第2目標領域画像に対して特徴抽出処理を行い、第2特徴データを得ることは、
両眼マッチングニューラルネットワークにおける第1特徴抽出サブネットワークを利用して、前記第1目標領域画像に対して特徴抽出を行い、第1特徴データを得て、前記両眼マッチングニューラルネットワークにおける第2特徴抽出サブネットワークを利用して、前記第2目標領域画像に対して特徴抽出を行い、第2特徴データを得ることとを含むことを特徴とする
請求項5に記載の方法。 - 前記第1目標領域画像に対して特徴抽出処理を行い、第1特徴データを得て、前記第2目標領域画像に対して特徴抽出処理を行い、第2特徴データを得ることは、
前記第1目標領域画像及び前記第2目標領域画像に対して、それぞれ正規化処理を行い、正規化処理後の前記第1目標領域画像及び正規化処理後の前記第2目標領域画像に一致した分布を持たせることと、
両眼マッチングニューラルネットワークにおける特徴抽出サブネットワークを利用して、正規化処理後の前記第1目標領域画像に対して特徴抽出を行い、第1特徴データを得て、前記特徴抽出サブネットワークを利用して、正規化処理後の前記第2目標領域画像に対して特徴抽出を行い、第2特徴データを得ることとを含むことを特徴とする
請求項5に記載の方法。 - 前記視差情報に基づいて、生体検知結果を得ることは、
前記第1画像から取得された第1目標領域画像、前記第2画像から取得された第2目標領域画像及び前記視差情報に基づいて、生体検知結果を得ることを含むことを特徴とする
請求項1−7のいずれか一項に記載の方法。 - 前記第1画像から取得された第1目標領域画像、前記第2画像から取得された第2目標領域画像及び前記視差情報に基づいて、生体検知結果を得ることは、
前記視差情報に対して特徴抽出を行い、第3生体特徴データを得ることと、
前記第1目標領域画像から抽出された第1生体特徴データ、前記第2目標領域画像から抽出された第2生体特徴データ及び前記第3生体特徴データに対してフュージョン処理を行い、第1フュージョン特徴データを得ることと、
前記第1フュージョン特徴データに基づいて、生体検知結果を得ることとを含むことを特徴とする
請求項8に記載の方法。 - 前記視差情報に基づいて、生体検知結果を得ることは、
前記視差情報を教師情報として、生体検知ニューラルネットワークをトレーニングすることと、
トレーニング後の前記生体検知ニューラルネットワークを利用して生体検知を行い、生体検知結果を得ることとを含むことを特徴とする
請求項1−7のいずれか一項に記載の方法。 - トレーニング後の前記生体検知ニューラルネットワークを利用して生体検知を行い、生体検知結果を得ることは、
前記トレーニング後の前記生体検知ニューラルネットワークにより、検知対象画像ペアに含まれる第3画像及び第4画像に対してそれぞれ特徴抽出を行い、抽出された特徴データに対してフュージョン処理を行い、第2フュージョン特徴データを得ることと、
前記トレーニング後の前記生体検知ニューラルネットワークにより、前記第2フュージョン特徴データを処理し、生体検知結果を得ることとを含むことを特徴とする
請求項10に記載の方法。 - 前記視差情報を教師情報として、生体検知ニューラルネットワークをトレーニングすることは、
前記生体検知ニューラルネットワークにより、前記第1目標領域画像から抽出された第1生体特徴データ及び前記第2目標領域画像から抽出された第2生体特徴データに対してフュージョン処理を行い、第3フュージョン特徴データを得ることと、
前記第3フュージョン特徴データ及び前記視差情報に基づいて、ネットワーク損失を決定することと、
前記ネットワーク損失に基づいて、前記生体検知ニューラルネットワークのパラメータを調整することとを含むことを特徴とする
請求項10又は11に記載の方法。 - 前記第1画像センサ又は前記第2画像センサは、可視光センサ、近赤外センサ、デュアルチャネルセンサのうちの1つを含むことを特徴とする
請求項1−12のいずれか一項に記載の方法。 - 前記目標対象は顔であることを特徴とする
請求項1−13のいずれか一項に記載の方法。 - 生体検知方法であって、
双眼カメラの第1画像センサにより取得された第1画像及び前記双眼カメラの第2画像センサにより取得された第2画像を取得することと、
サンプル画像ペアの視差情報に基づいてトレーニングして得られた生体検知ニューラルネットワークにより、前記第1画像及び前記第2画像に対して生体検知処理を行い、生体検知結果を得ることとを含む、生体検知方法。 - 生体検知ニューラルネットワークにより、前記第1画像及び前記第2画像に対して生体検知処理を行い、生体検知結果を得ることは、
顔画像である前記第1画像及び前記第2画像を生体検知ニューラルネットワークに入力して生体検知処理を行い、生体検知結果を得ることを含むことを特徴とする
請求項15に記載の方法。 - 前記方法は、
前記第1画像から目標対象の第1目標領域画像を取得し、前記第2画像から前記目標対象の第2目標領域画像を取得することを更に含み、
生体検知ニューラルネットワークにより、前記第1画像及び前記第2画像に対して生体検知処理を行い、生体検知結果を得ることは、
前記第1目標領域画像及び前記第2目標領域画像を前記生体検知ニューラルネットワークに入力して生体検知処理を行い、生体検知結果を得ることを含むことを特徴とする
請求項15に記載の方法。 - 前記生体検知ニューラルネットワークのトレーニングは、
前記生体検知ニューラルネットワークにより、前記第1画像から抽出された第1生体特徴データ及び前記第2画像から抽出された第2生体特徴データに対してフュージョン処理を行い、第3フュージョン特徴データを得ることと、
前記第3フュージョン特徴データ及び前記視差情報に基づいて、ネットワーク損失を決定することと、
前記ネットワーク損失に基づいて、前記生体検知ニューラルネットワークのパラメータを調整することとを含むことを特徴とする
請求項16から17のいずれか一項に記載の方法。 - 生体検知装置であって、
双眼カメラの第1画像センサにより取得された第1画像及び前記双眼カメラの第2画像センサにより取得された第2画像を取得するように構成される取得モジュールと、
前記第1画像及び前記第2画像に対して両眼マッチング処理を行い、前記第1画像と前記第2画像の視差情報を得るように構成される両眼マッチングモジュールと、
前記視差情報に基づいて、生体検知結果を得るように構成される生体検知モジュールとを備える、生体検知装置。 - 前記第1画像と前記第2画像は異なるモーダルを有することを特徴とする
請求項19に記載の装置。 - 前記両眼マッチングモジュールは、
前記第1画像から目標対象の第1目標領域画像を取得し、前記第2画像から前記目標対象の第2目標領域画像を取得し、
前記第1目標領域画像及び前記第2目標領域画像に基づいて、前記第1画像と前記第2画像の視差情報を得るように構成されることを特徴とする
請求項19又は20に記載の装置。 - 前記取得モジュールは、
前記第1画像に対してキーポイント検出を行い、目標対象の第1キーポイント情報を得るように構成されるキーポイント検出モジュールと、
前記目標対象の第1キーポイント情報に基づいて、前記第1画像から前記目標対象の第1目標領域画像を切り出すように構成される画像切り出しモジュールとを備えることを特徴とする
請求項21に記載の装置。 - 前記両眼マッチングモジュールは、
前記第1目標領域画像に対して特徴抽出処理を行い、第1特徴データを得て、前記第2目標領域画像に対して特徴抽出処理を行い、第2特徴データを得るように構成される特徴抽出モジュールと、
前記第1特徴データ及び前記第2特徴データに基づいて、前記視差情報を得るように構成される視差予測モジュールとを備えることを特徴とする
請求項21−22のいずれか一項に記載の装置。 - 前記特徴抽出モジュールは、
両眼マッチングニューラルネットワークにおける第1特徴抽出サブネットワークを利用して、前記第1目標領域画像に対して特徴抽出を行い、第1特徴データを得て、前記両眼マッチングニューラルネットワークにおける第2特徴抽出サブネットワークを利用して、前記第2目標領域画像に対して特徴抽出を行い、第2特徴データを得るように構成されることを特徴とする
請求項23に記載の装置。 - 前記特徴抽出モジュールは、
前記第1目標領域画像及び前記第2目標領域画像に対して、それぞれ正規化処理を行い、正規化処理後の前記第1目標領域画像及び正規化処理後の前記第2目標領域画像に一致した分布を持たせ、
両眼マッチングニューラルネットワークにおける特徴抽出サブネットワークを利用して、正規化処理後の前記第1目標領域画像に対して特徴抽出を行い、第1特徴データを得て、前記特徴抽出サブネットワークを利用して、正規化処理後の前記第2目標領域画像に対して特徴抽出を行い、第2特徴データを得るように構成されることを特徴とする
請求項23に記載の装置。 - 前記生体検知モジュールは、
前記第1画像から取得された第1目標領域画像、前記第2画像から取得された第2目標領域画像及び前記視差情報に基づいて、生体検知結果を得るように構成される
請求項19−25のいずれか一項に記載の装置。 - 前記生体検知モジュールは、
前記視差情報に対して特徴抽出を行い、第3生体特徴データを得て、
前記第1目標領域画像から抽出された第1生体特徴データ、前記第2目標領域画像から抽出された第2生体特徴データ及び前記第3生体特徴データに対してフュージョン処理を行い、第1フュージョン特徴データを得て、
前記第1フュージョン特徴データに基づいて、生体検知結果を得るように構成されることを特徴とする
請求項26に記載の装置。 - 前記生体検知モジュールは、
前記視差情報を教師情報として、生体検知ニューラルネットワークをトレーニングするように構成されるトレーニングモジュールと、
トレーニング後の前記生体検知ニューラルネットワークを利用して生体検知を行い、生体検知結果を得るように構成される生体検知サブモジュールとを備えることを特徴とする
請求項19−25のいずれか一項に記載の装置。 - 前記生体検知サブモジュールは、
前記トレーニング後の前記生体検知ニューラルネットワークにより、検知対象画像ペアに含まれる第3画像及び第4画像に対してそれぞれ特徴抽出を行い、抽出された特徴データに対してフュージョン処理を行い、第2フュージョン特徴データを得て、
前記トレーニング後の前記生体検知ニューラルネットワークにより、前記第2フュージョン特徴データを処理し、生体検知結果を得るように構成されることを特徴とする
請求項28に記載の装置。 - 前記トレーニングモジュールは、
前記生体検知ニューラルネットワークにより、前記第1目標領域画像から抽出された第1生体特徴データ及び前記第2目標領域画像から抽出された第2生体特徴データに対してフュージョン処理を行い、第3フュージョン特徴データを得て、
前記第3フュージョン特徴データ及び前記視差情報に基づいて、ネットワーク損失を決定し、
前記ネットワーク損失に基づいて、前記生体検知ニューラルネットワークのパラメータを調整するように構成されることを特徴とする
請求項28又は29に記載の装置。 - 前記第1画像センサ又は前記第2画像センサは、可視光センサ、近赤外センサ、デュアルチャネルセンサのうちの1つを含むことを特徴とする
請求項19−30のいずれか一項に記載の装置。 - 前記目標対象は顔であることを特徴とする
請求項19−31のいずれか一項に記載の装置。 - 生体検知装置であって、
双眼カメラの第1画像センサにより取得された第1画像及び前記双眼カメラの第2画像センサにより取得された第2画像を取得するように構成される取得モジュールと、
サンプル画像ペアの視差情報に基づいてトレーニングして得られた生体検知ニューラルネットワークにより、前記第1画像及び前記第2画像に対して生体検知処理を行い、生体検知結果を得るように構成される生体検知モジュールとを備える、前記装置。 - 前記生体検知モジュールは、顔画像である前記第1画像及び前記第2画像を生体検知ニューラルネットワークに入力して生体検知処理を行い、生体検知結果を得るように構成されることを特徴とする
請求項33に記載の装置。 - 前記取得モジュールは更に、前記第1画像から目標対象の第1目標領域画像を取得し、前記第2画像から前記目標対象の第2目標領域画像を取得するように構成され、
前記生体検知モジュールは、前記第1目標領域画像及び前記第2目標領域画像を前記生体検知ニューラルネットワークに入力して生体検知処理を行い、生体検知結果を得るように構成されることを特徴とする
請求項34に記載の装置。 - 前記生体検知ニューラルネットワークのトレーニングは、
前記生体検知ニューラルネットワークにより、前記第1画像から抽出された第1生体特徴データ及び前記第2画像から抽出された第2生体特徴データに対してフュージョン処理を行い、第3フュージョン特徴データを得ることと、
前記第3フュージョン特徴データ及び前記視差情報に基づいて、ネットワーク損失を決定することと、
前記ネットワーク損失に基づいて、前記生体検知ニューラルネットワークのパラメータを調整することとを含むことを特徴とする
請求項33から35のいずれか一項に記載の装置。 - 生体検知装置であって、プロセッサとメモリとを備え、前記メモリは、コンピュータプログラムコードを記憶するように構成され、前記プロセッサは、前記コンピュータプログラムコードを呼び出して、請求項1から14又は15から18のいずれか一項に記載の方法を実行するように構成される、生体検知装置。
- コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体には、コンピュータ可読命令が記憶されており、前記命令がプロセッサにより呼び出される時、前記プロセッサは、請求項1から14又は15から18のいずれか一項に記載の方法を実行する、コンピュータ可読記憶媒体。
- コンピュータプログラムであって、前記コンピュータプログラムがコンピュータにより実行されると、請求項1から14又は15から18のいずれか一項に記載の生体検知方法を実行する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811654149.6 | 2018-12-29 | ||
CN201811654149.6A CN111444744A (zh) | 2018-12-29 | 2018-12-29 | 活体检测方法、装置以及存储介质 |
PCT/CN2019/107584 WO2020134238A1 (zh) | 2018-12-29 | 2019-09-24 | 活体检测方法、装置以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516831A true JP2021516831A (ja) | 2021-07-08 |
JP7096355B2 JP7096355B2 (ja) | 2022-07-05 |
Family
ID=71129591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552736A Active JP7096355B2 (ja) | 2018-12-29 | 2019-09-24 | 生体検知方法、装置及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11393256B2 (ja) |
JP (1) | JP7096355B2 (ja) |
CN (1) | CN111444744A (ja) |
SG (1) | SG11202009691TA (ja) |
TW (1) | TWI766201B (ja) |
WO (1) | WO2020134238A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111383256B (zh) * | 2018-12-29 | 2024-05-17 | 北京市商汤科技开发有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
CN111104846B (zh) * | 2019-10-16 | 2022-08-30 | 平安科技(深圳)有限公司 | 数据检测方法、装置、计算机设备和存储介质 |
CN111260711B (zh) * | 2020-01-10 | 2021-08-10 | 大连理工大学 | 一种弱监督可信代价传播的视差估计方法 |
JP7297705B2 (ja) * | 2020-03-18 | 2023-06-26 | 株式会社東芝 | 処理装置、処理方法、学習装置およびプログラム |
CN111507262B (zh) * | 2020-04-17 | 2023-12-08 | 北京百度网讯科技有限公司 | 用于检测活体的方法和装置 |
KR20220028928A (ko) * | 2020-08-31 | 2022-03-08 | 삼성전자주식회사 | 부분 영상 기반의 영상 처리 방법 및 장치 |
CN112200057B (zh) * | 2020-09-30 | 2023-10-31 | 汉王科技股份有限公司 | 人脸活体检测方法、装置、电子设备及存储介质 |
CN113052035A (zh) * | 2021-03-15 | 2021-06-29 | 上海商汤智能科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN113158877A (zh) * | 2021-04-16 | 2021-07-23 | 上海云从企业发展有限公司 | 成像偏差分析及活体检测方法、装置及计算机存储介质 |
CN113822238A (zh) * | 2021-11-22 | 2021-12-21 | 深圳佑驾创新科技有限公司 | 活体检测方法及其模组、设备 |
TWI807851B (zh) * | 2022-06-08 | 2023-07-01 | 中華電信股份有限公司 | 一種領域泛化之人臉防偽的特徵解析系統、方法及其電腦可讀媒介 |
CN115115836B (zh) * | 2022-06-29 | 2023-06-13 | 抖音视界有限公司 | 图像识别方法、装置、存储介质以及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003178306A (ja) * | 2001-12-12 | 2003-06-27 | Toshiba Corp | 個人認証装置および個人認証方法 |
JP2004192378A (ja) * | 2002-12-12 | 2004-07-08 | Toshiba Corp | 顔画像処理装置およびその方法 |
JP2017016192A (ja) * | 2015-06-26 | 2017-01-19 | 株式会社東芝 | 立体物検知装置及び立体物認証装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110102553A1 (en) * | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
TW200707310A (en) | 2005-08-08 | 2007-02-16 | Chunghwa Telecom Co Ltd | Facial recognition method based on recognition of facial features |
CN104766063B (zh) | 2015-04-08 | 2018-01-05 | 宁波大学 | 一种活体人脸识别方法 |
CN105023010B (zh) | 2015-08-17 | 2018-11-06 | 中国科学院半导体研究所 | 一种人脸活体检测方法及系统 |
CN105184246B (zh) | 2015-08-28 | 2020-05-19 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN106407914B (zh) * | 2016-08-31 | 2019-12-10 | 北京旷视科技有限公司 | 用于检测人脸的方法、装置和远程柜员机系统 |
US10372974B2 (en) * | 2017-01-11 | 2019-08-06 | Microsoft Technology Licensing, Llc | 3D imaging recognition by stereo matching of RGB and infrared images |
KR102172200B1 (ko) * | 2017-04-22 | 2020-10-30 | 고려대학교 산학협력단 | 라이브니스를 검증하는 모바일 장치 및 방법 |
CN107403168B (zh) * | 2017-08-07 | 2020-08-11 | 青岛有锁智能科技有限公司 | 一种面部识别系统 |
CN108764091B (zh) * | 2018-05-18 | 2020-11-17 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN108961327B (zh) * | 2018-05-22 | 2021-03-30 | 深圳市商汤科技有限公司 | 一种单目深度估计方法及其装置、设备和存储介质 |
CN108921041A (zh) * | 2018-06-06 | 2018-11-30 | 深圳神目信息技术有限公司 | 一种基于rgb和ir双目摄像头的活体检测方法及装置 |
EP3674973A1 (en) * | 2018-12-28 | 2020-07-01 | Samsung Electronics Co., Ltd. | Method and apparatus with liveness detection and object recognition |
-
2018
- 2018-12-29 CN CN201811654149.6A patent/CN111444744A/zh active Pending
-
2019
- 2019-09-24 JP JP2020552736A patent/JP7096355B2/ja active Active
- 2019-09-24 WO PCT/CN2019/107584 patent/WO2020134238A1/zh active Application Filing
- 2019-09-24 SG SG11202009691TA patent/SG11202009691TA/en unknown
- 2019-09-24 US US17/040,855 patent/US11393256B2/en active Active
- 2019-11-01 TW TW108139802A patent/TWI766201B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003178306A (ja) * | 2001-12-12 | 2003-06-27 | Toshiba Corp | 個人認証装置および個人認証方法 |
JP2004192378A (ja) * | 2002-12-12 | 2004-07-08 | Toshiba Corp | 顔画像処理装置およびその方法 |
JP2017016192A (ja) * | 2015-06-26 | 2017-01-19 | 株式会社東芝 | 立体物検知装置及び立体物認証装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7096355B2 (ja) | 2022-07-05 |
TWI766201B (zh) | 2022-06-01 |
WO2020134238A1 (zh) | 2020-07-02 |
TW202026948A (zh) | 2020-07-16 |
US11393256B2 (en) | 2022-07-19 |
CN111444744A (zh) | 2020-07-24 |
US20210027081A1 (en) | 2021-01-28 |
SG11202009691TA (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7096355B2 (ja) | 生体検知方法、装置及び記憶媒体 | |
JP6844038B2 (ja) | 生体検出方法及び装置、電子機器並びに記憶媒体 | |
US10275672B2 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
CN112215180B (zh) | 一种活体检测方法及装置 | |
WO2019214201A1 (zh) | 活体检测方法及装置、系统、电子设备、存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
KR20190072563A (ko) | 얼굴 라이브니스 검출 방법 및 장치, 그리고 전자 디바이스 | |
CN112052831B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
US20200349414A1 (en) | Systems and methods for neuronal networks for associative gestalt learning | |
Kaur et al. | Deepfakes: temporal sequential analysis to detect face-swapped video clips using convolutional long short-term memory | |
WO2023011013A1 (zh) | 视频图像的拼缝搜索方法、视频图像的拼接方法和装置 | |
CN112052830B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
US20230143452A1 (en) | Method and apparatus for generating image, electronic device and storage medium | |
WO2021184754A1 (zh) | 视频对比方法、装置、计算机设备和存储介质 | |
CN113642639B (zh) | 活体检测方法、装置、设备和存储介质 | |
US20230036338A1 (en) | Method and apparatus for generating image restoration model, medium and program product | |
CN112052832A (zh) | 人脸检测的方法、装置和计算机存储介质 | |
CN107977636B (zh) | 人脸检测方法及装置、终端、存储介质 | |
WO2023279799A1 (zh) | 对象识别方法、装置和电子系统 | |
CN111861956A (zh) | 图片处理方法、装置、电子设备以及介质 | |
CN111382654B (zh) | 图像处理方法和装置以及存储介质 | |
CN110619602B (zh) | 一种图像生成方法、装置、电子设备及存储介质 | |
CN117274383A (zh) | 视点预测方法及装置、电子设备和存储介质 | |
KR20190049169A (ko) | 이미지 분류장치 및 방법 | |
EP4246459A1 (en) | Generating training and/or testing data of a face recognition system for improved reliability |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200929 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7096355 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |