JP2022521038A - 顔認識方法、ニューラルネットワークのトレーニング方法、装置及び電子機器 - Google Patents
顔認識方法、ニューラルネットワークのトレーニング方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP2022521038A JP2022521038A JP2021540572A JP2021540572A JP2022521038A JP 2022521038 A JP2022521038 A JP 2022521038A JP 2021540572 A JP2021540572 A JP 2021540572A JP 2021540572 A JP2021540572 A JP 2021540572A JP 2022521038 A JP2022521038 A JP 2022521038A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image sample
- type image
- camera
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 181
- 238000000034 method Methods 0.000 title claims abstract description 141
- 238000012549 training Methods 0.000 title claims abstract description 101
- 230000001815 facial effect Effects 0.000 claims abstract description 232
- 238000000605 extraction Methods 0.000 claims description 36
- 238000002372 labelling Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 11
- 230000008439 repair process Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 description 27
- 238000007726 management method Methods 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Abstract
Description
第1のカメラにより第1の顔画像を取得するステップと、
前記第1の顔画像の第1の顔特徴を抽出するステップと、
前記第1の顔特徴を、前記第1のカメラと異なるタイプのカメラである第2のカメラが取得した第2の顔画像の特徴から抽出された予め記憶された第2の顔特徴と対比し、参照類似度を取得するステップと、
前記参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定するステップと、を含む。
異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルを取得するステップと、
前記第1のタイプの画像サンプル及び前記第2のタイプの画像サンプルに基づいてニューラルネットワークをトレーニングするステップと、を含む。
第1のカメラにより第1の顔画像を取得する第1の取得ユニットと、
前記第1の顔画像の第1の顔特徴を抽出する第1の抽出ユニットと、
前記第1の顔特徴を、前記第1のカメラと異なるタイプのカメラである第2のカメラが取得した第2の顔画像の特徴から抽出された予め記憶された第2の顔特徴と対比し、参照類似度を取得する対比ユニットと、
前記参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定する決定ユニットと、を含む。
異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルを取得する取得ユニットと、
前記第1のタイプの画像サンプル及び前記第2のタイプの画像サンプルに基づいてニューラルネットワークをトレーニングするトレーニングユニットと、を含む。
プロセッサ及びメモリを含み、前記メモリは、前記プロセッサに結合され、さらにプログラム命令を記憶し、前記プロセッサは、前記電子機器が上記第1の態様の方法における対応する機能を実行することをサポートするように構成される。
前記ニューラルネットワークのトレーニング装置は、ニューラルネットワークをトレーニングし、
前記顔認識装置は、前記ニューラルネットワークのトレーニング装置によってトレーニングされたニューラルネットワークを適用する。
車載カメラにより第1の顔画像を取得するステップを含み、第1の顔画像は、車両の車両使用者の顔画像を含む。
トリガ命令を受信した場合、車載カメラにより第1の顔画像を取得するステップ、
或いは、車両の走行中に、車載カメラにより第1の顔画像を取得するステップ、
或いは、車両の走行速度が参照速度に達した場合、車載カメラにより第1の顔画像を取得するステップを含む。
第2のカメラにより第2の顔画像を取得するステップと、
第2の顔画像の第2の顔特徴を抽出するステップと、
第2の顔画像の第2の顔特徴を保存するステップと、をさらに含む。
参照類似度、参照誤報率及び類似度閾値に基づいて第1の顔特徴と第2の顔特徴とが同じ人に対応するか否かを決定するステップを含み、異なる誤報率は、異なる類似度閾値に対応する。
参照類似度及び閾値情報に基づいて、正規化された参照類似度を決定するステップと、
正規化された参照類似度に基づいて第1の顔特徴と第2の顔特徴とが同じ人に対応するか否かを決定するステップと、を含む。
参照誤報率に基づいて類似度閾値を決定し、そして少なくとも2つの参照類似度から第1の顔特徴との類似度が最も高い第2の顔特徴を決定するステップと、
類似度が最も高い第2の顔特徴と第1の顔特徴との参照類似度が類似度閾値よりも大きい場合、類似度が最も高い第2の顔特徴と第1の顔特徴とが同じ人に対応すると決定するステップとを含む。
第1のタイプの画像サンプルと第2のタイプの画像サンプルとをペアリングして第1のタイプの画像サンプルと第2のタイプの画像サンプルの混合タイプの画像サンプルを取得するステップと、
第1のタイプの画像サンプル、第2のタイプの画像サンプル及び混合タイプの画像サンプルに基づいてニューラルネットワークをトレーニングするステップと、を含む。
ニューラルネットワークにより第1のタイプの画像サンプルの顔予測結果、第2のタイプの画像サンプルの顔予測結果及び混合タイプの画像サンプルの顔予測結果を取得するステップと、
第1のタイプの画像サンプルの顔予測結果と顔ラベリング結果との差異、第2のタイプの画像サンプルの顔予測結果と顔ラベリング結果との差異及び混合タイプの画像サンプルの顔予測結果と顔ラベリング結果との差異に基づいてニューラルネットワークをトレーニングするステップと、を含む。
第1のタイプの画像サンプルの特徴を第1の分類器に入力して、第1のタイプの画像サンプルの顔予測結果を取得するステップと、
第2のタイプの画像サンプルを第2の分類器に入力して、第2のタイプの画像サンプルの顔予測結果を取得するステップと、
混合タイプの画像サンプルの特徴を混合分類器に入力して、混合タイプの画像サンプルの顔予測結果を取得するステップと、を含む。
トレーニングされた上記ニューラルネットワーク中から第1の分類器、第2の分類器及び混合分類器を除去して、顔認識を行うためのニューラルネットワークを取得するステップをさらに含む。
異なるカメラにより取得された第1のタイプの画像及び第2のタイプの画像を取得するステップと、
第1のタイプの画像及び第2のタイプの画像に基づいて、それぞれ2つの画像を含み、かつその2つの画像における顔が同じ人に対応するポジティブサンプルペアと、それぞれ2つの画像を含み、かつその2つの画像における顔が異なる人に対応するネガティブサンプルペアとを取得するステップと、
トレーニングされたニューラルネットワークを介してそれぞれポジティブサンプルペアの類似度及びネガティブサンプルペアの類似度を決定するステップと、
ポジティブサンプルペアの類似度、ネガティブサンプルペアの類似度及び予め設定された異なる誤報率に基づいて、第1の閾値及び第2の閾値を含む閾値情報を決定するステップと、をさらに含む。
第1のタイプの画像をペアリングして第1のタイプの画像のポジティブサンプルペアを取得するステップと、
第2のタイプの画像をペアリングして第2のタイプの画像のポジティブサンプルペアを取得するステップと、
第1のタイプの画像と第2のタイプの画像とをペアリングして混合画像のポジティブサンプルペアを取得するステップと、を含む。
第1のカメラにより第1の顔画像を取得する第1の取得ユニット401と、
第1の顔画像の第1の顔特徴を抽出する第1の抽出ユニット402と、
第1の顔特徴を、第1のカメラと異なるタイプのカメラである第2のカメラが取得した第2の顔画像の特徴から抽出された第2の顔特徴と対比し、参照類似度を取得する対比ユニット403と、
参照類似度に基づいて第1の顔特徴と第2の顔特徴とが同じ人に対応するか否かを決定する決定ユニット404と、を含む。
或いは第1の取得ユニット401は、具体的には、車両の走行中に、車載カメラにより第1の顔画像を取得し、
或いは第1の取得ユニット401は、具体的には、車両の走行速度が参照速度に達した場合、車載カメラにより第1の顔画像を取得する。
第2のカメラにより第2の顔画像を取得する第2の取得ユニット405と、
第2の顔画像の第2の顔特徴を抽出する第2の抽出ユニット406と、
第2の顔画像の第2の顔特徴を保存する保存ユニット407と、をさらに含む。
異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルを取得する取得ユニット601と、
第1のタイプの画像サンプル及び第2のタイプの画像サンプルに基づいてニューラルネットワークをトレーニングするトレーニングユニット602と、を含む。
第1のタイプの画像サンプルと第2のタイプの画像サンプルとをペアリングして第1のタイプの画像サンプルと第2のタイプの画像サンプルの混合タイプの画像サンプルを取得するペアリングサブユニット6021と、
第1のタイプの画像サンプル、第2のタイプの画像サンプル及び混合タイプの画像サンプルに基づいてニューラルネットワークをトレーニングするトレーニングサブユニット6022と、を含む。
トレーニングされたニューラルネットワーク中から第1の分類器、第2の分類器及び混合分類器を除去して、顔認識を行うためのニューラルネットワークを取得するニューラルネットワーク適用ユニットをさらに含む。
Claims (32)
- 第1のカメラにより第1の顔画像を取得するステップと、
前記第1の顔画像の第1の顔特徴を抽出するステップと、
前記第1の顔特徴を、前記第1のカメラと異なるタイプのカメラである第2のカメラが取得した第2の顔画像の特徴から抽出された予め記憶された第2の顔特徴と対比し、参照類似度を取得するステップと、
前記参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定するステップと、を含む、ことを特徴とする顔認識方法。 - 前記第1のカメラはサーモカメラであり、前記第2のカメラは可視光カメラであり、
或いは、前記第1のカメラは可視光カメラであり、前記第2のカメラはサーモカメラである、ことを特徴とする請求項1に記載の方法。 - 前記参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定する前記ステップは、
前記参照類似度、参照誤報率及び類似度閾値に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定するステップを含み、異なる誤報率は異なる類似度閾値に対応する、ことを特徴とする請求項1又は2に記載の方法。 - 前記参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定する前記ステップは、
前記参照類似度及び閾値情報に基づいて、正規化された参照類似度を決定するステップと、
前記正規化された参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定するステップと、を含む、ことを特徴とする請求項1又は2に記載の方法。 - 前記第1の顔画像の第1の顔特徴を抽出する前記ステップとは、
前記第1の顔画像を予めトレーニングされたニューラルネットワークに入力し、前記ニューラルネットワークにより前記第1の顔画像の第1の顔特徴を出力するステップを含み、前記ニューラルネットワークは、異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルに基づいてトレーニングすることにより取得される、ことを特徴とする請求項1~4のいずれか1項に記載の方法。 - 前記ニューラルネットワークは、前記第1のタイプの画像サンプル、前記第2のタイプの画像サンプル及び混合タイプの画像サンプルに基づいてトレーニングされ、前記混合タイプの画像サンプルは、前記第1のタイプの画像サンプルと前記第2のタイプの画像サンプルとをペアリングすることにより取得されるものである、ことを特徴とする請求項5に記載の方法。
- 前記第1のカメラは車載カメラを含み、第1のカメラにより第1の顔画像を取得する前記ステップは、
前記車載カメラにより前記第1の顔画像を取得するステップを含み、前記第1の顔画像は、車両の車両使用者の顔画像を含む、ことを特徴とする請求項1~6のいずれか1項に記載の方法。 - 前記車両使用者は、前記車両を運転する人、前記車両に乗る人、前記車両を修理する人、前記車両に給油する人及び前記車両を制御する人のうちの1人以上を含む、ことを特徴とする請求項7に記載の方法。
- 前記車両使用者は、前記車両を運転する人を含み、前記車載カメラにより前記第1の顔画像を取得する前記ステップは、
トリガ命令を受信した場合、前記車載カメラにより前記第1の顔画像を取得するステップ、
或いは、前記車両の走行中に、前記車載カメラにより前記第1の顔画像を取得するステップ、
或いは、前記車両の走行速度が参照速度に達した場合、前記車載カメラにより前記第1の顔画像を取得するステップを含む、ことを特徴とする請求項7に記載の方法。 - 前記第2の顔画像は、前記車両使用者が顔登録を行うための画像であり、前記第1の顔特徴を予め記憶された第2の顔特徴と対比する前記ステップの前に、前記方法は、
前記第2のカメラにより前記第2の顔画像を取得するステップと、
前記第2の顔画像の第2の顔特徴を抽出するステップと、
前記第2の顔画像の第2の顔特徴を保存するステップと、をさらに含む、ことを特徴とする請求項7~9のいずれか1項に記載の方法。 - 異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルを取得するステップと、
前記第1のタイプの画像サンプル及び前記第2のタイプの画像サンプルに基づいてニューラルネットワークをトレーニングするステップと、を含む、ことを特徴とするニューラルネットワークのトレーニング方法。 - 前記第1のタイプの画像サンプル及び前記第2のタイプの画像サンプルに基づいてニューラルネットワークをトレーニングする前記ステップは、
前記第1のタイプの画像サンプルと前記第2のタイプの画像サンプルとをペアリングして、前記第1のタイプの画像サンプルと前記第2のタイプの画像サンプルの混合タイプの画像サンプルを取得するステップと、
前記第1のタイプの画像サンプル、前記第2のタイプの画像サンプル及び前記混合タイプの画像サンプルに基づいて前記ニューラルネットワークをトレーニングするステップと、を含む、ことを特徴とする請求項11に記載の方法。 - 前記第1のタイプの画像サンプル、前記第2のタイプの画像サンプル及び前記混合タイプの画像サンプルに基づいて前記ニューラルネットワークをトレーニングする前記ステップは、
前記ニューラルネットワークにより前記第1のタイプの画像サンプルの顔予測結果、前記第2のタイプの画像サンプルの顔予測結果及び前記混合タイプの画像サンプルの顔予測結果を取得するステップと、
前記第1のタイプの画像サンプルの顔予測結果と顔ラベリング結果との差異、前記第2のタイプの画像サンプルの顔予測結果と顔ラベリング結果との差異及び前記混合タイプの画像サンプルの顔予測結果と顔ラベリング結果との差異に基づいて前記ニューラルネットワークをトレーニングするステップと、を含む、ことを特徴とする請求項12に記載の方法。 - 前記ニューラルネットワークには第1の分類器、第2の分類器及び混合分類器が含まれ、前記ニューラルネットワークにより前記第1のタイプの画像サンプルの顔予測結果、前記第2のタイプの画像サンプルの顔予測結果及び前記混合タイプの画像サンプルの顔予測結果を取得する前記ステップは、
前記第1のタイプの画像サンプルの顔特徴を前記第1の分類器に入力して前記第1のタイプの画像サンプルの顔予測結果を取得するステップと、
前記第2のタイプの画像サンプルの顔特徴を前記第2の分類器に入力して前記第2のタイプの画像サンプルの顔予測結果を取得するステップと、
前記混合タイプの画像サンプルの顔特徴を前記混合分類器に入力して前記混合タイプの画像サンプルの顔予測結果を取得するステップと、を含む、ことを特徴とする請求項13に記載の方法。 - トレーニングされた前記ニューラルネットワーク中から前記第1の分類器、前記第2の分類器及び前記混合分類器を除去して、顔認識を行うためのニューラルネットワークを取得するステップをさらに含むことを特徴とする請求項14に記載の方法。
- 第1のカメラにより第1の顔画像を取得する第1の取得ユニットと、
前記第1の顔画像の第1の顔特徴を抽出する第1の抽出ユニットと、
前記第1の顔特徴を、前記第1のカメラと異なるタイプのカメラである第2のカメラが取得した第2の顔画像の特徴から抽出された予め記憶された第2の顔特徴と対比し、参照類似度を取得する対比ユニットと、
前記参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定する決定ユニットと、を含む、ことを特徴とする顔認識装置。 - 前記第1のカメラはサーモカメラであり、前記第2のカメラは可視光カメラであり、
或いは、前記第1のカメラは可視光カメラであり、前記第2のカメラはサーモカメラである、ことを特徴とする請求項16に記載の装置。 - 前記決定ユニットは、具体的には前記参照類似度、参照誤報率及び類似度閾値に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定し、異なる誤報率は、異なる類似度閾値に対応する、ことを特徴とする請求項16又は17に記載の装置。
- 前記決定ユニットは、具体的には、前記参照類似度及び閾値情報に基づいて、正規化された参照類似度を決定し、そして前記正規化された参照類似度に基づいて前記第1の顔特徴と前記第2の顔特徴とが同じ人に対応するか否かを決定する、ことを特徴とする請求項16又は17に記載の装置。
- 前記第1の抽出ユニットは、具体的には、第1の顔画像を予めトレーニングされたニューラルネットワークに入力し、前記ニューラルネットワークにより前記第1の顔画像の第1の顔特徴を出力し、前記ニューラルネットワークは、異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルに基づいてトレーニングすることにより取得される、ことを特徴とする請求項16~19のいずれか1項に記載の装置。
- 前記ニューラルネットワークは、前記第1のタイプの画像サンプル、前記第2のタイプの画像サンプル及び混合タイプの画像サンプルに基づいてトレーニングされ、前記混合タイプの画像サンプルは、前記第1のタイプの画像サンプルと前記第2のタイプの画像サンプルとをペアリングすることにより取得されるものである、ことを特徴とする請求項20に記載の装置。
- 前記第1のカメラは車載カメラを含み、
前記第1の取得ユニットは、具体的には、前記車載カメラにより、前記第1の顔画像を取得し、前記第1の顔画像は、車両の車両使用者の顔画像を含む、ことを特徴とする請求項16~21のいずれか1項に記載の装置。 - 前記車両使用者は、前記車両を運転する人、前記車両に乗る人、前記車両を修理する人、前記車両に給油する人及び前記車両を制御する人のうちの1人以上を含む、ことを特徴とする請求項22に記載の装置。
- 前記車両使用者は、前記車両を運転する人を含み、前記第1の取得ユニットは、具体的には、トリガ命令を受信した場合、前記車載カメラにより前記第1の顔画像を取得し、
或いは、前記第1の取得ユニットは、具体的には、前記車両の走行中に、前記車載カメラにより前記第1の顔画像を取得し、
或いは、前記第1の取得ユニットは、具体的には、前記車両の走行速度が参照速度に達した場合、前記車載カメラにより前記第1の顔画像を取得する、ことを特徴とする請求項22に記載の装置。 - 前記第2の顔画像は、前記車両使用者が顔登録を行うための画像であり、前記装置は、
前記第2のカメラにより前記第2の顔画像を取得する第2の取得ユニットと、
前記第2の顔画像の第2の顔特徴を抽出する第2の抽出ユニットと、
前記第2の顔画像の第2の顔特徴を保存する保存ユニットと、をさらに含む、ことを特徴とする請求項22~24のいずれか1項に記載の装置。 - 異なるタイプのカメラによって撮影され、かつ顔が含まれる第1のタイプの画像サンプル及び第2のタイプの画像サンプルを取得する取得ユニットと、
前記第1のタイプの画像サンプル及び前記第2のタイプの画像サンプルに基づいてニューラルネットワークをトレーニングするトレーニングユニットと、を含む、ことを特徴とするニューラルネットワークのトレーニング装置。 - 前記トレーニングユニットは、
前記第1のタイプの画像サンプルと前記第2のタイプの画像サンプルとをペアリングして、前記第1のタイプの画像サンプルと前記第2のタイプの画像サンプルの混合タイプの画像サンプルを取得するペアリングサブユニットと、
前記第1のタイプの画像サンプル、前記第2のタイプの画像サンプル及び前記混合タイプの画像サンプルに基づいて前記ニューラルネットワークをトレーニングするトレーニングサブユニットと、を含む、ことを特徴とする請求項26に記載の装置。 - 前記トレーニングサブユニットは、具体的には、前記ニューラルネットワークにより前記第1のタイプの画像サンプルの顔予測結果、前記第2のタイプの画像サンプルの顔予測結果及び前記混合タイプの画像サンプルの顔予測結果を取得し、そして前記第1のタイプの画像サンプルの顔予測結果と顔ラベリング結果との差異、前記第2のタイプの画像サンプルの顔予測結果と顔ラベリング結果との差異及び前記混合タイプの画像サンプルの顔予測結果と顔ラベリング結果との差異に基づいて前記ニューラルネットワークをトレーニングする、ことを特徴とする請求項27に記載の装置。
- 前記ニューラルネットワークには第1の分類器、第2の分類器及び混合分類器が含まれ、
前記トレーニングサブユニットは、具体的には、前記第1のタイプの画像サンプルの顔特徴を前記第1の分類器に入力して前記第1のタイプの画像サンプルの顔予測結果を取得し、前記第2のタイプの画像サンプルの顔特徴を前記第2の分類器に入力して前記第2のタイプの画像サンプルの顔予測結果を取得し、そして前記混合タイプの画像サンプルの顔特徴を前記混合分類器に入力して前記混合タイプの画像サンプルの顔予測結果を取得する、ことを特徴とする請求項28に記載の装置。 - トレーニングされた前記ニューラルネットワーク中から前記第1の分類器、前記第2の分類器及び前記混合分類器を除去して、顔認識を行うためのニューラルネットワークを取得するニューラルネットワーク適用ユニットをさらに含む、ことを特徴とする請求項29に記載の装置。
- プロセッサ及びメモリを含み、前記プロセッサは前記メモリに結合され、前記メモリは、前記プロセッサによって実行されると、前記プロセッサに請求項1~10のいずれか1項に記載の方法を実行させ、及び/又は前記プロセッサに請求項11~15のいずれか1項に記載の方法を実行させるプログラム命令を記憶する、ことを特徴とする電子機器。
- プロセッサによって実行されると、前記プロセッサに請求項1~10のいずれか1項に記載の方法を実行させ、及び/又は前記プロセッサに請求項11~15のいずれか1項に記載の方法を実行させるプログラム命令を含むコンピュータプログラムが記憶されている、ことを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910145024.9 | 2019-02-26 | ||
CN201910145024.9A CN109886222B (zh) | 2019-02-26 | 2019-02-26 | 人脸识别方法、神经网络训练方法、装置及电子设备 |
PCT/CN2019/114674 WO2020173117A1 (zh) | 2019-02-26 | 2019-10-31 | 人脸识别方法、神经网络训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022521038A true JP2022521038A (ja) | 2022-04-05 |
JP7402239B2 JP7402239B2 (ja) | 2023-12-20 |
Family
ID=66929610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540572A Active JP7402239B2 (ja) | 2019-02-26 | 2019-10-31 | 顔認識方法、ニューラルネットワークのトレーニング方法、顔認識装置、電子機器及びコンピュータ可読記憶媒体 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7402239B2 (ja) |
KR (1) | KR20210101313A (ja) |
CN (1) | CN109886222B (ja) |
WO (1) | WO2020173117A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886222B (zh) * | 2019-02-26 | 2022-03-15 | 北京市商汤科技开发有限公司 | 人脸识别方法、神经网络训练方法、装置及电子设备 |
CN110244728A (zh) * | 2019-06-17 | 2019-09-17 | 北京三快在线科技有限公司 | 确定无人驾驶控制策略的方法、装置、设备及存储介质 |
CN110263744B (zh) * | 2019-06-26 | 2021-05-11 | 苏州万店掌网络科技有限公司 | 提高无感人脸识别率的方法 |
CN111160149B (zh) * | 2019-12-16 | 2023-05-23 | 山东大学 | 基于运动场景及深度学习的车载人脸识别系统及方法 |
CN110874588B (zh) * | 2020-01-17 | 2020-04-14 | 南京甄视智能科技有限公司 | 动态优化人脸识别中光线影响的方法与装置 |
CN112199998B (zh) * | 2020-09-09 | 2023-06-20 | 浙江大华技术股份有限公司 | 一种人脸识别方法、装置、设备及介质 |
CN112241698A (zh) * | 2020-10-12 | 2021-01-19 | 安徽富煌科技股份有限公司 | 一种基于人脸识别的公交车载机 |
CN112809697B (zh) * | 2021-01-11 | 2022-05-13 | 福建思特电子有限公司 | 一种5g智能门卫机器人 |
US20220343690A1 (en) * | 2021-04-21 | 2022-10-27 | Tascent, Inc. | Thermal based presentation attack detection for biometric systems |
CN116311477B (zh) * | 2023-05-15 | 2023-08-01 | 华中科技大学 | 一种面向跨身份一致性的面部运动单元检测模型构建方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491805A (zh) * | 2018-03-27 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 身份认证方法和装置 |
CN109241888A (zh) * | 2018-08-24 | 2019-01-18 | 北京旷视科技有限公司 | 神经网络训练与对象识别方法、装置和系统及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7406184B2 (en) * | 2002-07-03 | 2008-07-29 | Equinox Corporation | Method and apparatus for using thermal infrared for face recognition |
CN102622579B (zh) * | 2012-02-20 | 2014-03-19 | 华焦宝 | 人脸预警方法及系统 |
CN105608450B (zh) * | 2016-03-01 | 2018-11-27 | 天津中科智能识别产业技术研究院有限公司 | 基于深度卷积神经网络的异质人脸识别方法 |
CN108108711B (zh) * | 2017-12-29 | 2019-12-17 | 深圳云天励飞技术有限公司 | 人脸布控方法、电子设备及存储介质 |
CN108765407A (zh) * | 2018-05-31 | 2018-11-06 | 上海依图网络科技有限公司 | 一种人像图片质量判定方法及装置 |
CN109147940B (zh) * | 2018-07-05 | 2021-05-25 | 科亚医疗科技股份有限公司 | 从患者的医学图像自动预测生理状况的装置和系统 |
CN109886222B (zh) * | 2019-02-26 | 2022-03-15 | 北京市商汤科技开发有限公司 | 人脸识别方法、神经网络训练方法、装置及电子设备 |
-
2019
- 2019-02-26 CN CN201910145024.9A patent/CN109886222B/zh active Active
- 2019-10-31 WO PCT/CN2019/114674 patent/WO2020173117A1/zh active Application Filing
- 2019-10-31 KR KR1020217022399A patent/KR20210101313A/ko active Search and Examination
- 2019-10-31 JP JP2021540572A patent/JP7402239B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108491805A (zh) * | 2018-03-27 | 2018-09-04 | 百度在线网络技术(北京)有限公司 | 身份认证方法和装置 |
CN109241888A (zh) * | 2018-08-24 | 2019-01-18 | 北京旷视科技有限公司 | 神经网络训练与对象识别方法、装置和系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020173117A1 (zh) | 2020-09-03 |
CN109886222A (zh) | 2019-06-14 |
KR20210101313A (ko) | 2021-08-18 |
JP7402239B2 (ja) | 2023-12-20 |
CN109886222B (zh) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022521038A (ja) | 顔認識方法、ニューラルネットワークのトレーニング方法、装置及び電子機器 | |
Hoang Ngan Le et al. | Robust hand detection and classification in vehicles and in the wild | |
CN106599772B (zh) | 活体验证方法和装置及身份认证方法和装置 | |
CN110909651B (zh) | 视频主体人物的识别方法、装置、设备及可读存储介质 | |
Singh et al. | Image classification: a survey | |
US20170262472A1 (en) | Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces | |
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
US20180218256A1 (en) | Deep convolution neural network behavior generator | |
CN106415594A (zh) | 用于面部验证的方法和系统 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
CN108197326A (zh) | 一种车辆检索方法及装置、电子设备、存储介质 | |
CN112733802B (zh) | 图像的遮挡检测方法、装置、电子设备及存储介质 | |
CN112364803B (zh) | 活体识别辅助网络的训练方法、终端、设备及存储介质 | |
CN113205002B (zh) | 非受限视频监控的低清人脸识别方法、装置、设备及介质 | |
CN114495010A (zh) | 一种基于多特征学习的跨模态行人重识别方法及系统 | |
CN111241873A (zh) | 图像翻拍检测方法及其模型的训练方法、支付方法及装置 | |
CN111738199A (zh) | 图像信息验证方法、装置、计算装置和介质 | |
US10755074B2 (en) | Latent fingerprint pattern estimation | |
CN110619280A (zh) | 一种基于深度联合判别学习的车辆重识别方法及装置 | |
TWI325568B (en) | A method for face varification | |
CN115713669B (zh) | 一种基于类间关系的图像分类方法、装置、存储介质及终端 | |
CN113705643A (zh) | 一种目标物检测方法、装置以及电子设备 | |
CN116152870A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN114038045A (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 | |
CN113591603A (zh) | 证件的验证方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221003 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7402239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |