JP2022535639A - 性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品 - Google Patents

性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品 Download PDF

Info

Publication number
JP2022535639A
JP2022535639A JP2021550069A JP2021550069A JP2022535639A JP 2022535639 A JP2022535639 A JP 2022535639A JP 2021550069 A JP2021550069 A JP 2021550069A JP 2021550069 A JP2021550069 A JP 2021550069A JP 2022535639 A JP2022535639 A JP 2022535639A
Authority
JP
Japan
Prior art keywords
face image
performance parameter
neural network
face
parameter determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2021550069A
Other languages
English (en)
Inventor
元瀚 ▲張▼
榛菲 尹
国君 殷
▲チン▼ 邵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2022535639A publication Critical patent/JP2022535639A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Abstract

本発明は、性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品に関する。前記方法は、複数の顔画像が含まれた第1データセットを取得すること、前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得すること、複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定すること、を含む。【選択図】図1

Description

<関連出願の相互参照>
本出願は、2020年5月9日に提出された、出願番号が「202010388252.1」、発明の名称が「性能パラメータ決定方法および装置、電子機器、並びに記憶媒体」である中国特許出願の優先権を主張し、その全文を援用により本明細書に組み込むものとする。
本発明は、コンピュータビジョン技術分野に関し、特に性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品に関する。
コンピュータビジョン技術の発展に伴い、電子機器で完成できる作業が益々多くなってきて、人々に便利な条件が提供されている。例えば、電子機器により顔を自動的に認識し、顔認識結果に基づいてユーザの身元を認証することができる。然し、顔認識技術の普及に伴い、顔認識技術に対する攻撃手段もすぐ生じることとなり、例えば、写真や仮面などをユーザの顔として使用することで、ユーザ身元の認証に合格する場合がある。
様々な攻撃手段に抵抗するために、生体検出は顔認識技術の重要な部分になっている。生体検出は、一部の身分認証シーンにおいて被検出対象が実在的であるか否かを判定するための技術であり、例えば、まばたき、口開け、頭振り、うなずきなどの動作の組み合わせにより、被検出対象が実在の生体であるか否かを認証することができ、それによって詐欺行為を見分け、顔認識の安全性を向上させることとなる。このため、様々な生体検出方法が存在し、例えば、様々な生体検出用のネットワークモデルが存在する。各生体検出用のネットワークモデルの性能はそれぞれ異なる。
本発明は、性能パラメータ決定に係る技術案を提案している。
本発明の第1態様により、複数の顔画像が含まれた第1データセットを取得することと、前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得することと、複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定することと、を含む性能パラメータ決定方法を提案する。
本発明の第2態様により、複数の顔画像が含まれた第1データセットを取得する第1取得モジュールと、前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得する検出モジュールと、複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定する決定モジュールと、を備える、性能パラメータ決定装置を提案する。
本発明の第3態様により、プロセッサと、前記プロセッサにより実行可能な命令を格納するためのメモリと、を備え、前記プロセッサは、前記命令を呼び出して上記の第1態様に記載の性能パラメータ決定方法を実行するように構成されている、電子機器を提案する。
本発明の第4態様により、コンピュータ・プログラム命令が格納されたコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ・プログラム命令がプロセッサにより実行された場合、前記プロセッサが上記の第1態様に記載の性能パラメータ決定方法を実施するように促される、コンピュータ読み取り可能な記憶媒体を提案する。
本発明の第5態様により、コンピュータ読み取り可能なコードを含むコンピュータ・プログラム製品であって、前記コンピュータ読み取り可能なコードがデバイス上に実行された場合、前記デバイス中のプロセッサは、上記の第1態様に記載の性能パラメータ決定方法を実施するための命令を実行するコンピュータ・プログラム製品を提案する。
本発明の実施例では、複数の顔画像が含まれた第1データセットを取得することができる。その次に、複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得し、さらに複数の検出結果に基づいてニューラルネットワークの性能パラメータを決定することができる。中でも、性能パラメータは通常、ニューラルネットワークの性能を反映でき、すなわち、本発明で提案する実施形態によれば、取得された性能パラメータを利用してニューラルネットワークの性能を評価することができる。ニューラルネットワークにより顔画像に対応する生体分類結果および生体検出結果を取得することができるため、複数の次元のデータを併せて性能パラメータを取得することができ、性能パラメータにニューラルネットワークの実際の性能を効果的に反映させることができる。実際に応用する場合に、性能パラメータによりニューラルネットワークの重みパラメータを調整することもでき、それによって生体検出の正確度を向上させ、ニューラルネットワークがより複雑な応用シーンに適用させる。
以上の概略的な説明及び以下の詳細な説明は、単に例示及び説明ためのものに過ぎず、本発明を限定するものでないことが、理解されるべきであろう。
ここでの図面は明細書に合併されて本明細書の一部を構成し、これらの図面は本発明に対応する実施例を示し、明細書とともに本発明の技術案を説明するためのものである。
本発明の実施例による性能パラメータ決定方法を示すフローチャートである。 本発明の実施例による性能パラメータ決定プロセスを示す例示的な概略図である。 本発明の他の実施例による性能パラメータ決定プロセスを示す例示的な概略図である。 本発明の実施例による性能パラメータ決定装置を示すブロック図である。 本発明の実施例による性能パラメータ決定装置の例示を示すブロック図である。 本発明の実施例による電子機器の例示を示すブロック図である。
以下では、本発明の様々な例示的な実施例、特徴、及び態様について、図面を参照しながら詳しく説明する。図面中の同じ記号は、機能が同じまたは類似する構成要素を示す。図面では実施例の様々な態様が示されているが、特に説明がない限り、割合に従って図面を描くことは不要である。
ここでは、「例示的な」という専門用語は、「例示、実施例、または説明ためのものとして用いられる」ことを意味している。ここでの「例示的な」ものとして説明されるいかなる実施例を、他の実施例よりも優れるものか、または良好なものであると解釈する必要はない。
「および/または」という本明細書中の専門用語は、相関対象の相関関係を説明するためのものに過ぎず、3つの関係が存在し得ることを意味しており、例えば、Aおよび/またはBは、Aが単独で存在する場合と、AとBが同時に存在する場合と、Bが単独で存在する場合と、の3つの場合を意味し得る。さらに、「少なくとも1種」という本明細書中の専門用語は、複数からのいずれか1種または複数からの少なくとも2種の任意の組みあわせを意味しており、例えば、A、B、Cの少なくとも1種を含むことは、A、B、Cからなるセットのうちのいずれか1つまたは複数の構成要素を含むことを意味し得る。
また、本発明をよりよく説明するために、以下の発明を実施するための形態にて、具体的な詳細記載を多く与える。若干の具体的な詳細記載がないとしても、本発明の実施も可能であることは、当業界の技術者が理解すべきであろう。幾つかの実施例では、本発明の趣旨を突出させるために、当業界の技術者が周知する方法、手段、素子、回路について詳しく説明しないものとする。
本発明の実施例で提案する性能パラメータ決定に係る技術案によれば、複数の顔画像が含まれた第1データセットを取得し、その次に複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得し、さらに検出結果に基づいて当該ニューラルネットワークの性能パラメータを決定することができる。 これにより、決定された性能パラメータを利用してニューラルネットワークの性能を評価して、ニューラルネットワークの選択または改善のための参照を提供することができる。
一つの例示では、生体検出を行う場合、ニューラルネットワークにより、顔画像の生体分類結果を取得しただけであり、当該生体分類結果の正確度を判断しにくく、例えば、悪意攻撃された場合の当該分類結果の正確度を判断しにくく、当該ニューラルネットワークの正確度を判定できないため、顔認識の安全性を確保することができない。本発明の実施例で提案する性能パラメータ決定に係る技術案によれば、生体分類結果および検出結果を得ることができ、検出結果に基づいてニューラルネットワークの性能パラメータを決定することができ、性能パラメータをニューラルネットワーク性能評価のため有効的な参照として使用することができる。したがって、決定された性能パラメータによりニューラルネットワークの重みパラメータを調整してニューラルネットワークの正確度を向上させ、ニューラルネットワークによって取得された生体分類結果をより正確にすることができる。当該ニューラルネットワークは、畳み込みニューラルネットワークであってもよいし、その他のタイプのニューラルネットワークであってもよいが、本発明ではこれに限定されない。
本発明の実施例で提案する技術案は、顔認識、顔ロック解除、顔支払い、セキュリティなどの適用シーンの拡張に適用可能であるが、本発明の実施例ではこれに限定されない。例えば、顔ロック解除に使用されるニューラルネットワークの性能を評価して顔ロック解除の正確度を向上させることができる。
図1は、本発明の実施例による性能パラメータ決定方法を示すフローチャートである。当該性能パラメータ決定方法は、端末機器、サーバ、またはその他のタイプの電子機器で実行でき、中でも、端末機器は、ユーザ機器(User Equipment、UE)、モバイル機器、ユーザ端末、ターミナル、セルラーフォン、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant、PDA)、手持ち機器、計算機器、車載機器、ウェアラブル機器などであってもよい。幾つかの実施可能な形態では、当該性能パラメータ決定方法は、プロセッサによりメモリに格納されているコンピュータ読み取り可能な命令を呼び出すという方式で実現されてもよい。以下では、実行主体が電子機器であることを例にとって、本発明の実施例による性能パラメータ決定方法について説明する。
ステップS11にて、複数の顔画像が含まれた第1データセットを取得する。
本発明の実施例では、第1データセットは、予め構築されたデータセットであってもよく、第1データセットには複数の顔画像が含まれ得る。顔画像は、シーンにおける顔の画像収集によって取得されたものか、またはその他の機器やデータセットから取得された検出すべき対象である顔画像であり、例えば、撮影機器、監視機器、またはネットワークサーバーなどの機器から取得された顔画像であってもよい。複数の顔画像は実顔画像と非実顔画像とを含みうる。実顔画像は、実在の顔の画像収集によって得られた顔画像であってもよく、非実顔画像は、非実在の顔の画像収集によって得られた顔画像であってもよく、例えば、非実顔画像は、写真、ポスターなどの画像収集によって得られたものである。
ステップS12にて、前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得する。
本発明の実施例では、ニューラルネットワークに第1データセット中の複数の顔画像を順次入力し、ニューラルネットワークから出力された、顔画像毎に対応する生体分類結果及び検出結果を取得することができる。ニューラルネットワークのパラメータは、サンプルセットによりニューラルネットワークを訓練して得られたものであり得る。ニューラルネットワークは複数の出力ブランチを含んでもよく、1つの出力ブランチが顔画像に対応する生体分類結果を出力でき、その他の出力ブランチが顔画像に対応する検出結果を出力できる。本明細書では、生体分類結果は、顔画像内の顔が生体に属するか否かを判断した判断結果、例えば、顔画像内の顔が生体に属するか、または当該顔が生体に属さないかというような判断結果であってもよい。検出結果は、生体検出に関連する検出項目の検出結果、例えば、顔画像内の人物の性別、年齢などの属性の検出結果であってもよい。
ステップS13にて、複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定する。
本発明の実施例では、ニューラルネットワークから出力された複数の検出結果に基づいてニューラルネットワークの性能パラメータを決定することができる。性能パラメータが通常、ニューラルネットワークの性能を反映できるため、決定された性能パラメータを用いてニューラルネットワークの性能を評価することができ、例えば、検出結果に基づいて生体分類結果を検証してニューラルネットワークの正確度を評価することができる。例を挙げて説明すると、性能パラメータが正確率であることを例にとると、生体分類結果として、顔画像内の顔が生体に属する場合、検出結果として、非生体に対応する検出項目が検出されたと、生体分類結果があまり正確ではないと考えることができ、複数の顔画像のそれぞれに対応する生体分類結果の正確率を統計することで、ニューラルネットワークの性能評価を行うことができる。ここで、性能パラメータは、誤検出率、リコール率など、ニューラルネットワークの性能を評価できるパラメータであってもよいが、本発明では具体的な性能パラメータについて限定されない。
第1データセットに含まれた複数の顔画像をニューラルネットワークに入力することにより、顔画像毎に対応する生体分類結果及び検出結果を取得することができ、複数の検出結果に基づいてニューラルネットワークの性能パラメータを決定することができ、正確度さらに、決定された性能パラメータを利用してニューラルネットワークの性能評価を行い、生体検出の正確度を向上させることができる。
幾つかの実施可能な形態では、検出結果には顔画像内の顔が生体に属するか否かを判断するためのデータが含まれるため、検出結果に基づいて関連する生体分類結果を検証したり、生体分類結果の正確度を評価したりすることができ、あるいは、検出結果に基づいて生体検出に関するより多くの情報を取得して、ニューラルネットワークから出力された情報をより完璧にすることができる。
例示では、ニューラルネットワークによる生体検出項目をより完璧にするために、検出結果は、顔属性、攻撃方法、照明条件、画像化環境、深度情報、および反射情報のうちの少なくとも1種を含むものとする。
ここでは、顔属性は、顔画像中の人および/または顔が体現されている特徴を示すことができ、例えば、顔属性は、人の性別、髪色、顔の表情などの情報を含んでいてもよい。
攻撃方法は、顔画像の生成メディアを含んでいてもよく、例えば、攻撃方法は、写真、ポスター、プリンター用紙などからの画像を使用したことを含み、写真、ポスター、プリンター用紙などを撮影することによって得られた顔画像であることを示す。
照明条件は、顔画像を収集しているときの照明条件を含んでいてもよく、例えば、照明条件は、正常の光、強い光、逆光、暗い光などを含み、正常の光、強い光、逆光、暗い光などの照明条件下で撮影された顔画像であることを示す。ここでは、正常の光の照明強度は第1光強度と第2光強度との間にあり、第2光強度は第1光強度よりも大きく、強い光の照明強度は第2光強度以上であり、暗い光の照明強度は第1光強度以下であり、第1光強度、第2光強度は経験値に応じて設定でき、逆光撮影は光源に向いた撮影方式であるように構成してもよい。
画像化環境は、顔画像の撮影環境を含んでもよく、例えば、画像化環境は、室内環境、室外環境などを含んでもよく、室内環境または室外環境で撮影された顔画像であることを示す。
深度情報は、顔画像の深度図を含んでもよく、顔画像の画像深度を示すことができる。通常、実顔画像は複数の深度値を有し、複数の深度値間の差値が深度閾値よりも大きいことは、実顔画像内の顔が同一の表面に属していないことを示し、すなわち、実顔画像内の顔が立体的であると理解できる。そして、非実顔画像については、非実顔画像は1つの深度値のみを有するか、複数の近接な深度値を有する可能性があり、複数の深度値間の差値が深度閾値以下であることは、非実顔画像内の顔が同一の表面に属することを示す。このように、顔画像の深度情報は、生体検出に関連するデータとして用いられることができる。
反射情報は、顔画像の反射図を含んでもよく、顔画像の光反射状況を示すことができる。実在の顔の場合、光が乱反射され、実在の顔より取得した実顔画像の光反射が比較的少ない。非実顔画像の場合、写真を複製した顔画像などの非実顔画像が同一の表面に属する可能性があるため、非実顔画像の光反射が比較的多い。このように、顔画像の反射情報は、生体検出に関連するデータとして用いられることができる。
幾つかの実施可能な形態では、複数の顔画像はアノテーション情報を含んでもいい。検出結果に基づいてニューラルネットワークの性能評価を行う場合、顔画像のそれぞれについて、当該顔画像に対応する検出結果を当該顔画像に対応する顔画像のアノテーション情報と照合して、当該顔画像に対応する照合結果を取得し、その後に、複数の顔画像のうちの少なくとも一部に対応する照合結果に基づいてニューラルネットワークの性能パラメータを決定することとなる。
例えば、顔画像のそれぞれは、アノテーション情報を含んでもよい。アノテーション情報は、顔画像に対応する生体検出に関連する真実の情報であってもよく、顔属性、攻撃方法、照明条件、画像化環境のうちの1種または複数種を含んでいてもよい。顔画像のそれぞれの検出結果を当該顔画像のアノテーション情報と照合して照合結果を取得することができ、当該照合結果が顔画像の検出結果の正確度を示すことができる。さらに、複数の顔画像のうちの少なくとも一部に対応する照合結果に基づいて、ニューラルネットワークの性能パラメータを取得することができ、例えば、一部または全部の顔画像に対応する照合結果に基づいて、ニューラルネットワークによる検出結果に含まれた1つまたは複数の結果の正確率を決定することができる。
以下では、本発明の実施例で提案された性能パラメータ決定プロセスについて1つの例示により説明する。図2Aおよび図2Bは、本発明の実施例による性能パラメータ決定プロセスを示す概略図である。ここでは、第1顔画像201が非実顔画像で、第2顔画像202が実顔画像であると仮定してもいい。ニューラルネットワーク210は複数の情報を出力することができ、中でも、Sfは顔属性221、SSは攻撃方法222、Siは照明条件223、そしてCは生体分類結果224、Gdは深度情報225、またGrは反射情報226を示すことができる。
図2Aに示すように、第1顔画像201をニューラルネットワーク210に入力して、第1顔画像201の検出結果および生体分類結果を取得することができる。中でも、顔属性221に対応する検出値が何れも小さい(顔閾値より小さい)ため、明らかな顔属性が検出されなかったと理解することができ、第1顔画像201の顔属性が非実顔画像の顔属性に属することを表明する。攻撃方法222における第1顔画像201に対応する検出値が大きい(攻撃閾値より大きい)ため、写真による攻撃方法が検出されたと理解することができ、第1顔画像201の攻撃方法が非実顔画像の写真による攻撃方法に属することを表明する。照明条件223における暗い光に対応する検出値が大きい(照明閾値より大きい)ため、暗い光という照明条件が検出されたと理解することができ、第1顔画像201の照明条件が非実顔画像の暗い光という照明条件に属することを表明する。生体分類結果224は非生体が検出されたことを示し、第1顔画像201が非実顔画像に属することを表明する。深度情報225の深度図には1つの黒い深度値のみがあるため、第1顔画像201内の顔が1つの平面にあると理解することができ、第1顔画像201が非実顔画像に属することを表明する。反射情報226の反射図には比較的強い光反射があるため、第1顔画像201内の顔が1つの平面にあると理解することができ、第1顔画像201が非実顔画像に属することを表明する。第1顔画像201の検出結果に含まれた複数種の情報および第1顔画像201の生体分類結果を纏めると、例えば、第1顔画像201内の顔が生体に属するか否かを判断するための根拠として、第1顔画像201の検出結果および生体分類結果から1項または複数項の情報を選択することができ、あるいは、検出結果に含まれた複数項の情報および生体分類結果のうち、予め設定された数以上の情報は、第1顔画像が非実顔画像であることを表明する場合、第1顔画像内の顔が生体に属さないと判断することができ、ニューラルネットワーク210を利用して第1顔画像201に対する生体検出を実現する。
相応的には、図2Bに示すように、ニューラルネットワークによる第1顔画像201への生体検出プロセスと同様に、第2顔画像202を前記ニューラルネットワーク210に入力して、第2顔画像202の検出結果および生体分類結果を取得することができる。顔属性221は、大きな鼻と微笑という顔属性が検出された(検出値は顔閾値より大きい)ことを示したため、第2顔画像202の顔属性が実顔画像の顔属性に属することを表明する。攻撃方法222として、攻撃方法が検出されなかった(検出値は攻撃閾値より小さい)ため、第2顔画像202が実顔画像に属し、相応的な攻撃方法が存在しないことを表明する。照明条件223として、照明条件が検出されなかった(検出値は照明閾値より小さい)と示したため、第2顔画像202が実顔画像に属し、相応的な照明条件が存在しないことを表明する。生体分類結果224が生体であるため、第2顔画像202が実顔画像に属することを表明する。深度情報225の深度図には複数の深度値があるため、第2顔画像202が実顔画像に属することを表明する。反射情報226の反射図には光反射がないため、第2顔画像202が実顔画像に属することを表明する。第2顔画像202の検出結果に含まれた複数の情報および第2顔画像202の生体分類結果を纏めると、例えば、第2顔画像202内の顔が生体に属するか否かを判断するための根拠として、第2顔画像202の検出結果および生体分類結果から1項または複数項の情報を選択してもよく、あるいは、検出結果に含まれた複数の情報および生体分類結果のうち、予め設定された数以上の情報は、第2顔画像が実顔画像であることを表明した場合、第2顔画像202内の顔が生体であると判断することができ、ニューラルネットワーク210による第2顔画像202に対する生体検出を実現する。
さらに、第1顔画像の検出結果を第1顔画像のアノテーション情報と照合するとともに、第2顔画像の検出結果を第2顔画像のアノテーション情報と照合し、それらの照合結果に基づいてニューラルネットワークの性能パラメータを決定する。例えば、検出結果の各検出項目の正確率を決定し、決定された性能パラメータに基づいてニューラルネットワークの性能評価を行う。
本発明の実施例により決定できる性能パラメータを利用してニューラルネットワークの性能評価を行って、評価結果を取得し、評価結果に基づいてニューラルネットワークの性能をさらに向上させることができる。以下では、ニューラルネットワークの性能向上プロセスについて1つまたは複数の実施形態により説明する。
幾つかの実施可能な形態では、評価結果に基づいて、複数の訓練サンプルが含まれた第2データセットを取得することができ、前記訓練サンプルには顔画像が含まれている。その次に、複数の訓練サンプルをニューラルネットワークに入力して、訓練サンプル毎に対応する検出結果を取得し、さらに複数の訓練サンプルのうちの少なくとも一部に対応する検出結果と前記複数の訓練サンプルのうちの少なくとも一部に対応するアノテーション情報との差異度に応じて、前記ニューラルネットワークの重みパラメータを調整することができる。
本実施形態では、評価結果に基づいて、第2データセット中の当該評価結果に関連する複数の訓練サンプルを取得することができ、例えば、評価結果として、ニューラルネットワークによる1つまたは複数の検出結果(例えば、攻撃方法という検出結果)の正確率が低いことが表明された場合、第2データセット中の攻撃方法に関連する複数の訓練サンプルを取得することができ、それによって攻撃方法に対してニューラルネットワークを訓練し、ニューラルネットワークが攻撃方法という検出項目についての正確度を向上させる。第2データセットには大量の訓練サンプルが含まれ、各訓練サンプルが対応するアノテーション情報を有してもよく、アノテーション情報で訓練サンプル内の顔にアノテーションを付けることができ、アノテーション情報は、顔属性、攻撃方法、照明条件、および画像化環境のうちの少なくとも1種または複数種を含んでもいい。ニューラルネットワークを訓練する場合、ニューラルネットワークに複数の訓練サンプルを順次入力し、ニューラルネットワークにより出力された各訓練サンプルの検出結果を取得することができる。その次に、各訓練サンプルに対応する検出結果を同一の訓練サンプルのアノテーション情報と照合することで、各訓練サンプルの検出結果とアノテーション情報との差異度を決定することができ、例えば、訓練サンプルの各検出結果とアノテーション情報との差異度をそれぞれ決定した後、各検出結果とアノテーション情報との差異度を加算または加重計算することで、各訓練サンプルの検出結果とアノテーション情報との差異度を取得することができる。最急降下法(gradient descent)というアルゴリズムなどの最適化アルゴリズムによれば、ニューラルネットワークに複数の訓練サンプルに対応する検出結果とアノテーション情報との差異度をバッチ(batch)でバックプロパゲーション(backpropagation)することができ、ニューラルネットワークの重みパラメータを持続的に最適化調整して、ニューラルネットワークにより出力された検出結果をより正確にさせ、最終的には性能が向上されたニューラルネットワークを取得することができる。ここでは、クロスエントロピー損失関数、二元クロスエントロピー損失関数により訓練サンプルに対応する検出結果とアノテーション情報との差異度を決定することができる。
ここでのニューラルネットワークは、一般的な生体検出ニューラルネットワークであってもよく、新しく設計されたニューラルネットワークアーキテクチャに基づいて構築されたニューラルネットワークであってもいい。例を挙げて説明すると、ニューラルネットワークは、少なくとも1つの畳み込み層と、少なくとも1つのプーリング層と、少なくとも1つの全結合層などを含んでいてもよい。ニューラルネットワークに入力された訓練サンプルは、一致する画像サイズを有してもよく、例えば、画像サイズが224*224ピクセルの訓練サンプルをニューラルネットワークに入力する。訓練サンプルの画像サイズが一致しない場合、訓練サンプルを所定の画像サイズにカットしたものを、ニューラルネットワークに入力してもいい。
本実施形態による幾つかの例示では、第1データセットおよび第2データセットは何れも実顔画像と非実顔画像とを含む。中でも、実顔画像のアノテーション情報は、生体分類結果と顔属性とを含む。非実顔画像のアノテーション情報は、攻撃方法、照明条件、および画像化環境のうちの少なくとも1種と、生体分類結果とを含む。
本発明の実施例では、第1データセットおよび第2データセットは何れも実顔画像と非実顔画像とを含んでもいい。中でも、実顔画像は実在の顔を含んでもよく、すなわち、実顔画像は実在の人物の顔の画像収集によって得られた画像であってもいい。実顔画像のアノテーション情報は生体分類結果と顔属性とを含んでもよく、中でも、生体分類結果としては生体であってもよく、顔属性としては実在の人物の性別、髪色、表情などの情報を含んでもいい。非実顔画像は非実在の顔を含んでもよく、すなわち、非実顔画像は、実在の顔を偽造することによって得られた画像であってもよく、例えば、顔ポスターに対して撮影などにより得られた画像収集する。非実顔画像のアノテーション情報は、攻撃方法、照明条件、および画像化環境のうちの1種または複数種と、生体分類結果とを含んでもよく、中でも、生体分類結果としては非生体であってもよいし、攻撃方法としては写真、ポスター、プリンター用紙などが含まれてもよいし、照明条件としては正常の光、強い光、逆光、暗い光などが含まれてもよいし、画像化環境としては室内環境、室外環境などが含まれてもいい。複数のアノテーションを含むアノテーション情報を訓練サンプルに設定することにより、訓練されたニューラルネットワークをより多くの適用シーンに適させることができる。
ここでは、アノテーション情報に含まれた異なるアノテーション項目に対して異なるタグを設定することができ、1つのアノテーション項目には複数のサブアノテーション項目が含まれる可能性がある場合には、タグの下付き文字または上付き文字でサブアノテーション項目を区別することができる。例を挙げて説明すると、攻撃方法はSSで表すことができ、攻撃方法のうちのポスターによる攻撃方法はSS1で表すことができる。
幾つかの例示では、第2データセット中の実顔画像の数は、非実顔画像の数よりも小さくてもよく、例えば、第2データセット中の実顔画像の数と非実顔画像の数の比例を1:3で設定することができる。第2データセット中の非実顔画像の数が実顔画像の数よりも大きくなるように設定することにより、第2データセットに非実顔画像をより多く提供させ、第2データセットが様々な生体偽造方法の探索に適するようになり、それによって、ニューラルネットワークの性能最適化のための大量の非実顔画像が提供されることとなる。
本発明では、第1データセットまたは第2データセット中の実顔画像は、実在の人物の顔の画像収集によって取得されてもよい。幾つかの実施形態では、また、既存のデータセット中の実顔画像を、第1データセットまたは第2データセット中の実顔画像としてもいい。第1データセットまたは第2データセット中の非実顔画像について、幾つかの実施形態では、非実顔画像は、ターゲット取得方法によって取得されてもよく、ターゲット取得方法については、実顔画像を偽造する画像取得方法であると理解することができ、ターゲット取得方法によれば、第1データセットまたは第2データセット中の非実顔画像を拡充して、第1データセットまたは第2データセット中の非実顔画像を豊かにすることができる。
幾つかの例示では、ターゲット取得方法は、収集方向、曲げ方式及び非実顔画像を収集するための収集装置の種別のうちの少なくとも1種を含む。
同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、収集方向が異なる、および/または、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、曲げ方式が異なる、および/または、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、それに対応する収集装置の種別が異なる。
本発明では、収集方向は、収集装置の撮影平面の法線ベクトルと非実顔の所在する平面との間の相対方向であってもよい。例えば、非実在の顔の画像収集を予め設定された収集方向で行って、非実顔画像を取得することができる。一実施形態では、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は収集方向が異なるため、第1のデータセットまたは第2のデータセット中の非実顔画像のうちの少なくとも一部は異なる収集方向を有してもよく、非実顔画像の多様性を向上させる。
例を挙げて説明すると、収集方向は、予め設定された収集方向を含んでもよく、例えば、予め設定された収集方向を、収集装置の撮影平面の法線ベクトルが非実顔の所在する平面に垂直する方向であるように設定してもよい。収集方向は、また、予め設定された収集方向から予め設定された傾斜角度で外れる方向を含んでもよく、例えば、非実顔の所在する平面の法線ベクトルをy軸の正方向として3次元座標系を構築し、ここでは、y軸の正方向は予め設定された収集方向に対応し、予め設定された収集方向から設定された傾斜角度で外れる方向は、xoy平面内において、y軸の正方向からプラスマイナス30度で傾斜する方向であるか、または、yoz平面内おいて、y軸の正方向からプラスマイナス30度で傾斜する方向であってもいい。非実顔画像内の顔の品質を良好にするために、予め設定された傾斜角度を一定の範囲にすることができ、例えば、予め設定された傾斜角度を[マイナス30°,プラス30°]の範囲内にすることができ、それによって、非実顔画像内の非実顔のサイズが適切になり、過度傾斜による非実顔の過小が減少することとなる。ここでは、予め設定された傾斜角度を異なる角度範囲内に設定してもよく、本発明では具体的な角度範囲を限定しない。様々な収集方向を設定することにより、収集方向が異なる非実顔画像を取得することができ、第1データセットまたは第2データセット中の訓練サンプルの多様性が向上する。
本例示では、曲げ方式は、非実顔画像内の非実顔の曲げ方式であってもよい。例えば、予め設定された曲げ方向で非実顔を曲げたものを画像収集して、非実顔画像を取得することができる。一実施形態では、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は曲げ方式が異なるため、第1のデータセットまたは第2のデータセット中の非実顔画像のうちの少なくとも一部は異なる曲げ方向を有してもよく、非実顔画像の多様性は向上する。
例を挙げて説明すると、非実顔画像内の非実顔の曲げ方式は、曲げられないという曲げ方式と、予め設定された曲げ方向で曲げられるという曲げ方式との少なくとも1種を含む。予め設定された曲げ方向は実の応用シーンに応じて設定でき、非実顔が曲げられないと仮定する場合、非実顔の所在する平面の法線ベクトル方向をy軸の正方向として3次元座標系を構築し、予め設定された曲げ方向は、x軸の正方向(例えばx軸に沿ってy軸の正方向に曲げる)または負方向(例えばx軸に沿ってy軸の負方向に曲げる)であってもよいし、z軸の正方向(例えばz軸に沿ってy軸の正方向に曲げる)または負方向(例えばz軸に沿ってy軸の負方向に曲げる)であってもよいし、x軸からある角度で傾斜する正方向(例えばx軸から当該角度でずれた軸に沿ってy軸の正方向に曲げる)または負方向(例えばx軸から当該角度でずれた軸に沿ってy軸の負方向に曲げる)であってもよい。非実顔画像内の非実顔について様々な曲げ方式を設定することにより、第1データセットまたは第2データセット中の非実顔画像を豊かにすることができる。
本例示では、ターゲット取得方法は、非実顔画像を収集するための収集装置の種別を含んでよい。収集装置が異なれば、レンズ構成、焦点距離設定などの収集構成も異なるため、種別が異なる収集装置により取得された非実顔画像も大きく異なるようになる。一実施形態では、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、それに対応する収集装置の種別が異なるため、第1のデータセットまたは第2のデータセット中の非実顔画像は、対応する収集装置の種別も異なるようになる。非実顔画像について種別が異なる収集装置を配置することにより、第1データセットまたは第2データセット中の非実顔画像をさらに豊かにすることができる。ここでは、収集装置の種別は、カメラ、カメラ付きタブレット、カメラ付き携帯電話、およびカメラ付きラップトップなどを含むが、それらに限定されない。
本例示では、非実顔画像が様々なターゲット取得方法により取得できるため、第1データセットまたは第2データセット中の非実顔画像の複雑さと多様性を向上させることが可能となり、さらに非実顔画像によりニューラルネットワークの性能を最適化し、最適化されたニューラルネットワークが多種多様な応用シーンに適させ、生体検出の正確度が向上することができる。
本発明で言及された上記の各々の方法実施例は、原理および論理に違反しない条件で、互いに組み合わせられて、組合せられた実施例を構成できることは、理解されるべきであろう。紙幅に限りがあるので、本発明ではこれ以上説明しないものとする。
また、本発明ではさらに、装置、電子機器、コンピュータ読み取り可能な記憶媒体、プログラムが提案され、それらは本発明で提案されるいずれか1つの性能パラメータ決定方法を実現でき、関連する技術案及び記述は方法に係る部分の記載を参照でき、ここでは重複に説明しないものとする。
発明を実施形態に係る上記の方法では、各ステップの記載順序は、厳密な実行順序を意味して実施プロセスを限定するものではなく、各ステップの具体的な実行順序はその機能および可能性のある内部論理によって決定されるべきであることは、当業界の技術者が理解できるわけである。
図3は、本発明の実施例による性能パラメータ決定装置を示すブロック図であり、図3に示すように、前記装置は、
複数の顔画像が含まれた第1データセットを取得する第1取得モジュール31と、
前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得する検出モジュール32と、
複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定する決定モジュール33と、
を備える。
1つまたは複数の実施可能な形態では、前記検出結果は、顔画像内の顔が生体に属するか否かを判断するためのデータを含む。
1つまたは複数の実施可能な形態では、前記検出結果は、顔属性、攻撃方法、照明条件、画像化環境、深度情報、反射情報のうちの少なくとも1種を含む。
1つまたは複数の実施可能な形態では、前記複数の顔画像にはアノテーション情報があり、前記決定モジュールはさらに、顔画像のそれぞれについて、当該顔画像に対応する検出結果を当該顔画像に対応する顔画像のアノテーション情報と照合して当該顔画像に対応する照合結果を取得し、前記複数の顔画像のうちの少なくとも一部に対応する照合結果に基づいて前記ニューラルネットワークの性能パラメータを決定するために用いられる。
1つまたは複数の実施可能な形態では、前記装置は、訓練モジュールを更に備え、前記訓練モジュールは前記評価結果に基づいて、第2データセット中の前記評価結果に関連する複数の訓練サンプルを取得し、前記訓練サンプルは、顔画像を含み、前記評価結果は、前記性能パラメータに基づいて前記ニューラルネットワークを評価して得られた結果であり、前記複数の訓練サンプルを前記ニューラルネットワークに入力して、訓練サンプル毎に対応する検出結果を取得し、前記複数の訓練サンプルのうちの少なくとも一部に対応する検出結果と前記複数の訓練サンプルのうちの少なくとも一部のアノテーション情報との差異度に応じて、前記ニューラルネットワークの重みパラメータを調整するために用いられる。
1つまたは複数の実施可能な形態では、前記第1データセットおよび前記第2データセットは何れも実顔画像と非実顔画像を含み、前記実顔画像のアノテーション情報は、生体分類結果と、顔属性とを含み、前記非実顔画像のアノテーション情報は、攻撃手法、光照射条件、および画像化環境のうちの少なくとも1種と、生体分類結果とを含む。
1つまたは複数の実施可能な形態では、前記第2データセット中の実顔画像の数は、非実顔画像の数よりも小さくなる。
1つまたは複数の実施可能な形態では、前記装置は、ターゲット取得手法により非実顔画像を取得する第2取得モジュールをさらに備える。
1つまたは複数の実施可能な形態では、前記ターゲット取得手法は、収集方向、曲げ方式、非実顔画像を収集するための収集装置の種別のうちの少なくとも1種を含む。
1つまたは複数の実施可能な形態では、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、収集方向が異なる、および/または、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、曲げ方式が異なる、および/または、同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、対応する収集装置の種別が異なる。
幾つかの実施例では、本発明の実施例で提案された装置が有する機能、またはそれに含まれるモジュールは、上記の方法実施例で説明された方法を実行でき、その具体的な実施は、上記の方法実施例の記載を参照でき、簡潔のため、ここでは重複に説明しないものとする。
図4は、例示的な一実施例による性能パラメータ決定装置800のブロック図である。例えば、装置800は、携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信機器、ゲームコンソール、タブレットデバイス、医療設備、フィットネス機器、パーソナルデジタルアシスタントなどであってもよい。
図4に示すように、装置800は、処理ユニット802、メモリ804、電源ユニット806、マルチメディアユニット808、オーディオユニット810、入力/出力(I / O)インターフェース812、センサユニット814、および通信ユニット816のうちの1つまたは複数の構成要素を備えるようにしてもよい。
処理ユニット802は通常、装置800の全般操作、例えば、表示、電話発呼、データ通信、カメラ操作および記録操作に関連する操作を制御する。処理ユニット802は、上記の方法の全部または一部のステップが実行されるように、命令を実行するための1つまたは複数のプロセッサ820を含んでもよい。また、処理ユニット802は、他のユニットとの間の相互作用が容易になるように、1つ又は複数のモジュールを含んでもよい。例えば、処理ユニット802は、マルチメディアユニット808と処理ユニット802との間の相互作用が容易になるように、マルチメディアモジュールを含んでもよい。
メモリ804は、装置800での操作をサポートするために、各々のタイプのデータを格納するように構成されている。これらのデータの例示は、装置800で操作される任意のアプリケーションもしくは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャ、ビデオなどを含む。メモリ804は、任意タイプの揮発性もしくは不揮発性記憶装置またはそれらの組合せで実現されてもよく、例えば、スタティック・ランダム・アクセス・メモリ(SRAM)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM)、プログラマブル読み出し専用メモリ(PROM)、読み出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクであってもよい。
電源ユニット806は、装置800の様々なユニットに電力を供給する。電源ユニット806は、電源管理システム、1つまたは複数の電源、並びに、装置800に電力を生成、管理および割当てることに関する他のユニットを含んでもよい。
マルチメディアユニット808は、前記装置800とユーザとの間にある、1つの出力インターフェースを供給するスクリーンを含む。幾つかの実施例では、スクリーンは、液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンは、タッチパネルを含む場合、ユーザからの入力信号を受信するためのタッチスクリーンとして実現されることができる。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを感知するための1つまたは複数のタッチセンサを含む。前記タッチセンサは、タッチあるいはスライド動作の境界を感知できるだけではなく、また、前記タッチあるいはスライド操作に関連する継続時間および圧力を検出することもできる。幾つかの実施例では、マルチメディアユニット808は、1つのフロントカメラおよび/またはバックカメラを含む。装置800が操作モード、例えば、撮影モードあるいはビデオモードにあるとき、フロントカメラおよび/またはバックカメラは、外部からのマルチメディアデータを受信することができる。フロントカメラおよびバックカメラのそれぞれは、1つの固定の光学レンズシステムであってもよいし、焦点距離および光学ズーム機能を有するものであってもよい。
オーディオユニット810は、オーディオ信号を出力および/または入力するように構成されている。例えば、オーディオユニット810は、1つのマイク(MIC)を備え、装置800が操作モード、例えば、発呼モード、記録モードおよび音声認識モードにあるとき、マイクは、外部オーディオ信号を受信するように構成されている。受信されたオーディオ信号は、さらに、メモリ804に格納されるか、または、通信ユニット816を介して送信されることができる。幾つかの実施例では、オーディオユニット810は、オーディオ信号を出力するためのスピーカをさらに備える。
I/Oインターフェース812は、処理ユニット802とペリフェラルインターフェースモジュールとの間にインターフェースを提供するものであり、上記ペリフェラルインターフェースモジュールは、キーボード、クリックホイール、ボタンなどであってもよい。これらのボタンは、ホームページボタン、ボリュームボタン、起動ボタンおよびロックボタンを含むが、それらに限定されないものとする。
センサユニット814は、装置800について様々な方面での状態推定を提供するための1つまたは複数のセンサを含む。例えば、センサユニット814は、装置800のオン/オフ状態、ユニットの相対位置を検出することができ、前記ユニットは、例えば、装置800のディスプレイおよびキーパッドであり、センサユニット814はさらに、装置800もしくは装置800の1つのユニットの位置変更、ユーザと装置800との接触有無、装置800の方位もしくは加速/減速、および装置800の温度変化を検出することができる。センサユニット814は、如何なる物理的な接触もないとき、近辺にある物体の存在を検出するための近接センサを含んでもよい。センサユニット814は、画像化アプリケーションに使用される光センサ、例えばCMOSまたはCCD画像センサをさらに含んでもよい。幾つかの実施例では、当該センサユニット814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ、または温度センサをさらに含んでもよい。
通信ユニット816は、装置800と他の機器との有線または無線方式の通信が容易に実行できるように構成されている。装置800は、通信規格に基づく無線ネットワーク、例えばWiFi、2G、3G、4G、5G、またはそれらの組合せにアクセスされることができる。例示的な一実施例では、通信ユニット816は、放送チャネルを介して外部放送管理システムからの放送信号または放送関連情報を受信する。例示的な一実施例では、前記通信ユニット816は、短距離通信を促進するためのニアフィールド通信(NFC)モジュールをさらに含む。例えば、NFCモジュールは、無線周波数認識(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術および他の技術によって実現されることができる。
例示的な実施例では、上記の方法を実行するための装置800は、1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子部品によって実現されることができる。
例示的な実施例では、不揮発性コンピュータ読み取り可能な記憶媒体、例えばコンピュータ・プログラム命令を含むメモリ804がさらに提案されており、プロセッサ820が上記の方法を完成するように促進するために、装置800のプロセッサ820によって上記コンピュータ・プログラム命令を実行することができる。
本発明の実施例では、プロセッサと、プロセッサにより実行可能な命令を格納するためのメモリとを備え、前記プロセッサは、上記の方法を実現するように構成されている電子機器がさらに提案されている。
電子機器は、端末、サーバ、または他の形態のデバイスとして実装されてもよい。
図5は、例示的な一実施例による電子機器1900のブロック図である。例えば、電子機器1900は、1つのサーバとして実装されてもよい。図5に示すように、電子機器1900は、1つ又は複数のプロセッサを含む処理ユニット1922と、処理ユニット1922により実行可能な命令、例えばアプリを格納するためのメモリ1932を代表とするメモリ資源と、を含む。メモリ1932に格納されているアプリは、それぞれが1組の命令に対応する1つまたは複数のモジュールを含んでもよい。また、処理ユニット1922は、上記の方法を実現させるために命令を実行することに設定されている。
電子機器1900は、電子機器1900の電源を管理するように構成されている電源ユニット1926と、電子機器1900をインターネットに接続するように構成されている有線或いは無線のネットワークインターフェース1950と、入力/出力(I/O)インターフェース1958とをさらに含んでもよい。電子機器1900は、例えばWindows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM或いは類似するシステム、のようなメモリ1932に格納されているオペレーティングシステムを操作することができる。
例示的な実施例では、不揮発性コンピュータ読み取り可能な記憶媒体、例えばコンピュータ・プログラム命令を含むメモリ1932がさらに提案されており、前記コンピュータ・プログラム命令が電子機器1900の処理ユニット1922によって実行されることにより、上記の方法が実行されることができる。
本発明は、システム、方法、及び/又はコンピュータ・プログラム製品として具体化することができる。コンピュータ・プログラム製品は、コンピュータ読み取り可能なコードを含んでもよい。コンピュータ読み取り可能なコードがデバイス上に運行された場合、前記デバイス中のプロセッサは、性能パラメータ決定方法の命令を実行することとなる。当該コンピュータ読み取り可能なコードは、コンピュータ読み取り可能な記憶媒体に格納されていてもよい。
コンピュータ読み取り可能な記憶媒体は、命令実行デバイスに使用される命令を保持及び格納できる有形デバイスであってもよい。コンピュータ読み取り可能な記憶媒体は、例えば、電気格納デバイス、磁気格納デバイス、光学格納デバイス、電磁格納デバイス、半導体格納デバイス、または上記格納デバイスの任意の適切な組み合わせとして具体化することができる。コンピュータ読み取り可能な記憶媒体のより具体的な例示(非網羅的なリスト)として、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み出し専用メモリ(CDーROM)、デジタル多用途ディスク(DVD)、メモリースティック、フロッピーディスク、例えば命令が格納されるパンチカードまたは溝内の隆起構造のような機械的なコーディング・デバイス、および上記の任意の適切な組み合わせを含む。ここで用いられるコンピュータ読み取り可能な記憶媒体は、例えば無線電波やその他の自由に伝播する電磁波、導波管やその他の伝送媒体を介して伝播される電磁波(例えば光ファイバーケーブルを透過する光パルス)、または電線を介して伝送される電気信号のような瞬時信号本体として解釈されるものではない。
本明細書に記載のコンピュータ読み取り可能なプログラム命令は、コンピュータ読み取り可能な記憶媒体から様々な計算/処理デバイスにダウンロードするか、または例えばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク、および/または無線ネットワークなどのネットワークを介して外部コンピュータまたは外部記憶デバイスにダウンロードすることができる。ネットワークは、銅線伝送ケーブル、光ファイバ伝送、無線伝送、ルーター、ファイアウォール、スイッチボード、ゲートウェイコンピュータおよび/またはエッジサーバーを含んでもよい。それぞれの計算/処理デバイス中のネットワークアダプタカードまたはネットワークインターフェースは、ネットワークからコンピュータ読み取り可能なプログラム命令を受信し、当該コンピュータ読み取り可能なプログラム命令を伝送して、それぞれの計算/処理デバイス中のコンピュータ読み取り可能な記憶媒体に格納する。
本発明に係る操作を実行するためのコンピュータ・プログラム命令は、アセンブリ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、ステータス設定データ、もしくは、1つ又は複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードであってもよく、前記プログラミング言語は、Smalltalk、C ++などのようなオブジェクト指向型プログラミング言語、及び「C」プログラミング言語又はそれに類似するプログラミング言語のような従来の手続き型プログラミング言語を含む。コンピュータ読み取り可能なプログラム命令は、その全体がユーザのコンピュータ上で実行されることができ、その一部がユーザのコンピュータ上で実行されてもよく、スタンドアロン型のソフトウェア・パッケージとして実行されてもよく、一部がユーザのコンピュータ上、他の一部がモート・コンピュータ上で実行されてもよく、全体がリモート・コンピュータ若しくはサーバ上で実行されてもよい。リモート・コンピュータに関する場合、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN)又は広域ネットワーク(WAN)などを含む任意タイプのネットワークを通じてユーザのコンピュータに接続されてもよいし、外部コンピュータに接続されてもよい(例えば、インターネット・サービス・プロバイダを利用してインターネットを通じて接続される)。幾つかの実施例では、コンピュータ読み取り可能なプログラム命令のステータス情報を利用して、プログラマブル・ロジック回路、フィールド・プログラマブル・ゲートアレイ(FPGA)またはプログラマブル・ロジック・アレイ(PLA)などの電子回路をカスタマイズでき、この電子回路は、コンピュータ読み取り可能なプログラム命令を実行して、本発明の各々の方面を実現することができる。
本明細書では、本発明の各々の方面について、本発明の実施例による方法、装置(システム)、コンピュータ・プログラム製品のフローチャートおよび/またはブロック図を参照しながら記述している。フローチャートおよび/またはブロック図の各ブロック、及びフローチャートおよび/またはブロック図中の各ブロックの組み合わせは、何れもコンピュータ読み取り可能なプログラム命令によって実現され得ることは、理解されるべきであろう。
これらのコンピュータ読み取り可能なプログラム命令が汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサに供給できて、1種の機器が生じることとなり、それによって、これらの命令がコンピュータ又は他のプログラマブルデータ処理装置のプロセッサによって実行される場合、フローチャートおよび/またはブロック図中の1つ又は複数のブロックにて指定された機能/動作を実現するための装置が生じることとなる。これらのコンピュータ読み取り可能なプログラム命令がコンピュータ読み取り可能な記憶媒体に格納されてもよく、これらの命令により、コンピュータ、プログラマブルデータ処理装置および/または他のデバイスが特定の方式で動作することとなり、それによって、命令が格納されているコンピュータ読み取り可能な媒体には、フローチャートおよび/またはブロック図中の1つ又は複数のブロックにて指定された機能/動作の各々の方面を実現するための命令を含む製品が含まれることとなる。
コンピュータ、他のプログラマブルデータ処理装置または他のデバイス上で実行される命令により、フローチャートおよび/またはブロック図中の1つ又は複数のブロックにて指定された機能/動作を実現するために、コンピュータ読み取り可能なプログラム命令をコンピュータ、他のプログラマブルデータ処理装置または他のデバイスにロードすることで、コンピュータ、他のプログラマブルデータ処理装置または他のデバイス上で一連の操作ステップを実行して、コンピュータにより実現されるプロセスが発生するようにしてもよい。
図面のフローチャートおよびブロック図には、本発明の種々の実施例によるシステム、方法、およびコンピュータ・プログラム製品の実現可能なアーキテクチャ、機能、および動作が示されている。この点からは、フローチャートまたはブロック図の各ブロックは、モジュール、プログラム・セグメントまたは命令の一部を代表することができ、前記モジュール、プログラム・セグメントまたは命令の一部は、指定された論理機能を実現するための1つまたは複数の実行可能命令を含む。幾つかの代替的な実施形態では、ブロックで述べる機能は、図面で述べる順序から外れて起こってもいい。例えば、2つの連続的なブロックは実際には、実質的に同時に実行されることができるが、それらは逆順で実行される場合もあり、これは関係する機能によって決定される。ブロック図および/またはフローチャート中の各ブロック、ならびにブロック図および/またはフローチャート中のブロックの組合せは、指定された機能または動作を実行する専用ハードウェアベースシステム、または、専用ハードウェアとコンピュータ命令の組合せによって実現され得ることも留意されるべきであろう。
以上、本発明の各実施例について説明しており、上記の説明は例示的なものに過ぎず、網羅的なものではなく、さらに、本発明は披露された各実施例に限定されるものではない。説明されていた各実施例の範囲及び精神から逸脱しない前提下、種々の修正及び変更は、当業界の一般的な技術者にとって自明なものである。本明細書に使用される専門用語の選択は、各実施例の原理、実際の適用又は市場における技術の改良を最もよく説明するか、あるいは本明細書に披露された各実施例を当業界の他の一般的な技術者に理解してもらうためのものである。

Claims (21)

  1. 性能パラメータ決定方法であって、
    複数の顔画像が含まれた第1データセットを取得することと、
    前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得することと、
    複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定することと、
    を含むことを特徴とする性能パラメータ決定方法。
  2. 前記検出結果は、顔画像内の顔が生体に属するか否かを判断するためのデータを含むことを特徴とする請求項1に記載の性能パラメータ決定方法。
  3. 前記検出結果は、顔属性、攻撃方法、照明条件、画像化環境、深度情報、および反射情報のうちの少なくとも1種を含むことを特徴とする請求項1または2に記載の性能パラメータ決定方法。
  4. 前記複数の顔画像にはアノテーション情報があり、複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定することは、
    顔画像のそれぞれについて、当該顔画像に対応する検出結果を当該顔画像に対応する顔画像のアノテーション情報と照合して当該顔画像に対応する照合結果を取得することと、
    前記複数の顔画像のうちの少なくとも一部に対応する照合結果に基づいて前記ニューラルネットワークの前記性能パラメータを決定することと、
    を含むことを特徴とする請求項1乃至3のいずれか一項に記載の性能パラメータ決定方法。
  5. 評価結果に基づいて、第2データセット中の前記評価結果に関連する複数の訓練サンプルを取得し、前記訓練サンプルは、顔画像を含み、前記評価結果は、前記性能パラメータに基づいて前記ニューラルネットワークを評価して得られた結果であることと、
    前記複数の訓練サンプルを前記ニューラルネットワークに入力して、訓練サンプル毎に対応する検出結果を取得することと、
    前記複数の訓練サンプルのうちの少なくとも一部に対応する検出結果と前記複数の訓練サンプルのうちの少なくとも一部のアノテーション情報との差異度に応じて、前記ニューラルネットワークの重みパラメータを調整することと、
    をさらに含むことを特徴とする請求項1乃至4のいずれか一項に記載の性能パラメータ決定方法。
  6. 前記第1データセットおよび前記第2データセットは何れも実顔画像と非実顔画像とを含み、
    前記実顔画像のアノテーション情報は、生体分類結果と顔属性とを含み、
    前記非実顔画像のアノテーション情報は、攻撃方法、照明条件、および画像化環境のうちの少なくとも1種と、生体分類結果とを含むことを特徴とする請求項5に記載の性能パラメータ決定方法。
  7. 前記第2データセット中の実顔画像の数は、非実顔画像の数よりも小さいことを特徴とする請求項6に記載の性能パラメータ決定方法。
  8. ターゲット取得方法により非実顔画像を取得することをさらに含むことを特徴とする請求項6または7に記載の性能パラメータ決定方法。
  9. 前記ターゲット取得方法は、収集方向、曲げ方式、および非実顔画像を収集するための収集装置の種別のうちの少なくとも1種を含むことを特徴とする請求項8に記載の性能パラメータ決定方法。
  10. 同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、収集方向が異なる、および/または、
    同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、曲げ方式が異なる、および/または、
    同一のデータセットに所属する非実顔画像のうちの少なくとも一部は、対応する収集装置の種別が異なる
    ことを特徴とする請求項9に記載の性能パラメータ決定方法。
  11. 性能パラメータ決定装置であって、
    複数の顔画像が含まれた第1データセットを取得する第1取得モジュールと、
    前記複数の顔画像をニューラルネットワークに入力して、顔画像毎に対応する生体分類結果及び検出結果を取得する検出モジュールと、
    複数の前記検出結果に基づいて前記ニューラルネットワークの性能パラメータを決定する決定モジュールと、
    を備えることを特徴とする性能パラメータ決定装置。
  12. 前記検出結果は、顔画像内の顔が生体に属するか否かを判断するためのデータを含むことを特徴とする請求項11に記載の性能パラメータ決定装置。
  13. 前記検出結果は、顔属性、攻撃方法、照明条件、画像化環境、深度情報、および反射情報のうちの少なくとも1種を含むことを特徴とする請求項11または12に記載の性能パラメータ決定装置。
  14. 前記複数の顔画像にはアノテーション情報があり、前記決定モジュールは、さらに、
    顔画像のそれぞれについて、当該顔画像に対応する検出結果を当該顔画像に対応する顔画像のアノテーション情報と照合して当該顔画像に対応する照合結果を取得し、
    前記複数の顔画像のうちの少なくとも一部に対応する照合結果に基づいて前記ニューラルネットワークの前記性能パラメータを決定するために用いられる、
    ことを特徴とする請求項11乃至13のいずれか一項に記載の性能パラメータ決定装置。
  15. 前記装置は、訓練モジュールをさらに備え、
    前記訓練モジュールは、
    評価結果に基づいて、第2データセット中の前記評価結果に関連する複数の訓練サンプルを取得し、前記訓練サンプルは、顔画像を含み、前記評価結果は、前記性能パラメータに基づいて前記ニューラルネットワークを評価して得られた結果であり、
    前記複数の訓練サンプルを前記ニューラルネットワークに入力して、訓練サンプル毎に対応する検出結果を取得し、
    前記複数の訓練サンプルのうちの少なくとも一部に対応する検出結果と前記複数の訓練サンプルのうちの少なくとも一部のアノテーション情報との差異度に応じて、前記ニューラルネットワークの重みパラメータを調整するために用いられる、
    ことを特徴とする請求項11乃至14のいずれか一項に記載の性能パラメータ決定装置。
  16. 前記第1データセットおよび前記第2データセットは何れも実顔画像と非実顔画像を含み、
    前記実顔画像のアノテーション情報は、生体分類結果と、顔属性とを含み、
    前記非実顔画像のアノテーション情報は、攻撃方法、照明条件、および画像化環境のうちの少なくとも1種と、生体分類結果とを含むことを特徴とする請求項15に記載の性能パラメータ決定装置。
  17. ターゲット取得方法により非実顔画像を取得する第2取得モジュールをさらに備えることを特徴とする請求項16に記載の性能パラメータ決定装置。
  18. 前記ターゲット取得方法は、収集方向、曲げ方式、および非実顔画像を収集するための収集装置の種別のうちの少なくとも1種を含むことを特徴とする請求項17に記載の性能パラメータ決定装置。
  19. 電子機器であって、
    プロセッサと、
    前記プロセッサにより実行可能な命令を格納するためのメモリと、を備え、
    前記プロセッサは、前記命令を呼び出して請求項1乃至10のいずれか一項に記載の性能パラメータ決定方法を実行するように構成されていることを特徴とする電子機器。
  20. コンピュータ・プログラム命令が格納されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ・プログラム命令がプロセッサにより実行された場合、前記プロセッサが請求項1乃至10のいずれか一項に記載の性能パラメータ決定方法を実施するように促される、ことを特徴とするコンピュータ読み取り可能な記憶媒体。
  21. コンピュータ読み取り可能なコードを含むコンピュータ・プログラム製品であって、
    前記コンピュータ読み取り可能なコードがデバイス上に実行された場合、前記デバイス中のプロセッサは、請求項1乃至10のいずれか一項に記載の性能パラメータ決定方法を実施するための命令を実行するようになる、
    ことを特徴とするコンピュータ・プログラム製品。
JP2021550069A 2020-05-09 2020-11-20 性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品 Ceased JP2022535639A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010388252.1 2020-05-09
CN202010388252.1A CN111582381B (zh) 2020-05-09 2020-05-09 确定性能参数的方法及装置、电子设备和存储介质
PCT/CN2020/130377 WO2021227426A1 (zh) 2020-05-09 2020-11-20 确定性能参数的方法及装置、设备、存储介质和程序产品

Publications (1)

Publication Number Publication Date
JP2022535639A true JP2022535639A (ja) 2022-08-10

Family

ID=72124707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550069A Ceased JP2022535639A (ja) 2020-05-09 2020-11-20 性能パラメータ決定方法および装置、電子機器、記憶媒体、並びにプログラム製品

Country Status (4)

Country Link
US (1) US20220270352A1 (ja)
JP (1) JP2022535639A (ja)
CN (1) CN111582381B (ja)
WO (1) WO2021227426A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN111582381B (zh) * 2020-05-09 2024-03-26 北京市商汤科技开发有限公司 确定性能参数的方法及装置、电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099718A (ja) * 2004-08-30 2006-04-13 Toyama Prefecture 個人認証装置
JP2008191743A (ja) * 2007-02-01 2008-08-21 Omron Corp 顔認証装置
JP2017530435A (ja) * 2014-06-30 2017-10-12 アマゾン・テクノロジーズ・インコーポレーテッド 機械学習モデル評価のための対話型インターフェース
US20180157899A1 (en) * 2016-12-07 2018-06-07 Samsung Electronics Co., Ltd. Method and apparatus detecting a target
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
JP2019508801A (ja) * 2016-07-22 2019-03-28 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. なりすまし防止顔認識のための生体検知
WO2020044052A1 (en) * 2018-08-30 2020-03-05 Liopa Ltd 'liveness' detection system
CN110942032A (zh) * 2019-11-27 2020-03-31 深圳市商汤科技有限公司 活体检测方法及装置、存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220635A (zh) * 2017-06-21 2017-09-29 北京市威富安防科技有限公司 基于多造假方式的人脸活体检测方法
CN107590430A (zh) * 2017-07-26 2018-01-16 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
CN108427939B (zh) * 2018-03-30 2022-09-23 百度在线网络技术(北京)有限公司 模型生成方法和装置
US10930010B2 (en) * 2018-05-10 2021-02-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting living body, system, electronic device, and storage medium
CN109255322B (zh) * 2018-09-03 2019-11-19 北京诚志重科海图科技有限公司 一种人脸活体检测方法及装置
CN111046703B (zh) * 2018-10-12 2023-04-18 杭州海康威视数字技术股份有限公司 人脸防伪检测方法、装置及多目相机
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN110276301A (zh) * 2019-06-24 2019-09-24 泰康保险集团股份有限公司 人脸识别方法、装置、介质及电子设备
CN110543815B (zh) * 2019-07-22 2024-03-08 平安科技(深圳)有限公司 人脸识别模型的训练方法、人脸识别方法、装置、设备及存储介质
CN110516576B (zh) * 2019-08-20 2022-12-06 西安电子科技大学 基于深度神经网络的近红外活体人脸识别方法
CN110765923A (zh) * 2019-10-18 2020-02-07 腾讯科技(深圳)有限公司 一种人脸活体检测方法、装置、设备及存储介质
CN111582381B (zh) * 2020-05-09 2024-03-26 北京市商汤科技开发有限公司 确定性能参数的方法及装置、电子设备和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099718A (ja) * 2004-08-30 2006-04-13 Toyama Prefecture 個人認証装置
JP2008191743A (ja) * 2007-02-01 2008-08-21 Omron Corp 顔認証装置
JP2017530435A (ja) * 2014-06-30 2017-10-12 アマゾン・テクノロジーズ・インコーポレーテッド 機械学習モデル評価のための対話型インターフェース
JP2019508801A (ja) * 2016-07-22 2019-03-28 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. なりすまし防止顔認識のための生体検知
US20180157899A1 (en) * 2016-12-07 2018-06-07 Samsung Electronics Co., Ltd. Method and apparatus detecting a target
CN109034102A (zh) * 2018-08-14 2018-12-18 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及存储介质
WO2020044052A1 (en) * 2018-08-30 2020-03-05 Liopa Ltd 'liveness' detection system
CN110942032A (zh) * 2019-11-27 2020-03-31 深圳市商汤科技有限公司 活体检测方法及装置、存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ペーパー・写・楽: "レーザープリンタで印刷した厚紙やハガキの反りを直す方法", [ONLINE], JPN7022004228, 1 November 2016 (2016-11-01), ISSN: 0005062101 *
伊藤康一,外2名: "畳み込みニューラルネットワークを用いた生体検知手法", 電子情報通信学会論文誌A, vol. 100, no. 12, JPN6022037007, 1 December 2017 (2017-12-01), JP, pages 455 - 464, ISSN: 0005062100 *

Also Published As

Publication number Publication date
US20220270352A1 (en) 2022-08-25
WO2021227426A1 (zh) 2021-11-18
CN111582381A (zh) 2020-08-25
CN111582381B (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
TWI724736B (zh) 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式
CN108197586B (zh) 脸部识别方法和装置
US20210349940A1 (en) Video clip positioning method and apparatus, computer device, and storage medium
CN111079576B (zh) 活体检测方法、装置、设备及存储介质
WO2019101021A1 (zh) 图像识别方法、装置及电子设备
WO2021031609A1 (zh) 活体检测方法及装置、电子设备和存储介质
CN109871883B (zh) 神经网络训练方法及装置、电子设备和存储介质
US20160247034A1 (en) Method and apparatus for measuring the quality of an image
WO2020019760A1 (zh) 活体检测方法、装置及系统、电子设备和存储介质
CN112036331B (zh) 活体检测模型的训练方法、装置、设备及存储介质
CN110287671B (zh) 验证方法及装置、电子设备和存储介质
CN110674719A (zh) 目标对象匹配方法及装置、电子设备和存储介质
CN110458218B (zh) 图像分类方法及装置、分类网络训练方法及装置
TWI757668B (zh) 網路優化方法及裝置、圖像處理方法及裝置、儲存媒體
CN113326768B (zh) 训练方法、图像特征提取方法、图像识别方法及装置
US20220270352A1 (en) Methods, apparatuses, devices, storage media and program products for determining performance parameters
CN111582383B (zh) 属性识别方法及装置、电子设备和存储介质
WO2022099989A1 (zh) 活体识别、门禁设备控制方法和装置、电子设备和存储介质、计算机程序
CN111259967A (zh) 图像分类及神经网络训练方法、装置、设备及存储介质
KR20190111034A (ko) 특징 이미지 획득 방법 및 디바이스, 및 사용자 인증 방법
CN112184787A (zh) 图像配准方法及装置、电子设备和存储介质
TWI770531B (zh) 人臉識別方法、電子設備和儲存介質
CN110781975B (zh) 图像处理方法及装置、电子设备和存储介质
US10091436B2 (en) Electronic device for processing image and method for controlling the same
CN110232417B (zh) 图像识别方法、装置、计算机设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220902

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230823

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20231215