JP2017510927A - 基準画像に基づく顔画像検証方法、及び顔画像検証システム - Google Patents

基準画像に基づく顔画像検証方法、及び顔画像検証システム Download PDF

Info

Publication number
JP2017510927A
JP2017510927A JP2017503042A JP2017503042A JP2017510927A JP 2017510927 A JP2017510927 A JP 2017510927A JP 2017503042 A JP2017503042 A JP 2017503042A JP 2017503042 A JP2017503042 A JP 2017503042A JP 2017510927 A JP2017510927 A JP 2017510927A
Authority
JP
Japan
Prior art keywords
image
face
identity
parameters
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017503042A
Other languages
English (en)
Other versions
JP6244059B2 (ja
Inventor
タン、シャオオウ
ジュ、チェンヤオ
ルオ、ピン
ワン、シャオガン
Original Assignee
ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド, ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド filed Critical ペキン センスタイム テクノロジー ディベロップメント カンパニー リミテッド
Publication of JP2017510927A publication Critical patent/JP2017510927A/ja
Application granted granted Critical
Publication of JP6244059B2 publication Critical patent/JP6244059B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【解決手段】本発明は、基準画像に基づく顔画像の検証システム、および方法に関する。前記方法は、身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して身元の代表画像とするステップと、獲得された代表画像と身元の複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定するステップと、決定されたパラメータを有する画像再構成ネットワークを介して少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成するステップと、再構成された基準画像を比較して、再構成された基準画像が同じ身元に属するか否かを検証する比較ステップと含み、その中で、代表画像は正面画像であり、かつ正面測定値は各顔画像の対称性とシャープネスを表す。前記方法およびシステムによれば、任意の姿勢および自然環境における照明条件下での顔画像の2D情報のみを用いて容易に基準顔画像を再構成することができる。【選択図】図3

Description

本発明は、顔画像の検証方法と検証システムに関し、具体的には、基準画像に基づく顔画像検証方法と顔画像検証システムに関する。
自然環境において得られた顔画像は、姿勢、照明条件、遮断、および解像度のような面で多くの個人内(intra−personal)の変化が存在している。顔画像の変化を処理することは、多くの顔関連のアプリケーションにおける重要なチャレンジとなっている。
顔変化を処理するために、さまざまな顔正規化の方法を有し、これらの方法では、多くの姿勢および異なる照明条件下での顔画像から正規化ビュー形式(正面姿勢およびニュートラル照明条件を有し)の画像へ復元する。顔正規化方法は、大別すると、3Dによる顔再構成方法および2Dによる顔再構成方法という2種類に分かられる。3Dによる方法は、3D幾何学的変換によって正面姿勢を回復することを目指している。2Dによる方法は、グラフィカルモデルを利用して正面姿勢を導き出し、これらのグラフィカルモデルは、例えばMRF(Markov Random Field、マルコフ確率場)が挙げられ、その中で、対応物(correspondence)は、異なる姿勢にある画像から学習して得られたものである。上記方法は、一定の制限を有し、例えば3Dデータをキャプチャするために定額以上のコストとリソースを追加する必要がある一方、2Dによる顔分析が特徴点検出の精度に大きく依存しているが、正規化の結果が平滑でない場合は多い。また、これらの方法は、ほとんど、用いられた3D情報または制御された2D環境である制御された条件下で収集された顔画像に基づいて評価されたものである。
したがって、上記問題の少なくとも1つ以上を解決するために、各身元(identity)の基準画像を自動的に選択したり分析したりすることができて、個人内の変化を低減させるとともに、個人間(inter−person)の識別力を維持させるような基準画像に基づく顔画像の検証システムと方法を提供することを期待している。
本発明は、任意の自然条件下での顔画像から基準画像を再構成することができる新規な顔再構成ネットワークを提案する。これらの再構成の画像は、個人内の変化を大幅に低減して個人間の識別力を維持することができる。さらに、当該顔再構成方法は、顔認証に用いられることができる。
本発明の一態様において、基準画像に基づく顔画像検証方法を開示した。この方法は、
同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して身元の代表画像とするステップと、
獲得された代表画像と身元の複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定するステップと、
決定されたパラメータを有する画像再構成ネットワークを介して少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成するステップと、
再構成された基準画像を比較して、再構成された基準画像が同じ身元に属するか否かを検証するステップとを含んでもよく、
その中で、代表画像は正面画像であり、かつ正面測定値は各顔画像の対称性とシャープネスを表す。
本発明の他の一態様は、基準画像に基づく顔画像検証システムを開示した。このシステムは、
同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して身元の代表画像とするように構成される獲得ユニットと、
入力顔画像をそれぞれ相応の基準画像として再構成するように構成される画像再構成ユニットと、
獲得ユニットで獲得された代表画像と身元の複数の顔画像との間のマッピングに基づいて画像再構成ユニットのパラメータを決定するように構成される決定ユニットと、
画像再構成ネットワークで再構成された基準画像を比較し、再構成された基準画像が同じ身元に属するか否かを検証するように構成される比較ユニットとを備えてもよく、
その中で、代表画像は正面画像であり、かつ正面測定値は各顔画像の対称性とシャープネスを表す。
本発明の一実施形態に係る基準画像に基づく顔画像検証システムを示す模式図である。 本発明の他の一実施形態に係る基準画像に基づく顔画像検証システムを示す模式図である。 本発明の一実施形態に係る基準画像に基づく顔画像検証方法を示す模式図である。 本発明の一実施形態に係る画像再構成ネットワークのフローを示す模式図である。 本発明の一実施形態に係る画像検証ネットワークのアーキテクチャを示す模式図である。
以下、図面に示される例示的実施形態を具体的に参照する。本文において、適切な場合、同じ符号を用いて同一又は類似の部材を表す。
図1は、本発明の一実施形態に係る基準画像に基づく顔画像検証システム100を示す模式図である。システム100は、特定のハードウェア、ソフトウェア、または両方の組み合わせを用いて実現されてもよいことを理解すべきである。また、本発明の実施形態は、コンピュータプログラムコードを含有する1つ以上のコンピュータ読み取り可能な記憶媒体(ディスクメモリ、CD−ROM、光メモリ等を含むが、これらに限定されない)の形態で具現されたコンピュータプログラム製品に適用されることができる。システム100がソフトウェアにより実現される場合、システム100には、汎用コンピュータ、コンピュータクラスター、主流コンピュータ、オンラインコンテンツを提供する専用コンピュータ機器、または集中型もしくは分散型の方式で実行されるコンピュータグループのコンピュータネットワークを備えてもよい。
図1に示すように、本発明の一実施形態に係るシステム100は、獲得ユニット101と、決定ユニット103と、画像再構成ユニット105と、比較ユニット107とを備えてもよい。
獲得ユニット101は、身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して当該身元の代表画像とすることができ、その中で、代表画像は、正面画像であり、かつ正面測定値は、各顔画像の対称性と各顔画像のシャープネスを表す。本文において、画像のシャープネスとは、画像行列の階数を指す。
本発明の実施形態において、獲得ユニット101は計算ユニット(図示せず)を備えてもよい。計算ユニットは、複数の顔画像のいずれの正面測定値を計算することができ、これについては後述する。これらの顔画像は、既存の顔データベースまたはネットワークから収集されてもよい。本発明の他の一実施形態において、獲得ユニット101は、ソーティングユニット(図示せず)を備えてもよく、当該ソーティングユニットは、計算ユニットで計算された正面測定値を昇順または降順でソートすることができる。それに応じて、獲得ユニット101は、第1の顔画像または最後の顔画像を身元の代表画像とすることができる。
決定ユニット103は、画像再構成ユニット105のパラメータを決定することができる。画像再構成ユニット105は、任意の入力顔画像を相応の基準画像として再構成することができ、その中で、基準画像は、ニュートラル(neutral)照明条件下での正面顔画像である。図4に示すように、画像再構成ユニット105は、画像再構成ネットワークの形態で形成されてもよく、当該画像再構成ネットワークは、多層ニューラルネットワークであってもよい。本発明の一実施形態において、画像再構成ユニット105のパラメータは、身元の複数の顔画像と獲得ユニット101で獲得された代表画像との間のマッピングにより決定することができる。その後、決定されたパラメータを有する画像再構成ユニット105は、任意の入力顔画像を基準画像として再構成することができる。本発明の他の一実施形態において、決定ユニット103は、身元の顔画像と当該同じ身元の画像再構成ネットワーク105で再構成された基準画像との間の変換に基づいて画像再構成ネットワーク105のパラメータを決定することができる。すなわち、決定ステップおよび再構成ステップは、ユニット105のパラメータを連続的に最適化させるために繰り返して実行されてもよい。
比較ユニット107は、画像再構成ネットワーク105で再構成された基準画像を比較してそれらが同じ身元に属するか否かを検証することができる。本発明の一実施形態において、画像再構成ネットワーク105は、複数層を有するサブネットワークを備え、かつ決定ユニット103は、画像訓練セットを入力することで、マッピングに基づいて画像再構成ニューラルネットワークの各層の初期パラメータを決定することができ、その中で、画像再構成ニューラルネットワークの各層の初期パラメータを決定する期間に、サブネットワークの前層の出力がサブネットワークの現在層に入力され、サブネットワークの最後の層の出力と想定ターゲットとを比較してそれらの誤差を取得し、かつ、得られた誤差に基づいて初期パラメータを微調整して画像再構成ネットワークの全てのパラメータを具体化させる。例えば、図4に示すように、ネットワークは、複数の畳み込み層と、サブサンプリング層と、完全接続層とを備える。以下、決定ステップを詳細に説明する。
本発明の一実施形態において、図2に示すように、システム100は、さらに、取得ユニット106と、画像検証ユニット108とを備えてもよく、その中で、画像検証ユニット108は、図5に示すような多層画像検証ニューラルネットワークの形態で形成されてもよい。具体的には、取得ユニット106は、任意の2つの再構成された基準画像の間の類似度を取得することができる。画像検証ネットワーク108は、1対の顔画像が同じ身元に属するか否かを検証することができる。本発明の一実施形態によれば、画像検証ネットワーク108のパラメータは、決定ユニット103により取得ユニット106で取得された任意の2つの再構成された基準画像の間の類似度に基づいて決定されてもよい。
本発明の一実施形態において、システム100は、選択ユニット(図示せず)をさらに備えてもよく、当該選択ユニットは、それぞれ再構成された基準画像のいずれから、1つ以上の顔部品を選択して1つ以上の顔部品対を形成し、各顔部品対がそれぞれ基準画像における同一の顔区域に対応した顔部品を含む。取得ユニット106は、顔部品対の間の類似度を取得することができ、かつ決定ユニット103は、取得ユニット106で取得された顔部品対の間の類似度に基づいて画像検証ネットワーク108のパラメータを決定することができる。本発明の実施形態において、決定ユニット103は、同時に再構成された顔画像の間の類似度と顔部品対の間の類似度に基づいてネットワーク108のパラメータを決定することができる。
本発明の一実施形態において、システム100は、1つ以上のプロセッサ(図示せず)を含んでもよい。プロセッサは、中央処理装置(「CPU」)、グラフィック処理装置(「GPU」)、または他の適切な情報処理機器を含んでもよい。使用されるハードウエアの種類に基いて、プロセッサは、1つ以上のプリント回路基板、および/または1つ以上のマイクロプロセッサチップを含んでもよい。また、処理器は、下記のより詳細に説明されるプロセス1000を実行するために、コンピュータプログラムの命令のシーケンスを実行することができる。
全体的に、本システムは、3つの重要な貢献をもたらす。第1のは、現在で知られているように、自然環境での顔画像に由来する2D情報のみを用いて基準顔画像を再構成することができる。新規な深度再構成ネットワークを提供し、それは、代表的顔選択と顔再構成とを組み合わせ、自然環境での顔認証領域の最新技術のレベルに達したパフォーマンスを示す。第2のは、再構成の画像が高品質である。当該方法を用いて正規化ステップとした場合、既存の方法に対して大幅に改善したのを確認することができる。第3のは、LFWデータセットよりも6倍大きい顔データセットを貢献することができる。
図3は本発明の一実施形態に係る基準画像に基づく顔画像の検証プロセス1000のフローチャートを示しており、これについて以下で詳細に説明する。
ステップS1001において、身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して身元の代表画像とすることができる。
当該ステップにおいて、例えば既存の画像データベースまたはネットワークから身元の複数の顔画像を収集することができる。当該複数の顔画像は、任意の姿勢および照明条件にある。その後、複数の顔画像のいずれの正面測定値を計算する。そして、最小値を持つ顔画像を身元の代表画像として設定してもよい。代表画像は、身元の、ニュートラル照明条件下での正面顔画像である。本発明の実施形態において、正面測定値を算出した後に、これらの値を降順でソートして最後のものを身元の代表画像として設定してもよい。あるいは、正面測定値を算出した後に、これらの値を昇順でソトして第1のものを身元の代表画像として設定してもよい。
具体的には、画像セットDから身元iの複数の顔画像を収集し、その中で、行列Y∈Dは、顔画像セットDにおける顔画像を表す。上記正面測定値は、
で表れ、
その中で、Y∈R2a×2aであり、λは定数係数であり、||・||はフロベニウスノルムであり、||・||は行列の特異値の合計である核ノルムを表し、P,Q∈R2a×2aは2つの定数行列であり、その中で、P=diag([1,0])かつQ=diag([0,1])であり、ここで、diag(・)は対角行列を表す。
式(1)におけるM(Y)は、身元の顔画像の対称性およびシャープネスを表す。式(1)における第1の項は、顔の対称性、すなわち顔の左半分と右半分との差異を測定する。明らかに、第1の項の値が小さいほど、顔がより対称になることを示す。式(1)の第2の項は、顔画像の行列の階数を測定する。階数とは、行列の線形独立な列の最大値を指す。例えば、顔画像は、ピンぼけ、または横顔(背景が画像の他の側に現れ、通常、単色のブロックとし、そのサイズが「クローズアップ」と類似し)である場合、線形独立な列的数目が比較的小さいため、第2項の値(マイナス記号を付け)が比較的大きい。したがって、式(1)の値が小さいほど、顔が正面図である可能性が大きくになり、より対称でより明晰でほとんど姿勢の変化がなくなっている。対称性と行列の階数とを組み合わせる測定により、身元のニュートラル照明条件下での正面画像を高効率よく自動的に取得することができる。
ステップS1002において、ステップS1001で獲得された代表画像と身元の複数の顔画像との間のマッピングに基づいて(図4に示すような)画像再構成ネットワーク105のパラメータを決定することができる。
注意すべきことは、任意の身元に対して決定ステップが繰り返して実行されてもよい。例えば、本発明の他の一実施形態において、身元iについて、疎な線形の組み合わせY=αi1i1+αi2i2+...+αikikにより、画像セットDから代表画像Yを選択し、その中で、DikはセットDにおける第kの画像(図4に示すように、本明細書において顔選択とも称され)である。Y=αを設定し、その中で、α=[αi1,αi2,...,αik,]は、係数ベクトルであり、かつ当該係数ベクトルが疎であると期待されている。また、選択された異なる身元の顔画像の間の不関連性を強めることが必要があり、これは、正則化項
を追加することにより実現される。なぜなら、再構成された正面図画像の識別力を維持するためである。したがって、顔選択は、
で表れて、
その中で、M(Y)式(1)で限定される。式(2)において、Yとαについて、最適化問題は凸でない。しかしながら、Yが固定されている場合、αに関する問題は、凸のLasso問題になるが、αが固定されている場合、Yの関数は凸の項および凹の項に分かれ、これは負の核ノルムである。これは、CCCP(concave−convex procedure:凹凸プロシージャ)によって解を求めることができる。
ステップS1003において、少なくとも2つの入力顔画像を、画像再構成ネットワークを介してそれらの相応の基準画像として再構成する。すなわち、画像再構成ネットワークは、任意の姿勢での任意の顔画像を相応の基準画像として再構成することができ、当該基準画像は正面であり、ニュートラル照明条件下でのもの(図4に示すように、本明細書において顔回復(face recover)とも称され)である。具体的には、下記に示された損失誤差を最小化して顔画像を再構成することができ、
その中で、iは身元の番号であり、かつ、kは身元iの第kのサンポルを表し、XおよびYはそれぞれ訓練画像およびターゲット画像を表す。Wは、画像再構成ネットワークのパラメータセットである。
本発明の実施形態において、さらに、入力顔画像とネットワーク105で再構成された相応の基準画像との間の変換に基づいて画像再構成ネットワークのパラメータを決定することができる。その後、パラメータが既に決定された画像再構成ネットワークを用いて任意の顔画像を再構成することができる。マッピングとは、1つのベクトルから他の1つのベクトルへの変換を指す。本明細書において、マッピングは、順次に行われる非線形マッピングを指してもよく、身元の複数の顔画像の入力画像を同じ身元の正規化ビュー画像として変換することができる。
図4に示すように、画像再構成ネットワークは、複数の畳み込み層を備える。例えば、図4に示すように、3つの層が存在してもよく、かつ、最初の2つの畳み込み層の後に、最大プーリング層が付き従い、そして最後の層の後に完全接続層が付き従う。従来のCNN(convolutional neural network、畳み込みニューラルネットワーク)と異なり(従来のCNNのフィルターが重みを共有し)、当該ネットワークにおけるフィルターは、ローカライズされ、かつ重みを共有しなく、なぜなら、本明細書において異なる顔領域が異なる特徴を用いるすべきだと仮定されたためである。注意すべきことは、図4において64×64のサイズのみで入力X、出力
(予測の画像)、およびターゲットYを示したが、これらの行列は、当業者に知られた任意のサイズであってもよい。
再度図4を参照し、まず、全ての画像がグレースケール形式に変換され、かつ、それらの照明条件が所属分野で知られている方法で修正されたため、本明細書において当該部分に対する詳細の説明を省略する。各畳み込み層において、非共有のフィルターを学習することにより、複数(例えば、32)の出力チャネルを取得し、その中で、各非共有のフィルターは、例えば5×5のサイズである。サブサンプリング層のユニットサイズは2×2である。第lの畳み込み層は、
で表れ、
その中で、Wl pq,uvおよび(Xl puvは、それぞれ画像位置の(u,v)でのフィルターと画像パッチを表す。pとqは入力チャネルと出力チャネルの番号である。例えば、第1の畳み込み層において、p=1,q=1,...,32である。したがって、Xl+1 q,uvは、位置(u,v)にある第qのチャネル出力であり、すなわち、第l+1の層への入力であることを表す。σ(x)=max(0,x)は正規化線形関数(Rectified linear function)であり、および「○」は、要素ごとの積を表す。バイアスベクトルは、bで表われる。完全接続層において、顔画像
は、
で再構成され、
本発明の実施形態において、顔選択および顔回復は、式(2)および式(3)を組み合わせることにより共同学習し、
で各身元を独立的に最適化させることができ、
その中で、γ,τ,λ,η’は、正則化項のバランスパラメータである。式(6)は、各選択された画像Yが正面画像を有し、識別力を維持し、かつ損失誤差を最小化させる必要があることを示す。下記のステップによりY,α,Wの値を繰り返して獲得する。
1.YおよびWの固定によるαの更新:
αについて、式(6)がLasso問題になり、それは、FISTA(fast iterative shrinkage−thresholding algorithm、高速逐次的縮退しきい値アルゴリズム)により効率的に解を求めることができる。
2.αおよびWの固定によるYの更新:
当該問題は、3つの凸の項(フロベニウスノルム)および1つの凹の項(核ノルム)を含み、これは、最適な解を得ることを確保することができないと意味する。反復更新ルールは、
であり、
その中で、
は、UとVが第1の階数(Yi t)列(columns)に対する打ち切り(truncation)であり、ここで、Yi t=UΣVは、Yi tのSVDである。
3.αおよびYの固定によるWの更新:
画像再構成ネットワークにおける活性化関数に起因して当該問題が非線形性問題になる。当該問題は、SGD(stochastic gradient descent、確率的勾配降下)を利用して逆伝播して解を求めることができる。
本発明の実施形態において、以下のアルゴリズムで示された簡単で実用の訓練プロシージャを、まず全ての訓練サンプルを用いてWを推定して、それから各身元に対してターゲットを選択して、上記3つのステップの反復プロシージャを加速させるように設計する。
入力:全ての身元{X0 ij}の顔画像
出力:ターゲット{Y}とネットワークパラメータW
初期化:t=0、教師なし特徴学習によりWを初期化させ、各身元iについて、Yi t∈Dを式(1)の最小値を持つ画像として設定し、
t<Tである場合、
各X0 ijに対して、
確率的勾配降下によりWを更新し、
終了
各身元iに対して、
式(7)を利用してY を計算し、
i t+1∈DをY に最も近い画像として設定し、
終了
終了
その後、ステップS1004において、ステップS1002で再構成された基準画像を比較してそれらが同じ身元に属するか否かを検証し、すなわち、それぞれ基準画像に対応した顔画像が同じ身元に属するか否かを検証する。
本発明の実施形態において、方法1000には、任意の2つの再構成された基準画像の間の類似度を取得して画像検証ネットワークのパラメータことを決定するステップをさらに含んでもよく、当該ネットワークのアーキテクチャが図5に示すようなものである。その後、決定されたパラメータを有する画像検証ネットワークでは、再構成された基準画像が同じ身元に属するか否かを検証することができる。
本発明の他の一実施形態において、方法1000は、それぞれ再構成された基準画像のいずれから、1つ以上の顔部品を選択して1つ以上の顔部品対を形成するステップをさらに含んでもよく、各顔部品対がそれぞれ基準画像における同一顔区域に対応した顔部品を含む。本発明の他の一実施形態において、方法100には、画像検証ネットワークのパラメータを訓練するために、顔部品対の間の類似度を取得するステップを含んでもよい。
本発明によれば、画像検証ネットワークは、対になる再構成された正規化顔画像から階層的な特徴表現を学習する。再構成された画像が既に大きな顔変化を除去したため、これらの特徴は、顔認証に対して頑健性を持っている。それは、例えば、顔幻覚、顔素描の分析および識別のような他の問題に用いられる潜在用途を持っている。
図5を参照して、再構成された基準画像は、画像検証ネットワークの入力として用いられ、顔部品対の間の類似度および再構成された基準画像の間の類似度に基づいて画像検証ネットワークのパラメータを訓練する。
図5を参照して、画像検証ネットワークは、5つのCNNを含み、各CNNは、対になる顔画像の全体や顔部品(例えば額、鼻、目および口が挙げられ)を用いて入力する。図5に示された顔全体、額、目、鼻および口のサイズは、それぞれ64×64、22×64、24×64、28×30および20×56である。注意すべきことは、図5において額、目、鼻および口を選択の顔領域としたが、本発明において異なるサイズを持つ他の顔領域を選択することができる。図5に示された画像検証ネットワークにおいて、各CNNは、交互に構成された、2つの畳み込み層および2つのサブサンプリング層を備える。各CNNは、完全接続層をさらに備える。画像再構成ネットワークと同様に、畳み込み層のフィルタを共有しない。
画像検証ネットワークにおいて、各CNNは、顔部品対または顔画像の共同表示を学習してCNNの各層の初期パラメータを訓練する。訓練期間では、前層の出力が現在層に入力される。その後、最後の層の出力と想定ターゲットとを比較して誤差を得る。その後、2つの顔画像が同じ身元に属するか否かを推測するために、得られた誤差に基づいて、ロジスティック回帰層が初期パラメータを微調整し、全ての共同表示を特徴として具体化する。
具体的に、画像検証ネットワークの訓練は、まず教師なし特徴学習によりフィルタを訓練する。その後、所属分野によく知られているように、SGD(stochastic gradient descent、確率的勾配降下)により逆伝播して画像検証ネットワークを微調整する。画像再構成ネットワークの訓練と同様に、逆伝播誤差を逆方向へ伝送し、かつ、その後、各層において完全接続重みやフィルタが更新新される。
によりラベルyを推測する必要があるため、損失誤差ではなく、エントロピー誤差を用いる。
その中で、
は、予測されたラベルであり、かつ、
が1に等しいのは、入力画像が同じ身元に属することを表す一方、0に等しいのは、入力画像が同じ身元に属しないことを表す。
特定のハードウェア、ソフトウェア、または両方の組み合わせを用いて本発明の実施形態を実行することができる。また、本発明の実施形態は、コンピュータプログラムコードを含有する1つ以上のコンピュータ読み取り可能な記憶媒体(ディスクメモリ、CD−ROM、光メモリ等を含むがこれらに限定されない)の形態で具現されたコンピュータプログラム製品に適用できる。
上記の記載の中では、説明の便宜のために、単一の実施形態においてさまざまな態様、ステップ、または部材を組み合わせした。本発明は、保護を請求する主題のために全ての変形を開示する必要となることが解釈されないべきである。添付の特許請求の範囲は、当該例示的な実施形態の明細書に組み込まれており、その中で、各請求項その自体は、本発明の独立の実施形態として示されている。
以上、本発明の実施形態および実施例を既に示して説明したが、本発明の要旨および範囲を逸脱しない限り、それらに対してさまざまな変更を行うことができると明らかにする。
入力:全ての身元{X0 ij}の顔画像
出力:ターゲット{Y}とネットワークパラメータW
初期化:t=0、教師なし特徴学習によりWを初期化させ、各身元iについて、Yi t∈Dを式(1)の最小値を持つ画像として設定し、
t<Tである場合、
各X0 ijに対して、
確率的勾配降下によりWを更新し、
終了
各身元iに対して、
式(7)を利用してY を計算し、
i t+1∈DをY に最も近い画像として設定し、
終了
終了
その後、ステップS1004において、ステップS100で再構成された基準画像を比較してそれらが同じ身元に属するか否かを検証し、すなわち、それぞれ基準画像に対応した顔画像が同じ身元に属するか否かを検証する。
本発明の他の一実施形態において、方法1000は、それぞれ再構成された基準画像のいずれから、1つ以上の顔部品を選択して1つ以上の顔部品対を形成するステップをさらに含んでもよく、各顔部品対がそれぞれ基準画像における同一顔区域に対応した顔部品を含む。本発明の他の一実施形態において、方法100には、画像検証ネットワークのパラメータを訓練するために、顔部品対の間の類似度を取得するステップを含んでもよい。

Claims (18)

  1. 同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して前記身元の代表画像とする獲得ステップと、
    獲得された前記代表画像と前記身元の前記複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定する決定ステップと、
    決定されたパラメータを有する前記画像再構成ネットワークを介して、少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成する再構成ステップと、
    再構成された基準画像を比較して、再構成された基準画像が同じ身元に属するか否かを検証する比較ステップと、を含み、
    その中で、前記代表画像は正面画像であり、前記正面測定値は各前記顔画像の対称性とシャープネスを表すこと
    を特徴とする基準画像に基づく顔画像の検証方法。
  2. 前記再構成ステップの後、前記方法は、
    入力顔画像と、再構成された相応の基準画像との間の変換に基づいて、前記画像再構成ネットワークのパラメータを調整するステップをさらに含むこと
    を特徴とする基準画像に基づく顔画像の検証方法。
  3. 前記画像再構成ネットワークは、複数層を有するサブネットワークを備え、かつ前記決定ステップは、
    画像訓練セットの入力により前記マッピングに基づいて前記画像再構成ネットワークの各層の初期パラメータを決定するステップと、
    前記サブネットワークの最後の層の出力と、想定ターゲットとを比較して前記サブネットワークの最後の層の出力と前記想定ターゲットとの誤差を取得するステップと、
    得られた誤差に基づいて前記初期パラメータを微調整して前記画像再構成ネットワークの全てのパラメータを具体化させるステップとをさらに含み、
    その中で、前記画像再構成ネットワークの各層の初期パラメータを決定する期間に、前記サブネットワークの前の層の出力を前記サブネットワークの現在の層に入力こと
    を特徴とする請求項1に記載の方法。
  4. 前記比較ステップの前に、前記方法は、
    任意の2つの再構成された基準画像の間の類似度を取得して画像検証ネットワークのパラメータを決定するステップをさらに含むこと
    を特徴とする請求項1に記載の方法。
  5. 再構成された基準画像のいずれの画像から、それぞれ1つ以上の顔部品を選択して1つ以上の顔部品対を形成するステップと、
    前記顔部品対の間の類似度を取得して前記画像検証ネットワークのパラメータを決定するステップとをさらに含み、
    その中で、前記顔部品対のいずれも、それぞれ前記基準画像における同一顔領域に対応した顔部品を含むこと
    を特徴とする請求項4に記載の方法。
  6. 前記正面測定値M(Y)は、
    で表われ、
    その中で、Y∈Dは、顔画像セットDにおける顔画像を表し、
    λは、定数係数であり、
    ||・||は、フロベニウスノルムであり、
    ||・||は、核ノルムであり、
    P、Qは、2つの定数行列を表し、その中で、P=diag([1,0])かつQ=diag([0,1])であり、ここで、diag(・)は、対角行列を表すこと
    を特徴とする請求項1に記載の方法。
  7. 同一の身元の複数の顔画像から最小正面測定値を持つ顔画像を獲得して前記身元の代表画像とするように構成される獲得ユニットと、
    入力顔画像をそれぞれ相応の基準画像として再構成するように構成される画像再構成ユニットと、
    前記獲得ユニットで獲得された前記代表画像と前記身元の前記複数の顔画像との間のマッピングに基づいて前記画像再構成ユニットのパラメータを決定するように構成される決定ユニットと、
    前記画像再構成ネットワークで再構成された前記基準画像を比較し、再構成された基準画像が同じ身元に属するか否かを検証するように構成される比較ユニットとを備え、
    その中で、前記代表画像は正面画像であり、かつ前記正面測定値は各前記顔画像の対称性とシャープネスを表すこと
    を特徴とする基準画像に基づく顔画像の検証システム。
  8. 前記決定ユニットは、さらに、入力顔画像と再構成された相応の基準画像との間の変換に基づいて、前記画像再構成ネットワークのパラメータを調整するように構成されること
    を特徴とする請求項7に記載のシステム。
  9. 前記画像再構成ユニットは、多層画像再構成ニューラルネットワークとして形成されていること
    を特徴とする請求項7に記載のシステム。
  10. 前記画像再構成ニューラルネットワークは、複数層を有するサブネットワークを備え、かつ前記決定ユニットは、さらに、画像訓練セットの入力により前記マッピングに基づいて前記画像再構成ニューラルネットワークの各層の初期パラメータを決定し、その中で、前記画像再構成ニューラルネットワークの各層の初期パラメータを決定する期間に、前記サブネットワークの前の層の出力を前記サブネットワークの現在の層に入力するように構成され、
    前記決定ユニットは、さらに、前記サブネットワークの最後の層の出力と、想定ターゲットとを比較して前記サブネットワークの最後の層の出力と前記想定ターゲットとの誤差を取得し、かつ、得られた誤差に基づいて前記初期パラメータを微調整して前記画像再構成ネットワークの全てのパラメータを具体化させるように構成されること
    を特徴とする請求項9に記載のシステム。
  11. 任意の2つの再構成された基準画像の間の類似度を取得するように構成される取得ユニットと、
    対になる顔画像が同じ身元に属するか否かを検証するように構成される画像検証ユニットとをさらに備え、
    その中で、前記決定ユニットは、さらに、前記取得ユニットで取得された任意の2つの再構成された基準画像の間の類似度に基づいて前記画像検証ユニットのパラメータを決定するように構成されること
    を特徴とする請求項8に記載のシステム。
  12. 再構成された基準画像のいずれの画像から、それぞれ1つ以上の顔部品を選択して1つ以上の顔部品対を形成し、前記顔部品対のいずれも、それぞれ前記基準画像における同一顔領域に対応した顔部品を含むように構成される選択ユニットをさらに備え、かつ
    その中で、前記取得ユニットは、さらに、前記顔部品対の間の類似度を取得するように構成され、かつ
    前記決定ユニットは、さらに、前記取得ユニットで取得された前記顔部品対の間の類似度に基づいて前記画像検証ユニットのパラメータを決定するように構成されること
    を特徴とする請求項11に記載のシステム。
  13. 前記正面測定値M(Y)は、
    で表され、
    その中で、Y∈Dは、顔画像セットDにおける顔画像を表し、
    λは、定数係数であり、
    ||・||は、フロベニウスノルムであり、
    ||・||は、核ノルムであり、
    P、Qは、2つの定数行列を表し、その中で、P=diag([1,0])かつQ=diag([0,1])であり、ここで、diag(・)は、対角行列を表すこと
    を特徴とする請求項7に記載のシステム。
  14. 前記画像検証ユニットは、多層画像検証ニューラルネットワークとして形成されている、請求項11に記載のシステム。
  15. 同一の身元の複数の顔画像から顔画像を獲得して前記身元の代表画像とする獲得ステップと、
    獲得された代表画像と前記身元の前記複数の顔画像との間のマッピングに基づいて画像再構成ネットワークのパラメータを決定する決定ステップと、
    決定されたパラメータを有する前記画像再構成ネットワークを介して、少なくとも2つの入力顔画像をそれぞれ相応の基準画像として再構成する再構成ステップと、
    任意の2つの再構成された基準画像の間の類似度を取得して画像検証ネットワークのパラメータを決定する取得ステップと、
    決定されたパラメータを有する前記画像検証ネットワークを介して、再構成された基準画像が同じ身元に属するか否かを検証する検証ステップとを含み、
    その中で、前記代表画像は、正面画像であること
    を特徴とする基準画像に基づく顔画像の検証方法。
  16. 前記画像再構成ネットワークは、複数のサブネットワーク層を備え、かつ前記決定ステップは、
    画像訓練セットの入力により前記マッピングに基づいて前記画像再構成ネットワークの各層の初期パラメータを決定するステップと、
    サブネットワークの最後の層の出力と、想定ターゲットとを比較して前記サブネットワークの最後の層の出力と前記想定ターゲットとの誤差を取得するステップと、
    得られた誤差に基づいて前記初期パラメータを微調整して前記画像再構成ネットワークの全てのパラメータを具体化させるステップとをさらに含み、
    その中で、前記決定期間に、サブネットワークの前層の出力をサブネットワークの現在層に入力こと
    を特徴とする請求項15に記載の方法。
  17. 前記獲得ステップにおいては、
    最小の正面測定値を持つ顔画像を獲得して前記身元の前記代表画像とするステップをさらに含み
    その中で、前記正面測定値は、各顔画像の対称性とシャープネスを表すこと
    を特徴とする請求項15に記載の方法。
  18. 前記再構成された基準画像のいずれの画像から、それぞれ1つ以上の顔部品を選択して1つ以上の顔部品対を形成するステップと、
    前記顔部品対の間の類似度を取得するステップと、
    取得された任意の2つの再構成された基準画像の間の類似度、および取得された前記顔部品対の間の類似度に基づいて前記画像検証ネットワークのパラメータを決定するステップとをさらに含み、
    その中で、前記顔部品対のいずれも、それぞれ前記基準画像における同一顔領域に対応した顔部品を含むこと
    を特徴とする請求項15に記載の方法。
JP2017503042A 2014-04-11 2014-04-11 基準画像に基づく顔画像検証方法、及び顔画像検証システム Active JP6244059B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/000389 WO2015154205A1 (en) 2014-04-11 2014-04-11 Methods and systems for verifying face images based on canonical images

Publications (2)

Publication Number Publication Date
JP2017510927A true JP2017510927A (ja) 2017-04-13
JP6244059B2 JP6244059B2 (ja) 2017-12-06

Family

ID=54287072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017503042A Active JP6244059B2 (ja) 2014-04-11 2014-04-11 基準画像に基づく顔画像検証方法、及び顔画像検証システム

Country Status (4)

Country Link
US (1) US10037457B2 (ja)
JP (1) JP6244059B2 (ja)
CN (1) CN106462724B (ja)
WO (1) WO2015154205A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501595A (ja) * 2018-09-20 2022-01-06 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 標本分類のための仮説および検証ネットワークおよび方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127439B2 (en) * 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
US9836669B2 (en) 2016-02-22 2017-12-05 International Business Machines Corporation Generating a reference digital image based on an indicated time frame and searching for other images using the reference digital image
US10043240B2 (en) 2016-04-14 2018-08-07 Microsoft Technology Licensing, Llc Optimal cropping of digital image based on professionalism score of subject
US10043254B2 (en) 2016-04-14 2018-08-07 Microsoft Technology Licensing, Llc Optimal image transformation based on professionalism score of subject
US9904871B2 (en) * 2016-04-14 2018-02-27 Microsoft Technologies Licensing, LLC Deep convolutional neural network prediction of image professionalism
CN106127120B (zh) * 2016-06-16 2018-03-13 北京市商汤科技开发有限公司 姿势估计方法和装置、计算机系统
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10691923B2 (en) * 2016-09-30 2020-06-23 Intel Corporation Face anti-spoofing using spatial and temporal convolutional neural network analysis
US11017269B2 (en) * 2016-09-30 2021-05-25 General Electric Company System and method for optimization of deep learning architecture
CN107992728B (zh) * 2016-10-27 2022-05-20 腾讯科技(深圳)有限公司 人脸验证方法及装置
US10339408B2 (en) * 2016-12-22 2019-07-02 TCL Research America Inc. Method and device for Quasi-Gibbs structure sampling by deep permutation for person identity inference
US10657446B2 (en) 2017-06-02 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. Sparsity enforcing neural network
US10769261B2 (en) * 2018-05-09 2020-09-08 Futurewei Technologies, Inc. User image verification
CN109636886B (zh) * 2018-12-19 2020-05-12 网易(杭州)网络有限公司 图像的处理方法、装置、存储介质和电子装置
KR20210073135A (ko) * 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
US11302063B2 (en) 2020-07-21 2022-04-12 Facebook Technologies, Llc 3D conversations in an artificial reality environment
US11810397B2 (en) 2020-08-18 2023-11-07 Samsung Electronics Co., Ltd. Method and apparatus with facial image generating
US11461962B1 (en) * 2021-06-28 2022-10-04 Meta Platforms Technologies, Llc Holographic calling for artificial reality
US11676329B1 (en) 2022-01-07 2023-06-13 Meta Platforms Technologies, Llc Mobile device holographic calling with front and back camera capture

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070086627A1 (en) * 2005-10-18 2007-04-19 Samsung Electronics Co., Ltd. Face identification apparatus, medium, and method
JP2008077536A (ja) * 2006-09-25 2008-04-03 Sony Corp 画像処理装置および方法、並びにプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE248409T1 (de) * 1998-04-13 2003-09-15 Eyematic Interfaces Inc Wavelet-basierte gesichtsbewegungserfassung für avataranimation
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
US7194114B2 (en) * 2002-10-07 2007-03-20 Carnegie Mellon University Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
EP2115662B1 (en) * 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
US8831293B2 (en) * 2008-04-21 2014-09-09 Mts Investments Inc. System and method for statistical mapping between genetic information and facial image data
CN100557623C (zh) * 2008-05-13 2009-11-04 清华大学 基于各向异性双树复小波包变换的人脸识别方法
CN101739546A (zh) * 2008-11-05 2010-06-16 沈阳工业大学 基于图像交叉重建的单样本注册图像人脸识别方法
CN101866497A (zh) * 2010-06-18 2010-10-20 北京交通大学 基于双目立体视觉的智能三维人脸重建方法及系统
US8861800B2 (en) * 2010-07-19 2014-10-14 Carnegie Mellon University Rapid 3D face reconstruction from a 2D image and methods using such rapid 3D face reconstruction
US9251402B2 (en) * 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
JP5791364B2 (ja) * 2011-05-16 2015-10-07 キヤノン株式会社 顔認識装置、顔認識方法、顔認識プログラム、およびそのプログラムを記録した記録媒体
US8655029B2 (en) * 2012-04-10 2014-02-18 Seiko Epson Corporation Hash-based face recognition system
CN103377367B (zh) * 2012-04-28 2018-11-09 南京中兴新软件有限责任公司 面部图像的获取方法及装置
CN103426190B (zh) * 2013-07-23 2016-07-06 北京航空航天大学 图像重构的方法及系统
CN103605972B (zh) * 2013-12-10 2017-02-15 康江科技(北京)有限责任公司 一种基于分块深度神经网络的非限制环境人脸验证方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070086627A1 (en) * 2005-10-18 2007-04-19 Samsung Electronics Co., Ltd. Face identification apparatus, medium, and method
JP2008077536A (ja) * 2006-09-25 2008-04-03 Sony Corp 画像処理装置および方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022501595A (ja) * 2018-09-20 2022-01-06 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 標本分類のための仮説および検証ネットワークおよび方法
JP7203206B2 (ja) 2018-09-20 2023-01-12 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド 標本分類のための仮説および検証ネットワークおよび方法

Also Published As

Publication number Publication date
WO2015154205A1 (en) 2015-10-15
JP6244059B2 (ja) 2017-12-06
US20170083754A1 (en) 2017-03-23
CN106462724A (zh) 2017-02-22
US10037457B2 (en) 2018-07-31
CN106462724B (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
JP6244059B2 (ja) 基準画像に基づく顔画像検証方法、及び顔画像検証システム
CN108182441B (zh) 平行多通道卷积神经网络、构建方法及图像特征提取方法
CN107085716B (zh) 基于多任务生成对抗网络的跨视角步态识别方法
CN109063724B (zh) 一种增强型生成式对抗网络以及目标样本识别方法
CN109117826B (zh) 一种多特征融合的车辆识别方法
KR20230021043A (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
CN112488205B (zh) 基于优化kpca算法的神经网络图像分类识别方法
CN109800710B (zh) 行人重识别系统及方法
CN104268593B (zh) 一种小样本情况下多稀疏表示的人脸识别方法
Thapar et al. VGR-net: A view invariant gait recognition network
CN107463920A (zh) 一种消除局部遮挡物影响的人脸识别方法
Tuzel et al. Global-local face upsampling network
CN105138998B (zh) 基于视角自适应子空间学习算法的行人重识别方法及系统
JP2012160178A (ja) オブジェクト認識デバイス、オブジェクト認識を実施する方法および動的アピアランスモデルを実施する方法
CN110516537B (zh) 一种基于自步学习的人脸年龄估计方法
CN110222213A (zh) 一种基于异构张量分解的图像分类方法
US11093800B2 (en) Method and device for identifying object and computer readable storage medium
CN110879982A (zh) 一种人群计数系统及方法
Shen et al. Facial expression recognition based on bidirectional gated recurrent units within deep residual network
Liu et al. Dunhuang murals contour generation network based on convolution and self-attention fusion
CN116152645A (zh) 一种融合多种表征平衡策略的室内场景视觉识别方法及系统
Zhan et al. Age estimation based on extended non-negative matrix factorization
CN105184320A (zh) 基于结构相似度的非负稀疏编码的图像分类方法
Abayomi-Alli et al. Facial image quality assessment using an ensemble of pre-trained deep learning models (EFQnet)
CN108256569A (zh) 一种复杂背景下的对象识别方法及使用的计算机技术

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171110

R150 Certificate of patent or registration of utility model

Ref document number: 6244059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250