JP7040278B2 - 顔認識のための画像処理装置の訓練方法及び訓練装置 - Google Patents

顔認識のための画像処理装置の訓練方法及び訓練装置 Download PDF

Info

Publication number
JP7040278B2
JP7040278B2 JP2018093891A JP2018093891A JP7040278B2 JP 7040278 B2 JP7040278 B2 JP 7040278B2 JP 2018093891 A JP2018093891 A JP 2018093891A JP 2018093891 A JP2018093891 A JP 2018093891A JP 7040278 B2 JP7040278 B2 JP 7040278B2
Authority
JP
Japan
Prior art keywords
image
dimensional face
training
model
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018093891A
Other languages
English (en)
Other versions
JP2018195309A (ja
Inventor
ミアオ・チエヌウエヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2018195309A publication Critical patent/JP2018195309A/ja
Application granted granted Critical
Publication of JP7040278B2 publication Critical patent/JP7040278B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、顔認識のための画像処理装置の訓練方法及び訓練装置、並びにそれに対応する画像処理装置に関する。
近年、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)モデルに基づく深層学習(deep learning)方法の発展及び大量のラベル付きの顔画像を有する大規模データベースの構造により、顔認識の性能は飛躍的に向上しており、さらに人間の認識能力を超えている。しかし、従来技術の方法では、CNNモデルの訓練を行うために大量のラベル付きの顔画像が必要であり、これらの顔画像を収集、ラベル付けするには大量の時間及び労力が必要である。
以下は、本発明の態様を基本的に理解させるために、本発明の簡単な概要を説明する。なお、この簡単な概要は、本発明を網羅的な概要ではなく、本発明のポイント又は重要な部分を意図的に特定するものではなく、本発明の範囲を意図的に限定するものではなく、後述するより詳細的な説明の前文として、単なる概念を簡単な形で説明することを目的とする。
本発明は、少量の顔画像、さらに1つの顔画像のみを訓練データとして利用する場合でも、顔認識のための画像処理装置を訓練できる顔認識のための画像処理装置の訓練方法及び訓練装置を提供することを目的とする。また、本発明の装置又は方法により訓練された画像処理装置は、少なくとも従来技術と同等の認識精度を達成できると共に、必要なコストを大幅に低減できる。
本発明の目的を実現するために、本発明の1つの態様では、顔認識のための画像処理装置の訓練方法であって、第1の二次元顔画像を用いて複数の訓練画像ペアを生成するステップと、前記複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練するステップと、ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、前記グローバル固有ベクトル及び前記ラベルに基づいて結合ベイジアンモデルを訓練するステップと、を含み、前記画像処理装置の顔認識は、訓練された前記CNNモデル及び前記結合ベイジアンモデルに基づくものである、方法を提供する。
本発明のもう1つの態様では、顔認識のための画像処理装置の訓練装置であって、第1の二次元顔画像を用いて複数の訓練画像ペアを生成する生成手段と、前記複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練する第1の訓練手段と、ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、前記グローバル固有ベクトル及び前記ラベルに基づいて結合ベイジアンモデルを訓練する第2の訓練手段と、を含み、前記画像処理装置の顔認識は、訓練された前記CNNモデル及び前記結合ベイジアンモデルに基づくものである、装置を提供する。
本発明のもう1つの態様では、顔認識のための画像処理装置であって、前記画像処理装置は本発明の装置又は方法により訓練される、画像処理装置を提供する。
本発明のもう1つの態様では、上記の方法を実現するためのコンピュータプログラムプロダクト、及び上記の方法を実現するためのコンピュータプログラムコードを記録したコンピュータ読み取り可能な記憶媒体をさらに提供する。
本発明の訓練技術により訓練された画像処理装置は、少なくとも従来技術と同等の顔認識の精度を達成できる。また、従来技術に比べて、該画像処理装置の訓練コストが低く、訓練速度が速い。
本発明の上記及び他の目的、特徴及び利点をより容易に理解させるために、以下は、図面を参照しながら本発明の実施例を説明する。
本発明の実施例に係る顔認識のための画像処理装置の訓練方法を示すフローチャートである。 本発明の実施例に係る複数の訓練画像ペアの生成方法を示すフローチャートである。 世界座標系と画像座標系とカメラ座標系の関係を示す図である。 本発明の実施例に係る顔認識のための画像処理装置の訓練装置を示すブロック図である。 本発明の実施例の方法及び装置を実現するための汎用機器の構成を示すブロック図である。
以下、図面を参照しながら本発明の例示的な実施例を詳細に説明する。説明の便宜上、明細書には実際の実施形態の全ての特徴が示されていない。なお、実際に実施する際に、開発者の具体的な目標を実現するために、特定の実施形態を決定、変更してもよい。
なお、本発明を明確にするために、図面には本発明に密接に関連する装置の構成要件のみが示され、本発明と関係のない細部が省略される。
本発明の顔認識のための画像処理装置を訓練する技術は、以下の思想に基づくものである。顔認識の問題は、新たな二次元顔画像と既知の二次元顔画像とを比較し、同一の人の顔画像であるか否かを判断することである。
上記問題を解決するために、本発明の技術では、畳み込みニューラルネットワーク(CNN)を訓練して顔画像における特徴を抽出し、訓練されたCNNに基づいて結合ベイジアン(Bayesian)モデルを訓練して顔画像の比較を行い、即ち分類を行ってもよい。しかし、CNNの訓練を十分にするために、大量の二次元顔画像を収集、ラベル付けする必要があり、大量の時間及び労力が必要である。
従って、本発明の技術では、少量の二次元顔画像、さらに1つの二次元顔画像を用いて訓練画像を生成してCNNを訓練する方法を提供している。本発明の方法では、二次元顔画像を汎用の三次元顔モデルに簡単に投影(「スタンピング」(stamping)とも称されてもよい)し、該二次元顔画像が投影された三次元顔モデルに対して回転、ミラー反転処理を行うことで、CNNの訓練に用いられる新たな二次元顔画像を生成できる。
そして、訓練されたCNNモデルによりラベル付きの顔画像を用いて結合ベイジアンモデルを訓練し、得られた訓練されたCNNモデル及び結合ベイジアンモデルは、顔認識のための画像処理モデルとしてプロセスアプリケーションに適用されてもよい。
以下は、図面を参照しながら、本発明の顔認識のための画像処理装置を訓練する技術を詳細に説明する。
図1は、本発明の実施例に係る顔認識のための画像処理装置の訓練方法100を示すフローチャートである。
図1の方法100はステップS101から始まる。ステップS102において、第1の二次元顔画像を用いて複数の訓練画像ペアを生成する。そして、ステップS103において、複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練する。そして、ステップS104において、ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、グローバル固有ベクトル及びラベルに基づいて結合ベイジアンモデルを訓練する。最後に、方法100はステップS105で終了する。
なお、序数に関する用語「第1の」、「第2の」等は、これらの用語により限定された特徴、要素、ステップ及び部材の実施順序又は重要度を表すものではなく、単に説明の便宜上これらの特徴、要素、ステップ及び部材を識別するためのものである。本明細書における「第1の二次元顔画像」は、CNNモデルを訓練するための複数の訓練画像ペアを生成するための二次元顔画像を表し、「第2の二次元顔画像」は、グローバル固有ベクトルを取得して結合ベイジアンモデルを訓練するように、訓練されたCNNモデルに入力されるラベル付きの二次元顔画像を表す。
以下は、方法100のステップS102乃至S105の処理をより詳細に説明する。
本発明の実施例では、方法100のステップS102は本発明の実施例の複数の訓練画像ペアの生成方法により実現されてもよい。図2は本発明の実施例に係る複数の訓練画像ペアの生成方法200を示すフローチャートである。方法200によれば、少量の二次元顔画像、さらに1つの二次元顔画像に基づいて複数の訓練画像ペアを生成してCNNモデルを訓練することができる。
図2に示すように、方法200はステップS201から始まる。
ステップS202において、第1の二次元顔画像における特徴点を検出する。
ステップS202において行われる処理の目的は、第1の二次元顔画像と三次元顔モデルとの空間的対応関係を構築し、第1の二次元顔画像における画素の奥行き情報を決定し、新たな訓練のための二次元顔画像を生成するためである。
ここで用いられる三次元顔モデルは、汎用の三次元顔モデル、例えばベジェ(Bezier)顔モデルであってもよい。
また、本発明の実施例では、第1の二次元顔画像における特徴点は、顔の下顎、左頬、右頬、眉毛、鼻及び耳などに対応する特徴点であってもよい。ステップS202における特徴点の検出処理は本分野の既知の方法により行われてもよく、ここで詳細な説明を省略する。なお、特徴点の数は制限されない。より多くの特徴点は、第1の二次元顔画像と三次元顔モデルとの位置合わせの最適化に有利であるが、計算コストの増加に繋がる。従って、特徴点の数は、実際の状況、例えば第1の二次元顔画像の角度、鮮明度などに応じて決定されてもよい。
第1の二次元顔画像における特徴点を決定した後に、汎用の三次元顔モデルから、第1の二次元顔画像における特徴点に対応する特徴点を取得してもよい。第1の二次元顔画像における特徴点はpで表されてもよく、それに対応する三次元顔モデルにおける特徴点はPで表されてもよい。上記の処理によれば、第1の二次元顔画像における特徴点と三次元顔モデルにおける特徴点との対応関係を構築できる。
そして、方法200のステップS203において、検出された特徴点に基づいて、第1の二次元顔画像を撮影するカメラの姿勢を決定し、第1の二次元顔画像を三次元顔モデルに投影する。検出された第1の二次元顔画像における特徴点と三次元顔モデルにおける特徴点との対応関係に基づいて、該第1の二次元顔画像を撮影するカメラの姿勢を決定でき、即ち該カメラを校正(calibration)できる。
カメラに対する校正処理は、三次元顔モデルにおける特徴点が所在する世界座標系と、対応する第1の二次元顔画像における特徴点が所在する画像座標系と、該第1の二次元顔画像を撮影するカメラが所在するカメラ座標系との空間的対応関係を求めることである。
図3は世界座標系と画像座標系とカメラ座標系の関係を示す図である。図3に示すように、世界座標系及びカメラ座標系は空間上の三次元座標系であり、画像座標系はカラー画像が所在する平面の二次元座標系である。
三次元顔モデルにおける特徴点、即ち三次元の点Mの世界座標系における座標は(x,y,z)であり、空間的三次元座標系の回転変換及び平行移動変換により、下記の式(1)に従って、三次元の点Mの、カメラ所在位置Oを原点とするカメラ座標系における座標(x,y,z)を取得してもよい。
Figure 0007040278000001
ここで、Rは3×3の回転行列(直交回転行列)であり、世界座標系とカメラ座標系との回転変換関係を表し、tは三次元平行移動ベクトルであり、世界座標系とカメラ座標系との平行移動変換関係を表す。
また、図3に示すように、画像座標系は、画像の左上隅を原点とし、画素を単位とする二次元画素座標系であり、三次元Mに対応する第1の二次元顔画像における特徴点、即ち二次元の点mは座標(u,v)を有する。世界座標系及びカメラ座標系との空間的対応関係を算出するために、カメラ光軸とカラー画像との交点oを原点とし、物理的な長さ(例えばミリメートル)を単位とする二次元の物理的座標系を構築する必要がある。該二次元の物理的座標系では、二次元の点mは座標(x,y)を有する。カラー画像における各画素の物理的サイズ及び交点oのカラー画像における位置を用いて、平行移動及び単位変換により座標(u,v)と座標(x,y)との変換関係を取得してもよい。
該得られた変換関係に基づいて、カメラのピンホール原理により、下記の式(2)に従って、世界座標系と画像座標系とカメラ座標系の空間的対応関係を取得してもよい。
Figure 0007040278000002
ここで、f及びfはカメラの焦点距離及び画素の物理的サイズに関連するパラメータであり、u及びvはカラー画像の物理的座標系の原点oの画素座標系における座標である。
行列Mはf、f、u及びvにより決定され、これらのパラメータはカメラの内部構造にのみ関連するため、内部パラメータと称される。また、内部パラメータは、カメラの内部構造に関連する他のパラメータ、例えば径方向歪みパラメータ、接線方向歪みパラメータ、薄プリズム歪みパラメータなどをさらに含んでもよい。
行列Mは回転行列R及び三次元平行移動ベクトルtにより決定され、これらのパラメータはカメラ座標系と世界座標系の変換にのみ関連するため、外部パラメータと称される。
カメラの姿勢は、行列M及び行列Mにより表されてもよい。このため、ステップS203におけるカメラに対する校正処理は、カメラの内部パラメータ行列M及び外部パラメータ行列Mを求める処理である。
上記の式(2)に示す連立方程式を用いて、カメラの姿勢を表す内部パラメータ行列M及び外部パラメータ行列Mを決定してもよい。算出されたカメラの姿勢によれば、第1の二次元顔画像における特徴点pと三次元顔モデルにおける特徴点Pとの対応関係は、p~Mで表されてもよい。
算出されたカメラの姿勢に基づいて、第1の二次元顔画像を三次元顔モデルに投影してもよく、該処理はスタンピング処理とも称されてもよい。本発明の実施例では、該投影処理は、以下の方式で行われてもよい。検出された第1の二次元顔画像における特徴点を含む最小矩形を決定し、三次元顔モデルを第1の二次元顔画像に合わせた姿勢に回転させ、決定された第1の二次元顔画像における特徴点を含む最小矩形における各画素について、三次元顔モデルにおける対応する三次元画素に基づいて該画素の画素奥行きを決定する。
具体的には、第1の二次元顔画像における画素の奥行き情報を決定するために、まず、第1の二次元顔画像における、検出された特徴点の全てを含む最小矩形を決定してもよい。そして、算出されたカメラの姿勢に基づいて、三次元顔モデルを第1の二次元顔画像に合わせた姿勢に回転させる。例えば、第1の二次元画像が人間の顔の左半分の画像である場合は、該第1の二次元顔画像に合わせるように三次元顔モデルを左に回転させてもよい。そして、第1の二次元顔画像における特徴点を含む最小矩形を三次元顔モデルに投影することで、該最小矩形における各画素の奥行き情報を決定できる。
なお、上述した第1の二次元顔画像を三次元顔モデルに投影する処理は単なる本発明の1つの実施例であり、本発明は該実施例に限定されない。実際には、第1の二次元顔画像における特徴点と三次元顔モデルにおける特徴点との対応関係が既に構築されているため、第1の二次元顔画像における特徴点の奥行き情報を決定できる。これに基づいて、第1の二次元顔画像における特徴点を密度ポイントクラウドにおけるスパース点とみなし、本技術分野の各種の既知方法により、これらのスパース点を拡張して密度ポイントクラウドを取得してもよい。例えば、本技術分野の既知の三角形メッシュ(triangle mesh)を用いて上記の処理を実現してもよい。具体的には、第1の二次元顔画像における特徴点の近接点に対応する、三次元顔モデルにおける三角形メッシュ及びその頂点を決定し、該近接点の奥行き情報を取得してもよい。これらの代替実施例も本発明の範囲内のものである。
ステップS203の処理により、第1の二次元顔画像に現された顔を三次元化できる。
そして、方法200のステップS204において、三次元顔モデルを回転させることで新たな二次元顔画像を生成する。ステップS203の処理により、第1の二次元顔画像が三次元顔モデルにスタンピングされた。三次元顔モデルを所定の角度だけ回転させ、即ち視角を変えることで、新たな二次元顔画像を生成できる。例えば、上述した顔の左半分の画像がスタンピングされた三次元顔モデルを右に所定の角度だけ回転させることで異なる視覚の二次元顔画像を生成してもよいし、上又は下に所定の角度だけ回転させることで他の異なる視覚の二次元顔画像を生成してもよい。本明細書では、第1の二次元顔画像はPで表され、生成された新たな二次元顔画像はP,P,…Pで表されてもよく、Nは2よりも大きい整数である。
なお、生成された新たな二次元顔画像の数は特に限定されない。Nの値が大きいほど、処理精度を向上できるが、計算コストの増加に繋がる。Nの値は具体的な環境に基づいて決定されてもよい。
そして、方法200のステップS205において、第1の二次元顔画像及び新たな二次元顔画像に対してミラー反転処理を行うことで複数の訓練画像ペアを生成する。
例えば、上述した顔の左半分の画像がスタンピングされた三次元顔モデルに対してミラー反転処理を行うことで顔の右半分の画像を生成してもよい。ステップS204において生成された新たな二次元顔画像P,P,…Pの各画像に対してミラー反転処理を行って、対応するミラー反転の二次元顔画像P2m,P3m,…PNmを取得する。なお、第1の二次元顔画像Pに対して同様にミラー反転処理を行い、生成されたミラー反転の第1の二次元顔画像はP1mで表されてもよい。
このように、第1の二次元顔画像に基づいて、CNNモデルの訓練に適用可能な複数の二次元画像ペアPとP1m、PとP2m、PとP3m、…PとPNmを生成し、各画像ペアはミラー反転の関係を有する。
最後に、方法200はステップS206で終了する。
図1に戻り、図1のステップS103において、複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練する。
例えば、N個のCNNモデルを構築してもよく、各CNNモデルは5つの畳み込み層、5つのプーリング層、1つのSoftmax層、及び1つのサイアミーズ(siamese)損失層を有する。ステップS102において取得された複数の訓練画像ペアPとP1m、PとP2m、PとP3m、…PとPNmにより該N個のCNNモデルを訓練し、得られた訓練されたCNNモデルはC,C,C,…Cで表されてもよい。
訓練画像ペアを用いてCNNモデルを訓練する処理は本技術分野で知られているので、ここで詳細な説明を省略する。訓練されたCNNモデルC,C,C,…Cの入力は二次元顔画像であり、出力は二次元顔画像から抽出された特徴を表す多次元ベクトルである。言い換えれば、二次元顔画像について、CNNモデルC,C,C,…Cにより出力された多次元ベクトルに基づいて、同一の人に属する二次元顔画像を同一の種類に分類できる。
そして、方法100のステップS104において、ラベル付きの第2の二次元顔画像をステップS103において訓練されたCNNモデルC,C,C,…Cに入力してグローバル固有ベクトルを取得し、グローバル固有ベクトル及びラベルに基づいて、分類器として用いられる結合ベイジアンモデルを訓練する。第2の二次元顔画像のラベルは、第2の二次元顔画像における顔がどの人の顔であるかを示す。
なお、第1の二次元顔画像もラベル付きの二次元顔画像であり、第2の二次元顔画像として用いられてもよい。しかし、好ましくは、オーバーフィッティングを回避するために、通常、第2の二次元顔画像は第1の二次元顔画像と異なる画像である。
本発明の実施例では、グローバル固有ベクトルを取得する処理は以下の方式により行われてもよい。第2の二次元顔画像を各CNNモデルに入力して、該CNNモデルに対応する固有ベクトルを取得し、各CNNモデルに対応する固有ベクトルを連結して、グローバル固有ベクトルを取得する。
例えば、ステップS103において取得された訓練されたCNNモデルC,C,C,…Cについて、第2の二次元顔画像を各CNNモデルC,C,C,…Cに入力して、N個の多次元ベクトルf,f,f,…fを取得できる。そして、N個の多次元ベクトルf,f,f,…fを連結して、1つのN×S次元のグローバル固有ベクトルf=(f,f,f,…f)を取得し、SはCNNモデルC,C,C,…Cから出力された各固有ベクトルの次元を表す。
このように、取得されたグローバル固有ベクトルf及び第2の二次元顔画像のラベルに基づいて、分類器として用いられる結合ベイジアンモデルを訓練できる。ラベル付きのデータを用いて分類器として用いられる結合ベイジアンモデルを訓練する処理は本技術分野で知られているので、ここで詳細な説明を省略する。
本発明の実施例では、第2の二次元顔画像の(訓練されたCNNモデルにより取得された)グローバル固有ベクトル及びラベルに基づいて結合ベイジアンモデルを訓練することで、1つの閾値を取得できる。訓練された結合ベイジアンモデルの入力は2つの二次元顔画像の(訓練されたCNNモデルにより取得された)グローバル固有ベクトルであり、出力は1つの数値である。該数値と上記閾値とを比較することで、この2つの二次元顔画像が同一の人の顔画像であるかを判断する。例えば、該数値が上記閾値よりも大きい場合は、この2つの二次元顔画像が同一の人の顔画像であると判断する。そうでない場合は、この2つの二次元顔画像が同一の人の顔画像ではないと判断する。従って、訓練されたCNNモデル及び結合ベイジアンモデルは、顔認識のための画像処理モデルとして具体的なプロセスアプリケーションに適用できる。
しかし、ステップS104において得られたグローバル固有ベクトルの次元数は非常に大きい場合がある。例えば、ステップS103において40個のCNNモデルを訓練し、各CNNモデルから160次元の固有ベクトルを出力すると、グローバル固有ベクトルの次元数はN×S=6400となる。これは、明らかに膨大なコストをもたらしてしまう。
これに対して、本発明の実施例では、主成分分析(PCA:Principal Component Analysis)法を用いてグローバル固有ベクトルfに対して次元削減を行ってもよい。PCA法は、統計的方法の1つであり、直交変換により相関の可能性がある1組の変数を線形的相関のない1組の変数に変換し、変換後の変数は主成分と称される。PCA法により、共分散行列を用いてベクトルに対して次元削減を行うことができる。PCA法は本技術分野で知られているので、ここで詳細な説明を省略する。
本発明の技術によれば、少量の顔画像、さらに1つの顔画像のみを訓練データとして利用する場合でも、顔認識のための画像処理装置を訓練でき、訓練された画像処理装置は少なくとも従来技術と同等の認識精度を達成できると共に、必要なコストを大幅に低減できる。
図4は本発明の実施例に係る顔認識のための画像処理装置の訓練装置400を示すブロック図である。
図4に示すように、訓練装置400は、第1の二次元顔画像を用いて複数の訓練画像ペアを生成する生成部401と、複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練する第1の訓練部402と、ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、グローバル固有ベクトル及びラベルに基づいて結合ベイジアンモデルを訓練する第2の訓練部403とを含む。
生成部401は上記の図1を参照しながら説明された方法100のステップS102の処理を実行し、且つ該処理に関する効果を達成でき、ここでその説明を省略する。第1の訓練部402は上記の図1を参照しながら説明された方法100のステップS103の処理を実行し、且つ該処理に関する効果を達成でき、ここでその説明を省略する。第2の訓練部403は上記の図1を参照しながら説明された方法100のステップS104の処理を実行し、且つ該処理に関する効果を達成でき、ここでその説明を省略する。
図5は本発明の実施例の顔認識のための画像処理装置の訓練方法100及び訓練装置400を実現するための汎用機器500の構成を示すブロック図である。汎用機器500は例えばコンピュータシステムであってもよい。なお、汎用機器500は単なる一例であり、本発明の方法及び装置の適用範囲又は機能の限定を意味するものではない。汎用機器500は、上述した顔認識のための画像処理装置の訓練方法に示された構成要素又はその組み合わせに対して依存性又は要件を有すると解釈されるべきではない。
図5において、中央処理部(即ちCPU)501は、読み出し専用メモリ(ROM)502に記憶されているプログラム、又は記憶部508からランダムアクセスメモリ(RAM)503にロードされたプログラムにより各種の処理を実行する。RAM503には、必要に応じて、CPU501が各種の処理を実行するに必要なデータが記憶されている。CPU501、ROM502及びRAM503は、バス504を介して互いに接続されている。入力/出力インターフェース505もバス504に接続されている。
入力部506(キーボード、マウスなどを含む)、出力部507(ディスプレイ、例えばブラウン管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカなどを含む)、記憶部508(例えばハードディスクなどを含む)、通信部509(例えばネットワークのインタフェースカード、例えばLANカード、モデムなどを含む)は、入力/出力インターフェース505に接続されている。通信部509は、ネットワーク、例えばインターネットを介して通信処理を実行する。必要に応じて、ドライブ部510は、入力/出力インターフェース505に接続されてもよい。取り外し可能な媒体511は、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどであり、必要に応じてドライブ部510にセットアップされて、その中から読みだされたコンピュータプログラムは必要に応じて記憶部508にインストールされている。
ソフトウェアにより上記処理を実施する場合、ネットワーク、例えばインターネット、又は記憶媒体、例えば取り外し可能な媒体511を介してソフトウェアを構成するプログラムをインストールする。
これらの記憶媒体は、図5に示されている、プログラムを記憶し、機器と分離してユーザへプログラムを提供する取り外し可能な媒体511に限定されない。取り外し可能な媒体511は、例えば磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(光ディスク-読み出し専用メモリ(CD-ROM)、及びデジタル多目的ディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標))及び半導体メモリを含む。或いは、記憶媒体は、ROM502、記憶部508に含まれるハードディスクなどであってもよく、プログラムを記憶し、それらを含む機器と共にユーザへ提供される。
本発明は、機器読み取り可能な命令コードを記憶したプログラムプロダクトをさらに提供する。該命令コードは、機器により読み取られ、実行された際に、上記の本発明の顔認識のための画像処理装置の訓練方法を実行できる。よって、このようなプログラムプロダクトを記録した各種の記憶媒体も本発明の範囲内のものである。
以上は、ブロック図、フローチャート及び/又は実施例を詳細に説明することで、本発明の実施例の装置及び/又は方法の具体的な態様を説明している。これらのブロック図、フローチャート及び/又は実施例に1つ又は複数の機能及び/又は処理が含まれている場合は、これらのブロック図、フローチャート及び/又は実施例における各機能及び/又は処理は、ハードウェア、ソフトウェア、ファームウェア又はそれらの実質的な任意の組み合わせにより、単独的及び/又は共同に実施されてもよい。1つの態様では、本明細書で説明されたカテゴリの構成要件は、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)又は他の集積回路により実現されてもよい。なお、本明細書で説明された態様の全て又は一部は、集積回路において、1つ又は複数のコンピュータに実行される1つ又は複数のコンピュータプログラムの形(例えば1つ又は複数のコンピュータシステムに実行される1つ又は複数のコンピュータプログラムの形)、1つ又は複数のプロセッサに実行される1つ又は複数のプログラムの形(例えば1つ又は複数のマイクロプロセッサに実行される1つ又は複数のプログラムの形)、ファームウェアの形、又はそれらの実質的な任意の組み合わせの形で実施されてもよい。また、本明細書で公開された内容に基づいて、本発明の回路の設計及び/又は本発明のソフトウェア及び/又はファームウェアのコードの編集は、当業者の能力の範囲内のものである。
なお、用語「包括/含む」は、本文に使用される際に、特徴、要素、ステップ又は構成要件の存在を意味し、一つ又は複数の他の特徴、要素、ステップ又は構成要件の存在又は追加を排除するものではない。序数に関する用語「第1の」、「第2の」等は、これらの用語により限定された特徴、要素、ステップ及び部材の実施順序又は重要度を表すものではなく、単に説明の便宜上これらの特徴、要素、ステップ及び部材を識別するためのものである。
また、上述の各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
顔認識のための画像処理装置の訓練方法であって、
第1の二次元顔画像を用いて複数の訓練画像ペアを生成するステップと、
前記複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練するステップと、
ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、前記グローバル固有ベクトル及び前記ラベルに基づいて結合ベイジアンモデルを訓練するステップと、を含み、
前記画像処理装置の顔認識は、訓練された前記CNNモデル及び前記結合ベイジアンモデルに基づくものである、方法。
(付記2)
第1の二次元顔画像を用いて複数の訓練画像ペアを生成するステップは、
前記第1の二次元顔画像における特徴点を検出するステップと、
検出された特徴点に基づいて前記第1の二次元顔画像を撮影するカメラの姿勢を決定し、前記第1の二次元顔画像を三次元顔モデルに投影するステップと、
前記三次元顔モデルを回転させることで新たな二次元顔画像を生成するステップと、
前記第1の二次元顔画像及び前記新たな二次元顔画像に対してミラー反転処理を行うことで複数の訓練画像ペアを生成するステップと、を含む、付記1に記載の方法。
(付記3)
前記特徴点は、顔の下顎、左頬、右頬、眉毛、鼻及び耳のうち少なくとも1つに対応する特徴点を含む、付記2に記載の方法。
(付記4)
検出された特徴点に基づいて前記第1の二次元顔画像を撮影するカメラの姿勢を決定し、前記第1の二次元顔画像を三次元顔モデルに投影するステップは、
前記三次元顔モデルにおける、検出された前記第1の二次元顔画像における特徴点に対応する特徴点を決定するステップと、
決定された前記三次元顔モデルにおける特徴点及び検出された前記第1の二次元顔画像における特徴点に基づいて前記カメラの姿勢を取得するステップと、
前記カメラの姿勢に基づいて前記第1の二次元顔画像を前記三次元顔モデルに投影するステップと、を含む、付記2に記載の方法。
(付記5)
前記カメラの姿勢に基づいて前記第1の二次元顔画像を前記三次元顔モデルに投影するステップは、
検出された前記第1の二次元顔画像における特徴点を含む最小矩形を決定するステップと、
前記三次元顔モデルを前記第1の二次元顔画像に合わせた姿勢に回転させるステップと、
決定された前記第1の二次元顔画像における特徴点を含む前記最小矩形における各画素について、三次元顔モデルにおける対応する三次元画素に基づいて該画素の画素奥行きを決定するステップと、を含む、付記4に記載の方法。
(付記6)
ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得するステップは、
第2の二次元顔画像を各CNNモデルに入力して、該CNNモデルに対応する固有ベクトルを取得するステップと、
各CNNモデルに対応する固有ベクトルを連結して、前記グローバル固有ベクトルを取得するステップと、を含む、付記1に記載の方法。
(付記7)
ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得するステップは、
主成分分析法を用いて前記グローバル固有ベクトルに対して次元削減を行うステップ、を含む、付記6に記載の方法。
(付記8)
顔認識のための画像処理装置の訓練装置であって、
第1の二次元顔画像を用いて複数の訓練画像ペアを生成する生成手段と、
前記複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練する第1の訓練手段と、
ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、前記グローバル固有ベクトル及び前記ラベルに基づいて結合ベイジアンモデルを訓練する第2の訓練手段と、を含み、
前記画像処理装置の顔認識は、訓練された前記CNNモデル及び前記結合ベイジアンモデルに基づくものである、装置。
(付記9)
前記生成手段は、
前記第1の二次元顔画像における特徴点を検出し、
検出された特徴点に基づいて前記第1の二次元顔画像を撮影するカメラの姿勢を決定し、前記第1の二次元顔画像を三次元顔モデルに投影し、
前記三次元顔モデルを回転させることで新たな二次元顔画像を生成し、
前記第1の二次元顔画像及び前記新たな二次元顔画像に対してミラー反転処理を行うことで複数の訓練画像ペアを生成する、付記8に記載の装置。
(付記10)
前記特徴点は、顔の下顎、左頬、右頬、眉毛、鼻及び耳のうち少なくとも1つに対応する特徴点を含む、付記9に記載の装置。
(付記11)
前記生成手段は、
前記三次元顔モデルにおける、検出された前記第1の二次元顔画像における特徴点に対応する特徴点を決定し、
決定された前記三次元顔モデルにおける特徴点及び検出された前記第1の二次元顔画像における特徴点に基づいて前記カメラの姿勢を取得し、
前記カメラの姿勢に基づいて前記第1の二次元顔画像を前記三次元顔モデルに投影する、付記9に記載の装置。
(付記12)
前記生成手段は、
検出された前記第1の二次元顔画像における特徴点を含む最小矩形を決定し、
前記三次元顔モデルを前記第1の二次元顔画像に合わせた姿勢に回転させ、
決定された前記第1の二次元顔画像における特徴点を含む前記最小矩形における各画素について、三次元顔モデルにおける対応する三次元画素に基づいて該画素の画素奥行きを決定する、付記11に記載の装置。
(付記13)
前記第2の訓練手段は、
第2の二次元顔画像を各CNNモデルに入力して、該CNNモデルに対応する固有ベクトルを取得し、
各CNNモデルに対応する固有ベクトルを連結して、前記グローバル固有ベクトルを取得する、付記8に記載の装置。
(付記14)
前記第2の訓練手段は、
主成分分析法を用いて前記グローバル固有ベクトルに対して次元削減を行う、付記13に記載の装置。
(付記15)
顔認識のための画像処理装置であって、前記画像処理装置は付記1乃至7のいずれかに記載の方法により訓練される、画像処理装置。
(付記16)
コンピュータにより実行可能なコンピュータプログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムは、前記コンピュータにより実行される際に付記1乃至7のいずれかに記載の顔認識のための画像処理装置の訓練方法を実現できる、コンピュータ読み取り可能な記憶媒体。
(付記17)
コンピュータにより実行される際に付記1乃至7のいずれかに記載の顔認識のための画像処理装置の訓練方法を実現できる、コンピュータプログラム。
なお、以上は本発明の具体的な実施例の説明を通じて本発明を開示しているが、上記の全ての実施例及び例は例示的なものであり、制限的なものではない。当業者は、特許請求の範囲の主旨及び範囲内で本発明に対して各種の修正、改良、均等的なものに変更してもよい。これらの修正、改良又は均等的なものに変更することは本発明の保護範囲に含まれるものである。

Claims (10)

  1. 顔認識のための画像処理装置の訓練方法であって、
    第1の二次元顔画像を用いて複数の訓練画像ペアを生成するステップと、
    前記複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練するステップと、
    ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、前記グローバル固有ベクトル及び前記ラベルに基づいて結合ベイジアンモデルを訓練するステップと、を含み、
    前記画像処理装置の顔認識は、訓練された前記CNNモデル及び前記結合ベイジアンモデルに基づくものである、方法。
  2. 第1の二次元顔画像を用いて複数の訓練画像ペアを生成するステップは、
    前記第1の二次元顔画像における特徴点を検出するステップと、
    検出された特徴点に基づいて前記第1の二次元顔画像を撮影するカメラの姿勢を決定し、前記第1の二次元顔画像を三次元顔モデルに投影するステップと、
    前記三次元顔モデルを回転させることで新たな二次元顔画像を生成するステップと、
    前記第1の二次元顔画像及び前記新たな二次元顔画像に対してミラー反転処理を行うことで複数の訓練画像ペアを生成するステップと、を含む、請求項1に記載の方法。
  3. 前記特徴点は、顔の下顎、左頬、右頬、眉毛、鼻及び耳のうち少なくとも1つに対応する特徴点を含む、請求項2に記載の方法。
  4. 検出された特徴点に基づいて前記第1の二次元顔画像を撮影するカメラの姿勢を決定し、前記第1の二次元顔画像を三次元顔モデルに投影するステップは、
    前記三次元顔モデルにおける、検出された前記第1の二次元顔画像における特徴点に対応する特徴点を決定するステップと、
    決定された前記三次元顔モデルにおける特徴点及び検出された前記第1の二次元顔画像における特徴点に基づいて前記カメラの姿勢を取得するステップと、
    前記カメラの姿勢に基づいて前記第1の二次元顔画像を前記三次元顔モデルに投影するステップと、を含む、請求項2に記載の方法。
  5. 前記カメラの姿勢に基づいて前記第1の二次元顔画像を前記三次元顔モデルに投影するステップは、
    検出された前記第1の二次元顔画像における特徴点を含む最小矩形を決定するステップと、
    前記三次元顔モデルを前記第1の二次元顔画像に合わせた姿勢に回転させるステップと、
    決定された前記第1の二次元顔画像における特徴点を含む前記最小矩形における各画素について、三次元顔モデルにおける対応する三次元画素に基づいて該画素の画素奥行きを決定するステップと、を含む、請求項4に記載の方法。
  6. ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得するステップは、
    第2の二次元顔画像を各CNNモデルに入力して、該CNNモデルに対応する固有ベクトルを取得するステップと、
    各CNNモデルに対応する固有ベクトルを連結して、前記グローバル固有ベクトルを取得するステップと、を含む、請求項1に記載の方法。
  7. ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得するステップは、
    主成分分析法を用いて前記グローバル固有ベクトルに対して次元削減を行うステップ、を含む、請求項6に記載の方法。
  8. 顔認識のための画像処理装置の訓練装置であって、
    第1の二次元顔画像を用いて複数の訓練画像ペアを生成する生成手段と、
    前記複数の訓練画像ペアのうち各訓練画像ペアに基づいて、該訓練画像ペアに対応する畳み込みニューラルネットワーク(CNN)モデルを訓練する第1の訓練手段と、
    ラベル付きの第2の二次元顔画像を各CNNモデルに入力してグローバル固有ベクトルを取得し、前記グローバル固有ベクトル及び前記ラベルに基づいて結合ベイジアンモデルを訓練する第2の訓練手段と、を含み、
    前記画像処理装置の顔認識は、訓練された前記CNNモデル及び前記結合ベイジアンモデルに基づくものである、装置。
  9. 顔認識のための画像処理装置であって、前記画像処理装置は請求項1乃至7のいずれかに記載の方法により訓練される、画像処理装置。
  10. コンピュータにより実行可能なコンピュータプログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムは、前記コンピュータにより実行される際に請求項1乃至7のいずれかに記載の顔認識のための画像処理装置の訓練方法を実現できる、コンピュータ読み取り可能な記憶媒体。
JP2018093891A 2017-05-17 2018-05-15 顔認識のための画像処理装置の訓練方法及び訓練装置 Active JP7040278B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710348143.5A CN108960001B (zh) 2017-05-17 2017-05-17 训练用于人脸识别的图像处理装置的方法和装置
CN201710348143.5 2017-05-17

Publications (2)

Publication Number Publication Date
JP2018195309A JP2018195309A (ja) 2018-12-06
JP7040278B2 true JP7040278B2 (ja) 2022-03-23

Family

ID=64461789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018093891A Active JP7040278B2 (ja) 2017-05-17 2018-05-15 顔認識のための画像処理装置の訓練方法及び訓練装置

Country Status (2)

Country Link
JP (1) JP7040278B2 (ja)
CN (1) CN108960001B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2703327C1 (ru) * 2018-12-10 2019-10-16 Самсунг Электроникс Ко., Лтд. Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя
US11893681B2 (en) 2018-12-10 2024-02-06 Samsung Electronics Co., Ltd. Method for processing two-dimensional image and device for executing method
US10861228B2 (en) * 2018-12-28 2020-12-08 X Development Llc Optical otoscope device
CN109740679B (zh) * 2019-01-13 2020-10-30 胡燕祝 一种基于卷积神经网络和朴素贝叶斯的目标识别方法
CN109902603A (zh) * 2019-02-18 2019-06-18 苏州清研微视电子科技有限公司 基于红外图像的驾驶员身份识别认证方法和系统
CN110020620B (zh) * 2019-03-29 2021-07-30 中国科学院深圳先进技术研究院 一种大姿态下的人脸识别方法、装置及设备
CN111832584A (zh) * 2019-04-16 2020-10-27 富士通株式会社 图像处理装置及其训练装置和训练方法
CN110348320B (zh) * 2019-06-18 2021-08-17 武汉大学 一种基于多损失深度融合的人脸防伪方法
CN110929569B (zh) * 2019-10-18 2023-10-31 平安科技(深圳)有限公司 人脸识别方法、装置、设备及存储介质
CN111340097B (zh) * 2020-02-24 2024-03-12 Oppo广东移动通信有限公司 图像细粒度分类方法、装置、存储介质及设备
JP7404137B2 (ja) * 2020-04-01 2023-12-25 株式会社豊田中央研究所 顔画像処理装置及び顔画像処理プログラム
CN111767900B (zh) * 2020-07-28 2024-01-26 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、计算机设备及存储介质
CN112036292B (zh) * 2020-08-27 2024-06-04 平安科技(深圳)有限公司 基于神经网络的文字识别方法、装置及可读存储介质
CN112150445B (zh) * 2020-09-27 2023-12-15 西安工程大学 基于贝叶斯阈值的纱线毛羽检测方法
CN112509129B (zh) * 2020-12-21 2022-12-30 神思电子技术股份有限公司 一种基于改进gan网络的空间视场图像生成方法
JP7404282B2 (ja) * 2021-02-10 2023-12-25 株式会社豊田中央研究所 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム
CN113033426B (zh) * 2021-03-30 2024-03-01 北京车和家信息技术有限公司 动态对象标注方法、装置、设备和存储介质
WO2024122054A1 (ja) * 2022-12-09 2024-06-13 日本電気株式会社 情報処理システム、情報処理方法、及び記録媒体
CN115984943B (zh) * 2023-01-16 2024-05-14 支付宝(杭州)信息技术有限公司 面部表情捕捉及模型训练方法、装置、设备、介质及产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350704A (ja) 2005-06-16 2006-12-28 Fujifilm Holdings Corp 判別器の学習方法、顔判別方法および装置並びにプログラム
JP2009211151A (ja) 2008-02-29 2009-09-17 Secom Co Ltd 顔画像処理装置
JP2014203135A (ja) 2013-04-01 2014-10-27 キヤノン株式会社 信号処理装置、信号処理方法、及び、信号処理システム
US20150235073A1 (en) 2014-01-28 2015-08-20 The Trustees Of The Stevens Institute Of Technology Flexible part-based representation for real-world face recognition apparatus and methods
JP2017010543A (ja) 2015-06-24 2017-01-12 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512620B (zh) * 2015-11-30 2019-07-26 北京眼神智能科技有限公司 用于人脸识别的卷积神经网络的训练方法和装置
CN106022317A (zh) * 2016-06-27 2016-10-12 北京小米移动软件有限公司 人脸识别方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350704A (ja) 2005-06-16 2006-12-28 Fujifilm Holdings Corp 判別器の学習方法、顔判別方法および装置並びにプログラム
JP2009211151A (ja) 2008-02-29 2009-09-17 Secom Co Ltd 顔画像処理装置
JP2014203135A (ja) 2013-04-01 2014-10-27 キヤノン株式会社 信号処理装置、信号処理方法、及び、信号処理システム
US20150235073A1 (en) 2014-01-28 2015-08-20 The Trustees Of The Stevens Institute Of Technology Flexible part-based representation for real-world face recognition apparatus and methods
JP2017010543A (ja) 2015-06-24 2017-01-12 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Mohamed Khalil-Hani,A Convolutional Neural Network Approach for Face Verification,2014 International Conference on High Performance Computing & Simulation (HPCS),イタリア,IEEE,2014年07月25日,P.707-714
RUI YANI,An improved similarity metric based on joint bayesian for face verification,2016 13th International Computer Conference on Wavelet Active Media Technology and Information Processing,中国,IEEE,2016年12月18日,P.222-226
武村 紀子,畳み込みニューラルネットワークを用いた視点変化に頑健な歩容認証,電子情報通信学会論文誌A VolumeJ99-A No.12,日本,電子情報通信学会,2016年12月01日,第J99-A巻,P.440-451

Also Published As

Publication number Publication date
CN108960001B (zh) 2021-12-24
CN108960001A (zh) 2018-12-07
JP2018195309A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JP7040278B2 (ja) 顔認識のための画像処理装置の訓練方法及び訓練装置
Bhagavatula et al. Faster than real-time facial alignment: A 3d spatial transformer network approach in unconstrained poses
JP7203954B2 (ja) 顔姿勢推定/3次元顔再構築方法、装置、及び電子デバイス
Passalis et al. Using facial symmetry to handle pose variations in real-world 3D face recognition
CN105741346B (zh) 用于校准深度照相机的方法
CN110675487B (zh) 基于多角度二维人脸的三维人脸建模、识别方法及装置
TWI484444B (zh) 用於面部特徵向量之建構之非暫時性電腦可讀媒體、電子器件、及電腦系統
CN113012293A (zh) 石刻模型构建方法、装置、设备及存储介质
CN107358648A (zh) 基于单张人脸图像的实时全自动高质量三维人脸重建方法
JP7327140B2 (ja) 画像処理方法及び情報処理装置
JP2006520055A (ja) 2次元画像からの3次元オブジェクトの不変視点検出および識別
JP2009020761A (ja) 画像処理装置及びその方法
Badías et al. An augmented reality platform for interactive aerodynamic design and analysis
CN109376698B (zh) 人脸建模方法和装置、电子设备、存储介质、产品
CN114005169B (zh) 人脸关键点检测方法、装置、电子设备及存储介质
CN117372604B (zh) 一种3d人脸模型生成方法、装置、设备及可读存储介质
US20220172446A1 (en) Combining Three-Dimensional Morphable Models
Wang et al. Joint head pose and facial landmark regression from depth images
Yin et al. [Retracted] Virtual Reconstruction Method of Regional 3D Image Based on Visual Transmission Effect
CN111709269B (zh) 一种深度图像中基于二维关节信息的人手分割方法和装置
CN110910478B (zh) Gif图生成方法、装置、电子设备及存储介质
Ma et al. A lighting robust fitting approach of 3D morphable model for face reconstruction
Jin et al. DOPE++: 6D pose estimation algorithm for weakly textured objects based on deep neural networks
CN115601430A (zh) 基于关键点映射的无纹理高反物体位姿估计方法及系统
Afzal et al. Kinect Deform: enhanced 3d reconstruction of non-rigidly deforming objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7040278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150