JP6750055B2 - 顔画像からの定性的特徴を評価するコンピュータ実行ツールを構築する方法 - Google Patents

顔画像からの定性的特徴を評価するコンピュータ実行ツールを構築する方法 Download PDF

Info

Publication number
JP6750055B2
JP6750055B2 JP2019033496A JP2019033496A JP6750055B2 JP 6750055 B2 JP6750055 B2 JP 6750055B2 JP 2019033496 A JP2019033496 A JP 2019033496A JP 2019033496 A JP2019033496 A JP 2019033496A JP 6750055 B2 JP6750055 B2 JP 6750055B2
Authority
JP
Japan
Prior art keywords
image
neural network
database
tool
qualitative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019033496A
Other languages
English (en)
Other versions
JP2019169139A (ja
Inventor
マーティン,ヴィクター
セギュイエ,ルノー
ポーチェロン,オレリー
Original Assignee
シャネル パフュームズ ビューテ
シャネル パフュームズ ビューテ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャネル パフュームズ ビューテ, シャネル パフュームズ ビューテ filed Critical シャネル パフュームズ ビューテ
Publication of JP2019169139A publication Critical patent/JP2019169139A/ja
Application granted granted Critical
Publication of JP6750055B2 publication Critical patent/JP6750055B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物の顔の画像から識別される健康状態などの定性的特徴の評価のためのコンピュータ実行ツールを構築する方法及び該方法によって得られるツールに関する。
いずれの顔の表情が健康状態の識別のような定性的特徴の識別を変えるのかを理解することについて多くの研究が注目されている。この研究を実行するには、研究者は、健康状態の識別についてレーティングの差異を説明可能な顔の表情における客観的差異を指摘する前に、顔による健康状態識別レーティングを収集する。
しかしながら、顔について人間から健康状態のレーティングを収集することは、費用及び時間の掛かるタスクである。実際に、各レーティング部が健康状態のレーティングを示す非常に大きなサイズのレーティング部のパネルに各顔画像を提示してから、与えられたすべてのレーティングの平均健康状態のレーティングを各顔について計算する必要がある。
結果として、健康状態のレーティングに関連付けられる顔画像のデータベースは非常に小さい。これは、多くの問題をもたらす。第1に、小さなサイズのデータベースでは、研究者が関連性及び信頼性のある統計結果を取得するのが困難となる。
第2に、既存のデータベースを強化するために、新たな画像から健康状態のレーティングを出力するようにニューラルネットワークなどの人工知能ツールをトレーニングすることが望ましい。しかしながら、既存のデータベースは、そのようなツールをトレーニングするには小さ過ぎる。実際に、ニューラルネットワークの学習を実行するための最小サイズのデータベースは通常、数十万枚の画像までの少なくとも数千枚の画像のものであり、一方の画像及び健康状態のレーティングの利用可能なデータベースのサイズは多くても画像約数百枚分のものである。
したがって、健康状態の識別の現象をより理解し、研究者によって使用されるデータベースを強化するために、顔画像からの健康状態の識別などの定性的特徴の自動的評価を可能とするツールのニーズがある。
本発明は、現在利用可能な非常に小さなサイズのデータベースにもかかわらず、顔画像からの定性的特徴の自動的評価を可能とするツールを構築する方法を提供することによって、上記の問題を解決することを目的とする。
発明の他の目的は、限られた時間及びリソースで現在利用可能なデータベースの強化を可能とすることである。
この目的のため、発明は、人間の顔の画像の処理から、顔の定性的特徴を示すスコアを決定するのに適合されたツールを構築する方法を開示し、ツールはニューラルネットワークを備え、
方法は、コンピュータによって実行され、
−人物の顔の画像から人物の推定年齢を評価するように構成された初期ニューラルネットワークの少なくとも1つのトレーニングセッションを実行するステップであって、初期ニューラルネットワークがニューロン及び関連する重み付けのレイヤを備え、各トレーニングセッションは各顔画像が画像上の人物の生物学的年齢に関連付けられた顔画像の第1のデータベースにおいて実行され、各トレーニングセッションは重み付けが変化したニューラルネットワークの更新バージョンを出力する、ステップと、
−トレーニングセッションに対応する初期ニューラルネットワークの各更新バージョンについて、各顔画像が定性的特徴を示す参照スコアに関連付けられた顔画像の第2のデータベースにおける初期ニューラルネットワークの一部分の誤差を評価するステップであって、第2のデータベースは第1のデータベースよりも下位のサイズを有する、ステップと、
−更新バージョンのすべてから評価された誤差について最小の評価誤差に対応する更新バージョンにおける初期ニューラルネットワークの前記部分をツールのニューラルネットワークとして選択するステップと
を備える。
好ましくは、初期ニューラルネットワークは、顔の画像から特徴を抽出するように構成された特徴抽出部分、及び抽出された特徴から推定年齢を出力するように構成された年齢評価部分を備え、誤差が評価されツールに対するニューラルネットワークとして選択される初期ニューラルネットワークの部分は特徴抽出部分である。
実施形態において、誤差を評価するステップは、顔画像に対する初期ニューラルネットワークの部分の出力と画像に関連するスコアとの間の線形回帰をトレーニングするステップを備える。
好ましい実施形態において、線形回帰をトレーニングするステップは、k−分割交差検証によって実行される。パラメータkは2〜Nであってもよく、Nは第2のデータベースにおける画像の枚数である。
好ましくは、方法は、ツールのニューラルネットワークが選択されると、複数の推定器候補の中からある推定器を選択するステップをさらに備え、それは、推定器により推定されるスコアと第2のデータベースの各画像について対応する参照スコアとの間の平均誤差を最小化する。
一実施形態において、各推定器候補は、k’−分割構成でトレーニングされる。
推定器候補は、線形回帰、リッジ回帰、ラッソ回帰又はニューラルネットワークのうちの少なくとも1つを備え得る。
定性的特徴は、以下の、健康状態の推定、魅力度の推定、性別の推定、自信の推定及び女性らしさの推定のうちの1つであってもよい。
発明の他の目的によると、プロセッサによって実行された場合に上記の方法を実行するための命令のセットを備えるコンピュータプログラム製品が開示される。
発明の他の目的によると、人間の顔の画像からの定性的特徴の評価のためのツールが開示され、ツールは、画像を処理して特徴を抽出するように適合されたニューラルネットワークと、抽出された特徴から定性的特徴を示すスコアを推測するように適合された推定器とを備え、上記の方法により構築されることを特徴とする。
発明の他の目的によると、人間の顔の画像から定性的特徴を評価するためのコンピュータ実行方法が開示され、定性的特徴を示すスコアを出力するように画像への前記ツールの適用を備える。
実施形態において、画像は第2のデータベースの画像の部分から構築される顔画像であり、方法は画像及び対応するスコアを第2のデータベースに追加するステップをさらに備える。
発明による方法は、健康状態の識別などの定性的特徴を人間の顔から評価するためのツールを構築することを可能とする。方法は、より大きなサイズの第1のデータベース上で年齢の推定に専用の初期ネットワークをトレーニングすることによって、利用可能なデータベースの制限されたサイズの問題を回避し、このデータベースは画像に示された人物の年齢に関連付けられた顔の画像を備える。年齢を指定するのにデータベースの各画像が閲覧される必要がないので、この種類のデータベースは取得が非常に容易となり、それゆえ一層大きくなる。
そして、方法は、顔画像からの特徴抽出に専用のトレーニングされたネットワークの一部分を抽出する。この部分は、定性的特徴を評価するためのツールのニューラルネットワークを形成する。実際に、顔画像からの特徴抽出も、健康状態又は他の任意の定性的特徴を評価するよりも前に実行されなければならない。
抽出されるニューラルネットワークが定性的特徴の評価に対して関連性を確実に有するために、選択されるトレーニングされたネットワークのバージョンは、定性的特徴を示すスコアに関連付けられた顔画像のより制限されたデータベースにおけるk−分割交差検証によって、定性的特徴の評価について最良の決定をもたらすものである。
したがって、方法は、他のより大きなデータベースにおいてトレーニングされた他のネットワークを用いることによってニューラルネットワークをトレーニングするのに利用可能なデータの欠損を補償する。
発明の他の構成及び効果は、添付の図面を参照して非限定的な例によって与えられる以下の詳細な説明から明らかとなる。
実施形態による方法の主なステップを概略的に示す。 顔画像から推定年齢を出力するように構成された初期ニューラルネットワークの概略図である。 トレーニングセット及び検証セットのトレーニング中の初期ネットワークの平均絶対誤差の低下を示す。 初期ネットワークのトレーニングされたバージョンによる初期ネットワークの抽出部分の健康状態の識別についての平均絶対誤差の展開を示す。 方法により得られるツールを概略的に示す。 図6aは、実施形態によるツール及び閲覧者によってそれぞれ実行された健康状態の識別の性能を示す。図6bは、実施形態によるツール及び閲覧者によってそれぞれ実行された健康状態の識別の性能を示す。
図1を参照して、人間の顔の画像からの定性的特徴の自動的評価のためのツールを構築する方法を説明する。
この方法は、少なくとも、プロセッサ、マイクロプロセッサ、コントローラ又は他の任意の等価デバイスである計算機、及び方法を実行するために計算機によって実行される命令を記憶するメモリを備えるコンピュータによって実行される。メモリはまた、これ以降で詳述する第1及び第2のデータベースも記憶し得る。代替的に、第1及び第2のデータベースは、個別のメモリ(例えば、リモートサーバ)に記憶されてもよく、例えば、インターネットなどの電気通信ネットワーク及びコンピュータ上の対応するネットワークインターフェースを通じてコンピュータによってアクセス可能であってもよい。
好ましくは、定性的特徴は健康状態の識別である。他の実施形態において、定性的特徴は、女性らしさ、性別、魅力度又は他の自信の推定であってもよい。
方法により構築されるツールはまた、コンピュータによっても実行される。それは人間の顔の画像を入力として受信し、評価される定性的特徴を示すスコアを出力する。
図5に示すように、方法により構築されるツールは、人間の顔の画像を処理して特徴を抽出するように構成されたニューラルネットワーク、及び抽出された特徴を処理して所望のスコアを出力するように構成された推定器を備える。
先に示したように、ニューラルネットワークは、識別される健康状態スコアに関連付けられた顔画像を備えるデータベースなどの過小なデータベースにおいてはトレーニングされることができず、そのようなデータベースは多くても数百枚の画像及びそれぞれのスコアしか備えない。
この問題を回避するには、図1において、方法は第1のデータベースの初期ニューラルネットワークをトレーニングする第1のステップ100を備え、第1のデータベースは人間の顔の画像を備え、各画像が画像に示された人物の年齢に関連している。このデータベースは、好ましくは、少なくとも10,000枚の画像及び関連する年齢、さらに好ましくは、少なくとも約100,000枚の画像及び関連する年齢を備える。
初期ニューラルネットワークは、人間の顔の画像から、画像に示された人物の推定年齢を出力するように構成されたネットワークである。この目的のため、図2に概略的に示すように、初期ニューラルネットワークは、画像から一連の特徴を抽出するように適合された特徴抽出部分FPと、入力として抽出された特徴を受信するとともに推定年齢を出力する年齢評価部分EPとを備える。
当業者には周知のように、初期ニューラルネットワークはニューロンのレイヤを備え、各ニューロンは、他のレイヤによる他のニューロンに接続され、その入力を処理するのに重み付けを用いる。
図2に概略的に示すように、初期ニューラルネットワークの特徴抽出部分FPは多数のブロックを備え得るものであり、各ブロックは、入力画像にフィルタ処理を実行するように適合された少なくとも1つの畳み込みレイヤ、及びプーリングレイヤを備える。
好ましいが限定的でない実施形態によると、初期ニューラルネットワークは、VGG−16ニューラルネットワークであってもよい。このニューラルネットワークは、対象の分類に用いられる直ちに利用可能なネットワークである。さらにより好ましくは、初期ニューラルネットワークはVGG−16ニューラルネットワークの変形バージョンであってもよく、変形は年齢評価部分においてニューロンが減少している。したがって、学習努力は年齢評価部分ではなく特徴抽出部分に着目しているので、初期ニューラルネットワークは、この部分が次のステップでは除去されることになるので、過剰に評価部分EPを用いることが防止される。
トレーニングするステップ100は、第1のデータベースにおいて初期ニューラルネットワークの、エポックとしても知られる複数のトレーニングセッションを実行するステップを備え、各トレーニングセッションは、ネットワークのニューロンの重み付けの変形、及び初期ニューラルネットワークの更新バージョンの出力を備える。
上記で示された例において、変形VGG−16ネットワークは、エポック当たり10ステップ(すなわち、10回の学習反復、各学習反復はニューロン重み付けの変形を暗示する)の600エポックにおける10−4の学習レートの確率的勾配降下法によりトレーニング可能である。
図3に、トレーニングセッション(又はエポック)の数に従って、初期ニューラルネットワークトレーニングのセット及び検証セットにおける平均絶対誤差をそれぞれ示す。図3の曲線は、平滑化されている。
平均絶対誤差は、トレーニングセッション数とともに減少することが分かる。しかしながら、初期ニューラルネットワークは年齢の推定のためにトレーニングされるので、非常に重要な学習は、このネットワークの特異性を高くし、定性的特徴を示すスコアを出力する所望のアプリケーションに対する関連性を低下させ得る。
したがって、図1において、方法は、初期ニューラルネットワークの各更新バージョンに対して、すなわち、重み付け係数がトレーニングセッション後に更新された初期ニューラルネットワークの各バージョンについて、定性的特徴の推定における前記更新された初期ニューラルネットワークの一部分の誤差を評価するステップ200を備える。
一実施形態において、このステップは各トレーニングセッションの後に実行されてもよく、それによりステップ100及び200は交互に反復して実行される。他の実施形態において、各トレーニングセッション後の重み付け係数は、すべてのトレーニングセッションに対して記憶され、そして、各誤差評価に対して読み込まれる。その場合に、ステップ100はすべてのトレーニングセッションに対して1回実行され、ステップ200もステップ100の後に1回実行される。
更新された初期ニューラルネットワークの前記部分は、好ましくは、前述の特徴抽出部分である。
評価ステップは、評価されるニューラルネットワークの一部分の出力において、ニューラルネットワークの部分によって抽出された特徴から評価される定性的特徴を示すスコアを出力する推定器を追加することによって実行される。好ましい実施形態において、推定器は線形回帰である。
線形回帰は、評価される定性的特徴を示すスコアに関連付けられた顔画像を備える第2のデータベースにおいてトレーニングされる。このデータベースにおいて、スコアは、通常、レーティング部のグループによって提供されている。したがって、この第2のデータベースは、第1のものよりも小さなサイズのものであり、百又は数百枚までの画像及び関連スコアしか備えないこともある。
この非常に小さなサイズの第2のデータベースを仮定すると、線形回帰はk−分割交差検証によってトレーニングされ、ここでkは、Nをデータベースにおける画像の枚数として2〜Nの間で選択される。例えば、130枚の画像のデータベースでは、kは20と等しくてもよい。
したがって、ステップ200は、第2のデータベースを概ね同じサイズのk個のサブセットに分割するステップと、そして、トレーニングセッションの後に得られる初期ニューラルネットワークの各更新バージョンに対して、k個のサブセットの各々について、
−サブセットを選択するステップと、
−サブセットに含まれていない第2のデータベースの各画像について、初期ニューラルネットワークの部分を適用することによって特徴のそれぞれのセットを抽出するステップと、
−画像から抽出された特徴の各セットと画像に関連したスコアとの間の回帰関数を決定するステップと、
−サブセットの各画像について、特徴のセットを抽出するように初期ニューラルネットワークの前記部分を適用するステップと、
−推定スコアを推測するように特徴の各セットに回帰関数を適用するステップと、
−各推定スコアと画像に関連する対応するスコアとの間の全体の誤差を計算するステップとを備える。
初期ニューラルネットワークの各更新バージョンについてステップ200で出力される誤差は、k個のサブセットの各々について計算された誤差に基づいて計算される。例えば、それは、k個のサブセットの各々について計算されたすべての誤差の平均絶対誤差である。
図4には、各トレーニングセッションについて平均絶対誤差が示され、他の曲線は平滑化された平均絶対誤差である例を示す。
平滑化された平均絶対誤差の曲線は、初期ニューラルネットワークをトレーニングするステップ100とともに減少し始めてから再度増加し、重要な多数のトレーニングセッション後について、初期ニューラルネットワークは年齢の推定のタスクに非常に特異的となることに気付くはずである。
そして、方法は、定性的特徴を評価するためのツールのニューラルネットワークとして、ステップ200で最低誤差を示す更新バージョンにおける初期ニューラルネットワークの部分(例えば、特徴抽出部分)を選択するステップ300を備える。言い換えると、ステップ300は、定性的特徴の評価に最小誤差をもたらす重み付け係数で初期ニューラルネットワークの部分を選択することを備える。
図4に示す例において、選択されるバージョンは、約410番目のトレーニングセッション又はエポックである。
ツールのニューラルネットワークNが決定されると、その後方法は、ニューラルネットワークNによって抽出される特徴から、評価される定性的特徴を示すスコアを推測するように最良の推定器を決定するステップ400を備える。
このステップ400は、推定器によって出力されるスコアとデータベースの各画像に指定されたスコアとの間の平均絶対誤差を各推定器について推測するように、第2のデータベースにおいて複数の候補推定器をk’−分割交差検証によってトレーニングするステップ410によって実行される。このステップの間、k’は、好ましくは、ステップ200において用いられたkに等しい。したがって、k’は、例えば、kと同じであってもよい。そして、ステップ400は、最低平均絶対誤差を示す候補推定器を選定するステップ420を備える。
候補推定器は、線形回帰、リッジ回帰、ラッソ回帰などを備え得る。それらはまた、異なるパラメータを有する同じタイプの回帰のいくつかのバージョンも備え得る。それらはまた、抽出された特徴からスコアを出力するように構成された他のニューラルネットワークも備え得る。
以下の表1に一例を詳述す。ここで、3つの候補推定器は、健康状態スコアが注釈された130枚の画像を備える第2のデータベースにおいてテストされている。最良の推定器はα=10−3によるリッジ回帰であり、αはL正規化に対するペナルティ係数であることが分かる。
第2のデータベースにおける非常に少ない枚数(例えば、130枚)の画像によって、リッジ回帰の線形回帰などの単純な推定器がニューラルネットワークなどのより複雑な推定器よりも性能が優れることとなることが強調される。
図5を参照すると、方法によって得られるツールは、顔画像から特徴を抽出するように構成されたニューラルネットワークNである第1のブロック、及びニューラルネットワークによって抽出される特徴から定性的特徴を示すスコアを出力するように構成された推定器Eである第2のブロックを備える。
このツールがあれば、識別される健康状態又は他の定性的特徴のスコアを取得するために数十のレーティング部によって閲覧される画像を有する必要はなくなる。代わりに、ツールによって画像を処理するステップ及びスコアを出力するステップしか必要とならない。
比較結果を図6a及び6bに示す。図6aは、白人レーティング部のセットによる白人女性の画像からの健康状態の評価の結果を示す。横座標には画像による平均スコアを示し、縦座標には各レーティング部によって与えられる個々のスコアを示す。したがって、この図面は、レーティング部の平均に対する単一レーティング部の性能を示す。この場合における決定係数R2は−0.387であり、ピアソン相関係数は64.7%のものである。
図6bは、レーティング部による平均健康状態スコアと比較した(縦軸における)ツールの予測を示す。そして、決定係数はR2=0.722であり、ピアソン相関係数は85.1%である。したがって、上記によって与えられる方法により展開されるツールは、人間のレーティング部よりも高い精度を発揮しそうである。
さらに、このツールによって、顔画像及び対応するスコアのデータベースが強化され得る。
データベースに既に存在する顔画像は、例えば、1枚の画像から目を、他の画像から鼻などを選出することによって、新たな顔画像を構築するのに用いられてもよい。そして、ツールは、識別される健康状態又は他の定性的特徴の対応するスコアを推測するように、新たに作成された画像上で稼働されてもよく、画像及び対応するスコアがデータベースに追加されてもよい。
したがって、より大きなデータベースが、さらなる研究に利用可能となり得る。

Claims (12)

  1. 人間の顔の画像の処理から、前記顔の定性的特徴を示すスコアを決定するように適合されたツールを構築するための方法であって、前記ツールはニューラルネットワーク(N)を備え、
    前記方法は、コンピュータによって実行され、
    −人物の顔の画像から、前記人物の推定年齢を評価するように構成された初期ニューラルネットワークの少なくとも1つのトレーニングセッションを実行するステップ(100)であって、前記初期ニューラルネットワークは、顔の画像から特徴を抽出するように構成された特徴抽出部分(FP)及び前記抽出された特徴から推定年齢を出力するように構成された年齢評価部分(EP)を備え、前記初期ニューラルネットワークはニューロン及び関連する重み付けのレイヤを備え、各トレーニングセッションは各顔画像が前記画像上の前記人物の生物学的年齢に関連付けられた顔画像の第1のデータベースにおいて実行され、各トレーニングセッションは重み付けが変化した前記ニューラルネットワークの更新バージョンを出力する、ステップ(100)と、
    −トレーニングセッションに対応する前記初期ニューラルネットワークの各更新バージョンについて、各顔画像が前記定性的特徴を示す参照スコアに関連付けられた顔画像の第2のデータベースにおける前記初期ニューラルネットワークの前記特徴抽出部分(FP)の誤差を評価するステップ(200)であって、前記第2のデータベースが前記第1のデータベースよりも下位のサイズを有する、ステップ(200)と、
    −前記更新バージョンのすべてから評価される前記誤差について最小の評価誤差に対応する前記更新バージョンにおける前記初期ニューラルネットワークの前記特徴抽出部分(FP)を前記ツールの前記ニューラルネットワーク(N)として選択するステップ(300)と
    を備える前記方法。
  2. 前記誤差を評価するステップ(200)が、顔画像に対する前記初期ニューラルネットワークの前記特徴抽出部分(FP)の出力と前記画像に関連する前記スコアとの間の線形回帰をトレーニングするステップを備える、請求項1に記載の方法。
  3. 前記線形回帰をトレーニングするステップが、k−分割交差検証によって実行される、請求項2に記載の方法。
  4. kが2〜Nからなり、Nが前記第2のデータベースにおける画像の枚数である、請求項3に記載の方法。
  5. 前記ツールの前記ニューラルネットワークが選択されると、複数の推定器候補の中から、推定器であって該推定器によって推定されるスコアと前記第2のデータベースの各画像についての前記対応する参照スコアとの間の平均誤差を最小化する推定器を選択するステップ(420)をさらに備える請求項1〜4のいずれかに記載の方法。
  6. 各推定器候補がk’−分割構成でトレーニングされる(410)、請求項5に記載の方法。
  7. 前記推定器候補が、線形回帰、リッジ回帰、ラッソ回帰又はニューラルネットワークのうちの少なくとも1つを備える、請求項5又は6に記載の方法。
  8. 前記定性的特徴が、以下の、健康状態の推定、魅力度の推定、性別の推定、自信の推定及び女性らしさの推定のうちの1つである、請求項1〜7のいずれかに記載の方法。
  9. プロセッサによって実行された場合に、請求項1〜8のいずれかに記載の方法を実行するための命令のセットを備えるコンピュータプログラム製品。
  10. 人間の顔の画像からの定性的特徴の評価のためのツールであって、前記画像を処理して特徴を抽出するように適合されたニューラルネットワーク(N)と、前記抽出された特徴から前記定性的特徴を示すスコアを推測するように適合された推定器(E)とを備え、請求項1〜8のいずれかに記載の方法によって構築されることを特徴とする前記ツール。
  11. 人間の顔の画像から定性的特徴を評価するためのコンピュータ実行方法であって、前記定性的特徴を示すスコアを出力するように請求項10に記載のツールを前記画像に適用することを備えた前記方法。
  12. 前記画像が前記第2のデータベースの画像の部分から構築される顔画像であり、
    前記方法が、前記画像及び対応するスコアを前記第2のデータベースに追加するステップをさらに備える、請求項11に記載の方法。
JP2019033496A 2018-02-28 2019-02-27 顔画像からの定性的特徴を評価するコンピュータ実行ツールを構築する方法 Expired - Fee Related JP6750055B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18305211.7A EP3534296A1 (en) 2018-02-28 2018-02-28 A method for building a computer-implemented tool for assessment of qualitative features from face images
EP18305211.7 2018-02-28

Publications (2)

Publication Number Publication Date
JP2019169139A JP2019169139A (ja) 2019-10-03
JP6750055B2 true JP6750055B2 (ja) 2020-09-02

Family

ID=61683726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019033496A Expired - Fee Related JP6750055B2 (ja) 2018-02-28 2019-02-27 顔画像からの定性的特徴を評価するコンピュータ実行ツールを構築する方法

Country Status (4)

Country Link
US (1) US10956716B2 (ja)
EP (1) EP3534296A1 (ja)
JP (1) JP6750055B2 (ja)
KR (1) KR102190325B1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332037B2 (ja) * 2020-03-31 2023-08-23 日本電気株式会社 表示制御装置、方法及びプログラム
CN111401339B (zh) * 2020-06-01 2020-09-29 北京金山云网络技术有限公司 识别人脸图像中的人的年龄的方法、装置及电子设备
US20210390414A1 (en) * 2020-06-10 2021-12-16 Nvidia Corporation Accelerated training for neural network models
CN111898543B (zh) * 2020-07-31 2022-06-07 武汉大学 一种融合几何感知与图像理解的建筑物自动提取方法
CN112086198B (zh) * 2020-09-17 2023-09-26 西安交通大学口腔医院 一种基于深度学习技术建立年龄评估模型的系统及方法
EP4343628A1 (en) * 2022-09-22 2024-03-27 Siemens Aktiengesellschaft Method and system for validating cleanliness of machine parts in an industrial plant

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4511850B2 (ja) 2004-03-03 2010-07-28 学校法人早稲田大学 人物属性識別方法およびそのシステム
JP2009172181A (ja) 2008-01-25 2009-08-06 Seiko Epson Corp 健康診断方法、および健康診断装置
JP2010033474A (ja) * 2008-07-31 2010-02-12 Omron Corp 属性別人数集計装置、属性別人数集計方法、および属性別人数集計システム
KR101105435B1 (ko) * 2009-04-14 2012-01-17 경북대학교 산학협력단 얼굴 검출과 얼굴 인지 방법
US8582807B2 (en) * 2010-03-15 2013-11-12 Nec Laboratories America, Inc. Systems and methods for determining personal characteristics
US10482333B1 (en) * 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US10869626B2 (en) * 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
JP5571633B2 (ja) 2011-08-31 2014-08-13 東芝テック株式会社 健康度報知装置、プログラム及び健康度報知方法
KR101805716B1 (ko) * 2011-09-21 2017-12-07 현대모비스 주식회사 얼굴인식형 운전자 인증 장치 및 방법
US11195057B2 (en) * 2014-03-18 2021-12-07 Z Advanced Computing, Inc. System and method for extremely efficient image and pattern recognition and artificial intelligence platform
KR20150072463A (ko) 2013-12-11 2015-06-30 한국 한의학 연구원 안면 영상을 이용하는 건강 상태 판단 장치 및 건강 상태 판단 방법
EP2919142B1 (en) 2014-03-14 2023-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing health status information
US10198626B2 (en) * 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
US10565433B2 (en) 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
KR102339915B1 (ko) * 2017-05-31 2021-12-17 더 프록터 앤드 갬블 캄파니 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법
US20190172458A1 (en) * 2017-12-01 2019-06-06 Affectiva, Inc. Speech analysis for cross-language mental state identification

Also Published As

Publication number Publication date
JP2019169139A (ja) 2019-10-03
US20190266386A1 (en) 2019-08-29
EP3534296A1 (en) 2019-09-04
KR102190325B1 (ko) 2020-12-11
US10956716B2 (en) 2021-03-23
KR20190109710A (ko) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6750055B2 (ja) 顔画像からの定性的特徴を評価するコンピュータ実行ツールを構築する方法
CN110334843B (zh) 一种时变注意力改进Bi-LSTM的住院就医行为预测方法及装置
Leite et al. Active Testing Strategy to Predict the Best Classification Algorithm via Sampling and Metalearning.
CN110852755B (zh) 针对交易场景的用户身份识别方法和装置
CN111784121B (zh) 基于不确定性分数分布学习的动作质量评价方法
CN106127594B (zh) 基于主成分分析的用户房间兴趣度计算方法及系统
CN110111885B (zh) 属性预测方法、装置、计算机设备及计算机可读存储介质
Qiao et al. Using machine learning approaches for emergency room visit prediction based on electronic health record data
JP4254892B1 (ja) 特徴量候補作成装置および特徴量候補作成方法
JP5764942B2 (ja) 情報照合装置、情報照合システム、情報照合方法および情報照合プログラム
JP2020534622A5 (ja)
CN111861667A (zh) 车辆推荐方法及装置、电子设备、存储介质
KR101729283B1 (ko) 목표 달성 진단 장치 및 진단 방법
CN112836750A (zh) 一种系统资源分配方法、装置及设备
KR102405900B1 (ko) 시간 변동성 기반의 질환 연관성 요인 분석을 통한 질환 발병 정보 생성 장치 및 그 방법
CN113868597B (zh) 一种用于年龄估计的回归公平性度量方法
CN115968478A (zh) 机器学习特征推荐
KR101781174B1 (ko) 설문 기반 체질 판단 방법 및 장치
JP7435821B2 (ja) 学習装置、心理状態系列予測装置、学習方法、心理状態系列予測方法、及びプログラム
US20230259820A1 (en) Smart selection to prioritize data collection and annotation based on clinical metrics
KR102399833B1 (ko) 인공 신경망 기반의 로그 라인을 이용한 시놉시스 제작 서비스 제공 장치 및 그 방법
EP4084013A1 (en) Circulatory system assessment
JP7444252B2 (ja) 診断支援プログラム、装置、及び方法
CN111539536B (zh) 一种评估业务模型超参数的方法和装置
JP6033724B2 (ja) 画像表示システム、サーバ、および診断画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200812

R150 Certificate of patent or registration of utility model

Ref document number: 6750055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees