JP7119907B2 - 顔認識モデルの訓練方法及び訓練装置 - Google Patents

顔認識モデルの訓練方法及び訓練装置 Download PDF

Info

Publication number
JP7119907B2
JP7119907B2 JP2018203648A JP2018203648A JP7119907B2 JP 7119907 B2 JP7119907 B2 JP 7119907B2 JP 2018203648 A JP2018203648 A JP 2018203648A JP 2018203648 A JP2018203648 A JP 2018203648A JP 7119907 B2 JP7119907 B2 JP 7119907B2
Authority
JP
Japan
Prior art keywords
training data
data
glasses
training
spectacles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203648A
Other languages
English (en)
Other versions
JP2019087242A (ja
Inventor
ジャン・モン
リィウ・ルゥジエ
俊 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2019087242A publication Critical patent/JP2019087242A/ja
Application granted granted Critical
Publication of JP7119907B2 publication Critical patent/JP7119907B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、一般的に情報処理の技術分野に関し、具体的には、実際のシーンの眼鏡着用の割合と一致する訓練データを用いて顔認識モデルを訓練できる顔認識モデルの訓練方法及び訓練装置に関する。
近年、情報技術の発展に伴い、顔認識に基づくシステム及びアプリケーションが益々多くなっている。これは、大量の訓練データ及び畳み込みニューラルネットワーク(CNN)が役に立ったからである。しかし、眼鏡を着用する顔の画像に対する顔認識は大きな課題である。その主な原因は、顔認識モデルを訓練するための眼鏡着用の顔画像が不足することである。現在、オープンな顔データベースとして、例えばWebFaceやMS-Celeb-1M等のデータベースがある。しかし、これらのデータベースが主に有名人の画像データであり、通常有名人が眼鏡を着用する場合は少ないため、これらのデータベースにおける眼鏡着用の割合は一般の大衆の眼鏡着用の割合よりも低い。また、有名人がサングラスを着用する場合は多く、一般の大衆が近視眼鏡を着用することとは異なる。大量の眼鏡着用の顔のデータを収集するには、明らかに手間やリソースがかかる。
上記の問題点を解決するために、本発明は、訓練画像における眼鏡着用の割合が実際のシーンにおける眼鏡着用の割合に一致し、顔認識モデルの訓練に適するように、眼鏡着用の画像を生成する方法を提案している。
従って、本発明は、実際のシーンの眼鏡着用の割合と一致する訓練データを用いて顔認識モデルを訓練する顔認識モデルの訓練方法及び訓練装置を提供することを目的とする。
以下は、本発明の態様を基本的に理解させるために、本発明の簡単な概要を説明する。なお、この簡単な概要は、本発明を網羅的な概要ではなく、本発明のポイント又は重要な部分を意図的に特定するものではなく、本発明の範囲を意図的に限定するものではなく、後述するより詳細的な説明の前文として、単なる概念を簡単な形で説明することを目的とする。
本発明は、実際のシーンの眼鏡着用の割合と一致する訓練データを用いて顔認識モデルを訓練する顔認識モデルの訓練方法及び訓練装置を提供することを目的とする。
上記目的を達成するために、本発明の1つの態様では、実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、第4訓練データに基づいて、顔認識モデルを訓練するステップと、を含む、顔認識モデルの訓練方法を提供する。
本発明のもう1つの態様では、実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する除去手段と、第2実際シーンデータにおける眼鏡着用の割合の統計を取る統計手段と、顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する区分手段であって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、区分手段と、眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する眼鏡付加手段と、第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する割合調整手段と、第4訓練データに基づいて、顔認識モデルを訓練するモデル訓練手段と、を含む、顔認識モデルの訓練装置を提供する。
本発明のもう1つの態様では、機器が読み取り可能なプログラムコードを含む記憶媒体であって、前記プログラムコードが情報処理装置により実行される場合、前記情報処理装置に本発明の上記方法を実行させる、記憶媒体をさらに提供する。
また、本発明のもう1つの態様では、機器が実行可能な命令を含むプログラムプロダクトであって、前記命令が情報処理装置により実行される場合、前記情報処理装置に本発明の上記方法を実行させる、プログラムプロダクトをさらに提供する。
以下は、本発明の上記及び他の目的、特徴及び利点を理解させるために、図面を参照しながら本発明の実施例を説明する。図面における構成部は単なる本発明の原理を示すためのものである。図面において、同一又は類似の符号で同一又は類似の技術的特徴又は構成部を示している。
本発明の実施例に係る顔認識モデルの訓練方法を示すフローチャートである。 眼鏡着用の有無に基づいて元の訓練データにおける顔を含む画像を区分する方法を示すフローチャートである。 眼鏡着用の第3訓練データの生成方法を示す図である。 目を小さくする結合方法を示す図である。 本発明の実施例に係る顔認識モデルの訓練装置の構成を示すブロック図である。 本発明の実施例に係る方法及び装置を実施可能なコンピュータの例示的な構成を示すブロック図である。
以下は図面を参照しながら本発明の例示的な実施例を詳細に説明する。説明の便宜上、明細書には実際の実施形態の全ての特徴が示されていない。なお、実際に実施する際に、開発者の具体的な目標を実現するために、特定の実施形態を変更してもよい、例えばシステム及び業務に関する制限条件に応じて実施形態を変更してもよい。また、開発作業が非常に複雑であり、且つ時間がかかるが、本公開の当業者にとって、この開発作業は単なる例の作業である。
なお、本発明を明確にするために、図面には本発明の実施例に密に関連する装置の構成及び/又は処理のステップのみが示され、本発明と関係のない細部が省略されている。また、本発明の1つの図面又は1つの実施形態に説明されている要素及び特徴と1つ又は複数の他の図面又は実施形態に示されている要素及び特徴とを組み合わせてもよい。
以下は、図1を参照しながら本発明の実施例に係る顔認識モデルの訓練方法の流れを説明する。
図1は本発明の実施例に係る顔認識モデルの訓練方法を示すフローチャートである。図1に示すように、該方法は以下のステップを含む。実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する(ステップS1)。第2実際シーンデータにおける眼鏡着用の割合の統計を取る(ステップS2)。顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分し、ここで、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い(ステップS3)。眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する(ステップS4)。第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する(ステップS5)。第4訓練データに基づいて、顔認識モデルを訓練する(ステップS6)。
顔認識モデルの訓練は、顔モデルの認識精度、正確性に大きな影響を与える。また、顔認識モデルの訓練は、主に訓練データに依存する。上述したように、既存の顔認識モデルを用いて眼鏡着用の顔画像を認識し難い主な原因は、大量の眼鏡着用の訓練データが欠けていることである。実際には、異なる実際の応用シーンでは、眼鏡着用の割合が異なる。例えば、各会社のタイムレコーダは主に特定の会社の社員に適用され、各会社の眼鏡着用の人の割合が異なり、小学校、大学及び病院の眼鏡着用の人の割合も異なる。各実際の応用シーンについて、実際のシーンにおける眼鏡着用の割合と同一の眼鏡着用の割合を有する訓練データを用いて顔認識モデルを訓練し、該実際のシーンにおける該顔認識モデルの認識の正確率を向上させるものは求めている。
従って、まず、具体的な応用の実際のシーンにおける眼鏡着用の割合を知ることが必要である。
具体的な応用の実際のシーンから顔を含む画像を取得し、第1実際シーンデータを構成する。
画像データが眼鏡着用のものであるかを直接判断するという一般的な方法と異なって、本発明は判断の正確性を向上させるために前処理を行う。
目の隈及びサングラスが眼鏡着用の有無の判断に対して強い干渉効果を有するため、ステップS1において、第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する。第2実際シーンデータを用いる眼鏡着用の有無の判断はより正確である。
ステップS2において、第2実際シーンデータにおける眼鏡着用の割合の統計を取る。
例えば、訓練された分類器又は畳み込みニューラルネットワークを用いて、第2実際シーンデータにおける顔を含む画像が眼鏡着用のものであるか否かを判断し、統計を取り、第2実際シーンデータにおける眼鏡着用の割合を、具体的な応用の実際のシーンにおける眼鏡着用の割合として取得してもよい。これは、本発明の眼鏡着用の割合の調整の目標である。分類器又は畳み込みニューラルネットワークの訓練データは、例えば眼鏡着用有無のラベルが付けられている、顔を含む画像により構成されたラベル付き訓練データである。
ステップS3において、顔を含む画像からなる元の訓練データを、眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する。ここで、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い。
元の訓練データは、例えばインターネットから取得され、上述したように、例えばWebFaceやMS-Celeb-1Mデータベースから取得されてもよいし、人間により手動で取得されてもよい。元の訓練データにおける眼鏡着用の割合は常に第2実際シーンデータにおける眼鏡着用の割合よりも低いため、元の訓練データにおける眼鏡着用の割合を第2実際シーンデータにおける眼鏡着用の割合と同一の割合に調整するように、眼鏡着用の画像の数を増加させる必要がある。
まず、元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分し、そして、第2訓練データに眼鏡を付加することで眼鏡着用のデータ量を増加させる。元の訓練データにおける顔を含む画像が眼鏡着用のものであるか否かを正確に判断するために、図2に示すように、ステップS21において、元の訓練データにおける顔の位置を検出する。顔検出は顔認識の基礎であり、従来技術を用いてステップS21を実現してもよい。
ステップS22において、元の訓練データにおける顔を標準の顔に合わせる(例えば位置合わせする)。標準の顔は顔の標準テンプレートであり、標準の顔における目、口元の位置は固定されている。ステップS21において検出された顔を標準の顔に合わせることで、眼鏡着用の有無の判断の正確率を向上させることができる。合わせの技術は画像処理領域の既存技術である。
ステップS23において、訓練された畳み込みニューラルネットワーク又は分類器(例えば上記ステップS2において用いられる畳み込みニューラルネットワーク又は分類器)を用いて、合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する。
顔の位置を検出し、且つ標準の顔に合わせることで、元の訓練データにおける画像が眼鏡着用の有無の判断の正確率を向上させることができる。
以下は、眼鏡着用のデータ量を増加させる必要があり、増加の基礎は眼鏡非着用の第2訓練データである。
ステップS4において、眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する。
眼鏡データは、予め準備されたデータであり、フラットレンズ眼鏡、近視眼鏡、遠視眼鏡、サングラス等の各タイプの眼鏡、及び異なるフレームやレンズの形状、フレームの太さ、レンズの色等を含む。眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含む。特徴点情報は、眼鏡の形状構造を示すものであり、眼鏡画像は、眼鏡を付加する時に重ね合わせられる内容であり、レンズ情報は、レンズとフレームとの境界を示すものである。分割アルゴリズムにより既存の眼鏡を眼鏡フレームと眼鏡レンズとに分割し、レンズ情報を取得することができる。
図3に示すように、眼鏡着用の第3訓練データの生成方法は下記のステップS31~S34を含む。既存の眼鏡タイプから眼鏡タイプをランダムに選択する(ステップS31)。選択された眼鏡タイプに対応する眼鏡画像をランダムに変更する(ステップS32)。第2訓練データにおける目の近傍の特徴点情報を認識する(ステップS33)。ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得する(ステップS34)。
ステップS31において、既存の眼鏡タイプから眼鏡タイプをランダムに選択する。即ち、例えば近視眼鏡、フレームやレンズの形状、フレームの太さ、レンズの色等のあるタイプの眼鏡データを選択し、対応する特徴点情報は眼鏡の形状構造を示すものであり、結合に用いられ、対応する眼鏡画像は、フレームやレンズの形状、フレームの太さ、レンズの色等を示すものであり、レンズ情報はレンズとフレームとの境界を示すものであり、後続の近視眼鏡に対する拡大/縮小処理に用いられる。
ステップS32において、選択された眼鏡タイプに対応する眼鏡画像をランダムに変更する。
データベースにおける既存の眼鏡タイプに含まれるデータ量は限られている。しかし、眼鏡データの各方面の順列及び組み合わせは多様である。従って、選択された眼鏡タイプに対応する眼鏡画像をランダムに変更することで、顔認識モジュールをより好適に訓練するための眼鏡の種類を増加させることができる。
具体的には、眼鏡画像における眼鏡フレームを置き換えてもよく、眼鏡フレームは既存のタイプの眼鏡フレームに限定され、特定の形状、太さ、色等を含む。また、眼鏡フレームの太さをランダムに変更してもよく、即ち所定の合理的な範囲内で眼鏡フレームの太さを太くし、或いは細くしてもよい。また、眼鏡フレームの形状をランダムに変更してもよく、即ち既存の眼鏡フレームの太さ、色を維持したまま、その形状のみを変更する。また、眼鏡レンズの色をランダムに変更してもよい。色は、データベースにおける既存の眼鏡レンズの色に限定されず、人間の目が認識できる各種の色であってもよい。
ステップS33において、第2訓練データにおける目の近傍の特徴点情報を認識する。顔特徴点検出アルゴリズム(Facial landmark Detection Algorithm)は68個の顔特徴点を検出できる。目の近傍の約9個の特徴点のデータを用いて、眼鏡を適切な場所に付加することができる。
ステップS34において、ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得する。
眼鏡画像の特徴点情報及び目の近傍の特徴点情報を用いて、第2訓練データの顔画像とランダムに選択され、且つランダムに変更された眼鏡画像とを結合することができ、眼鏡付加の効果を実現できる。アフィン変換は、当業者にとって周知の技術であり、ここでその説明を省略する。
特に、選択された眼鏡が近視眼鏡である場合、近視眼鏡が凹レンズであることを考慮すれば、目が小さく見えるため、以下の特別の処理を用いて、第2訓練データにおける顔画像内の目の大きさを縮小する。
具体的には、図4に示すように、まず、ステップS41において、ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定する。結合領域は、眼鏡画像と結合するための領域であり、レンズ領域は、眼鏡画像におけるレンズの所在する領域と結合するための領域、即ち結合領域におけるレンズに対応する領域である。
ステップS42において、第2訓練データにおける顔画像から、目の周辺の、レンズ領域よりも大きい元の画像を抽出し、この部分の元の画像をレンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせる。重ね合わせ結果は、貼り付けデータと称される。
ステップS43において、第2訓練データにおける顔画像内の結合領域における元のデータを貼り付けデータに置き換える。
貼り付けデータにおける元の画像の部分は目を含み、且つ第2訓練データにおける顔画像内の元のデータよりも小さくなるため、目が小さく見える効果を達成できる。
このように、ステップS4において、眼鏡着用の第3訓練データを生成した。眼鏡着用の第3訓練データを用いることで、最終的に得られた訓練データにおける眼鏡着用の割合が実際の応用シーンにおける眼鏡着用の割合に一致するように、元の訓練データにおける眼鏡着用の割合を高くすることができる。
ステップS5において、第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する。
例えば、追加された第4訓練データにおける眼鏡着用の割合が第2実際シーンデータにおける眼鏡着用の割合に等しくなるまで、第3訓練データから適切な量のデータを選択し、元の訓練データに追加してもよい。
本発明の方法により得られた第4訓練データにおける眼鏡着用の割合は実際の応用シーンにおける眼鏡着用の割合に一致し、眼鏡の種類は豊富である。
ステップS6において、第4訓練データに基づいて、顔認識モデルを訓練する。
第4訓練データにおける眼鏡着用の割合は実際の応用シーンにおける眼鏡着用の割合に非常に一致するため、顔認識モデルの訓練効果は良く、訓練された顔認識モデルの認識の正確率は高い。
以下は、図5を参照しながら本発明の実施例に係る顔認識モデルの訓練装置を説明する。
図5は本発明の実施例に係る顔認識モデルの訓練装置の構成を示すブロック図である。図5に示すように、本発明の実施例に係る顔認識モデルの訓練装置500は、除去部51、統計部52、区分部53、眼鏡付加部54、割合調整部55及びモデル訓練部56を含む。除去部51は、実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する。統計部52は、第2実際シーンデータにおける眼鏡着用の割合の統計を取る。区分部53は、顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する。ここで、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い。眼鏡付加部54は、眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する。割合調整部55は、第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する。モデル訓練部56は、第4訓練データに基づいて、顔認識モデルを訓練する。
1つの実施例では、区分部53は、元の訓練データにおける顔の位置を検出する検出部と、元の訓練データにおける顔を標準の顔に合わせる合わせ部と、合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分する深層畳み込みニューラルネットワーク又は分類器と、を含む。
1つの実施例では、眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、特徴点情報は、眼鏡の形状構造を示すものであり、レンズ情報は、レンズとフレームとの境界を示すものである。
1つの実施例では、眼鏡付加部54は、既存の眼鏡タイプから眼鏡タイプをランダムに選択するタイプ選択部と、選択された眼鏡タイプに対応する眼鏡画像をランダムに変更する画像変更部と、第2訓練データにおける目の近傍の特徴点情報を認識する認識部と、ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得する結合部と、を含む。
1つの実施例では、画像変更部は、既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、眼鏡フレームの太さをランダムに変更すること、眼鏡フレームの形状をランダムに変更すること、及び眼鏡レンズの色をランダムに変更することのうち少なくとも1つを行う。
1つの実施例では、選択された眼鏡タイプが近視眼鏡である場合、結合部は、ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定し、第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得し、結合領域における元のデータを貼り付けデータに置き換える。
1つの実施例では、元の訓練データはインターネットから取得され、或いは人間により手動で取得される。
本発明の顔認識モデルの訓練装置500における各部の処理は上述した方法における各ステップの処理と類似するため、説明の便宜上、ここでこれらの処理の詳細な説明を省略する。
なお、上記装置における各構成部、ユニットはソフトウェア、ファームウェア、ハードウェア又はこれらの組み合わせにより構成されてもよい。構成に用いられる具体的な手段及び方法は当業者にとって周知であるため、ここでその説明を省略する。ソフトウェア又はファームウェアにより実施されている場合、記憶媒体又はネットワークから専用のハードウェア構成を有するコンピュータ(例えば図6示されている汎用コンピュータ600)に上記方法を実施するためのソフトウェアを構成するプログラムをインストールしてもよく、該コンピュータは各種のプログラムがインストールされている場合は各種の機能などを実行できる。
図6は本発明の実施例に係る方法及び装置を実施可能なコンピュータの例示的な構成を示すブロック図である。
図6において、中央処理部(即ちCPU)601は、読み出し専用メモリ(ROM)602に記憶されているプログラム、又は記憶部608からランダムアクセスメモリ(RAM)603にロードされたプログラムにより各種の処理を実行する。RAM603には、必要に応じて、CPU601が各種の処理を実行するに必要なデータが記憶されている。CPU601、ROM602、及びRAM603は、バス604を介して互いに接続されている。入力/出力インターフェース605もバス604に接続されている。
入力部606(キーボード、マウスなどを含む)、出力部607(ディスプレイ、例えばブラウン管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカなどを含む)、記憶部608(例えばハードディスクなどを含む)、通信部609(例えばネットワークのインタフェースカード、例えばLANカード、モデムなどを含む)は、入力/出力インターフェース605に接続されている。通信部609は、ネットワーク、例えばインターネットを介して通信処理を実行する。必要に応じて、ドライブ部610は、入力/出力インターフェース605に接続されてもよい。取り外し可能な媒体611は、例えば磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどであり、必要に応じてドライブ部610にセットアップされて、その中から読みだされたコンピュータプログラムは必要に応じて記憶部608にインストールされている。
ソフトウェアにより上記処理を実施する場合、ネットワーク、例えばインターネット、又は記憶媒体、例えば取り外し可能な媒体611を介してソフトウェアを構成するプログラムをインストールする。
なお、これらの記憶媒体は、図6に示されている、プログラムを記憶し、機器と分離してユーザへプログラムを提供する取り外し可能な媒体611に限定されない。取り外し可能な媒体611は、例えば磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(光ディスク-読み出し専用メモリ(CD-ROM)、及びデジタル多目的ディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標))及び半導体メモリを含む。或いは、記憶媒体は、ROM602、記憶部608に含まれるハードディスクなどであってもよく、プログラムを記憶し、それらを含む機器と共にユーザへ提供される。
本発明は、機器が読み取り可能な命令コードを記憶したプログラムプロダクトをさらに提供する。該命令コードが機器により読み取られ、実行される際に、上記本発明の実施例に係る方法を実行できる。
それに応じて、本発明は、機器が読み取り可能な命令コードを記憶したプログラムプロダクトが記録されている記憶媒体をさらに提供する。該記憶媒体は、フロッピーディスク、光ディスク、光磁気ディスク、メモリカード、メモリスティック等を含むが、これらに限定されない。
上記本発明の具体的な実施例の説明では、1つの実施形態における説明及び/又は特徴は同一又は類似の方式で他の1つ又は複数の実施形態において用いられてもよいし、他の実施形態における特徴と組み合わせてもよいし、他の実施形態における特徴を置き換えてもよい。
なお、用語「含む」又は「有する」は本明細書において特徴、要素、ステップ又は構成の存在を意味し、他の特徴、要素、ステップ又は構成の存在又は付加を排除することではない。
また、本発明の方法は、明細書に説明された時間的順序で実行するものに限定されず、他の時間的順序で順次、並行、又は独立して実行されてもよい。このため、本明細書に説明された方法の実行順序は、本発明の技術的な範囲を限定するものではない。
以上は図面を参照しながら本発明の好ましい実施例を説明しているが、上記実施例及び例は例示的なものであり、制限的なものではない。当業者は、特許請求の範囲の主旨及び範囲内で本発明に対して各種の修正、改良、均等的なものに変更してもよい。これらの修正、改良又は均等的なものに変更することは本発明の保護範囲に含まれるものである。
また、上述の各実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
第4訓練データに基づいて、顔認識モデルを訓練するステップと、を含む、顔認識モデルの訓練方法。
(付記2)
前記元の訓練データを第1訓練データと第2訓練データとに区分するステップは、
元の訓練データにおける顔の位置を検出するステップと、
元の訓練データにおける顔を標準の顔に合わせるステップと、
深層畳み込みニューラルネットワーク又は分類器を用いて、合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分するステップと、を含む、付記1に記載の顔認識モデルの訓練方法。
(付記3)
眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、
特徴点情報は、眼鏡の形状構造を示すものであり、
レンズ情報は、レンズとフレームとの境界を示すものである、付記1に記載の顔認識モデルの訓練方法。
(付記4)
前記眼鏡データ及び第2訓練データに基づいて眼鏡着用の第3訓練データを生成するステップは、
既存の眼鏡タイプから眼鏡タイプをランダムに選択するステップと、
選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップと、
第2訓練データにおける目の近傍の特徴点情報を認識するステップと、
ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得するステップと、を含む、付記3に記載の顔認識モデルの訓練方法。
(付記5)
前記選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップは、
既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、
眼鏡フレームの太さをランダムに変更すること、
眼鏡フレームの形状をランダムに変更すること、及び
眼鏡レンズの色をランダムに変更することのうち少なくとも1つを含む、付記4に記載の顔認識モデルの訓練方法。
(付記6)
前記選択された眼鏡タイプが近視眼鏡である場合、前記第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合するステップは、
ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定するステップと、
第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得するステップと、
結合領域における元のデータを貼り付けデータに置き換えるステップと、を含む、付記4に記載の顔認識モデルの訓練方法。
(付記7)
元の訓練データはインターネットから取得され、或いは人間により手動で取得される、付記1に記載の顔認識モデルの訓練方法。
(付記8)
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する除去手段と、
第2実際シーンデータにおける眼鏡着用の割合の統計を取る統計手段と、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する区分手段であって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、区分手段と、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する眼鏡付加手段と、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する割合調整手段と、
第4訓練データに基づいて、顔認識モデルを訓練するモデル訓練手段と、を含む、顔認識モデルの訓練装置。
(付記9)
前記区分手段は、
元の訓練データにおける顔の位置を検出する検出手段と、
元の訓練データにおける顔を標準の顔に合わせる合わせ手段と、
合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分する深層畳み込みニューラルネットワーク又は分類器と、を含む、付記8に記載の顔認識モデルの訓練装置。
(付記10)
眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、
特徴点情報は、眼鏡の形状構造を示すものであり、
レンズ情報は、レンズとフレームとの境界を示すものである、付記8に記載の顔認識モデルの訓練装置。
(付記11)
前記眼鏡付加手段は、
既存の眼鏡タイプから眼鏡タイプをランダムに選択するタイプ選択手段と、
選択された眼鏡タイプに対応する眼鏡画像をランダムに変更する画像変更手段と、
第2訓練データにおける目の近傍の特徴点情報を認識する認識手段と、
ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得する結合手段と、を含む、付記10に記載の顔認識モデルの訓練装置。
(付記12)
前記画像変更手段は、
既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、
眼鏡フレームの太さをランダムに変更すること、
眼鏡フレームの形状をランダムに変更すること、及び
眼鏡レンズの色をランダムに変更することのうち少なくとも1つを行う、付記11に記載の顔認識モデルの訓練装置。
(付記13)
前記選択された眼鏡タイプが近視眼鏡である場合、前記結合手段は、
ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定し、
第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得し、
結合領域における元のデータを貼り付けデータに置き換える、付記11に記載の顔認識モデルの訓練装置。
(付記14)
元の訓練データはインターネットから取得され、或いは人間により手動で取得される、付記8に記載の顔認識モデルの訓練装置。
(付記15)
プログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記プログラムが情報処理装置により実行された場合、前記情報処理装置に、
実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
第4訓練データに基づいて、顔認識モデルを訓練するステップと、を実行させる、コンピュータ読み取り可能な記憶媒体。

Claims (10)

  1. 実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
    第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
    顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
    眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
    第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
    第4訓練データに基づいて、顔認識モデルを訓練するステップと、を含む、顔認識モデルの訓練方法。
  2. 前記元の訓練データを第1訓練データと第2訓練データとに区分するステップは、
    元の訓練データにおける顔の位置を検出するステップと、
    元の訓練データにおける顔を標準の顔に合わせるステップと、
    深層畳み込みニューラルネットワーク又は分類器を用いて、合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分するステップと、を含む、請求項1に記載の顔認識モデルの訓練方法。
  3. 眼鏡データは、各タイプの眼鏡の特徴点情報、眼鏡画像、レンズ情報を含み、
    特徴点情報は、眼鏡の形状構造を示すものであり、
    レンズ情報は、レンズとフレームとの境界を示すものである、請求項1に記載の顔認識モデルの訓練方法。
  4. 前記眼鏡データ及び第2訓練データに基づいて眼鏡着用の第3訓練データを生成するステップは、
    既存の眼鏡タイプから眼鏡タイプをランダムに選択するステップと、
    選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップと、
    第2訓練データにおける目の近傍の特徴点情報を認識するステップと、
    ランダムに変更された眼鏡画像に対応する特徴点情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合し、第3訓練データを取得するステップと、を含む、請求項3に記載の顔認識モデルの訓練方法。
  5. 前記選択された眼鏡タイプに対応する眼鏡画像をランダムに変更するステップは、
    既存のタイプの眼鏡フレームをランダムに選択し、眼鏡画像における眼鏡フレームを置き換えること、
    眼鏡フレームの太さをランダムに変更すること、
    眼鏡フレームの形状をランダムに変更すること、及び
    眼鏡レンズの色をランダムに変更することのうち少なくとも1つを含む、請求項4に記載の顔認識モデルの訓練方法。
  6. 前記選択された眼鏡タイプが近視眼鏡である場合、前記第2訓練データにおける顔を含む画像とランダムに変更された眼鏡画像とを結合するステップは、
    ランダムに変更された眼鏡画像に対応する特徴点情報、レンズ情報及び認識された目の近傍の特徴点情報に基づいて、アフィン変換により、認識された目の周辺の結合領域及びレンズ領域を決定するステップと、
    第2訓練データにおける顔を含む画像における目の周辺の、レンズ領域よりも大きい領域を画像から抽出し、レンズ領域と同一のサイズに拡大/縮小し、拡大/縮小の結果とランダムに変更された眼鏡画像とを重ね合わせ、貼り付けデータを取得するステップと、
    結合領域における元のデータを貼り付けデータに置き換えるステップと、を含む、請求項4に記載の顔認識モデルの訓練方法。
  7. 元の訓練データはインターネットから取得され、或いは人間により手動で取得される、請求項1に記載の顔認識モデルの訓練方法。
  8. 実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得する除去手段と、
    第2実際シーンデータにおける眼鏡着用の割合の統計を取る統計手段と、
    顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分する区分手段であって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、区分手段と、
    眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成する眼鏡付加手段と、
    第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成する割合調整手段と、
    第4訓練データに基づいて、顔認識モデルを訓練するモデル訓練手段と、を含む、顔認識モデルの訓練装置。
  9. 前記区分手段は、
    元の訓練データにおける顔の位置を検出する検出手段と、
    元の訓練データにおける顔を標準の顔に合わせる合わせ手段と、
    合わせられた元の訓練データにおける顔が眼鏡を着用しているか否かを判断し、元の訓練データを第1訓練データと第2訓練データとに区分する深層畳み込みニューラルネットワーク又は分類器と、を含む、請求項8に記載の顔認識モデルの訓練装置。
  10. プログラムを記憶したコンピュータ読み取り可能な記憶媒体であって、前記プログラムが情報処理装置により実行された場合、前記情報処理装置に、
    実際のシーンから取得された、顔を含む画像からなる第1実際シーンデータから目の隈及びサングラスを除去し、第2実際シーンデータを取得するステップと、
    第2実際シーンデータにおける眼鏡着用の割合の統計を取るステップと、
    顔を含む画像からなる元の訓練データを眼鏡着用の第1訓練データと眼鏡非着用の第2訓練データとに区分するステップであって、元の訓練データにおける眼鏡着用の割合は第2実際シーンデータにおける眼鏡着用の割合よりも低い、ステップと、
    眼鏡データ及び第2訓練データに基づいて、眼鏡着用の第3訓練データを生成するステップと、
    第3訓練データ及び元の訓練データに基づいて、第2実際シーンデータにおける眼鏡着用の割合に等しい眼鏡着用の割合を有する第4訓練データを生成するステップと、
    第4訓練データに基づいて、顔認識モデルを訓練するステップと、を実行させる、コンピュータ読み取り可能な記憶媒体。
JP2018203648A 2017-11-03 2018-10-30 顔認識モデルの訓練方法及び訓練装置 Active JP7119907B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711070481.3 2017-11-03
CN201711070481.3A CN109753850B (zh) 2017-11-03 2017-11-03 面部识别模型的训练方法和训练设备

Publications (2)

Publication Number Publication Date
JP2019087242A JP2019087242A (ja) 2019-06-06
JP7119907B2 true JP7119907B2 (ja) 2022-08-17

Family

ID=66178992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203648A Active JP7119907B2 (ja) 2017-11-03 2018-10-30 顔認識モデルの訓練方法及び訓練装置

Country Status (4)

Country Link
US (1) US10769499B2 (ja)
JP (1) JP7119907B2 (ja)
CN (1) CN109753850B (ja)
DE (1) DE102018218767A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407912B (zh) * 2016-08-31 2019-04-02 腾讯科技(深圳)有限公司 一种人脸验证的方法及装置
CN110909654A (zh) * 2019-11-18 2020-03-24 深圳市商汤科技有限公司 训练图像的生成方法及装置、电子设备和存储介质
CN110991325A (zh) * 2019-11-29 2020-04-10 腾讯科技(深圳)有限公司 一种模型训练的方法、图像识别的方法以及相关装置
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN113435226B (zh) * 2020-03-23 2022-09-16 北京百度网讯科技有限公司 信息处理方法和装置
CN111488843A (zh) * 2020-04-16 2020-08-04 贵州安防工程技术研究中心有限公司 基于漏报与误报率分步骤抑制的人脸墨镜判别方法
CN111582068B (zh) * 2020-04-22 2023-07-07 北京交通大学 人员口罩佩戴状态检测方法
CN111582141B (zh) * 2020-04-30 2023-05-09 京东方科技集团股份有限公司 人脸识别模型训练方法、人脸识别方法及装置
CN116993929B (zh) * 2023-09-27 2024-01-16 北京大学深圳研究生院 基于人眼动态变化的三维人脸重建方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123053A (ja) 1998-10-12 2000-04-28 Hoya Corp 眼鏡装用シミュレーション方法
JP2009237669A (ja) 2008-03-26 2009-10-15 Ayonix Inc 顔認識装置
JP2009294955A (ja) 2008-06-05 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。
JP2015088095A (ja) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2017004512A (ja) 2015-06-11 2017-01-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236615B2 (en) * 2004-04-21 2007-06-26 Nec Laboratories America, Inc. Synergistic face detection and pose estimation with energy-based models
WO2007062478A1 (en) * 2005-11-30 2007-06-07 Seeing Machines Pty Ltd Visual tracking of eye glasses in visual head and eye tracking systems
US7657086B2 (en) * 2006-01-31 2010-02-02 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection using a nose ridge mask
CN101162502A (zh) * 2006-10-13 2008-04-16 上海银晨智能识别科技有限公司 一种人脸识别中的眼镜消除的方法
US8194938B2 (en) * 2009-06-02 2012-06-05 George Mason Intellectual Properties, Inc. Face authentication using recognition-by-parts, boosting, and transduction
US8472120B2 (en) * 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US8903198B2 (en) * 2011-06-03 2014-12-02 International Business Machines Corporation Image ranking based on attribute correlation
US8885893B1 (en) * 2011-11-22 2014-11-11 The United States Of America As Represented By The Secretary Of The Navy System and method for adaptive face recognition
WO2013079766A1 (en) * 2011-11-29 2013-06-06 Nokia Corporation Methods, apparatuses and computer program products for generating a new subspace representation for faces that improves discriminant analysis
US20170262472A1 (en) * 2014-11-24 2017-09-14 Isityou Ltd. Systems and methods for recognition of faces e.g. from mobile-device-generated images of faces
CN105184253B (zh) * 2015-09-01 2020-04-24 北京旷视科技有限公司 一种人脸识别方法和人脸识别系统
CN106570447B (zh) * 2015-12-16 2019-07-12 黄开竹 基于灰度直方图匹配的人脸照片太阳镜自动去除方法
CN106909870A (zh) * 2015-12-22 2017-06-30 中兴通讯股份有限公司 人脸图像的检索方法及装置
CN106407912B (zh) * 2016-08-31 2019-04-02 腾讯科技(深圳)有限公司 一种人脸验证的方法及装置
CN106778681B (zh) * 2017-01-11 2019-12-17 厦门中控智慧信息技术有限公司 一种人脸识别方法及人脸识别设备
CN107609481B (zh) * 2017-08-14 2020-11-20 百度在线网络技术(北京)有限公司 为人脸识别生成训练数据的方法、装置和计算机存储介质
CN107845062B (zh) * 2017-11-14 2021-08-17 北京小米移动软件有限公司 图像生成方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123053A (ja) 1998-10-12 2000-04-28 Hoya Corp 眼鏡装用シミュレーション方法
JP2009237669A (ja) 2008-03-26 2009-10-15 Ayonix Inc 顔認識装置
JP2009294955A (ja) 2008-06-05 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。
JP2015088095A (ja) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP2017004512A (ja) 2015-06-11 2017-01-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
DE102018218767A1 (de) 2019-05-09
CN109753850A (zh) 2019-05-14
US20190138854A1 (en) 2019-05-09
JP2019087242A (ja) 2019-06-06
US10769499B2 (en) 2020-09-08
CN109753850B (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
JP7119907B2 (ja) 顔認識モデルの訓練方法及び訓練装置
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
US11250241B2 (en) Face image processing methods and apparatuses, and electronic devices
Cheng et al. Fast and accurate online video object segmentation via tracking parts
CN105184253B (zh) 一种人脸识别方法和人脸识别系统
US9547908B1 (en) Feature mask determination for images
Liu et al. A new dataset and boundary-attention semantic segmentation for face parsing
CN103839223B (zh) 图像处理方法及装置
US20130243274A1 (en) Person Image Processing Apparatus and Person Image Processing Method
Zhang et al. Robust non-local TV-$ L^{1} $ optical flow estimation with occlusion detection
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
CN109711268B (zh) 一种人脸图像筛选方法及设备
CN110263603A (zh) 基于中心损失和残差视觉仿真网络的人脸识别方法及装置
Martinikorena et al. Fast and robust ellipse detection algorithm for head-mounted eye tracking systems
US20210390667A1 (en) Model generation
CN112633221A (zh) 一种人脸方向的检测方法及相关装置
Han et al. Two-stream neural networks for tampered face detection
JP2009294955A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。
Chen et al. Eyes localization algorithm based on prior MTCNN face detection
CN113468925B (zh) 一种遮挡人脸识别方法、智能终端及存储介质
Yüce et al. Improved local binary pattern based action unit detection using morphological and bilateral filters
CN111061914B (zh) 一种基于人脸识别技术选取特定人脸视频片段的方法
JP6244885B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN105760848A (zh) 一种基于环形模板卷积的瞳孔定位方法
Mostafa et al. Rejecting pseudo-faces using the likelihood of facial features and skin

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R150 Certificate of patent or registration of utility model

Ref document number: 7119907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150