JP2022002003A - 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム - Google Patents

顔構造推定装置、顔構造推定方法、および顔構造推定プログラム Download PDF

Info

Publication number
JP2022002003A
JP2022002003A JP2020106439A JP2020106439A JP2022002003A JP 2022002003 A JP2022002003 A JP 2022002003A JP 2020106439 A JP2020106439 A JP 2020106439A JP 2020106439 A JP2020106439 A JP 2020106439A JP 2022002003 A JP2022002003 A JP 2022002003A
Authority
JP
Japan
Prior art keywords
face
face image
face structure
estimation
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020106439A
Other languages
English (en)
Other versions
JP7345435B2 (ja
Inventor
ジェチョル キム
Jaechul Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020106439A priority Critical patent/JP7345435B2/ja
Priority to CN202180043887.0A priority patent/CN115917591A/zh
Priority to US18/000,487 priority patent/US20230215016A1/en
Priority to PCT/JP2021/021273 priority patent/WO2021256288A1/ja
Priority to EP21826406.7A priority patent/EP4170586A4/en
Publication of JP2022002003A publication Critical patent/JP2022002003A/ja
Application granted granted Critical
Publication of JP7345435B2 publication Critical patent/JP7345435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7792Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】アノテーションコストの増加を低減させながら顔画像に基づく顔構造の推定精度を向上させる。【解決手段】顔構造推定装置10は取得部11と制御部13とを有する。取得部11は顔画像を取得する。制御部13は推定部16として機能する。推定部16は顔画像に基づき顔構造を推定する。制御部13は顔構造を構成する開始特徴点を当該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡する。制御部13は追跡した特徴点をもとのフレームの顔画像において所定のアルゴリズムで追跡することにより結果特徴点を求める。制御部13は結果特徴点と開始特徴点との間隔が閾値会である顔画像を学習用に選別する。制御部13は推定部を学習用に選別した顔画像と当該顔画像に基づき推定部16に推定させた顔構造とを用いて学習させる。【選択図】図1

Description

本発明は、顔構造推定装置、顔構造推定方法、および顔構造推定プログラムに関するものである。
例えば、眠気のある乗員に対して休息を促したり、自動運転に移行するなど、車内の運転手の状態に応じて、多様な機能を実行させる装置などが検討されている。このような装置においては、乗員の状態を簡易に認識することが求められている。乗員のように人の状態は、状態に応じた顔構造を推定することにより把握することが検討されている。例えば、深層学習により、顔画像から顔構造を推定することが知られている(特許文献1参照)。
国際公開2019−176994号
深層学習を用いた顔画像に基づいて推定する顔構造の精度の向上には、多量の学習データそれぞれに正解ラベルを付けて学習させる教師あり学習を行うことが考えられる。しかし、多量の学習データそれぞれに正解ラベルを付けるには、アノテーションコストの増加を招く。
従って、上記のような従来技術の問題点に鑑みてなされた本開示の目的は、アノテーションコストの増加を低減させながら、顔画像に基づく顔構造の推定の精度を向上する顔構造推定装置、顔構造推定方法、および顔構造推定プログラムを提供することにある。
上述した諸課題を解決すべく、第1の観点による顔構造推定装置は、
顔画像を取得する取得部と、
前記顔画像の顔構造を出力する制御部と、を備え、
前記制御部は、
前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
前記顔構造を構成する開始特徴点を、該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる。
第2の観点による顔構造推定方法は、
顔画像を取得する取得工程と、
前記顔画像の顔構造を出力する出力工程と、を備え、
前記出力工程は、
前記取得工程において取得した顔画像に基づき該顔画像の顔構造を推定する推定工程と、
前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別する選別工程と、
学習用に選別した顔画像と、該顔画像に基づき該推定工程に推定させた顔構造とを用いて前記推定工程を学習させる学習工程と、を含む。
第3の観点による顔構造推定プログラムは、
コンピュータを、
顔画像を取得する取得部と、
前記顔画像の顔構造を出力する制御部と、として機能させ、
前記制御部は、
前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる。
上記のように構成された本開示に係る顔構造推定装置、顔構造推定方法、および顔構造推定プログラムによれば、アノテーションコストの増加を低減させながら、顔画像に基づく顔構造の推定精度が向上する。
本実施形態に係る顔構造推定装置の概略構成を示すブロック図である。 図1の推定部を一次的に構築するための学習を説明する概念図である。 図1の推定部による顔構造とラベル付き顔構造に基づく、正解となる妥当性の算出方法を説明する概念図である。 図1の評価部を構築するための学習を説明する概念図である。 結果特徴点の推定方法および結果特徴点と開始特徴点との関係を説明するための図である。 図1の推定部を二次的に構築するための学習を説明する概念図である。 図1の制御部が実行する構築処理を説明するためのフローチャートである。
以下、本開示を適用した顔構造推定装置の実施形態について、図面を参照して説明する。なお、以下の本開示を適用した顔構造推定装置の実施形態の説明は、本開示を適用した顔構造推定方法および顔構造推定プログラムの実施形態の説明を兼ねる。
本開示の一実施形態に係る顔構造推定装置は、例えば、移動体に設けられる。移動体は、例えば車両、船舶、および航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、およびタンカー等を含んでよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。
図1に示すように、本開示の一実施形態に係る顔構造推定装置10は、取得部11、メモリ12、および制御部13を含んで構成される。
取得部11は、例えば、カメラ14が撮像した乗員の顔の画像である顔画像を取得する。なお、カメラ14は、例えば、運転席などの移動体の特定の位置にいる乗員の顔周辺を撮像可能な位置に取付けられる。また、カメラ14は、例えば、30fpsで顔画像を撮像する。
メモリ12は、例えば、RAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスを含む。メモリ12は、制御部13を機能させる多様なプログラム、および制御部13が用いる多様な情報を記憶する。
制御部13は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field−Programmable Gate Array)を含んでよい。制御部13は、1つまたは複数のプロセッサが協働するSoC(System−on−a−Chip)、およびSiP(System In a Package)のいずれかであってもよい。制御部13は、顔構造推定装置10の各構成要素の動作を制御する。
制御部13は、取得部11が取得した顔画像の顔構造を外部機器15に出力する。顔構造は、人の状態に応じて変化する表情などを特定する特徴であって、例えば、特徴点の集合体である。特徴点は、例えば、顎先などのように顔の輪郭上において定義づけられる点、目頭および目じりのように目の輪郭上において定義づけられる点、鼻尖から鼻根までの鼻梁において定義づけられる点などである。制御部13による顔構造の出力について、以下に詳細に説明する。制御部13は、推定部16、および評価部17として機能する。
推定部16は、取得部11が取得した顔画像に基づき、当該顔画像の構造を推定する。推定部16が推定した顔構造が、制御部13から出力される。推定部16は、例えば、多層構造のニューラルネットワークにより構成されている。推定部16は、後述するように、教師あり学習を実施することにより構築される。
評価部17は、推定部16が推定する顔構造の妥当性を算出する。評価部17は、後述するように、推定部16を学習させるために用いる閾値を、妥当性に基づいて変化させる。評価部17は、例えば、多層構造のニューラルネットワークにより構成されている。評価部17は、後述するように、教師あり学習を実施することにより構築される。
以下に、推定部16および評価部17の教師あり学習について説明する。推定部16および評価部17の構築には、顔構造推定装置10の製造時に、教師あり学習が実行される。なお、推定部16および評価部17の構築は、単一の顔構造推定装置10に対して行われ、他の顔構造推定装置10には推定部16および評価部17を構築するためのデータが記憶されてよい。
推定部16および評価部17の構築について、以下に説明する。機械学習による推定部16および評価部17の構築には、顔画像、および当該顔画像に対するラベル付き顔構造の複数の組が用いられる。ラベル付き顔構造は、顔画像に対する正解である顔構造である。ラベル付き顔構造は、例えば、前述のような定義に基づいて、人の判断により作成される。
図2に示すように、一次的な推定部16aは、ラベル付き顔構造lFSを顔画像FIに対する正解として用いて、教師あり学習を行うことにより構築される。図3に示すように、構築された一次的な汎用推定部18は、当該複数の組CB1に含まれる顔画像FIから顔構造gFSを推定する。
制御部13は、推定された顔構造gFSの妥当性を、顔構造gFSの推定に用いた顔画像FIに対応するラベル付き顔構造lFSを用いて算出する。妥当性は、推定された顔構造gFSのラベル付き顔構造lFSとの一致性であり、例えば、推定された顔構造gFSを構成する点とラベル付き顔構造lFSを構成する点との距離が大きくなるほど低く、ゼロに近づくほど高くなるように算出される。
図4に示すように、顔画像FI、ラベル付き顔構造lFS、および妥当性の複数の組CB2が評価部17の構築に用いられる。妥当性を顔画像FIおよびラベル付き顔構造lFSの正解として用いて、教師あり学習を行うことにより評価部17aが構築される。
一次的な推定部16aに対してさらに機械学習が進められる。なお、一次的な推定部16aに対するさらなる機械学習は、製造時に限定されず、使用時に行われもてよい。一次的な推定部16aのさらなる機械学習には、ラベル付き顔構造lFSのない、単なる顔画像FIが用いられる。さらなる機械学習に用いる顔画像FIは、以下のように選別される。
さらなる機械学習に用いる顔画像FIの選別のために、同一の人物に対して、例えば、30fpsなどの速度で撮像された複数のフレームの顔画像FIが用いられる。本実施形態においては、例えば、4フレームの顔画像FIが用いられる。一次的な推定部16aは、複数のフレームの顔画像FIの中で最初のフレームの顔画像FIに基づいて、当該顔画像FIの顔構造gFSを推定する。
図5に示すように、制御部13は、推定された顔構造gFSを構成する各特徴点を、開始特徴点sFPとして、当該フレーム以後の顔画像FIにおいて、いずこの位置に移動したかを、所定の追跡アルゴリズムを用いて推定する。所定の追跡アルゴリズムは、例えば、勾配法、さらに具体的にはLucas−Kaneda法である。
制御部13は、複数のフレームにおいて順番に、開始特徴点sFPを追跡して、追跡した特徴点tFPの位置を算出する。制御部13は、最後のフレームの顔画像FIにおける追跡した特徴点tFPの位置の算出後、当該フレーム以前の顔画像FIにおいていずこの位置に移動したかを、同じ所定の追跡アルゴリズムを用いて推定する。制御部13は、複数のフレームにおいて順番に、最後のフレームにおける追跡した特徴点tFPを追跡して、最初のフレームの顔画像FIにおける結果特徴点gFPの位置を算出する。
制御部13は、開始特徴点sFPおよび結果特徴点gFPの間隔を算出する。制御部13は、算出した間隔を閾値と比較する。閾値は、前述のように、妥当性に基づいて変化させてよい。評価部17は、複数のフレームの顔画像FIの中の少なくとも1つの顔画像FIに基づいて、妥当性を推定してよい。制御部13は、妥当性が高くなるほど、小さくなるように閾値を定めてよい。制御部13は、算出した間隔が閾値以下である場合、複数のフレームの顔画像FIの少なくともいずれかを、さらなる機械学習に用いる顔画像FIとして選別する。なお、顔構造gFSを構成する複数の特徴点毎に間隔が算出され、複数の間隔の平均値、中央値、最大値など代表値と閾値が比較されてよい。
制御部13は、選別した顔画像FIに基づいて推定部16により推定された顔構造gFSを、疑似的なラベル付き顔構造vlFSとして、当該顔画像FIと組合せる。制御部13は、選別した顔画像FIに基づく顔構造gFSの開始特徴点sFPおよび結果特徴点gFPを平均させた点、言換えると中点によって構成される顔構造を、疑似的なラベル付き顔構造vlFSとして、当該顔画像FIと組合せてもよい。真のラベル付き顔構造lFSのある顔画像FIよりも多数の顔画像FIを用いて顔構造gFSの推定が行われ、疑似的なラベル付き顔構造vlFSと顔画像FIの組CB3が生成される。
図6に示すように、顔画像FIおよび疑似的なラベル付き顔構造vlFSの複数の組CB3を用いて、一次的な推定部16aに対して教師あり学習が進められ、二次的な推定部16bが構築される。当該二次的な推定部16bを構成するためのデータが生成され、制御部13は当該データに基づいて推定部16として機能する。
次に、本実施形態の製造時において制御部13が実行する、構築処理について、図7のフローチャートを用いて説明する。構築処理は、例えば、顔画像FIおよびラベル付き顔構造lFSの複数の組CB1と、同一の人物に対して撮像された複数のフレームの顔画像FIとを顔構造推定装置10に供給可能な状態で、構築を開始する操作入力を制御部13が認識するときに開始する。
ステップS100において、制御部13は、真のラベル付き顔構造lFSを正解として用いて顔画像FIの教師あり学習を実行する。教師あり学習の実行後、プロセスはステップS101に進む。
ステップS101では、制御部13は、ステップS100における教師あり学習により構築される、一次的な推定部16aを構成するためのデータをメモリ12に格納する。格納後、プロセスはステップS102に進む。
ステップS102では、制御部13は、顔画像FIに基づく顔構造gFSを、ステップS101において構築した一次的な推定部16aに推定させる。さらに、制御部13は、推定した顔構造gFSとラベル付き顔構造lFSを用いて妥当性を算出する。算出後、プロセスはステップS103に進む。
ステップS103において、制御部13は、ステップS102において算出した妥当性を正解として用いて顔画像FIおよびラベル付き顔構造lFSの教師あり学習を実行する。教師あり学習の実行後、プロセスはステップS104に進む。
ステップS104では、制御部13は、ステップS103における教師あり学習により構築される、評価部17を構成するためのデータをメモリ12に格納する。格納後、プロセスはステップS105に進む。
ステップS105では、制御部13は、同一の人物別の複数のフレームの顔画像FIを読出す。読出し後、プロセスはステップS106に進む。
ステップS106では、制御部13は、ステップS105において読出した複数のフレームの顔画像FIの中で最初のフレームの顔画像FIの顔構造gFSを、ステップS101において構築した一次的な推定部16aに推定させる。さらに、制御部13は、当該顔画像FIおよび顔構造gFSに対する妥当性を、評価部17に推定させる。推定後、プロセスはステップS107に進む
ステップS107では、制御部13は、ステップS106において推定した妥当性に基づいて閾値を決定する。決定後、プロセスはステップS108に進む
ステップS108では、ステップS106において推定した顔構造gFSを構成する特徴点を開始特徴点sFPとして顔画像FIにおける位置を算出する。さらに、制御部13は、開始特徴点sFPの、以後のフレームにおける移動位置を所定の追跡アルゴリズムを用いて推定する。さらに、制御部13は、追跡した特徴点tFPの、最初のフレームの顔画像FIにおける移動位置を所定の追跡アルゴリズムを用いて推定することにより、結果特徴点gFPの位置を推定する。さらに、制御部13は、開始特徴点sFPと結果特徴点gFPとの間隔を算出する。算出後、プロセスはステップS109に進む。
ステップS109では、制御部13は、ステップS108において算出した間隔が、ステップS107において決定した閾値以下であるか否かを判別する。閾値以下である場合、プロセスはステップS110に進む。閾値以上でない場合、プロセスはステップS111に進む。
ステップS110では、制御部13は、ステップS105において読出した複数のフレームの顔画像FIの少なくとも1フレームと、当該フレームの顔画像FIに対して推定した顔構造gFSとを組合せる。制御部13は、当該フレームの顔画像FIに対して推定した顔構造gFSの代わりに、当該フレームの顔画像FIに対してステップS108において推定した開始特徴点sFPおよび結果特徴点gFPの中点によって構成される顔構造を当該顔画像FIに組合せてもよい。組合せ後、プロセスはステップS112に進む。
ステップS111では、制御部13は、ステップS105において読出した複数のフレームの顔画像FIを廃棄する。廃棄後、プロセスはステップS112に進む。
ステップS112では、制御部13は、顔画像FIおよび顔構造gFSの組CB3が十分に蓄積されているか否かを判別する。十分に蓄積されているか否かは、例えば、組CB3の数が閾値を超えるか否かによって判別されてよい。十分に蓄積されていない場合、プロセスはステップS105に戻る。十分に蓄積されている場合、プロセスはステップS113に進む。
ステップS113では、制御部13は、ステップS101において構築された一次的な推定部16aに対して、組CB3における顔構造gFSを疑似的なラベル付き顔構造vlFSとする正解として、顔画像FIの教師あり学習を進める。教師あり学習の実行後、プロセスはステップS114に進む。
ステップS114では、制御部13は、ステップS113における教師あり学習により構築される、二次的な推定部16bを構成するためのデータをメモリ12に格納する。格納後、構築処理は終了する。
以上のような構成の本実施形態の顔構造推定装置10は、顔構造gFSを構成する開始特徴点sFPを、当該顔構造gFSの推定に用いた顔画像FIのフレーム以後のフレームの顔画像FIにおいて所定の追跡アルゴリズムで追跡する。さらに、顔構造推定装置10は、追跡した特徴点tFPを元のフレームの顔画像FIにおいて所定の追跡アルゴリズムで追跡することにより求めた結果特徴点gFPと開始特徴点sFPとの間隔が閾値以下である顔画像FIを学習用に選別する。一般的に、追跡アルゴリズムでは、追跡対象の領域における輝度値などの値と、周囲の領域の値との差異が大きくなるほど、追跡精度が向上する。したがって、上述のような構成の顔構造推定装置10では、開始特徴点sFPと結果特徴点gFPとの間隔が閾値以下である顔画像FIを選別するので、周囲との差異の大きな特徴点により構成される顔構造gFSが推定される顔画像FIが、推定部16の学習に用いられる。周囲との差異が大きな特徴点により構成される顔構造gFSは、当該顔構造gFSの推定に用いる顔画像FIに対して作成したと仮想したラベル付き顔構造lFSとの差異が小さい傾向がある。また、顔構造推定装置10は、学習用に選別した顔画像FIと当該顔画像FIに基づき推定部16に推定された顔構造gFSとを用いて推定部16を学習させる。したがって、顔構造推定装置10は、顔画像FIに基づく顔構造gFSの推定精度を向上し得る。また、顔構造推定装置10は、正解ラベルの付与付けをすることなく多数の学習データを生成するのでアノテーションコストの増加を低減し得る。
また、本実施形態の顔構造推定装置10は、推定部16が推定する顔構造gFSの妥当性を推定し、当該妥当性に基づいて閾値を変化させる。周囲との差異が大きな特徴点により構成される顔構造gFSと、当該顔構造gFSの推定に用いる顔画像FIに対して作成したものと仮想したラベル付き顔構造lFSとの差異は、必ず小さいわけではない。一方で推定による妥当性および顔構造gFSを構成する特徴点の周囲との差異のいずれかが大きければ、当該顔構造gFSとラベル付き顔構造lFSの差異は小さくなると考えられる。そこで、上述のような構成の顔構造推定装置10では、妥当性に基づいて閾値を変化させるので、推定による妥当性が低くても開始特徴点sFPと結果特徴点gFPとの間隔が小さな顔画像FI、および開始特徴点sFPと結果特徴点gFPとの間隔が大きくても推定による妥当性が大きな顔画像FIのいずれも推定部16の学習に用いるために選別され得る。したがって、顔構造推定装置10は、漏れを小さくするようにより多くの顔画像FIを、顔構造gFSの推定精度を高く維持させながら、選別し得る。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。
10 顔構造推定装置
11 取得部
12 メモリ
13 制御部
14 カメラ
15 外部機器
16 推定部
16a 一次的な推定部
16b 二次的な推定部
17 評価部
CB1 顔画像およびラベル付き顔構造の組
CB2 顔画像、ラベル付き顔構造、および妥当性の組
CB3 顔画像および疑似的なラベル付き顔構造の組
FI 顔画像
gFP 結果特徴点
gFS 推定された顔構造
lFS ラベル付き顔構造
sFP 開始特徴点
vlFS 疑似的なラベル付き顔構造

Claims (5)

  1. 顔画像を取得する取得部と、
    前記顔画像の顔構造を出力する制御部と、を備え、
    前記制御部は、
    前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
    前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
    前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる
    顔構造推定装置。
  2. 請求項1に記載の顔構造推定装置において、
    前記制御部は、前記推定部が推定する顔構造の妥当性を推定し、且つ該妥当性に基づいて前記閾値を変化させる評価部として機能する
    顔構造推定装置。
  3. 請求項1または2に記載の顔構造推定装置において、
    前記制御部は、前記推定部の学習に、学習用に選別した顔画像と、該顔画像に基づき前記推定部に推定させた顔構造を構成する前記開始特徴点および前記結果特徴点の中点によって構成される顔構造とを用いる
    顔構造推定装置。
  4. 顔画像を取得する取得工程と、
    前記顔画像の顔構造を出力する出力工程と、を備え、
    前記出力工程は、
    前記取得工程において取得した顔画像に基づき該顔画像の顔構造を推定する推定工程と、
    前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別する選別工程と、
    学習用に選別した顔画像と、該顔画像に基づき該推定工程に推定させた顔構造とを用いて前記推定工程を学習させる学習工程と、を含む
    顔構造推定方法。
  5. コンピュータを、
    顔画像を取得する取得部と、
    前記顔画像の顔構造を出力する制御部と、として機能させ、
    前記制御部は、
    前記取得部が取得した顔画像に基づき該顔画像の顔構造を推定する推定部として機能し、
    前記顔構造を構成する開始特徴点を該顔構造の推定に用いた顔画像のフレーム以後のフレームの顔画像において所定の追跡アルゴリズムで追跡し、追跡した特徴点を元のフレームの顔画像において所定の追跡アルゴリズムで追跡することにより求めた結果特徴点と前記開始特徴点との間隔が閾値以下である顔画像を学習用に選別し、
    前記推定部を、学習用に選別した顔画像と、該顔画像に基づき該推定部に推定させた顔構造とを用いて学習させる
    顔構造推定プログラム。
JP2020106439A 2020-06-19 2020-06-19 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム Active JP7345435B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020106439A JP7345435B2 (ja) 2020-06-19 2020-06-19 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
CN202180043887.0A CN115917591A (zh) 2020-06-19 2021-06-03 脸部构造推定装置、脸部构造推定方法以及脸部构造推定程序
US18/000,487 US20230215016A1 (en) 2020-06-19 2021-06-03 Facial structure estimating device, facial structure estimating method, and facial structure estimating program
PCT/JP2021/021273 WO2021256288A1 (ja) 2020-06-19 2021-06-03 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
EP21826406.7A EP4170586A4 (en) 2020-06-19 2021-06-03 FACIAL STRUCTURE ESTIMATION DEVICE, FACIAL STRUCTURE ESTIMATION METHOD, AND FACIAL STRUCTURE ESTIMATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020106439A JP7345435B2 (ja) 2020-06-19 2020-06-19 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム

Publications (2)

Publication Number Publication Date
JP2022002003A true JP2022002003A (ja) 2022-01-06
JP7345435B2 JP7345435B2 (ja) 2023-09-15

Family

ID=79244721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020106439A Active JP7345435B2 (ja) 2020-06-19 2020-06-19 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム

Country Status (5)

Country Link
US (1) US20230215016A1 (ja)
EP (1) EP4170586A4 (ja)
JP (1) JP7345435B2 (ja)
CN (1) CN115917591A (ja)
WO (1) WO2021256288A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5302730B2 (ja) 2009-03-25 2013-10-02 トヨタ自動車株式会社 運転者監視装置
CN109684901B (zh) * 2017-10-19 2023-06-06 富士通株式会社 图像处理装置和图像处理方法
JP6760318B2 (ja) 2018-03-14 2020-09-23 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム

Also Published As

Publication number Publication date
US20230215016A1 (en) 2023-07-06
WO2021256288A1 (ja) 2021-12-23
EP4170586A1 (en) 2023-04-26
JP7345435B2 (ja) 2023-09-15
EP4170586A4 (en) 2024-03-20
CN115917591A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
JP6704971B2 (ja) 自動車のブラインドスポットモニタリング方法及びこれを利用したブラインドスポットモニタ
CN109866778B (zh) 具有自动辅助的自主车辆操作
CN110588653B (zh) 自主车辆的控制系统、控制方法以及控制器
US11046307B2 (en) Parking control method and parking control device
CN113734153A (zh) 驻车支援装置及驻车支援装置的控制方法
WO2021256288A1 (ja) 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
US20220230474A1 (en) Activity identification method and apparatus
JP6971187B2 (ja) 画像処理装置、撮像装置、および移動体
JP7224550B2 (ja) 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
WO2021256289A1 (ja) 顔構造推定装置、顔構造推定方法、および顔構造推定プログラム
JP7465738B2 (ja) 電子機器、情報処理装置、覚醒度算出方法および覚醒度算出プログラム
US11345354B2 (en) Vehicle control device, vehicle control method and computer-readable medium containing program
JP7160867B2 (ja) 電子機器、情報処理装置、推定方法、および推定プログラム
JP4531366B2 (ja) 進入判定装置および進入判定方法
JP7433155B2 (ja) 電子機器、情報処理装置、推定方法、および推定プログラム
JP6665075B2 (ja) 画像処理装置、撮像装置、移動体、及び画像処理方法
JP2022088962A (ja) 電子機器、情報処理装置、集中度算出プログラム、及び集中度算出方法
CN113204234B (zh) 车辆控制方法与车用控制系统
JP2022088959A (ja) 電子機器、情報処理装置、集中度算出プログラム、集中度算出方法、コンピュータの学習方法
Lemeret et al. Simulator of obstacle detection and tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230905

R150 Certificate of patent or registration of utility model

Ref document number: 7345435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150