JP2023053734A - 顔タイプ診断装置、顔タイプ診断方法及びプログラム - Google Patents

顔タイプ診断装置、顔タイプ診断方法及びプログラム Download PDF

Info

Publication number
JP2023053734A
JP2023053734A JP2021162949A JP2021162949A JP2023053734A JP 2023053734 A JP2023053734 A JP 2023053734A JP 2021162949 A JP2021162949 A JP 2021162949A JP 2021162949 A JP2021162949 A JP 2021162949A JP 2023053734 A JP2023053734 A JP 2023053734A
Authority
JP
Japan
Prior art keywords
face
face type
user
feature amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021162949A
Other languages
English (en)
Inventor
千枝 西
Chie Nishi
宏毅 田岡
Hiroki Taoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021162949A priority Critical patent/JP2023053734A/ja
Priority to PCT/JP2022/031806 priority patent/WO2023053784A1/ja
Publication of JP2023053734A publication Critical patent/JP2023053734A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】顔タイプの診断精度を向上させることができる顔タイプ診断装置、顔タイプ診断方法及びプログラムを提供する。【解決手段】顔タイプ診断装置は、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得する画像取得部と、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出する特徴量抽出部と、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定する顔タイプ判定部と、を有する。【選択図】図6

Description

本開示は、顔タイプ診断装置、顔タイプ診断方法及びプログラムに関する。
特許文献1には、顔特徴点を使用して顔タイプを診断する装置が開示されている。特許文献1に開示されている装置は、被験者の顔画像データから目、顔輪郭、額、顎等の特徴点の位置データを取得し、位置データに基づいて被験者の顔タイプを予め設定されている顔タイプに分類する。
特許第5484101号公報
しかしながら、特許文献1に開示されている従来技術では、ユーザの特定の表情から得られる特徴点に基づき顔形を診断しているため、総合的な顔の印象と診断結果との間に乖離が生じる。例えば、顔の表情が変化した場合も顔の印象は変化し得るが、従来技術ではこの変化を診断結果に反映することができず、ユーザの総合的な顔の印象に即した顔タイプを正確に診断できないという課題がある。
本開示の非限定的な実施例は、顔タイプの診断精度を向上させることができる顔タイプ診断装置、顔タイプ診断方法及びプログラムの提供に資する。
本開示の一実施例に係る顔タイプ診断装置は、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得する画像取得部と、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出する特徴量抽出部と、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定する顔タイプ判定部と、を有する。
本開示の一実施例に係る顔タイプ診断方法は、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得することと、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出することと、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定することと、を含む、コンピュータによって実行される。
本開示の一実施例に係るプログラムは、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得することと、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出することと、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定することと、をコンピュータに実行させる。
本開示の一実施例によれば、顔タイプの診断精度を向上させることができる顔タイプ診断装置、顔タイプ診断方法及びプログラムを提供できる。
本開示の実施の形態に係る顔タイプ診断装置100の概略図 顔タイプの一例を示す図 顔タイプが子供顔であるか大人顔であるかを判定する基準の一例を示す図 曲線的な印象を与える顔であるか直線的な印象を与える顔であるかを判定する基準の一例を示す図 顔タイプの判定に用いる特徴点の一例を示す図 顔タイプの判定に用いる特徴点の一例を示す図 顔タイプの判定に用いる特徴点の一例を示す図 顔タイプの判定に用いる特徴点の一例を示す図 顔タイプの判定に用いる特徴点の一例を示す図 本開示の実施の形態に係る顔タイプ診断装置100のハードウェア構成を示すブロック図 本開示の実施の形態に係る顔タイプ診断装置100の機能構成を示すブロック図 一定期間に検出される笑顔の頻度を加味した特徴量の算出例について説明するための図 本開示の実施の形態に係る顔タイプ診断処理を示すフローチャート 本開示の実施の形態に係る顔タイプ診断処理による顔タイプの判定結果の表示画面例を示す図
以下、図面を参照して本開示の実施の形態を説明する。図1は本開示の実施の形態に係る顔タイプ診断装置100の概略図である。
図1に示すように、顔タイプ診断装置100は、真顔画像及び笑顔画像を受信し、受信した真顔画像及び笑顔画像に基づき、人の顔の表情の変化を考慮した顔タイプを診断し、診断した顔を分類して、診断結果として出力する。真顔画像及び笑顔画像は、カメラで撮影されたユーザの顔の画像である。なお、以下の実施例では、真顔と笑顔との2つの表情に着目するが、本開示は、必ずしもこれらに限定される必要はなく、顔タイプ診断に応じた何れか異なる複数の表情に適用されてもよい。また、表情の数も2つには限定せず3つ以上であってもよい。ただし、一般的には、日常生活の中で怒りや悲しみなどの表情をすることは少ないため、怒り顔や悲しみ顔も踏まえた顔タイプ診断の結果が役に立つ状況は少ないと考えられる。そこで、本実施の形態では、日常生活で頻出する真顔と笑顔を対象にした顔タイプ分析を行う例を説明する。
顔タイプの診断は、例えばアパレル、メイク等の業界において商品の販売促進のために利用されうる。顔タイプの診断を行うことによって、顔画像に基づき分類された顔タイプに似合う商品をユーザに提案することができる。
顔タイプは、顔パーツの位置、大きさ、形状等から分析される顔の種類を表す。顔パーツは、個人ごとに形状、配置、色等の差異がある顔の部位である。顔パーツは、例えば、目、口、鼻、または眉等の固有の器官名を持つ部位であってもよいし、顔の縦幅や横幅、顎の先端の角度、顔の輪郭等の固有の器官名を持たない部位であってもよい。
(顔タイプの分類)
図2を参照して顔タイプについて説明する。図2は顔タイプの一例を示す図である。図2には、直交する縦軸及び横軸を座標軸とする直交座標系のグラフが示されている。
縦軸方向は、顔タイプが子供顔であるか大人顔であるかの傾向を表す。子供顔は、例えば、輪郭に丸みがあり、目や鼻等の顔パーツが輪郭に対して下寄り等の特徴を有しうる。大人顔は、例えば、輪郭が面長で、目や鼻等の顔パーツが輪郭に対して上寄り等の特徴を有しうる。顔タイプが子供顔であるか大人顔であるかを判定する基準の詳細は後述する。
横軸方向は、曲線的な印象を与える顔であるか直線的な印象を与える顔であるかの傾向を表す。曲線的な顔は、輪郭に骨格を感じさせず、顎に丸みがあり、目が丸形であり、唇が厚く、鼻筋が薄い等の特徴を有しうる。直線的な顔は、輪郭に骨格を感じさせ、目が細く切れ長で、唇が薄く、鼻筋が通る等の特徴を有しうる。曲線的な印象を与える顔であるか直線的な印象を与える顔であるかを判定する基準の詳細は後述する。
図3Aを参照して顔タイプが子供顔であるか大人顔であるかを判定する基準について説明する。図3Aは顔タイプが子供顔であるか大人顔であるかを判定する基準の一例を示す図である。
顔タイプが子供顔であるか大人顔であるかを判定するための項目は、例えば、顔型(輪郭)、目の位置、鼻の長さ、口の大きさ、目と唇の距離、目の間の距離等を含みうる。図3Aに示すように、これらの判定項目に所定の判定基準が対応付けられている。顔タイプ診断装置100は、図3Aに示す判定項目と判定基準が対応付けられているテーブルを参照することにより、顔タイプが子供顔であるか大人顔であるかを判定しうる。
例えば顔タイプ診断装置100は、顔の縦幅が横幅以下の場合、目の位置が顔の下寄り(顎側に位置する)場合、鼻の長さが所定の長さよりも短い場合、口の大きさが所定の大きさよりも小さい場合、目と唇の距離が所定の値よりも近い場合、目間の距離が所定の値よりも離れている場合などに、子供顔と判定しうる。他方、顔タイプ診断装置100は、顔の縦幅が横幅を超えている場合、目の位置が顔の上寄り(額側に位置する)場合、鼻の長さが所定の長さよりも長い場合、口の大きさが所定の大きさよりも大きい場合、目と唇の距離が所定の値よりも離れている場合、目間の距離が所定の値よりも近い場合などに、大人顔と判定しうる。
図3Bを参照して曲線的な印象を与える顔であるか直線的な印象を与える顔であるかを判定する基準について説明する。図3Bは曲線的な印象を与える顔であるか直線的な印象を与える顔であるかを判定する基準の一例を示す図である。
曲線的な印象を与える顔であるか直線的な印象を与える顔であるかを判定するための項目は、例えば、顔型(輪郭)、目の形、唇の厚み等を含みうる。図3Bに示すように、これらの判定項目に所定の判定基準が対応付けられている。顔タイプ診断装置100は、図3Bに示す判定項目と判定基準が対応付けられているテーブルを参照することにより、曲線的な印象を与える顔であるか直線的な印象を与える顔であるかを判定しうる。
例えば顔タイプ診断装置100は、顎に丸みがある場合、目の形が所定の形状に比べて丸い場合、唇の厚みが所定の幅よりも厚い場合などに、曲線的な印象を与える顔と判定しうる。他方、顔タイプ診断装置100は、顎がシャープである場合、目の形が所定の形状に比べて細い場合、唇の厚みが所定の幅よりも薄い場合などに、直線的な印象を与える顔と判定しうる。なお、顔タイプ診断装置100は、子供顔か大人顔かの判定や、曲線的か直線的かの判定を、複数の顔パーツの評価結果を統合して判定してもよいし、単一の顔パーツのみの評価結果に基づいて判定してもよい。また、複数の顔パーツの評価結果を統合して判定する場合は、例えば一部の顔パーツによれば大人顔だが、大半の顔パーツが子供顔である場合には、「大人顔寄りの子供顔」であると判定するなど、更に細分化した判定を行ってもよい。
このようにして、顔タイプ診断装置100は、図3A及び図3Bに示す判定基準に従って、顔タイプを4つのタイプに分類することができる。
具体的には、曲線的な子供顔の場合、顔タイプ診断装置100は、顔タイプを、明るい、可愛いらしい等の印象を与える「Cute」の領域に分類する(図2参照)。
直線的な子供顔の場合、顔タイプ診断装置100は、顔タイプを、元気、快活、ボーイッシュ等の印象を与える「Fresh」の領域に分類する。
直線的な大人顔の場合、顔タイプ診断装置100は、顔タイプを、洞察力が鋭い、凜として冷静等の印象を与える「Cool」の領域に分類する。
曲線的な大人顔の場合、顔タイプ診断装置100は、顔タイプを、洗練された印象を与える「Elegant」の領域に分類する。
これらの分類を行った顔タイプ診断装置100は、図2に示すように「Cute」、「Fresh」、「Cool」、「Elegant」等の4つの領域を表す画像を、ディスプレイ上の画面に表示し、当該画像に分類結果を示すアイコンをプロットすることで、ユーザの顔タイプを提供する。当該表示例の詳細は後述する。
(顔パーツの特徴点)
次に図4A~図4Eを参照して顔タイプの判定に用いる顔パーツの特徴点について説明する。図4A~図4Eは顔タイプの判定に用いる特徴点の一例を示す図である。
図4A及び図4Bには、顔の輪郭、目、口、鼻、眉等の顔パーツの特徴点が示されている。顔タイプ診断装置100は、顔画像から得られる特徴点に基づき、顔の縦幅D1が横幅D2以下であるか否か、また、顎の先端の角度が所定の角度以上であるか否かを判定しうる(図4A参照)。顔タイプ診断装置100は、特徴点に基づき、目から顎の下端までの幅D3と、目から額の中央までの幅D4とを比較することによって、目の位置を判定しうる(図4B参照)。顔タイプ診断装置100は、特徴点に基づき、目から唇までの距離D5が所定の距離よりも近いか否かを判定しうる(図4B参照)。
図4Cには目、眉等の特徴点が示されている。顔タイプ診断装置100は、特徴点に基づき、目の横幅D6に対する目の縦幅D7の比率が所定の値以上の場合、目が丸いと判定し、目の横幅D6に対する目の縦幅D7の比率が所定の値未満の場合、目が細いと判定しうる。また顔タイプ診断装置100は、特徴点に基づき、目間の距離D8が所定の値よりも離れているか否かを判定しうる。
図4D及び図4Eには鼻、口等の特徴点が示されている。顔タイプ診断装置100は、特徴点に基づき、鼻と口の間の距離D9に対する唇の幅D10の比率が所定の値以上の場合、唇が厚いと判定し、鼻と口の間の距離D9に対する唇の幅D10の比率が所定の値未満の場合、唇が薄いと判定しうる(図4D参照)。
顔タイプ診断装置100は、特徴点に基づき、鼻の横幅D11に対する口の横幅D12の比率が所定の値以上の場合、口が大きいと判定し、鼻の横幅D11に対する口の横幅D12の比率が所定の値未満の場合、口が小さいと判定しうる(図4E参照)。
次に図5を参照して、顔タイプ診断装置100のハードウェア構成例を説明する。図5は本開示の実施の形態に係る顔タイプ診断装置100のハードウェア構成を示すブロック図である。
顔タイプ診断装置100は、スマートフォン、タブレット、パーソナルコンピュータ等の計算装置によって実現され、例えば、図5に示されるようなハードウェア構成を有してもよい。すなわち、顔タイプ診断装置100は、バスBを介し相互接続される記憶装置101、プロセッサ102、ユーザインタフェース装置103及び通信装置104を有する。
顔タイプ診断装置100における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワーク等を介し何れかの外部装置からダウンロードされてもよいし、CD-ROM(Compact Disk-Read Only Memory)、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
記憶装置101は、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブ等によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。記憶装置101は、非一時的な記憶媒体(non-transitory storage medium)を含んでもよい。
プロセッサ102は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよく、記憶装置101に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータ等のデータ等に従って、後述される顔タイプ診断装置100の各種機能及び処理を実行する。
ユーザインタフェース装置103は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと顔タイプ診断装置100との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を操作し、顔タイプ診断装置100を操作する。
通信装置104は、外部装置、インターネット、LAN(Local Area Network)等の通信ネットワークとの通信処理を実行する各種通信回路により実現される。
しかしながら、上述したハードウェア構成は単なる一例であり、本開示による顔タイプ診断装置100は、他の何れか適切なハードウェア構成により実現されてもよい。例えば、顔タイプ診断装置100の備える各機能を複数のコンピュータで分散して実現してもよい。この場合、異なるコンピュータに備えられた機能間での情報の交換は、コンピュータを接続する通信網(LANやインターネット)を介して行う。
図6は本開示の実施の形態に係る顔タイプ診断装置100の機能構成を示すブロック図である。顔タイプ診断装置100は、画像取得部110、特徴量抽出部120、及び顔タイプ判定部130を備えている。
画像取得部110は、ユーザの第1の表情を撮像した第1の画像と、ユーザの第2の表情を撮像した第2の画像とを取得する。第1の表情は、例えばユーザの真顔であり、第2の表情は、例えばユーザの笑顔であってもよい。
具体的には、カメラがユーザの顔を撮像し、画像取得部110は、カメラで撮影されたユーザの顔の画像を取得する。顔タイプ診断装置100が取得する顔の画像は静止画像でもよいし動画像でもよい。カメラは、測定対象領域を撮像し、当該測定対象領域のRGB画像を生成する。例えば、カメラは、単眼カメラであってもよく、単眼のRGB画像を生成する。生成されたRGB画像は、画像取得部110にわたされる。
特徴量抽出部120は、第1の画像におけるユーザの顔パーツの第1の特徴量と、第2の画像におけるユーザの顔パーツの第2の特徴量とを抽出する。具体的には、特徴量抽出部120は、ユーザの真顔の画像と笑顔の画像のそれぞれから特徴点を抽出し、抽出した特徴点に基づいて、各判定項目に対応する顔パーツの特徴量を算出する。例えば、顔画像からの特徴点の抽出は、学習済み機械学習モデルにより行われてもよい。このような学習済み機械学習モデルは、何れか公知のものであってもよく、例えば、複数の学習用顔画像を教師データに用いて、学習用顔画像に含められる被験者の顔画像の特徴点を抽出するよう訓練されてもよい。
第1の特徴量は、例えば、ユーザの表情が真顔のときの上述したような顔型(輪郭)、目の形、唇の厚み、顎の形などの各顔パーツを表す特徴量である。第2の特徴量は、例えば、ユーザの表情が笑顔のときの上述したような顔型(輪郭)、目の形、唇の厚み、顎の形などの各顔パーツを表す特徴量である。なお、各顔パーツの特徴量は、以降の演算が適切なものとなるように正規化等によって適切にスケーリングされてもよい。
顔タイプ判定部130は、顔パーツ毎に設定される第1の重みと、各表情における顔パーツ毎に設定される第2の重みとに基づいて、第1の特徴量と第2の特徴量とに対して所定の演算を実行する。更に、顔タイプ判定部130は、演算結果と所定の判定基準とに基づいてユーザの顔タイプを判定する。
顔タイプ判定部130における処理の具体例を以下に説明する。ユーザの表情が真顔の場合、顔タイプ判定部130は、(1)式に示すように、表情が真顔の場合における顔パーツの特徴量(第1の特徴量)に、顔パーツ毎に設定される所定の重み(第1の重み)を付与し、更に、第1の特徴量に、表情が真顔の場合における顔パーツ毎に設定される所定の重み(第2の重みα)を付与する。顔タイプ判定部130は、これらの重みが付与された各顔パーツの特徴量を合算する。
真顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みα・・・(1)
ユーザの表情が笑顔の場合、顔タイプ判定部130は、(2)式に示すように、表情が笑顔の場合における顔パーツの特徴量(第2の特徴量)に、顔パーツ毎に設定される所定の重み(第1の重み)を付与し、更に、第1の特徴量に、表情が笑顔の場合における顔パーツ毎に設定される所定の重み(第2の重みβ)を付与する。顔タイプ判定部130は、これらの重みが付与された各顔パーツの特徴量を合算する。
笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ・・・(2)
顔タイプ判定部130は、(3)式に示すように、真顔のときの第2の重みαが付与された特徴量と、笑顔の場合の第2の重みβが付与された特徴量とを合算し平均を取る演算を実行する。
(真顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みα+笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ)/2・・・(3)
例えば、曲線/直線判定の場合、顔タイプ判定部130は、顔型、目の形及び唇の厚みの3つの顔パーツの真顔と笑顔の特徴量に対して、以下の(4)式に示す演算を実行する。
1/2{(真顔の顔型の特徴量f11×顔型の第1の重みw×真顔の顔型の第2の重みα)+(笑顔の顔型の特徴量f12×顔型の第1の重みw×笑顔の顔型の第2の重みβ)}+1/2{(真顔の目の形の特徴量f21×目の形の第1の重みw×真顔の目の形の第2の重みα)+(笑顔の目の形の特徴量f22×目の形の第1の重みw×笑顔の目の形の第2の重みβ)}+1/2{(真顔の唇の厚みの特徴量f31×唇の厚みの第1の重みw×真顔の唇の厚みの第2の重みα)+(笑顔の唇の厚みの特徴量f32×唇の厚みの第1の重みw×笑顔の唇の厚みの第2の重みβ)}・・・(4)
なお、表情毎の第2の重みαとβは、顔タイプ診断装置100の外部から与えられる所定の値でもよいし、顔タイプ診断装置100に設定されている所定の値でもよい。
ここで、真顔の場合の第2の重みαと、笑顔の場合の第2の重みβのそれぞれの値について説明する。例えば、第2の重みα,βは、顔パーツそれぞれについての表情の変化の影響の受けやすさ(表情変化による影響度)に応じて設定されてもよい。
顔タイプ判定部130は、表情の変化の影響を受けやすい目、口等の顔パーツに対して、真顔の場合の第2の重みαを、笑顔の場合の第2の重みβよりも大きく設定してもよい。これは、真顔を顔タイプ診断の基本とするためである。
また、顔タイプ判定部130は、表情の変化により影響を受けにくい輪郭、鼻等の顔パーツに対して、真顔の場合の第2の重みαを、笑顔の場合の第2の重みβと等しく設定してもよい。
例えば表情が真顔から笑顔に変化した場合、目の開き具合が小さくなり、閉じている口が大きく開き歯が見えるように表情が変化する傾向がある。このため、上記のように、表情の変化の影響を受けやすい顔パーツの重みを異なる値に設定し、かつ、表情の変化の影響を受けにくい顔パーツの重みは等しい値に設定することで、顔タイプの診断精度を向上させることができる。
このように、顔タイプ判定部130は、上述した演算結果(4)に基づいて曲線/直線判定が可能となり、演算結果を直線-曲線軸上の何れかの座標にマッピングすることができる。同様に、顔タイプ判定部130は、子供顔/大人顔判定のための演算を実行し、演算結果を子供顔-大人顔軸上の何れかの座標にマッピングすることができる。この結果、顔タイプ判定部130は、図2に示されるような平面上の点として演算結果をマッピングすることが可能となり、適切な顔タイプ診断を実行することが可能になる。
なお、顔タイプ判定部130における判定処理には以下のような態様を含めてもよい。
(第1変形例)
上記の実施例では、笑顔の場合の第2の重みβが一定値であるが、第2の重みβは、ユーザの表情の度合いに応じて設定してもよい。
第2の表情である笑顔は、一般に微笑から大笑いまで様々な笑顔レベルに分類されうる。このため、顔タイプ判定部130は、笑顔の度合い(笑顔レベル)に応じて、上述した笑顔の場合の第2の重みβを更に調整してもよい。
具体的には、顔タイプ判定部130は、何れか公知の測定技術により、笑顔画像から笑顔レベルを特定してもよい。例えば、顔タイプ判定部130は、笑顔画像を3つの笑顔レベル(例えば、口を閉じて微笑む程度の笑顔はレベル「1」、口が少し開く程度の笑顔はレベル「2」、口が大きく開く程の笑顔はレベル「3」など)に分類してもよい。なお、本開示による笑顔レベルは、必ずしも3段階に限定されず、他の何れかのレベル数に分類されてもよい。
そして、顔タイプ判定部130は、笑顔レベルに対応した係数である笑顔配点a、b、cを、顔パーツ毎の第2の重みβに付与することにより、顔パーツ毎の特徴量を変更する。例えば、笑顔配点a、b、cは、a<b<cの関係を有しうる。
例えば、笑顔レベルが「1」と判定された場合、顔タイプ判定部130は、以下のように、笑顔配点aを第2の重みβに更に乗算し、笑顔の場合の顔パーツの特徴量を調整してもよい。
(笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ×笑顔配点a)
また、笑顔レベルが「2」と判定された場合、顔タイプ判定部130は、以下のように、笑顔配点bを第2の重みβに更に乗算し、笑顔の場合の顔パーツの特徴量を調整してもよい。
(笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ×笑顔配点b)
同様に、笑顔レベルが「3」と判定された場合、顔タイプ判定部130は、以下のように、笑顔配点cを第2の重みβに更に乗算し、笑顔の場合の顔パーツの特徴量を調整してもよい。
(笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ×笑顔配点c)
このように、ユーザの笑顔の度合いに応じた特徴量の算出により、笑顔の度合いを加味して顔タイプの診断精度を、より一層向上させることができる。
(第2変形例)
上記の実施例では、静止画像に基づいて顔タイプを診断する例について説明した。一方、笑顔の多い人と笑顔の少ない人がおり、このような笑顔の頻度を反映させることによって、より適切な顔タイプ診断が可能になりうる。具体的には、笑顔の頻度に応じて、笑顔の場合の第2の重みβを変化させてもよい。これにより、生活シーンに即した顔タイプの診断を行うことができる。図7を参照して、笑顔の頻度に応じた顔タイプの判定処理について説明する。
図7は一定期間に検出される笑顔の頻度を加味した特徴量の算出例について説明するための図である。画像取得部110は、会話中のユーザの映像をカメラから所定時間取得し、取得した映像を特徴量抽出部120に送信する。図7の例では3分間の映像が取得される。
特徴量抽出部120は、所定時間の映像におけるユーザの笑顔の頻度を算出する。すなわち、特徴量抽出部120は、所定時間の映像におけるユーザの表情毎の頻度を算出する。例えば、図示された具体例では、あるユーザの笑顔の頻度は12%であり、別のユーザの笑顔の頻度は75%であった。
カメラが振動するなどしてユーザの映像が不鮮明な場合、特徴量抽出部120は、映像から正確に撮影できない時間帯の映像を判定不可として間引き、残りの映像をもとに、ユーザの表情毎の頻度を算出してもよい。また、特徴量抽出部120は、表情の認識に必要な顔パーツが隠れていたり特殊な表情をしていたりするなど、真顔と笑顔のどれであるか判定できない場合も、その時間帯の映像を判定不可として間引いて、ユーザの表情毎の頻度を算出してもよい。
顔タイプ判定部130は、表情毎の頻度に応じて第2の重みβを調整し、調整した第2の重みに更に基づいて第2の特徴量に対して上述した演算を実行する。具体的には、顔タイプ判定部130は、(5)式に示すように、笑顔の頻度に応じた所定の係数を第2の重みβに付与することで、第2の重みβを調整して、新たな第2の重みβ’、第2の重みβ’’などを適用してもよい。
笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ’
笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ’’
・・・(5)
第2の重みβ’は、笑顔の頻度「12%」に対応した重みであり、第2の重みβ’’(β’<β’’)は、笑顔の頻度「75%」に対応した重みであってもよい。
なお、第2変形例に第1変型例を組み合わせてもよく、笑顔レベルと共に笑顔頻度を考慮して、笑顔の場合の第2の重みβを調整してもよい。例えば、測定された笑顔頻度に応じて第2の重みがβ’に設定され、更に笑顔レベルが「1」であった場合、顔タイプ判定部130は、以下の(6)式に示す演算を実行してもよい。ここで、笑顔レベルは、映像中の笑顔レベルの平均であってもよい。
笑顔の場合における顔パーツ毎の特徴量×顔パーツ毎の第1の重み×第2の重みβ’×笑顔配点a・・・(6)
次に、図8を参照して、本開示の一実施例による顔タイプ診断処理を説明する。当該顔タイプ診断処理は、上述した顔タイプ診断装置100によって実行され、より詳細には、顔タイプ診断装置100の1つ以上のプロセッサ102が1つ以上の記憶装置101に格納された1つ以上のプログラム又は指示を実行することによって実現されてもよい。例えば、当該顔タイプ診断処理は、顔タイプ診断装置100のユーザが当該処理に係るアプリケーション等を起動することによって開始されうる。
図8は本開示の実施の形態に係る顔タイプ診断処理を示すフローチャートである。図8に示されるように、ステップS101において、顔タイプ診断装置100は、真顔画像及び笑顔画像を取得する。具体的には、カメラが表情毎のユーザの顔を撮像し、顔タイプ診断装置100は、カメラで撮影されたユーザの顔の画像を取得する。顔タイプ診断装置100が取得する顔の画像は静止画像でもよいし動画像でもよい。
次に、ステップS102において、顔タイプ診断装置100は、取得した真顔画像の顔パーツの特徴量及び笑顔画像の顔パーツの特徴量を抽出する。具体的には、顔タイプ診断装置100は、真顔画像と笑顔画像における診断対象のユーザの顔の特徴点を抽出し、抽出した特徴点に基づいて顔パーツ毎の特徴量を算出する。
次に、ステップS103において、顔タイプ診断装置100は、例えば、曲線/直線判定のため、顔型、目の形及び唇の厚みの3つの顔パーツの真顔と笑顔の特徴量に対して、以下の(7)式の演算を実行する。
1/2{(真顔の顔型の特徴量f11×顔型の第1の重みw×真顔の顔型の第2の重みα)+(笑顔の顔型の特徴量f12×顔型の第1の重みw×笑顔の顔型の第2の重みβ)}+1/2{(真顔の目の形の特徴量f21×目の形の第1の重みw×真顔の目の形の第2の重みα)+(笑顔の目の形の特徴量f22×目の形の第1の重みw×笑顔の目の形の第2の重みβ)}+1/2{(真顔の唇の厚みの特徴量f31×唇の厚みの第1の重みw×真顔の唇の厚みの第2の重みα)+(笑顔の唇の厚みの特徴量f32×唇の厚みの第1の重みw×笑顔の唇の厚みの第2の重みβ)}・・・(7)
顔タイプ診断装置100は、(7)式の演算結果に基づいて、図2に示される平面上の直線-曲線軸の位置を特定することができる。
同様に、顔タイプ診断装置100は、例えば、子供顔/大人顔判定のため、顔型、目の位置、鼻の長さ、口の大きさ、目と唇の距離及び目間の距離の6つの顔パーツの真顔と笑顔の特徴量に対して同様の演算を実行し、この演算結果に基づいて、図2に示される平面上の子供顔-大人顔軸の位置を特定することができる。
これにより、顔タイプ診断装置100は、図2に示される平面上の測対象のユーザの顔タイプの位置を決定することができる。
例えば、顔タイプ診断装置100は、図9に示されるような表示画面によって顔タイプの診断結果をユーザに提供してもよい。図9は本開示の実施の形態に係る顔タイプ診断処理による顔タイプの診断結果の表示画面例を示す図である。
顔タイプ診断装置100は、例えば化粧品の販売店に設置されているディスプレイに、図9に示す「Cute」、「Fresh」、「Cool」、「Elegant」等の4つの領域を表す画像を表示し、更に当該画像上に、測定対象のユーザの顔タイプの診断結果を示してもよい(例えばハートマーク)。
図9には、曲線的な印象を与える顔と判定された顔タイプの表示例が示されており、顔タイプの診断結果を示す画像(ハートマーク)は、「Elegant」の領域の内、「Cute」寄りの部分に位置している。
また、顔タイプ診断装置100は、「Cute」、「Fresh」、「Cool」、「Elegant」等の4つの領域を表す画面の隣に、顔タイプを解説するガイダンスを表示してもよい。
ここで、顔タイプ診断装置100の顔タイプ判定部130は、顔タイプの判定に寄与した笑顔の割合を示す笑顔寄与度を算出して、画面に表示してもよい。なお、真顔と笑顔とが固定値によって顔タイプ判定に寄与する実施例では、笑顔寄与度もまたユーザ間で共通した値となるため、笑顔寄与度を算出する意味はあまりない。このため、笑顔寄与度は、笑顔レベルと笑顔頻度の一方又は双方が考慮される実施例において、算出されることが好ましい。
(笑顔寄与度の算出式の例)
上述した第1変形例の笑顔寄与度は(8)式に示すように算出される。
笑顔寄与度=(β×笑顔配点)/α+(β×笑顔配点)・・・(8)
第2変形例の笑顔寄与度は(9)式に示すように算出される。
笑顔寄与度=(β’×笑顔配点)/α+(β’×笑顔配点)
β’=笑顔配点a×重み付けγ+笑顔配点b×重み付けγ’+笑顔配点c×重み付けγ’’
・・・(9)
ここで、γ,γ’,γ’’はそれぞれ、笑顔レベル1,2,3の時間の長さに対応する重みとして設定される。図示された表示画面では、笑顔レベル1が30秒であり、笑顔レベル2が1分10秒であり、笑顔レベル3が26秒であり、上述した算出式に従って、笑顔寄与度は70%として算出される。
以上に説明したように、本開示の実施の形態に係る顔タイプ診断装置は、ユーザの第1の表情を撮像した第1の画像と、ユーザの第2の表情を撮像した第2の画像とを取得する画像取得部と、第1の画像におけるユーザの顔パーツの第1の特徴量と、第2の画像におけるユーザの顔パーツの第2の特徴量とを抽出する特徴量抽出部と、顔パーツ毎に設定される第1の重みと、各表情における顔パーツ毎に設定される第2の重みと基づいて第1の特徴量と第2の特徴量とに対して第1の演算を実行し、演算結果と所定の判定基準とに基づいてユーザの顔タイプを判定する顔タイプ判定部と、を有する。
この構成により、第1の表情と第1の表情とは異なる第2の表情のそれぞれの画像の特徴量に基づき顔タイプを診断できるため、単一の表情の画像を利用する場合に比べて顔タイプの診断精度を向上させることができる。
このため、本開示の実施の形態に係る顔タイプ診断装置を、例えばデパートなどの化粧品コーナーなどに設置されている診断専用機に適用した場合、顔の表情の変化を加味して診断された顔タイプの診断結果を基に、顔タイプに最適な化粧品を提案することができる。また、本開示の実施の形態に係る顔タイプ診断装置を、例えばアパレルショップなどに設置されている診断専用機に適用した場合、顔の表情の変化を加味して診断された顔タイプの診断結果を基に、顔タイプに最適な衣服を提案することができる。また、顔タイプ診断装置の機能の一部をスマートフォン等で実現している場合、顔タイプの診断結果を基に、最適な化粧品の通信販売サイトやオーダーメイド等へ誘導してもよい。
(その他変形例)
上述した実施の形態では、顔パーツ毎に特徴量に重みを付与した結果に基づいて、顔タイプの診断を行っていた。しかし、顔タイプ診断装置は、すべての顔パーツについて同じ重みを付与したり、一部または全部の顔パーツの特徴量に重みの付与を省略したりして演算した結果を用いて顔タイプの診断を行ってもよい。また、顔タイプ診断装置は、顔パーツ毎に特徴量に重みを付与する場合は、顔パーツ毎に異なる重みを付与してもよい。この場合、顔タイプ診断装置は、顔タイプの印象に対する影響が大きい顔パーツほど付与される重みが大きくなるようにしてもよい。
上述した実施の形態では、顔タイプ診断の過程で重みを付与する場合には乗算を行っていたが、顔タイプ診断装置は、加算など他の手法によって重みを付与してもよい。
上述した実施の形態では、顔タイプの判定に寄与した笑顔の割合を示す笑顔寄与度を算出し、表示していた。しかし、算出する寄与度は笑顔を対象としたものには限らない。例えば、顔タイプ診断装置は、真顔の割合を示す真顔寄与度を算出して、表示してもよい。また、顔タイプ診断装置は、笑顔と真顔以外の表情も顔タイプの判定に用いているのであれば、それらの表情の1つ以上の寄与度を算出して表示しても構わない。
上述した実施の形態では、顔タイプ診断の結果として、真顔と笑顔の両方を考慮した結果のみを表示していたが、顔タイプ診断装置は、他の結果も表示してもよい。例えば、顔タイプ診断装置は、真顔のみで診断した顔タイプや、笑顔のみで診断した顔タイプも表示してもよい。なお、一般的に、笑顔は真顔よりも、子供顔かつ曲線的な顔タイプであると判定される傾向があることが知られているため、この傾向から外れた結果が得られる可能性は低い。しかし、真顔と笑顔で顔タイプが変わる程度は各個人で異なるため、その程度を可視化することによってユーザに自身の表情の特性を知らせることができる。なお、顔タイプ診断装置は、真顔と笑顔以外の表情も顔タイプの判定に用いている場合は、各表情のみ、または、表情の任意の組み合わせに基づく顔タイプの判定結果も表示してもよい。
なお、例えば、以下のような態様も本開示の技術的範囲に属するものと了解される。
(1)本開示の実施の形態に係る顔タイプ診断装置は、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得する画像取得部と、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出する特徴量抽出部と、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定する顔タイプ判定部と、を有する。
(2)顔タイプ判定部は、第1の特徴量と第2の特徴量とを用いた演算を行った結果を所定の基準と比較することで顔タイプを判定する。
(3)顔タイプ判定部は、第2の特徴量に対して顔パーツ毎の表情変化による影響度に応じて設定された重みを付与して演算を行う。
(4)画像取得部は、ユーザの所定時間の映像を取得し、特徴量抽出部は、映像においてユーザの第2の表情が検出された頻度を算出し、顔タイプ判定部は、第2の特徴量に対して、頻度に応じた重みを付与して前記演算を実行する。
(5)第2の表情は、複数の表情レベルに分類され、顔タイプ判定部は、第2の特徴量に対して、前記複数の表情レベルに応じた重みを付与して前記演算を実行する。
(6)顔タイプ判定部は更に、第1の表情と第2の表情の1つ以上の表情について、顔タイプの判定に寄与した割合を示す寄与度を算出する。
(7)第1の表情は真顔であり、第2の表情は笑顔である。
(8)顔タイプは、顔型、目の位置、鼻の長さ、口の大きさ、目と唇の距離及び目間の距離に基づく第1の判定基準と、顔型、目の形及び唇の厚みに基づく第2の判定基準とに従って分類される4つのタイプを含む。
(9)本開示の実施の形態に係る顔タイプ診断方法は、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得することと、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出することと、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定することと、を含む。
(10)本開示の実施の形態に係るプログラムは、ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得することと、前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出することと、前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定することと、をコンピュータに実行させる。
以上、本開示の実施例について詳述したが、本開示は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本開示の要旨の範囲内において、種々の変形・変更が可能である。
100 顔タイプ診断装置
101 記憶装置
102 プロセッサ
103 ユーザインタフェース装置
104 通信装置
110 画像取得部
120 特徴量抽出部
130 顔タイプ判定部

Claims (10)

  1. ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得する画像取得部と、
    前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出する特徴量抽出部と、
    前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定する顔タイプ判定部と、
    を有する、顔タイプ診断装置。
  2. 前記顔タイプ判定部は、前記第1の特徴量と前記第2の特徴量とを用いた演算を行った結果を所定の基準と比較することで前記顔タイプを判定する、請求項1に記載の顔タイプ診断装置。
  3. 前記顔タイプ判定部は、前記第2の特徴量に対して前記顔パーツ毎の表情変化による影響度に応じて設定された重みを付与して前記演算を行う、請求項2に記載の顔タイプ診断装置。
  4. 前記画像取得部は、前記ユーザの所定時間の映像を取得し、
    前記特徴量抽出部は、前記映像において前記ユーザの第2の表情が検出された頻度を算出し、
    前記顔タイプ判定部は、前記第2の特徴量に対して、前記頻度に応じた重みを付与して前記演算を実行する、請求項2又は3に記載の顔タイプ診断装置。
  5. 前記第2の表情は、複数の表情レベルに分類され、
    前記顔タイプ判定部は、前記第2の特徴量に対して、前記複数の表情レベルに応じた重みを付与して前記演算を実行する、請求項2から4の何れか一項に記載の顔タイプ診断装置。
  6. 前記顔タイプ判定部は更に、前記第1の表情と前記第2の表情の1つ以上の表情について、前記顔タイプの判定に寄与した割合を示す寄与度を算出する、請求項1から5の何れか一項に記載の顔タイプ診断装置。
  7. 前記第1の表情は真顔であり、前記第2の表情は笑顔である、請求項1から6の何れか一項に記載の顔タイプ診断装置。
  8. 前記顔タイプは、顔型、目の位置、鼻の長さ、口の大きさ、目と唇の距離及び目間の距離に基づく第1の判定基準と、顔型、目の形及び唇の厚みに基づく第2の判定基準とに従って分類される4つのタイプを含む、請求項7に記載の顔タイプ診断装置。
  9. ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得することと、
    前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出することと、
    前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定することと、
    を含む、コンピュータによって実行される顔タイプ診断方法。
  10. ユーザの第1の表情を撮像した第1の画像と、前記ユーザの第2の表情を撮像した第2の画像とを取得することと、
    前記第1の画像における前記ユーザの顔パーツの第1の特徴量と、前記第2の画像における前記ユーザの顔パーツの第2の特徴量とを抽出することと、
    前記第1の特徴量と前記第2の特徴量とに基づいて前記ユーザの顔タイプを判定することと、
    をコンピュータに実行させる、プログラム。
JP2021162949A 2021-10-01 2021-10-01 顔タイプ診断装置、顔タイプ診断方法及びプログラム Pending JP2023053734A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021162949A JP2023053734A (ja) 2021-10-01 2021-10-01 顔タイプ診断装置、顔タイプ診断方法及びプログラム
PCT/JP2022/031806 WO2023053784A1 (ja) 2021-10-01 2022-08-24 顔タイプ診断装置、顔タイプ診断方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021162949A JP2023053734A (ja) 2021-10-01 2021-10-01 顔タイプ診断装置、顔タイプ診断方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023053734A true JP2023053734A (ja) 2023-04-13

Family

ID=85782339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021162949A Pending JP2023053734A (ja) 2021-10-01 2021-10-01 顔タイプ診断装置、顔タイプ診断方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2023053734A (ja)
WO (1) WO2023053784A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4348202B2 (ja) * 2004-01-21 2009-10-21 日本放送協会 顔画像認識装置及び顔画像認識プログラム
JP2008046691A (ja) * 2006-08-10 2008-02-28 Fuji Xerox Co Ltd 顔画像処理装置及びコンピュータのプログラム
JP2013046374A (ja) * 2011-08-26 2013-03-04 Sanyo Electric Co Ltd 画像処理装置
JP6476608B2 (ja) * 2014-06-30 2019-03-06 カシオ計算機株式会社 動作処理装置、動作処理方法及びプログラム
JP7123539B2 (ja) * 2017-09-21 2022-08-23 日清オイリオグループ株式会社 診断支援情報提供装置

Also Published As

Publication number Publication date
WO2023053784A1 (ja) 2023-04-06

Similar Documents

Publication Publication Date Title
US10204260B2 (en) Device and method for classifying a condition based on image analysis
JP5290585B2 (ja) 肌色評価方法、肌色評価装置、肌色評価プログラム、及び該プログラムが記録された記録媒体
JP5231685B1 (ja) 顔印象分析方法、美容カウンセリング方法および顔画像生成方法
TW201741994A (zh) 獲得保養信息的方法、分享保養信息的方法及其電子裝置
Zhao et al. Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection
CN113139439B (zh) 一种基于人脸识别的在线学习专注度评价方法及装置
Zhang et al. Real-time automatic deceit detection from involuntary facial expressions
Hindu et al. An iot-enabled stress detection scheme using facial expression
WO2023053784A1 (ja) 顔タイプ診断装置、顔タイプ診断方法及びプログラム
JP5095182B2 (ja) 顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体
JP2007048232A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2023068956A1 (ru) Способ и система для определения синтетически измененных изображений лиц на видео
JP2023543627A (ja) ニキビの計数、位置特定および視覚化のためのシステム及び方法
TW202122040A (zh) 臉部肌肉狀態分析與評價方法
JP2015172935A (ja) 加齢分析方法及び加齢分析装置
JP2015219698A (ja) パーツの影響度に基づいて感情を推定する装置、プログラム及び方法
JP7008385B1 (ja) 感情推定装置、感情推定方法、及びプログラム
JPWO2022002961A5 (ja)
WO2024029600A1 (ja) 肌状態推定方法
JPWO2019155570A1 (ja) 視線推定装置、視線推定方法、およびプログラム
WO2023054008A1 (ja) 毛による肌と見た目の老化評価法
Xu et al. Face recognition based on 3D mesh models
Lablack et al. A local approach for negative emotion detection
KR20240009440A (ko) 컴퓨터-기반 신체 부위 분석 방법들 및 시스템들
Xu et al. Three-dimensional face recognition using geometric model