JP2023038871A - 特徴抽出方法及び特徴抽出システム - Google Patents
特徴抽出方法及び特徴抽出システム Download PDFInfo
- Publication number
- JP2023038871A JP2023038871A JP2021145818A JP2021145818A JP2023038871A JP 2023038871 A JP2023038871 A JP 2023038871A JP 2021145818 A JP2021145818 A JP 2021145818A JP 2021145818 A JP2021145818 A JP 2021145818A JP 2023038871 A JP2023038871 A JP 2023038871A
- Authority
- JP
- Japan
- Prior art keywords
- facial
- face information
- face
- facial expression
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 90
- 230000008921 facial expression Effects 0.000 claims abstract description 190
- 230000033001 locomotion Effects 0.000 claims abstract description 139
- 238000003384 imaging method Methods 0.000 claims abstract description 104
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000004458 analytical method Methods 0.000 claims abstract description 30
- 230000014509 gene expression Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims abstract description 18
- 238000011156 evaluation Methods 0.000 claims description 101
- 230000001815 facial effect Effects 0.000 claims description 75
- 238000007621 cluster analysis Methods 0.000 claims description 27
- 210000001097 facial muscle Anatomy 0.000 claims description 5
- 238000000513 principal component analysis Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 abstract description 9
- 238000012854 evaluation process Methods 0.000 abstract description 8
- 210000003205 muscle Anatomy 0.000 abstract description 3
- 230000009471 action Effects 0.000 description 59
- 230000008451 emotion Effects 0.000 description 36
- 230000002996 emotional effect Effects 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 16
- 238000001943 fluorescence-activated cell sorting Methods 0.000 description 15
- 210000004709 eyebrow Anatomy 0.000 description 7
- 230000007935 neutral effect Effects 0.000 description 6
- 238000003012 network analysis Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000491 multivariate analysis Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 241000218666 Metasequoia Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- HJJVPARKXDDIQD-UHFFFAOYSA-N bromuconazole Chemical compound ClC1=CC(Cl)=CC=C1C1(CN2N=CN=C2)OCC(Br)C1 HJJVPARKXDDIQD-UHFFFAOYSA-N 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008430 psychophysiology Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】評価対象者の特徴的な表情に関わる部位や顔の角度等を客観的かつ高い精度で抽出できる特徴抽出方法及び特徴抽出システムを提供すること。【解決手段】本発明にかかる特徴抽出方法は、評価対象者Hの顔を撮像した顔情報データに基づき、評価対象者Hの表情を特徴づける部位又は撮像角度を抽出する特徴抽出方法である。本特徴抽出方法は、顔情報取得工程と、表情動作評価工程と、抽出工程とを備える。顔情報取得工程は、評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する。表情動作評価工程は、個々の前記顔情報データに対し、表情筋の動きに基づく表情動作単位の動きの強度を評価する。抽出工程は、複数の顔情報データの前記動きの強度について解析処理を行い、評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の顔画像を抽出する。【選択図】図1
Description
本発明は、特徴抽出方法及び特徴抽出システムに関し、特に、評価対象者の顔の表情から受ける印象を評価する際に用いられる特徴抽出方法及び特徴抽出システムに関する。
一般に、人は外観や言動などの要因によって他人に様々な印象を与えるが、その中でも、顔の見た目がその人の印象を決める大きな要因となっていることが知られている。この顔の見た目に関し、人が感じる印象を評価する技術について様々な検討がされている。例えば特許文献1には、顔の見た目の印象への影響が大きい部位における、物理量に基づいて、評価対象者の顔の見た目の印象を鑑別(評価)する方法が開示されている。斯かる方法は、(1)先ず、評価対象者の顔をカメラで撮像した動画像から人の見た目の印象への影響が大きい部位(例えば、頬や目の周辺部)を決定し、(2)次に、決定した部位における顔の表情変化に伴って生じる皮膚変化の物理量に基づき、評価対象者の顔の見た目の印象を評価する、といった手順を踏むことにより行われる。
また、人の表情に関する研究として、例えば、非特許文献1には、作り笑いをした場合、右顔と左顔とでは異なる表情が表出する、左右非対称な動作がみられるといった報告がされている。
人の表情を評価するソフトウェア開発も進められている。例えば、非特許文献2に示すように、FACS認定コーダー(FACSマニュアル及びInvestigatorガイドをもとに「FACS」のコード化手法を習得し、FACSコーダー認定テストに合格した者)によるコーディング結果を教師データ化したプログラム(例えば、「Affdex」(Affectiva社))が開発されている。
Paul Ekman, Joseph C. Hager, Wallace V. Friesen,「The Symmetry of Emotional and Deliberate Facial Actions」, Psychophysiology, Vol.18,No.2, March 1981
Affectiva株式会社、[online]、[2021年7月6日検索]、インターネット<https://www.affectiva.jp/>
人の顔は、様々な感情(内面)の移り変わりに応じて、その表情が絶えず変化するのが一般的である。また、非特許文献1のように、顔の左右で異なる表情が表出していることも、顔の印象に影響を与える要因となり得る。しかしながら、特許文献1に記載の技術は、顔の年齢印象等に影響が及ぶ部位にのみ焦点をあてた印象の評価方法であって、見た目の印象が実際の評価対象者の年齢よりも若いのか、あるいは、老けているのか、といった比較的単純な評価結果しか得ることができないものである。すなわち、特許文献1に記載の技術は、人の顔の表情が複雑に表出している点について検討したものではなく、斯かる点を踏まえて顔の表情から受ける印象を高精度に評価できるものではなかった。これと同様に、非特許文献2に記載の技術も、表情動作の客観的な記述及び基本感情の推定にとどまっており、複雑な顔の表情を高精度に評価する点について改善の余地があった。
本発明は、前述した従来技術が有する欠点を解消し得る、特徴抽出方法及び特徴抽出システムを提供することに関する。
本発明は、評価対象者の顔を撮像した顔情報データに基づき、該評価対象者の表情を特徴づける部位又は撮像角度を抽出する特徴抽出方法に関する。
前記特徴抽出方法は、評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する顔情報取得工程と、個々の前記顔情報データに対し、前記評価対象者の表情筋の動きに基づく表情動作単位の動きの強度を評価する表情動作評価工程と、複数の前記顔情報データの前記動きの強度について解析処理を行い、前記評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の前記顔情報データを抽出する、抽出工程とを備える。
前記特徴抽出方法は、評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する顔情報取得工程と、個々の前記顔情報データに対し、前記評価対象者の表情筋の動きに基づく表情動作単位の動きの強度を評価する表情動作評価工程と、複数の前記顔情報データの前記動きの強度について解析処理を行い、前記評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の前記顔情報データを抽出する、抽出工程とを備える。
また、本発明は、評価対象者の顔情報データに基づき、該評価対象者の表情の印象を評価する特徴抽出システムに関する。
前記特徴抽出システムは、評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する顔情報取得部と、個々の前記顔情報データに対し、前記評価対象者の表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価部と、複数の前記顔情報データの前記動きの強度について解析処理を行い、前記評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の前記顔情報データを抽出する、抽出部とを備える。
前記特徴抽出システムは、評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する顔情報取得部と、個々の前記顔情報データに対し、前記評価対象者の表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価部と、複数の前記顔情報データの前記動きの強度について解析処理を行い、前記評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の前記顔情報データを抽出する、抽出部とを備える。
本発明の特徴抽出方法及び特徴抽出システムによれば、評価対象者の特徴的な表情に関わる部位や顔の角度等を客観的かつ高い精度で抽出することができる。これにより、評価対象者の顔の表情から受ける印象を客観的かつ精度よく評価することができる。
以下、本発明の特徴抽出システムを、その好ましい一実施形態に基づき図面を参照しながら説明する。図1は、本実施形態にかかる特徴抽出システム1(以下、単に「システム1」ともいう)を用いて、評価対象者Hの顔の表情から受ける印象を評価している様子を示したものである。
(特徴抽出システム1の構成)
本実施形態のシステム1は、顔情報データとして顔画像を取得する。顔情報データは、評価対象者の顔の表情を示す情報であり、顔画像の他に、シミュレーションソフトを用いた3Dモデルの画像や、目、鼻、口及び耳等の顔パーツの輪郭形状の三次元座標値又はベクトル値等の情報が含まれる。
本実施形態の特徴抽出システム1は、図1に示すように、本実施形態にかかる特徴抽出システム1は、評価対象者Hの顔を撮像する複数(本実施形態では、9台)の撮像装置C1~C9と、撮像装置C1~C9により撮像された顔画像を用いて評価対象者Hの印象を評価する制御装置2とを備えている。
本実施形態のシステム1は、顔情報データとして顔画像を取得する。顔情報データは、評価対象者の顔の表情を示す情報であり、顔画像の他に、シミュレーションソフトを用いた3Dモデルの画像や、目、鼻、口及び耳等の顔パーツの輪郭形状の三次元座標値又はベクトル値等の情報が含まれる。
本実施形態の特徴抽出システム1は、図1に示すように、本実施形態にかかる特徴抽出システム1は、評価対象者Hの顔を撮像する複数(本実施形態では、9台)の撮像装置C1~C9と、撮像装置C1~C9により撮像された顔画像を用いて評価対象者Hの印象を評価する制御装置2とを備えている。
複数の撮像装置C1~C9は、例えば、静止画像を撮像することが可能なカメラ(例えば、単眼カメラ)からなり、評価対象者Hの前方を取り囲むように、所定の角度間隔(本実施形態では、約22.5度の間隔)を空けて配置されている。また、本実施形態にかかる撮像装置C1~C9は、互いに電気的に接続(有線接続または無線接続)され、撮像操作に応じて同期して、評価対象者Hの顔を同時に撮像するように構成される。これにより、評価対象者Hの、正面(撮像装置C5)、左真横(撮像装置C1)及び右真横(撮像装置C9)を含む、角度間隔が約22.5度ずつずれた9種類の顔画像を、同時に取得することが可能になっている。
本実施形態では、複数の顔画像を取得するために、撮像装置の台数を9台としたが、撮像装置の台数はこれに限定されず、2台以上9台未満としてもよく、あるいは10台以上にしてもよい。なお、評価対象者をほぼ正面から撮像できる位置に、少なくとも一台は撮像装置を配するのが好ましい。また、撮像装置C1~C9は、2次元画像を撮像する装置に限られず、3次元画像を撮像する、いわゆる3Dカメラであっても構わない。さらに、撮像装置は、静止画像を撮像する装置に限られず、動画像を撮像する装置(以下、「動画像撮像装置」と称す)を用いてもよい。この場合、動画像データから複数のフレーム画像(静止画像)や動画クリップを抜き出すことができるため、動画像撮像装置の台数を1台とすることが可能である。もちろん、動画像撮像装置は、撮像装置C1~C9のように、複数台用いても構わない。この場合、例えば、各動画像撮像装置同士を互いに同期させるとともに、各動画像から同じタイミングでのフレーム画像等を抜き出せばよい。
顔画像は、RGBやHSV等の色情報で表されたカラー画像であってもよく、グレー・スケール化された画像や白黒に二値化された画像、特定の波長帯の情報を色情報として反映させたスペクトル画像、各スペクトル画像を色情報として組み合わせたマルチスペクトル画像であってもよい。
顔画像は、RGBやHSV等の色情報で表されたカラー画像であってもよく、グレー・スケール化された画像や白黒に二値化された画像、特定の波長帯の情報を色情報として反映させたスペクトル画像、各スペクトル画像を色情報として組み合わせたマルチスペクトル画像であってもよい。
次に、本実施形態にかかる制御装置2について説明する。本実施形態の制御装置2は、公知の汎用コンピュータを用いて構成することが可能である。汎用コンピュータは、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等を含んで構成される。CPUは、画像表示のためのグラフィックスプロセッサ(Graphics Processing Unit(GPU))、High-Definition(HD)ビデオ等のエンコーディング及びデコーディングを行うマルチメディアプロセッサ、ディスプレイを制御するディスプレイコントローラ、及び給電及び充電を制御するためのパワーマネジメントIntegrated Circuit(IC)等を含んでもよい。制御装置2が行う処理は、CPUがROMやディスクなどに格納されたプログラムをRAMに展開して実行することにより実現される。斯かる処理は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)により実現されてもよく、ASICとFPGAの組み合わせにより実現されてもよい。
本実施形態の制御装置2は、制御部3と、記憶部4と、顔情報取得部5と、表示部6とを有し、これらは互いに電気的に接続されている。
(顔情報取得部5)
顔情報取得部5は、複数の異なる顔情報データを取得する。本実施形態の顔情報取得部5は、撮像装置C1~C9を用いて、数の異なる角度からの顔情報データを取得する。具体的には、顔情報取得部5は、各撮像装置C1~C9と通信可能なインターフェイスを有し、撮像装置C1~C9から送信される各顔画像データの入力を受け付ける。この場合、システム1は、複数の異なる角度から見たときの顔画像を用いて、評価対象者の表情を特徴づける部位や、評価対象者の表情を特徴づける撮像角度を抽出する。斯かる抽出を単に「特徴抽出」ともいう。
また、顔情報取得部5は、撮像装置C1~C9とは別の手段で顔情報データを取得してもよい。すなわち、顔情報取得部5は、制御装置2に送信又は入力された顔画像等の顔情報データを取得してもよい。例えば、顔情報取得部5が、評価対象者Hの顔を機械学習し、制御装置2に読み込ませた動画像データから、該評価対象者Hの顔のフレーム画像を抽出することで、撮像のタイミングが異なる顔情報データを取得してもよい。この場合、システム1は、経時的に取得された顔画像を用いて評価対象者の表情を特徴づける部位の抽出(特徴抽出)を行う。例えば同一人物について、異なるタイミングで、同じ角度又は複数の異なる角度から顔情報データを取得してもよい。「異なるタイミングで顔情報データを取得する」とは、経時的に同一人物の顔情報データを取得することや、環境や状況を異ならせて、同一人物の顔情報データを取得すること、表情を変化させて同一人物の顔情報データを取得することを包含する。
顔情報取得部5は、複数の異なる顔情報データを取得する。本実施形態の顔情報取得部5は、撮像装置C1~C9を用いて、数の異なる角度からの顔情報データを取得する。具体的には、顔情報取得部5は、各撮像装置C1~C9と通信可能なインターフェイスを有し、撮像装置C1~C9から送信される各顔画像データの入力を受け付ける。この場合、システム1は、複数の異なる角度から見たときの顔画像を用いて、評価対象者の表情を特徴づける部位や、評価対象者の表情を特徴づける撮像角度を抽出する。斯かる抽出を単に「特徴抽出」ともいう。
また、顔情報取得部5は、撮像装置C1~C9とは別の手段で顔情報データを取得してもよい。すなわち、顔情報取得部5は、制御装置2に送信又は入力された顔画像等の顔情報データを取得してもよい。例えば、顔情報取得部5が、評価対象者Hの顔を機械学習し、制御装置2に読み込ませた動画像データから、該評価対象者Hの顔のフレーム画像を抽出することで、撮像のタイミングが異なる顔情報データを取得してもよい。この場合、システム1は、経時的に取得された顔画像を用いて評価対象者の表情を特徴づける部位の抽出(特徴抽出)を行う。例えば同一人物について、異なるタイミングで、同じ角度又は複数の異なる角度から顔情報データを取得してもよい。「異なるタイミングで顔情報データを取得する」とは、経時的に同一人物の顔情報データを取得することや、環境や状況を異ならせて、同一人物の顔情報データを取得すること、表情を変化させて同一人物の顔情報データを取得することを包含する。
顔情報取得部5は、取得した顔情報データを制御部3の記憶部4に記憶させる。また、制御装置2の操作者の操作(指令)に応じて、顔情報取得部5は、記憶部4に記憶させた顔情報データや、該顔情報取得部5が取得した顔情報データを読み込み、制御装置2が具備する表示部6や、該制御装置2とネットワークを介して接続された情報端末(例えば、スマートフォン)の表示部に、該顔情報データを表示させる。
制御装置2の操作者には、システム1を管理する管理者だけでなく、後述するシステム1のユーザーが含まれる。
制御装置2の操作者には、システム1を管理する管理者だけでなく、後述するシステム1のユーザーが含まれる。
(記憶部4)
記憶部4には、本特徴抽出システム1の基本動作を司る基本動作プログラムが記憶されるほか、表情動作単位の動きの強度や感情指数を算出するためのFACS推定自動プログラムや、後述するAUやその動きの強度等のパラメータについてクラスター分析等の解析処理を行うプログラム等が記憶されている。また、記憶部4には、顔情報データ(例えば、顔画像データ)が記憶されている。記憶部4は、評価対象者Hの顔情報データを、データベース化して、記憶していてもよい。斯かるデータベースは、評価対象者Hの顔情報データと、該評価対象者Hの識別情報や特徴抽出の抽出条件とが関連付けられて作成される。
記憶部4には、本特徴抽出システム1の基本動作を司る基本動作プログラムが記憶されるほか、表情動作単位の動きの強度や感情指数を算出するためのFACS推定自動プログラムや、後述するAUやその動きの強度等のパラメータについてクラスター分析等の解析処理を行うプログラム等が記憶されている。また、記憶部4には、顔情報データ(例えば、顔画像データ)が記憶されている。記憶部4は、評価対象者Hの顔情報データを、データベース化して、記憶していてもよい。斯かるデータベースは、評価対象者Hの顔情報データと、該評価対象者Hの識別情報や特徴抽出の抽出条件とが関連付けられて作成される。
(表示部6)
表示部6は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)からなり、制御部3からの指令に基づいて所定の画像、例えば、後述する表情動作評価パタン、抽出部3Cにより導出されたクラスター分析等の解析結果を表示する。
表示部6は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)からなり、制御部3からの指令に基づいて所定の画像、例えば、後述する表情動作評価パタン、抽出部3Cにより導出されたクラスター分析等の解析結果を表示する。
(制御部3)
本実施形態にかかる制御部3は、記憶部4に記憶される各種プログラムを読み込み、所定の演算処理を行って、表示部6に所定の画像を表示させる一般的な制御を行うほか、撮像装置C1~C9のそれぞれから送信された9種類の顔画像に基づいて、評価対象者の表情を分析し、該分析結果に基づき特徴抽出の制御を行う。
本実施形態にかかる制御部3は、記憶部4に記憶される各種プログラムを読み込み、所定の演算処理を行って、表示部6に所定の画像を表示させる一般的な制御を行うほか、撮像装置C1~C9のそれぞれから送信された9種類の顔画像に基づいて、評価対象者の表情を分析し、該分析結果に基づき特徴抽出の制御を行う。
本実施形態では、このような表情の分析を行う表情分析ツールとして、Paul EkmanやWallace Friesenらにより開発された「Facial Action Coding System」(顔面動作符号化システム、以下、「FACS」と称す)を採用している。
ここで、本実施形態の理解を容易にするため、上記した「FACS」について説明する。「FACS」は、解剖学的観点から表情筋(例えば、皺眉筋、頬筋)の動きに基づいて顔面動作を包括的に測定するために開発された手法で、定義された約40の顔の基本動作のうち、解剖学的基礎が明確な32の動作を「Action Unit」(動作単位、以下、「AU」と称す)として定義等したものである。このように定義された「AU」は、動作の強度を「A」~「E」の5段階で評価等することで、符号化(コーディング)することができ、これにより、顔の表情表出を客観的に評価することが可能になっている。斯かる「AU」が、本発明に係る表情動作単位に対応する。
またFACSの前記評価において、表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないものとする。
またFACSの前記評価において、表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないものとする。
また、「AU」については、その定義された動作によって、感情価を評価できる。すなわち、AUの動作が「Positive」な表情表出であるのか、あるいは「Negative」な表情表出であるのかを評価することが可能である。例えば、表情を見て受ける感情印象と各表情動作との関連を調べた先行研究(Kohler et al., (2004) Psychiatry Research)に基づき、「AU6」(頬を持ち上げる動作)や「AU12」(唇両端を引き上げる動作)は「Positive」に分類される表情表出として捉えることが可能である。また、「AU2」(眉の外側を上げる動作)や「AU4」(眉を下げる動作)は「Negative」に分類される表情表出として、捉えることが可能である。なお、「Positive」及び「Negative」の何れにも該当しない「AU」、例えば、「AU1」(眉の内側を上げる動作)や「AU5」(上瞼を上げる動作)については「Neutral」に分類される表情表出として捉えられる。ここで用いる「感情価」は、「Positive」と「Negative」の2つの極性と、これらの中間である「Neutral」を含む感情の質的な違いを規定する概念である。
さらに、「AU」は、「Positive」、「Negative」及び「Neutral」に分類することができるほか、いわゆる基本感情(「Happy」、「Sad」、「Angry」及び「Fear」)についても分類することが可能である。例えば、「AU6」(頬を持ち上げる動作)や「AU12」(唇両端を引き上げる動作)は「Happy」に分類される表情表出として、「AU17」(顎を上げる)は「Sad」に分類される表情表出として、「AU9」(鼻にしわを寄せる)は「Angry」に分類される表情表出として、また、「AU2」(眉の外側を上げる)は「Fear」に分類される表情表出として、それぞれ評価することが可能である。
本実施形態では、上記した「AU」の動作強度を符号化(コーディング)するためのアルゴリズム等からなるプログラム(FACS推定自動プログラム)が記憶部4に記憶されており、当該プログラムに従って、制御部3が評価対象者Hの表情を特徴づける部位や、該表情を特徴づける撮像角度の顔情報データを抽出するように構成されている。
(制御部3)
次に、制御部3について説明する。制御部3は、表情動作評価部3Aと、感情指数算出部3Bと、抽出部3Cとを有し、これら表情動作評価部3A等によって、評価対象者Hの顔の表情(AUごとの動作強度)から受ける特徴抽出を行うように構成される。
次に、制御部3について説明する。制御部3は、表情動作評価部3Aと、感情指数算出部3Bと、抽出部3Cとを有し、これら表情動作評価部3A等によって、評価対象者Hの顔の表情(AUごとの動作強度)から受ける特徴抽出を行うように構成される。
表情動作評価部3Aは、個々の顔情報データに対し、表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する。本実施形態の表情動作評価部3Aは、撮像装置C1~C9から送信された各顔画像データに対して、「AU」(例えば、「AU4」や「AU14」)ごとに、動きの強度(例えば、「A」~「E」の5段階を評価する機能を有している。また、表情動作評価部3Aは、前記の動きの強度の評価「A」~「E」を、1~5で数値化する処理を行う。斯かる数値化は、表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないものとするため、「0」となる。
後述する抽出部3Cが行う解析処理は、前記動きの強度を数値化した値を解析処理の対象とする。
後述する抽出部3Cが行う解析処理は、前記動きの強度を数値化した値を解析処理の対象とする。
感情指数算出部3Bは、表情動作評価部3Aの評価結果(表情動作単位の動きの強度)と、表情動作単位に関連付けられている感情とに基づき、表情動作単位ごとに感情指数を算出する。感情指数算出部3Bは、表情動作評価部3Aによる評価結果と、「AU」に関連付けられている感情とに基づいて、「AU」ごとに感情指数を算出する機能を有している。本実施形態の感情指数算出部3Bは、表情動作単位(AU)に関連付けられている感情を、「Positive」、「Negative」及び「Neutral」といった感情価で表し、該感情価の感情指数を算出する。
本実施形態において感情指数は、AUごとの動き強度の評価である「A」~「E」を、「1」~「5」で数値化することにより算出する。前述したように、表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないので、感情指数を「0」と算出する。例えばAU12は「Positive」に関連付けられるが、その動きの強度が「B」だった場合、これをPositiveの「2」と算出できる。すなわち、本実施形態では、表情動作評価部3AによるAUの動きの強度を数値化した値と、感情指数算出部3Bが算出する感情指数とが同じ数値となる。したがって、後述する表情動作評価パタンに示された感情指数の値は、表情動作単位(AU)の動きの強度を数値化した値と同じである。
本実施形態において感情指数は、AUごとの動き強度の評価である「A」~「E」を、「1」~「5」で数値化することにより算出する。前述したように、表情単位における動きが見られない場合は、「A」~「E」の何れにも該当しないので、感情指数を「0」と算出する。例えばAU12は「Positive」に関連付けられるが、その動きの強度が「B」だった場合、これをPositiveの「2」と算出できる。すなわち、本実施形態では、表情動作評価部3AによるAUの動きの強度を数値化した値と、感情指数算出部3Bが算出する感情指数とが同じ数値となる。したがって、後述する表情動作評価パタンに示された感情指数の値は、表情動作単位(AU)の動きの強度を数値化した値と同じである。
本実施形態において表情動作評価部3A及び感情指数算出部3Bが行う処理は、FACS推定自動プログラムに基づく。FACS推定自動プログラムは、顔画像から「AU」ごとの表情動作を抽出・解析し、当該「AU」の動作強度を評価して符号化(コーディング)するとともに、「AU」に関連付けられた感情価とその感情指数とを導出するためのプログラムである。具体的には、表情動作評価部3Aは、顔画像データにおける各AUの動作強度をA~Eで評価する。感情指数算出部3Bは、各「AU」の前記動作強度の評価結果から、該AUごとの感情価とその感情指数を導出する。FACS推定自動プログラムは、例えば、上記したFACS認定コーダーによるコーディング結果を教師データ化したプログラム(例えば、「Affdex」(Affectiva社))を利用することにより実現できる。
本実施形態における感情指数算出部3Bによる評価結果の一例を図2に示す。感情価の感情指数は、例えば0~5のスコアで表される。AUごとに動きの強度の評価や感情指数が記された表を、以下、「表情動作評価パタン」ともいう。表情動作評価パタンは、AUごとの動きの強度のみを示してもよい。また、図2中の「C1」、「C2」・・・「C9」は、それぞれ「撮像装置C1」、「撮像装置C2」・・・「撮像装置C9」(図1参照)により撮像された画像データを示す。図2では、FACSパタンとともに、撮像装置C1~撮像装置C9の顔画像イメージを示す。
抽出部3Cは、複数の顔情報データの表情動作単位の動きの強度(以下、単に「動きの強度」ともいう。)について解析処理を行い、評価対象者の表情を特徴づける部位、又は評価対象者の表情を特徴づける撮像角度の顔情報データを抽出する。本実施形態の抽出部3Cは、表情動作評価部3Aによる評価について解析処理を行う。この解析処理としては、クラスター分析、ヒートマップ分析、主成分分析、ネットワーク分析等の多変量解析が挙げられる。これらは動きの強度のパラメータを用いた解析処理である。
クラスター分析は、複数のパラメータ間の距離情報に基づいて、これらパラメータを複数のグループ(クラスター)に分類する解析処理である。距離情報は、分類対象のパラメータ(目的変数)を、多種類の特性値(説明変数)のベクトル空間に分布させたときの、該パラメータどうしの距離である。パラメータ間の距離は、平方ユークリッド距離、マハラノビス距離、コサイン距離等の定義により求められる。また、クラスター間の距離の測定方法は、ウォード法、群平均法、最短距離法等の方法により求められる。
例えば、複数の角度から撮影された顔画像についてAUごとの動きの強度を用いて、クラスター分析する場合、各顔画像を相関係数で示すベクトル空間において、顔画像どうし間の距離を計算し、当該距離に基づいて、顔画像を複数のクラスに分類する。斯かる分析では、動きの強度が近似する同じAUを、異なる顔画像間の「特徴にかかわる共通のAU」として特定するとともに、該「特徴にかかわる共通のAU」の動きの強度の相関係数が近似である顔画像どうしが、同じグループに分類される。このように、複数の顔画像を、AUの動きの強度との相関係数に基づいて分類する。斯かる分類は、評価対象者Hの表情を特徴づける顔の部位として抽出すべきか否かの判断材料や、特徴的な表情が表出した撮像角度の顔画像として抽出すべきか否かの判断材料となる。
例えば、複数の角度から撮影された顔画像についてAUごとの動きの強度を用いて、クラスター分析する場合、各顔画像を相関係数で示すベクトル空間において、顔画像どうし間の距離を計算し、当該距離に基づいて、顔画像を複数のクラスに分類する。斯かる分析では、動きの強度が近似する同じAUを、異なる顔画像間の「特徴にかかわる共通のAU」として特定するとともに、該「特徴にかかわる共通のAU」の動きの強度の相関係数が近似である顔画像どうしが、同じグループに分類される。このように、複数の顔画像を、AUの動きの強度との相関係数に基づいて分類する。斯かる分類は、評価対象者Hの表情を特徴づける顔の部位として抽出すべきか否かの判断材料や、特徴的な表情が表出した撮像角度の顔画像として抽出すべきか否かの判断材料となる。
本実施形態の抽出部3Cは、クラスター分析により、複数の異なる顔情報データ(顔画像データ)について、表情動作評価パタンに基づき、互いに動き強度が類似するAUでクラスター(集団)を作るように構成されている。クラスター分析の解析結果は、例えば図3に示すようにデンドログラムで表示すると、撮像装置C1~C9で撮像した顔画像(図中においてC1~C9で示す)どうしの類似度を視覚化できる。具体的には(1)各顔画像データ間の類似度に基づいて、最も類似度の高い顔画像データを逐次的に併合してグループ(クラスター)を形成し、(2)グループ間の類似度に基づき、グループ間の併合を繰り返し、1つのグループに併合されるまで繰り返すことで階層構造(デンドログラム)を生成する。これにより、各顔画像データについて、類似する顔画像データ同士をグループごとに集めて分類する。(3)斯かるデンドログラムにおいて、任意の分類数でクラスタリングし、各グループの「AU」の動き強度の平均値を算出する。例えば、図3に示すように、デンドログラムの任意の位置に区分線Lを設けることで、任意の分類数(グループ数)にすることができる。図3に示す区分線Lでは、C1、C2、C8及びC9の顔画像データからなるグループ1と、C3~C5の顔画像データからなるグループ2と、C6及びC7からなるグループ3とに分類される。また、グループ1~3ごとに、各AUの動きの強度の平均値を求めることで、グループごとの特徴的なAUを把握することができる。この場合、特徴的なAUは、同じグループにおける異なる顔画像データ間で動き強度が近似する同じAU、すなわち「特徴にかかわる共通のAU」である。
ヒートマップ分析は、パラメータ間の相関係数を、行列式で、且つ色で表す解析処理である。本分析において相関係数は、その大きさが色の濃淡や色合いの違いで視覚化される。本実施形態においてパラメータ間の相関係数は、顔画像データ間のAUとその動き強度との相関係数である。
主成分分析は、多種類の特性値やパラメータのデータの中から、相互に相関が強いデータの合成変数を主成分として抽出し、該主成分を軸とする座標上に前記データを分布させて、該データの分類を行う解析処理である。主成分分析の解析結果は、一般的に、主成分の寄与率に応じて、第1主成分及び第2主成分の二軸のグラフ、又は第1~第3主成分の三軸のグラフで表示される。主成分分析のグラフからは、各顔画像の相対的なAU(特徴的なAU)を把握できるとともに、該グラフで顔画像を分布させることにより、同じような特徴を有する顔画像を分類することができる。本実施形態においては、異なる顔画像データ間の「特徴にかかわる共通のAU」を主成分とする。
ネットワーク分析は、多種類の特性値やパラメータのデータをノードとし、且つ該データ間の相関係数をエッジとするとともに、ノードどうしをエッジで繋いでエッジ間の関係を表す解析処理である。ネットワーク分析において、ノード間を繋ぐエッジのボンド数、ノード間の距離、及び相関係数の大きさを示すエッジの太さは、適宜設定できる。例えば、AUとその動きの強度との相関係数に基づいてネットワーク分析すると、動きの強度を示すノード間の関係を、ノードの分布やエッジの繋がりで表現することができる。また、AUのノードと顔画像のノードとの関連性や、顔画像のノードどうしの類似性を、前記相関係数の大きさに基づいて表すことができ、これらノードの分布に応じて、共通するAUごとに顔画像を分類することができる。ノードは、AUや動きの強度等のパラメータごとに異なった色や柄を付与していてもよい。また、ネットワーク分析のグラフを三次元オブジェクトとして、回転させたり、あるいは拡大又は縮小させたりして、表示してもよい。
前述した解析処理には、公知の統計解析ソフトを用いることができる。統計解析ソフトには、統計解析処理を行うとともに、その解析結果として、所定のグラフ上にデータ(パラメータ)を分布させて表示させるものを用いてもよく、統計解析処理のみを行うものを用いてもよい。後者のものを用いる場合、解析結果を二次元グラフ又は三次元グラフで表示させるソフトと併用する。統計解析ソフトとしては、例えば、R、SPSS、HAD、JASP、PSPP、SAS、JAMOVI等が挙げられ、該ソフトには多変量解析に応じたパッケージ(関数)が用いられる。前記の表示させるソフトとしては、例えば、Unity、Tinkercad、Metasequoia、Blender、DOGA L-1、Sculptris等が挙げられる。
本実施形態の抽出部3Cは、前述の解析処理により分類した複数の顔情報データ(顔画像データ)のグループ(以下、単に「グループ」ともいう)について、評価対象者の特徴的な表情が最も表出している撮像角度のグループや、該表情が最も表出していない撮像角度のグループを抽出する。斯かる抽出は、各グループに特徴的なAUの動きの強度の高低に基づく。また、特徴的な表情が最も表出しているグループのAUの動きの強度に基づき、該AUに対応する顔の部位を、評価対象者Hの表情を特徴づける顔の部位として抽出する。このようにして、抽出部3Cは、評価対象者Hの表情を特徴づける顔の部位(AU)や特徴的な表情が表出した撮像角度の顔画像を抽出する。
例えば、評価対象者の表情を特徴づけるグループについてAU4及びAU14の動きの強度が高い場合、当該AU4及びAU14に対応する部位R1,R2を、評価対象者の表情に対する寄与率が高い部位として特定するとともに、斯かる部位をメイクやマッサージを施す対象部位とすることができる(図5参照)。
また、本実施形態では複数の顔画像データ(顔情報データ)のうち、評価対象者の表情を特徴づける撮像角度を把握できる。斯かる撮像角度は、複数の顔画像データのうち特徴的な動きの強度となった表情が表出された撮像角度である。これにより、評価対象者の表情がよく表出された印象深い撮像角度や、これとは逆に印象に乏しい撮像角度を把握できる。
また、本実施形態では複数の顔画像データ(顔情報データ)のうち、評価対象者の表情を特徴づける撮像角度を把握できる。斯かる撮像角度は、複数の顔画像データのうち特徴的な動きの強度となった表情が表出された撮像角度である。これにより、評価対象者の表情がよく表出された印象深い撮像角度や、これとは逆に印象に乏しい撮像角度を把握できる。
本実施形態のシステム1は、前述したように感情指数算出部3Bを具備するので、個々のAUごとの感情価とその感情指数を導出でき、これを表情動作評価パタンに示すことができる。この感情指数は、表情動作評価部3Aの評価結果(表情動作単位の動きの強度)に基づくので、抽出部3Cによる顔情報データの抽出結果は、異なる顔情報データ間の感情価とその感情指数の類似度も反映されているといえる。これにより、抽出部3Cによって分類された顔情報データのグループについて、特徴的な感情価とその感情指数を把握することができる。また、各グループの特徴を感情価とその感情指数で表せることで、評価対象者の表情の特徴をイメージし易くなり、表情の情報を他者間で共有したり、伝達したりする際のコミュニケーションを円滑化できる。
本実施形態のシステム1は、抽出部3Cが導出した抽出結果を提示する。斯かる提示は、システム1が具備する表示部6に抽出結果を表示させる態様e1や、ネットワークを介してシステム1とは別体の情報端末に抽出結果のデータを送信する態様e2、別体の情報端末がアクセスした汎用のウェブブラウザに抽出結果を表示する態様e3等が挙げられる。ここで「別体の情報端末」は、システム1のユーザーが保有する情報端末であり、スマートフォン等のタブレット端末やPC等が挙げられる。斯かるユーザーは、システム1が提示する抽出結果を用いる者全般であって、該抽出結果を用いて評価対象者の表情を特徴づける部位や撮像角度の把握や、これらの部位や撮像角度に基づく評価対象者の表情の分析又は評価を実施する者等が挙げられる。より具体的には、化粧品の対面販売を行う店舗において、メイクのアドバイスを顧客に行うアドバイザーや、店舗にて顔のマッサージを行う施術者、抽出結果の提供サービスを受ける一般利用者等が挙げられる。
例えば、前記態様e2として、一般利用者が所有するスマートフォンにインストールされたアプリケーションを通じて対応情報が配信される態様等が挙げられる。
また、前記態様e3として、アドバイザー、施術者や一般利用者がタブレット端末を用いて、汎用のウェブブラウザにアクセスし、該ウェブブラウザのページに対応情報を表示させる態様等が挙げられる。
例えば、前記態様e2として、一般利用者が所有するスマートフォンにインストールされたアプリケーションを通じて対応情報が配信される態様等が挙げられる。
また、前記態様e3として、アドバイザー、施術者や一般利用者がタブレット端末を用いて、汎用のウェブブラウザにアクセスし、該ウェブブラウザのページに対応情報を表示させる態様等が挙げられる。
次に、本発明の特徴抽出方法を、上述した特徴抽出システム1において実行される制御処理(以下、「特徴抽出処理」という。)を例に、図面を参照しながら説明する。以下においては、説明の便宜上、撮像装置C1~C9と制御装置2とが互いに通信可能な状態になっていることを前提として説明する。
図4に示すように、本実施形態にかかる特徴抽出処理は、主に、制御部3において実行され、ステップS100における処理を行うことから始まる。以下に示す各ステップの実行主体は、制御部3のCPUである。
先ず、ステップS100において顔情報取得部5が、顔情報取得工程を実行する。本実施形態では、撮像装置C1~C9から評価対象者Hの顔画像データを顔情報取得部5が受け付け、該顔画像データを記憶部4に記憶させるとともに、該顔画像データをステップS200以降の処理対象として特定する。撮像装置C1~C9による顔画像の撮影は、システム1のユーザーの操作に応じて実行される。
先ず、ステップS100において顔情報取得部5が、顔情報取得工程を実行する。本実施形態では、撮像装置C1~C9から評価対象者Hの顔画像データを顔情報取得部5が受け付け、該顔画像データを記憶部4に記憶させるとともに、該顔画像データをステップS200以降の処理対象として特定する。撮像装置C1~C9による顔画像の撮影は、システム1のユーザーの操作に応じて実行される。
続くステップS200において、表情動作評価部3Aが、ステップS100で取得した顔情報データ(顔画像データ)を対象に、表情動作評価工程を実行する。本実施形態では、表情動作評価部3Aが、各顔画像データに対し、「AU」ごとの動作強度(動きの強度)を評価する。具体的には、表情動作評価部3Aは、撮像装置C1~C9から送信された各顔画像データに対し、FACS推定自動プログラムに従って、各「AU」に対応する顔の部位(例えば、眉周りや目元)を抽出した後、「AU」ごとに動きの強度を評価する制御を行う。また、表情動作評価部3Aは、前記動きの強度の評価「A」~「E」を、1~5で数値化する処理を行う。
例えば、表情動作評価部3Aは、図2に示すように、撮像装置C1により撮像された画像データに対しては「AU6:0」、「AU12:0」、「AU2:0」・・・、撮像装置C2により撮像された画像データに対しては「AU6:0」、「AU12:1」、「AU2:0」・・・といったように、「AU」ごとに動きの強度を評価する制御を行う。
ステップS200の表情動作評価工程を行った後、ステップS300に進む。
ステップS200の表情動作評価工程を行った後、ステップS300に進む。
ステップS300では、感情指数算出部3Bが、感情指数算出工程を実行する。本実施形態では、表情動作評価部3Aによる評価結果と、「AU」に関連付けられている感情とに基づき、感情指数算出部3Bが、顔画像データの「AU」ごとに感情指数を算出する。本実施形態において「AU」に関連付けられている感情は、「Positive」、「Negative」及び「Neutralといった感情価で示される。
例えば、感情指数算出部3Bは、図2に示すように、FACS推定自動プログラムに従って、「AU6」に対しては「感情価:Positive」、「C1:0」、「C2:0」、「C3:0」・・・「C9:0」、「AU12」に対しては「感情価:Positive」、「C1:0」、「C2:1」、「C3:0」・・・「C9:0」といったように、感情指数を算出する制御を行う。
制御部3は、ステップS300の表情動作評価工程を行った後、ステップS400に処理を移す。なお、本実施形態では、感情指数を算出する際、「AU」に関連付けられた感情価(「Positive」、「Negative」及び「Neutral」)を用いたが、これに代えて、例えば、上記した「AU」に関連付けられた基本感情(例えば、「Happy」、「Sad」、「Angry」及び「Fear」)を用いてもよい。
ステップS300の感情指数算出工程を行った後、ステップS400に進む。
ステップS300の感情指数算出工程を行った後、ステップS400に進む。
本実施形態の特徴抽出方法は感情指数算出工程(ステップS300)を具備するが、感情指数算出工程を実行しなくてもよい。この場合、ステップS200の実行後、ステップS400に進む。
ステップS400では、抽出部3Cが、抽出工程を実行する。本実施形態では、抽出部3Cが、ステップS200の表情動作評価工程で得られたAUごとの動きの強度についてクラスター分析等の解析処理を行い、評価対象者Hの表情を特徴づける部位、及び、評価対象者Hの表情を特徴づける撮像角度の顔画像を抽出する制御を行う。
例えば抽出部3Cは、クラスター分析のプログラムに従って、前述した(1)~(3)のクラスター分析を行い、該クラスター分析の結果に基づき、評価対象者Hの表情を特徴づける顔の部位や特徴的な表情が表出した撮像角度の顔画像を抽出する。
制御部3は、ステップS400の抽出工程を行った後、本特徴抽出処理を終了する。
制御部3は、ステップS400の抽出工程を行った後、本特徴抽出処理を終了する。
特徴抽出処理を終了すると、抽出部3Cの抽出結果が記憶部4に記憶される。あるいは、表示部6や、ネットワークを介して接続された別体の情報端末(例えば、スマートフォン)の表示部に、抽出結果が表示される。
本実施形態では、ステップS100~ステップS400の処理を、制御装置2による制御により実行したが、該制御装置2に代えて、人手により行うことも可能である。すなわち、本実施形態の特徴抽出方法は、顔情報取得工程、表情動作評価工程、及び抽出工程の何れか1つの工程又は2つ以上の工程を人手によって実行してもよい。例えば、顔情報取得工程、表情動作評価工程、及び抽出工程の全ての工程を人手により行ってもよい。
また、表情動作評価工程を人が実行する場合、その人が評価対象者Hの表情を目視で確認しながら、表情動作単位の動きの強度を評価する。この場合、FACS認定コーダーがマニュアルコーディングによって、顔情報取得工程と表情動作評価工程とを同時に実行する。
また、表情動作評価工程を人が実行する場合、その人が評価対象者Hの表情を目視で確認しながら、表情動作単位の動きの強度を評価する。この場合、FACS認定コーダーがマニュアルコーディングによって、顔情報取得工程と表情動作評価工程とを同時に実行する。
さらに、本実施形態の特徴抽出処理において感情指数算出工程を実行する場合、制御装置2が感情指数算出工程を実行してもよく、該制御装置2に代えて、人が感情指数算出工程を実行してもよい。
本実施形態の特徴抽出方法では、上記の方法により、複数の異なる撮像角度から撮像した顔画像データを用いて、評価対象者の表情を特徴づける顔の部位を抽出できる。この場合、その抽出結果は、該顔の部位を考慮した表情の作り方や化粧方法を検討するための検討材料とすることができ、該表情の作り方や化粧方法のカウンセリングに活用することができる。例えば、特徴的な表情としてAU1の動きの強度が高い撮像角度のグループ(a1)と、該AU1の動きの強度が低い撮像角度のグループ(b1)とに分類された場合、該グループ(b1)の撮像角度でも、AU1の動作が強調されるような表情の作り方や化粧方法を提案することができる。
また、どの撮像角度でも同じような表情を表出させたい場合は、抽出された表情を特徴づける部位について、どの撮像角度でも同程度の動きの強度となるような表情の作り方や化粧方法を提案することができる。例えば、どの撮像角度でも評価対象者に特徴的な表情を表出させることで、該評価対象者の印象を強調できる。
さらにクラスター分析によって分類されたグループについて、評価対象者の好み等に応じてグループを選択し、そのグループに特徴的なAUを抽出することもできる。この場合、他のグループの顔画像でも該特徴的なAUの動きの強度が高まるような表情の作り方や化粧方法を提案することができる。これにより、他のグループの撮像角度においても、選択したグループの撮像角度に近い印象を付与できる。
表情の作り方としては、評価対象者が意識して所定のAUに対応する部位を動かし表情を作る他、強調したいAUに対応する部位の動きを円滑化するように、該部位にマッサージを施す方法等が挙げられる。
また、どの撮像角度でも同じような表情を表出させたい場合は、抽出された表情を特徴づける部位について、どの撮像角度でも同程度の動きの強度となるような表情の作り方や化粧方法を提案することができる。例えば、どの撮像角度でも評価対象者に特徴的な表情を表出させることで、該評価対象者の印象を強調できる。
さらにクラスター分析によって分類されたグループについて、評価対象者の好み等に応じてグループを選択し、そのグループに特徴的なAUを抽出することもできる。この場合、他のグループの顔画像でも該特徴的なAUの動きの強度が高まるような表情の作り方や化粧方法を提案することができる。これにより、他のグループの撮像角度においても、選択したグループの撮像角度に近い印象を付与できる。
表情の作り方としては、評価対象者が意識して所定のAUに対応する部位を動かし表情を作る他、強調したいAUに対応する部位の動きを円滑化するように、該部位にマッサージを施す方法等が挙げられる。
また、本実施形態の特徴抽出方法は、顔情報取得工程で異なる表情の顔画像データを取得し、これに基づく動きの強度を得て、抽出工程を行うこともできる。この場合、評価対象者Hの顔情報データ(顔画像データ)は、異なる角度から取得されたものであってもよく、1つの角度から取得されたものであってもよい。異なる表情の顔画像データの動きの強度に基づく抽出工程により、評価対象者の表情を特徴づける部位を把握できる。この特徴づける部位が円滑に動くと、表情が分かり易くなるので、該特徴づける部位をマッサージの施術部位として特定することができる。また、動きの強度が低いAUに対応する部位を、マッサージの施術部位として特定することもできる。これにより、施術された部位が動き易くなって、評価対象者の表情を豊かにすることができる。
以上、本発明をその好ましい実施形態に基づき説明したが、本発明は上述した実施形態に限定されない。
例えば、制御装置2に、システム1の専用のソフトウェアやハードウェア、オンプレミス型のサーバー構成等といったOS(Operating System)等を設けずに、クラウドサーバーによるSaaS(Software as a Service)、Paas(Platform as a Service)、IaaS(Infrastructure as a Service)を用いてもよい。斯かる構成により、制御装置2の抽出部3Cが導出する抽出結果を、汎用のウェブブラウザを介してユーザーに提供することができる。また、抽出部3Cは顔情報データのグループの分類や抽出結果を出力して、汎用のウェブブラウザを介してユーザーが有するスマートフォン等の情報端末に提供することができる。具体的には、システム1から出力された分類や抽出結果、表情動作パタンが、ウェブブラウザを介してユーザーが所有する別体の情報端末が備える表示部に表示される。
例えば、制御装置2に、システム1の専用のソフトウェアやハードウェア、オンプレミス型のサーバー構成等といったOS(Operating System)等を設けずに、クラウドサーバーによるSaaS(Software as a Service)、Paas(Platform as a Service)、IaaS(Infrastructure as a Service)を用いてもよい。斯かる構成により、制御装置2の抽出部3Cが導出する抽出結果を、汎用のウェブブラウザを介してユーザーに提供することができる。また、抽出部3Cは顔情報データのグループの分類や抽出結果を出力して、汎用のウェブブラウザを介してユーザーが有するスマートフォン等の情報端末に提供することができる。具体的には、システム1から出力された分類や抽出結果、表情動作パタンが、ウェブブラウザを介してユーザーが所有する別体の情報端末が備える表示部に表示される。
上述した実施形態では、表情動作評価パタンの生成等に、FACS推定自動プログラム(例えば、「Affdex」(Affectiva社))を利用したが、例えば、いわゆる3D画像撮像解析装置(VECTRA(Canfield社))を用いることも可能である。この場合、評価対象者の顔について、3D画像撮像解析装置による3次元形状解析を行い、その解析結果に基づいて表情動作評価パタンを生成すればよい。また、公知の画像認識技術を利用して、顔のしわの位置及び強度(例えば、深さ)を抽出し、その抽出されたしわ情報等に基づいて表情動作評価パタンを生成することも可能である。
以下、本発明を実施例によりさらに具体的に説明するが、本発明は斯かる実施例に限定されるものではない。
(実施例1)
実施例1では、図1に示す特徴抽出システム1を用いて、評価対象者(評価対象者W)の表情を特徴づける部位を抽出した。具体的には、撮像装置C1~C9(図1参照)を用いて、複数の異なる角度から評価対象者を撮像し、得られた顔画像の表情動作評価パタンを求めた。評価対象者である評価対象者Wは、「素顔(化粧無し)」かつ「無表情」の状態で撮像した。図6に、評価対象者Wの顔画像とともに、該顔画像に基づく表情動作評価パタンを示す。図6に示す顔画像は、それぞれ撮像装置C1~C9(図1参照)に対応している。また、図6に示す表情動作評価パタンに示された感情指数の値は、表情動作単位(AU)の動きの強度を数値化した値と同じである。図中の「X」は、クラスター分析の解析に用いていない。
実施例1では、図1に示す特徴抽出システム1を用いて、評価対象者(評価対象者W)の表情を特徴づける部位を抽出した。具体的には、撮像装置C1~C9(図1参照)を用いて、複数の異なる角度から評価対象者を撮像し、得られた顔画像の表情動作評価パタンを求めた。評価対象者である評価対象者Wは、「素顔(化粧無し)」かつ「無表情」の状態で撮像した。図6に、評価対象者Wの顔画像とともに、該顔画像に基づく表情動作評価パタンを示す。図6に示す顔画像は、それぞれ撮像装置C1~C9(図1参照)に対応している。また、図6に示す表情動作評価パタンに示された感情指数の値は、表情動作単位(AU)の動きの強度を数値化した値と同じである。図中の「X」は、クラスター分析の解析に用いていない。
次いで、図6の表情動作評価パタンの導出に用いた各AUの動きの強度について、クラスター分析のプログラムにより、ウォード法による平方ユークリッド距離を使用したクラスター分析を行った。図7に、クラスター分析によって得られたデンドログラムを示す。このデンドログラムに区分線Lを引き、撮像装置C1~C9により撮像した9個の顔画像データを、3つのグループに分類した。具体的には、撮像装置C1、C9及びC2の各顔画像データからなるグループ1、撮像装置C7、C8及びC3の各顔画像データからなるグループ2、及び撮像装置C4~C6の各顔画像データからなるグループ3に分類した。また、各グループ1~3について、「AU」ごとの動きの強度の平均値を求めた(図7の下表参照)。表中の「1」は撮像装置C1、C9及びC2の各顔画像データからなるグループ1を、「2」は撮像装置C7、C8及びC3の各顔画像データからなるグループ2を、「3」は撮像装置C4~C6の各顔画像データからなるグループ3を、それぞれ示している。
また、各グループ1~3におけるAUごとの動きの強度の平均値を求めた。例えば、図7に示すように、グループ1では、「AU12」の動きの強度の平均値が0.333である。これは、図6の表情動作評価パタンにおける撮像装置C1、C9及びC2の各顔画像データについて、AU12の動きの強度の合計を、グループ1を構成する顔画像データの個数(3個)で除することにより求めた。
また、図6の表情動作評価パタンの導出に用いた各AUの動きの強度の合計を、顔画像データの個数(9個)で除した平均値を求め、これを「全体平均値」とした。図6の表に示すように、「AU12」(唇両端を上げる動作)の全体平均値(「0.444」)及び「AU14」(えくぼを作る動作)の全体平均値が、他の「AU」の全体平均値より高い値であった。斯かる結果から、評価対象者Wの表情を特徴づける顔の部位は、「AU12」に対応する「唇両端」及び「AU14」に対応する「えくぼを作る部位」と推定できる。
図7の表によれば、他のグループに比してグループ3が、「AU12」の動きの強度の平均値と、「AU14」の動きの強度の平均値とが高い結果となった。また、グループ1に比してグループ2が、「AU14」の動きの強度の平均値が高い結果となった。斯かる結果から、評価対象者Wの表情を特徴づける撮像角度は、撮像装置C4~C6の撮像角度であると推定できる。換言すれば、評価対象者Wの顔正面を0度とした場合(撮像装置C5の方向)、顔正面から左45度(撮像装置C3の方向)と顔正面から右67.5度(撮像装置C8の方向)との間の範囲内における撮像角度が、評価対象者Wの表情を特徴づける撮像角度と推定できる。
図7に示す結果より、評価対象者Wの表情を特徴づける部位として、「唇両端(「AU12」)」及び「えくぼを作る部位(AU14)」が抽出される。また、評価対象者Wの表情を特徴づける撮像角度として、正面から左45度と正面から右67.5度との間の範囲の撮像角度が抽出される。これらの結果に基づき、前記表情を特徴づける部位を強調するようなメイクを提案できる。例えば、該部位の化粧を比較的濃い目にする、といった提案できる。さらに、前記特徴づける部位を強調するような表情にするため、これらの部位を構成する表情筋をマッサージの施術部位として提案することも可能である。
一方、上記のクラスター分析の結果及び図6の表情動作評価パタンによれば、評価対象者Wの顔は、撮像装置C4~C6が配置される角度とその左右方向両側の撮像装置C3、C7及びC8が配置される撮像角度では、見る角度によっては異なる印象を与えやすい顔立ち(多面性のある顔立ち)と評価できる。斯かる評価結果から、評価対象者の特徴的な表情の表出を抑えるような化粧方法を提案することも可能である。このような化粧方法としては、例えば、「唇両端(AU12)」及び「えくぼを作る部位(AU14)」に比較的薄めな化粧を施しつつ、その他の部位に比較的厚めな化粧を施すものを提案することができる。
図8は、図6の評価対象者Wの顔に化粧を施した状態の顔画像に基づく表情動作評価パタンを示したものである。また、図8に示す表情動作評価パタンの導出に用いた各AUの動きの強度に対しクラスター分析を行い、3つのグループに分類した。図8では同じグループに分類された顔画像について、撮像装置C1~C9の欄に同じ濃淡の灰色を着色している。図8の表情動作評価パタンによれば、図6とは異なるAUで動きの強度が1以上となり、素顔とは異なる印象となったことが判る。斯かる表情動作評価パタンによれば、図8に示す各顔画像は、図7に示すグループとは異なるグループに分類がされたことが示された。
(実施例2)
実施例2においても、図1に示す特徴抽出システム1を用いて、評価対象者(評価対象者W)の表情を特徴づける部位を抽出した。評価対象者は、図6に示す表情とは異なる表情で顔画像を撮像した。撮像は、実施例1と同様に、撮像装置C1~C9(図1参照)を用いて行った。この場合の評価対象者の顔画像に基づく表情動作評価パタンを図9に示す。また、図9の表情動作評価パタンの導出に用いた各AUの動きの強度に対しクラスター分析を行い、クラスター分析により分類された各グループのAUの感情指数の平均値を求めた。すなわち、図9の表情動作評価パタンを用いてデンドログラムを作成し、撮像装置C1~C9により撮像した9個の顔画像データを3つのグループ1~3に分類した。具体的には、撮像装置C3、C7、C6、C8及びC2の撮像装置C1及びC9からなるグループ1、各顔画像データからなるグループ2、及び、撮像装置C4及びC5の各顔画像データからなるグループ3に分類した。斯かるクラスター分析は、実施例1と同様の方法により行った。
実施例2においても、図1に示す特徴抽出システム1を用いて、評価対象者(評価対象者W)の表情を特徴づける部位を抽出した。評価対象者は、図6に示す表情とは異なる表情で顔画像を撮像した。撮像は、実施例1と同様に、撮像装置C1~C9(図1参照)を用いて行った。この場合の評価対象者の顔画像に基づく表情動作評価パタンを図9に示す。また、図9の表情動作評価パタンの導出に用いた各AUの動きの強度に対しクラスター分析を行い、クラスター分析により分類された各グループのAUの感情指数の平均値を求めた。すなわち、図9の表情動作評価パタンを用いてデンドログラムを作成し、撮像装置C1~C9により撮像した9個の顔画像データを3つのグループ1~3に分類した。具体的には、撮像装置C3、C7、C6、C8及びC2の撮像装置C1及びC9からなるグループ1、各顔画像データからなるグループ2、及び、撮像装置C4及びC5の各顔画像データからなるグループ3に分類した。斯かるクラスター分析は、実施例1と同様の方法により行った。
また、実施例1と同様の方法により、各グループ1~3におけるAUごとの動きの強度の平均値と、全体平均値とを求めた。これら平均値と全体平均値の表を、図10のデンドログラムの下に示す。表中の「1」は撮像装置C1及びC9の各顔画像データからなるグループ1を、「2」は撮像装置C3、C7、C6、C8及びC2の各顔画像データからなるグループ2を、「3」は撮像装置C4及びC5の各顔画像データからなるグループ3を、それぞれ示している。
図10の表によれば、「AU4」(眉を下げる動作)の動きの強度の全体平均値(「2.6667」)が他の「AU」の全体平均値よりも高い結果となった。また、他のグループに比してグループ3が、「AU14」(えくぼを作る動作)の動きの強度の平均値(「2.00」)が高い値であった。このような結果から、評価対象者の表情を特徴づける顔の部位は、「眉部」(「AU4」)と「えくぼを作る部位」(「AU14」)と推定できる。
この場合、評価対象者に対して、AU4及びAU14にそれぞれ対応する顔の部位を、マッサージの施術部位として提案できる。斯かるマッサージにより、AU4及びAU14にそれぞれ対応する顔の部位が動き易くなり、表情を豊かにすることが期待できる。
この場合、評価対象者に対して、AU4及びAU14にそれぞれ対応する顔の部位を、マッサージの施術部位として提案できる。斯かるマッサージにより、AU4及びAU14にそれぞれ対応する顔の部位が動き易くなり、表情を豊かにすることが期待できる。
(実施例3)
実施例3では、複数の異なる表情(表情a~i)の各顔画像に基づき(図11参照)、評価対象者(評価対象者W)の表情を特徴づける部位を抽出した。斯かる実施例では評価対象者Wの顔について、異なるタイミングで、同じ角度から複数の顔情報データ(顔画像)を取得した。表情を特徴づける部位の抽出方法は、複数の異なる表情の顔画像のAUごとの動きの強度を求め、該AUごとの動きの強度について、クラスター分析を行った。表情動作評価パタン及びクラスター分析は、実施例1と同様の方法により行った。本実施例では、クラスター分析により、表情a~iの顔画像を4つのグループに分類した。図11では、表情動作評価パタンを示すとともに、同じグループに分類された顔画像について、表情a~iの欄に同じ濃淡の灰色を着色している。表情eの欄が白色で示されているが、該表情eの顔画像は、クラスター分析においてどのグループにも属さないことを意味する。また、図11の表情動作評価パタンでは、感情価とともに各AUに関連する基本感情を示す。
実施例3では、複数の異なる表情(表情a~i)の各顔画像に基づき(図11参照)、評価対象者(評価対象者W)の表情を特徴づける部位を抽出した。斯かる実施例では評価対象者Wの顔について、異なるタイミングで、同じ角度から複数の顔情報データ(顔画像)を取得した。表情を特徴づける部位の抽出方法は、複数の異なる表情の顔画像のAUごとの動きの強度を求め、該AUごとの動きの強度について、クラスター分析を行った。表情動作評価パタン及びクラスター分析は、実施例1と同様の方法により行った。本実施例では、クラスター分析により、表情a~iの顔画像を4つのグループに分類した。図11では、表情動作評価パタンを示すとともに、同じグループに分類された顔画像について、表情a~iの欄に同じ濃淡の灰色を着色している。表情eの欄が白色で示されているが、該表情eの顔画像は、クラスター分析においてどのグループにも属さないことを意味する。また、図11の表情動作評価パタンでは、感情価とともに各AUに関連する基本感情を示す。
図11に示す各顔画像は、1台の撮像装置C5により撮像した。撮像角度は、評価対象者の正面とした。図11に示す顔画像は、表情aが自然な表情(表情表出時)の顔画像であり、表情bが悲しい表情の顔画像であり、表情cが困惑している表情の顔画像であり、表情dがやや怒っている表情の顔画像であり、表情eが怒っている表情の顔画像であり、表情fが笑っている表情の顔画像であり、表情gがやや笑っている表情の顔画像であり、表情hが驚いている表情の顔画像であり、表情iが微笑んでいる表情の顔画像である。
図11に示す表情動作評価パタンの導出に用いた各AUの動きの強度に対してクラスター分析を行った結果、表情a~表情dの各顔画像データからなるグループ、表情f及び表情gの各顔画像データからなるグループ、表情h及び表情iの各顔画像データからなるグループ、並びに表情eの顔画像、といった4つのグループに分類された。これら各グループを比較すると、表情a~表情dの各顔画像データからなるグループでは、他のグループに比して「AU14」(えくぼを作る動作)の動きの強度が高い値を示している。また、表情eの顔画像データは、「AU14」における数値が「4」と極めて高い値となっている。斯かる結果から、評価対象者Wの表情を特徴づける部位は、「AU14」に関連付けされる「えくぼを作る部位」と推定できる。この場合、評価対象者Wに対しては、「えくぼを作る部位」をマッサージの施術部位として提案できる。これにより、評価対象者Wの表情をより豊かにすることが期待できる。
1 特徴抽出システム
2 制御装置
3 制御部
3A 表情動作評価部
3B 感情指数算出部
3C 抽出部
4 記憶部
5 顔情報取得部
6 表示部
C1~C9 撮像装置
H 評価対象者
W 評価対象者
L 区分線
R1,R2 部位
2 制御装置
3 制御部
3A 表情動作評価部
3B 感情指数算出部
3C 抽出部
4 記憶部
5 顔情報取得部
6 表示部
C1~C9 撮像装置
H 評価対象者
W 評価対象者
L 区分線
R1,R2 部位
Claims (5)
- 評価対象者の顔を撮像した顔情報データに基づき、該評価対象者の表情を特徴づける部位又は撮像角度を抽出する特徴抽出方法であって、
評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する顔情報取得工程と、
個々の前記顔情報データに対し、前記評価対象者の表情筋の動きに基づく表情動作単位の動きの強度を評価する表情動作評価工程と、
複数の前記顔情報データの前記動きの強度について解析処理を行い、前記評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の前記顔情報データを抽出する、抽出工程とを備える、特徴抽出方法。 - 前記解析処理が、クラスター分析、ヒートマップ分析、又は主成分分析である、請求項1に記載の特徴抽出方法。
- 前記顔情報取得工程において、複数の異なる角度からの顔情報データを取得する、請求項1又は2に記載の特徴抽出方法。
- 前記顔情報取得工程において、異なる表情の顔情報データを取得する、請求項1~3の何れか1項に記載の特徴抽出方法。
- 評価対象者の顔情報データに基づき、該評価対象者の表情の印象を評価する特徴抽出システムであって、
評価対象者の、撮像のタイミング又は撮像角度の異なる複数の顔情報データを取得する顔情報取得部と、
個々の前記顔情報データに対し、前記評価対象者の表情筋の動きに基づく表情動作単位ごとに、動きの強度を評価する表情動作評価部と、
複数の前記顔情報データの前記動きの強度について解析処理を行い、前記評価対象者の表情を特徴づける部位、又は前記評価対象者の表情を特徴づける撮像角度の前記顔情報データを抽出する、抽出部とを備える、特徴抽出システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145818A JP2023038871A (ja) | 2021-09-07 | 2021-09-07 | 特徴抽出方法及び特徴抽出システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021145818A JP2023038871A (ja) | 2021-09-07 | 2021-09-07 | 特徴抽出方法及び特徴抽出システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023038871A true JP2023038871A (ja) | 2023-03-17 |
Family
ID=85514780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145818A Pending JP2023038871A (ja) | 2021-09-07 | 2021-09-07 | 特徴抽出方法及び特徴抽出システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023038871A (ja) |
-
2021
- 2021-09-07 JP JP2021145818A patent/JP2023038871A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Laurentini et al. | Computer analysis of face beauty: A survey | |
Bandini et al. | Analysis of facial expressions in parkinson's disease through video-based automatic methods | |
Lou et al. | Realistic facial expression reconstruction for VR HMD users | |
CN114502061A (zh) | 使用深度学习的基于图像的自动皮肤诊断 | |
Zhang et al. | Computer models for facial beauty analysis | |
WO2018175266A1 (en) | Methods and apparatuses for age appearance simulation | |
Alabbasi et al. | Real time facial emotion recognition using kinect V2 sensor | |
KR101116838B1 (ko) | 개인성향을 반영한 과장표정 생성방법 | |
Murugappan et al. | Facial expression classification using KNN and decision tree classifiers | |
Bottino et al. | The analysis of facial beauty: an emerging area of research in pattern analysis | |
JP5095182B2 (ja) | 顔分類装置、顔分類プログラム、及び該プログラムが記録された記録媒体 | |
Wang et al. | Style transformed synthetic images for real world gaze estimation by using residual neural network with embedded personal identities | |
Vetter et al. | Computer-generated images in face perception | |
JP2023038871A (ja) | 特徴抽出方法及び特徴抽出システム | |
JP4893968B2 (ja) | 顔画像の合成方法 | |
JP2023038870A (ja) | 印象評価方法及び印象評価システム | |
CN117894057B (zh) | 用于情感障碍辅助诊断的三维数字人脸处理方法与装置 | |
KR20240009440A (ko) | 컴퓨터-기반 신체 부위 분석 방법들 및 시스템들 | |
Rivera et al. | Development of an automatic expression recognition system based on facial action coding system | |
Bouchani et al. | A novel framework for quantitative rhinoplasty evaluation by ResNet convolutional neural network | |
Ferrari et al. | A 3DMM-Based Framework for Deformation Measurement in Face Rehabilitation | |
Heravi et al. | Adult-child 3D backward face aging model (3D B-FAM) | |
Heravi et al. | A 3D dynamic shape model to simulate rejuvenation & ageing trajectory of 3D face images | |
Lou | Facial Performance Capture from Visual Input and EMG Signals | |
Nguyen | Enhanced facial behavior recognition and rehabilitation using 3D biomechanical features and deep learning approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240611 |