JP2022047253A - Impression estimation device, impression estimation method, and impression estimation program - Google Patents

Impression estimation device, impression estimation method, and impression estimation program Download PDF

Info

Publication number
JP2022047253A
JP2022047253A JP2020153059A JP2020153059A JP2022047253A JP 2022047253 A JP2022047253 A JP 2022047253A JP 2020153059 A JP2020153059 A JP 2020153059A JP 2020153059 A JP2020153059 A JP 2020153059A JP 2022047253 A JP2022047253 A JP 2022047253A
Authority
JP
Japan
Prior art keywords
impression
evaluation value
feature amount
estimation
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020153059A
Other languages
Japanese (ja)
Inventor
雛代 浅井
Hinayo Asai
綾子 森瀬
Ayako Morise
敏夫 五十嵐
Toshio Igarashi
宏行 山羽
Hiroyuki Yamaha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Menard Cosmetic Co Ltd
Original Assignee
Nippon Menard Cosmetic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Menard Cosmetic Co Ltd filed Critical Nippon Menard Cosmetic Co Ltd
Priority to JP2020153059A priority Critical patent/JP2022047253A/en
Publication of JP2022047253A publication Critical patent/JP2022047253A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To improve estimation accuracy of own impression from others by reflecting the psychological state that cannot be properly evaluated by estimation methods that employ appearance as an indicator.SOLUTION: An impression estimation device is provided for estimating own impression from others. The impression estimation device comprises: a feature quantity acquisition unit for acquiring a feature quantity of own face; an evaluation value acquisition unit for acquiring an evaluation value of self-impression; and an estimation unit for estimating impression using an impression estimation formula prepared in advance to estimate impression from others using a feature quantity and an evaluation value of self-impression as variables, and the acquired feature quantity and evaluation value.SELECTED DRAWING: Figure 3

Description

本開示は、他者による自身の印象を推定する技術に関する。 The present disclosure relates to techniques for estimating one's own impression by others.

他者に対して自身がどのような印象を与えるかは、他者とのコミュニケーションを取るうえで重要な要素の一つである。従来、例えば、質問シートを利用して、自身の性格や心理状態を数値化する評価方法が知られている。また、対象者の外観を指標として用いて、他者が抱く対象者の印象を推定する技術が知られている(例えば、特許文献1)。 What kind of impression you give to others is one of the important factors in communicating with others. Conventionally, for example, an evaluation method for quantifying one's personality and psychological state by using a question sheet has been known. Further, there is known a technique of estimating the impression of a subject held by another person by using the appearance of the subject as an index (for example, Patent Document 1).

特開2015-527224号公報Japanese Unexamined Patent Publication No. 2015-527224

しかしながら、自身が他者に与える印象は、外観のみならず自身の内面、すなわち、心理状態により醸し出される雰囲気によっても影響を受ける。従来の外観を指標とする推定技術においては、心理状態により影響を受ける外観の変化までは評価することができず、外観を指標とする評価方法によっては自身が他者に与える印象を精度良く推定することができなかった。 However, the impression that oneself gives to others is influenced not only by the appearance but also by one's inner side, that is, the atmosphere created by the psychological state. With the conventional estimation technology using the appearance as an index, it is not possible to evaluate changes in the appearance that are affected by the psychological state, and depending on the evaluation method using the appearance as an index, the impression that oneself gives to others can be estimated accurately. Couldn't.

したがって、外観を指標とする推定方法によっては適切に評価できない心理状態を反映し、他者による自身の印象の推定精度を向上させることが望まれている。 Therefore, it is desired to improve the estimation accuracy of one's own impression by others by reflecting the psychological state that cannot be appropriately evaluated by the estimation method using the appearance as an index.

上記課題の少なくとも一部を解決するために、本開示は以下の種々の態様を採る。 In order to solve at least a part of the above problems, the present disclosure adopts the following various aspects.

第1の態様は、他者による自身の印象を推定する印象推定装置を提供する。第1の態様に係る印象推定装置は、自身の顔の特徴量を取得する特徴量取得部と、自身による自己印象の評価値を取得する評価値取得部と、特徴量と自己印象の評価値とを変数とし、他者による印象を推定するための予め用意された印象推定式と、取得された前記特徴量と前記評価値とを用いて印象を推定する推定部と、を備える。 The first aspect provides an impression estimation device that estimates one's own impression by another person. The impression estimation device according to the first aspect has a feature amount acquisition unit that acquires a feature amount of its own face, an evaluation value acquisition unit that acquires an evaluation value of its own self-impression, and an evaluation value of the feature amount and its own impression. It is provided with an impression estimation formula prepared in advance for estimating an impression by another person, and an estimation unit for estimating an impression using the acquired feature amount and the evaluation value.

第1の態様に係る印象推定装置によれば、特徴量と自己印象の評価値とを変数とし、他者による印象を推定するための予め用意された印象推定式と、取得された特徴量と評価値とを用いて印象を推定するので、外観を指標とする推定方法によっては適切に評価できない心理状態を反映し、他者による自身の印象の推定精度を向上させることができる。 According to the impression estimation device according to the first aspect, the feature amount and the evaluation value of the self-impression are used as variables, and the impression estimation formula prepared in advance for estimating the impression by another person and the acquired feature amount are used. Since the impression is estimated using the evaluation value, it is possible to improve the estimation accuracy of one's own impression by another person by reflecting the psychological state that cannot be appropriately evaluated by the estimation method using the appearance as an index.

第1の態様に係る印象推定装置において、前記印象推定式は、特徴量と自己印象の評価値とを説明変数とし、他者による他者印象値を目的変数として回帰分析により算出された式であっても良い。この場合には、特徴量および自己印象と、他者の印象とを反映した印象を推定することができる。 In the impression estimation device according to the first aspect, the impression estimation formula is a formula calculated by regression analysis with the feature amount and the evaluation value of self-impression as explanatory variables and the impression value of another person as an objective variable. There may be. In this case, it is possible to estimate an impression that reflects the feature amount, the self-impression, and the impression of another person.

第1の態様に係る印象推定装置において、前記他者による印象値は、自身の顔から得られる前記自己印象の度合いの評価により決定されても良い。この場合には、自身の外観に基づく他者の印象値を取得することができる。 In the impression estimation device according to the first aspect, the impression value by the other person may be determined by the evaluation of the degree of the self-impression obtained from the own face. In this case, it is possible to obtain the impression value of another person based on his / her appearance.

第1の態様に係る印象推定装置において、前記評価値取得部は、印象と関連付けられている複数の因子を自身が選択することにより得られる因子得点を前記評価値として取得しても良い。この場合には、自己印象の評価値をより客観的に取得することができる。 In the impression estimation device according to the first aspect, the evaluation value acquisition unit may acquire a factor score obtained by selecting a plurality of factors associated with the impression as the evaluation value. In this case, the evaluation value of self-impression can be obtained more objectively.

第1の態様に係る印象推定装置において、前記評価値取得部は、自身により選択された、印象に関連付けられている心理状態を示す用語によって前記因子を特定し、特定された前記因子の因子負荷量を用いて算出される因子得点を前記評価値として取得しても良い。この場合には、心理状態を示す用語を用いるので、自己印象の評価値を簡易に、また、より客観的に取得することができる。 In the impression estimation device according to the first aspect, the evaluation value acquisition unit identifies the factor by a term indicating a psychological state associated with the impression selected by itself, and the factor loading of the identified factor. The factor score calculated by using the quantity may be acquired as the evaluation value. In this case, since the term indicating the psychological state is used, the evaluation value of the self-impression can be obtained easily and more objectively.

第1の態様に係る印象推定装置において、前記評価値取得部は、自身により選択された、印象に関連付けられている心理状態を示す複数の因子に対応付けられている用語に対する自己評価度合い、各用語に関連付けられている因子負荷量とを用いて算出される因子得点を前記評価値として取得しても良い。この場合には、評価値を容易に算出することができる。 In the impression estimation device according to the first aspect, the evaluation value acquisition unit determines the degree of self-evaluation for terms selected by itself and associated with a plurality of factors indicating a psychological state associated with the impression. The factor score calculated by using the factor loading amount associated with the term may be acquired as the evaluation value. In this case, the evaluation value can be easily calculated.

第1の態様に係る印象推定装置において、前記特徴量取得部は、少なくとも、前記自身の顔の目に関する特徴量、鼻に関する特徴量および口に関する特徴量を前記顔の特徴量として取得しても良い。この場合には、自己の外観の特徴量の取得精度を向上させることができる。 In the impression estimation device according to the first aspect, even if the feature amount acquisition unit acquires at least the feature amount related to the eyes, the feature amount related to the nose, and the feature amount related to the mouth of its own face as the feature amount of the face. good. In this case, it is possible to improve the acquisition accuracy of the feature amount of the self-appearance.

第2の態様は、他者による自身の印象を推定する印象推定方法を提供する。第2の態様に係る印象推定方法は、自身の顔の特徴量を取得し、自身による自己印象の評価値を取得し、特徴量と自己印象の評価値とを変数とする他者による印象を推定する予め用意された印象推定式と、取得された前記特徴量と前記評価値とを用いて印象を推定すること、を備える。 The second aspect provides an impression estimation method for estimating one's own impression by another person. In the impression estimation method according to the second aspect, the feature amount of one's own face is acquired, the evaluation value of self-impression by oneself is acquired, and the impression by another person with the feature amount and the evaluation value of self-impression as variables is obtained. It includes an impression estimation formula prepared in advance for estimation, and an impression estimation using the acquired feature amount and the evaluation value.

第2の態様に係る印象推定方法によれば、特徴量と自己印象の評価値とを変数とし、他者による印象を推定するための予め用意された印象推定式と、取得された特徴量と評価値とを用いて印象を推定するので、外観を指標とする推定方法によっては適切に評価できない心理状態を反映し、他者による自身の印象の推定精度を向上させることができる。 According to the impression estimation method according to the second aspect, the feature amount and the evaluation value of the self-impression are used as variables, and the impression estimation formula prepared in advance for estimating the impression by another person and the acquired feature amount are used. Since the impression is estimated using the evaluation value, it is possible to improve the estimation accuracy of one's own impression by another person by reflecting the psychological state that cannot be appropriately evaluated by the estimation method using the appearance as an index.

第3の態様は、他者による自身の印象を推定する印象推定プログラムを提供する。第3の態様に係る印象推定プログラムは、自身の顔の特徴量を取得するための機能と、自身による自己印象の評価値を取得するための機能と、特徴量と自己印象の評価値とを変数とする他者による印象を推定する予め用意された印象推定式と、取得された前記特徴量と前記評価値とを用いて印象を推定するための機能とを、コンピュータによって実現させる。 A third aspect provides an impression estimation program that estimates one's own impression by others. The impression estimation program according to the third aspect has a function for acquiring the feature amount of one's own face, a function for acquiring an evaluation value of self-impression by oneself, and an evaluation value of the feature amount and self-impression. A computer realizes an impression estimation formula prepared in advance for estimating an impression by another person as a variable, and a function for estimating an impression using the acquired feature amount and the evaluation value.

第3の態様に係る印象推定プログラムによれば、特徴量と自己印象の評価値とを変数とし、他者による印象を推定するための予め用意された印象推定式と、取得された特徴量と評価値とを用いて印象を推定するので、外観を指標とする推定方法によっては適切に評価できない心理状態を反映し、他者による自身の印象の推定精度を向上させることができる。 According to the impression estimation program according to the third aspect, the feature amount and the evaluation value of the self-impression are used as variables, and the impression estimation formula prepared in advance for estimating the impression by another person and the acquired feature amount are used. Since the impression is estimated using the evaluation value, it is possible to improve the estimation accuracy of one's own impression by another person by reflecting the psychological state that cannot be appropriately evaluated by the estimation method using the appearance as an index.

第3の態様に係る印象推定プログラムは、コンピュータ読み取り可能な媒体、例えば、CD、DVD、ブルーレイディスク、半導体メモリに格納されていても良い。 The impression estimation program according to the third aspect may be stored in a computer-readable medium such as a CD, DVD, Blu-ray disc, or semiconductor memory.

第1の実施形態に係る印象推定装置および印象推定システムの一例を示す説明図。Explanatory drawing which shows an example of the impression estimation apparatus and the impression estimation system which concerns on 1st Embodiment. 第1の実施形態に係る印象推定装置および印象推定システムの一例を示す説明図。Explanatory drawing which shows an example of the impression estimation apparatus and the impression estimation system which concerns on 1st Embodiment. 第1の実施形態に係る印象推定システムを機能部によって示す説明図。Explanatory drawing which shows the impression estimation system which concerns on 1st Embodiment by a functional part. 第1の実施形態に係る印象推定装置の機能的な内部構成を示すブロック図。The block diagram which shows the functional internal structure of the impression estimation apparatus which concerns on 1st Embodiment. 印象に関連付けられている因子、用語、因子負荷量の一例を示す説明図。An explanatory diagram showing an example of factors, terms, and factor loadings associated with an impression. 印象に関連付けられている用語として収集された用語の一例を示す説明図。An explanatory diagram showing an example of terms collected as terms associated with an impression. 印象に関連付けられている主要因子および各因子に関連付けられている用語の一例を示す説明図。An explanatory diagram showing an example of the main factors associated with an impression and the terms associated with each factor. 印象に関連付けられている主要因子の決定並びに自身の心理状態を取得するために用いられるアンケートシートの一例を示す説明図。An explanatory diagram showing an example of a questionnaire sheet used to determine the main factors associated with an impression and to acquire one's psychological state. 特徴量と自己印象の評価値を用いて算出される推定印象値と官能他者印象値との相関関係を示すグラフ。A graph showing the correlation between the estimated impression value calculated using the feature amount and the evaluation value of the self-impression and the sensory other person's impression value. 特徴量を用いて算出される推定印象値と官能他者印象値との相関関係を示すグラフ。A graph showing the correlation between the estimated impression value calculated using the feature amount and the sensory other person's impression value. 自己印象の評価値を用いて算出される推定印象値と官能他者印象値との相関関係を示すグラフ。A graph showing the correlation between the estimated impression value calculated using the evaluation value of self-impression and the impression value of a sensory stranger. 第1の実施形態に係る印象推定装置によって実行される印象推定処理の各処理ステップを示すフローチャート。The flowchart which shows each processing step of the impression estimation processing executed by the impression estimation apparatus which concerns on 1st Embodiment.

従来の他者による自身の印象推定においては、他者による印象推定は、自身、すなわち、対象者の撮像画像に対する他者の評価に基づいて行われてきた。撮像画像においては、対面時には他者が感じ取れる、外観のみならず自身の内面、すなわち、心理状態により醸し出される雰囲気を表しきれず、結果として、従来の手法によっては、他者に与える印象を適当に、あるいは、精度良く推定することができなかった。本発明者等は、他者による印象推定において、対象者の撮像画像に適切に表現されない対象者の心理状態の反映を鋭意検討した。以下、本開示に係る印象推定装置、印象推定方法、並びに印象推定プログラムについて、図面を参照しつつ、実施形態に基づいて説明する。 In the conventional impression estimation by others, the impression estimation by others has been performed based on the evaluation of oneself, that is, the photographed image of the subject. In the captured image, it is not possible to express not only the appearance but also the inner surface of oneself, that is, the atmosphere created by the psychological state, which can be felt by others when face-to-face. Or, it could not be estimated accurately. The present inventors have diligently examined the reflection of the psychological state of the subject, which is not properly expressed in the captured image of the subject, in the impression estimation by others. Hereinafter, the impression estimation device, the impression estimation method, and the impression estimation program according to the present disclosure will be described with reference to the drawings, based on the embodiments.

第1の実施形態:
図1および図2は、第1の実施形態に係る印象推定装置および印象推定システムの一例を示す。印象推定装置100は、図1に示すようにタブレット端末またはスマートフォン(以下、単に「スマートフォン」という。)として実現されても良く、あるいは、図2に示すようにデスクトップ型コンピュータとして実現されても良く、さらには図示しないノート型コンピュータとして実現されても良い。スマートフォン100が印象推定装置として機能する場合、撮像部20および表示部21を備え、単体にて印象推定システム10を構成する。なお、表示部21は、テキストや選択を入力するための入力装置としても機能し得る。スマートフォン100においては、撮像部20によって、他者による印象を推定したい対象者、すなわち操作者自身の顔画像または上半身画像が撮像され、表示部21によって印象推定結果が表示される。印象推定結果としては、例えば、輝いて見える、責任感がある、自然体であるといった印象が含まれる。なお、顔画像または上半身画像に代えて全身画像が撮像されても良いが、印象の推定に適した顔の表情、または、特徴の抽出精度を得るためには、顔画像または上半身画像、さらには顔画像が撮像されることが望ましい。これに対して、コンピュータ100が印象推定装置として機能する場合、撮像装置30および表示装置31が別途用いられ、コンピュータ端末100、撮像装置30および表示装置31によって印象推定システム10が構成される。コンピュータ端末100には、テキストを入力するためのキーボード32、選択を入力するためのマウス33が接続されている。撮像装置30は、評価対象となる自身の顔画像または上半身画像を撮像する。撮像装置30としては、一般的なデジタルカメラ、あるいは、スマートフォンが用いられ得る。表示装置31は、印象推定結果を表示する。コンピュータ100と撮像装置30とは有線または無線により接続され、撮像装置30からコンピュータ100に対して撮像データが送信され得る。さらに、タブレット端末またはスマートフォンは、表示装置として用いられ得るので、コンピュータ100からタブレット端末またはスマートフォンに対して、無線通信によって印象推定結果が送信されても良い。この場合、利用者のスマートフォンに印象推定結果を送信することができる。無線による接続は、例えば、Wifi(登録商標)やBluetooth(登録商標)といった近距離無線通信規格に準拠する無線通信により実現される。なお、コンピュータ100は、複数の端末と有線または無線ネットワークを介して接続されるサーバとして機能するサーバコンピュータであっても良く、この場合には、複数の各種クライアント端末から、評価対象となる肌画像データがアップロードされ、サーバコンピュータにおいて印象推定値が算出され、サーバコンピュータから各種クライアント端末に対して算出された印象推定値が送信され得る。
First embodiment:
1 and 2 show an example of an impression estimation device and an impression estimation system according to the first embodiment. The impression estimation device 100 may be realized as a tablet terminal or a smartphone (hereinafter, simply referred to as “smartphone”) as shown in FIG. 1, or may be realized as a desktop computer as shown in FIG. Further, it may be realized as a notebook computer (not shown). When the smartphone 100 functions as an impression estimation device, it includes an image pickup unit 20 and a display unit 21, and constitutes an impression estimation system 10 by itself. The display unit 21 can also function as an input device for inputting text and selection. In the smartphone 100, the image pickup unit 20 captures a face image or an upper body image of the target person whose impression is estimated by another person, that is, the operator's own body image, and the display unit 21 displays the impression estimation result. Impression estimation results include, for example, the impression that they look shining, have a sense of responsibility, and are natural. A full-body image may be captured instead of the face image or the upper body image, but in order to obtain the facial expression or feature extraction accuracy suitable for estimating the impression, the face image or the upper body image, and further It is desirable that a facial image be imaged. On the other hand, when the computer 100 functions as an impression estimation device, the image pickup device 30 and the display device 31 are separately used, and the impression estimation system 10 is configured by the computer terminal 100, the image pickup device 30 and the display device 31. A keyboard 32 for inputting text and a mouse 33 for inputting selection are connected to the computer terminal 100. The image pickup apparatus 30 captures a face image or an upper body image of itself to be evaluated. As the image pickup apparatus 30, a general digital camera or a smartphone may be used. The display device 31 displays the impression estimation result. The computer 100 and the image pickup device 30 are connected by wire or wirelessly, and image pickup data can be transmitted from the image pickup device 30 to the computer 100. Further, since the tablet terminal or smartphone can be used as a display device, the impression estimation result may be transmitted from the computer 100 to the tablet terminal or smartphone by wireless communication. In this case, the impression estimation result can be transmitted to the user's smartphone. The wireless connection is realized by wireless communication conforming to a short-range wireless communication standard such as Wifi (registered trademark) or Bluetooth (registered trademark). The computer 100 may be a server computer that functions as a server connected to a plurality of terminals via a wired or wireless network. In this case, skin images to be evaluated from a plurality of various client terminals. The data is uploaded, the impression estimation value is calculated in the server computer, and the calculated impression estimation value can be transmitted from the server computer to various client terminals.

図3は第1の実施形態に係る印象推定システム10を機能部によって示す説明図である。印象推定装置100は、特徴量取得部F1、評価値取得部F2、推定部F3を備えている。特徴量取得部F1は、撮像部20または撮像装置30から顔画像データを取得し、取得した顔画像データから特徴量を取得する。評価値取得部F2は、対象者によって入力装置21、32、33から入力された、印象と関連付けられている複数の因子を用いて因子得点を算出して評価値として取得、または、印象に関連付けられている心理状態を示す用語を用いて因子を特定し、因子得点を算出して評価値として取得する。評価値取得部F2は、さらに、対象者によって入力装置21、32、33から入力された、印象に関連付けられている心理状態を示す複数の因子に対応付けられている用語に対する自己評価度合い、各用語に関連付けられている因子負荷量を用いて因子得点を算出し、評価値として取得し得る。推定部F3は、特徴量取得部F1によって取得された特徴量および評価値取得部F2によって取得された評価値と、特徴量および評価値を変数とする印象推定式を用いて印象を推定する。推定部F3によって推定された推定印象は、表示部21または表示装置31に対して出力される。 FIG. 3 is an explanatory diagram showing the impression estimation system 10 according to the first embodiment by a functional unit. The impression estimation device 100 includes a feature amount acquisition unit F1, an evaluation value acquisition unit F2, and an estimation unit F3. The feature amount acquisition unit F1 acquires face image data from the image pickup unit 20 or the image pickup device 30, and acquires the feature amount from the acquired face image data. The evaluation value acquisition unit F2 calculates a factor score using a plurality of factors associated with the impression, which are input from the input devices 21, 32, and 33 by the subject, and acquires or associates the factor score as the evaluation value. Factors are specified using terms that indicate the psychological state of the person, and the factor score is calculated and obtained as an evaluation value. The evaluation value acquisition unit F2 further determines the degree of self-evaluation for terms input by the subject from the input devices 21, 32, 33 and associated with a plurality of factors indicating the psychological state associated with the impression. The factor score can be calculated using the factor loading associated with the term and obtained as an evaluation value. The estimation unit F3 estimates the impression using the feature amount acquired by the feature amount acquisition unit F1 and the evaluation value acquired by the evaluation value acquisition unit F2, and an impression estimation formula using the feature amount and the evaluation value as variables. The estimated impression estimated by the estimation unit F3 is output to the display unit 21 or the display device 31.

図4は第1の実施形態に係る印象推定装置100の機能的な内部構成を示すブロック図である。印象推定装置100は、中央処理装置(CPU)101、メモリ102、入出力インタフェース103、および図示しないクロック発生器を備えている。CPU101、メモリ102、入出力インタフェース103およびクロック発生器は内部バス104を介して双方向に通信可能に接続されている。メモリ102は、他者による自身の印象を推定する印象推定プログラムPr1を不揮発的且つ読み出し専用に格納するメモリ、例えばROMと、CPU101による読み書きが可能なメモリ、例えばRAMとを含んでいる。メモリ102の不揮発的且つ読み書き可能な領域は、評価値を得るための評価用語を格納するための評価用語記憶領域102aを含んでいる。評価用語は、例えば、印象に関連付けられている心理状態を示す用語であり、各用語は印象を規定する複数の因子と対応付けられている。より具体的には、例えば、図5は、他者が自身に対して抱く「輝いて見える」という印象に関連付けられている複数の因子1~因子6と、各因子に対応付けられている心理状態を示す用語との対応関係の一例を示している。各用語に対しては、各因子に対して影響を与える強度を示す因子負荷量が割り当てられている。各因子の最下段に示す因子寄与率は、各因子が、印象「輝いて見える」に対して寄与する割合を示している。各因子1~6および因子負荷量は後述する手順によって決定される。 FIG. 4 is a block diagram showing a functional internal configuration of the impression estimation device 100 according to the first embodiment. The impression estimation device 100 includes a central processing unit (CPU) 101, a memory 102, an input / output interface 103, and a clock generator (not shown). The CPU 101, the memory 102, the input / output interface 103, and the clock generator are connected so as to be communicable in both directions via the internal bus 104. The memory 102 includes a memory for storing the impression estimation program Pr1 for estimating one's own impression by another person in a non-volatile manner and read-only, for example, a ROM and a memory for reading and writing by the CPU 101, for example, RAM. The non-volatile and readable / writable area of the memory 102 includes the evaluation term storage area 102a for storing the evaluation term for obtaining the evaluation value. The evaluation term is, for example, a term indicating a psychological state associated with an impression, and each term is associated with a plurality of factors that define the impression. More specifically, for example, FIG. 5 shows a plurality of factors 1 to 6 associated with the impression that others have toward themselves, and the psychology associated with each factor. An example of the correspondence with the term indicating the state is shown. Each term is assigned a factor loading that indicates the intensity that affects each factor. The factor contribution rate shown at the bottom of each factor indicates the ratio of each factor to the impression "looks shining". Each factor 1 to 6 and the factor loading are determined by the procedure described later.

CPU101、すなわち、印象推定装置100は、メモリ102に格納されている印象推定プログラムPr1を読み書き可能なメモリに展開して実行することによって、特徴量取得部F1、評価値取得部F2および推定部F3として機能する。なお、CPU101は、単体のCPUであっても良く、各プログラムを実行する複数のCPUであっても良く、あるいは、複数のプログラムを同時実行可能なマルチタスクタイプあるいはマルチスレッドタイプのCPUであっても良い。なお、特徴量取得部F1、評価値取得部F2および推定部F3は、論理回路としてハードウェア的に実現されても良い。 The CPU 101, that is, the impression estimation device 100 expands the impression estimation program Pr1 stored in the memory 102 into a readable / writable memory and executes the feature amount acquisition unit F1, the evaluation value acquisition unit F2, and the estimation unit F3. Functions as. The CPU 101 may be a single CPU, a plurality of CPUs that execute each program, or a multitasking type or multithread type CPU capable of simultaneously executing a plurality of programs. Is also good. The feature amount acquisition unit F1, the evaluation value acquisition unit F2, and the estimation unit F3 may be realized as a logic circuit in terms of hardware.

入出力インタフェース103は、印象推定装置100と、他の各種装置とを接続するために用いられる物理的および論理的なインタフェースであり、例えば、USB端子、LAN端子、シリアルバス端子といった公知の端子として実現され得る。第1の実施形態において、入出力インタフェース103には、例えば液晶パネルを有する表示部21、表示装置31、例えば撮像素子を有する撮像部20、撮像装置30それぞれが信号線を介して接続されている。なお、表示装置31に代えて、または、表示装置31と共に、印刷媒体、例えば、紙に対して推定された印象を出力、すなわち、印刷する印刷装置が備えられても良い。 The input / output interface 103 is a physical and logical interface used for connecting the impression estimation device 100 and various other devices, and is, for example, a known terminal such as a USB terminal, a LAN terminal, or a serial bus terminal. It can be realized. In the first embodiment, the input / output interface 103 is connected to, for example, a display unit 21 having a liquid crystal panel, a display device 31, for example, an image pickup unit 20 having an image pickup element, and an image pickup device 30 via signal lines. .. In addition, instead of the display device 31, or together with the display device 31, a printing device that outputs, that is, prints, an estimated impression on a printing medium, for example, paper may be provided.

印象推定式の決定:
「輝いて見える」印象に関連付けられている心理状態を示す用語の決定、既述の因子1~6および、因子負荷量の決定手順について説明する。先ず、女性124名を対象として、「自身が輝いている状態」を示す用語または言葉、「他者が輝いて見える状態」を示す用語または言葉を収集し、テキストマイニングソフト、例えば、KHCoderを用いて、図6に示す66語の頻出語である心理状態を示す用語、すなわち評定用語を得た。なお、図6に示す各用語は例示であり、また、図6においては一部の用語について省略している。次に、女性109名を対象として、評定用語66語のそれぞれに対して、「自身が輝いている状態」および「他者が輝いて見える状態」に当てはまるか否かについて6段階で評価させた。6段階は、非常に良く当てはまる、当てはまる、どちらかというと当てはまる、どちらかというと当てはまらない、当てはまらない、全く当てはまらないの各段階である。評定用語66語を観測変数として、得られた回答に対して因子分析を行い、「輝いて見える」という印象に関連付けられている6つの因子を決定した。6つの因子は、図5に示す因子1(心の安らぎ)、因子2(仕事に対する熱意)、因子3(表情の素直さ)、因子4(見ためへの意識)、因子5(自分に対する満足感)、因子6(他者への貢献意識)である。また、図7に示すように、各因子に関連付けられている心理状態を示す用語のうち、因子負荷量が高い3つの用語を抽出した。
Determining the impression estimation formula:
The procedure for determining the terms indicating the psychological state associated with the "look shining" impression, the factors 1 to 6 described above, and the factor loading amount will be described. First, for 124 women, we collected terms or words that indicate "a state in which oneself is shining" and terms or words that indicate "a state in which others appear to shine", and used text mining software such as KH Coder. Then, a term indicating a psychological state, which is a frequent word of 66 words shown in FIG. 6, that is, a rating term was obtained. Note that each term shown in FIG. 6 is an example, and some terms are omitted in FIG. Next, 109 women were asked to evaluate each of the 66 rating terms on a 6-point scale as to whether or not they fit into the "state in which they are shining" and the "state in which others appear to be shining." .. The six stages are very well applicable, applicable, rather applicable, rather not applicable, not applicable, and not applicable at all. Factor analysis was performed on the obtained answers using 66 rating terms as observation variables, and 6 factors associated with the impression of "looking shining" were determined. The six factors are factor 1 (peace of mind), factor 2 (enthusiasm for work), factor 3 (facial expression honesty), factor 4 (consciousness to see), and factor 5 (satisfaction with oneself) shown in FIG. Feeling), factor 6 (awareness of contribution to others). Further, as shown in FIG. 7, three terms having a high factor loading amount were extracted from the terms indicating the psychological state associated with each factor.

17名の女性を対象者として、図8に示すように、各因子に関連付けられている3つの用語、すなわち、18語の心理状態を示す用語と各用語に対する度合いとして既述の6段階の度合いを含むアンケートシートを用いて現在の自身の心理状態を回答させた。回答により得られた度合いのうち、非常に良く当てはまるとされた心理状態を示す用語に対して、図5に示す因子負荷量を適用して、加算し、因子得点を得た。すなわち、非常に良く当てはまる用語を1とし、他の用語を0とし、因子負荷量を乗じて加算し、因子得点を得た。なお、各度合いについて重み付け、例えば、非常に良く当てはまる(5点)から全く当てはまらない(0点)が乗じられ、正規化(1/5)された値に因子負荷量が乗じられ、加算されても良い。また、アンケートシートに対する回答と共に、対象者の顔写真を撮像し、顔画像の特徴量を抽出した。具体的には、右目の面積と左目の面積の平均値、目全体の面積を1とした場合の瞳が占める割合(瞳の面積率)、鼻の付け根の中心から上唇部の境界の中心を結ぶ長さ(鼻下の長さ)、口裂部と口角とを結んだ面積、および口唇部の面積が特徴量として抽出される。なお、これらの特徴量の少なくとも一部、他の特徴量が追加で、あるいは、代わりに用いられても良い。 As shown in FIG. 8, 17 women were targeted, and as shown in FIG. 8, the three terms associated with each factor, that is, the 18 words indicating the psychological state and the degree to each term, as described above, were 6 levels. I asked them to answer their current psychological state using a questionnaire sheet containing. Of the degrees obtained from the answers, the factor loadings shown in FIG. 5 were applied and added to the terms indicating the psychological states that were considered to be very well applicable, and the factor scores were obtained. That is, a term that fits very well was set to 1, other terms were set to 0, and the factors were multiplied and added to obtain a factor score. It should be noted that each degree is weighted, for example, multiplied by (5 points) that is very well applied (5 points) but not (0 points) at all, and the normalized (1/5) value is multiplied by the factor loading and added. Is also good. In addition, along with the answers to the questionnaire sheet, the facial photograph of the subject was taken and the feature amount of the facial image was extracted. Specifically, the average value of the area of the right eye and the area of the left eye, the ratio occupied by the pupil when the area of the entire eye is 1, (the area ratio of the pupil), the center of the boundary from the base of the nose to the center of the upper lip. The length of the tie (the length under the nose), the area connecting the fissure and the corner of the mouth, and the area of the lips are extracted as feature quantities. In addition, at least a part of these feature amounts and other feature amounts may be additionally or used instead.

最後に、自己印象の評価値と顔画像の特徴量とを説明変数とし、他者による他者印象値を目的変数とする印象推定式を回帰分析によって算出する。評価者5名を対象として、上記で取得された顔画像に対して「輝いて見える」か否かの印象評価を実行させた。各評価者は、各顔画像について、輝いて見えるとの印象を持った場合には1点、輝いて見えないとの印象を持った場合には-1点、どちらの印象も持たなかった場合には0点を配点する。5人の評価者による配点の平均値を算出し、官能他者印象値とした。各顔画像に対して得られた、6つの因子の因子得点および特徴量を説明変数とし、官能他者印象値を目的変数として、偏最小二乗回帰(PLS)分析を行い、6つの因子の因子得点と特徴量とから、回帰係数および定数項を求めた。より具体的には、leave-one-out交差検証法を用い、17サンプル(特徴量、自己印象の評価値、他者印象値)の内、16サンプルを用いて印象推定式を算出し、算出した印象推定式と残りの1サンプルの特徴量および自己印象の評価値とを用いて得た推定印象値と残りの1サンプルの他者印象値とを用いてPLS分析に適した成分数(次元数)を決定する。決定した成分数に基づいて、17サンプルの特徴量および自己印象の評価値、並びに対応する17サンプルの他者印象値とを用いてPLS分析を実行し、回帰係数、すなわち、因子負荷量を決定し、他者による自身の印象を推定するための以下に示す印象推定式(式1)を得た。なお、各特徴量は印象推定式を算出するための因子得点であり、また、印象推定式は、直線を近似する他の回帰法によって求められても良い。
推定印象値=0.03058235×「心の安らぎ」因子得点+0.01365280×「仕事に対する熱意」因子得点+0.03269904×「表情の素直さ」因子得点+0.02219861×「見た目への意識」因子得点+(-0.00194219)×「自分に対する満足感」因子得点+0.04148159×「他者への貢献意識」因子得点 +0.00000971×目全体の面積(pixel)+(-0.00035344)×瞳の面積率(%)+(-0.00179344)×鼻下の長さ(pixel)+0.00000447×口裂口角面積(pixel)+(-0.00000127)×口唇部面積(pixel)+(-1.58179703)(定数項)・・・(式1)
Finally, an impression estimation formula using the evaluation value of self-impression and the feature amount of the facial image as explanatory variables and the impression value of others by others as the objective variable is calculated by regression analysis. Five evaluators were asked to perform an impression evaluation as to whether or not the face image acquired above "looks shining". Each evaluator gave 1 point for each facial image if it had the impression that it looked shining, -1 point if it had the impression that it did not look shining, and if it did not have either impression. 0 points are assigned to. The average value of the points assigned by the five evaluators was calculated and used as the impression value of the other person. A partial minimum squared regression (PLS) analysis was performed using the factor scores and features of the six factors obtained for each face image as explanatory variables and the sensory other person's impression value as the objective variable, and the factors of the six factors. The regression coefficient and the constant term were obtained from the score and the feature quantity. More specifically, using the leave-one-out cross-validation method, an impression estimation formula is calculated and calculated using 16 samples out of 17 samples (features, self-impression evaluation values, and impression values of others). The number of components (dimensions) suitable for PLS analysis using the estimated impression value obtained by using the impression estimation formula, the feature amount of the remaining 1 sample, and the evaluation value of self-impression, and the impression value of others in the remaining 1 sample. Number) is determined. Based on the determined number of components, PLS analysis is performed using 17 samples of features and self-impression evaluation values, as well as the corresponding 17 samples of others' impression values, to determine the regression coefficient, i.e., the factor loading. Then, the following impression estimation formula (Equation 1) for estimating one's own impression by another person was obtained. It should be noted that each feature amount is a factor score for calculating an impression estimation formula, and the impression estimation formula may be obtained by another regression method that approximates a straight line.
Estimated impression value = 0.030582835 x "peace of mind" factor score + 0.01365280 x "enthusiasm for work" factor score + 0.03269904 x "honestness of expression" factor score + 0.022219861 x "awareness of appearance" factor score + (-0.00194219) x "Satisfaction with oneself" factor score + 0.041448159 x "Contribution awareness to others" factor score + 0.00000971 x Area of the entire eye (pixel) + (-0.00035344) x Eyes Area ratio (%) + (-0.00179344) x length under the nose (pixel) + 0.00000447 x mouth cleft angle area (pixel) + (-0.00000127) x lip area (pixel) + (- 1.58179073) (constant term) ... (Equation 1)

17サンプルを用いて、式1に示す印象推定式から得られた推定印象値と、上記官能他者印象値との相関を検証した。図9は、自己印象の評価値、すなわち、因子得点と特徴量とを用いた場合における推定印象値と官能他者印象値との相関関係を示すグラフである。この場合の推定印象値と官能他者印象値との相関係数は、R=0.678であった。 Using 17 samples, the correlation between the estimated impression value obtained from the impression estimation formula shown in Equation 1 and the above-mentioned sensory other person's impression value was verified. FIG. 9 is a graph showing the correlation between the evaluation value of self-impression, that is, the estimated impression value and the sensory other person's impression value when the factor score and the feature amount are used. The correlation coefficient between the estimated impression value and the sensory other person's impression value in this case was R = 0.678.

対比のために、特徴量のみを用いた場合、並びに自己印象の評価値である因子得点のみを用いた場合に回帰分析によって得られた印象推定式についても以下、検証する。特徴量のみを用いた場合の印象推定式(2)は以下の通りである。
推定印象値=0.00002102×目全体の面積(pixel)+(-0.00076561)×瞳の面積率(%)+(-0.00388486)×鼻下の長さ(pixel)+0.00000969×口裂口角面積(pixel)+(-0.00000276)×口唇部面積(pixel)+0.09486807(定数項)・・・(式2)
17サンプルを用いて、式2に示す印象推定式から得られた推定印象値と、上記官能他者印象値との相関を検証した。図10は、特徴量を用いた場合における推定印象値と官能他者印象値との相関関係を示すグラフである。この場合の推定印象値と官能他者印象値との相関係数は、R=0.657であった。
For comparison, the impression estimation formula obtained by the regression analysis when only the feature amount is used and when only the factor score which is the evaluation value of the self-impression is used will be verified below. The impression estimation formula (2) when only the feature amount is used is as follows.
Estimated impression value = 0.00002102 x area of the entire eye (pixel) + (-0.00076561) x area ratio of the pupil (%) + (-0.00388486) x length under the nose (pixel) + 0.00000969 x Mouth fissure angle area (pixel) + (-0.00000276) x lip area (pixel) + 0.094886807 (constant term) ... (Equation 2)
Using 17 samples, the correlation between the estimated impression value obtained from the impression estimation formula shown in Equation 2 and the above-mentioned sensory other person's impression value was verified. FIG. 10 is a graph showing the correlation between the estimated impression value and the sensory other person's impression value when the feature amount is used. The correlation coefficient between the estimated impression value and the sensory other person's impression value in this case was R = 0.657.

因子得点のみを用いた場合の印象推定式(3)は以下の通りである。
推定印象値=0.03236826×「心の安らぎ」因子得点+0.01445008×「仕事に対する熱意」因子得点+0.03460856×「表情の素直さ」因子得点+ 0.02349494×「見た目への意識」因子得点+(-0.00205561)×「自分に対する満足感」因子得点+0.04390398×「他者への貢献意識」因子得点+(-1.71419546)(定数項)・・・(式3)
17サンプルを用いて、式3に示す印象推定式から得られた推定印象値と、上記官能他者印象値との相関を検証した。図11は、自己印象の評価値、すなわち、因子得点を用いた場合における推定印象値と官能他者印象値との相関関係を示すグラフである。この場合の推定印象値と官能他者印象値との相関係数は、R=0.525であった。
The impression estimation formula (3) when only the factor score is used is as follows.
Estimated impression value = 0.032368826 x "Peace of mind" factor score + 0.01445008 x "Enthusiasm for work" factor score + 0.03460856 x "Facial honesty" factor score + 0.02344944 x "Appearance awareness" factor Score + (-0.00205561) x "Satisfaction with oneself" factor score + 0.0434398 x "Contribution awareness to others" factor score + (-1.71419546) (constant term) ... (Equation 3)
Using 17 samples, the correlation between the estimated impression value obtained from the impression estimation formula shown in Equation 3 and the above-mentioned sensory other person's impression value was verified. FIG. 11 is a graph showing the evaluation value of self-impression, that is, the correlation between the estimated impression value and the sensory other person's impression value when the factor score is used. The correlation coefficient between the estimated impression value and the sensory other person's impression value in this case was R = 0.525.

以上の通り、特徴量に加えて、自己印象の評価値を用いることによって、相関係数Rは増大することが確認された。したがって、特徴量に加えて、自己印象の評価値を用いて他者による自身の印象を推定することによって、自身の心理状態が反映され、他者による自身の印象の推定精度は向上することが検証された。 As described above, it was confirmed that the correlation coefficient R was increased by using the evaluation value of self-impression in addition to the feature amount. Therefore, by estimating one's own impression by another person using the evaluation value of one's own impression in addition to the feature amount, one's psychological state is reflected and the estimation accuracy of one's own impression by another person can be improved. It was verified.

印象推定装置を用いた他者による自身の印象の推定:
印象推定装置100によって実行される印象推定処理について説明する。図12は第1の実施形態に係る印象推定装置100によって実行される印象推定処理の各処理ステップを示すフローチャートである。より具体的には、CPU101が、印象推定プログラムPr1を実行することによって実現される。
Estimating one's own impression by others using an impression estimator:
The impression estimation process executed by the impression estimation device 100 will be described. FIG. 12 is a flowchart showing each processing step of the impression estimation process executed by the impression estimation device 100 according to the first embodiment. More specifically, the CPU 101 is realized by executing the impression estimation program Pr1.

CPU101は、入出力インタフェース103を介して、他者による印象を知りたい、自身(以後、「対象者」とも呼ぶ。)の顔画像データを取得する(ステップS100)。顔画像データは、対象者によって撮像装置30または撮像部20を用いて取得される。なお、顔画像データに代えて、対象者の上半身画像データが取得されても良い。 The CPU 101 acquires face image data of itself (hereinafter, also referred to as “target person”) who wants to know the impression of another person via the input / output interface 103 (step S100). The face image data is acquired by the subject using the image pickup device 30 or the image pickup unit 20. In addition, instead of the face image data, the upper body image data of the subject may be acquired.

CPU101は、取得した顔画像データから特徴量を取得する(ステップS102)。特徴量の取得は、先ず、顔画像データからの特徴抽出は公知の手法、例えば、輝度差に基づくエッジ抽出や色彩値を用いた領域抽出といった手法によって、目、鼻、口といった顔を特徴付けるパーツの抽出が行われ、次に、各パーツの位置や面積といったレイアウト情報が抽出される。本実施形態においては、右目の面積と左目の面積の平均値、目全体の面積を1とした場合の瞳が占める割合(瞳の面積率)、鼻の付け根の中心から上唇部の境界の中心を結ぶ長さ(鼻下の長さ)、口裂部と口角とを結んだ面積、および口唇部の面積が特徴量として取得される。なお、印象推定式において他の特徴量が追加で、あるいは、代わりに用いられる場合には、対応する他の特徴量が取得される。 The CPU 101 acquires a feature amount from the acquired face image data (step S102). To acquire the feature amount, first, the feature extraction from the face image data is a known method, for example, the parts that characterize the face such as eyes, nose, and mouth by a method such as edge extraction based on the brightness difference or region extraction using the color value. Is extracted, and then layout information such as the position and area of each part is extracted. In this embodiment, the average value of the area of the right eye and the area of the left eye, the ratio occupied by the pupil when the area of the entire eye is 1, (the area ratio of the pupil), the center of the boundary from the base of the nose to the center of the upper lip. The length connecting the two (the length under the nose), the area connecting the fissure and the corner of the mouth, and the area of the lip are obtained as feature quantities. When other features are added or used instead in the impression estimation formula, the corresponding other features are acquired.

CPU101は、対象者の心理状態を示す評価値を取得する(ステップS104)。対象者の心理状態を示す評価値、すなわち、自身による自己印象の評価値には、印象と関連付けられている複数の因子を用いて因子得点を算出して得られる評価値、または、印象に関連付けられている心理状態を示す用語を用いて因子を特定し、因子得点を算出して得られる評価値、印象に関連付けられている心理状態を示す複数の因子に対応付けられている用語に対する自己評価度合い、各用語に関連付けられている因子負荷量を用いて因子得点を算出して得られる評価値が含まれる。本実施形態における自身による自己印象の評価値は、自身による自己評価により得られた、印象に関連付けられている心理状態を示す複数の因子の因子得点ということができる。評価値の取得は、例えば、図8に示すアンケートシートを表示部21または表示装置31上に表示し、対象者が選択、すなわち、回答を入力することによって行われる。アンケートシートには、ターゲットとなる印象、本実施形態においては、「輝いて見える」に関連付けられている心理状態を示す複数の用語が記載されており、各用語に対する現時点における対象者の度合い、すなわち、気持ちの程度を入力することによって、評価値として、図7に示す6因子の因子得点が得られる。具体的には、各因子に含まれる3用語に対する0~5の度合いに対して、図5に示す各因子の因子負荷量を係数として乗算し、正規化(1/5)することによって、各因子の因子得点、すなわち、評価値が得られる。評価値の取得は、この他に、図7の6因子を、それぞれ、「心が安らいでいる」、「仕事に熱意を持っている」、「見ためを意識している」、「自分に満足している」、「他者の役に立っている」といった因子として表示し、対象者が当てはまる因子を選択または当てはまる度合いを選択することによって実行されても良い。この場合には、図5に示す各因子の因子寄与率を係数として、選択の結果得られる0または1、あるいは、0~5の数値に対して乗算することによって、各因子の因子得点が評価値として得られる。さらに、対象者が6因子に対応する複数の用語を選択し、選択された用語に応じて6因子の中から対応する因子が選択されても良い。 The CPU 101 acquires an evaluation value indicating the psychological state of the subject (step S104). The evaluation value indicating the psychological state of the subject, that is, the evaluation value of self-impression by oneself, is the evaluation value obtained by calculating the factor score using a plurality of factors associated with the impression, or associated with the impression. Factors are identified using terms that indicate the psychological state of the person, the evaluation value obtained by calculating the factor score, and self-evaluation of the terms associated with multiple factors that indicate the psychological state associated with the impression. It includes the evaluation value obtained by calculating the factor score using the degree and the factor loading associated with each term. The evaluation value of the self-impression by oneself in the present embodiment can be said to be the factor score of a plurality of factors indicating the psychological state associated with the impression obtained by the self-evaluation by oneself. The acquisition of the evaluation value is performed, for example, by displaying the questionnaire sheet shown in FIG. 8 on the display unit 21 or the display device 31, and selecting by the target person, that is, inputting an answer. The questionnaire sheet contains a plurality of terms indicating the target impression, and in this embodiment, the psychological state associated with "looks shining", and the degree of the target person at the present time for each term, that is, By inputting the degree of feeling, the factor scores of the six factors shown in FIG. 7 can be obtained as evaluation values. Specifically, by multiplying the degree of 0 to 5 for the three terms included in each factor by the factor loading of each factor shown in FIG. 5 as a coefficient and normalizing (1/5), each factor is used. The factor score of the factor, that is, the evaluation value is obtained. In addition to this, the acquisition of evaluation values includes the six factors shown in Fig. 7, "I feel at ease," "I am enthusiastic about my work," "I am conscious of what I see," and "To myself." It may be displayed as a factor such as "satisfied" or "helping others", and may be executed by selecting a factor that applies to the subject or selecting the degree to which the subject applies. In this case, the factor contribution rate of each factor shown in FIG. 5 is used as a coefficient, and the factor score of each factor is evaluated by multiplying the value of 0 or 1 obtained as a result of selection or the numerical value of 0 to 5. Obtained as a value. Further, the subject may select a plurality of terms corresponding to the 6 factors, and the corresponding factor may be selected from the 6 factors according to the selected term.

CPU101は、予め用意された既述の印象推定式を用いて推定印象値を取得する(ステップS106)。具体的には、ステップS102、S104において取得した特徴量および評価値である各因子の因子得点を用いて、推定印象値を算出する。算出される推定印象値は、-1~+1の間の値を取り、+1は、「輝いて見える」印象が最も強いことを意味し、「-1」は、「輝いて見える」印象が最も弱いことを意味する。 The CPU 101 acquires an estimated impression value using the above-mentioned impression estimation formula prepared in advance (step S106). Specifically, the estimated impression value is calculated using the feature amount acquired in steps S102 and S104 and the factor score of each factor which is the evaluation value. The calculated estimated impression value takes a value between -1 and +1. +1 means that the impression of "looking shining" is the strongest, and "-1" means that the impression of "looking shining" is the strongest. It means weak.

CPU101は、取得した推定印象値を表示部21または表示装置31上に表示して(ステップS108)、本処理ルーチンを終了する。表示部21または表示装置31上に表示される推定印象値は、0~100の値、あるいは、0~10の値に置き換えられて表示されても良く、あるいは、-1~+1を5段階に分けて、「最も強い印象を受ける」、「印象を受ける」、「どちらでもない」、「印象を受けない」、「最も弱い印象を受ける」といった言葉に置き換えられて表示されても良い。 The CPU 101 displays the acquired estimated impression value on the display unit 21 or the display device 31 (step S108), and ends the processing routine. The estimated impression value displayed on the display unit 21 or the display device 31 may be replaced with a value of 0 to 100 or a value of 0 to 10, or -1 to +1 may be displayed in 5 stages. It may be divided and displayed by being replaced with words such as "getting the strongest impression", "getting the impression", "neither", "not getting the impression", and "getting the weakest impression".

以上述べたように、本実施形態に係る印象推定装置100によれば、他者による自身の印象を推定する際に、自身の顔画像から得られる特徴量に加えて、自己印象の評価値を変数とする印象推定式が用いられるので、外観を指標とする推定方法によっては適切に評価できない心理状態を反映し、他者による自身の印象の推定精度を向上させることができる。より具体的には、第1の実施形態においては、他者が自身に対して「輝いて見える」という印象を抱くか否かを推定する際に、「輝いて見える」という印象に関連付けられている心理状態を示す用語を用いて自身の心理状態を評価し、顔画像の特徴量と心理状態を示す複数の因子とを説明変数とする印象推定式が用いられる。この結果、自身の顔画像の特徴量からは得られない自身の心理状態を反映させて、他者が自身に対して「輝いて見える」という印象を抱くか否かを推定することが可能となる。すなわち、一般的な撮像装置を用いる一般的な特徴量抽出によっては得ることが困難であるが、他者が自身と対面する際には得られる、外観に現れる心理状態が印象の推定に反映されるので、他者が自身と対面する際に抱く印象と、自身によって他者による印象を推定する際の推定印象との乖離が低減または取り除かれる。 As described above, according to the impression estimation device 100 according to the present embodiment, when estimating one's own impression by another person, in addition to the feature amount obtained from one's own face image, an evaluation value of one's own impression is obtained. Since the impression estimation formula as a variable is used, it is possible to improve the estimation accuracy of one's own impression by another person by reflecting the psychological state that cannot be appropriately evaluated by the estimation method using the appearance as an index. More specifically, in the first embodiment, when estimating whether or not another person has the impression of "looking shining", it is associated with the impression of "looking shining". An impression estimation formula is used in which one's own psychological state is evaluated using terms indicating the psychological state, and the feature amount of the facial image and a plurality of factors indicating the psychological state are used as explanatory variables. As a result, it is possible to estimate whether or not others have the impression that they "look shining" by reflecting their own psychological state that cannot be obtained from the features of their own facial images. Become. That is, although it is difficult to obtain by general feature extraction using a general image pickup device, the psychological state appearing in the appearance, which is obtained when another person faces himself / herself, is reflected in the estimation of the impression. Therefore, the discrepancy between the impression that another person has when facing oneself and the estimated impression when oneself estimates the impression by another person is reduced or eliminated.

第1の実施形態に係る印象推定装置100において、自身の心理状態の評価値は、推定の対象となる印象に関連付けられている心理状態に対応する因子を選択、あるいは、各因子の度合いを決定することによって得られても良く、この場合、対象者は、簡潔な選択肢を通じて自身の心理状態を入力することができるので、簡易に他者による自身の印象を推定することができる。一方、心理状態に関連付けられている複数の用語を用いて、自身の心理状態の評価値が取得される場合には、より客観的な自身の心理状態の取得が可能となり、他者による自身の印象の推定精度が向上する。 In the impression estimation device 100 according to the first embodiment, the evaluation value of one's own psychological state selects a factor corresponding to the psychological state associated with the impression to be estimated, or determines the degree of each factor. In this case, the subject can input his / her psychological state through simple choices, so that he / she can easily estimate his / her impression by others. On the other hand, when the evaluation value of one's own psychological state is acquired by using multiple terms associated with the psychological state, it becomes possible to acquire one's own psychological state more objectively, and one's own by another person. Impression estimation accuracy is improved.

第1の実施形態に係る印象推定装置100によれば、他者による自身の印象の推定精度を向上させることができるので、自身による認識とのズレを解消するための化粧法、マッサージ法やストレッチ法を対象者に対して提案することができる。例えば、自身の心理状態の評価値の因子の中で、「心の安らぎ」の得点が低い場合には、リラックスできるスキンケアや香り、食事の提案を行い、「仕事に対する熱意」の得点が低い場合には、気持ちが高まる香りの提案、「表情の素直さ」の得点が低い場合には、表情筋のストレッチの提案、「見た目への意識」の得点が低い場合には、姿勢が良くなるストレッチやスキンケアの提案、「他者への貢献意識」の得点が低い場合には、心を落ち着かせる香りの提案を行うことができる。 According to the impression estimation device 100 according to the first embodiment, the accuracy of estimating one's own impression by another person can be improved, so that a makeup method, a massage method, or a stretch for eliminating the deviation from the recognition by oneself can be improved. The law can be proposed to the subject. For example, if the score of "peace of mind" is low among the factors of the evaluation value of one's psychological state, relaxing skin care, fragrance, and dietary suggestions are offered, and the score of "enthusiasm for work" is low. Suggestions for fragrances that enhance feelings, suggestions for stretching facial muscles when the score for "facial expression is straightforward", and stretches for improving posture when the score for "awareness of appearance" is low. If the score of "Skin care" or "Contribution to others" is low, you can make a calming scent.

その他の実施形態:
(1)上記実施形態において、得られた印象推定値は、数値によって示されても良く、あるいは、グラフによって示されても良い。グラフで表示される場合には、利用者に対して感覚的に印象推定の把握を促すことが可能となり、数値によって表示される場合には、より具体的および直接的に印象推定を示すことができる。
Other embodiments:
(1) In the above embodiment, the obtained impression estimation value may be indicated by a numerical value or may be indicated by a graph. When displayed as a graph, it is possible to urge the user to intuitively grasp the impression estimation, and when displayed numerically, it is possible to show the impression estimation more concretely and directly. can.

(2)上記実施形態においては、推定する印象として「輝いて見える」が用いられたが、他の印象、例えば、「やさしい」、「明るい」、「さわやか」、「健康的」といった印象が用いられても良い。この場合には、既述の手法にて、各印象に関連付けられている心理状態を示す用語を取得し、主要因子を求め、アンケートシートを作成することによって自己印象の評価値を得ることが可能となる。自己印象の評価値が得られた後、顔画像の特徴量を用いて印象推定式が算出される。 (2) In the above embodiment, "looks shining" is used as the estimated impression, but other impressions such as "gentle", "bright", "refreshing", and "healthy" are used. May be done. In this case, it is possible to obtain the evaluation value of self-impression by acquiring the terms indicating the psychological state associated with each impression, obtaining the main factors, and creating a questionnaire sheet by the method described above. Will be. After the evaluation value of the self-impression is obtained, the impression estimation formula is calculated using the feature amount of the facial image.

以上、種々の実施形態に基づき本開示について説明してきたが、上記した実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。 Although the present disclosure has been described above based on various embodiments, the above-described embodiments are for facilitating the understanding of the present disclosure and are not limited to the present disclosure. The present disclosure may be modified or improved without departing from its spirit and claims, and the present disclosure includes its equivalents.

10…印象推定システム、100…印象推定装置、101…中央演算処理装置(CPU)、102…記憶部、20…撮像部、21…表示部、30…撮像装置、31…表示装置、F1…特徴量取得部、F2…評価値取得部、F3…推定部。 10 ... Impression estimation system, 100 ... Impression estimation device, 101 ... Central processing unit (CPU), 102 ... Storage unit, 20 ... Imaging unit, 21 ... Display unit, 30 ... Imaging device, 31 ... Display device, F1 ... Features Quantity acquisition unit, F2 ... evaluation value acquisition unit, F3 ... estimation unit.

Claims (9)

他者による自身の印象を推定する印象推定装置であって、
自身の顔の特徴量を取得する特徴量取得部と、
自身による自己印象の評価値を取得する評価値取得部と、
特徴量と自己印象の評価値とを変数とし、他者による印象を推定するための予め用意された印象推定式と、取得された前記特徴量と前記評価値とを用いて印象を推定する推定部と、
を備える、印象推定装置。
It is an impression estimation device that estimates one's own impression by others.
The feature amount acquisition unit that acquires the feature amount of one's face,
The evaluation value acquisition unit that acquires the evaluation value of self-impression by oneself,
Estimating the impression using the feature amount and the self-impression evaluation value as variables, the impression estimation formula prepared in advance for estimating the impression by others, and the acquired feature amount and the evaluation value. Department and
An impression estimation device.
請求項1に記載の印象推定装置において、
前記印象推定式は、特徴量と自己印象の評価値とを説明変数とし、他者による他者印象値を目的変数として回帰分析により算出された式である、印象推定装置。
In the impression estimation device according to claim 1,
The impression estimation formula is an impression estimation device, which is a formula calculated by regression analysis using a feature amount and an evaluation value of self-impression as explanatory variables and another person's impression value as an objective variable.
請求項2に記載の印象推定装置において、
前記他者による他者印象値は、自身の顔から得られる前記自己印象の度合いの評価により決定される、印象推定装置。
In the impression estimation device according to claim 2,
The impression value of another person is determined by the evaluation of the degree of self-impression obtained from one's own face.
請求項1から3のいずれか一項に記載の印象推定装置において、
前記評価値取得部は、印象と関連付けられている複数の因子を自身が選択することにより得られる因子得点を前記評価値として取得する、印象推定装置。
In the impression estimation device according to any one of claims 1 to 3,
The evaluation value acquisition unit is an impression estimation device that acquires a factor score obtained by selecting a plurality of factors associated with an impression as the evaluation value.
請求項4に記載の印象推定装置において、
前記評価値取得部は、自身により選択された、印象に関連付けられている心理状態を示す用語によって前記因子を特定し、特定された前記因子の因子負荷量を用いて算出される因子得点を前記評価値として取得する、印象推定装置。
In the impression estimation device according to claim 4,
The evaluation value acquisition unit identifies the factor by a term indicating a psychological state associated with the impression selected by itself, and obtains a factor score calculated by using the factor loading of the identified factor. Impression estimation device to be acquired as an evaluation value.
請求項1から3のいずれか一項に記載の印象推定装置において、
前記評価値取得部は、自身により選択された、印象に関連付けられている心理状態を示す複数の因子に対応付けられている用語に対する自己評価度合い、各用語に関連付けられている因子負荷量とを用いて算出される因子得点を前記評価値として取得する、印象推定装置。
In the impression estimation device according to any one of claims 1 to 3,
The evaluation value acquisition unit determines the degree of self-evaluation for terms associated with a plurality of factors indicating the psychological state associated with the impression selected by itself, and the factor loading amount associated with each term. An impression estimation device that acquires a factor score calculated using the above as the evaluation value.
請求項1から6のいずれか一項に記載の印象推定装置において、
前記特徴量取得部は、少なくとも、前記自身の顔の目に関する特徴量、鼻に関する特徴量および口に関する特徴量を前記顔の特徴量として取得する、印象推定装置。
In the impression estimation device according to any one of claims 1 to 6.
The feature amount acquisition unit is an impression estimation device that acquires at least the feature amount related to the eyes, the feature amount related to the nose, and the feature amount related to the mouth of the face as the feature amount of the face.
他者による自身の印象を推定する印象推定方法であって、
自身の顔の特徴量を取得し、
自身による自己印象の評価値を取得し、
特徴量と自己印象の評価値とを変数とする他者による印象を推定する予め用意された印象推定式と、取得された前記特徴量と前記評価値とを用いて印象を推定すること、
を備える、印象推定方法。
It is an impression estimation method that estimates one's own impression by others.
Get the features of your face and
Obtain the evaluation value of self-impression by yourself,
Estimating an impression using a pre-prepared impression estimation formula that estimates an impression by another person with a feature amount and an evaluation value of self-impression as variables, and the acquired feature amount and the evaluation value.
Impression estimation method.
他者による自身の印象を推定する印象推定プログラムであって、
自身の顔の特徴量を取得するための機能と、
自身による自己印象の評価値を取得するための機能と、
特徴量と自己印象の評価値とを変数とする他者による印象を推定する予め用意された印象推定式と、取得された前記特徴量と前記評価値とを用いて印象を推定するための機能とを、コンピュータによって実現させる、印象推定プログラム。
An impression estimation program that estimates one's own impression by others.
With the function to acquire the feature amount of one's face,
A function to acquire the evaluation value of self-impression by oneself,
A function for estimating an impression using a pre-prepared impression estimation formula that estimates an impression by another person with a feature amount and an evaluation value of self-impression as variables, and the acquired feature amount and the evaluation value. An impression estimation program that realizes with a computer.
JP2020153059A 2020-09-11 2020-09-11 Impression estimation device, impression estimation method, and impression estimation program Pending JP2022047253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020153059A JP2022047253A (en) 2020-09-11 2020-09-11 Impression estimation device, impression estimation method, and impression estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020153059A JP2022047253A (en) 2020-09-11 2020-09-11 Impression estimation device, impression estimation method, and impression estimation program

Publications (1)

Publication Number Publication Date
JP2022047253A true JP2022047253A (en) 2022-03-24

Family

ID=80780278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020153059A Pending JP2022047253A (en) 2020-09-11 2020-09-11 Impression estimation device, impression estimation method, and impression estimation program

Country Status (1)

Country Link
JP (1) JP2022047253A (en)

Similar Documents

Publication Publication Date Title
JP2022512044A (en) Automatic image-based skin diagnosis using deep learning
US9177230B2 (en) Demographic analysis of facial landmarks
EP2731072A1 (en) Face impression analysis method, cosmetic counseling method, and face image generation method
JP4280699B2 (en) Skin analysis system and method
CN106580346A (en) Emotion estimating method, and emotion estimating apparatus
US20190357792A1 (en) Sensibility evaluation apparatus, sensibility evaluation method and method for configuring multi-axis sensibility model
KR101949152B1 (en) Method and Appartus for Skin Condition Diagnosis and System for Providing Makeup Information suitable Skin Condition Using the Same
KR101049152B1 (en) Method and system for diagnosis of psychologicalsymptoms using a web
JP7264959B2 (en) Information output system for skin condition care
JP6530703B2 (en) Skin condition evaluation method
JP2016081075A (en) Method and device for improving impression
Short et al. Evidence for a young adult face bias in accuracy and consensus of age estimates
CN107533365A (en) Changed using the pupil size depending on heartbeat to express the system of the method for the social telepresenc of avatar and application this method
JP2006081847A (en) Skin analysis network system
JP2017120595A (en) Method for evaluating state of application of cosmetics
TWI528296B (en) Method of estimating sebaceous quantity, device of estimating sebaceous quantity and sebaceous quantity estimating program
JP7453990B2 (en) Skin quality determination system and cosmetic preparation system
JP2022047253A (en) Impression estimation device, impression estimation method, and impression estimation program
JP2019017756A (en) Brain wave signal evaluation method
JP2005034424A (en) Method and apparatus for evaluating the state of skin surface
KR101098564B1 (en) System for diagnosis of psychologicalsymptoms and record medium for recording program using the same
Ortuño et al. Neurometrics applied to banknote and security features design
TW201945898A (en) Information processing device and program
JP2015029609A6 (en) Preference evaluation method, preference evaluation apparatus and program
JP2015029609A (en) Palatability evaluation method, palatability evaluation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507