JP2019192072A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2019192072A JP2019192072A JP2018086366A JP2018086366A JP2019192072A JP 2019192072 A JP2019192072 A JP 2019192072A JP 2018086366 A JP2018086366 A JP 2018086366A JP 2018086366 A JP2018086366 A JP 2018086366A JP 2019192072 A JP2019192072 A JP 2019192072A
- Authority
- JP
- Japan
- Prior art keywords
- image
- line
- sight
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 84
- 238000011156 evaluation Methods 0.000 claims abstract description 70
- 238000004088 simulation Methods 0.000 claims description 124
- 230000000007 visual effect Effects 0.000 abstract description 7
- 238000005259 measurement Methods 0.000 description 39
- 230000004048 modification Effects 0.000 description 22
- 238000012986 modification Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000002537 cosmetic Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013210 evaluation model Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000001356 surgical procedure Methods 0.000 description 2
- 240000002871 Tectona grandis Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000002316 cosmetic surgery Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
近年、化粧品のラインナップの増加に伴い、化粧品の販売店の担当者や消費者は、消費者の嗜好に合った化粧品を選択することが困難になる傾向にある。 In recent years, with the increase in the lineup of cosmetics, it is difficult for the person in charge of the cosmetics store or the consumer to select a cosmetic that suits the consumer's preference.
そのため、コンピュータ上で、消費者の顔の画像を用いたメイキャップシミュレーションを実行することにより、メイキャップシミュレーション画像を生成する技術が普及している(例えば、特許文献1)。 Therefore, a technique for generating a make-up simulation image by executing a make-up simulation using an image of a consumer's face on a computer has become widespread (for example, Patent Document 1).
しかし、人間がある事象に対して自身の嗜好に合っていると感じたとしても、その後に当該事象が嗜好に合わないと感じることもある。これは、人の嗜好がその人の主観に依存するにもかかわらず、人の主観は一定ではないためである。 However, even if a person feels that his / her preference is met with respect to an event, he / she may later feel that the event does not meet his / her preference. This is because a person's subjectivity is not constant even though the person's preference depends on the person's subjectivity.
例えば、特許文献1の技術によって生成された複数のメイキャップシミュレーション画像の中から、消費者が自身の嗜好に合ったメイキャップシミュレーション画像を選択したとしても、その後に、選択したメイキャップシミュレーション画像が自身の嗜好に合わないと感じる場合、又は、選択しなかったメイキャップシミュレーション画像が自身の嗜好に合うと感じる場合もある。 For example, even if a consumer selects a makeup simulation image that suits his / her preference from among a plurality of makeup simulation images generated by the technique of Patent Document 1, the selected makeup simulation image is subsequently displayed. There are cases where the user feels that his / her preference is not met, or that a makeup simulation image that has not been selected fits his / her preference.
このように、人が観察する顔に抱く評価には、その人の主観が反映される。そのため、人が観察する顔に対する潜在的な評価を提示することは困難である。 Thus, the evaluation of the face observed by the person reflects the subjectivity of the person. Therefore, it is difficult to present a potential evaluation for a face that a person observes.
本発明の目的は、ユーザが観察する顔に対するユーザの潜在的な評価を提示することである。 An object of the present invention is to present a user's potential evaluation of the face that the user observes.
本発明の一態様は、
ユーザに対して、顔を含む画像を提示する手段を備え、
ユーザの視線の動きに関する視線情報を取得する手段を備え、
視線情報に基づいて、画像におけるユーザの視線の分布を計算する手段を備え、
視線分布に基づいて、画像に関するレコメンド情報を決定する手段を備え、
レコメンド情報を提示する手段を備える、
情報処理装置である。
One embodiment of the present invention provides:
Means for presenting an image including a face to a user;
Means for acquiring line-of-sight information regarding the movement of the user's line of sight,
A means for calculating a user's gaze distribution in the image based on the gaze information;
Means for determining recommendation information about the image based on the gaze distribution;
Comprising means for presenting recommendation information;
Information processing apparatus.
本発明によれば、ユーザが観察する顔に対するユーザの潜在的な評価を提示することができる。 ADVANTAGE OF THE INVENTION According to this invention, a user's potential evaluation with respect to the face which a user observes can be shown.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. Note that in the drawings for describing the embodiments, the same components are denoted by the same reference symbols in principle, and the repetitive description thereof will be omitted.
(1)第1実施形態
本発明の第1実施形態について説明する。
(1) First Embodiment A first embodiment of the present invention will be described.
(1−1)情報処理システムの構成
情報処理システムの構成について説明する。図1〜図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
(1-1) Configuration of Information Processing System The configuration of the information processing system will be described. 1 to 2 are block diagrams illustrating the configuration of the information processing system according to the first embodiment.
図1〜図2に示すように、情報処理システム1は、クライアント装置10と、アイトラッカ20と、サーバ30と、を備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
アイトラッカ20は、クライアント装置10に接続される。
As illustrated in FIGS. 1 to 2, the information processing system 1 includes a
The
The
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
ユーザUは、クライアント装置10に対して、ユーザ指示を与えることができる。
The
The user U can give a user instruction to the
アイトラッカ20は、ユーザUの視線の動きを検出し、且つ、視線の動きに関するアイトラッキング信号(「視線情報の一例」)を生成するように構成される。具体的には、アイトラッカ20は、所定時間毎に、ユーザの視線の位置を示す座標を計測する。
アイトラッカ20は、アイトラッキング信号をクライアント装置10に送信する。
The
The
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
The
(1−1−1)クライアント装置の構成
図1を参照して、クライアント装置10の構成について説明する。
(1-1-1) Configuration of Client Device The configuration of the
図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、を備える。
As illustrated in FIG. 1, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
The
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、メイキャップシミュレーション用アプリケーション)のプログラム
The programs include, for example, the following programs.
-OS (Operating System) program-Program for executing information processing (for example, application for make-up simulation)
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, information processing execution result)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
The
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、クライアント装置10に接続される出力デバイスに情報を出力し、且つ、アイトラッカ20からアイトラッキング信号を取得するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ15である。
The input /
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, the
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
The
ディスプレイ15は、プロセッサ12によって生成された画像を表示するように構成される。
The
カメラ16は、画像(例えば、クライアント装置10のユーザの顔の画像)を撮像するように構成される。
The
(1−1−2)サーバの構成
図1を参照して、サーバ30の構成について説明する。
(1-1-2) Server Configuration The configuration of the
図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
As illustrated in FIG. 1, the
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
The
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
-OS program-Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referenced in information processing ・ Results of information processing
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
The
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input /
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
The
(1−2)第1実施形態の概要
第1実施形態の概要について説明する。図3は、第1実施形態の概要の説明図である。
(1-2) Overview of First Embodiment An overview of the first embodiment will be described. FIG. 3 is an explanatory diagram of an overview of the first embodiment.
図3に示すように、第1実施形態では、人(例えば、ユーザU)の顔を含むシミュレーション画像SIMGを提示する。シミュレーション画像SIMGでは、鏡像のように、ユーザUの右目REが向かって右側に配置され、且つ、ユーザUの左目LEが向かって左側に配置される。
次に、シミュレーション画像SIMGを観察している間のユーザUの視線の動きに関するアイトラッキング信号を生成する。
次に、アイトラッキング信号に基づいて、シミュレーション画像SIMGを構成する画素の座標空間(以下「画像空間」という)において、向かって右側に位置する(つまり、右目REを含む)第1領域GR1の視線の分布と、向かって左側に位置する(つまり、左目LEを含む)第2領域GR2の視線の分布と、を計算する。
次に、第1領域GR1の視線の分布と、第2領域GR2の視線の分布と、に基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価に関するレコメンド情報を提供する。
As shown in FIG. 3, in 1st Embodiment, the simulation image SIMG containing the face of a person (for example, user U) is shown. In the simulation image SIMG, the right eye RE of the user U is arranged on the right side and the left eye LE of the user U is arranged on the left side as shown in a mirror image.
Next, an eye tracking signal related to the movement of the line of sight of the user U while observing the simulation image SIMG is generated.
Next, based on the eye tracking signal, the line of sight of the first region GR1 located on the right side (that is, including the right eye RE) in the coordinate space (hereinafter referred to as “image space”) of the pixels constituting the simulation image SIMG. And the distribution of the line of sight of the second region GR2 located on the left side (that is, including the left eye LE).
Next, based on the line-of-sight distribution in the first region GR1 and the line-of-sight distribution in the second region GR2, recommendation information related to the potential evaluation of the user U with respect to the simulation image SIMG is provided.
このように、第1実施形態では、1つのシミュレーション画像SIMGの画像空間におけるユーザUの視線分布(つまり、視線の偏り)に基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価が反映されたレコメンド情報を提示する。 Thus, in the first embodiment, the potential evaluation of the user U with respect to the simulation image SIMG is reflected based on the gaze distribution (that is, gaze bias) of the user U in the image space of one simulation image SIMG. Present recommendation information.
(1−3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(1-3) Database The database according to the first embodiment will be described. The following database is stored in the
(1−3−1)ユーザ情報データベース
第1実施形態のユーザ情報データベースについて説明する。図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
(1-3-1) User Information Database A user information database according to the first embodiment will be described. FIG. 4 is a diagram illustrating a data structure of the user information database according to the first embodiment.
図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ画像」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
The user information database in FIG. 4 stores user information related to users.
The user information database includes a “user ID” field, a “user name” field, a “user image” field, and a “user attribute” field. Each field is associated with each other.
「ユーザID」フィールドには、ユーザを識別するユーザID(「ユーザ識別情報」の一例)が格納されている。 The “user ID” field stores a user ID for identifying the user (an example of “user identification information”).
「ユーザ名」フィールドには、ユーザの名前に関する情報(例えば、テキスト)が格納されている。 In the “user name” field, information (for example, text) related to the user name is stored.
「ユーザ画像」フィールドには、ユーザの顔を含む画像の画像データが格納されている。 The “user image” field stores image data of an image including the user's face.
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、「職業」フィールドと、を含む。 The “user attribute” field includes a “sex” field, an “age” field, and an “occupation” field.
「性別」フィールドには、ユーザの性別に関する情報が格納される。 The “gender” field stores information on the gender of the user.
「年齢」フィールドには、ユーザの年齢に関する情報が格納される。 In the “age” field, information related to the age of the user is stored.
「職業」フィールドには、ユーザの職業に関する情報が格納される。 Information relating to the user's occupation is stored in the “occupation” field.
(1−3−2)メイキャップパターン情報マスタテーブル
第1実施形態のメイキャップパターン情報マスタテーブルについて説明する。図5は、第1実施形態のメイキャップパターン情報マスタテーブルのデータ構造を示す図である。
(1-3-2) Makeup Pattern Information Master Table The makeup pattern information master table of the first embodiment will be described. FIG. 5 is a diagram illustrating a data structure of the makeup pattern information master table according to the first embodiment.
図5のメイキャップパターン情報マスタテーブルには、メイキャップパターンに関するメイキャップパターン情報が記憶される。
メイキャップパターン情報マスタテーブルは、「パターンID」フィールドと、「パターン名」フィールドと、「アイテム」フィールドと、を含む。
The makeup pattern information master table of FIG. 5 stores makeup pattern information related to the makeup pattern.
The makeup pattern information master table includes a “pattern ID” field, a “pattern name” field, and an “item” field.
「パターンID」フィールドには、メイキャップパターンを識別するメイキャップパターンID(「メイキャップパターン識別情報」の一例)が格納される。 The “pattern ID” field stores a makeup pattern ID for identifying a makeup pattern (an example of “makeup pattern identification information”).
「パターン名」フィールドには、メイキャップパターンのパターン名に関する情報(例えば、テキスト)が格納されている。 In the “pattern name” field, information (for example, text) related to the pattern name of the makeup pattern is stored.
「アイテム」フィールドには、メイキャップシミュレーションで使用されるメイキャップアイテムに関するアイテム情報が格納される。「アイテム」フィールドは、「カテゴリ」フィールドと、「アイテムID」フィールドと、「パラメータ」フィールドと、を含む。「カテゴリ」フィールド、「アイテムID」フィールド、及び、「パラメータ」フィールドは、互いに関連付けられている。 The “item” field stores item information related to makeup items used in the makeup simulation. The “item” field includes a “category” field, an “item ID” field, and a “parameter” field. The “category” field, the “item ID” field, and the “parameter” field are associated with each other.
「カテゴリ」フィールドには、メイキャップアイテムのカテゴリ(例えば、ファンデーション、口紅、及び、チーク)に関する情報が格納される。 The “category” field stores information on the category of the makeup item (for example, foundation, lipstick, and teak).
「アイテムID」フィールドには、メイキャップアイテムを識別するアイテムID(「メイキャップアイテム識別情報」の一例)が格納される。 In the “item ID” field, an item ID for identifying a makeup item (an example of “makeup item identification information”) is stored.
「パラメータ」フィールドには、メイキャップアイテムを使用したときの効果に関するメイキャップパラメータが格納される。メイキャップパラメータは、例えば、元画像(一例として、ユーザUの顔の画像)に適用すべき画像処理パラメータ(例えば、元画像の画素の色情報を変換するための色変換パラメータ)である。 In the “parameter” field, a makeup parameter relating to an effect when the makeup item is used is stored. The makeup parameter is, for example, an image processing parameter (for example, a color conversion parameter for converting color information of pixels of the original image) to be applied to the original image (for example, an image of the face of the user U).
(1−3−3)シミュレーションログ情報データベース
第1実施形態のシミュレーションログ情報データベースについて説明する。図6は、第1実施形態のシミュレーションログ情報データベースのデータ構造を示す図である。
(1-3-3) Simulation Log Information Database A simulation log information database according to the first embodiment will be described. FIG. 6 is a diagram illustrating a data structure of the simulation log information database according to the first embodiment.
図6のシミュレーションログ情報データベースには、メイキャップシミュレーションの結果に関する情報が時系列に記憶される。
シミュレーションログ情報データベースは、「シミュレーションID」フィールドと、「シミュレーション実行日」フィールドと、「シミュレーション条件」フィールドと、「アイトラッキング信号」フィールドと、「視線分布」フィールドと、を含む。
シミュレーションログ情報データベースは、ユーザIDに関連付けられている。
In the simulation log information database of FIG. 6, information related to the result of the make-up simulation is stored in time series.
The simulation log information database includes a “simulation ID” field, a “simulation execution date” field, a “simulation condition” field, an “eye tracking signal” field, and a “line-of-sight distribution” field.
The simulation log information database is associated with the user ID.
「シミュレーションID」フィールドには、メイキャップシミュレーションを識別するシミュレーションID(「シミュレーション識別情報」の一例)が格納される。 The “simulation ID” field stores a simulation ID for identifying a makeup simulation (an example of “simulation identification information”).
「シミュレーション実行日」フィールドには、メイキャップシミュレーションの実行日に関する情報が格納される。 Information relating to the execution date of the make-up simulation is stored in the “simulation execution date” field.
「シミュレーション条件」フィールドには、メイキャップシミュレーションのシミュレーション条件に関する情報が格納される。「シミュレーション条件」フィールドは、「元画像」フィールドと、「パターン」フィールドと、を含む。 In the “simulation condition” field, information related to the simulation condition of the make-up simulation is stored. The “simulation condition” field includes an “original image” field and a “pattern” field.
「元画像」フィールドには、メイキャップシミュレーションの対象となる元画像(例えば、ユーザUの顔の画像)の画像データが格納される。 The “original image” field stores image data of an original image (for example, an image of the face of the user U) that is a target of the make-up simulation.
「パターン」フィールドには、「元画像」フィールドの画像データに対して適用されるメイキャップパターンのメイキャップパターンIDが格納される。 In the “pattern” field, a makeup pattern ID of a makeup pattern applied to the image data in the “original image” field is stored.
「アイトラッキング信号」フィールドには、アイトラッカ20によって生成されたアイトラッキング信号が格納される。「アイトラッキング信号」フィールドは、「計測座標」フィールドと、「計測時間」フィールドと、を含む。「計測座標」フィールド及び「計測時間」フィールドは、互いに関連付けられている。
The “eye tracking signal” field stores the eye tracking signal generated by the
「計測座標」フィールドには、画像空間におけるユーザの視線の位置を示す計測座標が格納される。 The “measurement coordinate” field stores measurement coordinates indicating the position of the user's line of sight in the image space.
「計測時間」フィールドには、アイトラッカ20がアイトラッキング信号を生成したタイミングに関する計測時間情報が格納される。計測時間情報は、例えば、アイトラッカ20がアイトラッキング信号の生成を開始した時点からの経過時間である。
「計測座標」フィールドの座標、及び、「計測時間」フィールドの情報の組合せにより、ユーザUの視線の動きが特定される。
The “measurement time” field stores measurement time information related to the timing when the
The movement of the line of sight of the user U is specified by the combination of the coordinates of the “measurement coordinate” field and the information of the “measurement time” field.
「視線分布」フィールドには、「アイトラッキング信号」フィールドの情報から導出される視線分布(「視線パラメータ」の一例)が格納される。視線分布は、メイキャップシミュレーション画像の画像空間におけるユーザの視線の分布を示す。「視線分布」フィールドは、「R分布」フィールドと、「L分布」フィールドと、を含む。 The “line-of-sight distribution” field stores a line-of-sight distribution (an example of “line-of-sight parameter”) derived from information in the “eye tracking signal” field. The line-of-sight distribution indicates the distribution of the line of sight of the user in the image space of the makeup simulation image. The “line-of-sight distribution” field includes an “R distribution” field and an “L distribution” field.
「R分布」フィールドには、メイキャップシミュレーション画像の画像空間において、メイキャップシミュレーション画像に対して向かって右側(つまり、観察者から向かって右側)の第1領域におけるユーザの視線の分布率が格納される。 In the “R distribution” field, in the image space of the makeup simulation image, the distribution ratio of the user's line of sight in the first region on the right side (that is, the right side from the observer) with respect to the makeup simulation image is stored. Is done.
「L分布」フィールドには、メイキャップシミュレーション画像の画像空間において、メイキャップシミュレーション画像に対して向かって左側(つまり、観察者から向かって左側)の第2領域におけるユーザの視線の分布率が格納される。 In the “L distribution” field, in the image space of the makeup simulation image, the distribution ratio of the user's line of sight in the second region on the left side (that is, the left side from the observer) with respect to the makeup simulation image is stored. Is done.
(1−4)情報処理
第1実施形態の情報処理について説明する。図7は、第1実施形態の情報処理のフローチャートである。図8〜図10は、図7の情報処理において表示される画面例を示す図である。図11は、図7の視線パラメータの計算の詳細なフローチャートである。図12は、図7の視線パラメータの計算の説明図である。
(1-4) Information Processing Information processing according to the first embodiment will be described. FIG. 7 is a flowchart of information processing according to the first embodiment. 8 to 10 are diagrams showing examples of screens displayed in the information processing of FIG. FIG. 11 is a detailed flowchart of the line-of-sight parameter calculation of FIG. FIG. 12 is an explanatory diagram of the calculation of the line-of-sight parameter in FIG.
図7に示すように、クライアント装置10は、元画像の決定(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図8)をディスプレイ15に表示する。
As illustrated in FIG. 7, the
Specifically, the
画面P100は、画像オブジェクトIMG100を含む。
画像オブジェクトIMG100は、ユーザUの顔の画像を含む。画像オブジェクトIMG100は、例えば、以下の何れかである。
・記憶装置11に予め記憶されていた画像
・ユーザ情報データベース(図4)の「ユーザ画像」フィールドの画像データから再現される画像
・入出力インタフェース13に接続されたカメラ16によって撮像された画像
Screen P100 includes an image object IMG100.
The image object IMG100 includes an image of the face of the user U. The image object IMG100 is, for example, one of the following.
An image stored in advance in the
ステップS100の後、クライアント装置10は、メイキャップシミュレーション画像の生成(S101)を実行する。
具体的には、プロセッサ12は、メイキャップパターン情報マスタテーブル(図5)の任意のレコードを特定する。
プロセッサ12は、ステップS100で決定したシミュレーション画像SIMGに、特定したレコードの「パラメータ」フィールドの情報を適用することにより、メイキャップシミュレーション画像を生成する。
After step S100, the
Specifically, the
The
ステップS101の後、クライアント装置10は、メイキャップシミュレーション画像の提示(S102)を実行する。
具体的には、プロセッサ12は、画面P101(図8)をディスプレイ15に表示する。
After step S101, the
Specifically, the
画面P101は、画像オブジェクトIMG101を含む。
画像オブジェクトIMG101は、ステップS101で生成されたメイキャップシミュレーション画像である。
Screen P101 includes an image object IMG101.
The image object IMG101 is a make-up simulation image generated in step S101.
ステップS102の後、クライアント装置10は、視線パラメータの計算(S103)を実行する。
After step S102, the
図11に示すように、クライアント装置10は、アイトラッキング信号の取得(S1030)を実行する。
具体的には、プロセッサ12は、アイトラッカ20から、アイトラッキング信号を取得する。
プロセッサ12は、アイトラッキング信号に基づいて、計測座標と、計測時間と、を関連付けて記憶装置11に記憶する。
As illustrated in FIG. 11, the
Specifically, the
The
ステップS1030の後、クライアント装置10は、画像空間の分割(S1031)を実行する。
具体的には、プロセッサ12は、図12に示すように、画像空間の基準線(例えば、両目を結ぶ線の中間点と、鼻の中心と、を結ぶ線)IRLの座標を計算する。
プロセッサ12は、基準線IRLを境界線として、メイキャップシミュレーション画像SIMGの画像空間を、第1領域A1及び第2領域A2に分割する。
第1領域A1は、メイキャップシミュレーション画像SIMGに対して向かって右側の領域(つまり、右目REを含む領域)である。
第2領域A2は、メイキャップシミュレーション画像SIMGに対して向かって左側の領域(つまり、左目LEを含む領域)である。
After step S1030, the
Specifically, as shown in FIG. 12, the
The
The first region A1 is a region on the right side of the makeup simulation image SIMG (that is, a region including the right eye RE).
The second area A2 is an area on the left side of the makeup simulation image SIMG (that is, an area including the left eye LE).
ステップS1031の後、クライアント装置10は、領域座標の特定(S1032)を実行する。
具体的には、プロセッサ12は、ステップS1030で記憶装置11に記憶した計測座標のうち、第1領域A1に含まれる計測座標を第1領域座標C1として特定し、且つ、第2領域A2に含まれる計測座標を第2領域座標C2として特定する。
After step S1031, the
Specifically, the
ステップS1032の後、クライアント装置10は、視線分布率の計算(S1033)を実行する。
具体的には、プロセッサ12は、式1を用いて、ユーザUが第1領域A1に視線を向けた割合(以下「第1視線分布率」という)E1と、ユーザUが第2領域A2に視線を向けた割合(以下「第2視線分布率」という)E2と、を計算する。
・E2…第2視線分布率
・N(C1)…第1領域座標C1の総数
・N(C2)…第2領域座標C2の総数
After step S1032, the
Specifically, the
図7のSS1(ステップS101〜S103)は、第1実施形態のメイキャップシミュレーションの処理に相当する。つまり、メイキャップシミュレーションは、複数のメイキャップパターンのそれぞれについて、複数回実行される。 SS1 (steps S101 to S103) in FIG. 7 corresponds to the makeup simulation process of the first embodiment. That is, the makeup simulation is executed a plurality of times for each of the plurality of makeup patterns.
例えば、2回目のステップS101では、プロセッサ12は、1回目のステップS101で用いられたメイキャップパターンとは異なるメイキャップパターンを元画像に適用することにより、1回目のステップS101で得られたメイキャップシミュレーション画像とは異なるメイキャップシミュレーション画像を生成する。
For example, in the second step S101, the
2回目のステップS102では、プロセッサ12は、画面P102(図9)をディスプレイ15に表示する。
In the second step S102, the
画面P102は、画像オブジェクトIMG102を含む。
画像オブジェクトIMG102は、2回目のステップS101で生成されたメイキャップシミュレーション画像である。
Screen P102 includes an image object IMG102.
The image object IMG102 is a make-up simulation image generated in the second step S101.
つまり、プロセッサ12は、複数のメイキャップシミュレーション画像を個別に提示し、且つ、各メイキャップシミュレーション画像に対する視線分布を計算する。これにより、各メイキャップシミュレーション画像に対する視線分布が得られる。
That is, the
ステップS103の後、クライアント装置10は、視線パラメータの提示(S104)を実行する。
具体的には、プロセッサ12は、画面P103(図10)をディスプレイ15に表示する。
After step S103, the
Specifically, the
画面P103は、表示オブジェクトA103a〜A103bと、画像オブジェクトIMG101及びIMG102と、を含む。
表示オブジェクトA103aには、画像オブジェクトIMG101の生成に使用されたメイキャップパターンに関する情報(例えば、パターン名)と、画像オブジェクトIMG101に対する第1視線分布率E1及び第2視線分布率E2と、が表示される。
表示オブジェクトA103bには、画像オブジェクトIMG102の生成に使用されたメイキャップパターンに関する情報(例えば、パターン名)と、画像オブジェクトIMG102に対する第1視線分布率E1及び第2視線分布率E2と、が表示される。
Screen P103 includes display objects A103a to A103b, and image objects IMG101 and IMG102.
In the display object A103a, information (for example, a pattern name) related to the makeup pattern used to generate the image object IMG101, and the first gaze distribution rate E1 and the second gaze distribution rate E2 for the image object IMG101 are displayed. The
In the display object A103b, information (for example, a pattern name) related to the makeup pattern used to generate the image object IMG102, and the first gaze distribution rate E1 and the second gaze distribution rate E2 for the image object IMG102 are displayed. The
ステップS104の後、クライアント装置10は、レコメンド情報の決定(S105)を実行する。
After step S104, the
ステップS105の第1例では、プロセッサ12は、ステップS103で計算した複数のメイキャップシミュレーション画像に対する視線分布率(つまり、画面P103の表示オブジェクトA103a〜A103bに表示された第1視線分布率E1及び第2視線分布率E2)から、第1視線分布率E1が最も大きいメイキャップシミュレーション画像を選択する。
In the first example of step S105, the
ステップS105の第2例では、プロセッサ12は、ステップS103で計算した複数のメイキャップシミュレーション画像に対する視線分布率(つまり、画面P103の表示オブジェクトA103a〜A103bに表示された第1視線分布率E1及び第2視線分布率E2)から、第1視線分布率が所定値以上である少なくとも1つのメイキャップシミュレーション画像を選択する。
なお、全てのメイキャップシミュレーション画像の第1視線分布率E1が所定値未満である場合、レコメンド情報は提示されない。
In the second example of step S105, the
Note that when the first line-of-sight distribution ratio E1 of all makeup simulation images is less than a predetermined value, recommendation information is not presented.
文献”Brady, N., Campbell, M., & Flaherty, M. (2005). Perceptual asymmetries are preserved in memory for highly familiar faces of self and friend. Brain & Cognition, 58, 334-342.”には、その人らしさは、顔の右側半分に表れるという研究成果が記載されている。人が日常的に見る自分の顔は鏡に映った顔である。したがって、人が鏡に写った自分の顔を見る場合、観察者から向かって右側に自分らしさを感じる傾向がある。
また、文献”Guo, K., Tunnicliffe, D., & Roebuck, H. (2010). Human spontaneous gaze patterns in viewing of faces of different species. Perception, 39, 533-542.”には、人間や霊長類が人や動物を注視するときに、観察者から向かって顔の左側半分を見る傾向にあるという研究成果が記載されている。
The document “Brady, N., Campbell, M., & Flaherty, M. (2005). Perceptual asymmetries are preserved in memory for highly familiar faces of self and friend. Brain & Cognition, 58, 334-342.” The research result that the humanity appears in the right half of the face is described. The face that people see on a daily basis is the face reflected in the mirror. Therefore, when a person sees his / her face in the mirror, he / she tends to feel his / her own right side from the viewer.
Also, the document “Guo, K., Tunnicliffe, D., & Roebuck, H. (2010). Human spontaneous gaze patterns in viewing of faces of different species. Perception, 39, 533-542.” Research has shown that when a class looks at a person or animal, it tends to look at the left half of the face from the viewer.
第1例の第1視線分布率E1が最も大きいメイキャップシミュレーション画像とは、複数のメイキャップシミュレーション画像のうち、右目側が最も注視されたメイキャップシミュレーション画像を意味する。換言すると、第1視線分布率E1が最も大きいメイキャップシミュレーション画像は、ユーザUの潜在的な評価が高い画像(例えば、最も関心が高い画像、最も自分らしさを感じる画像、最も親和性を感じる画像、又は、最も印象的に感じる画像)とも言える。 The makeup simulation image having the largest first line-of-sight distribution ratio E1 in the first example means a makeup simulation image in which the right eye side is most watched among a plurality of makeup simulation images. In other words, the makeup simulation image having the largest first gaze distribution rate E1 is an image having a high potential evaluation by the user U (for example, an image having the highest interest, an image that feels the most, an image that feels the most affinity). Or the most impressive image).
第2例の第1視線分布率E1が所定値以上である少なくとも1つのメイキャップシミュレーション画像とは、複数のメイキャップシミュレーション画像のうち、右目側が一定以上注視されたメイキャップシミュレーション画像を意味する。換言すると、第1視線分布率E1が所定値以上のメイキャップシミュレーション画像は、ユーザUの潜在的な評価が一定の基準を超えている画像(例えば、一定程度関心が高い画像、一定程度自分らしさを感じる画像、一定程度親和性を感じる画像、又は、一定程度印象的に感じる画像)とも言える。 The at least one makeup simulation image in which the first line-of-sight distribution rate E1 of the second example is equal to or greater than a predetermined value means a makeup simulation image in which the right eye side is watched more than a certain value among a plurality of makeup simulation images. In other words, a makeup simulation image having a first gaze distribution rate E1 of a predetermined value or more is an image in which the potential evaluation of the user U exceeds a certain standard (for example, an image with a certain degree of interest or a certain degree of personality). Or an image that feels a certain degree of affinity, or an image that feels a certain degree of impression).
画面P103の例では、画像オブジェクトIMG101及びIMG102のうち、画像オブジェクトIMG101の第1視線分布率E1が最も大きいので、画像オブジェクトIMG101に対応するメイキャップシミュレーション画像(つまり、パターン名「MC1」のメイキャップパターンが適用されたメイキャップシミュレーション画像)がレコメンド情報として決定される。 In the example of the screen P103, the first gaze distribution rate E1 of the image object IMG101 is the largest of the image objects IMG101 and IMG102. Makeup simulation image to which the pattern is applied) is determined as recommendation information.
ステップS105の後、クライアント装置10は、レコメンド情報の提示(S106)を実行する。
具体的には、プロセッサ12は、画面P104(図10)をディスプレイ15に表示する。
After step S105, the
Specifically, the
画面P104は、画像オブジェクトIMG101と、表示オブジェクトA104a〜A104bと、操作オブジェクトB104a〜B104bと、を含む。
表示オブジェクトA104aには、メイキャップシミュレーション画像の生成に用いられたメイキャップパターンのパターン名が表示される。
表示オブジェクトA104bには、メイキャップシミュレーション画像の生成に用いられたメイキャップパターンに対応するアイテムに関するアイテム情報(例えば、アイテムのカテゴリ及びアイテムID)が表示される。
操作オブジェクトB104aは、レコメンド情報(例えば、画像オブジェクトIMG101、表示オブジェクトA104a〜A104bの内容)を用いてサーバ30上のデータベースを更新するためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB104bは、表示オブジェクトA104bに表示されたアイテムを販売するウェブサイトにアクセスするためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB104bには、当該ウェブサイトのURL(Uniform Resource Locator)が割り当てられている。
Screen P104 includes image object IMG101, display objects A104a to A104b, and operation objects B104a to B104b.
The display object A104a displays the pattern name of the makeup pattern used for generating the makeup simulation image.
In the display object A104b, item information (for example, item category and item ID) related to the item corresponding to the makeup pattern used to generate the makeup simulation image is displayed.
The operation object B104a is an object that receives a user instruction for updating the database on the
The operation object B104b is an object that receives a user instruction to access a website that sells items displayed on the display object A104b. A URL (Uniform Resource Locator) of the website is assigned to the operation object B104b.
ステップS106の後、クライアント装置10は、更新リクエスト(S107)を実行する。
具体的には、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ユーザUのユーザID
・ステップS100で決定された画像データ
・ステップS101で参照されたメイキャップパターンID
・ステップS103の実行日に関する情報
・ステップS1030で記憶装置11に記憶された計測座標及び計測時間
・ステップS1033で計算された第1視線分布率E1及び第2視線分布率E2
After step S106, the
Specifically, the
The update request data includes the following information.
・ User ID of user U
-Image data determined in step S100-Makeup pattern ID referenced in step S101
Information related to the execution date of step S103 Measurement coordinates and measurement time stored in the
ステップS107の後、サーバ30は、データベースの更新(S300)を実行する。
具体的には、プロセッサ32は、更新リクエストデータに含まれるユーザIDに関連付けられたシミュレーションログ情報データベース(図6)に新規レコードを追加する。
新規レコードの各フィールドには、以下の情報が格納される。
・「シミュレーションID」フィールドには、新たなシミュレーションIDが格納される。
・「シミュレーション実行日」フィールドには、更新リクエストデータに含まれる実行日に関する情報が格納される。
・「元画像」フィールドには、更新リクエストデータに含まれる画像データが格納される。
・「パターンID」フィールドには、更新リクエストデータに含まれるメイキャップパターンIDが格納される。
・「計測座標」フィールドには、更新リクエストデータに含まれる計測座標が格納される。
・「計測時間」フィールドには、更新リクエストデータに含まれる計測時間が格納される。
・「R分布」フィールドには、更新リクエストデータに含まれる第1視線分布率E1が格納される。
・「L分布」フィールドには、更新リクエストデータに含まれる第2視線分布率E2が格納される。
After step S107, the
Specifically, the
The following information is stored in each field of the new record.
In the “simulation ID” field, a new simulation ID is stored.
In the “simulation execution date” field, information related to the execution date included in the update request data is stored.
In the “original image” field, image data included in the update request data is stored.
In the “pattern ID” field, a makeup pattern ID included in the update request data is stored.
In the “measurement coordinate” field, measurement coordinates included in the update request data are stored.
In the “measurement time” field, the measurement time included in the update request data is stored.
In the “R distribution” field, the first line-of-sight distribution rate E1 included in the update request data is stored.
In the “L distribution” field, the second line-of-sight distribution rate E2 included in the update request data is stored.
第1実施形態によれば、ユーザUに提示した顔の画像(例えば、メイキャップシミュレーション画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数のメイキャップシミュレーション画像の中から、ユーザUの潜在的な評価の高いメイキャップシミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。 According to the first embodiment, recommendation information (for example, a plurality of makeup simulation images) that suits the user U's preference based on the bias of the line of sight with respect to the face image (for example, makeup simulation image) presented to the user U. Among them, a make-up simulation image having a high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
(2)第2実施形態
本発明の第2実施形態について説明する。第2実施形態は、自分の顔の鏡像における視線の偏りに基づいてレコメンド情報を提示する例である。
(2) Second Embodiment A second embodiment of the present invention will be described. The second embodiment is an example in which recommendation information is presented based on gaze bias in a mirror image of one's face.
(2−1)クライアント装置の構成
第2実施形態のクライアント装置10の構成について説明する。図13は、第2実施形態のクライアント装置の外観図である。
(2-1) Configuration of Client Device The configuration of the
図13に示すように、クライアント装置10は、ハーフミラー17を更に備える。ハーフミラー17は、ディスプレイ15上に配置される。ハーフミラー17は、外光を反射し、且つ、ディスプレイ15から発光された光を透過するので、ユーザUは、鏡像MIとシミュレーション画像SIMGとを同時に観察することができる。
As shown in FIG. 13, the
(2−2)情報処理
第2実施形態の情報処理について説明する。図14は、第2実施形態の情報処理のフローチャートである。図15は、図14の視線パラメータの計算の詳細なフローチャートである。図16は、図14の視線パラメータの計算の説明図である。図17は、図14の情報処理において表示される画面例を示す図である。
(2-2) Information Processing Information processing according to the second embodiment will be described. FIG. 14 is a flowchart of information processing according to the second embodiment. FIG. 15 is a detailed flowchart of the line-of-sight parameter calculation of FIG. FIG. 16 is an explanatory diagram of the calculation of the line-of-sight parameter in FIG. FIG. 17 is a diagram illustrating an example of a screen displayed in the information processing of FIG.
図14に示すように、クライアント装置10は、視線パラメータの計算(S110)を実行する。
As illustrated in FIG. 14, the
図15に示すように、クライアント装置10は、ステップS1030(図11)の後、ユーザ画像の撮像(S1100)を実行する。
具体的には、カメラ16が、ハーフミラー17に写っている鏡像MIを観察しているユーザUの顔の画像を撮像する。
プロセッサ12は、カメラ16によって取得された画像の画像データを生成する。
As illustrated in FIG. 15, the
Specifically, the
The
ステップS1100の後、クライアント装置10は、鏡像座標の計算(S1101)を実行する。
具体的には、プロセッサ12は、ステップS1100で生成した画像データの特徴量を解析することにより、ユーザUの顔の各部(例えば、輪郭、目、鼻、及び、口)の画像空間における座標及びサイズを計算する。
プロセッサ12は、顔の各部の座標及びサイズと、クライアント装置10におけるカメラ16の位置と、に基づいて、ハーフミラー17とユーザUとの間の距離を計算する。
プロセッサ12は、計算した距離と、画像空間における座標と、に基づいて、鏡像MIの座標空間(以下「鏡像空間」という)における顔の各部の座標(以下「鏡像座標」という)を計算する。
After step S1100, the
Specifically, the
The
Based on the calculated distance and the coordinates in the image space, the
ステップS1101の後、クライアント装置10は、鏡像空間の分割(S1102)を実行する。
具体的には、図16に示すように、プロセッサ12は、ステップS1101で計算した各部の鏡像座標に基づいて、鏡像空間の基準線(例えば、両目を結ぶ線の中間点と、鼻の中心と、を結ぶ線)MRLの座標を計算する。
プロセッサ12は、基準線MRLを境界線として、鏡像空間を、第1領域A1及び第2領域A2に分割する。
第1領域A1は、鏡像MIにおいてユーザUから向かって右側に位置する(つまり、右目REを含む)領域である。
第2領域A2は、鏡像MIにおいてユーザUから向かって左側に位置する(つまり、左目LEを含む)領域である。
After step S1101, the
Specifically, as shown in FIG. 16, the
The
The first area A1 is an area located on the right side of the mirror image MI from the user U (that is, including the right eye RE).
The second area A2 is an area located on the left side of the mirror image MI from the user U (that is, including the left eye LE).
ステップS1102の後、クライアント装置10は、ステップS1032〜S1033(図11)を実行する。
After step S1102, the
ステップS110の後、クライアント装置10は、レコメンド情報の決定(S111)を実行する。
具体的には、プロセッサ12は、ステップS110で計算した第1視線分布率E1及び第2視線分布率E2を式2に適用することにより、鏡像MIに対するユーザUの評価に関するスコアSを計算する。
・a…第1視線分布率の係数
・b…第2視線分布率の係数
After step S110, the
Specifically, the
ステップS111の後、レコメンド情報の提示(S112)を実行する。
具体的には、プロセッサ12は、画面P110(図17A)をディスプレイ15に表示する。
画面P110は、表示オブジェクトA110を含む。
表示オブジェクトA110には、ステップS111で計算されたスコアSが表示される。
After step S111, recommendation information is presented (S112).
Specifically, the
The screen P110 includes a display object A110.
The display object A110 displays the score S calculated in step S111.
鏡像MIが変化する(例えば、ユーザUの顔のメイキャップの仕上がりが変わる)と、ステップS110〜S112の処理結果も変化する。
その結果、プロセッサ12は、画面P111(図17B)をディスプレイ15に表示する。
画面P111は、表示オブジェクトA111を含む。
表示オブジェクトA111には、ステップS111で計算されたスコアSが表示される。このスコアSは、表示オブジェクトA110に表示されたスコアSとは異なる。
When the mirror image MI changes (for example, the finish of the make-up of the user U's face changes), the processing results of steps S110 to S112 also change.
As a result, the
The screen P111 includes a display object A111.
The score S calculated in step S111 is displayed on the display object A111. This score S is different from the score S displayed on the display object A110.
第2実施形態によれば、ユーザUの顔の鏡像MIに対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、鏡像MIに対するユーザUの評価に関するスコアS)を提示する。これにより、ユーザが観察する顔の鏡像MIに対するユーザの潜在的な評価を提示することができる。 According to the second embodiment, based on the line-of-sight bias with respect to the mirror image MI of the user U's face, recommendation information (for example, a score S related to the evaluation of the user U with respect to the mirror image MI) is presented. Thereby, the user's potential evaluation with respect to the mirror image MI of the face observed by the user can be presented.
例えば、ユーザUがハーフミラー17に写った鏡像MIを観察しながら、複数のメイキャップアイテムを用いてメイキャップをしている場合、スコアSは、各メイキャップアイテムを用いたメイキャップに対するユーザUの潜在的な評価を表す。つまり、スコアSは、メイキャップアイテム毎のユーザUの反応を表す。
For example, when the user U is making a make-up using a plurality of make-up items while observing the mirror image MI reflected on the
例えば、ユーザUがハーフミラー17に写った鏡像MIを観察しながらメイキャップをしている場合、スコアSは、ユーザUがメイキャップを開始してから終了するまでの間の鏡像MI(つまり、メイキャップ中の顔)に対するユーザの潜在的な評価を表す。つまり、スコアSは、ユーザUがメイキャップを開始してから終了するまでの間のメイキャップの出来栄えに対するユーザUの反応の推移を表す。
For example, when the user U is making a makeup while observing the mirror image MI reflected on the
図13では、クライアント装置10がハーフミラー17を備える例を示したが、第2実施形態は、これに限られるものではない。ハーフミラー17が光を全反射する鏡であり、且つ、ディスプレイ15はクライアント装置10の外部に配置されてもよい。この場合、ユーザUは、鏡に写った自身の顔の鏡像を観察する。画面P110〜P111は、クライアント装置10の外部に配置されたディスプレイに表示される。
Although FIG. 13 shows an example in which the
(3)第3実施形態
第3実施形態について説明する。第3実施形態は、コンピュータ空間においてユーザの化身として振る舞うアバタの画像(以下「アバタ画像」という)に対するユーザの潜在的な評価を提示する例である。
(3) Third Embodiment A third embodiment will be described. The third embodiment is an example of presenting a user's potential evaluation for an avatar image (hereinafter referred to as an “avatar image”) that behaves as an incarnation of the user in a computer space.
第3実施形態の情報処理について説明する。図18は、第3実施形態の情報処理のフローチャートである。図19〜図20は、図18の情報処理において表示される画面例を示す図である。
図18の情報処理は、例えば、第3実施形態がコンピュータゲームに適用される場合、コンピュータゲームのプレイを開始する前、又は、プレイ中に実行される。
Information processing according to the third embodiment will be described. FIG. 18 is a flowchart of information processing according to the third embodiment. 19 to 20 are diagrams showing examples of screens displayed in the information processing of FIG.
For example, when the third embodiment is applied to a computer game, the information processing of FIG. 18 is executed before or during the play of the computer game.
図18に示すように、クライアント装置10は、アバタ画像の提示(S120)を実行する。
具体的には、プロセッサ12は、画面P120(図19)をディスプレイ15に表示する。
As illustrated in FIG. 18, the
Specifically, the
画面P120は、画像オブジェクトIMG120と、メッセージオブジェクトM120と、を含む。
画像オブジェクトIMG120は、アバタ画像である。
メッセージオブジェクトM120は、ユーザUの視線を画像オブジェクトIMG101に誘導するためのメッセージである。
Screen P120 includes an image object IMG120 and a message object M120.
The image object IMG120 is an avatar image.
The message object M120 is a message for guiding the user U's line of sight to the image object IMG101.
ステップS120の後、クライアント装置10は、ステップS103(図7)を実行する。
After step S120, the
図18のSS3(ステップS120及びS103)は、複数のアバタ画像のそれぞれについて、複数回実行される。 SS3 (steps S120 and S103) in FIG. 18 is executed a plurality of times for each of the plurality of avatar images.
例えば、2回目のステップS120では、プロセッサ12は、画面P121(図19)をディスプレイ15に表示する。
For example, in the second step S120, the
画面P121は、画像オブジェクトIMG121と、メッセージオブジェクトM120と、を含む。
画像オブジェクトIMG121は、1回目のステップS120で提示されたアバタ画像とは異なるアバタ画像である。
Screen P121 includes an image object IMG121 and a message object M120.
The image object IMG121 is an avatar image different from the avatar image presented in the first step S120.
これにより、複数のアバタ画像に対する視線分布が得られる。 Thereby, the line-of-sight distribution for a plurality of avatar images is obtained.
ステップS103の後、クライアント装置10は、レコメンド情報の決定(S121)を実行する。
具体的には、プロセッサ12は、各アバタ画像の第1視線分布率E1及び第2視線分布率E2を式3に適用することにより、各アバタ画像の自己同一視指数Si(レコメンド情報の一例)を計算する。自己同一視指数Siは、アバタ画像に対して「自分の化身である」とユーザUが感じるレベルに関する指標である。
・α…第1視線分布率の係数
・β…第2視線分布率の係数
After step S103, the
Specifically, the
ステップS121の後、レコメンド情報の提示(S122)を実行する。
具体的には、プロセッサ12は、画面P122(図20)をディスプレイ15に表示する。
After step S121, recommendation information is presented (S122).
Specifically, the
画面P122は、表示オブジェクトA122a〜A122bと、画像オブジェクトIMG120〜IMG121と、操作オブジェクトB122a〜B122bと、を含む。
表示オブジェクトA122aには、画像オブジェクトIMG120に対応するアバタ画像のアバタ名と、画像オブジェクトIMG120に対する第1視線分布率E1及び第2視線分布率E2と、画像オブジェクトIMG120の自己同一視指数Siと、が表示される。
表示オブジェクトA122bには、画像オブジェクトIMG121に対応するアバタ画像のアバタ名と、画像オブジェクトIMG121に対する第1視線分布率E1及び第2視線分布率E2と、画像オブジェクトIMG121の自己同一視指数Siと、が表示される。
Screen P122 includes display objects A122a to A122b, image objects IMG120 to IMG121, and operation objects B122a to B122b.
The display object A 122a includes the avatar name of the avatar image corresponding to the image object IMG 120, the first gaze distribution rate E1 and the second gaze distribution rate E2 with respect to the image object IMG 120, and the self-identification index Si of the image object IMG 120. Is displayed.
The display object A122b includes an avatar name of the avatar image corresponding to the image object IMG121, the first gaze distribution rate E1 and the second gaze distribution rate E2 with respect to the image object IMG121, and the self-identification index Si of the image object IMG121. Is displayed.
ステップS122の後、クライアント装置10は、更新リクエスト(S123)を実行する。
具体的には、プロセッサ12は、画面P123をディスプレイ15に表示する。
After step S122, the
Specifically, the
画面P123は、表示オブジェクトA123と、操作オブジェクトB123a〜B123bと、画像オブジェクトIMG123と、を含む。
表示オブジェクトA123には、ステップS121で計算された自己同一視指数Siが最も高いアバタ画像に関する情報(アバタ名、第1視線分布率E1、第2視線分布率E2、及び、自己同一視指数Si)が表示される。
画像オブジェクトIMG123は、自己同一視指数Siが最も高いアバタ画像である。
操作オブジェクトB123aは、画像オブジェクトIMG123のアバタ画像としての使用を確定させるためのユーザ指示を受け付けるオブジェクトである。
操作オブジェクトB123bは、画像オブジェクトIMG123のアバタ画像としての使用を拒否するためのユーザ指示を受け付けるオブジェクトである。
The screen P123 includes a display object A123, operation objects B123a to B123b, and an image object IMG123.
In the display object A123, information on the avatar image having the highest self-identification index Si calculated in step S121 (avatar name, first gaze distribution rate E1, second gaze distribution rate E2, and self-identification index Si). Is displayed.
The image object IMG123 is an avatar image having the highest self-identification index Si.
The operation object B123a is an object that receives a user instruction for confirming use of the image object IMG123 as an avatar image.
The operation object B123b is an object that accepts a user instruction for refusing use of the image object IMG123 as an avatar image.
ユーザが操作オブジェクトB123aを操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ユーザID
・画像オブジェクトIMG123に割り当てられたアバタ画像の画像データ
When the user operates the operation object B 123 a, the
The update request data includes the following information.
・ User ID
Image data of an avatar image assigned to the image object IMG123
ステップS123の後、サーバ30は、データベースの更新(S300)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(図4)を参照して、更新リクエストデータに含まれるユーザIDに関連付けられたレコードを特定する。
プロセッサ32は、特定したレコードの「ユーザ画像」フィールドに、更新リクエストデータに含まれる画像データを格納する。
これにより、ユーザUは、自己同一視指数Siが最も高いアバタ画像を使用可能になる。
After step S123, the
Specifically, the
The
Thereby, the user U can use the avatar image having the highest self-identification index Si.
第3実施形態によれば、アバタ画像に対するユーザの潜在的な評価を提示することができる。これにより、ユーザは、自身の潜在的な評価が高いアバタ(例えば、最も関心が高いアバタ、最も自分らしさを感じる(つまり、自分と同一視できる)アバタ、最も親和性を感じるアバタ、又は、最も印象的に感じるアバタ)を容易に選択することができる。 According to the third embodiment, a user's potential evaluation for an avatar image can be presented. This allows the user to have the highest potential avatar (e.g., the most interested avatar, the avatar that feels most personal (ie, can be identified with her), the avatar that feels most compatible, or most An avatar that feels impressive can be easily selected.
(4)第4実施形態
第4実施形態について説明する。第4実施形態は、視線の動きのパターンに基づいて、画像に対するユーザの潜在的な評価を提示する例である。
(4) Fourth Embodiment A fourth embodiment will be described. The fourth embodiment is an example in which a user's potential evaluation for an image is presented based on a line-of-sight movement pattern.
(4−1)第4実施形態の概要
第4実施形態の概要について説明する。図23は、第4実施形態の概要の説明図である。
(4-1) Overview of Fourth Embodiment An overview of the fourth embodiment will be described. FIG. 23 is an explanatory diagram of an outline of the fourth embodiment.
図23に示すように、第4実施形態では、第1実施形態(図3)と同様に、人(例えば、ユーザU)の顔を含むシミュレーション画像SIMGを提示する。
次に、シミュレーション画像SIMGを観察している間のユーザUの視線の動きに関するアイトラッキング信号を生成する。
次に、アイトラッキング信号に基づいて、シミュレーション画像SIMGを構成する画素の座標空間(以下「画像空間」という)において、ユーザUの視線の動きのパターンに関する視線パターン(「視線パラメータ」の一例)を計算する。
次に、視線パターンに基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価に関するレコメンド情報を提供する。
As shown in FIG. 23, in the fourth embodiment, similarly to the first embodiment (FIG. 3), a simulation image SIMG including the face of a person (for example, user U) is presented.
Next, an eye tracking signal related to the movement of the line of sight of the user U while observing the simulation image SIMG is generated.
Next, on the basis of the eye tracking signal, a line-of-sight pattern (an example of “line-of-sight parameter”) relating to the movement pattern of the line of sight of the user U in the coordinate space of the pixels constituting the simulation image SIMG (hereinafter referred to as “image space”) calculate.
Next, based on the line-of-sight pattern, recommendation information related to the potential evaluation of the user U with respect to the simulation image SIMG is provided.
このように、第4実施形態では、シミュレーション画像SIMGの画像空間におけるユーザUの視線パターンに基づいて、シミュレーション画像SIMGに対するユーザUの潜在的な評価が反映されたレコメンド情報を提示する。 As described above, in the fourth embodiment, recommendation information reflecting the potential evaluation of the user U with respect to the simulation image SIMG is presented based on the line-of-sight pattern of the user U in the image space of the simulation image SIMG.
(4−2)情報処理
第4実施形態の情報処理について説明する。図24は、第4実施形態の視線パラメータの計算の処理のフローチャートである。図25及び図26は、図24の視線パターンの計算の説明図である。
(4-2) Information Processing Information processing according to the fourth embodiment will be described. FIG. 24 is a flowchart of the line-of-sight parameter calculation process according to the fourth embodiment. 25 and 26 are explanatory diagrams of the calculation of the line-of-sight pattern in FIG.
第4実施形態の情報処理は、第1実施形態(図7)と同様に実行される。 Information processing of the fourth embodiment is executed in the same manner as in the first embodiment (FIG. 7).
図24に示すように、クライアント装置10は、ステップS1030の後、視線パターンの計算(S1034)を実行する。
具体的には、プロセッサ12は、視線分布に代えて、以下の少なくとも1つの視線パターンを計算する。
・所定の大きさの領域(以下「停留領域」という)に視線が停留した停留時間
・停留領域に視線が停留した停留回数
・視線の移動範囲
・視線の移動順序
・視線の移動面積
As illustrated in FIG. 24, the
Specifically, the
・ Stopping time when the line of sight stops in a predetermined size area (hereinafter referred to as “stop area”) ・ Number of stops when the line of sight stops in the stopping area ・ Line of movement of the line of sight ・ Order of movement of the line of sight
第1例として、プロセッサ12は、式4を用いて、停留時間Tsを計算する。
・n…停留領域に含まれる計測座標の数
・t…計測時間の間隔
図25Aに示すように、ユーザUの顔の画像FIMGに対する視線EMは、例えば、停留領域1の5秒間停留した後、停留領域2に10秒間停留したとする。この場合、停留領域1の停留時間Ts1は5秒であり、停留領域2の停留時間Ts2は10秒であり、総停留時間ΣTsは15秒である。
プロセッサ12は、計測時間と、停留時間と、を関連付けて記憶装置11に記憶する。
As a first example, the
The
第2例として、プロセッサ12は、式5を用いて、停留回数Nsを計算する。
・ns…一定時間停留領域に含まれた回数
図25Aの例では、停留回数は、2回である。
プロセッサ12は、計測時間と、停留回数と、を関連付けて記憶装置11に記憶する。
As a second example, the
The
第3例として、プロセッサ12は、計測座標の端点に位置するX座標及びY座標(以下「端点座標」という)によって定義される矩形領域を、移動範囲として計算する。
図25Bの例では、移動範囲は、端点座標{(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)}によって定義される矩形領域Zである。
プロセッサ12は、矩形領域Zを規定する端点座標を記憶装置11に記憶する。
As a third example, the
In the example of FIG. 25B, the moving range is a rectangular area Z defined by the end point coordinates {(X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2)}.
The
第4例として、プロセッサ12は、以下の方法により移動順序を計算する。
プロセッサ12は、画像FIMGの画素領域を、顔の部位(例えば、左目、右目、鼻、及び、口)毎の画素領域(例えば、左目画素領域、右目画素領域、鼻画素領域、及び、口画素領域)に分割する。
プロセッサ12は、視線EMが各画素領域を通過した順序(以下「移動順序」という)と、を計算する。
図25Cの例では、移動順序は、{右目画素領域、鼻画素領域、口画素領域、そして、左目画素領域}である。
プロセッサ12は、移動順序を記憶装置11に記憶する。
As a fourth example, the
The
The
In the example of FIG. 25C, the movement order is {right-eye pixel region, nose pixel region, mouth pixel region, and left-eye pixel region}.
The
第5例として、プロセッサ12は、以下の何れかに基づいて、移動面積を計算する。
・XY空間における計測座標の数(但し、重複する計測座標は1座標と数える)(図26A)
・画像FIMGの画素領域を所定面積で区切られた区画SECに分割した場合、計測座標を含む区画SECの数の合計(図26B)
プロセッサ12は、移動面積を記憶装置11に記憶する。
As a fifth example, the
Number of measurement coordinates in XY space (however, overlapping measurement coordinates are counted as one coordinate) (FIG. 26A)
When the pixel area of the image FIMG is divided into sections SEC divided by a predetermined area, the total number of sections SEC including measurement coordinates (FIG. 26B)
The
記憶装置11には、視線パターン評価モデルが記憶されている。視線パターン評価モデルは、視線パターンを入力とし、且つ、顔に対する評価を出力とするモデルである。
The
ステップS103の後、クライアント装置10のプロセッサ12は、ステップS105において、記憶装置11に記憶された視線パターン評価モデルを参照し、ステップS103で計算した視線パターンに対応する評価を計算する。
After step S103, the
第4実施形態によれば、視線パターンを用いた場合であっても、画像FIMGに対するユーザUの潜在的な評価を提示することができる。 According to the fourth embodiment, even if the line-of-sight pattern is used, the potential evaluation of the user U with respect to the image FIMG can be presented.
第1例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、停留時間が計算される。
一例として、計測時間が早いとき(例えば、計測の開始から、全体の計測時間の所定時間(一例として、全体の計測時間の1/10の時間)が経過するまでの間)に停留時間が長い場合、ユーザUは、メイキャップを開始した直後において、メイキャップの出来栄えに違和感を覚えていることを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が低いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが違和感を覚えている旨のメッセージ)を提示する。
別の例として、計測時間が遅いとき(例えば、計測の終了から、全体の計測時間の所定時間(一例として、全体の計測時間の1/10の時間)を遡るまでの間)に停留時間が長い場合、ユーザUは、メイキャップ中に違和感を覚えていないことを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が高いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが満足している旨のメッセージ)を提示する。
In the first example, when the user U is making a make-up using an arbitrary make-up item while viewing the image FIMG, the stop time is calculated as the make-up proceeds.
As an example, when the measurement time is early (for example, from the start of measurement until a predetermined time of the total measurement time (for example, 1/10 of the total measurement time) elapses), the retention time is long. In this case, it means that the user U feels uncomfortable with the quality of the makeup immediately after starting the makeup. In this case, the
As another example, when the measurement time is late (for example, from the end of measurement until a predetermined time of the total measurement time (for example, 1/10 of the total measurement time) is traced) If it is long, it means that the user U does not feel uncomfortable during the make-up. In this case, the
第2例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、停留回数が計算される。
一例として、計測時間が早いときに停留回数が多い場合、ユーザUは、メイキャップを開始した直後において、メイキャップの出来栄えに違和感を覚えていることを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が低いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが違和感を覚えている旨のメッセージ)を提示する。
別の例として、計測時間が遅いときに停留回数が多い場合、ユーザUは、メイキャップの終了直前はメイキャップの出来栄えに違和感を覚えているが、メイキャップの終了後はメイキャップの出来栄えに違和感を覚えていないことを意味する。この場合、プロセッサ12は、メイキャップアイテムに対するユーザUの評価が高いと判定し、且つ、その評価に基づくレコメンド情報(例えば、メイキャップの出来栄えにユーザUが満足している旨のメッセージ)を提示する。
In the second example, when the user U performs make-up using an arbitrary make-up item while viewing the image FIMG, the number of stops is calculated as the make-up proceeds.
As an example, when the number of stops is large when the measurement time is early, it means that the user U feels uncomfortable with the performance of the makeup immediately after starting the makeup. In this case, the
As another example, when the number of stops is large when the measurement time is slow, the user U feels uncomfortable with the make-up performance just before the end of the make-up, but after the make-up finishes, It means that you don't feel uncomfortable. In this case, the
第3例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、移動範囲が計算される。
化粧の評価の専門家は、顔の全体を見ていることが知られている。また、人は、他人の顔を見るときは全体を見るのに対して、自分の顔を見るときは部分的に見る傾向があることが知られている。つまり、顔の全体を見ることは、自分の顔を客観的に見ていることを意味する。プロセッサ12は、移動範囲を計算することにより、観察者自身による評価と他人による評価の一致度を、レコメンド情報として提示する。
In the third example, when the user U is making a make-up using an arbitrary make-up item while viewing the image FIMG, the moving range is calculated as the make-up proceeds.
It is known that makeup assessment specialists look at the entire face. In addition, it is known that a person tends to look partially when looking at his / her face while looking at the face of others. In other words, seeing the entire face means looking at your face objectively. The
第4例では、例えば、メイキャップが終了した後にメイキャップの出来栄えを評価するために、ユーザUが画像FIMGを見ているときの視線EMの移動順序が計算される。
一般に、移動順序は、メイキャップを施した箇所に対してユーザUが注目する順番を表している。この順番は、ユーザUにとって、メイキャップの特性の優先順位を意味している。プロセッサ12は、移動順序に基づいて、ユーザUにとっての優先順位の高い特性を特定することにより、優先順位の高い特性に適合したメイキャップアイテムをレコメンド情報として提示する。
In the fourth example, for example, the order of movement of the line of sight EM when the user U is looking at the image FIMG is calculated in order to evaluate the performance of the makeup after the makeup is completed.
In general, the movement order represents the order in which the user U pays attention to the place where the makeup is applied. This order means the priority of the make-up characteristics for the user U. The
第5例では、ユーザUが画像FIMGを見ながら、任意のメイキャップアイテムを用いてメイキャップを行っている場合、メイキャップの進行と共に、移動面積が計算される。
移動面積は、第3例の移動範囲と同様に、自己評価と他人の評価の一致度を表す。プロセッサ12は、移動面積を計算することにより、自己評価と他人の評価の一致度を、レコメンド情報として提示する。
In the fifth example, when the user U performs make-up using an arbitrary make-up item while viewing the image FIMG, the moving area is calculated as the make-up proceeds.
Similarly to the movement range of the third example, the movement area represents the degree of coincidence between self-evaluation and other person's evaluation. The
第4実施形態は、第2実施形態にも適用可能である。第4実施形態を第2実施形態に適用した場合、視線分布以外の視線パラメータを用いた場合であっても、鏡像MIに対するユーザUの潜在的な評価を提示することができる。 The fourth embodiment can also be applied to the second embodiment. When the fourth embodiment is applied to the second embodiment, the potential evaluation of the user U with respect to the mirror image MI can be presented even when a line-of-sight parameter other than the line-of-sight distribution is used.
(5)変形例
本実施形態の変形例について説明する。
(5) Modification A modification of the present embodiment will be described.
(5−1)変形例1
変形例1について説明する。変形例1は、図7のメイキャップシミュレーション画像の提示(S102)において、ユーザUの視線を誘導する例である。図21は、変形例1の画面例を示す図である。
変形例1は、第1実施形態〜第3実施形態の何れにも適用可能である。
(5-1) Modification 1
Modification 1 will be described. Modification 1 is an example of guiding the user's line of sight in the presentation of the make-up simulation image of FIG. 7 (S102). FIG. 21 is a diagram illustrating a screen example of the first modification.
Modification 1 can be applied to any of the first to third embodiments.
変形例1のステップS102では、プロセッサ12は、画面P101a(図21)をディスプレイ15に表示する。
In step S102 of the first modification, the
画面P101aは、画像オブジェクトIMG101aが表示される点において、画面P101(図8)と異なる。画像オブジェクトIMG101aは、ユーザUの視線を誘導するためのオブジェクトである。
画像オブジェクトIMG101aは、画像オブジェクトIMG101の第2領域A2に表示される。
Screen P101a is different from screen P101 (FIG. 8) in that image object IMG101a is displayed. The image object IMG101a is an object for guiding the user U's line of sight.
The image object IMG101a is displayed in the second area A2 of the image object IMG101.
一般に、左視野は全体処理に関連し、右視野は部分処理に関連することが知られている。変形例1によれば、第2領域A2に視線を誘導するための画像オブジェクトIMG101aが表示されるので、ユーザUが自身の顔を観察する際に全体処理が優勢となり、より客観的な自己評価が可能となる。メイキャップの目的のひとつは他者への印象形成である。自己評価の客観性が向上することで、自己評価と他者評価の差が低減する。その結果、自分の顔のメイキャップによって自己評価を上げると、そのメイキャップに対する他者からの評価も向上することになる。 In general, it is known that the left visual field is related to overall processing and the right visual field is related to partial processing. According to the first modification, the image object IMG101a for guiding the line of sight is displayed in the second area A2, so that when the user U observes his / her face, the entire process becomes dominant, and a more objective self-evaluation is performed. Is possible. One of the purposes of make-up is to create an impression on others. By improving the objectivity of self-evaluation, the difference between self-evaluation and others' evaluation is reduced. As a result, if the self-evaluation is increased by the makeup of his / her face, the evaluation of the makeup by others is also improved.
なお、自己評価と他者評価との差は、視線を誘導しない場合と比べて、視線を誘導する場合の方が小さくなる。したがって、数値を用いて、視線を誘導したときの効果(客観性の向上による他者評価と自己評価との間のずれの低減の程度)を示すことができる。例えば、移動範囲又は移動面積を用いて自己評価と他人の評価の一致度を計算し、且つ、その計算結果を用いて、視線を誘導したときの効果を示すことができる。 Note that the difference between the self-evaluation and the other-party evaluation is smaller when the line of sight is guided than when the line of sight is not guided. Therefore, the numerical value can be used to show the effect when the line of sight is guided (the degree of reduction of the deviation between the other person's evaluation and the self-evaluation due to the improvement of the objectivity). For example, the degree of coincidence between the self-evaluation and the other person's evaluation can be calculated using the moving range or moving area, and the effect of guiding the line of sight can be shown using the calculation result.
(5−2)変形例2
変形例2について説明する。変形例2は、1枚の画像に対するユーザの潜在的な評価を提示する例である。図22は、変形例2の情報処理において表示される画面例を示す図である。
変形例2は、第1実施形態〜第4実施形態の何れにも適用可能である。
(5-2)
変形例2の情報処理は、第1実施形態の情報処理(図7)と同様である。但し、ステップS104(図7)は省略される。
The information processing of
ステップS103の後、クライアント装置10のプロセッサ12は、ステップS105において、ステップS103で計算した視線分布率(つまり、図12の第1視線分布率E1及び第2視線分布率E2)を式2に適用することにより、メイキャップシミュレーション画像SIMGに対するユーザUの評価に関するスコアSを計算する。
After step S103, the
ステップS105の後、ステップS106において、プロセッサ12は、画面P104(図10)に代えて、画面P130(図22)をディスプレイ15に表示する。
After step S105, in step S106, the
画面P130は、表示オブジェクトA103a、A104b、及び、A130と、画像オブジェクトIMG101と、を含む。
表示オブジェクトA130には、ステップS105で計算されたスコアが表示される。
The screen P130 includes display objects A103a, A104b, and A130, and an image object IMG101.
The score calculated in step S105 is displayed on the display object A130.
変形例2によれば、1つのメイキャップシミュレーション画像に対するスコアSをディスプレイ15に表示する。これにより、1種類の画像に対するユーザUの潜在的な評価を提示することができる。
According to the second modification, the score S for one makeup simulation image is displayed on the
(5−3)変形例3
変形例3について説明する。変形例3は、メイキャップシミュレーション画像及びアバタ画像以外の顔の画像に対して本実施形態を適用する例である。
(5-3) Modification 3
Modification 3 will be described. The third modification is an example in which the present embodiment is applied to a face image other than the makeup simulation image and the avatar image.
第1例として、本実施形態は、任意の髪型が適用された顔の画像にも適用可能である。
この場合、ユーザUに提示した顔の画像(例えば、任意の髪型が適用された顔の画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数のヘアシミュレーション画像の中から、ユーザUの潜在的な評価の高いヘアシミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
As a first example, the present embodiment can also be applied to a face image to which an arbitrary hairstyle is applied.
In this case, recommendation information (for example, a plurality of hair simulation images) that suits the user U's preference based on the gaze bias with respect to the face image presented to the user U (for example, a face image to which an arbitrary hairstyle is applied). The hair simulation image with high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
第2例として、本実施形態は、任意の手術が施された顔の画像にも適用可能である。
この場合、ユーザUに提示した顔の画像(例えば、任意の手術が施された後の顔の画像)に対する視線の偏りに基づいて、ユーザUの嗜好に合ったレコメンド情報(例えば、複数の手術シミュレーション画像の中から、ユーザUの潜在的な評価の高い手術シミュレーション画像)を提示する。これにより、ユーザUが観察する顔の画像に対するユーザUの潜在的な評価が高い情報を提示することができる。
As a second example, the present embodiment can also be applied to a face image that has undergone an arbitrary operation.
In this case, recommendation information (for example, a plurality of operations) that suits the preference of the user U based on the bias of the line of sight with respect to the face image presented to the user U (for example, the image of the face after any surgery has been performed). Among the simulation images, a surgical simulation image having a high potential evaluation of the user U) is presented. Thereby, the information with high potential evaluation of the user U with respect to the image of the face which the user U observes can be shown.
(6)本実施形態の小括
本実施形態について小括する。
(6) Summary of this embodiment This embodiment is summarized.
本実施形態の第1態様は、
ユーザに対して、顔を含む画像を提示する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備え、
ユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
視線情報に基づいて、画像におけるユーザの視線の偏りを計算する手段(例えば、ステップS1033の処理を実行するプロセッサ12)を備え、
視線の偏りに基づいて、画像に関するレコメンド情報を決定する手段(例えば、ステップS105の処理を実行するプロセッサ12)を備え、
レコメンド情報を提示する手段(例えば、ステップS106の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The first aspect of this embodiment is
A means for presenting an image including a face to the user (for example, the
Means for acquiring line-of-sight information related to the movement of the user's line of sight (for example, the
Based on the line-of-sight information, a unit (for example, the
Means (for example, the
Means for presenting recommendation information (for example, the
An information processing apparatus (for example, the client apparatus 10).
第1態様によれば、顔の画像に対するユーザUの視線の偏りに基づいて、ユーザUに提示するレコメンド情報が決定される。これにより、ユーザUが観察する顔に対するユーザUの潜在的な評価を提示することができる。 According to the first aspect, recommendation information to be presented to the user U is determined based on the bias of the line of sight of the user U with respect to the face image. Thereby, the potential evaluation of the user U with respect to the face observed by the user U can be presented.
本実施形態の第2態様は、
計算する手段は、
画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
第1領域における第1視線分布と、
第2領域における第2視線分布と、
を計算する、情報処理装置である。
The second aspect of this embodiment is
The means to calculate is
Dividing the image space of the image into a first region and a second region at a predetermined boundary;
A first line-of-sight distribution in the first region;
A second line-of-sight distribution in the second region;
Is an information processing apparatus for calculating
第2態様によれば、画像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、ユーザUに提示するレコメンド情報が決定される。
これにより、視線分布の偏りに応じたレコメンド情報を提示することができる。
According to the second aspect, the recommendation information to be presented to the user U is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the image space.
Thereby, recommendation information according to the bias of the line-of-sight distribution can be presented.
本実施形態の第3態様は、
提示する手段は、互いに異なる複数の画像を個別に提示し、
計算する手段は、各画像について、第1視線分布及び第2視線分布を計算し、
決定する手段は、複数の画像の少なくとも1つをレコメンド情報として決定する、情報処理装置である。
The third aspect of this embodiment is
The presenting means presents a plurality of different images individually,
The means for calculating calculates a first gaze distribution and a second gaze distribution for each image,
The determining means is an information processing apparatus that determines at least one of the plurality of images as recommendation information.
第3態様によれば、複数の画像のそれぞれについて、画像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、レコメンド情報が決定される。
これにより、複数の画像の中から少なくとも1つをレコメンド情報として提示することができる。
According to the third aspect, for each of the plurality of images, the recommendation information is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the image space.
Accordingly, at least one of the plurality of images can be presented as recommendation information.
本実施形態の第4態様は、
第1領域は、画像に対して向かって右側の領域であり、
第2領域は、画像に対して向かって左側の領域であり、
レコメンド情報は、複数の画像のうち、第1視線分布の割合が所定値以上である少なくとも1つの画像である、情報処理装置である。
The fourth aspect of this embodiment is
The first area is an area on the right side of the image,
The second region is a region on the left side with respect to the image,
The recommendation information is an information processing apparatus that is at least one image in which a ratio of the first line-of-sight distribution is a predetermined value or more among a plurality of images.
第4態様によれば、画像に対して向かって右側の領域の視線分布の割合が所定値以上である画像をレコメンド情報として提示する。これにより、ユーザUの潜在的な評価が高い画像を容易に特定することができる。 According to the 4th aspect, the image whose ratio of the gaze distribution of the area | region on the right side toward an image is more than predetermined value is shown as recommendation information. Thereby, an image with a high potential evaluation of the user U can be easily specified.
本実施形態の第5態様は、
画像は、ユーザの顔 に対して互いに異なるメイキャップが施された複数のメイキャップシミュレーション画像を含み、
第1領域は、各メイキャップシミュレーション画像に対して向かって右側の領域であり、
第2領域は、各メイキャップシミュレーション画像に対して向かって左側の領域であり、
レコメンド情報は、複数のメイキャップシミュレーション画像のうち、第1視線分布の割合が最も多いメイキャップシミュレーション画像である、情報処理装置である。
The fifth aspect of this embodiment is
The image includes a plurality of makeup simulation images in which different makeups are applied to the user's face,
The first region is a region on the right side with respect to each makeup simulation image,
The second region is a region on the left side with respect to each makeup simulation image,
The recommendation information is an information processing apparatus that is a makeup simulation image having the highest ratio of the first line-of-sight distribution among the plurality of makeup simulation images.
第5態様によれば、複数のメイキャップシミュレーション画像の中から、各メイキャップシミュレーション画像に対して向かって右側の領域に対する視線分布の割合が所定以上であるメイキャップシミュレーション画像が提示される。これにより、ユーザの潜在的な評価が高いメイキャップシミュレーション画像を容易に特定することができる。 According to the fifth aspect, a makeup simulation image in which the ratio of the line-of-sight distribution with respect to the region on the right side of the plurality of makeup simulation images is greater than or equal to a predetermined value is presented. Thereby, the makeup simulation image with a high user's potential evaluation can be specified easily.
本実施形態の第6態様は、
画像は、ユーザの顔に対してメイキャップが施されたメイキャップシミュレーション画像であり、
第1領域は、メイキャップシミュレーション画像に対して向かって右側の領域であり、
第2領域は、メイキャップシミュレーション画像に対して向かって左側の領域であり、
レコメンド情報は、メイキャップシミュレーション画像における第1視線分布の割合に応じた情報である、情報処理装置である。
The sixth aspect of this embodiment is
The image is a makeup simulation image in which makeup is applied to the user's face,
The first area is an area on the right side of the makeup simulation image.
The second region is a region on the left side with respect to the makeup simulation image,
The recommendation information is an information processing apparatus that is information corresponding to the ratio of the first line-of-sight distribution in the makeup simulation image.
第6態様によれば、メイキャップシミュレーション画像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、メイキャップシミュレーション画像に対するユーザUの潜在的な評価を知ることができる。 According to the 6th aspect, recommendation information (for example, score) according to the ratio of the gaze distribution with respect to the area | region on the right side toward a makeup simulation image is shown. Thereby, the potential evaluation of the user U with respect to the makeup simulation image can be known.
本実施形態の第7態様は、
画像は、互いに異なる複数のアバタ画像を含み、
第1領域は、各アバタ画像に対して向かって右側の領域であり、
第2領域は、各アバタ画像に対して向かって左側の領域であり、
レコメンド情報は、複数のアバタ画像のうち、第1視線分布の割合が最も多いアバタ画像である、
情報処理装置である。
The seventh aspect of this embodiment is
The image includes a plurality of different avatar images,
The first region is a region on the right side with respect to each avatar image,
The second region is a region on the left side with respect to each avatar image,
The recommendation information is an avatar image having the highest ratio of the first line-of-sight distribution among the plurality of avatar images.
Information processing apparatus.
第7態様によれば、複数のアバタ画像の中から、各アバタ画像に対して向かって右側の領域に対する視線分布の割合が所定以上であるアバタ画像が提示される。これにより、ユーザUの潜在的な評価が高いアバタ画像を容易に特定することができる。 According to the seventh aspect, an avatar image in which the ratio of the line-of-sight distribution with respect to the region on the right side with respect to each avatar image is greater than or equal to a predetermined value from the plurality of avatar images is presented. Thereby, an avatar image with a high potential evaluation of the user U can be easily identified.
本実施形態の第8態様は、
画像は、アバタ画像であり、
第1領域は、アバタ画像に対して向かって右側の領域であり、
第2領域は、アバタ画像に対して向かって左側の領域であり、
レコメンド情報は、アバタ画像における第1視線分布の割合に応じた情報である、
情報処理装置である。
The eighth aspect of this embodiment is
The image is an avatar image,
The first region is a region on the right side with respect to the avatar image,
The second region is a region on the left side with respect to the avatar image,
The recommendation information is information corresponding to the ratio of the first gaze distribution in the avatar image.
Information processing apparatus.
第8態様によれば、アバタ画像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、アバタ画像に対するユーザUの潜在的な評価を知ることができる。 According to the eighth aspect, recommendation information (for example, a score) according to the ratio of the line-of-sight distribution with respect to the right region toward the avatar image is presented. Thereby, the potential evaluation of the user U with respect to the avatar image can be known.
本実施形態の第9態様は、
画像は、ユーザの顔に対して互いに異なる髪型が適用された複数の画像、及び、ユーザの顔に対して互いに異なる手術が施された画像の少なくとも1つを含む、
情報処理装置である。
The ninth aspect of this embodiment is
The image includes at least one of a plurality of images in which different hairstyles are applied to the user's face and an image in which different operations are performed on the user's face,
Information processing apparatus.
第9態様によれば、任意の髪型が適用された顔及び手術後の顔の少なくとも1つを表す画像に基づくレコメンド情報が提示される。これにより、当該顔に対するユーザUの潜在的な評価を知ることができる。 According to the ninth aspect, recommendation information based on an image representing at least one of a face to which an arbitrary hairstyle is applied and a face after surgery is presented. Thereby, the potential evaluation of the user U with respect to the face can be known.
本実施形態の第10態様は、
ユーザの顔の鏡像に対するユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
視線情報に基づいて、鏡像におけるユーザの視線の偏りを計算する手段(例えば、ステップS1033の処理を実行するプロセッサ12)を備え、
視線の偏りに基づいて、鏡像に関するレコメンド情報を決定する手段(例えば、ステップS111の処理を実行するプロセッサ12)を備え、
レコメンド情報を提示する手段(例えば、ステップS112の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The tenth aspect of this embodiment is
Means for acquiring line-of-sight information relating to the movement of the user's line of sight with respect to the mirror image of the user's face (for example, the
Based on the line-of-sight information, a means for calculating a user's line-of-sight bias in the mirror image (for example, the
Means (for example, a
Means for presenting recommendation information (for example, the
An information processing apparatus (for example, the client apparatus 10).
第10態様によれば、顔の鏡像に対するユーザの視線の偏りに基づいて、レコメンド情報が決定される。これにより、鏡に写ったユーザUの顔に対するユーザUの潜在的な評価を提示することができる。 According to the tenth aspect, the recommendation information is determined based on the deviation of the user's line of sight with respect to the mirror image of the face. Thereby, the potential evaluation of the user U with respect to the user U's face reflected in the mirror can be presented.
本実施形態の第11態様は、
計算する手段は、
鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
第1領域における第1視線分布と、
第2領域における第2視線分布と、
を計算する、
情報処理装置である。
The eleventh aspect of this embodiment is
The means to calculate is
Dividing the mirror image space of the mirror image into a first region and a second region at a predetermined boundary line;
A first line-of-sight distribution in the first region;
A second line-of-sight distribution in the second region;
Calculate
Information processing apparatus.
第11態様によれば、鏡像空間を構成する2つの領域(第1領域及び第2領域)のそれぞれにおける視線分布に基づいて、ユーザに提示するレコメンド情報が決定される。
これにより、視線分布の偏りに応じたレコメンド情報を提示することができる。
According to the eleventh aspect, the recommendation information to be presented to the user is determined based on the line-of-sight distribution in each of the two regions (first region and second region) constituting the mirror image space.
Thereby, recommendation information according to the bias of the line-of-sight distribution can be presented.
本実施形態の第12態様は、
第1領域は、右目を含み、
第2領域は、左目を含み、
レコメンド情報は、第1視線分布の割合に応じた情報であって、且つ、鏡像に対するユーザの評価に関する情報である、
情報処理装置である。
The twelfth aspect of this embodiment is
The first region includes the right eye,
The second region includes the left eye,
The recommendation information is information according to the ratio of the first line-of-sight distribution and is information related to the user's evaluation with respect to the mirror image.
Information processing apparatus.
第12態様によれば、鏡像に対して向かって右側の領域に対する視線分布の割合に応じたレコメンド情報(例えば、スコア)が提示される。これにより、鏡像(例えば、メイキャップを施した自身の顔の鏡像)に対するユーザUの潜在的な評価を知ることができる。 According to the twelfth aspect, recommendation information (for example, a score) corresponding to the ratio of the line-of-sight distribution with respect to the region on the right side with respect to the mirror image is presented. Thereby, it is possible to know the potential evaluation of the user U with respect to a mirror image (for example, a mirror image of his / her face with makeup).
本実施形態の第13態様は、
ユーザの顔の画像を提示する手段(例えば、ステップS102の処理を実行するプロセッサ12)を備え、
ユーザの視線の動きに関する視線情報を取得する手段(例えば、ステップS1030の処理を実行するプロセッサ12)を備え、
視線情報に基づいて、画像におけるユーザの視線の動きのパターンに関する視線パターンを計算する手段(例えば、ステップS1034の処理を実行するプロセッサ12)を備え、
計算した視線パターンに基づいて、ユーザに提示すべきレコメンド情報を決定する手段を備え、
決定したレコメンド情報を提示する手段(例えば、ステップS106の処理を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
The thirteenth aspect of this embodiment is
Means for presenting an image of the user's face (for example, the
Means for acquiring line-of-sight information related to the movement of the user's line of sight (for example, the
Means for calculating a line-of-sight pattern related to the pattern of movement of the user's line of sight in the image based on the line-of-sight information (for example, the
A means for determining recommendation information to be presented to the user based on the calculated line-of-sight pattern,
Means for presenting the determined recommendation information (for example, the
An information processing apparatus (for example, the client apparatus 10).
第13態様によれば、顔の画像に対するユーザUの視線パターンに基づいて、ユーザに提示するレコメンド情報が決定される。これにより、ユーザUが観察する顔に対するユーザUの潜在的な評価を提示することができる。 According to the thirteenth aspect, recommendation information to be presented to the user is determined based on the line-of-sight pattern of the user U with respect to the face image. Thereby, the potential evaluation of the user U with respect to the face observed by the user U can be presented.
本実施形態の第14態様は、
計算する手段は、ユーザの視線が所定範囲の停留領域に停留した時間である停留時間を、視線パターンとして計算する、
情報処理装置である。
The fourteenth aspect of this embodiment is
The means for calculating calculates a stop time, which is a time when the user's line of sight stops in a stop area of a predetermined range, as a line-of-sight pattern.
Information processing apparatus.
本実施形態の第15態様は、
計算する手段は、ユーザの視線が所定範囲の停留領域に停留した回数である停留回数を、視線パターンとして計算する、
情報処理装置である。
The fifteenth aspect of this embodiment is
The means for calculating calculates, as a line-of-sight pattern, the number of stops, which is the number of times that the user's line of sight has stopped in a predetermined range of stop areas.
Information processing apparatus.
本実施形態の第16態様は、
計算する手段は、ユーザの視線が分布する面積を、視線パターンとして計算する、
情報処理装置である。
The sixteenth aspect of this embodiment is
The calculating means calculates an area in which the user's line of sight is distributed as a line-of-sight pattern.
Information processing apparatus.
本実施形態の第17態様は、
計算する手段は、ユーザの視線が動く順序を、視線パターンとして計算する、
情報処理装置である。
The seventeenth aspect of this embodiment is
The means for calculating calculates the order in which the user's line of sight moves as a line-of-sight pattern.
Information processing apparatus.
本実施形態の第18態様は、
計算する手段は、ユーザの視線が移動した面積を、視線パターンとして計算する、
情報処理装置である。
The eighteenth aspect of this embodiment is
The calculating means calculates an area in which the user's line of sight has moved as a line-of-sight pattern.
Information processing apparatus.
本実施形態の第19態様は、
コンピュータ(例えば、プロセッサ12)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
The nineteenth aspect of this embodiment is
A program for causing a computer (for example, the processor 12) to function as each of the means described above.
(7)その他の変形例 (7) Other variations
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
The
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
Each step of the above information processing can be executed by either the
上記実施形態では、シミュレーション画像SIMGの一例として、メイキャップシミュレーション画像を例示した。しかし、本実施形態は、シミュレーション画像SIMGが以下の少なくとも1つである場合にも適用可能である。
・治療(例えば、整形手術)の後の顔のシミュレーション画像
・カラーリングした後の頭髪を含む顔のシミュレーション画像
In the said embodiment, the makeup simulation image was illustrated as an example of the simulation image SIMG. However, this embodiment is also applicable when the simulation image SIMG is at least one of the following.
・ Simulation image of face after treatment (for example, plastic surgery) ・ Simulation image of face including hair after coloring
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 As mentioned above, although embodiment of this invention was described in detail, the scope of the present invention is not limited to said embodiment. The above-described embodiment can be variously improved and changed without departing from the gist of the present invention. Moreover, said embodiment and modification can be combined.
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :ハーフミラー
20 :アイトラッカ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Display 16: Camera 17: Half mirror 20: Eye tracker 30: Server 31: Storage device 32: Processor 33: I / O interface 34: Communication interface
Claims (19)
前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
前記視線情報に基づいて、前記画像における前記ユーザの視線の偏りを計算する手段を備え、
前記視線の偏りに基づいて、前記画像に関するレコメンド情報を決定する手段を備え、
前記レコメンド情報を提示する手段を備える、
情報処理装置。 Means for presenting an image including a face to a user;
Means for acquiring line-of-sight information related to the movement of the user's line of sight;
Means for calculating a bias of the user's line of sight in the image based on the line of sight information;
Means for determining recommendation information about the image based on the bias of the line of sight;
Means for presenting the recommendation information;
Information processing device.
前記画像の画像空間を所定の境界線で第1領域及び第2領域に分割し、
前記第1領域における第1視線分布と、
前記第2領域における第2視線分布と、
を計算する、
請求項1に記載の情報処理装置。 The means for calculating is
Dividing the image space of the image into a first region and a second region at a predetermined boundary;
A first line-of-sight distribution in the first region;
A second line-of-sight distribution in the second region;
Calculate
The information processing apparatus according to claim 1.
前記計算する手段は、各画像について、前記第1視線分布及び前記第2視線分布を計算し、
前記決定する手段は、前記複数の画像の少なくとも1つを前記レコメンド情報として決定する、
請求項2に記載の情報処理装置。 The presenting means presents a plurality of different images individually,
The calculating means calculates the first line-of-sight distribution and the second line-of-sight distribution for each image,
The determining means determines at least one of the plurality of images as the recommendation information.
The information processing apparatus according to claim 2.
前記第2領域は、前記画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記複数の画像のうち、前記第1視線分布の割合が所定値以上である少なくとも1つの画像である、
請求項3に記載の情報処理装置。 The first region is a region on the right side of the image,
The second area is an area on the left side of the image,
The recommendation information is at least one image in which the ratio of the first line-of-sight distribution is a predetermined value or more among the plurality of images.
The information processing apparatus according to claim 3.
前記第1領域は、各メイキャップシミュレーション画像に対して向かって右側の領域であり、
前記第2領域は、各メイキャップシミュレーション画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記複数のメイキャップシミュレーション画像のうち、前記第1視線分布の割合が最も多いメイキャップシミュレーション画像である、
請求項3又は4に記載の情報処理装置。 The image includes a plurality of makeup simulation images in which different makeups are applied to the user's face,
The first region is a region on the right side with respect to each makeup simulation image,
The second region is a region on the left side with respect to each makeup simulation image,
The recommendation information is a make-up simulation image having the largest proportion of the first line-of-sight distribution among the plurality of make-up simulation images.
The information processing apparatus according to claim 3 or 4.
前記第1領域は、前記メイキャップシミュレーション画像に対して向かって右側の領域であり、
前記第2領域は、前記メイキャップシミュレーション画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記メイキャップシミュレーション画像における前記第1視線分布の割合に応じた情報である、
請求項3又は4に記載の情報処理装置。 The image is a makeup simulation image in which makeup is applied to the user's face,
The first area is an area on the right side of the makeup simulation image.
The second region is a region on the left side with respect to the makeup simulation image,
The recommendation information is information according to a ratio of the first line-of-sight distribution in the makeup simulation image.
The information processing apparatus according to claim 3 or 4.
前記第1領域は、前記アバタ画像に対して向かって右側の領域であり、
前記第2領域は、前記アバタ画像に対して向かって左側の領域であり、
前記レコメンド情報は、前記複数のアバタ画像のうち、前記第1視線分布の割合が最も多いアバタ画像である、
請求項3又は4に記載の情報処理装置。 The presenting means individually presents a plurality of different avatar images,
The first region is a region on the right side with respect to the avatar image,
The second region is a region on the left side with respect to the avatar image,
The recommendation information is an avatar image having the largest proportion of the first line-of-sight distribution among the plurality of avatar images.
The information processing apparatus according to claim 3 or 4.
前記第1領域は、前記アバタ画像に対して向かって右側に位置し、
前記第2領域は、前記アバタ画像に対して向かって左側に位置し、
前記レコメンド情報は、前記アバタ画像における前記第1視線分布の割合に応じた情報である、
請求項3又は4に記載の情報処理装置。 The image is an avatar image;
The first region is located on the right side with respect to the avatar image,
The second area is located on the left side with respect to the avatar image,
The recommendation information is information according to a ratio of the first line-of-sight distribution in the avatar image.
The information processing apparatus according to claim 3 or 4.
請求項3〜8の何れかに記載の情報処理装置。 The image includes at least one of a plurality of images obtained by applying different hairstyles to the user's face and an image obtained by performing different operations on the user's face.
The information processing apparatus according to claim 3.
前記視線情報に基づいて、前記鏡像における前記ユーザの視線の偏りを計算する手段を備え、
前記視線の偏りに基づいて、前記鏡像に関するレコメンド情報を決定する手段を備え、
前記レコメンド情報を提示する手段を備える、
情報処理装置。 Means for acquiring line-of-sight information regarding the movement of the user's line of sight with respect to a mirror image of the user's face;
Means for calculating a bias of the user's line of sight in the mirror image based on the line of sight information;
Means for determining recommendation information on the mirror image based on the bias of the line of sight;
Means for presenting the recommendation information;
Information processing device.
前記鏡像の鏡像空間を所定の境界線で第1領域及び第2領域に分割し、
前記第1領域における第1視線分布と、
前記第2領域における第2視線分布と、
を計算する、
請求項10に記載の情報処理装置。 The means for calculating is
Dividing the mirror image space of the mirror image into a first region and a second region at a predetermined boundary line;
A first line-of-sight distribution in the first region;
A second line-of-sight distribution in the second region;
Calculate
The information processing apparatus according to claim 10.
前記第2領域は、前記鏡像に対して向かって左側に位置し、
前記レコメンド情報は、前記第1視線分布の割合に応じた情報であって、且つ、前記鏡像に対する前記ユーザの評価に関する情報である、
請求項11に記載の情報処理装置。 The first region is located on the right side with respect to the mirror image,
The second region is located on the left side with respect to the mirror image,
The recommendation information is information according to a ratio of the first line-of-sight distribution, and information related to the user's evaluation with respect to the mirror image.
The information processing apparatus according to claim 11.
前記ユーザの視線の動きに関する視線情報を取得する手段を備え、
前記視線情報に基づいて、前記画像における前記ユーザの視線の動きのパターンに関する視線パターンを計算する手段を備え、
前記計算した視線パターンに基づいて、前記ユーザに提示すべきレコメンド情報を決定する手段を備え、
前記決定したレコメンド情報を提示する手段を備える、
情報処理装置。 Means for presenting an image of the user's face;
Means for acquiring line-of-sight information related to the movement of the user's line of sight;
Means for calculating a line-of-sight pattern related to a movement pattern of the user's line of sight in the image based on the line-of-sight information;
Means for determining recommended information to be presented to the user based on the calculated line-of-sight pattern;
Means for presenting the determined recommendation information;
Information processing device.
請求項13に記載の情報処理装置。 The calculating means calculates a stop time, which is a time when the user's line of sight stops in a predetermined range of stop area, as the line-of-sight pattern.
The information processing apparatus according to claim 13.
請求項13又は14に記載の情報処理装置。 The means for calculating calculates, as the line-of-sight pattern, the number of stops, which is the number of times the user's line of sight has stopped in a predetermined range of stop areas.
The information processing apparatus according to claim 13 or 14.
請求項13〜15の何れかに記載の情報処理装置。 The calculating means calculates an area in which the line of sight of the user is distributed as the line-of-sight pattern.
The information processing apparatus according to claim 13.
請求項13〜16の何れかに記載の情報処理装置。 The calculating means calculates the order of movement of the user's line of sight as the line-of-sight pattern.
The information processing apparatus according to claim 13.
請求項13〜17の何れかに記載の情報処理装置。 The calculating means calculates an area in which the user's line of sight has moved as the line-of-sight pattern.
The information processing apparatus according to claim 13.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018086366A JP7253325B2 (en) | 2018-04-27 | 2018-04-27 | Information processing device, program, and information processing method |
PCT/JP2019/015012 WO2019208152A1 (en) | 2018-04-27 | 2019-04-04 | Information processing device and program |
TW108112650A TW201945898A (en) | 2018-04-27 | 2019-04-11 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018086366A JP7253325B2 (en) | 2018-04-27 | 2018-04-27 | Information processing device, program, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019192072A true JP2019192072A (en) | 2019-10-31 |
JP7253325B2 JP7253325B2 (en) | 2023-04-06 |
Family
ID=68294182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018086366A Active JP7253325B2 (en) | 2018-04-27 | 2018-04-27 | Information processing device, program, and information processing method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7253325B2 (en) |
TW (1) | TW201945898A (en) |
WO (1) | WO2019208152A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220142334A1 (en) * | 2019-02-22 | 2022-05-12 | Shiseido Company, Ltd. | Information processing apparatus and computer program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017115453A1 (en) * | 2015-12-28 | 2017-07-06 | パナソニックIpマネジメント株式会社 | Makeup simulation assistance device, makeup simulation assistance method, and makeup simulation assistance program |
WO2018029963A1 (en) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | Make-up assistance apparatus and make-up assistance method |
-
2018
- 2018-04-27 JP JP2018086366A patent/JP7253325B2/en active Active
-
2019
- 2019-04-04 WO PCT/JP2019/015012 patent/WO2019208152A1/en active Application Filing
- 2019-04-11 TW TW108112650A patent/TW201945898A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017115453A1 (en) * | 2015-12-28 | 2017-07-06 | パナソニックIpマネジメント株式会社 | Makeup simulation assistance device, makeup simulation assistance method, and makeup simulation assistance program |
WO2018029963A1 (en) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | Make-up assistance apparatus and make-up assistance method |
Non-Patent Citations (2)
Title |
---|
江川陽、外1名: "視線データからの画像評価に関する研究", 映像情報メディア学会 2011年年次大会講演予稿集 [CD−ROM], JPN6019022257, 1 August 2011 (2011-08-01), pages 2 - 6, ISSN: 0004909060 * |
飯田峻広、外4名: "顔画像による印象判断内容に応じた視線運動の差異ならびに化粧による影響の分析", 映像情報メディア学会 2015年年次大会講演予稿集 [CD−ROM], JPN6019022258, 5 August 2015 (2015-08-05), pages 14 - 4, ISSN: 0004909061 * |
Also Published As
Publication number | Publication date |
---|---|
TW201945898A (en) | 2019-12-01 |
WO2019208152A1 (en) | 2019-10-31 |
JP7253325B2 (en) | 2023-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055160B1 (en) | Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program | |
US10559102B2 (en) | Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program | |
US11579686B2 (en) | Method and device for carrying out eye gaze mapping | |
CN109154983A (en) | It is configured as the wear-type display system of exchange biometric information | |
US20220383389A1 (en) | System and method for generating a product recommendation in a virtual try-on session | |
JP7177224B2 (en) | Facial visual impression discrimination method, facial impression analysis device, facial impression analysis program, facial visual impression analysis method, and makeup effect discrimination method | |
Wu et al. | Users’ perceptions of technological features in augmented reality (AR) and virtual reality (VR) in fashion retailing: A qualitative content analysis | |
AU2019240635A1 (en) | Targeted marketing system and method | |
US20200118349A1 (en) | Information processing apparatus, information processing method, and program | |
JP7278972B2 (en) | Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology | |
WO2019208152A1 (en) | Information processing device and program | |
US11409823B2 (en) | Information processing apparatus, coating material generator, and computer program | |
JP6320844B2 (en) | Apparatus, program, and method for estimating emotion based on degree of influence of parts | |
JP7406502B2 (en) | Information processing device, program and information processing method | |
JP6583754B2 (en) | Information processing device, mirror device, program | |
JP2017130170A (en) | Conversation interlocking system, conversation interlocking device, conversation interlocking method, and conversation interlocking program | |
Hynes et al. | An evaluation of lower facial micro expressions as an implicit QoE metric for an augmented reality procedure assistance application | |
JP2019212325A (en) | Information processing device, mirror device, and program | |
US20220142334A1 (en) | Information processing apparatus and computer program | |
Nystad et al. | A comparison of two presence measures based on experimental results | |
WO2020261531A1 (en) | Information processing device, method for generating learned model of make-up simulation, method for realizing make-up simulation, and program | |
US20200210872A1 (en) | System and method for determining cosmetic outcome evaluation | |
WO2023228931A1 (en) | Information processing system, information processing device, information processing method, and program | |
Yumurtaci | A theoretical framework for the evaluation of virtual reality technologies prior to use: A biological evolutionary approach based on a modified media naturalness theory | |
KR102694532B1 (en) | Customized cosmetics recommendation device and method using skin diagnosis results, computer program, recording medium, recommendation server and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180904 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7253325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |